Aller au contenu

2045: The Year Man Becomes Immortal


Déchet(s) recommandé(s)

(modifié)

1101110221_400.jpg

Le 21 février, le Times publiait une édition où y figure un article assez intéressant (et plutôt comique) de Lev Grossman qui traite des prédictions des informations sur le futur. Je vais vous laisser lire l'article en question.

[...]

Computers are getting faster. Everybody knows that. Also, computers are getting faster faster — that is, the rate at which they're getting faster is increasing. True? True.

So if computers are getting so much faster, so incredibly fast, there might conceivably come a moment when they are capable of something comparable to human intelligence. Artificial intelligence. All that horsepower could be put in the service of emulating whatever it is our brains are doing when they create consciousness — not just doing arithmetic very quickly or composing piano music but also driving cars, writing books, making ethical decisions, appreciating fancy paintings, making witty observations at cocktail parties.

If you can swallow that idea, and Kurzweil and a lot of other very smart people can, then all bets are off. From that point on, there's no reason to think computers would stop getting more powerful. They would keep on developing until they were far more intelligent than we are. Their rate of development would also continue to increase, because they would take over their own development from their slower-thinking human creators. Imagine a computer scientist that was itself a super-intelligent computer. It would work incredibly quickly. It could draw on huge amounts of data effortlessly. It wouldn't even take breaks to play Farmville.

Probably. It's impossible to predict the behavior of these smarter-than-human intelligences with which (with whom?) we might one day share the planet, because if you could, you'd be as smart as they would be. But there are a lot of theories about it. Maybe we'll merge with them to become super-intelligent cyborgs, using computers to extend our intellectual abilities the same way that cars and planes extend our physical abilities. Maybe the artificial intelligences will help us treat the effects of old age and prolong our life spans indefinitely. Maybe we'll scan our consciousnesses into computers and live inside them as software, forever, virtually. Maybe the computers will turn on humanity and annihilate us. The one thing all these theories have in common is the transformation of our species into something that is no longer recognizable as such to humanity circa 2011. This transformation has a name: the Singularity.

The difficult thing to keep sight of when you're talking about the Singularity is that even though it sounds like science fiction, it isn't, no more than a weather forecast is science fiction. It's not a fringe idea; it's a serious hypothesis about the future of life on Earth. There's an intellectual gag reflex that kicks in anytime you try to swallow an idea that involves super-intelligent immortal cyborgs, but suppress it if you can, because while the Singularity appears to be, on the face of it, preposterous, it's an idea that rewards sober, careful evaluation.

People are spending a lot of money trying to understand it. The three-year-old Singularity University, which offers inter-disciplinary courses of study for graduate students and executives, is hosted by NASA. Google was a founding sponsor; its CEO and co-founder Larry Page spoke there last year. People are attracted to the Singularity for the shock value, like an intellectual freak show, but they stay because there's more to it than they expected. And of course, in the event that it turns out to be real, it will be the most important thing to happen to human beings since the invention of language.

The Singularity isn't a wholly new idea, just newish. In 1965 the British mathematician I.J. Good described something he called an "intelligence explosion":

Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an "intelligence explosion," and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make.

The word singularity is borrowed from astrophysics: it refers to a point in space-time — for example, inside a black hole — at which the rules of ordinary physics do not apply. In the 1980s the science-fiction novelist Vernor Vinge attached it to Good's intelligence-explosion scenario. At a NASA symposium in 1993, Vinge announced that "within 30 years, we will have the technological means to create super-human intelligence. Shortly after, the human era will be ended."

By that time Kurzweil was thinking about the Singularity too. He'd been busy since his appearance on I've Got a Secret. He'd made several fortunes as an engineer and inventor; he founded and then sold his first software company while he was still at MIT. He went on to build the first print-to-speech reading machine for the blind — Stevie Wonder was customer No. 1 — and made innovations in a range of technical fields, including music synthesizers and speech recognition. He holds 39 patents and 19 honorary doctorates. In 1999 President Bill Clinton awarded him the National Medal of Technology.

But Kurzweil was also pursuing a parallel career as a futurist: he has been publishing his thoughts about the future of human and machine-kind for 20 years, most recently in The Singularity Is Near, which was a best seller when it came out in 2005. A documentary by the same name, starring Kurzweil, Tony Robbins and Alan Dershowitz, among others, was released in January. (Kurzweil is actually the subject of two current documentaries. The other one, less authorized but more informative, is called The Transcendent Man.) Bill Gates has called him "the best person I know at predicting the future of artificial intelligence.

In real life, the transcendent man is an unimposing figure who could pass for Woody Allen's even nerdier younger brother. Kurzweil grew up in Queens, N.Y., and you can still hear a trace of it in his voice. Now 62, he speaks with the soft, almost hypnotic calm of someone who gives 60 public lectures a year. As the Singularity's most visible champion, he has heard all the questions and faced down the incredulity many, many times before. He's good-natured about it. His manner is almost apologetic: I wish I could bring you less exciting news of the future, but I've looked at the numbers, and this is what they say, so what else can I tell you?

Kurzweil's interest in humanity's cyborganic destiny began about 1980 largely as a practical matter. He needed ways to measure and track the pace of technological progress. Even great inventions can fail if they arrive before their time, and he wanted to make sure that when he released his, the timing was right. "Even at that time, technology was moving quickly enough that the world was going to be different by the time you finished a project," he says. "So it's like skeet shooting — you can't shoot at the target." He knew about Moore's law, of course, which states that the number of transistors you can put on a microchip doubles about every two years. It's a surprisingly reliable rule of thumb. Kurzweil tried plotting a slightly different curve: the change over time in the amount of computing power, measured in MIPS (millions of instructions per second), that you can buy for $1,000.

As it turned out, Kurzweil's numbers looked a lot like Moore's. They doubled every couple of years. Drawn as graphs, they both made exponential curves, with their value increasing by multiples of two instead of by regular increments in a straight line. The curves held eerily steady, even when Kurzweil extended his backward through the decades of pretransistor computing technologies like relays and vacuum tubes, all the way back to 1900.

Kurzweil then ran the numbers on a whole bunch of other key technological indexes — the falling cost of manufacturing transistors, the rising clock speed of microprocessors, the plummeting price of dynamic RAM. He looked even further afield at trends in biotech and beyond — the falling cost of sequencing DNA and of wireless data service and the rising numbers of Internet hosts and nanotechnology patents. He kept finding the same thing: exponentially accelerating progress. "It's really amazing how smooth these trajectories are," he says. "Through thick and thin, war and peace, boom times and recessions." Kurzweil calls it the law of accelerating returns: technological progress happens exponentially, not linearly.

Then he extended the curves into the future, and the growth they predicted was so phenomenal, it created cognitive resistance in his mind. Exponential curves start slowly, then rocket skyward toward infinity. According to Kurzweil, we're not evolved to think in terms of exponential growth. "It's not intuitive. Our built-in predictors are linear. When we're trying to avoid an animal, we pick the linear prediction of where it's going to be in 20 seconds and what to do about it. That is actually hardwired in our brains."

Here's what the exponential curves told him. We will successfully reverse-engineer the human brain by the mid-2020s. By the end of that decade, computers will be capable of human-level intelligence. Kurzweil puts the date of the Singularity — never say he's not conservative — at 2045. In that year, he estimates, given the vast increases in computing power and the vast reductions in the cost of same, the quantity of artificial intelligence created will be about a billion times the sum of all the human intelligence that exists today.

The Singularity isn't just an idea. it attracts people, and those people feel a bond with one another. Together they form a movement, a subculture; Kurzweil calls it a community. Once you decide to take the Singularity seriously, you will find that you have become part of a small but intense and globally distributed hive of like-minded thinkers known as Singularitarians.

Not all of them are Kurzweilians, not by a long chalk. There's room inside Singularitarianism for considerable diversity of opinion about what the Singularity means and when and how it will or won't happen. But Singularitarians share a worldview. They think in terms of deep time, they believe in the power of technology to shape history, they have little interest in the conventional wisdom about anything, and they cannot believe you're walking around living your life and watching TV as if the artificial-intelligence revolution were not about to erupt and change absolutely everything. They have no fear of sounding ridiculous; your ordinary citizen's distaste for apparently absurd ideas is just an example of irrational bias, and Singularitarians have no truck with irrationality. When you enter their mind-space you pass through an extreme gradient in worldview, a hard ontological shear that separates Singularitarians from the common run of humanity. Expect turbulence.

In addition to the Singularity University, which Kurzweil co-founded, there's also a Singularity Institute for Artificial Intelligence, based in San Francisco. It counts among its advisers Peter Thiel, a former CEO of PayPal and an early investor in Facebook. The institute holds an annual conference called the Singularity Summit. (Kurzweil co-founded that too.) Because of the highly interdisciplinary nature of Singularity theory, it attracts a diverse crowd. Artificial intelligence is the main event, but the sessions also cover the galloping progress of, among other fields, genetics and nanotechnology.

At the 2010 summit, which took place in August in San Francisco, there were not just computer scientists but also psychologists, neuroscientists, nanotechnologists, molecular biologists, a specialist in wearable computers, a professor of emergency medicine, an expert on cognition in gray parrots and the professional magician and debunker James "the Amazing" Randi. The atmosphere was a curious blend of Davos and UFO convention. Proponents of seasteading — the practice, so far mostly theoretical, of establishing politically autonomous floating communities in international waters — handed out pamphlets. An android chatted with visitors in one corner.

After artificial intelligence, the most talked-about topic at the 2010 summit was life extension. Biological boundaries that most people think of as permanent and inevitable Singularitarians see as merely intractable but solvable problems. Death is one of them. Old age is an illness like any other, and what do you do with illnesses? You cure them. Like a lot of Singularitarian ideas, it sounds funny at first, but the closer you get to it, the less funny it seems. It's not just wishful thinking; there's actual science going on here.

For example, it's well known that one cause of the physical degeneration associated with aging involves telomeres, which are segments of DNA found at the ends of chromosomes. Every time a cell divides, its telomeres get shorter, and once a cell runs out of telomeres, it can't reproduce anymore and dies. But there's an enzyme called telomerase that reverses this process; it's one of the reasons cancer cells live so long. So why not treat regular non-cancerous cells with telomerase? In November, researchers at Harvard Medical School announced in Nature that they had done just that. They administered telomerase to a group of mice suffering from age-related degeneration. The damage went away. The mice didn't just get better; they got younger.

Aubrey de Grey is one of the world's best-known life-extension researchers and a Singularity Summit veteran. A British biologist with a doctorate from Cambridge and a famously formidable beard, de Grey runs a foundation called SENS, or Strategies for Engineered Negligible Senescence. He views aging as a process of accumulating damage, which he has divided into seven categories, each of which he hopes to one day address using regenerative medicine. "People have begun to realize that the view of aging being something immutable — rather like the heat death of the universe — is simply ridiculous," he says. "It's just childish. The human body is a machine that has a bunch of functions, and it accumulates various types of damage as a side effect of the normal function of the machine. Therefore in principal that damage can be repaired periodically. This is why we have vintage cars. It's really just a matter of paying attention. The whole of medicine consists of messing about with what looks pretty inevitable until you figure out how to make it not inevitable."

Kurzweil takes life extension seriously too. His father, with whom he was very close, died of heart disease at 58. Kurzweil inherited his father's genetic predisposition; he also developed Type 2 diabetes when he was 35. Working with Terry Grossman, a doctor who specializes in longevity medicine, Kurzweil has published two books on his own approach to life extension, which involves taking up to 200 pills and supplements a day. He says his diabetes is essentially cured, and although he's 62 years old from a chronological perspective, he estimates that his biological age is about 20 years younger.

But his goal differs slightly from de Grey's. For Kurzweil, it's not so much about staying healthy as long as possible; it's about staying alive until the Singularity. It's an attempted handoff. Once hyper-intelligent artificial intelligences arise, armed with advanced nanotechnology, they'll really be able to wrestle with the vastly complex, systemic problems associated with aging in humans. Alternatively, by then we'll be able to transfer our minds to sturdier vessels such as computers and robots. He and many other Singularitarians take seriously the proposition that many people who are alive today will wind up being functionally immortal.

[...] la suite: http://www.time.com/...48138-4,00.html

Je voulais connaître votre avis sur les prédictions de Kurzweil. Croyez-vous qu'un jour, la robotique aura évolué à un point tel qu'elle aura remplacé les humains jusque dans ses capacités les plus complexes (juger, nuancer, percevoir, penser...), en plus d'être capable de se reproduire? Croyez-vous qu'il est possible de corrompre les lois de la nature et rendre les humains immortels? Admettons que Kurzweil était critique sur Rotten Tomatoes, quelle cote croyez-vous qu'il donnerait à Blade Runner?

Modifié par Carlos Crasseux
  • J'aime! 4
Lien vers le commentaire
Partager sur d’autres sites

J'ai pas lu l'article, mais je me permets de répondre à une de tes questions. Croyez-vous qu'il est possible de corrompre les lois de la nature et rendre les humains immortels?

Je n'ai aucune connaissance en la matière, mais osti que j'espère que ça n'arrivera jamais. Premièrement, est-ce que l'immortalité empêcherait le vieillissement ? J'veux dire, à 90 ans, la plupart des humains sont dans un état désolant, c'est-à-dire que beaucoup d'entre eux n'ont plus la capacité de marcher, de se faire à manger, parfois même de se nourrir eux-mêmes. Je m'imagine bien à 389 ans...

Pis l'immortalité, ça a quand même ses limites. Mets-moi dans un broyeur et je sais pas si je vais continuer à vivre peu importe n'importe quoi.

Et dans la mesure où ça deviendrait un jour possible, et généralisée, j'ai drôlement hâte de voir les démographes nous prédire la population mondiale des années futures.

  • J'aime! 1
Lien vers le commentaire
Partager sur d’autres sites

De plus la mort humaine, mais en général aussi, est lucrative.

J'espère être morte depuis longtemps si ce genre de scientifiques réussissent un jour à nous rendre immortel.

Je ne crois pas vraiment qu'ils réussiront. Mais la possibilité est toujours là.. Ça serait dégueulasse.

Lien vers le commentaire
Partager sur d’autres sites

Je crois personnellement dans un future où homme et machine synthétique ne font plus qu'un. La technologie avance à une allure étonnante. On n'a qu'à penser aux nanotechnologies, à la neurologie, à la cybernétique et au monde de l'internet.

Je vois très bien comment dans un future proche, on va pouvoir connecter notre cerveau directement sur internet et partager de l'information à une vitesse ahurissante. Selon moi, la race humaine devrais se concentrer sur cet objectif plutôt que de se détruire les uns les autres.

La première étape est l'unification de la race humaine par le pouvoir de la technologie. La deuxième? La colonisation de l'espace.

Si nous ne nous détruisons pas nous mêmes d'abord, je vois mal comment on pourrait empêcher ce future de se réaliser.

  • J'aime! 1
Lien vers le commentaire
Partager sur d’autres sites

En français, parce qu'on est sur un forum francophone ;

Nous approchons le moment où les ordinateurs vont devenir non seulement intelligents, mais bien plus intelligents que nous les humains. Quand cela se produira, l'humanité - nos corps, nos esprits, notre civilisation - en sera totalement et pour toujours transformée. Ce n'est pas de la science-fiction. Le très sérieux magazine The Time consacre un très long article à cette transformation radicale à venir et à cette thèse connue sous le nom de singularité. Le mot singularité lui-même a été emprunté à l'astrophysique. Il décrit un point dans l'espace-temps - par exemple dans un trou noir - où les règles de la physique ordinaire ne s'appliquent plus.

Cette théorie de la singularité appliquée à l'espèce humaine qui va transcender son corps et son esprit est portée par quelqu'un considéré comme un des plus grands génies scientifiques de notre temps Ray Kurzweil. Il est décrit comme un «impitoyable génie» par le Wall Street Journal et comme une «machine à penser» par Forbes. Selon ses calculs, la fin de la civilisation telle que nous la connaissons se produira dans 35 ans.

Sous son impulsion, l'Université de la Singularité (Singularity University) a été fondée il y a trois ans. Elle est abritée par la NASA et l'un de ses principaux sponsors est Google. Le cofondateur de Google, Larry Page, y est intervenu l'année dernière.

Tout part du constat que les ordinateurs sont de plus en plus rapides et puissants et que cette évolution ne se ralentit pas... au contraire. Cela signifie qu'à un moment proche ils seront capables de faire des choses comparables à l'intelligence humaine. Toute cette puissance et cette vitesse vont être à même d'émuler tout ce que nous avons dans le cerveau y compris la conscience, c'est-à-dire pas seulement de faire des calculs ultra rapides et composer de la musique, mais conduire des voitures, écrire des livres, prendre des décisions éthiques, juger de la qualité d'une peinture…

Si on comprend et admet cette perspective, et Ray Kurzweil et d'autres personnes très brillantes sont convaincues qu'elle est imminente, alors tout devient possible. Il n'y a aucune raison de penser que les ordinateurs vont cesser de devenir encore plus puissants.

Il est impossible de prédire le comportement de ces intelligences surhumaines avec qui nous devrons un jour partager la planète. Mais les théories ne manquent pas. Peut-être allons-nous fusionner avec ces machines et devenir des cyborgs surperintelligents utilisant des ordinateurs pour augmenter nos capacités. Peut-être que l'intelligence artificielle nous permettra de prolonger notre vie indéfiniment. Peut-être que nous deviendrons de purs esprits et vivront à l'intérieur de ces machines. Peut-être les ordinateurs se retourneront contre leurs créateurs et annihileront l'humanité.

Il y a une chose que toutes ces théories ont en commun: la transformation de notre espèce en quelque chose qui ne sera jamais plus l'humanité que nous connaissons en 2011.

http://www.slate.fr/lien/34063/2045-homme-immortel-singularite

  • J'aime! 1
Lien vers le commentaire
Partager sur d’autres sites

Je ne crois pas vraiment qu'en 2030, l'ordinateur va égaler ou surpasser l'intelligence humaine.

Si on se fie à la croissance du nombre de calculs par seconde ou du nombre de transistors sur un circuit, ça sonne très impressionnant, mais j'ai 3 objections :

1 - Il y a une limite physique au nombre de transistors sur un circuit, à un certain point, à cause de la grosseur d'un atome, tu ne peux pas ajouter de transistors sur un circuit, ça ne peux pas être exponentiel pour toujours. Même aujourd'hui, la performance des cpu ne doublent pas à chaque 6 mois.

2 - Même si demain, avec une nouvelle technologie, on avait des processeurs 1000 fois plus puissant, qu'est-ce qu'on ferait avec..? Les performances d'un ordinateur ont augmenté énormément dans les 10 dernières années, pourtant l'intelligence artificielle n'a pas augmenté de manière si impressionnante.

Watson est impressionnant, mais je ne trouve pas qu'il est énormément plus impressionnant que google.

Même si la performance des ordinateurs grossit exponentiellement, les algorithmes créer de l'intelligence de manière presque logarithmique (intelligence = ln(performance de l'ordinateur) ).

3 - La réponse au point 2 pourrait être "On a qu'à reverse-engineeré le cerveau!", et c'est pas faux. Cependant, je crois qu'on risque de tomber dans un cercle logique de : "Pour avoir une intelligence artifcielle très puissante, il faut reverse engineeré le cerveau, mais pour reverse engineeré le cerveau, il faut avoir une intelligence artificielle très puissante."

La singularity, j'y crois, mais pas dans 30 ans.

  • J'aime! 1
Lien vers le commentaire
Partager sur d’autres sites

Croyez-vous qu'il est possible de corrompre les lois de la nature et rendre les humains immortels?

Il n'y a pas de "loi" de la nature qui prédise la mortalité. Ce qui est mis en mouvement demeure dans cet état en l'absence d'intervention extérieure (friction, gravité, collision, dommages des éléments etc.). C'est de l'anthropomorphisme que de croire que la matière se dégénère naturellement car elle a plutôt tendance à ne pas changer. Si on parvient à minimiser l'impact de l'environnement sur le corps humain et sur son fonctionnement, donc, il n'y a pas de limite à la durée de vie de notre organisme.

Reste à savoir si c'est possible, toutefois.

Lien vers le commentaire
Partager sur d’autres sites

L'immortalité chez les humains ou un espérance de vie beaucoup plus élevé est seulement une question de temps. Les 15 à 20 prochaines années vont changer l'humanité à jamais, si la planète survie d'ici ce temps. la science évolue à la puissance 100 depuis une 10e d'année.

Immortality Science

Scientific American

Discover Magazine

Je ne crois pas que les ordinateur deviennent intelligent comme un être humain. Nous ne pouvons synthétiser la conscience.

Lien vers le commentaire
Partager sur d’autres sites

(modifié)

Tout part du constat que les ordinateurs sont de plus en plus rapides et puissants et que cette évolution ne se ralentit pas... au contraire. Cela signifie qu'à un moment proche ils seront capables de faire des choses comparables à l'intelligence humaine. Toute cette puissance et cette vitesse vont être à même d'émuler tout ce que nous avons dans le cerveau y compris la conscience, c'est-à-dire pas seulement de faire des calculs ultra rapides et composer de la musique, mais conduire des voitures, écrire des livres, prendre des décisions éthiques, juger de la qualité d'une peinture…

Les ordinateurs sont capables de calculs plus complexes de façon plus rapide, certes.. mais encore ont-ils besoins de quelque chose à calculer.

Si un ordinateur compose de la musique, il devra être programmer humainement pour pouvoir le faire.. un humain devrai lui transmettre à travers la programmation "Tel ensemble de notes sonne bien". Prendre des décisions éthiques, j'en suis pas certain.. Il y a une large différence entre avoir une grande rapidité d'exécution et avoir une conscience.. Bref je crois pas qu'un ordinateur possède un jugement autre que celui auquel il est programmé.

Je crois qu'il faudrait d'abord être capable de déveloper la facultée d'utiliser au moins 50% du cerveau humain avant d'entreprendre quoi que ce soit au niveau des humains-cyborgs. Je persiste à croire que la véritable force du cerveau humain qui est encore inconnue à ce jour se révelerait plusieurs fois plus puissante que ce que l'intelligence artificielle l'est ou pourra l'être.

Modifié par DanBoy
  • J'aime! 1
Lien vers le commentaire
Partager sur d’autres sites

un humain devrai lui transmettre à travers la programmation "Tel ensemble de notes sonne bien".

La musique, c'est la mathématique des vibrations. Pas besoin d'input humain pour ça. Un ordinateur pourrait techniquement créer une oeuvre musicale parfaite uniquement grâce à des calculs.

Lien vers le commentaire
Partager sur d’autres sites

(modifié)

Encore là, c'est pas parce qu'une mélodie ne fausse pas que c'est nécéssairement agréable à l'oreille humaine.. à moins qu'un se fasse "chipper" pour rendre potable la musique que composeront les ordinateurs ;)

Sinon, je me suis peut-être gourré pour la musique.. mais le jugement et la conscience, je reste loin d'être convaincu.

Modifié par DanBoy
Lien vers le commentaire
Partager sur d’autres sites

Je crois qu'il faudrait d'abord être capable de déveloper la facultée d'utiliser au moins 50% du cerveau humain avant d'entreprendre quoi que ce soit au niveau des humains-cyborgs. Je persiste à croire que la véritable force du cerveau humain qui est encore inconnue à ce jour se révelerait plusieurs fois plus puissante que ce que l'intelligence artificielle l'est ou pourra l'être.

L'humain utilise 100% de son cerveau.

  • J'aime! 2
Lien vers le commentaire
Partager sur d’autres sites

Le problème c'est qu'en ce moment, même d'un point de vue strictement théorique et spéculatif, on a aucune vraie bonne théorie qui expliquerait quelque chose comme une conscience de soi. En gros, on sait que si on se blesse on a pas simplement l'information d'une blessure, mais une sensation intime de douleur qui nous appartient. Même chose pour à peu près tout ce qu'on fait, mais on a aucune idée comment ce genre de phénomène peut émerger d'une organisation matérielle X (notre cerveau/corps en occurence). En gros, on en fait tous l'expérience personnelle de cette conscience, et on postule que tous les autres l'ont parce que tout indique qu'on se ressemble tous, mais on comprend pas comment on pourrait définir la conscience d'un point de vue fonctionnel extérieur. En gros on arrive toujours à une sorte de définition circulaire où en gros l'esprit et sa conscience c'est comme un film sur un écran qui se regarde lui-même.

Bref, même si la machine fait des calculs de plus en plus complexe et qu'elle est capable d'imiter les output d'un cerveau humain en terme d'actions, on est même pas proche de pouvoir concevoir comment on pourrait donner une conscience à cette machine là. C'est comme de dire que d'arriver à émuler en calcul informatique tous les phénomènes physiques qui ont lieu dans une voiture serait équivalent à une vraie voiture, mais en réalité ça ne serait qu'une simulation. Faut faire attention car on applique souvent le même genre de raisonnement avec l'esprit. C'est une erreur conceptuelle que de penser que parce que le cerveau humain est entre autre capable de faire un calcul signifie que toutes ses fonctions se mesurent sous forme de capacité de calculs.

---

Même Watson d'IBM est pas vraiment un "feat" en terme d'algorithme logiciel, c'est simplement un amalgame d'outils statistiques de références (le même genre que Google utilise par exemple) qui donnent des résultats qui sont ensuite l'objet d'une sorte de "moyenne" qui donne une réponse à Watson. En gros la force de Watson c'est pas tellement d'être capable de comprendre des phrases, c'est surtout des liens statistiques entre les mots et d'en faire une quantité phénoménale à chaque seconde. C'est un achievement en terme de puissance de calcul simplement.

  • J'aime! 1
Lien vers le commentaire
Partager sur d’autres sites

Le problème c'est qu'en ce moment, même d'un point de vue strictement théorique et spéculatif, on a aucune vraie bonne théorie qui expliquerait quelque chose comme une conscience de soi. En gros, on sait que si on se blesse on a pas simplement l'information d'une blessure, mais une sensation intime de douleur qui nous appartient. Même chose pour à peu près tout ce qu'on fait, mais on a aucune idée comment ce genre de phénomène peut émerger d'une organisation matérielle X (notre cerveau/corps en occurence). En gros, on en fait tous l'expérience personnelle de cette conscience, et on postule que tous les autres l'ont parce que tout indique qu'on se ressemble tous, mais on comprend pas comment on pourrait définir la conscience d'un point de vue fonctionnel extérieur. En gros on arrive toujours à une sorte de définition circulaire où en gros l'esprit et sa conscience c'est comme un film sur un écran qui se regarde lui-même.

Bref, même si la machine fait des calculs de plus en plus complexe et qu'elle est capable d'imiter les output d'un cerveau humain en terme d'actions, on est même pas proche de pouvoir concevoir comment on pourrait donner une conscience à cette machine là. C'est comme de dire que d'arriver à émuler en calcul informatique tous les phénomènes physiques qui ont lieu dans une voiture serait équivalent à une vraie voiture, mais en réalité ça ne serait qu'une simulation. Faut faire attention car on applique souvent le même genre de raisonnement avec l'esprit. C'est une erreur conceptuelle que de penser que parce que le cerveau humain est entre autre capable de faire un calcul signifie que toutes ses fonctions se mesurent sous forme de capacité de calculs.

---

Même Watson d'IBM est pas vraiment un "feat" en terme d'algorithme logiciel, c'est simplement un amalgame d'outils statistiques de références (le même genre que Google utilise par exemple) qui donnent des résultats qui sont ensuite l'objet d'une sorte de "moyenne" qui donne une réponse à Watson. En gros la force de Watson c'est pas tellement d'être capable de comprendre des phrases, c'est surtout des liens statistiques entre les mots et d'en faire une quantité phénoménale à chaque seconde. C'est un achievement en terme de puissance de calcul simplement.

Ce qui m'inquiète dans cette histoire là, c'est que même si un jour on croit avoir reproduit fidèlement la conscience (parce qu'on approche un simulâcre de compréhension à ce domaine là. Même vulgarisé on peut arriver à en comprendre les grandes lignes, alors je n'imagine pas pour ceux qui sont au coeur même des études, je te conseils "The Ego Tunnel" de Metzinger à ce sujet là) donc, c'est que même si un jour on croit avoir reproduit fidèlement la conscience, il est possible que son transfert ne soit pas "authentique" mais seulement un émule foutrement habile pour nous le faire croire.

J'ai toujours ce scénario d'horreur en tête où l'ont voit nos amis et familles se faire "robotiser", ou changer de corps si on veut. Du jour au lendemain tout le monde a un nouveau corps, plus résistant, plus forts, plus puissant, puis éventuellement c'est ton tour. Tu entre dans la machine, on t'explique la procédure. Tu t'endors tranquillement et puis... c'est tout. Y'a plus rien. Pour jamais. Pour l'eternam. Pendant ce temps là, un bout de féraille se promène avec 500TB de remplie avec ma mémoire.

Ça me fat frissonner.

L'immortalité c'est la pire chose qui peut arriver à la mortalité. La mort aujourd'hui c'est encore acceptable parce "c'est la vie", mais mourir va devenir réellement un drame quand ce sera quelque chose qui n'est pas supposé arriver.

Lien vers le commentaire
Partager sur d’autres sites

Je suggère de lire sur le bateau/paradoxe de Thésée afin d'amorcer un questionnement sur l'identité.

http://fr.wikipedia....h%C3%A9s%C3%A9e

Si, en somme, on réussit à conserver le corps d'un homme ou d'un cyborg en vie en en remplaçant à mesure les organes ou pièces défectueuses, pourra-t-on dire que cet être est immortel? Pourra-t-on seulement dire qu'il s'agit toujours du même être? Sinon, à partir de quand?

Lien vers le commentaire
Partager sur d’autres sites

Pourra-t-on seulement dire qu'il s'agit toujours du même être? Sinon, à partir de quand?

Il va s'agir d'une auto-définition, attribué par une être conscient à lui-même, en vertu de sa relation avec sa propre identité, comme elle évolue dans le temps.

C'est comme dans le film La Mouche, où le protagoniste perd progressivement son humanité, pour devenir autre chose. Arrive un certain point dans le film où Brundlefly réalise que le rapport de force entre l'humain et la mouche bascule dramatiquement et irrévocablement:

"Have you ever heard of insect politics? Neither have I! Insects don't have politics.... they're very brutal. No compassion.... no compromise.

We can't trust the insect. I'd like to become the first insect politician. I'd like to, but....

I'm an insect.... who dreamed he was a man, and loved it. But now the dream is over, and the insect is awake..."

Alors il adopte et assume sciemment (mais pas nécessairement librement) une nouvelle identité, non-humaine.

emot-350.gif

Lien vers le commentaire
Partager sur d’autres sites

En gros on arrive toujours à une sorte de définition circulaire où en gros l'esprit et sa conscience c'est comme un film sur un écran qui se regarde lui-même.

Bref, même si la machine fait des calculs de plus en plus complexe et qu'elle est capable d'imiter les output d'un cerveau humain en terme d'actions, on est même pas proche de pouvoir concevoir comment on pourrait donner une conscience à cette machine là.

Si une machine serait capable de simuler parfaitement le I/O d'un cerveau humain, je crois qu'on pourrait considérer qu'elle possède une conscience. Si on a pas de définition précise de ce que c'est, ou au moins un test pour vérifier, on pourrait dire : "si c'est rond, orange, et que ça a une pelure, alors c'est surement une orange"

Lien vers le commentaire
Partager sur d’autres sites

J'avais l'impression de relire Hypérion (Dan Simmons), quand on explique l'avènement des IA et leur montée en puissance, leur "utilisation" du cerveau humain, etc.

Freaky.

Lien vers le commentaire
Partager sur d’autres sites

Si une machine serait capable de simuler parfaitement le I/O d'un cerveau humain, je crois qu'on pourrait considérer qu'elle possède une conscience. Si on a pas de définition précise de ce que c'est, ou au moins un test pour vérifier, on pourrait dire : "si c'est rond, orange, et que ça a une pelure, alors c'est surement une orange"

Ton idée est semblable au Test de Turing, qui dit que dans le fond on pourrait considérer comme "adéquat" une intelligence artificielle si on est incapable de distinguer ses réponses à celles d'un humain.

Mais à quelque part ça ne rend pas compte de l'expérience interne à l'agent, pas nécessairement la même chose que les Input/Output. L'exemple de la "chambre chinoise" illustre bien ce problème.

La "chambre chinoise" est une mise en situation. Imagine que tu es placé seul dans une pièce avec un très gros livre. T'un côté tu as une petite fente ou tu peux recevoir des "feuilles". En gros, imaginons que tu reçois dans cette chambre constamment des feuilles avec une série de symboles incompréhensibles, du "chinois", et que tu as l'instruction quand tu reçoit une telle feuille d'aller chercher les symboles dans le grand livre qui lui contient toujours d'autres symboles associés, et tu dois écrire sur la feuille une "réponse" à l'aide des symboles qui sont associé dans le très gros livre, et ensuite quand c'est terminer refaire sortir la feuille dûment remplie dans la fente.

En gros, ton gros livre comprend des réponses "cohérente" aux questions posées en chinois sur la feuille que tu reçoit, et d'un point de vue extérieur, on a l'impression que c'est une machine qui "comprend" le chinois parce que les Output de la pièce sont "cohérent" avec les questions qui sont posées. Mais en réalité, tu n'a AUCUNE compréhension de ce que tu es en train de "dire". Tout ce que tu fais c'est associer des symboles à d'autres symboles. Tu es essentiellement une machine de traitement de symboles.

Cet exemple là montre bien la situation d'une "intelligence artificielle", qui peut bien imiter les I/O d'un cerveau humain sans toutefois vraiment "comprendre" ce qu'elle fait comme on considère un humain est capable de faire.

  • J'aime! 1
Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Je veux revenir!
 Partager

×
×
  • Créer...