Singularité technologique

Un article de Wikipédia, l'encyclopédie libre.
Lorsqu’on représente sur un graphe logarithmique quinze listes différentes d’événements de l'histoire humaine, le graphe mettrait en évidence une tendance exponentielle. Listes préparées entre autres par Carl Sagan, Paul D. Boyer, l'Encyclopædia Britannica, l'American Museum of Natural History et l’Université de l'Arizona, compilées par Ray Kurzweil.

La singularité technologique (ou simplement la Singularité) est l'hypothèse selon laquelle l'invention de l'intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine[1].

Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement dans une « explosion d'intelligence », débouchant sur une puissante superintelligence qui dépasserait qualitativement de loin l'intelligence humaine[1],[2],[3].

Le risque serait que l'humanité perde le contrôle de son destin[4]. L'auteur de science fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l'ère humaine[3], la nouvelle superintelligence continuant de s'améliorer et d'évoluer technologiquement à une vitesse incompréhensible pour les humains[5].

Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 1950[6] et ses conséquences ont été débattues dans les années 1960 par I. J. Good. Selon Ray Kurzweil[7], cofondateur de la Singularity University[8],[3], la singularité deviendrait réalité approximativement en 2045.

La possibilité et la date de survenue de cet évènement hypothétique fait toutefois l'objet de débats entre scientifiques. Plusieurs futurologues et transhumanistes l’attendent pour la troisième décennie du XXIe siècle[9],[3].

Émergence du concept[modifier | modifier le code]

L'idée de présenter l'évolution exponentielle de la technologie remonte au moins à 1932, avec John B. Sparks et son « histocarte de l’évolution ». Vers la même époque, cette idée a été critiquée par le cybernéticien Heinz von Foerster (secrétaire des conférences Macy auxquelles a participé John von Neumann, entre autres)[10], en soutenant que les souvenirs s'estompent naturellement d'une manière exponentielle.

Même si le concept de singularité ne s’est développé qu'au cours des deux dernières décennies du XXe siècle, l’origine du terme remonte en fait aux années 1950 :

« L’une des conversations avait pour sujet l’accélération constante du progrès technologique et des changements du mode de vie humain, qui semble nous rapprocher d’une singularité fondamentale de l’histoire de l’évolution de l’espèce, au-delà de laquelle l’activité humaine, telle que nous la connaissons, ne pourrait se poursuivre. »

— Stanislaw Ulam, mai 1958, au sujet d’une conversation avec John von Neumann

Dans sa conférence du , « Psychanalyse et cybernétique ou de la nature du langage », Jacques Lacan relève, à son époque, un bougé des lignes du côté de la science, frémissement qu’il perçoit ainsi : « quelque chose est passé dans le réel, et nous sommes à nous demander — peut-être pas très longtemps, mais des esprits non négligeables le font — si nous avons une machine qui pense. » (cette citation fut à plusieurs reprises extraite de son contexte et attribuée à tort à John von Neumann lui-même).

En 1965, Irving John Good décrit un concept de singularité plus proche de son acception actuelle, dans le sens où il inclut l’arrivée d’intelligences artificielles générées par une première amorçant le phénomène[11].

Le terme de singularité ne désigne pas une croissance devenant infinie à l'instar d'une singularité mathématique, mais représente le fait que les modèles prédictifs existants ne sont plus appropriés à sa proximité, de la même façon que les modèles physiques actuels ne sont plus adaptés au voisinage d’une singularité de l'espace-temps.

La singularité vingienne[modifier | modifier le code]

Le concept de « singularité technologique » fut repopularisé en partie grâce au mathématicien et auteur Vernor Vinge[12]. Vinge a commencé à parler de la singularité dans les années 1980 et a formulé ses idées dans son premier article sur le sujet en 1993 : l’essai Technological Singularity[13]. Il y postule que, d’ici trente ans, l’humanité aurait les moyens de créer une intelligence surhumaine mettant un terme à l’ère humaine[3]. Depuis, la singularité a été le sujet de nombreuses nouvelles et essais futuristes.

Vinge écrit que des intelligences surhumaines, créées par des humains aux capacités augmentées cybernétiquement ou par d'autres intelligences artificielles moins développées, seraient capables d’améliorer leurs propres capacités plus efficacement que les esprits humains les ayant conçues. Ainsi, une spirale de progrès de plus en plus rapide amènerait à des progrès technologiques très importants en une courte période de temps.

La singularité peut être vue comme la fin des civilisations humaines actuelles et le début d’une nouvelle organisation. Dans son œuvre, Vinge s’interroge sur les raisons de cette fin et conclut que les humains pourraient s'organiser pendant la Singularité en une forme supérieure d’intelligence[3]. Après la création de cette intelligence « surhumaine », les humains seraient, d’après Vinge, des formes de vie ayant une moindre influence sur le développement du monde, plutôt membres participants à un système que « pilotes dans l'avion ».

Explosion d'intelligence[modifier | modifier le code]

Estimations de la puissance de traitement nécessaire pour émuler un cerveau humain à différents niveaux, ainsi que du supercalculateur le plus rapide du TOP500, cartographié par année, et d'une ligne de tendance. Détermination exponentielle, avec l'hypothèse du doublement de la puissance de calcul tous les 1,1 an pour la ligne de tendance.

Le terme « explosion d'intelligence » a été mentionné dès 1965 par Irving John Good[11] :

« Mettons qu’une machine supra-intelligente soit définie comme une machine capable de largement surpasser l'humain, aussi brillant soit-il, dans toutes les tâches intellectuelles. Comme la conception de telles machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans conteste une « explosion d’intelligence », et l’intelligence humaine serait très vite dépassée. Ainsi, l’invention de la première machine supra-intelligente est la dernière invention que l’Homme ait besoin de réaliser. »

Selon Jeff Hawkins en 2008[14] :

« Le terme Singularité appliqué à des machines intelligentes se réfère à l'idée que lorsque des machines intelligentes pourront concevoir des machines intelligentes, plus intelligentes qu'elles, cela provoquera une croissance exponentielle de l'intelligence des machines conduisant à une singularité de l'intelligence à l'infini (ou du moins immense). La croyance en cette idée se fonde sur une conception naïve de ce qu'est l'intelligence. Par analogie, imaginez que nous ayons un ordinateur qui pourrait concevoir de nouveaux ordinateurs (puces, systèmes et logiciels) plus rapides que lui-même. Est ce qu'un tel ordinateur produirait infiniment des ordinateurs ou même des ordinateurs plus rapides que ce que les humains pourraient construire d'eux-mêmes ? Non, cela pourrait accélérer le rythme des améliorations pour un certain temps, mais à la fin il y a des limites de taille et de vitesse. Nous arriverions au même résultat, nous aurions tout simplement été un peu plus rapides en prenant des risques. Et il n'y aurait eu aucune singularité. »

Prédictions[modifier | modifier le code]

En 1964, Irving John Good a prédit qu'il y avait plus d'une chance sur deux pour qu'une machine ultra-intelligente soit créée au 20e siècle[15]. Vernor Vinge a écrit en 1993 qu'il serait surpris si des intelligences supérieures à l'humain n'étaient pas créées entre 2005 et 2030[16]. Ray Kurzweil a prédit en 2005 une IA de niveau humain vers 2029[17], et la singularité en 2045[18]. Il a réaffirmé ces prédictions en 2017[19]. Hans Moravec a prédit en 1988 que si les progrès continuent à la même vitesse, les capacités de calcul nécessaires pour l'IA de niveau humain seraient accessibles dans les superordinateurs en 2010[20]. En 1998, il a prédit l'IA de niveau humain d'ici 2040, et dépassant grandement l'humain d'ici 2050[21].

Accélération du progrès[modifier | modifier le code]

Représentation des grandes avancées sur une échelle temporelle.

Eliezer Yudkowsky explique de manière abordable l'effet de l'accélération dans Scruter la Singularité (2004)[22] :

« La version courte :

  • si les vitesses de calcul doublent tous les deux ans, qu’arrive-t-il quand des IA informatisées font la recherche ?
  • la vitesse de calcul double tous les deux ans.
  • la vitesse de calcul double tous les deux ans de travail.
  • la vitesse de calcul double tous les deux ans subjectifs de travail.

Deux ans après que les Intelligences Artificielles ont atteint l’équivalence humaine, leur vitesse double. Un an après, leur vitesse double de nouveau.

Prenez les valeurs correspondant aux vitesses de calcul actuelles, à leur temps de doublement actuel, et à une estimation de la puissance de calcul brute du cerveau humain, et les valeurs coïncident en 2021. »

Raymond Kurzweil, un futuriste et inventeur (il a notamment inventé différents modèles de synthétiseurs), a proposé des théories étendant la loi de Moore à des formes de calcul autres qu’informatiques[3], qui suggèrent que les phases de croissance exponentielle du progrès technologique feraient partie de motifs visibles à travers toute l’histoire humaine et même avant, dès l’apparition de la vie sur Terre, en prenant en compte sa complexification biologique. D’après Kurzweil, ce motif aboutit au XXIe siècle à un progrès technologique inimaginable, ce qui ne veut pas dire infini.

Pour se représenter de manière abordable l'accélération de la vitesse, la vitesse étant le progrès, ce serait identique à un changement de vitesse sur une voiture ou un vélo : ce qui correspond à changer pour un rapport de couple supérieur permettant d'atteindre une vitesse supérieure, ce qui équivaut à plus de progrès pour une même valeur temporelle[réf. nécessaire].

La vitesse des flux, la vitesse d'apprentissage dans une société sont des composantes pouvant définir des limites systémiques dans la société[réf. nécessaire].

La question sera donc de savoir si toute l'humanité voudra changer de vitesse, ce qui pourrait par conséquent redéfinir la notion d'humanité, ou s’il y aura une humanité qui préférera rester à sa vitesse, ou peut être que l'avènement de la singularité se passera « trop vite » et personne ne pourra réagir : en prendre conscience avec un temps de réaction et d'observation à la vitesse humaine, puis la réaction politique, et législative[réf. nécessaire].

La définition de la singularité technologique serait alors : un progrès technologique si rapide que cela dépasse la capacité des humains à la contrôler ou à la prédire, à la comprendre et à réagir à temps[23]. Quelles sont les conséquences à long terme de la révolution industrielle pour l'humanité ? Et n'est-ce pas déjà une forme de singularité ?

Les questions d'ordre philosophique surgissent : l'« humain » est-il dépassé, et y a-t-il un mal à accepter ses limites naturelles[3] ? Y a-t-il un mal à vouloir s'améliorer ? Peut-on raisonnablement refuser le téléphone portable, dans notre société, et quelles en sont les conséquences ? Vous pouvez remplacer pour l'exemple l'outil téléphone portable par tout autre gadget à se greffer en permanence pour augmenter les capacités humaines. Slavoj Žižek pointe ce manque de réflexion de la société, et le manque d'attention voire de capacité et de temps pour la population, pour analyser et comprendre des grands problèmes philosophiques qui s'annoncent : OGM, manipulation génétique, cure génétique, intelligence artificielle, etc.[24]

Améliorations matérielles[modifier | modifier le code]

Évolution de la loi de Moore jusqu'en 2020[25].

La loi de Moore est l'observation selon laquelle le nombre de transistors sur les circuits intégrés double tous les deux ans. Elle permet en particulier de prédire l'évolution des capacités de mémoire. Elle s'est avérée correcte pendant des décennies, mais cette croissance semble s'être finalement ralentie, du fait des limites physiques de la miniaturisation[26],[27].

L'intelligence artificielle moderne repose cependant beaucoup sur les cartes graphiques, dont les capacités semblent croître à un rythme exponentiel. Similairement à la loi de Moore, la « loi de Huang » prédit que les capacités des cartes graphiques vont plus que doubler tous les deux ans[28]. Une étude estime, elle, que les performances des cartes graphiques doublent tous les 2,5 ans[29].

L'informatique quantique pourrait accélérer drastiquement certains types de calcul, mais n'a pas la même polyvalence que les ordinateurs classiques[30].

Les capacités de calcul pourraient aussi être améliorées en créant des puces en 3 dimensions, qui empilent verticalement plusieurs couches de transistors[31].

Enjeux[modifier | modifier le code]

Le futuriste Jamais Cascio estime en 2007 qu'il est important que la singularité se base sur des valeurs de démocratie, d'ouverture, de transparence et de libre accès[32].

Transhumanisme[modifier | modifier le code]

D’après l’idéologie transhumaniste, dont l’entrepreneur et directeur de l’ingénierie de Google Ray Kurzweil est le principal théoricien, la singularité technologique ressemble à une promesse eschatologique qui prédit une transformation profonde et radicale des sociétés humaines grâce au développement surprenant de l’intelligence artificielle (IA). Les dynamiques vertigineuses des IA associées aux progrès dans les champs des nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) conduiront probablement selon les transhumanistes à la fusion de l’homme avec la machine, à l’union du biologique avec la technologie, ce dont les effets pratiques seront de résoudre les problèmes humains les plus complexes (moraux, culturels, économiques, politiques, etc.) et même d’éradiquer la mort. La fusion effective de l’homme avec l’intelligence artificielle annoncerait la naissance d’une nouvelle humanité qui bénéficierait des capacités analytiques d’un superordinateur et qui serait débarrassée des inconvénients du corps biologique[33].

Critique des singularistes[modifier | modifier le code]

Critique du modèle scientifique[modifier | modifier le code]

Des auteurs, sans critiquer directement la notion de singularité, remettent en question l'idée d'accélération technologique.

Le concept de singularité ne tient pas compte des besoins et des ressources disponibles en énergie. Soit il postule des ressources infinies, soit il estime sans le démontrer que les besoins ne changeront que peu. Accessoirement, il ne tient pas compte de la limite quantique à laquelle la miniaturisation des composants électroniques se heurtera nécessairement un jour, ni de perturbations négligeables aux échelles actuelles et qui ne le resteront pas forcément à d'autres échelles (particules alpha, etc.) ; à moins que l'ordinateur quantique ne prenne le relais des composants traditionnels...

Les hypothèses relatives à la Singularité sont régulièrement critiquées pour leur manque de solidité scientifique. Theodore Modis rappelle par exemple[34] qu'une courbe exponentielle ne débouche sur aucune singularité, mais continue à croître à l'infini.

Jonathan Huebner écrit en conclusion de son article que « la preuve avancée indique que le rythme de l'innovation a atteint un pic il y a environ un siècle et est maintenant en déclin. Ce déclin est le plus probablement dû à une limite économique de la technologie ou à une limite du cerveau humain que nous approchons. Nous avons déjà parcouru 85 % du chemin qui nous sépare de cette limite, et le rythme du développement technologique diminuera à chaque année écoulée. »[35],[36]. De telles analyses se retrouvent également chez Bob Seidensticker[37] ou chez David Bodanis[38].

Il existe bien des limites politiques, économiques, militaires (et stratégiques), des limites en ressources, et surtout la connaissance et les découvertes technologiques ont également leurs limites. Comme le conçoit également Ray Kurzweil.

De plus, Ray Kurzweil ne prend pas suffisamment en compte ce qu'est réellement une intelligence artificielle. L'Homme a toujours créé des outils pour améliorer l'économie et la société, mais ces améliorations de plus en plus nombreuses ne peuvent dépasser l'intérêt de la société concernée, elles ne seront toujours que des moyens de plus en plus développés pour atteindre les buts de celle-ci. Une intelligence artificielle est l'un de ces outils que l'Homme crée pour satisfaire ses besoins. Par conséquent, quand bien même l'amélioration exponentielle de la technologie se prolongerait dans les années à venir, elle a une limite absolue qu'elle ne dépassera jamais : les besoins de la société qui, eux, ne sont pas exponentiels. Par conséquent, cela signifie qu'une fois que la technologie sera en mesure de complètement satisfaire la société, son évolution se stabilisera. Pour cette raison, toute singularité liée à l'amélioration d'une société a une limite prédéterminée : l'apogée de la société concernée.[Information douteuse][réf. nécessaire]

Critique dialectique[modifier | modifier le code]

Plusieurs auteurs sont très critiques à l'endroit de la notion de singularité, notamment telle que développée par Ray Kurzweil. Theodore Modis écrit ainsi : « Ce que je veux dire est que Kurzweil et les singularistes sont impliqués dans une sorte de para-science, qui diffère des vraies sciences en termes de méthodologie et de rigueur. Ils ont tendance à négliger les pratiques scientifiques rigoureuses telles que se concentrer sur les lois naturelles, donner des définitions précises, vérifier les données méticuleusement, et estimer les incertitudes. […] Kurzweil et les singularistes sont plus des croyants que des scientifiques. »[39],[34].

De son côté, Ted Gordon met également en doute les thèses de Kurzweil : « Kurzweil avance un argument frappant au sujet de l'accélération du changement. Il utilise de nombreuses courbes de croissance exponentielles, principalement concernant l'électronique, les nano-technologies et les ordinateurs, mais en incluant Internet et la biologie. Il montre une croissance similaire avec le PIB américain et le PIB par habitant. Il utilise également comme source majeure le travail de Modis sur le raccourcissement du temps entre les changements de paradigme. Il argumente en faveur de l'accélération du taux passé d'accélération et par conséquent de l'inévitabilité de la continuation de cet élan. Cependant, l'extrapolation sous toutes ses formes est dangereuse et condamnée en fin de compte à être fausse. »[40],[34].

Drew McDermott, sans être aussi sévère, s'inquiète des conséquences de ce genre de littérature pour les recherches en Intelligence Artificielle : « Bien que je ne pense pas que Kurzweil ait prouvé son affirmation à propos de l'IA (et je n'ai rien à dire à propos de ses arguments concernant la génétique, les nano-technologies, la politique ou l'écologie), il pourrait voir juste. Mais juste ou faux, j'aimerais qu'il arrête d'écrire de tels livres ! Le domaine de l'IA est régulièrement empesté de lubies qui semblent surgir à la moindre perturbation »[41],[42].

Plus simplement, on peut se rappeler que les singularités prévues en histoire de la physique (effondrement de l'atome de Bohr, catastrophe de l'ultraviolet…) n'ont jamais été observées, mais ont conduit plus simplement à un changement de modèle à leur voisinage.

La singularité technologique dans la fiction[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. a et b (en) Singularity hypotheses: A Scientific and Philosophical Assessment, Dordrecht, Springer, , 1–2 p. (ISBN 978-3-642-32560-1, lire en ligne)
  2. (en) David Chalmers, « The singularity: A philosophical analysis », dans Journal of Consciousness Studies 17.9-10, 2010, p. 7-65.
  3. a b c d e f g et h Dominique de Gramont, Le Christianisme est un transhumanisme, Paris, Éditions du Cerf, , 365 p. (ISBN 978-2-204-11217-8), chap. 1 (« A la recherche du transhumain »)
  4. (en) Bill Joy, « Why the Future Doesn't Need Us », Wired,‎ (ISSN 1059-1028, lire en ligne, consulté le )
  5. (en) Vernor Vinge, « The Coming Technological Singularity: How to Survive in the Post-Human Era », originellement dans Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, p. 11–22, 1993.
  6. Kurzweil appuie son propos en rapportant une citation apocryphe de Von Neumann, qui selon l'explication que donne Kurzweil (dans la 3e note du premier chapitre de son livre The Singularity is Near) serait une paraphrase de Von Neumann par Stanislaw Ulam, « Tribute to John Von Neumann », dans Bulletin of the American Mathematical Society 64.3, pt. 2 (May 1958). Von Neumann aurait ainsi dit, selon Ulam : « The ever accelerating process of technology […] gives the appearance of approaching some essential singularity. (La rapidité toujours croissante des technologies nous donne l'impression d'approcher une singularité essentielle. » Comme le relève Theodore Modis (dans Technological Forecasting & Social Change 73 (2006) 95–127), ces propos signalent plus une illusion qu'un phénomène réel, ce qui s'éloigne de l'interprétation que donne Kurzweil de la citation de Von Neumann.
  7. (en) Ray Kurzweil, The Singularity is Near, Ed. Viking, 2005, p.  10.
  8. Laurent Sacco, « Google recrute Ray Kurzweil, un gourou du transhumanisme », sur futura-sciences.com, .
  9. url Un monde sans humains, documentaire de Philippe Borrel, Arte, 2012.
  10. (en) « Interview Heinz von Foerster » (consulté le ).
  11. a et b (en) Irving John Good, « Speculations Concerning the First Ultraintelligent Machine », Advances in Computers,‎ (lire en ligne [archive du ]) :

    « Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultra-intelligent machine could design even better machines; there would then unquestionably be an "intelligence explosion," and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control. It is curious that this point is made so seldom outside of science fiction. It is sometimes worthwhile to take science fiction seriously. »

  12. Voir les romans Un feu sur l'abîme, Au tréfonds du ciel et La Captive du temps perdu.
  13. (en) « Technological Singularity » (consulté le ).
  14. (en) « Tech Luminaries Address Singularity - Ten technologists share their views on the Singularity », sur IEEE Spectrum, (consulté le ) : « The term 'singularity' applied to intelligent machines refers to the idea that when intelligent machines can design intelligent machines smarter than themselves, it will cause an exponential growth in machine intelligence leading to a singularity of infinite (or at least extremely large) intelligence. Belief in this idea is based on a naive understanding of what intelligence is. As an analogy, imagine we had a computer that could design new computers (chips, systems, and software) faster than itself. Would such a computer lead to infinitely fast computers or even computers that were faster than anything humans could ever build? No. It might accelerate the rate of improvements for a while, but in the end there are limits to how big and fast computers can run. We would end up in the same place; we'd just get there a bit faster. There would be no singularity. »
  15. (en) Irving John Good, « Speculations Concerning the First Ultraintelligent Machine », Advances in Computers,‎  :

    « It is more probable than not that, within the twentieth century, an ultraintelligent machine will be built »

  16. (en) « Vernor Vinge on the Singularity », sur mindstalk.net (consulté le )
  17. (en) « List of Analyses of Time to Human-Level AI », sur AI Impacts, (consulté le )
  18. (en) Ray Kurzweil, The Singularity Is Near, Penguin Group, , p. 120
  19. (en) « Kurzweil Claims That the Singularity Will Happen by 2045 », sur Futurism (consulté le )
  20. (en) Hans P. Moravec, Mind Children: The Future of Robot and Human Intelligence, Harvard University Press, (ISBN 978-0-674-57616-2, lire en ligne)
  21. (en) Hans P. Moravec, « Robot: Mere Machine to Transcendent Mind », sur philpapers.org, (consulté le )
  22. Eliezer Yudkowsky, « Scruter la Singularité », traduction de « Staring into the Singularity » (consulté le )
  23. (en) Steven A. Edwards, The nanotech pioneers: where are they taking us?, Wiley-VCH, (ISBN 978-3-527-31290-0)
  24. Slajov Zizek en conférence chez Google
  25. (en) « What is Moore’s Law? », sur Our World in Data (consulté le )
  26. « La loi de Moore est morte, vive la loi de Huang ! », sur banquetransatlantique.com, (consulté le )
  27. « La loi de Moore est morte, encore une fois. Et pour de bon ? », sur ZDNet France, (consulté le )
  28. (en) Christopher Mims, « Huang’s Law Is the New Moore’s Law, and Explains Why Nvidia Wants Arm », Wall Street Journal,‎ (ISSN 0099-9660, lire en ligne, consulté le )
  29. (en) Marius Hobbhahn, « Trends in GPU Price-Performance », sur Epoch, (consulté le )
  30. (en) Susan Galer, « If You Think AI Is Hot, Wait Until It Meets Quantum Computing », sur Forbes (consulté le )
  31. (en) « 3 Ways 3D Chip Tech Is Upending Computing - IEEE Spectrum », sur spectrum.ieee.org (consulté le )
  32. (en) Jamais Cascio, « Open the Future: Singularity Summit Talk: Openness and the Metaverse Singularity » (consulté le )
  33. Mark O’Connell (trad. de l'anglais), Aventures chez les transhumanistes : cyborgs, techno-utopistes, hackers et tous ceux qui veulent résoudre le modeste problème de la mort, Paris, L'Échappée, , 256 p. (ISBN 978-2-37309-037-6), p. 26
  34. a b et c Technological Forecasting & Social Change 73 (2006) 95–127
  35. « the evidence presented indicates that the rate of innovation reached a peak over a hundred years ago and is now in decline. This decline is most likely due to an economic limit of technology or a limit of the human brain that we are approaching. We are now approximately 85% of the way to this limit, and the pace of technological development will diminish with each passing year »
  36. Jonathan Huebner, A possible declining trend for worldwide innovation, Technological Forecasting & Social Change 72 (2005) 980–986
  37. Bob Seidensticker, Future Hype: The Myths of Technology Change, Berrett-Koehler Publishers, Inc., 2006
  38. David Bodanis, Slow Forward, Is the speed of technological change an illusion? Discover, Vol. 27 No. 06, June 2006.
  39. « What I want to say is that Kurzweil and the singularitarians are indulging in some sort of para-science, which differs from real science in matters of methodology and rigor. They tend to overlook rigorous scientific practices such as focusing on natural laws, giving precise definitions, verifying the data meticulously, and estimating the uncertainties. […] Kurzweil and the singularitarians are more believers than they are scientists »
  40. « Kurzweil makes an impressive argument about the acceleration of change. He uses many exponential growth curves, primarily drawn from electronics, nano-technology and computers, but including Internet and biology. He shows similar growth in real US GDP and GDP per capita. He also uses as one major source work by Modis on the shortening time between paradigm shifts. He argues for the acceleration of the past rate of acceleration and by implication the inevitability that this momentum will carry on. However, extrapolation in any guise is dangerous and ultimately bound to be wrong »
  41. « Although I don’t think Kurzweil has proved his case about AI (and I have had nothing to say about his arguments on genetics, nanotechnology, politics, or ecology), he may be right. But right or wrong, I wish he would stop writing these books! The field of AI is periodically plagued by “hype hurricanes” that seem to surge up from the slightest perturbation »
  42. D. McDermott, Kurzweil’s argument for the success of AI, Artificial Intelligence 170 (2006) 1227–1233
  43. Kill the tech bro, save the world: how CEOs became Hollywood's new supervillains, The Guardian, 6/6/2018
  44. Johann A R Roduit, Flesh & Foil, BioéthiqueOnline, (lire en ligne)

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Bibliographie[modifier | modifier le code]

  • Ray Kurzweil, « Humanité 2.0 : La bible du changement », M21 Éditions, 2007, (ISBN 9782916260044) (traduction de « The Singularity is near »)
  • Serge Boisse, « L'esprit, l'IA et la Singularité », (ISBN 978-2-9530512-1-6)
  • Kate Darling, Alain Bensoussan, Yannis Constantinides, Jean-Gabriel Ganascia, John Mc Carthy, Olivier Tesquet, « En compagnie des robots », (ISBN 979-10-94841-17-4)

Articles connexes[modifier | modifier le code]

Notions générales

Penseurs « pro-singularité »

Penseurs « anti-singularité »

Liens externes[modifier | modifier le code]