Superintelligence

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Une superintelligence est un agent hypothétique qui posséderait une intelligence de loin supérieure à celle des humains les plus brillants et les plus doués. Un système résolvant des problèmes (comme un traducteur automatique ou un assistant à la conception) est parfois aussi décrit comme « superintelligent » s'il dépasse de loin les performances humaines correspondantes, même si cela ne concerne qu'un domaine plus limité.

S'il existe des scénarios de création de superintelligence biologique, ou de superintelligence collective, la plupart des analyses se concentrent sur la possibilité qu'une intelligence artificielle devienne capable de s'améliorer elle-même, donnant naissance à la singularité technologique ; celle-ci est le sujet d'espoirs (le transhumanisme), mais aussi de craintes de catastrophe.

Définitions[modifier | modifier le code]

De manière générale, on parle de superintelligence dès qu'un agent dépasse de loin les performances humaines dans une activité intellectuelle. Le philosophe Nick Bostrom définit une « superintelligence » comme « un intellect beaucoup plus compétent que les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse et les talents sociaux. »[1]. Pour cet auteur, des programmes de jeux de réflexion, tels que Fritz ou AlphaGo, bien que largement supérieurs aux humains, ne méritent ainsi pas d'être considérés comme superintelligents, car ils ne sont compétents que pour une seule tâche[2]. Comme Marcus Hutter (en) avant lui, Bostrom définit la superintelligence comme une supériorité générale dans les comportements ayant un objectif, laissant ouverte la question de capacités telles que l'intentionnalité[3] ou la perception des qualia[4].

Possibilité de créer une superintelligence[modifier | modifier le code]

Les chercheurs sont en désaccord sur les chemins pouvant mener à une superintelligence. Le scénario le plus souvent proposé envisage des progrès en intelligence artificielle (IA), cependant d'autres pensent que les humains évolueront ou modifieront leur biologie pour augmenter radicalement leurs possibilités intellectuelles. Certaines analyses de futurologistes combinent des éléments de ces deux possibilités, suggérant que les humains pourraient se connecter directement à des ordinateurs, ou même y transférer leur esprit, de façon à permettre une amplification de leurs possibilités.

Superintelligence artificielle[modifier | modifier le code]

Progrès dans la classification automatique des images
Le taux d'erreur des IA, comparé au taux d'erreur d'un humain entrainé (ligne rouge)[5].

Certains chercheurs, comme David Chalmers[6], pensent que la superintelligence apparaîtra rapidement après la création d'une intelligence artificielle forte. Les premières machines véritablement intelligentes auront immédiatement une énorme supériorité au moins sur certaines capacités intellectuelles, par exemple une mémoire absolue, une base de connaissance énorme, ou la capacité de mener plusieurs tâches simultanément[7]. Plusieurs scientifiques considèrent l'étude de ces possibilités comme prioritaire, en raison de leur impact social potentiel[8].

Un logiciel suffisamment intelligent serait capable de se reprogrammer et de s'améliorer, ce qui le rendrait encore plus capable de s'améliorer, scénario connu sous le nom d'explosion d'intelligence ; c'est cette situation, proche du concept de singularité technologique, que de nombreux experts considèrent comme le chemin le plus plausible vers une superintelligence.

Une autre possibilité envisagée est la simulation du cerveau humain par des circuits électroniques, dont les performances sont typiquement de sept ordres de grandeur supérieures à celle des neurones[9]. Un système raisonnant comme un humain, mais des millions de fois plus rapidement, aurait évidemment un énorme avantage dans la plupart des tâches intellectuelles, en particulier celles demandant des décisions rapides, ou nécessitant de longues chaines de déductions couvrant de nombreux cas possibles. Un autre avantage des circuits électroniques est leur modularité, permettant d'accroitre presque sans limite leur taille et leur complexité. Nick Bostrom considère également que cela pourrait donner naissance à une « superintelligence collective », si l'on peut faire communiquer un nombre assez grand d'agents déjà intelligents par eux-mêmes.

On peut enfin espérer des améliorations qualitatives des raisonnements et des prises de décision humains[10],[11].

Superintelligence biologique[modifier | modifier le code]

Carl Sagan a suggéré que la généralisation des césariennes et de la fécondation in vitro pourrait permettre aux humains de développer de plus grands cerveaux, que la sélection naturelle pourrait ensuite conduire à une intelligence améliorée[12]. D'un autre côté, Gerald Crabtree (en) craint au contraire que la diminution des pressions de sélection amène à un déclin de l'intelligence humaine. Il n'y a pas de consensus à ce sujet, et dans tous les cas ces changements seraient lents, comparés à la vitesse des changements culturels.

Des méthodes eugéniques, et plus encore le génie génétique, pourraient améliorer l'intelligence humaine plus rapidement. Bostrom pense que si nous parvenons à comprendre les mécanismes génétiques de l'intelligence, nous pourrons sélectionner des embryons ayant un haut potentiel intellectuel ; itérant ce processus sur de nombreuses générations, les gains pourraient être très importants. Bostrom suggère de plus que le processus pourrait être énormément accéléré en travaillant directement sur les cellules souches embryonniares[13] ; une organisation sociale convenable d'humains ayant une intelligence exceptionnelle pourrait potentiellement développer une superintelligence collective[14].

Les avantages mentionnés plus haut d'une superintelligence artificielle sont cependant moins importants pour une superintelligence biologique, les contraintes physiologiques limitant la vitesse et la taille des cerveaux ; c'est pourquoi les études ont plutôt porté sur des scénarios d'intelligence artificielle[15]. Un compromis intéressant pourrait être la création de cyborgs, associations symbiotiques de l'homme et de la machine. Cependant, Bostrom exprime des doutes sur la faisabilité d'une interface superintelligente, estimant qu'il s'agit d'un problème aussi difficile que de créer une superintelligence artificielle pure[16].

Prévisions[modifier | modifier le code]

La majorité des chercheurs en intelligence artificielle s'attendent à ce que les machines soient un jour capable de rivaliser avec les humains sur le plan de l'intelligence, bien qu'il y ait peu de consensus sur la date à laquelle cela se produira. Ainsi, à la conférence de 2006 de l'AI@50 (en), 18 % des participants s'attendaient à ce que les machines « soient capable de simuler l'apprentissage et les autres capacités intellectuelles humaines » d'ici 2056 ; 41 % pensaient que cela se produirait, mais après 2056, et 41 % pensaient que les machines n'y arriveraient jamais[17].

En mai 2013, une enquête auprès des cent auteurs les plus cités dans le domaine de l'IA, 2070 était l'année médiane pour laquelle était estimée, avec une confiance de 90 %, que des machines pourraient « exercer la plupart des professions humaines aussi bien qu'un humain typique » ; avec une probabilité de 50 %, ils estimaient de même qu'il faudrait ensuite 30 ans pour que se développe une superintelligence[18].

Problèmes de conception et dangers potentiels[modifier | modifier le code]

La possibilité qu'une superintelligence échappe à ses créateurs (ce que Nick Bostrom appelle le « problème du contrôle »[19]). Eliezer Yudkowsky pense que les risques ainsi créés sont plus imprévisibles que toutes les autres sortes de risques, et il ajoute que la recherche à ce sujet est biaisée par l’anthropomorphisme : les gens basant leur analyse de l’intelligence artificielle sur leur propre intelligence[20], cela les amène à en sous-estimer les possibilités. Il sépare d’ailleurs les risques en problèmes techniques (des algorithmes imparfaits ou défectueux empêchant l’IA d’atteindre ses objectifs), et en échecs « philosophiques », bien plus pernicieux et difficiles à contrôler, où les objectifs de l’IA sont en fait nuisibles à l’humanité[21] ; de plus, presque par définition, une superintelligence serait si puissante qu'on ne pourrait l'arrêter en cas de comportement imprévu[22]. Comme l'explique Yudkowsky, en l'absence de contrôle : « L'IA ne vous détesterait pas nécessairement, mais vous êtes faits d'atomes qu'elle pourrait décider d'utiliser pour faire autre chose. »[23]

Nick Bostrom s'est inquiété des valeurs qui devraient être incorporées au design d'une superintelligence pour éviter ces problèmes. Il a ainsi comparé plusieurs propositions[24] :

  • Valeurs Extrapolées Cohérentes (VEC) : les valeurs sont celles sur lesquelles tous les humains s'accordent.
  • Justesse Morale (JM) : la valeur principale est la justice.
  • Permissivité Morale (PM) : tout ce qui est moral est permis, en respectant les valeurs VEC.

Voir aussi[modifier | modifier le code]

Citations[modifier | modifier le code]

  1. (en) Nick Bostrom, « How long before superintelligence? », Linguistic and Philosophical Investigations, vol. 5, no 1,‎ , p. 11–30 (lire en ligne)
  2. Bostrom 2014, p. 22.
  3. Voir l'argument de la chambre chinoise.
  4. Voir la question du problème difficile de la conscience.
  5. Chalmers 2010, p. 11-13.
  6. Chalmers 2010, p. 7.
  7. (en) Kevin Warwick, March of the Machines: The Breakthrough in Artificial Intelligence, University of Illinois Press, (ISBN 0-252-07223-5)
  8. Legg 2008, p. 135-137.
  9. Bostrom 2014, p. 59.
  10. (en) Eliezer Yudkowsky, « Intelligence Explosion Microeconomics », , p. 35.
  11. Bostrom 2014, p. 56-57.
  12. (en) Carl Sagan, The Dragons of Eden, Random House, .
  13. Bostrom 2014, p. 37-39.
  14. Bostrom 2014, p. 39.
  15. Bostrom 2014, p. 52, 59-61.
  16. Bostrom 2014, p. 36-37, 42, 47.
  17. (en) Meg Houston Maker, « AI@50: First Poll », .
  18. Müller et Bostrom 2016, p. 3-4, 6, 9-12.
  19. Bostrom 2014.
  20. Il s’agit là d’un des biais cognitifs qui rendent difficile l’appréciation exacte des risques de catastrophe planétaire.
  21. (en) Eliezer Yudkowsky, « Artificial Intelligence as a Positive and Negative Factor in Global Risk » [« L'intelligence artificielle comme facteur positif et négatif de risque global »], sur yudkowsky.net (consulté le 26 juillet 2013).
  22. Muehlhauser, Luke, et Louie Helm, "Intelligence Explosion and Machine Ethics." In Singularity Hypotheses: A Scientific and Philosophical Assessment, édité par Amnon Eden, Johnny Søraker, James H. Moor, et Eric Steinhart. Berlin : Springer.
  23. Eliezer Yudkowsky (2008) in Artificial Intelligence as a Positive and Negative Factor in Global Risk
  24. Bostrom 2014, p. 209-221.

Bibliographie[modifier | modifier le code]

  • (en) Nick Bostrom, « Existential Risks », Journal of Evolution and Technology, vol. 9,‎ (lire en ligne).
  • (en) Nick Bostrom, Superintelligence : Paths, Dangers, Strategies, Oxford University Press,
  • (en) David Chalmers, « The Singularity: A Philosophical Analysis », consc.net, vol. 17,‎ , p. 7-65 (lire en ligne).
  • (en) Bill Hibbard, Super-Intelligent Machines, Kluwer Academic/Plenum Publishers, .
  • (en) Shane Legg, « Machine Super Intelligence », Department of Informatics, University of Lugano, (consulté le 19 septembre 2014).
  • (en) Vincent C. Müller et Nick Bostrom, Fundamental Issues of Artificial Intelligence, Springer, , 553-571 p. (lire en ligne), chap. Future Progress in Artificial Intelligence: A Survey of Expert Opinion.
  • (en) Christopher Santos-Lang, « Our responsibility to manage evaluative diversity », ACM SIGCAS Computers & Society, vol. 44, no 2,‎ , p. 16–19 (DOI 10.1145/2656870.2656874, lire en ligne).

Liens externes[modifier | modifier le code]