Superintelligence : Paths, Dangers, Strategies

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Superintelligence : Paths, Dangers, Strategies
Image illustrative de l'article Superintelligence : Paths, Dangers, Strategies

Auteur Nick Bostrom
Genre Essai
Date de parution 2014

Superintelligence : chemins, dangers, stratégies (en anglais : Superintelligence: Paths, Dangers, Strategies) (2014) est un livre écrit par le philosophe suédois Nick Bostrom de l'université d'Oxford. Le livre pose le constat que si une superintelligence venait à être créée et qu’elle surpassait l'intelligence générale humaine, alors elle pourrait remplacer et dominer les humains[1]. Par analogie, de même que le sort des gorilles dépend maintenant plus des humains que des gorilles eux-mêmes, le sort de l'humanité future dépendra des actions de la superintelligence[2]. Le résultat pourrait être une catastrophe existentielle pour l'homme[3].

Le livre de Bostrom a été traduit dans de nombreuses langues et est disponible en livre audio[4],[5].

Synopsis[modifier | modifier le code]

L’auteur commence par énumérer les différentes possibilités qui pourraient conduire à l’apparition d’une superintelligence. Elles incluent le génie génétique, la reproduction sélective, le transhumanisme, l’intelligence machine soit par rétro-ingénierie soit par le développement d’algorithmes d’apprentissage. L’auteur conclu cette première prospective par la haute probabilité de l’émergence d’une superintelligence. Le temps nécessaire à cette apparition n’est pas déterminé mais selon l’auteur le risque existe que cette apparition soit très rapide. Quel que soit le calendrier, une fois que la machine d’un niveau cognitif comparable aux humains sera développée, un système « superintelligent dépassant largement les performances cognitives de l'homme dans pratiquement tous les domaines » devrait suivre étonnamment rapidement, peut-être même instantanément. Une telle superintelligence serait difficile à contrôler ou restreindre.

Alors que les objectifs ultimes d’une superintelligence pourraient varier considérablement, une superintelligence fonctionnelle générera spontanément des sous-objectifs naturels ou instrumentaux tels que l'auto-préservation, l'intégrité de ses buts, l’amélioration cognitive et l'acquisition des ressources. Par exemple, un agent dont le seul but final est de résoudre l'hypothèse de Riemann (une célèbre conjecture mathématique non résolue) pourrait signifier comme sous-objectif la transformation de l'ensemble de la Terre en une certaine forme de computronium (hypothétique « matière programmable ») pour faciliter le calcul. La superintelligence agirait proactivement pour parer toutes tentatives extérieures visant à entraver la réalisation de ce sous-objectif. Afin d'éviter une telle catastrophe existentielle, il semble nécessaire de résoudre le « problème du contrôle de l'IA » avant qu’une première superintelligence ne voit le jour. La solution pourrait impliquer d'inculquer à la superintelligence des objectifs compatibles avec la survie humaine et son bien-être. Résoudre le problème du contrôle est cependant étonnamment difficile parce que la plupart des objectifs, lorsqu'ils sont traduits en code implémentable dans une machine, conduisent à des conséquences imprévues et indésirables.

Réception[modifier | modifier le code]

Le livre a été classé n° 17 meilleur livre de science en août 2014 par le New York Times[6]. Durant le même mois, le magnat des affaires Elon Musk a fait la une des titres en déclarant, en accord avec le livre, que l'intelligence artificielle était potentiellement plus dangereuse que les armes nucléaires[7],[8],[9]. Le travail de Bostrom sur la superintelligence a également influencé Bill Gates[10],[11]. Dans une interview de mars 2015 avec le PDG de Baidu, Robert Li, M. Gates a affirmé qu'il « recommandait vivement » la lecture du livre de Bostrom[12].

Pour l'éditeur du Financial Times, l'écriture de Bostrom « était parfois opaque trahissant son expérience en tant que professeur de philosophie», mais que l’ouvrage était convaincant, démontrant que le risque d’une superintelligence était assez grand pour que la société réfléchisse dès maintenant aux moyens de doter à l'avenir une intelligence machinelle de valeurs positives[1]. Une revue dans The Guardian fait remarquer que « même les machines les plus sophistiquées créées aujourd’hui sont loin d’être intelligentes » et que « les premières prédictions d’une IA surhumaine dataient des années 1960 », l’article concède malgré tout qu’il « serait mal avisé de rejeter complètement cette possibilité »[3].

Certains collègues de Bostrom suggèrent qu’une guerre nucléaire reste une plus grande menace pour l'humanité qu’une superintelligence, de même que les perspectives qu’apportent les nanotechnologies et de la biotechnologie en matière d’armement destructeur[13]. The Economist déclare que « Bostrom est contraint de passer une grande partie du livre à discuter de spéculations construites sur des conjectures... mais que le livre est néanmoins intéressant ». Les implications de l'introduction d'une deuxième espèce intelligente sur Terre sont potentiellement assez grande pour mériter qu’on s’y arrête, même si les perspectives semblent lointaines »[14]. Ronald Bailey écrit dans the libertarian Reason que pour Bostrom la résolution du problème du contrôle de l'IA est la « tâche essentielle assignée à notre époque »[15]. Selon Tom Chivers de The Daily Telegraph, le livre est difficile à lire, mais néanmoins enrichissant[16].

Références[modifier | modifier le code]

  1. a et b Financial Times review, juillet 2014
  2. « Superintelligence: Paths, Dangers, Strategies (publisher synopsis) » (consulté le 30 juillet 2014) : « The human brain has some capabilities that the brains of other animals lack. It is to these distinctive capabilities that our species owes its dominant position. If machine brains surpassed human brains in general intelligence, then this new superintelligence could become extremely powerful - possibly beyond our control. As the fate of the gorillas now depends more on humans than on the species itself, so would the fate of humankind depend on the actions of the machine superintelligence. »
  3. a et b (en) Caspar Henderson, « Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock – review », The Guardian,‎ (lire en ligne)
  4. « Superintelligent Swede snapped up by OUP »
  5. « Superintelligence Audiobook - Nick Bostrom - Audible.com », Audible.com
  6. « Best Selling Science Books », sur New York Times, New York Times (consulté le 9 novembre 2014)
  7. « Artificial intelligence ‘may wipe out the human race’ », The Times
  8. « Elon Musk tweets Artificial Intelligence may be "more dangerous than nukes" »
  9. « The New York Times Blog », The New York Times (consulté le 4 mars 2015)
  10. « Forbes », Forbes (consulté le 19 février 2015)
  11. « The Fiscal Times », The Fiscal Times (consulté le 19 février 2015)
  12. « Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015 », YouTube (consulté le 8 avril 2015)
  13. Guardian review, juillet 2014.
  14. (en) « Clever cogs », The Economist,‎ (lire en ligne) :

    « It may seem an esoteric, even slightly crazy, subject. And much of the book’s language is technical and abstract (readers must contend with ideas such as "goal-content integrity" and "indirect normativity"). Because nobody knows how such an AI might be built, Mr Bostrom is forced to spend much of the book discussing speculations built upon plausible conjecture. He is honest enough to confront the problem head-on, admitting at the start that "many of the points made in this book are probably wrong." But the book is nonetheless valuable. The implications of introducing a second intelligent species onto Earth are far-reaching enough to deserve hard thinking, even if the prospect of actually doing so seems remote. Trying to do some of that thinking in advance can only be a good thing. »

  15. (en) Ronald Bailey, « Will Superintelligent Machines Destroy Humanity? », Reason,‎ (lire en ligne)
  16. (en) Tom Chivers, « Superintelligence by Nick Bostrom, review: 'a hard read' », The Telegraph,‎ (lire en ligne) :

    « If you’re looking for a friendly, accessible introduction to AI issues, then this is probably not the place to start. But if you’re interested in this topic, and you’re prepared to do a bit of mental spadework, it is rewarding. »