Nick Bostrom

Un article de Wikipédia, l'encyclopédie libre.
Nick Bostrom
Nick Bostrom en 2020.
Biographie
Naissance
Nom de naissance
Niklas BoströmVoir et modifier les données sur Wikidata
Nationalité
Formation
Activités
Autres informations
A travaillé pour
Directeurs de thèse
Colin Howson (en), Craig Callender (en)Voir et modifier les données sur Wikidata
Site web

Nick Bostrom, né Niklas Boström, le , est un philosophe suédois connu pour ses travaux sur les risques existentiels, le principe anthropique, l'hypothèse de la simulation et l'impact de technologies futuristes[1] telles que la superintelligence.

Il intervient régulièrement aussi sur des sujets tels que le transhumanisme, le clonage, l'intelligence artificielle, le téléchargement de l'esprit, la colonisation de l'espace, les biotechnologies, les nanotechnologies, les pandémies, la réalité simulée et le principe d'indépendance du support[1].

Jeunesse et éducation[modifier | modifier le code]

Né sous le nom de Niklas Boström en 1973[2] à Helsingborg en Suède, il a une aversion pour l'école dès son jeune âge[3] et a passé sa dernière année de lycée à étudier chez lui[4].

Il a été diplômé en physique, philosophie et en neurosciences computationelles. En 2000, il obtient un doctorat en philosophie[5].

Risques existentiels[modifier | modifier le code]

Nick Bostrom définit en 2002 le concept de risque existentiel comme un risque d'annihilation de la vie intelligente venant de la Terre ou de perte drastique et irréversible de son potentiel[6],[7].

En 2008, il publie le livre Global Catastrophic Risks, où il définit la notion plus large de catastrophe planétaire. Une catastrophe existentielle est un type particulièrement grave et permanent de catastrophe planétaire[8].

Nick Bostrom a fondé en 2005 l'Institut pour le Futur de l'Humanité (Future of Humanity Institute) de l'université d'Oxford, et en est depuis le directeur[9]. Il sert aussi de conseiller pour le Centre pour l'étude des risques existentiels[10].

Il publie en 2019 un article sur l'hypothèse du monde vulnérable[11], où il décrit un cadre théorique pour classifier et gérer d'éventuelles technologies pouvant détruire l'humanité si elles sont mises au point. Il propose quelques expériences de pensée illustrant comment de telles vulnérabilités auraient pu historiquement survenir (par exemple si les bombes nucléaires avaient été moins difficiles à produire, ou si leur explosion était capable d'embraser l'atmosphère)[12].

Superintelligence[modifier | modifier le code]

Dans son livre Superintelligence : chemins, dangers, stratégies publié en 2014, Bostrom argumente qu'il est possible des créer des superintelligences, et explore les différents types de superintelligences, leurs motivations, et les risques associés[13]. Il définit une superintelligence comme « un système qui surpasse largement tous les individus humains dans tous les domaines cognitifs »[14]. Selon lui, ces superintelligences permettraient des avantages sociétaux importants, et posent en même temps un risque existentiel significatif pour l’humanité[13].

Bostrom fait une distinction importante entre objectif final et objectif instrumental. Pour un agent intelligent, un objectif final a une valeur là où un objectif instrumental n'est utile que comme un moyen d'accomplir des objectifs finaux. Bostrom introduit le concept de convergence instrumentale, qui suggère que certains objectifs instrumentaux (tels que le fait de préserver son intégrité physique ou d'acquérir plus de ressources) sont utiles pour accomplir un grand nombre d'objectifs finaux. Il introduit aussi la thèse d'orthogonalité, qui est l'idée que tout niveau d'intelligence puisse en théorie être combiné avec pratiquement n'importe quel objectif final. Il illustre ces deux principes avec l'expérience de pensée du maximiseur de trombones, une superintelligence ayant l'objectif final absurde de créer autant de trombones que possible[15] :

« Supposons que nous ayons une IA dont l'unique but soit de faire autant de trombones que possible. L'IA se rendra vite compte que ce serait bien mieux s'il n'y avait pas d'humains, parce que les humains pourraient décider de l'éteindre. Parce que si les humains le faisaient, il y aurait moins de trombones. De plus, le corps humain contient beaucoup d'atomes qui pourraient être transformés en trombones. L'avenir vers lequel l'IA essaierait de se diriger serait un futur avec beaucoup de trombones mais aucun humain. »

— Nick Bostrom[16]

Bostrom considère que chercher à maîtriser une superintelligence n'est pas une solution viable, et qu'il faut aligner la superintelligence avec des valeurs morales de sorte qu'elle soit « fondamentalement de notre côté »[17]. Il écrit aussi que la superintelligence pourrait être un atout dans la réduction d'autres risques existentiels, comme celui lié aux nanotechnologies, et pourrait gagner à être développée avant[18]. Et il estime que les machines superintelligentes pourraient radicalement améliorer le monde, par exemple dans la lutte contre le vieillissement, la maladie et la pauvreté ou en facilitant les voyages spatiaux[14].

Bostrom met aussi en garde contre d'autres catégories de risque existentiel liés à l'IA, tels que le risque pour que des humains l'utilisent à des fins destructrices, ou au risque pour que l'humanité échoue à tenir compte du statut moral qu'auraient des IAs sentientes[19].

Éthique de l'augmentation humaine[modifier | modifier le code]

En 1998, Bostrom fonde avec David Pearce la World Transhumanist Association[2] (depuis renommé Humanity+) et en 2004 il fonde avec James Hughes l'Institut d'Éthique pour les Technologies Émergentes (Institute for Ethics and Emerging Technologies)[20].

Il publie en 2005 la Fable du Dragon Tyran[21], qui personifie la mort sous la forme d'un dragon qui demande tous les jours des sacrifices humains. Cette fable dresse une analogie entre le fait de tuer le dragon et le fait d'adopter des techniques potentiellement accessibles dans le futur pour contrer le viellissement[22]. Elle critique une attitude de rationalisation de la mort, le but étant que les arguments soutenant cette acceptation de la mort semblent moins rationnels quand il s'agit d'accepter que des humains soient mangés par le dragon.

Avec le philosophe Toby Ord, il propose en 2006 le test de l'inversion[23]. Selon lui, si une action est jugée comme mauvaise mais que l'action inverse est aussi jugée mauvaise, cela met généralement en évidence un biais du status quo[24]. Il prend pour exemple l'augmentation de l'intelligence, comparant le fait d'augmenter et de réduire l'intelligence humaine (en faisant l'hypothèse que le coût et les risques médicaux de l'opération soient négligeables)[23].

Conscience artificielle[modifier | modifier le code]

Bostrom supporte le principe d'indépendance du substrat, qui suggère que la sentience puisse émerger sur divers types de substrats physiques, et pas uniquement sur des « réseaux de neurones biologiques à base de carbone » comme dans le cerveau[25]. Il considère qu'il y a différents degrés de sentience[26], et qu'il est possible en théorie de concevoir des consciences artificielles dont le rythme et l'intensité de l'expérience subjective seraient bien plus élevés que chez l'humain, tout en consommant relativement peu de ressources. Ces machines particulièrement sentientes, qu'il appelle des « super-bénéficiaires », pourraient être extrêmement efficaces pour ressentir du bonheur. Il recommande de chercher un cadre politique et éthique nous permettant de coexister avec ces consciences artificielles de manière mutuellement bénéfique[27].

Principe anthropique[modifier | modifier le code]

Bostrom a publié de nombreux articles sur le raisonnement anthropique, ainsi que le livre Anthropic Bias: Observation Selection Effects in Science and Philosophy, où il critique les précédentes formulations du principe anthropique. Il introduit un nouveau cadre pour analyser ce que la présence d'un observateur conscient permet d'apprendre sur le monde[28].

Il a par la suite mis en avant la notion d'ombre anthropique (anthropic shadow), un biais de sélection de l'observateur qui pousse à sous-estimer les risques de catastrophes suffisamment graves pour ne laisser aucun observateur, puisque dans ce cas il ne reste personne pour savoir que ça s'est produit[29].

L'argument de la simulation[modifier | modifier le code]

Bostrom considère que si les progrès technologiques continuent, il deviendra possible de créer des simulations de conscience. Ces consciences artificielles pourraient être créées en quantité tellement massive qu'un individu conscient pris au hasard dans le temps et dans l'espace serait quasiment à coup sûr une simulation de conscience. L'argument de la simulation consiste à montrer que l'une de ces trois choses est vraie[30],[31]:

  • Les civilisations n'atteignent très souvent pas ce niveau de technologie (par exemple à cause d'extinctions prématurées).
  • Les civilisations choisissent très souvent de ne pas créer un grand nombre de ces simulations.
  • Il est très probable d'être dans une simulation informatique.

Stratégie technologique[modifier | modifier le code]

Bostrom suggère qu'une politique technologique de réduction des risques existentiels devrait chercher à influencer l'ordre dans lequel arrivent ces technologies. Bostrom a proposé le principe de développement technologique différentiel, qui consiste à accélérer le dévelopement de technologies bénéfiques, principalement celles réduisant les risques existentiels, et à retarder le développement de technologies dangereuses, principalement celles augmentant les risques existentiels[7].

Bostrom a introduit le concept de malédiction de l'unilatéraliste (unilateralist's curse), qui fait que si une action néfaste peut être accomplie par un grand nombre d'agents bien intentionnés, le fait que ces agents agissent selon leur propre jugement augmente le risque que cette action soit accomplie[32].

Controverses[modifier | modifier le code]

Nick Bostrom a tenu des propos à caractère raciste dans un email en 1996. En 2023, quand cet email a été retrouvé, il poste une lettre d'excuse[33] où il indique « complètement répudier cet email dégoûtant »[34].

Références[modifier | modifier le code]

  1. a et b « Professor Nick Bostrom | University of Oxford », sur www.ox.ac.uk (consulté le )
  2. a et b « Nick Bostrom : « Le but ultime de l’intelligence artificielle doit être la disparition du travail » », sur Les Echos, (consulté le )
  3. (en-GB) Tim Adams, « Artificial intelligence: ‘We’re like children playing with a bomb’ », The Observer,‎ (ISSN 0029-7712, lire en ligne, consulté le )
  4. (en-US) Condé Nast, « The Doomsday Invention », sur The New Yorker, (consulté le )
  5. (en) Nick Bostrom, « Curriculum Vitae » [PDF]
  6. (en) Anthony Wing Kosner, « What Really Scares Tech Leaders About Artificial Intelligence? », sur Forbes (consulté le ) : « One where an adverse outcome would either annihilate Earth-originating intelligent life or permanently and drastically curtail its potential. »
  7. a et b « Existential Risks: Analyzing Human Extinction Scenarios », sur nickbostrom.com (consulté le )
  8. Global catastrophic risks, Oxford University Press, (ISBN 978-0-19-960650-4), chap. 1
  9. (en) Sam Shead, « How Britain's oldest universities are trying to protect humanity from risky A.I. », sur CNBC, (consulté le )
  10. (en) « Will humans be around in a billion years? Or a trillion? | Aeon Essays », sur Aeon (consulté le )
  11. (en) Nick Bostrom, The Vulnerable World Hypothesis, (lire en ligne)
  12. (en) Kelsey Piper, « How technological progress is making it likelier than ever that humans will destroy ourselves », sur Vox, (consulté le )
  13. a et b (en) Jim Lebans, « Imagining the singularity: What happens when computers transcend us? », sur CBC,
  14. a et b « Nick Bostrom : "Une superintelligence pourrait nous convaincre des vertus de presque n’importe quoi" », sur Philosophie magazine, (consulté le )
  15. (en) Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN 978-0-19-967811-2), « The superintelligent will »
  16. Kathleen Miles, « Artificial Intelligence May Doom The Human Race Within A Century, Oxford Professor Says », Huffington Post,‎ , « Suppose we have an AI whose only goal is to make as many paper clips as possible. The AI will realize quickly that it would be much better if there were no humans because humans might decide to switch it off. Because if humans do so, there would be fewer paper clips. Also, human bodies contain a lot of atoms that could be made into paper clips. The future that the AI would be trying to gear towards would be one in which there were a lot of paper clips but no humans ». (lire en ligne)
  17. Nick Bostrom, « What happens when our computers get smarter than we are? », (consulté le )
  18. (en) Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN 978-0-19-967811-2), « The strategic picture » :

    « The ground for preferring superintelligence to come before other potentially dangerous technologies, such as nanotechnology, is that superintelligence would reduce the existential risks from nanotechnology but not vice versa. »

  19. (en-US) « Nick Bostrom on the birth of superintelligence », sur Big Think (consulté le )
  20. (en) Marouane Jaouat, « Transhumanistes : qui sont-ils ? », sur The Conversation, (consulté le )
  21. « The Fable of the Dragon-Tyrant », sur nickbostrom.com (consulté le )
  22. (en) Lucinda April Campbell, « Motivations for Pursuing Radical Life Extension », Te Herenga Waka—Victoria University of Wellington, Open Access Te Herenga Waka-Victoria University of Wellington,‎ (lire en ligne, consulté le )
  23. a et b Nick Bostrom et Toby Ord, « The reversal test: eliminating status quo bias in applied ethics », Ethics, vol. 116, no 4,‎ , p. 656–679 (ISSN 0014-1704, PMID 17039628, DOI 10.1086/505233, lire en ligne, consulté le )
  24. (en-US) Julian Koplin and Christopher Gyngell, « Bringing woolly mammoths back from extinction could help environment », sur The New Daily, (consulté le )
  25. (en) « Are You Living in a Computer Simulation? », sur www.simulation-argument.com (consulté le ) : « Substrate-independence is a common assumption in the philosophy of mind.[...] It is not an essential property of consciousness that it is implemented on carbon-based biological neural networks inside a cranium »
  26. (en-US) Lauren Jackson, « What if A.I. Sentience Is a Question of Degree? », The New York Times,‎ (ISSN 0362-4331, lire en ligne, consulté le )
  27. (en) Richard Fisher, « The intelligent monster that you should let eat you », sur www.bbc.com (consulté le )
  28. Nick Bostrom, Anthropic bias: observation selection effects in science and philosophy, Routledge, coll. « Studies in philosophy », (ISBN 978-0-415-93858-7 et 978-0-415-88394-8)
  29. (en) Milan M. Cirković, Anders Sandberg et Nick Bostrom, « Anthropic shadow: observation selection effects and human extinction risks », Risk Analysis: An Official Publication of the Society for Risk Analysis, vol. 30, no 10,‎ , p. 1495–1506 (ISSN 1539-6924, PMID 20626690, DOI 10.1111/j.1539-6924.2010.01460.x, lire en ligne, consulté le )
  30. Nick Bostrom, « Are We living in a computer simulation? », Philosophical Quarterly, vol 53, N° 211,‎ (DOI 10.1111/1467-9213.00309).
  31. (en) Anil Ananthaswamy, « Do We Live in a Simulation? Chances Are about 50–50 », sur Scientific American (consulté le )
  32. (en-US) Lucien Crowder, « Horsepox synthesis: A case of the unilateralist’s curse? », sur Bulletin of the Atomic Scientists, (consulté le )
  33. (en) Nick Bostrom, « Apology for an Old Email » : « I completely repudiate this disgusting email from 26 years ago. »
  34. Linsey McGoey, « Elite Universities Gave Us Effective Altruism, the Dumbest Idea of the Century », Jacobin Magazine,‎ (lire en ligne)

Publications[modifier | modifier le code]

  • (en) Nick Bostrom, « Are you living in a computer simulation ? », Philosophical Quarterly, vol 53, No 211, 2003 (version en ligne)
  • (en) Nick Bostrom, Superintelligence : Paths, Dangers, Strategies, , 328 p. (ISBN 978-0-19-967811-2, lire en ligne)
  • Nick Bostrom (trad. de l'anglais par Françoise Parot), Superintelligence, Malakoff, Dunod, coll. « Quai des Sciences », , 496 p. (ISBN 978-2-10-076486-0)

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]