Singleton (gouvernance mondiale)

Un article de Wikipédia, l'encyclopédie libre.

En futurologie, un singleton est un ordre mondial hypothétique dans lequel il existe au plus haut niveau une seule agence décisionnelle, capable d'exercer un contrôle efficace et d'empêcher les menaces internes et externes à sa suprématie. Le terme a d'abord été défini par Nick Bostrom[1],[2],[3],[4],[5],[6].

Aperçu[modifier | modifier le code]

Selon Nick Bostrom, un singleton est un concept abstrait pouvant être implémenté de diverses façons[7] :

« un singleton pourrait être une démocratie, une tyrannie, une unique IA dominante, un solide ensemble de normes mondiales incluant des dispositions efficaces pour leur mise en application, ou même encore un seigneur extraterrestre — ce qui le définit étant simplement qu'il s'agit d'une sorte d'entité capable de résoudre tous les problèmes majeurs de coordination mondiale. Il peut ressembler ou non à une forme familière de gouvernance humaine. »

Selon Bostrom, une superintelligence pourrait former un singleton[8]. Les technologies de surveillance ou de contrôle de la pensée pourraient aussi faciliter l'émergence d'un singleton[1].

Un singleton peut présenter à la fois des risques des avantages. Un singleton pourrait résoudre des problèmes de coordination mondiale qui ne pourraient autrement pas être résolus, ouvrant à des trajectoires de développement civilisationnel autrement inaccessibles. Par exemple, Ben Goertzel, un chercheur spécialisé dans l'intelligence artificielle générale, suggère que les humains pourraient choisir de créer une IA avec « une intelligence et des pouvoirs de surveillance légèrement surhumains », pour protéger la race humaine contre des risques existentiels comme ceux liés aux nanotechnologies, et pour empêcher le développement d'intelligences artificielles dangereuses tant que les problèmes de sécurité ne sont pas résolus[9]. Un singleton pourrait s'imposer des limitations, se contentant par exemple de n'intervenir que pour faire respecter certaines règles[10]. Bostrom suggère aussi qu'un singleton permettrait de contenir les pressions évolutives darwiniennes, empêchant la domination par des agents ne s'intéressant qu'à la reproduction[11].

Bostrom considère également la possibilité d'un régime mondial stable, répressif et totalitaire comme un sérieux risque existentiel[12]. La stabilité même d'un singleton rend l'émergence d'un mauvais singleton particulièrement catastrophique, puisque celui-ci ne peut jamais être défait. Bryan Caplan écrit que « peut-être qu'une éternité de totalitarisme serait pire que l'extinction »[13].

De même, Hans Morgenthau soutient que le développement des armes, des moyens de transport et de communications rend « la conquête du monde techniquement possible, et ils permettent techniquement de maintenir le monde dans cet état conquis ». Cette absence était selon Morgenthau la raison pour laquelle les anciens grands empires, quoique vastes, n'ont pas réussi à achever leurs conquêtes, et ont parfois échoué à conserver les territoires acquis. Il affirme que la technologie défait les barrières géographiques et climatiques, et que « Aujourd'hui, aucun obstacle technologique ne s'oppose à un empire mondial », car « la technologie moderne permet d'étendre le contrôle de l'esprit et de l'action à tous les coins du globe, quelles que soient la géographie et la saison »[14].

Articles connexes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. a et b Nick Bostrom (2006). "What is a Singleton?". Linguistic and Philosophical Investigations 5(2): 48-54.
  2. Dvorsky, « 7 Totally Unexpected Outcomes That Could Follow the Singularity », io9, (consulté le )
  3. Miller, « The Singleton Solution », hplusmagazine.com, (consulté le )
  4. James Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era, (ISBN 978-0312622374, lire en ligne)
  5. Olle Haggstrom, Here Be Dragons: Science, Technology and the Future of Humanity, (ISBN 9780198723547, lire en ligne)
  6. Dónal O'Mathúna, Nanoethics: Big Ethical Issues with Small Technology, A&C Black, (ISBN 9781847063953, lire en ligne Inscription nécessaire), 185
  7. (en) Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN 978-0-19-967811-2) :

    « a singleton could be democracy, a tyranny, a single dominant AI, a strong set of global norms that include effective provisions for their own enforcement, or even an alien overlord—its defining characteristic being simply that it is some form of agency that can solve all major global coordination problems. It may, but need not, resemble any familiar form of human governance. »

  8. (en) Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN 978-0-19-967811-2)
  9. Goertzel, Ben. "Should Humanity Build a Global AI Nanny to Delay the Singularity Until It’s Better Understood?", Journal of consciousness studies 19.1-2 (2012): 1-2.
  10. (en) Nick Bostrom, Superintelligence: paths, dangers, strategies, Oxford University Press, (ISBN 978-0-19-967811-2) :

    « One could imagine a singleton whose existence is invisible (e.g. a superintelligence with such advanced technology or insight that it could subtly control world events without any human noticing its interventions); or a singleton that voluntarily imposes very strict limitations on its own exercise of power (e.g. punctiliously confining itself to ensuring that certain treaty-specified international rules—or libertarian principles—are respected). »

  11. Nick Bostrom (2004). "The Future of Human Evolution". Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy (Ria University Press: Palo Alto, California): 339-371.
  12. Nick Bostrom (2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". Journal of Evolution and Technology 9(1).
  13. (en) Nick Bostrom et Milan M. Ćirkovic, Global catastrophic risks, Oxford university press, (ISBN 978-0-19-857050-9), « The totalitarian threat » :

    « perhaps an eternity of totalitarianism would be worse than extinction »

  14. Politics Among Nations: The Struggle for Power and Peace, 4e édition, New York: Alfred A. Knopf, 1967, p 358-365. Extraits traduits depuis l'anglais : « the conquest of the world technically possible, and they make it technically possible to keep the world in that conquered state », « Today no technological obstacle stands in the way of a world-wide empire », « modern technology makes it possible to extend the control of mind and action to every corner of the globe regardless of geography and season. »