Centre pour l'étude des risques existentiels

Un article de Wikipédia, l'encyclopédie libre.

Le centre pour l'étude des risques existentiels[1] (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge créé à l'origine pour se concentrer sur l'étude des risques liés à des évolutions de la technologie susceptible de mettre en danger l'avenir même de l'humanité. Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn[2].

L'une des études du centre, le risque que des robots se révoltent contre l'espèce humaine dans une approche semblable à celle dépeinte par Terminator, a bénéficié d'une importante visibilité médiatique. Selon Price, « Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie »[trad 1],[1],[3].


Par la suite, le centre a préciser ses centres d'intérêt pour les élargir à d'autres risques susceptibles de mettre en danger la continuation de la civilisation ou la survie de l'espèce humaine. Les quatre catégories de risques envisagées sont les suivantes :

  • les risques technologiques extrêmes
  • les risques biologiques catastrophiques mondiaux
  • les risques extrêmes de type environnementaux d'impact mondial
  • les risques en lien au développement de l'intelligence artificielle.


Curieusement, Pour le centre, les risques technologiques extrêmes incluent une guerre nucléaire, une pandémie issue de développements artificiels, le changement climatique, effondrement écologique ou ides impacts de l'ntelligence artificielle avancée[4].

Le centre de recherche a été à l'initiative de la création un groupe parlementaire transpartisant centré sur les intérêts des générations futures, dans le but d'amener les politiques à penser long terme et risques globaux[5],[6]. Ce groupe a notamment produit une charte applicable au Royaume-Uni similaire à ce qui existait déjà au Pays de Galles visant la préservation des intérêts des générations futures [7].


Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. (en) « It seems a reasonable prediction that some time in this or the next century intelligence will escape from the constraints of biology »

Références[modifier | modifier le code]

  1. a et b Pascal Lapointe, « Capsules - Étudier la révolte des robots », sur http://www.sciencepresse.qc.ca, Agence Science-Presse,
  2. (en)Michael Kesterton, « Cambridge to open centre for Terminator studies », The Globe and Mail,
  3. (en)Adi Gaskell, « Risk of a Terminator Style Robot Uprising to be Studied », Technorati,
  4. (en) « CSER Managing extreme technological risks », sur https://www.cser.ac.uk/ (consulté le 13 mai 2020)
  5. (en) « Home | All-Party Parliamentary Group for Future Generations », sur appg-future-gens (consulté le 13 mai 2020)
  6. (en) « The Long Time », sur Climate-KIC (consulté le 13 mai 2020)
  7. (en) « Lord John Bird’s Future Generations Bill is “the start of a movement” », sur The Big Issue, (consulté le 13 mai 2020)

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]