Centre pour l'étude des risques existentiels

Un article de Wikipédia, l'encyclopédie libre.
Centre pour l'étude des risques existentiels
Histoire
Fondation
Cadre
Sigle
(en) CSERVoir et modifier les données sur Wikidata
Type
Siège
Pays
Organisation
Site web
(en) cser.orgVoir et modifier les données sur Wikidata

Le centre pour l'étude des risques existentiels[1] (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge créé à l'origine pour se concentrer sur l'étude des risques liés à des évolutions de la technologie susceptible de mettre en danger l'avenir même de l'humanité. Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn[2].

L'une des études du centre, le risque que des robots se révoltent contre l'espèce humaine dans une approche semblable à celle dépeinte par Terminator, a bénéficié d'une importante visibilité médiatique. Selon Price, « Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie »[trad 1],[1],[3].

Par la suite, le centre a précisé ses centres d'intérêt pour les élargir à d'autres risques susceptibles de mettre en danger la continuation de la civilisation ou la survie de l'espèce humaine. Les quatre catégories de risques envisagées sont les suivantes :

  • les risques technologiques extrêmes ;
  • les risques biologiques catastrophiques mondiaux ;
  • les risques extrêmes de type environnementaux d'impact mondial ;
  • les risques en lien au développement de l'intelligence artificielle.

Pour le centre, les risques technologiques extrêmes incluent une guerre nucléaire, une pandémie issue de développements artificiels, le changement climatique, effondrement écologique ou des impacts de l'intelligence artificielle avancée[4].

Le centre de recherche a été à l'initiative de la création d’un groupe parlementaire transpartisan centré sur les intérêts des générations futures, dans le but d'amener les politiques à penser long terme et risques globaux[5],[6]. Certaines de ses activités sont financées par la Fondation John-Templeton[4].

Ce groupe a notamment produit une charte applicable au Royaume-Uni similaire à ce qui existait déjà au Pays de Galles visant la préservation des intérêts des générations futures[7].

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. (en) « It seems a reasonable prediction that some time in this or the next century intelligence will escape from the constraints of biology »

Références[modifier | modifier le code]

  1. a et b Pascal Lapointe, « Capsules - Étudier la révolte des robots », sur sciencepresse.qc.ca, Agence Science-Presse, .
  2. (en) Michael Kesterton, « Cambridge to open centre for Terminator studies », The Globe and Mail, .
  3. (en) Adi Gaskell, « Risk of a Terminator Style Robot Uprising to be Studied », Technorati, .
  4. a et b (en) « CSER Managing extreme technological risks », sur cser.ac.uk (consulté le ).
  5. (en) « All-Party Parliamentary Group for Future Generations », sur appg-future-gens (consulté le ).
  6. (en) « The Long Time », sur Climate-KIC, (consulté le ).
  7. (en) « Lord John Bird’s Future Generations Bill is “the start of a movement” », sur The Big Issue, (consulté le ).

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]