Risque de catastrophe planétaire

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Wikipédia:Bons articles Vous lisez un « bon article ».
Page d’aide sur l’homonymie Cet article développe les concepts introduits par Nick Bostrom. Pour des analyses plus générales, voir Risque, Catastrophe et Risque majeur ; pour d'autres points de vue, voir Fin du monde.
Une boule de feu s'écrasant dans l’océan.
Vue d'artiste d'un impact cosmique. Un tel impact pourrait avoir été la cause de l’extinction des dinosaures.

La notion de risque de catastrophe planétaire ou de catastrophe globale est introduite en 2008 par le philosophe Nick Bostrom pour désigner un événement futur hypothétique qui aurait le potentiel de dégrader le bien-être de la majeure partie de l’humanité, par exemple en détruisant la civilisation moderne ; il avait proposé également dès 2002 d'appeler risque existentiel un évènement qui pourrait causer l’extinction de l'humanité.

Parmi les catastrophes planétaires potentielles figurent les changements climatiques, les pandémies et les guerres nucléaires, mais également des risques liés aux nanotechnologies ou à une prise de contrôle par une intelligence artificielle hostile, ainsi que des catastrophes cosmiques telles que des impacts de météorites.

Une étude quantitative rigoureuse de ces risques est difficile, en raison de l’incertitude sur les conséquences finales (les enjeux) de l’aléa déclencheur de la catastrophe, et sur la probabilité de cet aléa, et aussi parce que de nombreux biais cognitifs en compliquent l’analyse ; de plus, un évènement ayant pu provoquer l’extinction de l’humanité ou la destruction complète de la civilisation ne s’étant évidemment encore jamais produit, la probabilité qu’il en advienne un est minimisée ; ce phénomène est connu en statistique sous le nom de biais de sélection.

Bien que les risques de catastrophe planétaire aient fait l’objet de nombreux scénarios de science-fiction (modernisant souvent des mythes très anciens comme celui de Pandore), et de déclarations alarmistes à partir des années 1950, ce n'est qu’au début du XXIe siècle que divers organismes ont commencé à les étudier systématiquement, en particulier sous l’impulsion des mouvements transhumanistes.

Classifications[modifier | modifier le code]

Risques majeurs[modifier | modifier le code]

Article détaillé : Risque majeur.

Un risque majeur est un événement incertain dont la réalisation est souvent faiblement probable, mais dont les effets négatifs sont considérables. Les géographes et de nombreux spécialistes après eux découpent cette notion en trois termes : l’aléa, qui est l'événement incertain lui-même, les enjeux, qui sont les valeurs socio-économiques ou écologiques soumises aux effets de l’aléa quand il survient, et la vulnérabilité, qui fixe le degré plus ou moins grand de destruction des enjeux par ces effets[1]. Par exemple, dans le cas du risque d’inondation fluviale, l’aléa est la crue du cours d’eau, les enjeux sont les personnes et les biens exposés à l'inondation, enfin la vulnérabilité se mesure en particulier en tenant compte de la hauteur, de la solidité et de l’étanchéité des immeubles concernés[2].

Risque de catastrophe planétaire et risque existentiel[modifier | modifier le code]

Le philosophe Nick Bostrom a introduit en 2002 la notion de risque existentiel (anglais : existential risk)[3],[n 1] et en 2008 la notion de risque de catastrophe planétaire (anglais : global catastrophic risk)[4], en relation avec une classification des risques selon leur étendue et leur intensité[5], l’étendue allant de l’échelle individuelle à l’ensemble des générations futures, et l’intensité de « imperceptible » à « maximale » (des exemples sont donnés dans le tableau ci-dessous). Sur cette échelle, il définit un « risque de catastrophe planétaire » comme au moins « global » (affectant la majorité des humains) et d'intensité « majeure » (affectant le bien-être des individus sur une période prolongée)[n 2]  ; un « risque existentiel » est défini comme « transgénérationnel » et « maximal » (irréversible, et mortel à court terme). Ainsi, un risque existentiel détruit l'humanité (voire toutes les formes de vie supérieure) ou au minimum ne laisse aucune chance à la réapparition d’une civilisation, alors qu’une catastrophe planétaire, même si elle tuait la majorité des humains, laisserait une chance de survie et de reconstruction aux autres ; Bostrom considère ainsi les risques existentiels comme beaucoup plus significatifs[7] ; il fait également remarquer que l'humanité n'avait pas pu envisager de risque existentiel avant 1950[n 3], et que toutes les stratégies conçues pour diminuer les risques de catastrophe planétaire sont inopérantes face à des menaces d’extinction complète[3].

Indépendamment de ces travaux, dans Catastrophe: Risk and Response, Richard Posner a regroupé en 2004 des évènements apportant « un bouleversement ou une ruine complète » à l’échelle globale (plutôt que locale ou régionale), les considérant comme méritant une attention toute particulière en terme d'analyse coût-avantage, parce qu'ils pourraient, directement ou indirectement, mettre en danger la survie de l’humanité dans son ensemble[8]. Parmi les évènements discutés par Posner, on trouve les impacts cosmiques, l’emballement du réchauffement climatique, la gelée grise, le bioterrorisme, et les accidents dans les accélérateurs de particules.

Presque par définition, les catastrophes planétaires constituent non seulement des risques majeurs, mais correspondent à une vulnérabilité maximale et à des enjeux si vastes qu’ils sont impossibles à quantifier. Il en résulte une confusion souvent faite entre risque et aléa dans ce cas.

Grille d’étendue et d’intensité des risques
Risque Imperceptible Supportable Majeur Maximal
Personnel Perte d’un cheveu Perte d’un doigt Amputation d’une jambe Mort
Local Trafic ralenti Routes coupées Destruction
des infrastructures
Séisme de 1755
à Lisbonne
Global Réchauffement global
de 0,03 °C
Année sans été Destruction complète
de la couche d’ozone
Hiver nucléaire
Transgénérationnel Perte d’une
espèce de Scarabées
Disparition des Félins Extinction de l’Holocène Fin de l’humanité
D’après un article de Nick Bostrom sur la prévention des risques existentiels[5] ; sur fond rose, les risques de catastrophe planétaire ; sur fond orange, les risques existentiels.

Classification en fonction de scénarios[modifier | modifier le code]

Bostrom identifie quatre types de scénarios de catastrophe planétaire. Les « bangs » sont des catastrophes brutales (accidentelles ou délibérées) ; les exemples les plus vraisemblables étant les guerres nucléaires, l’utilisation agressive (et échappant à tout contrôle) de biotechnologies ou de nanotechnologies, et les impacts cosmiques. Les « écroulements » (crunches)[n 4] sont des scénarios de dégradation progressive des structures sociales, dans lesquels l’humanité survit, mais la civilisation est irrémédiablement détruite, par exemple par épuisement des ressources naturelles, ou par des pressions dysgéniques abaissant l’intelligence moyenne. Les « hurlements » (shrieks) sont des scénarios d’avenirs dystopiques, tels que des régimes totalitaires utilisant des intelligences artificielles pour contrôler l’espèce humaine. Les « gémissements » (whimpers) sont des déclins graduels des valeurs, puis de la civilisation[3]. Nick Bostrom considère les trois derniers types de scénarios comme empêchant (plus ou moins définitivement) l’humanité de réaliser son potentiel ; Francis Fukuyama estime que cet argument, qui s’appuie sur les valeurs du transhumanisme, ne suffit pas à lui seul à les classer tous comme des risques de catastrophe planétaire[9].

Sources potentielles de risques[modifier | modifier le code]

Certains de ces risques sont naturels, comme les impacts cosmiques ou les supervolcans, mais la plupart des risques de catastrophe planétaire sont au moins en partie dus à l’action humaine, comme le réchauffement global ou la dégradation environnementale ; des risques plus importants encore, comme des pandémies organisées ou des guerres nucléaires, sont entièrement dus à l'Homme, et, selon le Future of Humanity Institute, menacent davantage de provoquer l’extinction de l’humanité que des causes naturelles[5],[10]. Les listes de risques ci-dessous (dont certains sont corrélés entre eux, par exemple une crise systémique affaiblissant les services de santé augmentera les risques de pandémie) sont classées par probabilité estimée décroissante[11],[n 5] ; cette classification, reprenant les travaux des divers groupes d'étude cités plus loin, ne recoupe pas bien les classifications plus traditionnelles des géographes, lesquelles sont basées en particulier sur la typologie des enjeux (environnementaux, économiques, etc.).

Risques dus à des actions humaines[modifier | modifier le code]

En 2012, l’université de Cambridge développe le Cambridge Project for Existential Risk, destiné à étudier les menaces contre l’humanité dues aux technologies émergentes[14] ; il est finalement décidé de créer au sein de l’université un centre de recherche pluridisciplinaire, le Centre pour l’étude des risques existentiels, dédié à leur étude scientifique et aux moyens de les diminuer[14].

Le Cambridge Project affirme que les « plus grandes menaces » pour l’espèce humaine sont anthropogéniques ; il s’agit, selon lui, du réchauffement global, des guerres nucléaires, de biotechnologies ayant échappé au contrôle, et d’intelligences artificielles hostiles[15].

Réchauffement global[modifier | modifier le code]

Le réchauffement climatique actuel (qui n’est plus contesté, et dont la plus grande partie est attribuée aux activités industrielles depuis le XIXe siècle), amène à des variations anormales du climat sur toute la Terre, et à des effets secondaires tels que la montée du niveau des océans et leur acidification. Les projections même les plus modérées de ce réchauffement suggèrent qu'il va s’amplifier, augmentant en particulier la fréquence et l’intensité d’évènements climatiques extrêmes (canicules, inondations, tempêtes, etc.) et des catastrophes qui leur sont associées[16]. Parmi ses effets indirects, on mentionne la perte de la biodiversité, les dommages subis par le système actuel de production agricole, la propagation accrue de maladies infectieuses telles que le paludisme, et la mutation rapide de micro-organismes. En 2015, l’Horloge de la fin du monde a été avancée de deux minutes pour refléter le fait que le Bulletin of the Atomic Scientists considère qu'il s'agit désormais d'un risque de catastrophe planétaire, et peut-être existentiel[17] ; le 26 janvier 2017, elle a été à nouveau avancée de trente secondes compte tenu des propos et des premiers actes de Donald Trump à ce sujet[18].

Il a même été suggéré que le dépassement d'un certain seuil pourrait amener le climat terrestre à basculer vers un état stable brûlant analogue à celui de Vénus (c'est la thèse de l’emballement climatique) ; même des scénarios moins extrêmes, sans rendre la Terre inhabitable, pourraient causer la fin de la civilisation[19]. Cependant, l’existence de climats beaucoup plus chauds dans un passé relativement récent, par exemple lors du début de l’Éocène, amène de nombreux spécialistes à contester que ce risque soit réel[20],[21],[22].

Surpopulation et crises agricoles[modifier | modifier le code]

Un désastre écologique, tel que des récoltes catastrophiques suivies d’un effondrement des services écosystémiques, pourrait résulter des tendances actuelles à la surpopulation, à la croissance économique sans limites[23], et au manque d’agriculture durable. La plupart des scénarios de catastrophe mettent en jeu un ou plusieurs des facteurs suivants : l’extinction de l'Holocène, la rareté de l’eau potable (qui pourrait amener à ce qu’environ la moitié de l’humanité ne dispose que d’eau présentant des dangers sanitaires) et le déclin des pollinisateurs[24],[25], mais aussi la surpêche, la déforestation massive, la désertification, les changements climatiques, ou enfin des épisodes de pollution de l’eau ; beaucoup de ces inquiétudes apparaissaient déjà dans le rapport Meadows de 1972[26].

Graphique montrant trois courbes d'évolution de la population.
3 scénarios d’évolution de la population mondiale entre 1800 et 2100[27],[28].

Même sans catastrophe soudaine (les « bangs » définis par Nick Bostrom), les déséquilibres entre population et ressources alimentaires risquent d’amener progressivement à des crises majeures, les catastrophes malthusiennes (ce sont des « écroulements » (crunches) pour la même classification). Le XXe siècle a vu une augmentation rapide de la population mondiale[28] due aux progrès de la médecine et à une forte amélioration de la productivité agricole, en particulier venant de la Révolution verte[29],[30]. Ainsi, entre 1950 et 1984, les transformations mondiales de l’agriculture amenèrent à une augmentation de 250 % de la production de céréales. La Révolution verte permit à la production de nourriture de se maintenir au niveau de la croissance démographique, et même de la favoriser. L'énergie demandée pour les travaux agricoles était apportée par les carburants fossiles, que ce soit pour les tracteurs et l’irrigation (aux moteurs consommant des hydrocarbures), ou pour la fabrication d’engrais et de pesticides ; l’arrivée du pic pétrolier pourrait ainsi amener une crise agricole[31],[32].

Dans une étude intitulée Food, Land, Population and the U.S. Economy (« Nourriture, terre, population, et économie américaine »), David Pimentel (professeur à l’université Cornell) et Mario Giampietro (chercheur au National Research Institute on Food and Nutrition) estiment que la population américaine maximale pour une économie durable ne peut dépasser 200 millions d’habitants ; la même étude affirme que pour éviter le désastre, la population mondiale devrait être réduite des deux-tiers[33] ; ils pensent que les conséquences de cette crise agricole devraient apparaître à partir de 2020, et devenir critiques après 2050. Dale Allen Pfeiffer craint que les décennies à venir voient une montée des prix alimentaires suivie de famines massives telles que le monde n’en a encore jamais connues[32],[34]. Ces calculs recoupent ceux de l’ONG américaine Global Footprint Network, qui détermine le jour du dépassement (la date à laquelle la production mondiale annuelle de ressources renouvelables a été entièrement consommée), et constate que, depuis 1971 (année où cela s'est produit pour la première fois), il arrive chaque année plus tôt : en 2016, il a eu lieu le 8 août[35],[36].

Désastres environnementaux[modifier | modifier le code]

Image satellite du nuage brun d'Asie.
Les particules de pollution aérienne du « nuage brun d’Asie » (de même surface que les États-Unis) peuvent voyager tout autour de la planète.

Outre les crises mentionnées précédemment, des risques écologiques divers menacent les productions agricoles. Ainsi, le blé, la troisième céréale produite après le maïs et le riz, reste sensible à des infections fongiques. Ug99, une souche de la rouille noire, peut causer une perte complète des récoltes de la plupart des variétés modernes[37]. L’infection se voit propagée par le vent, et aucun traitement n'est connu ; si elle contaminait les grandes régions de production (États-Unis, Europe, Russie et Chine du Nord), la crise résultante amènerait à une flambée des prix, mais également à des pénuries d’autres produits alimentaires[38]. Comme pour d’autres scénarios de catastrophes, des déplacements massifs de populations ou même des guerres sont à craindre. En revanche, en dépit de débats concernant l’introduction de plantes génétiquement modifiées, les risques que cette introduction provoque une catastrophe écologique globale (par exemple par l’apparition d’insectes résistants à tous les pesticides, ou de mauvaises herbes envahissantes) semblent négligeables[39].

La plupart des autres catastrophes environnementales envisageables (marées noires, pollutions industrielles et même accidents nucléaires) restent localisées. Cependant, le nuage brun d'Asie pourrait avoir des conséquences climatiques sur tout le globe[40] ; de même, la pollution des océans semble devenir planétaire. En particulier, d’après l’expédition Race for Water, « […] la pollution des océans par les plastiques […] représente la pire catastrophe écologique de l’Histoire. »[41].

Enfin, les décès dus à la pollution de l’air atteignent un niveau alarmant[n 6] et provoquent un déficit économique annuel de centaines de milliards de dollars, selon la Banque mondiale[44]. Il n'est cependant pas clair qu’il s'agisse d’une catastrophe planétaire au sens de Nick Bostrom, dans la mesure où de nombreuses régions ont les moyens de lutter localement contre cette pollution[n 7].

Guerres et destructions massives[modifier | modifier le code]

Article détaillé : Holocauste nucléaire.
Le champignon atomique de Castle Bravo.
Castle Bravo, d'une puissance de 15 Mt, explosant au-dessus de Bikini en 1954.

Le scénario qui a été le plus étudié est celui d’une guerre nucléaire. Bien que la probabilité annuelle d’une telle guerre est faible, Martin Hellman faisait remarquer en 1985 que si cette probabilité reste constante ou ne diminue pas assez vite, la guerre est inévitable à long terme : il viendra fatalement un jour où la chance de la civilisation s’épuisera[46]. Durant la crise des missiles de Cuba, Kennedy estimait les chances d’une guerre nucléaire « entre une sur trois et une sur deux »[47].

En 2015, les États-Unis et la Russie ont un arsenal combiné de 14 700 armes nucléaires[48] et, en tenant compte des autres puissances nucléaires, il y a 15 700 armes nucléaires en existence dans le monde[48], d’une puissance destructrice totale d’environ 5 000 mégatonnes (Mt), soit 250 000 fois celle de la bombe d’Hiroshima, ce qui ne représente qu'une fraction de l'arsenal de la guerre froide; ces chiffres expliquent cependant les estimations pessimistes symbolisées par l’Horloge de l’Apocalypse[18].

Zone de destruction complète de la Tsar Bomba placée sur une carte de la région parisienne.
Effet supposé de Tsar Bomba (la plus grosse bombe H jamais testée, avec une puissance de 57 Mt) sur la région parisienne : le cercle rouge (rayon : 35 km) correspond à la zone de destruction complète.

Le grand public identifiait souvent la guerre nucléaire avec la « fin du monde », mais jusqu’au début des années 1980, les dirigeants et les experts n’envisageaient qu’un faible risque d’extinction complète de l’humanité à la suite d’une telle guerre : dans une célèbre déclaration de 1957, Mao Zedong expliquait qu’il ne craignait pas une guerre nucléaire, à laquelle « de nombreux Chinois survivraient »[49] ; en 1982 encore, Brian Martin estimait qu’un échange de bombes entre les États-Unis et l’URSS pourrait tuer de 400 à 450 millions de personnes directement, et peut-être quelques centaines de millions de personnes supplémentaires en raison des retombées, surtout dans l’hémisphère Nord, soit « guère plus de 10 % de l’humanité »[50]. Cependant, à partir de 1983, des scénarios plus pessimistes, prenant en compte la notion d’hiver nucléaire[51],[52], amenèrent à craindre, au minimum, une destruction complète de la civilisation dans ce cas, en raison en particulier de l’impossibilité de l’agriculture durant plusieurs années[53],[54],[52].

Les armes de l’Apocalypse constituent une forme ultime de la notion de dissuasion nucléaire : il s'agit d’armes suicidaires garantissant qu’un agresseur hypothétique périrait avec l’agressé (et avec le reste de l’humanité). Elles sont techniquement réalisables (par exemple sous forme de bombes H gigantesques salées au cobalt), mais le concept a été abandonné au début des années 1960 (essentiellement parce que, par nature, elles constituaient une épée de Damoclès pour leur possesseur)[55], et elles ne font plus partie des risques existentiels sérieusement envisagés.

D’autres types d’armes et de conflits peuvent entraîner des risques de catastrophe planétaire, en particulier l’utilisation d’armes de destruction massive (chimiques et biologiques), mais aussi certaines formes de bioterrorisme (parce que risquant de déclencher des pandémies incontrôlables)[56].

Risques systémiques[modifier | modifier le code]

Bien que les crises financières, telles que la Grande Dépression, aient souvent par le passé présenté un caractère global, on ne pouvait jusque-là pas parler de risque de catastrophe planétaire au sens strict. Mais l’accélération des communications et l’utilisation massive d’Internet rendent désormais envisageable deux types d’effondrement du système : d’une part une déstabilisation des mécanismes financiers, provoquée par exemple par une amplification des fluctuations boursières échappant à tout contrôle (risque qui a été associé aux transactions à haute fréquence lors du Flash Crash de 2010), ou par une crise de confiance analogue à la crise des subprimes, d’autre part une perte physique d’informations, voire de valeurs, liée à une panne d’Internet. Le premier risque est difficilement mesurable (et en particulier mal assurable) ; en revanche, Internet a été conçu pour résister à la plupart des attaques ou des dysfonctionnements envisageables, et ce n’est qu’au début du XXIe siècle qu’il a été remarqué qu’une éruption solaire suffisamment puissante, telle que celle de 1859 ou celle de juillet 2012, pouvait perturber suffisamment les communications et les appareils électroniques pour « renvoyer la civilisation au XVIIIe siècle »[57].

Plus généralement, la mondialisation et l’interconnexion des divers systèmes fait désormais qu’une crise locale ou ne concernant qu’une seule ressource peut, par effet domino, amener une catastrophe planétaire (il s’agit d’« écroulements » (crunches) au sens de Nick Bostrom). La plus connue des crises de ce genre est l’arrivée du pic pétrolier (et en particulier ses conséquences sur l’agriculture)[31],[32], mais elle est anticipée depuis plusieurs décennies, et ce ne serait que des effets indirects inattendus qui pourraient la transformer en effondrement global. D’autres scénarios de crise systémique de ce type ont été moins étudiés, et pourraient avoir des conséquences difficilement réparables ; on peut ainsi mentionner la « crise de l’eau », qui pourrait entraîner une guerre entre la Chine, l’Inde et le Pakistan (trois puissances nucléaires) pour le contrôle des ressources hydriques de l’Himalaya[58],[59], ou encore la pénurie de terres rares, a priori de faible importance, mais pouvant amener des tensions sur la fabrication de produits aussi divers que les ampoules basse consommation, les voitures électriques ou les éoliennes, avec des conséquences non négligeables sur la transition énergétique[60]. Vers 1990, Joseph Tainter a développé des analyses plus générales de ces scénarios ; dans son travail le plus connu, L’Effondrement des sociétés complexes[61], il étudie l’effondrement de la civilisation maya, de la civilisation anasazi[62] et de l’Empire romain, en termes de théorie des réseaux, d’économie de l’énergie et de théorie de la complexité[n 8]. Bien que ces crises résultent d’enchaînements de désastres locaux, non inéluctables et auxquels on peut espérer trouver des parades plus ou moins rapides, Victor Clube et Bill Napier ont fait remarquer que des scénarios de catastrophes systémiques brutales (les « bangs ») déclenchées par un accident local sont également possibles[n 9], et ne laissent qu’une étroite marge de manœuvre avant de devenir planétaires.

Intelligence artificielle[modifier | modifier le code]

En 1993, Vernor Vinge popularise, sous le nom de singularité technologique, l’idée selon laquelle si l’homme parvient à construire une intelligence artificielle (IA) supérieure à lui, celle-ci pourra à son tour en construire une autre encore supérieure. Cette rétroaction positive aboutirait alors rapidement à une superintelligence inconcevable pour nous[65]. Il remarque que cela pourrait s’avérer dangereux pour les humains[66]. Cette idée donne naissance à un mouvement social, le singularitarisme.

Plus précisément, il a été suggéré que des ordinateurs capables d’apprentissage pourraient devenir rapidement superintelligents et entreprendre des actions non prévues par leur programmation, voire hostiles ; ou encore que des robots pourraient entrer en compétition avec l’humanité[67]. Il est d'ailleurs possible que la première superintelligence apparaissant élimine toutes les autres, étant également capable de manipuler toute intelligence inférieure afin d’atteindre ses objectifs[68]. Nick Bostrom appelle cette question le « problème du contrôle »[69].

Stephen Hawking, Bill Gates et Elon Musk ont exprimé leurs craintes d’intelligences artificielles se développant au point d’échapper à tout contrôle, Hawking précisant que cela pourrait signifier « la fin de l’humanité »[70]. Des experts participent en 2009 à une conférence organisée par l’Association for the Advancement of Artificial Intelligence afin de discuter la possibilité, pour des ordinateurs et des robots, d’acquérir une sorte d’autonomie, et la menace que cette éventualité pourrait présenter. Outre le fait que certains robots ont acquis diverses formes de semi-autonomie, allant de la recherche de prises pour se recharger au choix de cibles à attaquer, ils font remarquer que certains virus informatiques peuvent activement lutter contre leur élimination, et atteignent « le niveau d’intelligence des blattes ». Ces experts ajoutent que si une apparition de la conscience telle que la dépeint souvent la science-fiction reste peu vraisemblable, d’autres problèmes ou dangers ne sont nullement à exclure[65]. Plus récemment, divers groupes scientifiques notent une accélération des progrès en intelligence artificielle (dont la victoire d'AlphaGo contre Lee Sedol en mars 2016 devient l’un des signes les plus visibles) pouvant amener à de nouvelles inquiétudes[71],[72],[73]. Eliezer Yudkowsky pense que les risques créés par l’intelligence artificielle sont plus imprévisibles que toutes les autres sortes de risques et ajoute que la recherche à ce sujet se voit biaisée par l’anthropomorphisme : les gens basant leur analyse de l’intelligence artificielle sur leur propre intelligence[n 10], cela les amène à sous-estimer les possibilités de l’IA. Il sépare d’ailleurs les risques en problèmes techniques (des algorithmes imparfaits ou défectueux empêchant l’IA d’atteindre ses objectifs[n 11]), et en échecs « philosophiques », bien plus pernicieux et difficiles à contrôler, où les objectifs de l’IA sont en fait nuisibles à l’humanité[76]. Nick Bostrom rejoint cette position en publiant en 2014 Superintelligence : Paths, Dangers, Strategies[77].

Biotechnologies[modifier | modifier le code]

Article détaillé : Biotechnologie.
Pictogramme triangulaire, formé de cercles noirs sur fond jaune, ayant l'aspect de pinces.
Signal d’avertissement de danger biologique.

Les biotechnologies peuvent créer un risque de catastrophe planétaire en développant des agents infectieux naturels ou artificiels, qui pourraient ensuite se répandre par l’utilisation d’armes biologiques, d’attaques terroristes, ou par accident[78], provoquant des pandémies.

Une croissance exponentielle est observée dans le secteur des biotechnologies ; Noun et Chyba prédisent que cela amènera à une énorme amélioration de ces techniques dans les décennies à venir[78]. Ils estiment que les risques correspondants de guerre biologique et de bioterrorisme sont plus importants que ceux des armes nucléaires ou chimiques, parce que les agents infectieux sont plus faciles à produire, et que leur production en masse est difficilement contrôlable, les capacités technologiques correspondantes devenant accessibles même à des individus isolés[78]. Jusqu’à présent, les utilisations terroristes des biotechnologies ont été rares, mais il est difficile de savoir si cela est dû à un manque de moyens, ou à un manque de motivation[78].

Le risque principal attendu dans l’avenir est l’apparition d’agents infectieux génétiquement modifiés ou entièrement artificiels[78]. On estime en effet en général que la virulence des agents infectieux naturels, qui ont coévolué avec leurs hôtes, est limitée par la nécessité que les hôtes survivent assez longtemps pour transmettre l’agent[79], mais il est possible de modifier génétiquement ces agents (volontairement ou accidentellement) pour changer leur virulence et d’autres caractéristiques[78]. Ainsi, un groupe de chercheurs australiens a involontairement changé les caractéristiques du virus de la variole de la souris en essayant de développer un virus qui stériliserait les rongeurs[78] ; le virus modifié est devenu extrêmement létal même chez des souris vaccinées ou naturellement résistantes[80],[81],[82]. Si elles ne sont pas strictement réglementées, les technologies permettant des manipulations génétiques des caractéristiques des virus risquent de devenir aisément accessibles dans l’avenir[78].

Noun et Chyba proposent trois catégories de mesures pour réduire les risques de pandémies (naturelles ou artificielles) : régulation ou interdiction de recherches potentiellement dangereuses, amélioration de la veille sanitaire, et développement des moyens de lutte contre la propagation d’épidémies (par exemple en produisant des vaccins plus efficaces, et en les distribuant plus largement)[78].

Nanotechnologies[modifier | modifier le code]

Article détaillé : Débat sur les nanotechnologies.

De nombreuses nanotechnologies sont en développement ou déjà utilisées[83]. La seule qui semble présenter un risque de catastrophe planétaire significatif est l’assemblage moléculaire, une technique qui permettrait de construire des structures complexes à une précision atomique[84]. L’assemblage moléculaire est pour l’instant un concept purement théorique et demandant des avancées importantes en nanotechnologie, mais qui pourrait permettre de produire des objets sophistiqués en grande quantité et à bas coût dans des nano-usines de la taille d’imprimantes 3D (lesquelles sont une version grossière et macroscopique du même concept)[83],[84]. Lorsque ces nano-usines pourront elles-mêmes en produire d’autres, la production pourrait être limitée seulement par la quantité de ressources relativement abondantes, comme les matériaux bruts, l’énergie, et les logiciels ; elles pourraient ainsi, entre autres, fabriquer à bas prix des armes sophistiquées, autonomes et durables[83].

Chris Phoenix classe les risques de catastrophe créés par les nanotechnologies en trois catégories[85] :

  1. Accélération du développement d’autres technologies, comme l’intelligence artificielle ou les biotechnologies.
  2. Production en masse d’objets potentiellement dangereux, et créant une dynamique de risque, telle que la course aux armements.
  3. Création de processus se reproduisant sans frein, avec des effets destructeurs.

Il signale cependant également que les nanotechnologies sont susceptibles de diminuer plusieurs autres risques de catastrophe planétaire[83].

Plusieurs chercheurs affirment que l’essentiel de ces risques vient du potentiel militaire et de course aux armements[80],[83],[86]. On a suggéré plusieurs raisons pour lesquelles ces techniques pourraient amener à des escalades instables (contrairement par exemple aux armes nucléaires) :

  1. un grand nombre d’acteurs peuvent être tentés de participer à l’escalade, le coût correspondant étant faible[83] ;
  2. la fabrication d’armes par cette méthode est peu coûteuse et aisée à camoufler[83] ;
  3. la difficulté de contrôle des intentions des autres acteurs pousse à s’armer par prudence, et à déclencher des attaques préventives[83],[87] ;
  4. l’assemblage moléculaire diminue la dépendance envers le commerce international[83], lequel est un facteur de paix ;
  5. une guerre d’agression devient économiquement plus intéressante pour l’agresseur, la fabrication d’armes étant bon marché, et les humains moins nécessaires sur le champ de bataille[83].

L’auto-régulation par tous les acteurs, étatiques ou non, semblant difficile à atteindre[88], des mesures pour limiter les risques d’armement et de guerre ont été principalement proposées dans le cadre du multilatéralisme[83],[89]. Une infrastructure internationale, peut-être analogue à l’Agence internationale de l’énergie atomique, et dédiée spécifiquement aux nanotechnologies doit être développée, donnant plus de pouvoir au niveau supranational[89]. Il est également possible d’encourager le développement technologique différentiel, privilégiant les technologies défensives[83],[90].

D’autres catastrophes planétaires dues aux nanotechnologies sont envisageables. Ainsi, en 1986, dans son livre Engines of Creation[91], Eric Drexler envisageait la notion de gelée grise, un thème souvent repris par les médias et la science-fiction[92],[93] ; ce scénario met en jeu de petits robots autoréplicatifs qui détruiraient toute la biosphère en l’utilisant comme source d'énergie et de matériaux. Cependant, désormais, les experts du domaine (y compris Drexler) ont discrédité ce scénario ; selon Chris Phoenix, « une gelée grise ne pourrait être que le résultat d’un processus délicat et délibéré, et non un accident »[94].

Accidents liés à une technologie expérimentale[modifier | modifier le code]

Les biotechnologies pourraient amener au développement de pandémies incurables, les guerres chimiques conduire à des pollutions irrémédiables, les nanotechnologies produire des gelées grises catastrophiques. Plus généralement, Nick Bostrom a suggéré que chaque nouvelle technologie peut faire apparaître des risques impensables auparavant, et que dans sa poursuite du savoir, l’humanité risquerait même de créer par inadvertance un dispositif susceptible de détruire la Terre, voire le Système solaire[95], les recherches en physique des particules pouvant créer des conditions exceptionnelles ayant des conséquences catastrophiques. Déjà, certains scientifiques s’inquiétaient de ce que le premier essai nucléaire pourrait embraser l’atmosphère[96],[97] ; plus récemment, des spéculations alarmistes se sont manifestées concernant la production éventuelle de micro trous noirs[98], de strangelets ou d’autres états physiques anormaux au Grand collisionneur de hadrons, et envisageant une réaction en chaîne pouvant conduire à un désastre. Ces craintes particulières ne se sont évidemment pas concrétisées, et avaient d’ailleurs déjà été réfutées par le calcul[99],[100],[101],[102], mais chaque nouvelle avancée technologique peut susciter des craintes analogues[n 12].

Risques non anthropiques[modifier | modifier le code]

Les risques décrits dans cette section correspondent à des aléas indépendants des actions humaines ; la plupart, à l'exception principalement des pandémies, ne sont également guère atténués par des mesures préventives éventuelles. Leur probabilité annuelle, comparée à celle des risques d'origine humaine, est cependant estimée le plus souvent comme étant négligeable[10].

Pandémie globale[modifier | modifier le code]

Article détaillé : Pandémie.

La mortalité due à une pandémie est égale à la virulence de l’agent infectieux, multipliée par le nombre total de personnes infectées. On suppose en général qu’il y a une limite à la virulence des agents infectieux ayant coévolué avec leurs hôtes[79], parce qu’un agent qui tue trop rapidement son hôte n’aura pas le temps de se propager[103]. Ce modèle simple prédit que s’il n’y a pas de lien entre virulence et mode de transmission, les agents infectieux évolueront vers des formes peu virulentes et à transmission rapide. Cette hypothèse n’est cependant pas toujours vérifiée, et lorsqu’une relation existe entre virulence et transmission, par exemple parce que la décomposition cadavérique libère l’agent infectieux, de hauts niveaux de virulence peuvent alors apparaître[104], limités seulement par d’autres facteurs tels que les interactions entre les différents hôtes (puces, rats et humains dans le cas de la peste, par exemple)[79],[105] ; de plus, si la pandémie est un phénomène secondaire lié à une zoonose, la virulence chez les humains peut être totale[106]. De nombreuses pandémies historiques ont ainsi eu un effet dévastateur sur des populations importantes, les plus connues étant la peste noire (entre 1347 et 1352) et la grippe de 1918 ; cela implique qu’une pandémie globale pourrait constituer une menace réaliste contre la civilisation.

La veille sanitaire actuelle rend la probabilité d’une telle pandémie assez faible, au moins pour des agents infectieux similaires à ceux connus (et en particulier non modifiés par l’utilisation de biotechnologies). Cependant, la possibilité qu’apparaisse un nouveau pathogène (comme dans le cas des maladies émergentes), ou qu’une mutation rende beaucoup plus virulent un virus tel que celui de la grippe, n’est jamais à exclure ; un affaiblissement des services de santé lié par exemple à une crise économique pourrait rendre ce risque de catastrophe planétaire beaucoup plus important.

Sans qu’il s’agisse directement de pandémies, l’apparition de « super-bactéries » résistant à tous les antibiotiques fait peser de nouvelles menaces de crises sanitaires[107],[108]. D’autre part, des maladies telles que l’obésité ou les allergies, bien que non contagieuses, sont décrites métaphoriquement comme des pandémies[109],[110] ; si elles s’étendaient, elles pourraient finir par exercer d’importantes pressions dysgéniques à l’échelle mondiale[111].

Changements climatiques[modifier | modifier le code]

Article connexe : Paléoclimatologie.

Un changement climatique est une modification durable des climats de l’ensemble du globe. Dans un passé relativement récent (à l’échelle géologique), la Terre a connu des climats allant de périodes glaciaires à des épisodes si chauds que des palmiers poussaient en Antarctique. On suppose de plus que des épisodes dits de Terre boule de neige, où tous les océans étaient recouverts de glace, ont eu lieu dans un passé beaucoup plus reculé. Des changements climatiques soudains (en quelques décennies) ont eu lieu à une échelle régionale, par exemple durant le petit âge glaciaire, ou lors de l’optimum climatique médiéval, mais les changements climatiques globaux se sont produits lentement, du moins depuis le début du Cénozoïque, et le climat est devenu plus stable encore depuis la fin de la dernière période glaciaire il y a dix mille ans. La civilisation (et en particulier l’agriculture) s’étant développée durant une période de climats stables, une variation naturelle vers un nouveau régime climatique (plus chaud ou plus froid) pourrait constituer un risque de catastrophe planétaire[112].

La période actuelle (l’Holocène) est considérée comme un épisode interglaciaire au milieu d’une oscillation assez régulière entre glaciations et déglaciations, d’une période d’environ 50 000 ans, que l’on explique par la théorie astronomique des paléoclimats. Une nouvelle glaciation constituerait certainement une catastrophe planétaire au sens de Bostrom, mais outre que le modèle n’en prédit pas pour les quelques millénaires à venir, l’intervention du réchauffement climatique modifiera probablement l’évolution des climats, pouvant même amener à l’apparition de régimes très différents de ceux que la Terre a connu dans le passé[19].

Volcanisme[modifier | modifier le code]

Carte des États-unis montrant l'étendue de la couche de cendres
Extension de la couche de cendres déposée suite à la dernière éruption de la caldeira de Yellowstone (640 000 BP).
Articles détaillés : Supervolcan et Province magmatique.

L’éruption d’un supervolcan[113],[114] peut amener à un hiver volcanique semblable à un hiver nucléaire, lié à une importante pollution (soufre, cendres et gaz carbonique). Un évènement de ce type, l’éruption de Toba[115], s’est produit en Indonésie il y a environ 71 500 ans ; selon la théorie de la catastrophe de Toba[116], cette éruption aurait pu réduire les populations humaines à quelques dizaines de milliers d’individus.

La caldeira de Yellowstone est un autre de ces supervolcans, ayant connu au moins 142 éruptions formatrices de caldeiras au cours des derniers 17 millions d’années, dont une douzaine de « superéruptions »[117]. Lors de la dernière de ces éruptions, il y a 640 000 ans, les cendres éjectées recouvrent tous les États-Unis à l’ouest du Mississippi, ainsi que le nord-ouest du Mexique[117].

Ce type d’éruption entraine d’importantes conséquences sur le climat global, pouvant aller jusqu’à déclencher une glaciation si le soleil reste caché suffisamment longtemps par les cendres, ou au contraire un réchauffement climatique si ce sont les gaz à effet de serre qui l’emportent. À une plus petite échelle, cela se produit en 1816 après l’éruption du Tambora, avec pour conséquence une « année sans été ».

Bien que ne relevant pas du même mécanisme, les éruptions ayant donné naissance aux provinces magmatiques s'accompagnent sans doute (durant des dizaines voire des centaines de milliers d'années) d'émissions de gaz et de poussières en quantité comparable à celle des supervolcans. Elles demeurent beaucoup plus rares (la plus récente, celle du groupe basaltique du Columbia, ayant eu lieu il y a environ quinze millions d’années), et sont généralement considérées comme responsables des plus importantes des extinctions de masse, l’extinction Permien-Trias étant par exemple corrélée à la formation des trapps de Sibérie. Il s’agit là clairement d’un risque existentiel, mais dont nous serions probablement prévenus des millénaires à l’avance.

Autres risques géologiques[modifier | modifier le code]

Le champ magnétique terrestre s’est inversé de nombreuses fois durant son histoire, laissant en particulier des traces dans les roches du fond océanique, permettant de dater ces inversions. Elles sont actuellement peu fréquentes, la dernière ayant lieu il y a 780 000 ans. Au moment de la transition, le champ s’affaiblit considérablement, permettant aux radiations (vent solaire, éruptions solaires, rayons cosmiques) d’atteindre le sol, mettant en danger la civilisation par augmentation des cancers, des mutations, etc. Ces théories restent cependant actuellement partiellement discréditées, l’analyse statistique ne montrant pas de corrélation entre ces inversions et des extinctions de masse[118],[119].

Dessin de la vague provoquée par la chute d'un énorme objet.
Représentation d’artiste d’un impact météoritique d’ampleur planétaire, provoquant un mégatsunami.

Un autre risque de catastrophe planétaire est un mégatsunami, vague géante qui pourrait être causée par exemple par l’effondrement d’une ile volcanique. La probabilité de ce genre d’évènement a été fortement exagérée par les médias[120] et ces scénarios ne correspondent qu’à des catastrophes régionales. Cependant, un impact cosmique se produisant dans l’océan (tel que celui correspondant à l’extinction des dinosaures) pourrait provoquer un mégatsunami balayant des continents entiers[121].

Impact cosmique[modifier | modifier le code]

Vue d'avion du cratère
Meteor Crater, un cratère d’impact vieux de 50 000 ans.

Plusieurs astéroïdes sont entrés en collision avec la Terre au cours de son histoire. L’astéroïde de Chicxulub, par exemple, est la cause la plus probable de l'extinction des dinosaures non-aviens il y a 66 millions d’années, à la fin du Crétacé[122]. Un objet de plus d’un kilomètre de diamètre frappant la Terre détruirait probablement la civilisation, et à partir de trois kilomètres, aurait de bonnes chances de provoquer l’extinction de l’humanité[123] ; on estime que ces impacts se produisent en moyenne une fois par 500 000 ans (les impacts de gros objets, dépassant les 10 kilomètres, étant à peu près 100 fois moins fréquents)[123]. Le scénario d’une collision combine plusieurs des catastrophes planétaires vues précédemment : hiver d’impact, déclenchement d’éruptions volcaniques et mégatsunami (si l’impact a lieu dans l’océan), mais aussi séismes, tempêtes de feu, etc.[64].

Autres menaces cosmiques[modifier | modifier le code]

Filaments et flammes rouges.
Éruption solaire, avec éjections en longs filaments dépassant la distance Terre-Lune.

En dehors des impacts d’astéroïdes, et peut-être d’éruptions solaires exceptionnelles, les autres menaces identifiables correspondent typiquement à des scénarios à très longue échéance, ou de plausibilité très faible ; il n’est au demeurant pas envisageable dans un avenir prévisible de s’en protéger. Ainsi, le Soleil passera inéluctablement par une phase d’expansion (le transformant en géante rouge englobant peut-être l’orbite terrestre) dans environ 7 milliards d'années[124] ; de même, des simulations des mouvements planétaires à long terme montrent qu’une collision entre Mercure et la Terre (un risque existentiel pour toute forme de vie[121]) a une probabilité non négligeable de se produire d’ici quelques milliards d’années[125].

Jets lumineux de part et d'autre d'un astre.
Sursaut gamma (vue d’artiste).

De nombreux évènements très énergétiques, tels que les sursauts gamma[126], les supernovas et les hypernovas, constitueraient des risques existentiels s'ils se produisaient à moins de quelques centaines d'années-lumière de la Terre (une hypernova pourrait être la cause de l’extinction de l’Ordovicien-Silurien[127]). Cependant, la probabilité d’une telle occurrence est estimée comme très faible[128].

D’autres risques, tels que le passage du système solaire à travers une nébuleuse obscure ou un nuage de poussière cosmique (qui pourrait amener d’importants changements climatiques), ou l'approche d'une autre étoile à moins d'une année-lumière du Soleil[n 13], sont eux aussi estimés comme négligeables à l’échelle des prochains millénaires[130].

Vie extraterrestre[modifier | modifier le code]

Article détaillé : Vie extraterrestre.

Depuis La Guerre des mondes, la vie extraterrestre et ses interactions avec l’espèce humaine sont des thèmes récurrents de la science-fiction. Cependant, bien que des scientifiques tels que Carl Sagan estiment que son existence (mais pas nécessairement l’existence d’une intelligence extra-terrestre) est très probable, les distances interstellaires sont telles qu'une interaction avec l'humanité semble peu vraisemblable. Le seul risque qui peut être raisonnablement envisagé est celui d’une contamination accidentelle (par exemple par des bactéries martiennes), et même ce scénario est considéré comme très peu réaliste[131],[n 14].

Estimation de la vraisemblance du risque[modifier | modifier le code]

Certains aléas ne dépendant pas des actions humaines ont une probabilité qu’on peut envisager de calculer avec précision[n 5]. Ainsi, la probabilité que l’Humanité disparaisse au cours du prochain siècle en raison d’un impact cosmique serait d’une chance sur un million[133] (même si certains scientifiques affirment que le risque pourrait être beaucoup plus grand[134],[135]). De même, la fréquence d’éruptions volcaniques d’ampleur suffisante pour créer une catastrophe climatique, analogue à celle ayant résulté de l’explosion de Toba (qui aurait peut-être provoqué la quasi-extinction de l’humanité[136]) a été estimée d’une par 50 000 ans[113].

Le danger relatif que posent d’autres menaces est beaucoup plus difficile à estimer. En 2008, à la conférence sur les risques de catastrophe planétaire organisée à l’Université d’Oxford, un groupe d’experts réputés regroupant leurs compétences sur différents types de risques a suggéré une probabilité de 19 % de l’extinction de l’espèce humaine durant le prochain siècle (cependant, le compte-rendu de la conférence avertit que la méthode utilisée pour synthétiser les réponses données ne prend pas correctement en compte l’absence de réponse à certaines questions[11]). Le rapport annuel pour 2016 de la Global Challenges Foundation fait remarquer que même les estimations les plus optimistes impliquent que l’Américain moyen risque cinq fois plus de mourir dans une catastrophe planétaire que dans un accident de voiture[137],[138].

Aléa Probabilité estimée d’une

extinction de l’humanité avant 2100

Probabilité totale 19 %
Armes utilisant les nanotechnologies 5 %
Intelligence artificielle hostile 5 %
Guerres non nucléaires 4 %
Pandémie résultant de manipulations biologiques 2 %
Guerre nucléaires 1 %
Accident lié aux nanotechnologies 0,5 %
Pandémie naturelle 0,05 %
Terrorisme nucléaire 0,03 %
Source : Future of Humanity Institute, 2008[11].

L’estimation précise de ces risques présente de considérables difficultés méthodologiques. L’attention a surtout été donnée à des risques portant sur les cent prochaines années, mais des prévisions sur un tel laps de temps sont difficiles : si les menaces posées par la nature sont relativement constantes (quoique de nouveaux risques peuvent être découverts), les menaces anthropogéniques sont susceptibles de changer dramatiquement avec le développement de nouvelles technologies. La capacité des experts à prédire l’avenir sur de telles échelles de temps s’est par le passé révélée assez limitée. De plus, outre les aspects technologiques de ces nouvelles menaces, l’analyse de leur impact sur la société et de la capacité qu’elle a à s’en défendre est limitée par les difficultés méthodologiques des sciences humaines, et par la vitesse avec laquelle les relations internationales peuvent changer[137].

Les risques existentiels posent d’autres problèmes d’estimation, en raison d’un biais de sélection majeur, le principe anthropique. Contrairement à la plupart des autres catastrophes, le fait qu’une extinction massive concernant l’humanité ne se soit jamais produite dans le passé ne donne aucune information sur la probabilité d’un tel évènement dans l’avenir, parce que, par définition, une extinction ne laisse pas d’observateurs (humains), et donc, même si des catastrophes constituant des risques existentiels étaient très probables, le fait que l’humanité ait survécu signifierait seulement qu’elle a eu énormément de chance[139]. Il reste cependant possible pour estimer ces risques de se servir d’évènements analogues ayant laissé des traces, comme les cinq grands épisodes d’extinction ayant précédé l’apparition de l’Homme ; il est parfois aussi possible de calculer les effets de telle ou telle catastrophe technologique, par exemple d’un hiver nucléaire[5].

Paradoxe de Fermi[modifier | modifier le code]

Article détaillé : Paradoxe de Fermi.

En 1950, le physicien italien Enrico Fermi se demanda pourquoi l’humanité n’avait pas encore rencontré de civilisations extra-terrestres. Comme il le demandait, « où est tout le monde ? »[140]. Étant donné l’âge de l’univers et son grand nombre d’étoiles, la vie extraterrestre devrait être banale, à moins que la Terre soit très atypique. C’est cette bizarrerie qui est connue sous le nom de paradoxe de Fermi.

Bien qu’elle ne soit pas majoritairement acceptée, une explication proposée du paradoxe est la notion de risque existentiel ; plus précisément, l’idée que des civilisations que nous aurions pu observer (ou qui auraient pu nous rendre visite) ont été détruites avant que l’humanité apparaisse[139],[141].

Importance économique et éthique des risques existentiels[modifier | modifier le code]

La réduction des risques existentiels bénéficie surtout aux générations futures ; en fonction de l’estimation de leur nombre, on peut considérer qu’une diminution même légère du risque a une grande valeur morale. Derek Parfit affirme ainsi que nos descendants pourraient potentiellement survivre encore cinq milliards d’années, jusqu’à ce que l’expansion du Soleil rende la Terre inhabitable[142],[143] ; Nick Bostrom pense même que la colonisation de l’espace permettrait à un nombre astronomique de personnes de survivre durant des centaines de milliards d’années[7] ; c’est la comparaison entre la population actuelle et cet énorme nombre de descendants potentiels détruits par l’extinction qui justifie « moralement » qu’on fasse tout pour réduire les risques.

Ces positions n’ont pas été vraiment contestées, bien que d’un point de vue économique, il faille prendre en compte le fait que la valeur d’un bien actuel est plus importante que la valeur du même bien s’il ne doit être touché que dans l’avenir ; le modèle le plus couramment utilisé, celui de l’actualisation exponentielle, pourrait rendre ces bénéfices futurs bien moins significatifs. Cependant, Jason Gaverick Matheny a affirmé que ce modèle n’est pas pertinent pour déterminer la valeur de la réduction de risques existentiels[133].

Certains économistes ont essayé d’estimer l’importance des risques de catastrophe planétaire (mais pas des risques existentiels). Martin Weitzman prétend que l’espérance (au sens statistique) du coût économique résultant de changements climatiques est importante en raison de situations auxquelles les modèles affectent une faible probabilité, mais qui provoqueraient des dommages catastrophiques[144]. Plus généralement, Richard Posner pense que nous faisons bien trop peu, le plus souvent, pour pallier les risques de catastrophes planétaires lorsque ceux-ci sont faibles et difficiles à estimer[8].

Outre les biais cognitifs analysés dans la section suivante, il y a aussi des raisons économiques expliquant pourquoi peu d’efforts sont faits pour réduire les risques existentiels, et même certains risques de catastrophe planétaire non irréparable : ces risques concernent un bien global, c´est-à-dire que même si une grande puissance les réduit, elle ne profitera que d’une petite partie du bénéfice correspondant ; de plus la majorité de ces bénéfices seront perçus par les générations futures, lesquelles n’ont évidemment aucun moyen de payer une assurance contre ces risques aux générations actuelles[5].

Perception des risques[modifier | modifier le code]

Tableau représentant quatre cavaliers sépulcraux dans un décor désolé.
Les Quatre Cavaliers de l’Apocalypse dans un tableau de 1887 par Viktor Vasnetsov (de gauche à droite, la Peste, la Famine, la Guerre et la Conquête).

Selon Eliezer Yudkowsky, de nombreux biais cognitifs peuvent influencer la façon dont les individus et les groupes estiment l’importance des risques de catastrophe globale, biais parmi lesquels figurent l’insensibilité à l’étendue, l’heuristique de disponibilité, le biais de représentativité, l’heuristique d’affect, et l’effet d’excès de confiance[74]. Ainsi, l’insensibilité à l’étendue amène les gens à être souvent plus concernés par les menaces individuelles qu’à celles s’adressant à des groupes plus vastes[74] (c’est pourquoi leurs dons pour des causes altruistes ne sont pas proportionnels à l’ampleur du problème[145]) ; cela fait qu’ils ne considèrent pas l’extinction de l’humanité comme un problème aussi grave qu’il devrait l’être. De même, le biais de représentativité les amène à minimiser les catastrophes qui n’ont que peu de rapport avec celles dont ils ont eu connaissance, et à supposer que les dommages qu’elles causeront ne seront pas beaucoup plus graves[74].

Il a été souvent remarqué[146] que la majorité des risques anthropogéniques mentionnés précédemment correspondent à des mythes souvent très anciens, ceux de Prométhée, de Pandore et, plus récemment, celui de l’apprenti sorcier étant les plus représentatifs. La symbolique des quatre Cavaliers de l’Apocalypse, les trois derniers représentant la Guerre, la Famine et la Peste, se trouve déjà dans l’Ancien Testament sous la forme du choix inconfortable offert par Dieu au roi David[147]. Les divers risques de révolte des machines apparaissent dans le mythe du Golem, et, combinés aux biotechnologies, dans l’histoire du monstre de Frankenstein. D’autre part, il a été suggéré que les récits de catastrophes de diverses traditions religieuses (où elles sont le plus souvent liées au courroux des divinités) correspondraient à des souvenirs de catastrophes réelles (par exemple le Déluge serait lié à la re-connexion de la mer de Marmara avec la mer Noire) ; sous le nom de catastrophisme cohérent (coherent catastrophism)[135], Victor Clube et Bill Napier ont développé l’hypothèse selon laquelle des pluies de météorites cataclysmiques auraient donné naissance à de nombreux mythes cosmogoniques, allant de l’histoire de la destruction de Sodome et Gomorrhe (thèse défendue également par Marie-Agnès Courty) aux descriptions de l’Apocalypse[13] ; leurs idées sont cependant mal acceptées par la communauté scientifique[148].

L’existence de ces interprétations « mythiques », ainsi que de nombreuses prophéties de fin du monde[n 15], facilite un phénomène de refus partiel ou total de prise en compte de ces risques de catastrophe, connu sous le nom de syndrome de Cassandre[n 16],[150] : tandis que les risques anthropogéniques sont minimisés en les attribuant à des peurs irrationnelles, les catastrophes décrites dans les mythes sont jugées exagérées par l’ignorance et la déformation des souvenirs[n 17],[151].

L’analyse des risques causés par l’Homme souffre d’ailleurs de deux biais opposés : les lanceurs d’alerte tendent à exagérer le risque pour se faire entendre[n 18], voire à dénoncer des risques imaginaires au nom du principe de précaution[152] ; de puissants intérêts économiques essaient à l’inverse de minimiser les risques liés à leurs activités, comme le montre par exemple l’affaire de l’institut Heartland[153], et plus généralement l’analyse des stratégies de désinformation exposée dans Les Marchands de doutes[n 19].

Donnant une interprétation rationnelle au mythe de l’âge d’or[n 20], Jared Diamond fait enfin remarquer que certaines catastrophes (les « écroulements » (crunches) de Nick Bostrom) peuvent passer inaperçues des sociétés qui les subissent, faute d’une mémoire historique suffisante[n 21] ; c’est par exemple ainsi qu’il explique le désastre écologique subi par les habitants de l’île de Pâques[155].

Organisations d'évaluation des risques[modifier | modifier le code]

Le Bulletin of the Atomic Scientists est un des plus vieux organismes se préoccupant de risques globaux ; il fut fondé en 1945 après que le bombardement d’Hiroshima a fait prendre conscience par le grand public des dangers de l’arme atomique. Il étudie les risques associés aux technologies et aux armes nucléaires, et est célèbre pour sa gestion de l’Horloge de la fin du monde depuis 1947.

En 1972, les travaux du Club de Rome ont donné lieu à un célèbre rapport, Halte à la croissance ?, mettant en garde contre les risques d’épuisement des ressources naturelles et de catastrophes écologiques, mais ce rapport a été contesté[n 16] et ses conclusions n’ont pas été suivies d’effets ; ce n’est qu’au début du XXIe siècle qu’il a été réévalué et que ses analyses sont jugées « étonnamment proches » de l’évolution actuelle de l’économie[156],[157].

Depuis le début des années 2000, un nombre croissant de scientifiques, de philosophes et de milliardaires des nouvelles technologies ont créé des organisations indépendantes ou liées aux milieux académiques, dédiées à l’analyse des risques de catastrophe planétaire[158].

Parmi les organisations non gouvernementales (ONG) de ce type, on trouve le Machine Intelligence Research Institute (créé en 2000), qui a pour but de réduire les risques de catastrophe liés à l’intelligence artificielle et à la singularité technologique[159], et dont Peter Thiel est un des principaux donateurs[160]. Plus récemment, la Lifeboat Foundation (créée en 2006) subventionne des recherches de prévention d’une catastrophe technologique[161], la plupart des fonds allant à des projets universitaires[162] ; le Future of Life Institute a été créé en 2014 pour « rechercher des moyens de sauvegarder l'humanité face aux nouveaux défis technologiques »[163], Elon Musk en est un des plus importants donateurs[164].

Parmi les organisations dépendant d’universités figurent le Future of Humanity Institute, fondé en 2005 par Nick Bostrom à l’université d'Oxford pour effectuer des recherches sur l’avenir à long terme de l’humanité et les risques existentiels, le Centre pour l'étude des risques existentiels, fondé en 2012 à l’université de Cambridge (et dont Stephen Hawking est consultant) pour étudier quatre risques anthropogéniques : l’intelligence artificielle[n 22], les biotechnologies, le réchauffement climatique et les risques de guerre ; ou encore, à l’université Stanford, le Center for International Security and Cooperation, étudiant les politiques de coopération permettant de réduire les risques de catastrophe planétaire[166].

Enfin, d’autres groupes d’évaluation des risques appartiennent à des organisations gouvernementales. Ainsi, l’Organisation mondiale de la santé (OMS) possède un département appelé Alerte et Réponse Globale (GAR) chargé de la coordination entre États membres en cas de pandémie[167],[168] ; l'Agence des États-Unis pour le développement international (USAID) possède un programme analogue[169]. Le Laboratoire national de Lawrence Livermore a une division, le Global Security Principal Directorate (Directoire principal de la sécurité globale) chargé d’étudier pour le compte du gouvernement des questions telles que la bio-sécurité, le contre-terrorisme, etc[170].

Précautions et prévention[modifier | modifier le code]

La notion de gouvernance globale respectant les limites planétaires a été proposée comme une approche de prévention des risques de catastrophe écologique. En particulier, le domaine de la géo-ingénierie envisage de manipuler l’environnement à l’échelle du globe pour combattre les changements anthropogéniques de la composition atmosphérique. Des techniques globales de stockage et de conservation des aliments ont été envisagées, mais leur coût serait élevé, et de plus elles pourraient aggraver les conséquences de la malnutrition. David Denkenberger et Joshua Pearce ont suggéré d'utiliser diverses nourritures alternatives pour diminuer les risques de famine liés à des catastrophes planétaires telles qu’un hiver nucléaire ou un changement climatique soudain[171], par exemple de convertir la biomasse (les arbres et le bois) en produits comestibles[172] ; cependant, il faudra beaucoup d’avancées dans ce domaine pour que ces méthodes permettent à une fraction importante de la population de survivre[173]. D’autres suggestions de diminution des risques, telles que les stratégies de déviation des astéroïdes pour parer aux risques d’impact, ou le désarmement nucléaire, s’avèrent économiquement ou politiquement difficiles à mettre en œuvre. Enfin, la colonisation de l’espace est une autre proposition faite pour augmenter les chances de survie face à un risque existentiel[174], mais des solutions de ce type, inaccessibles actuellement, demanderont sans doute entre autres le recours à l’ingénierie à grande échelle.

Parmi les précautions effectivement prises individuellement ou collectivement, on peut citer :

Analyses et critiques[modifier | modifier le code]

L'importance des risques détaillés dans les sections précédentes est rarement niée, même si les risques dus à l’homme sont souvent minimisés[n 19] ; cependant, les analyses de Nick Bostrom ont été critiquées de plusieurs points de vue distincts.

Critiques techniques[modifier | modifier le code]

Plusieurs des risques mentionnés par Nick Bostrom dans ses ouvrages sont jugés exagérés (voire imaginaires), ou correspondent à des échelles de temps si vastes qu’il semble un peu absurde de les regrouper avec des menaces presque immédiates[176],[n 23]. D’ailleurs, les calculs de probabilité, d’espérance ou d’utilité sont difficiles ou mal définis pour ce genre de situation, comme le montrent par exemple des paradoxes tels que l’argument de l’apocalypse, et comme Nick Bostrom le reconnaît lui-même[177],[176]. En particulier, il a développé un argument éthique affirmant que le nombre exorbitant de nos descendants voués au néant par une catastrophe existentielle justifie qu’on emploie tous les moyens imaginables pour diminuer, si peu que ce soit, la probabilité de cet accident[7] ; cependant, les calculs sur lesquels il s’appuie ont été contestés et cet argument pourrait bien n’être qu’un sophisme[133].

Nick Bostrom et Max Tegmark ont publié en 2005 une analyse d’un risque d’instabilité de l’univers entier[178]. Indépendamment de la validité de leurs calculs (tendant à montrer que le risque est très faible), on peut se demander s'il y a réellement un sens à parler d’une catastrophe dont nul ne serait averti à l’avance, et qui ne laisserait aucun observateur ; lors d’une discussion analogue sur le risque d’une réaction en chaîne embrasant toute l’atmosphère, un ami avait répondu aux angoisses de Richard Hamming par « Ne t’inquiète pas, Hamming, il ne restera personne pour te blâmer »[96].

Positions philosophiques[modifier | modifier le code]

Les analyses de Nick Bostrom s’appuient sur le transhumanisme, une idéologie prônant l’usage des sciences et des techniques afin d’améliorer les caractéristiques physiques et mentales des êtres humains ; il considère ainsi que tout ce qui pourrait empêcher l’humanité de développer pleinement son potentiel est un risque existentiel[3].

Cette position a été sévèrement critiquée, entre autres parce qu’elle amène à nier des valeurs auxquelles l’humanité actuelle est attachée, au nom de valeurs futures hypothétiques[9]. Steve Fuller remarque en particulier que si une catastrophe planétaire ne détruit pas toute l’humanité, les survivants pourront légitimement estimer dans certains cas que leur situation s’est améliorée[179].

Dans la fiction[modifier | modifier le code]

Littérature[modifier | modifier le code]

La Fin du monde, tableau apocalyptique de John Martin.
La Fin du monde, tableau de John Martin (1853).

Des scénarios de catastrophe planétaire sont en germe dans les plus anciens mythes répertoriés : déluge engloutissant tous les êtres vivants dans l’Épopée de Gilgamesh, destruction par la glace, l’eau ou le feu dans le mythe nordique du Ragnarök, liste des dix plaies d'Égypte, etc.[180]. Mais aucun de ces récits, ni de ceux proposés par la science-fiction jusque vers 1950, ne se soucie de vraisemblance scientifique ou sociologique ; les descriptions de dystopies (correspondant aux « hurlements » (shrieks) de Nick Bostrom), à l’exception notable de 1984, se préoccupent également fort peu de la cohérence et de la viabilité des systèmes qu'elles proposent en repoussoir.

Après Hiroshima, une abondante littérature post-apocalyptique se développe, comportant d’ailleurs des œuvres non rangées dans le champ de la science-fiction, comme Malevil, mais la plupart de ces romans se concentrent sur la question de la survie, et non sur les causes de la catastrophe (presque toujours nucléaire)[n 12] ; en 1985, Jacques Goimard expliquera la popularité de ces récits par le « désir d’effondrement »[181].

Au début des années 1970 apparaissent des descriptions de catastrophes environnementales visant au réalisme. Ainsi, John Brunner publie Tous à Zanzibar (1968) et Le Troupeau aveugle (1972), dénonçant respectivement les dangers de la surpopulation et de la pollution, et se voulant scientifiquement irréprochables ; il s’appuie sur une documentation très à jour, reflétant les analyses des premiers mouvements écologistes, et s’avère même étonnamment précis dans ses prédictions[182].

Des romans décrivant des catastrophes dues aux nouvelles technologies (intelligence artificielle, biotechnologies, nanotechnologies, etc.) n’apparaissent pas avant 1990, et restent marginaux ; bien plus nombreux sont ceux se préoccupant, comme dans les romans de Iain Banks sur la Culture, de la façon dont les humains pourraient s’adapter à ces technologies, dans des univers inspirés des idées transhumanistes.

Cinéma[modifier | modifier le code]

Article détaillé : Film catastrophe.

Les catastrophes ont constitué un sujet de choix depuis les débuts de l’histoire du cinéma (avec par exemple en 1927 Metropolis, considéré comme le premier film dystopique), mais la difficulté de la réalisation d'effets spéciaux convaincants fait que les réalisateurs se sont plutôt attachés à la description d’un monde dévasté, comme dans la série des Mad Max.

À partir des années 1990, les énormes progrès des effets spéciaux numériques donnent au film catastrophe un nouveau souffle : Independence Day relatant une invasion extra-terrestre, Volcano l’irruption d’un volcan en pleine ville, ou encore Armageddon décrivant la destruction d’un astéroïde menaçant l’impact ; on peut aussi citer les films de la série Terminator et ceux de la série Matrix (illustrant la « révolte des machines »). En 2004, Le Jour d’après de Roland Emmerich décrit un changement climatique brutal. Cependant, tous ces films ont été gravement critiqués pour leur absence de réalisme ou de vraisemblance[183],[n 24].

Plus récemment encore, d’autres types de catastrophes planétaires, en particulier les pandémies, ont fait l’objet de films demandant moins d'effets spéciaux et au demeurant plus réalistes, le film le plus célèbre de ce type étant Contagion.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Plus précisément, dans un article pour le Journal of Evolution and Technology, il définit un risque existentiel comme « un évènement qui annihilerait la vie intelligente sur Terre ou réduirait son potentiel de façon drastique et permanente »[3].
  2. Des définitions plus quantitatives ont été données par la suite ; ainsi, la Global Challenges Foundation définit un tel risque comme « provoquant la mort d'au moins un dixième de l'humanité »[6].
  3. En négligeant les évènements de très faible probabilité, comme les impacts cosmiques par des objets de plus de 3 km de diamètre, au demeurant minimisés par les théories de l'époque concernant les grandes extinctions, attribuées à des causes graduelles.
  4. D’autres auteurs, comme Jared Diamond ou Paul R. Ehrlich, utilisent plutôt le terme « effondrement » (collapse).
  5. a et b Même pour des risques indépendants des actions humaines (impacts cosmiques, volcanisme, etc.) et s'étant déjà produit fréquemment (à l'échelle géologique), la notion de probabilité n'est pas toujours bien définie : dans l’ignorance des mécanismes exacts causant la catastrophe, la loi d’apparition de l’aléa étudié reste incertaine. Benoît Mandelbrot a ainsi montré que de nombreux phénomènes (allant des intermittences sur les lignes téléphoniques aux crues des fleuves, ou aux prix des matières premières) ont une structure temporelle fractale[12] ; lorsque c'est le cas, la probabilité d’apparition du phénomène varie selon l’échelle de temps choisie. Ainsi, le risque d’impact cosmique (qu’on peut a priori estimer à un impact destructeur par million d’années) change beaucoup si l’on est en fait en train de traverser un essaim météoritique[13].
  6. L’agence nationale de santé publique estime en 2016 que la pollution de l’air est responsable de 48 000 morts par an en France[42] ; l’Organisation mondiale de la santé l’estimait responsable en 2012 de près de sept millions de morts prématurées par an, surtout dans les pays à revenus faibles et intermédiaires, en particulier en Asie[43].
  7. Ce que montrent, par exemple, les mesures prises à la suite du grand smog de Londres ; en revanche, éliminer le nuage brun d'Asie demanderait des mesures coercitives internationales difficiles à mettre en œuvre[45].
  8. En 2014, Eric H. Cline a de même attribué à une crise systémique globale l'effondrement soudain de royaumes et d'empires à la fin de l'âge du bronze[63] ; on trouvera dans l’article Théories sur les risques d’effondrement de la civilisation industrielle d’autres analyses des scénarios possibles d’effondrement (collapse) des systèmes.
  9. Ils évoquent par exemple la chute d’une météorite de 50 m de diamètre (ce qui a lieu tous les 1000 ans en moyenne[64]) qui, si elle se produisait sur le territoire américain, pourrait être prise pour une attaque nucléaire surprise, déclenchant une contre-attaque automatique[13].
  10. Il s’agit là d’un des biais cognitifs qui rendent difficile l’appréciation exacte des risques de catastrophe planétaire[74].
  11. Ce type d'erreur est particulièrement difficile à gérer lorsque l'IA ne peut justifier ses raisonnements, et que les humains risquent de suivre aveuglément des conseils s'avérant désastreux[75].
  12. a et b Des catastrophes « réalistes » provenant de l’apparition d’une nouvelle technologie ont été parfois envisagées par des auteurs de science-fiction dès les années 1950 ; un célèbre exemple étant l’invention de la glace-neuf dans le roman de Kurt Vonnegut, Le Berceau du chat.
  13. Un tel passage, perturbant le nuage d'Oort, pourrait beaucoup augmenter le risque d'impact cosmique ; en 2016, il a été montré que ce serait en particulier le cas de Gliese 710 dans 1,35 million d'années[129]
  14. Cependant, des recommandations éditées par le COSpAR dans le cadre de la protection planétaire concernant les retours d’échantillons sur Terre (catégorie V) ont pour objectif d’éviter une telle contamination[132].
  15. Ces prophéties ne rentrent pas directement dans le cadre de la prédiction de risques de catastrophe planétaire, faute de donner des détails sur les mécanismes mis en jeu ; elles jouent cependant un rôle certain dans le scepticisme souvent affiché face aux analyses alarmistes des experts[149]. L’analyse des mécanismes par lesquels les groupes s’adaptent à la dissonance cognitive provenant de prédictions erronées est le sujet du livre de Leon Festinger, L'Échec d'une prophétie ; ils amènent les observateurs ne faisant pas partie du groupe à se montrer plus sceptiques face à de nouvelles prophéties.
  16. a et b Sous le titre La malédiction de Cassandre, une analyse de Ugo Bardi (dont voici la version originale en anglais) est parue en 2011, étudiant la diabolisation du rapport du Club de Rome intitulé Halte à la croissance ?.
  17. Dans L’Éveil, Oliver Sacks fait remarquer que des pandémies même relativement récentes sont minimisées (la grippe de 1918) ou complètement oubliées (l’encéphalite léthargique).
  18. Ainsi, dans La Bombe P, Paul R. Ehrlich annonçait en 1968 des famines massives (dues à la surpopulation) censées se produire avant 1980. .
  19. a et b Dans Les Marchands de doutes, Naomi Oreskes et Erik M. Conway montrent que les mêmes stratégies de désinformation employées pour nier les méfaits du tabagisme ont été utilisées pour minimiser les effets du réchauffement climatique, des pluies acides et de la destruction de la couche d’ozone.
  20. Apparaissant dans de nombreux mythes indo-européens (grecs et romains, mais aussi hindous), ces récits d’un état passé idéal dont l’humanité a été chassée peuvent être également vus comme des variantes du thème du paradis perdu ; Claude Lévi-Strauss les rattache à un « mythème » plus général expliquant les institutions sociales (et aussi la maladie, le vieillissement et la mort) par la perte, à la suite d’une transgression, d’un état antérieur plus favorable[154].
  21. Manquant de traditions écrites, par exemple, ils ignorent que, dans le passé, leurs conditions de vie étaient meilleures, et répètent les actions nuisibles de leurs prédécesseurs, parce qu’ils n’ont pas conscience de leurs conséquences.
  22. Huw Price explique « qu’il semble raisonnable de penser que tôt ou tard l’intelligence échappera aux contraintes biologique et que nous ne serons alors plus ce qu’il y a de plus malin, et risquerons d’être à la merci de machines ne prenant pas nos intérêts en compte[165]. »
  23. Ainsi, il parait peu vraisemblable que l’humanité soit un jour capable d’empêcher l’expansion du Soleil, et seule la colonisation de systèmes extra-solaires peut l’en protéger. Cependant, ce type de colonisation (dans l’état actuel de nos connaissances) repose sur des capacités technologiques et sociales extrêmement éloignées de nos possibilités actuelles (typiquement, maintenir dans d’immenses vaisseaux spatiaux des civilisations stables de futurs colons, pendant plusieurs dizaines de milliers d’années) ; une analyse sérieuse de rapport coûts-bénéfices dans ce cas semble à plusieurs critiques totalement illusoire.
  24. Par exemple, faire exploser un astéroïde comme dans Armageddon ne protégerait probablement pas la Terre de l’impact ; le changement climatique décrit dans Le Jour d’après, outre qu’il ne risque guère de provoquer une nouvelle ère glaciaire à court terme, ne saurait en aucun cas geler instantanément les gens restés dehors.

Références[modifier | modifier le code]

  1. Céline Grislain-Letrémy, Reza Lahidji et Philippe Mongin, Les risques majeurs et l'action publique : Rapport du Conseil d'analyse économique no 105, La Documentation française, .
  2. Helga-Jane Scarwell et Richard Laganier, Risque d'inondation et aménagement durable du territoire, Presses universitaires du Septentrion, , 242 p. (ISBN 2-85939-870-8), p. 51.
  3. a, b, c, d et e Bostrom 2002.
  4. Bostrom 2008, p. 1 (lire en ligne).
  5. a, b, c, d et e (en) Nick Bostrom, « Existential Risk Prevention as Global Priority » [« La prévention des risques existentielles, une priorité globale »], Global Policy,‎ , p. 15–31 (DOI 10.1111/1758-5899.12002, lire en ligne).
  6. Cotton-Barratt 2016
  7. a, b et c (en) Nick Bostrom, « Astronomical Waste: The opportunity cost of delayed technological development » [« Gâchis astronomique : le coût d'un délai du développement technologique »], Utilitas, vol. 15, no 3,‎ , p. 308–314 (DOI 10.1017/s0953820800004076, lire en ligne).
  8. a et b Posner 2004, Introduction, « Qu'est-ce qu’une catastrophe ? ».
  9. a et b (en) Francis Fukuyama, « Transhumanism », Foreign Policy,‎ (lire en ligne).
  10. a et b (en) « Frequently Asked Questions » [« Foire aux questions »], Future of Humanity Institute (consulté le 26 juillet 2013). .
  11. a, b et c (en) Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute.
  12. « L'application des fractales à la finance : entretien avec Benoît Mandelbrot », La Recherche,‎ (lire en ligne).
  13. a, b et c Victor Clube et Bill Napier, Hiver cosmique, Le jardin des livres, 2006.
  14. a et b (en) « The Cambridge Project for Existential Risk » [« Le projet de Cambridge pour les risques existentiels »], Cambridge University.
  15. (en) « 'Terminator center' to open at Cambridge University » [« Un "centre Terminator" va s'ouvrir à l'université de Cambridge »], Fox News,‎ (lire en ligne).
  16. Julien Cattiaux, Fabrice Chauvin, Hervé Douville et Aurélien Ribes, « Des bulletins météo extrêmes à prévoir », La Recherche, no 517,‎ (résumé).
  17. (en) « 2015: IT IS 3 MINUTES TO MIDNIGHT » [« 2015 : trois minutes avant minuit »], sur Bulletin of the Atomic Scientists, .
  18. a et b « Il est minuit moins deux minutes trente avant la fin du monde », Le Figaro.fr avec AFP, 27 janvier 2017.
  19. a et b (en) Isaac M. Held et Brian J. Soden, « Water Vapor Feedback and Global Warming » [« Réchauffement global et rétroaction de la vapeur d’eau »], Annu. Rev. Energy Environ 2000,‎ , p. 449 et suivantes (résumé).
  20. (en) James Hansen, « Climate sensitivity, sea level and atmospheric carbon dioxide » [« Sensibilité au climat, niveau de la mer et gaz carbonique de l’atmosphère »], Royal Society Publishing, vol. 371, no 2001,‎ , p. 20120294 (DOI 10.1098/rsta.2012.0294, lire en ligne).
  21. (en) Kendall Powell et John Bluck, « Tropical 'runaway greenhouse' provides insight to Venus » [« L'emballement de l’effet de serre donne des indices pour Vénus »], NASA Ames Research Center, .
  22. (en) Fricke, H. C., Williams, C. et Yavitt, J. B., « Polar methane production, hothouse climates, and climate change » [« Production de méthane polaire, climats de serre et changements climatiques »], American Geophysical Union, vol. Fall Meeting,‎ (Bibcode 2009AGUFMPP44A..02F).
  23. (en) B. Chiarelli, « Overpopulation and the Threat of Ecological Disaster: the Need for Global Bioethics » [« Surpopulation et la menace d’un désastre écologique : la nécessité d’une bioéthique globale »], Mankind Quarterly, vol. 39, no 2,‎ , p. 225–230.
  24. (en) Ambrose Evans-Pritchard, « Einstein was right - honey bee collapse threatens global food security » [« Einstein avait raison - l’effondrement des abeilles menace la sécurité alimentaire »], The Daily Telegraph, Londres,‎ (lire en ligne).
  25. Martine Valo, « Il faut interdire l'usage des pesticides néonicotinoïdes en Europe », Le Monde, Groupe Le Monde,‎ (lire en ligne).
  26. Meadows 1974, p.129 et suiv. de l’édition anglaise.
  27. (en)[PDF]Nations unies, Département des Affaires économiques et sociales, World Population Prospects - The 2012 Revision - Key Findings and Advance Tables, (lire en ligne).
  28. a et b (en) « Historical Estimates of World Population » [« Estimations historiques de la population mondiale »], sur census.gov, US Census Bureau (consulté le 9 septembre 2013).
  29. (en) « The end of India's green revolution? » [« La fin de la révolution verte en Inde  ? »], BBC News,‎ (lire en ligne).
  30. (en) Food First (en), « Green Revolution » [« Révolution Verte »], Foodfirst.org (consulté le 31 août 2016).
  31. a et b Matthieu Auzanneau, « Nier l'imminence du pic pétrolier est une erreur tragique », Lemonde.org, (consulté le 10 août 2016).
  32. a, b et c (en) The Oil Drum: Europe, « Agriculture Meets Peak Oil » [« L’agriculture rencontre le pic pétrolier »], Europe.theoildrum.com (consulté le 31 janvier 2012).
  33. (en) « Eating Fossil Fuels » [« Manger des carburants fossiles »], EnergyBulletin.net, (consulté le 31 janvier 2012).
  34. (en) Dale Allen Pfeiffer, « Drawing Momentum from the Crash » [« Utiliser le crash pour gagner de la force »], sur uncommonthought.com, .
  35. Marianne Boyer et Eugénie Dums, « Le « jour du dépassement de la Terre » en infographies », sur lemonde.fr, (consulté le 8 août 2016).
  36. (en) « Past Earth Overshoot Days » [« Recalcul des dates du dépassement (en fonction de la méthodologie de 2016) »], sur overshootday.com.
  37. (en) « Cereal Disease Laboratory : Ug99 an emerging virulent stem rust race » [« Laboratoire des maladies des céréales : Ug99, une rouille émergente »], Ars.usda.gov (consulté le 31 janvier 2012).
  38. (en) « Durable Rust Resistance in Wheat » [« Résistance durable à la rouille du blé »], Wheatrust.cornell.edu (consulté le 31 janvier 2012).
  39. Ainsi, une expérience intensive sur les risques d’hybridation avec le colza« Hybridation entre le colza et la ravenelle en conditions proches de la pratique agricole », sur inra.fr, (consulté le 20 octobre 2016) a donné des résultats entièrement négatifs.
  40. Christiane Galus, « Le “nuage brun” d’Asie pourrait menacer le climat de la planète », Le Monde,‎ (lire en ligne).
  41. « R4WO en bref : Une course contre la montre pour préserver les océans », Race for Water (consulté le 18 mars 2015).
  42. Laetitia Van Eeckhout, « La pollution de l’air est responsable de 9 % de la mortalité en France », sur Le Monde, (consulté le 7 mai 2016).
  43. « 7 millions de décès prématurés sont liés à la pollution de l’air chaque année », sur le site de l’Organisation mondiale de la santé, .
  44. « Un air irrespirable : la pollution atmosphérique tue et coûte de l’argent », sur banquemondiale.org, .
  45. (en) V. Ramanathan et al., « Atmospheric brown clouds regional assessment report with focus on Asia » [« Rapport sur les nuages bruns »], sur United Nations Environment Programme, .
  46. (en) Martin Hellman, « On the Probability of Nuclear War » [« Sur la probabilité d’une guerre nucléaire »], sur stanford.edu, .
  47. (en) Avner Cohen et Steven Lee, Nuclear Weapons and the Future of Humanity: The Fundamental Questions [« Armes nucléaires et avenir de l’humanité : les questions fondamentales »] (lire en ligne), p. 237.
  48. a et b (en) Federation of American Scientists, « Status of World Nuclear Forces » [« État des forces nucléaires dans le monde »], sur Federation of American Scientists, (consulté le 4 juin 2015).
  49. Frank Dikötter, La Grande Famine de Mao, 1958–62, Walker & Company, (ISBN 0-8027-7768-6), p. 13.
  50. (en) Brian Martin, « Critique of nuclear extinction » [« Critique du concept d'extinction nucléaire »], Journal of Peace Research, vol. 19, no 4,‎ , p. 287–300 (DOI 10.1177/002234338201900401, lire en ligne).
  51. L’hiver nucléaire, article de Richard Turco, Owen Toon, Thomas Ackerman, James Pollack et Carl Sagan, in La paix surarmée, Belin, 1987, traduction en français de l'article Nuclear Winter: Global Consequences of Multiples Nuclear Explosions in Science, vol. 222, no 4630, p. 1283-1292, 23 décembre 1983.
  52. a et b (en) Carl Shulman, « Nuclear winter and human extinction: Q&A with Luke Oman », sur Overcoming Bias, (consulté le 25 octobre 2014).
  53. (en) C. Bardeen, L. Oman, A. Robock, G. L. Stenchikov, O. B. Toon et R. P. Turco, « Atmospheric effects and societal consequences of regional scale nuclear conflicts and acts of individual nuclear terrorism » [« Effets atmosphériques et conséquences sociales de conflits nucléaires régionaux »], Atmospheric Chemistry and Physics,‎ (lire en ligne).
  54. Bostrom 2002, section 4.2.
  55. (en) Herman Kahn, On Thermonuclear War [« Sur la guerre thermonucléaire »], Princeton, NJ, USA, Princeton University Press,, .
  56. (en) Christian Enemark, « Biological attacks and the non-state actor: A threat assessment » [« Attaques biologiques par un acteur non-étatique : évaluation des menaces »], Intelligence and National Security,‎ (lire en ligne).
  57. « VIDEO - La tempête solaire qui a failli renvoyer la Terre au 18e siècle », sur bfmtv.com, BFM TV, (consulté le 21 octobre 2016).
  58. « La « guerre de l’eau » », sur lemonde.fr, (consulté le 21 octobre 2016).
  59. « Guerre de l'eau : le Pakistan menace l'Inde », sur lefigaro.fr, (consulté le 21 octobre 2016).
  60. Bruno Chaudret, « Métaux et terres rares : l’autre problème de la transition énergétique », Progressistes,‎ (lire en ligne).
  61. Tainter 1990.
  62. Il a formé un groupe multidisciplinaire pour étudier la culture anasazi dans Evolving Complexity and Environmental Risk in the Prehistoric Southwest (Santa Fe Institute Proceedings no 24), coédité avec Bonnie Bagley Tainter, 1998.
  63. (en) Eric H. Cline, 1177 B.C.: The Year Civilization Collapsed (2014), Princeton University Press, (ISBN 978-0-691-14089-6), publié en français sous le titre 1177 avant J.-C. : Le jour où la civilisation s'est effondrée (traduction par Philippe Pignard), La Découverte (2016), (ISBN 978-2-7071-9061-1).
  64. a et b (en) Une analyse des effets d’impacts cosmiques, et un simulateur basé sur cette analyse, développé à l’université d’Arizona.
  65. a et b (en) John Markoff, « Scientists Worry Machines May Outsmart Man » [« L’inquiétude des savants sur les machines devenant plus malignes que l’homme »], The New York Times,‎ (lire en ligne).
  66. (en) Vernor Vinge, « The Coming Technological Singularity: How to Survive in the Post-Human Era » [« La singularité technologique : comment survivre dans l’ère post-humaine »], sur rohan.sdsu.edu, .
  67. (en) Bill Joy, « Why the future doesn't need us » [« Pourquoi l’avenir n’a pas besoin de nous »], Wired,‎ (lire en ligne).
  68. (en) Nick Bostrom, « Ethical Issues in Advanced Artificial Intelligence » [« Questions éthiques en intelligence artificielle avancée »], sur nickbostrom.com, .
  69. (en) Nick Bostrom, Superintelligence : Paths, Dangers, Strategies [« Superintelligence : chemins, dangers, stratégies »], Oxford University Press, (ISBN 978-0199678112).
  70. (en) Kevin Rawlinson, « Microsoft's Bill Gates insists AI is a threat » [« Bill Gates insiste : l’IA est une menace »], BBC News (consulté le 30 janvier 2015).
  71. (en) Mariëtte Le Roux, « Rise of the Machines: Keep an eye on AI, experts warn » [« L’éveil des machines : gardez un œil sur l’IA, avertissent les experts »], Phys.org,‎ (lire en ligne).
  72. (en) P. W. Singer, « Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation » [« Parier sur la révolution des robots »], sur slate.com, (consulté le 21 octobre 2016).
  73. (en) Laurent Orseau et Stuart Armstrong, « Safely Interruptible Agents » [« Programmes qu'on peut arrêter sans danger »], sur intelligence.org, (consulté le 21 octobre 2016). .
  74. a, b, c et d (en) Eliezer Yudkowsky, « Cognitive Biases potentially affecting judgments of global risks » [« Biais cognitifs pouvant affecter les jugements des risques planétaires »], sur intelligence.org, MIRI, (consulté le 23 octobre 2016).
  75. Hubert Guillaud et Rémi Sussan, « L'intelligence artificielle va-t-elle rester impénétrable ? », sur internetactu.blog.lemonde.fr, Le Monde, (consulté le 3 novembre 2016).
  76. (en) Eliezer Yudkowsky, « Artificial Intelligence as a Positive and Negative Factor in Global Risk » [« L'intelligence artificielle comme facteur positif et négatif de risque global »], sur yudkowsky.net (consulté le 26 juillet 2013).
  77. (en) Tim Adams, « Artificial intelligence: ‘We’re like children playing with a bomb’ » [« IA : Nous sommes comme des enfants jouant avec une bombe »], The Observer,‎ (lire en ligne).
  78. a, b, c, d, e, f, g, h et i Bostrom 2008, chapitre 20 : Biotechnologie et biosécurité.
  79. a, b et c (en) Steven Frank, « Models of parasite virulence », Q Rev Biol, vol. 71, no 1,‎ , p. 37–78 (DOI 10.1086/419267, lire en ligne).
  80. a et b (en) Anders Sandberg, « The five biggest threats to human existence », sur theconversation.com (consulté le 13 juillet 2014).
  81. (en) Ronald J. Jackson, Alistair J. Ramsay, Carina D. Christensen, Sandra Beaton, Diana F. Hall et Ian A. Ramshaw, « Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox », Journal of Virology, vol. 75, no 3,‎ , p. 1205–1210 (DOI 10.1128/jvi.75.3.1205-1210.2001, lire en ligne).
  82. (en) Le virus tueur augmente la crainte du bioterrorisma, article du New Scientist, 10 janvier 2001.
  83. a, b, c, d, e, f, g, h, i, j, k et l Bostrom 2008, chapitre 21 : Nanotechnology as global catastrophic risk.
  84. a et b (en) « Frequently Asked Questions - Molecular Manufacturing », sur foresight.org (consulté le 19 juillet 2014).
  85. (en) Chris Phoenix et Mike Treder, « Three Systems of Action: A Proposed Application for Effective Administration of Molecular Nanotechnology » [« Trois systèmes d'action : une proposition pour un contrôle effectif des nanotechnologies »], sur crnano.org, (consulté le 19 juillet 2014).
  86. (en) Eric Drexler, « A Dialog on Dangers », sur foresight.org (consulté le 19 juillet 2014).
  87. (en) Eric Drexler, « Engines of Destruction (Chapter 11) », sur e-drexler.com (consulté le 19 juillet 2014).
  88. (en) « Dangers of Molecular Manufacturing » [« Les dangers des usines moléculaires »], sur crnano.org (consulté le 19 juillet 2014).
  89. a et b (en) « The Need for International Control » [« La nécessité d'un contrôle international »], sur crnano.org (consulté le 19 juillet 2014).
  90. (en) « Technical Restrictions May Make Nanotechnology Safer » [« Des restrictions techniques pourraient rendre les nanotechnologies plus sûres »], sur crnano.org (consulté le 19 juillet 2014).
  91. (en) Lawrence E. Joseph, Apocalypse 2012, New York, Broadway, (ISBN 978-0-7679-2448-1), p. 6.
  92. (en) Paul Rincon, « Nanotech guru turns back on 'goo' » [« Le gourou des nanotechnologies ne croit plus à la « gelée » »], BBC News,‎ (lire en ligne).
  93. (en) Fred Hapgood, « Nanotechnology: Molecular Machines that Mimic Life » [« Nanotechnologies : des machines moléculaires imitant la vie »], Omni,‎ (lire en ligne).
  94. (en) « Leading nanotech experts put 'grey goo' in perspective » [« Les experts relativisent le danger de gelée grise »], sur crnano.org (consulté le 19 juillet 2014).
  95. Bostrom 2002, section 4.8.
  96. a et b (en) Richard Hamming, « Mathematics on a Distant Planet ».
  97. (en) « Report LA-602, ''Ignition of the Atmosphere With Nuclear Bombs'' » [PDF] (consulté le 19 octobre 2011).
  98. (en) Robert Matthews (en), « A Black Hole Ate My Planet » [« Un trou noir a mangé ma planète »], New Scientist,‎ (lire en ligne).
  99. (en) Emil Konopinski, C. Marvin et Edward Teller, « Ignition of the Atmosphere with Nuclear Bombs », Los Alamos National Laboratory, no LA–602,‎ (lire en ligne [PDF]).
  100. (en) Une déclaration officielle concernant la sécurité du LHC.
  101. (en) « Safety at the LHC ».
  102. (en) (en) J. Blaizot et al., « Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC », sur doc.cern.ch, CERN, .
  103. (en) « Crossing the Line: Selection and Evolution of Virulence Traits » [« Franchir la ligne : sélection et évolution de la virulence »], PLoS Pathogens, vol. 2, no 5,‎ , e42 (DOI 10.1371/journal.ppat.0020042).
  104. (en) « Challenging the trade-off model for the evolution of virulence: is virulence management feasible? », Trends Microbiol., vol. 11, no 1,‎ , p. 15–20 (DOI 10.1016/S0966-842X(02)00003-3).
  105. (en) « Virulence evolution in emerging infectious diseases », Evolution, vol. 59, no 7,‎ , p. 1406–12 (DOI 10.1554/05-111).
  106. (en) Gandon S, « Evolution of multihost parasites », Evolution, vol. 58, no 3,‎ , p. 455–69 (DOI 10.1111/j.0014-3820.2004.tb01669.x).
  107. « Une super-bactérie cauchemardesque résiste à tous les antibiotiques », L'Express,‎ (lire en ligne).
  108. Anne Debroise, « Menace mondiale sur la santé publique », La Recherche,‎ .
  109. « Obésité et surpoids », sur who.int, Organisation mondiale de la santé, (consulté le 24 octobre 2016).
  110. (en) Platts-Mills TA, Erwin E, Heymann P et Woodfolk J, « Is the hygiene hypothesis still a viable explanation for the increased prevalence of asthma? », Allergy. 60 Suppl 79: 25–31.,‎ (PMID 15842230, DOI 10.1111/j.1398-9995.2005.00854.x).
  111. P. Bernanose, « Notre intelligence est-elle en train de s’émousser ? », sur santelog.com, (consulté le 24 octobre 2016).
  112. Bostrom 2008, ch.13, p. 276.
  113. a et b (en) M.R. Rampino et S.H. Ambrose, « Super eruptions as a threat to civilizations on Earth-like planets », Icarus, vol. 156,‎ , p. 562–569 (DOI 10.1006/icar.2001.6808, Bibcode 2002Icar..156..562R, lire en ligne).
  114. (en) Kate Ravilious, « What a way to go », The Guardian,‎ (lire en ligne).
  115. (en) Université d'Oxford, « The Toba supereruption », sur toba.arch.ox.ac.uk, .
  116. (en) Stanley H. Ambrose, « Late Pleistocene human population bottlenecks, volcanic winter, and differentiation of modern humans » [« Goulots d’étranglement des populations humaines de la fin du Pléistocène et hiver volcanique »], Journal of Human Evolution, vol. 34, no 6,‎ , p. 623–651 (DOI 10.1006/jhev.1998.0219, lire en ligne).
  117. a et b (en) Greg Breining, Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park [« Supervolcan : la bombe à retardement sous Yellowstone »], St. Paul, MN., Voyageur Press, (ISBN 978-0-7603-2925-2), chap. Distant Death, p. 256.
  118. (en) Roy E. Plotnick, « Relationship between biological extinctions and geomagnetic reversals », Geology, vol. 8, no 12,‎ , p. 578 (DOI 10.1130/0091-7613(1980)8<578:RBBEAG>2.0.CO;2, Bibcode 1980Geo.....8..578P).
  119. (en) Karl-Heinz Glassmeier et Vogt, Joachim, « Magnetic Polarity Transitions and Biospheric Effects », Space Science Reviews, vol. 155, no 1-4,‎ , p. 387–410 (DOI 10.1007/s11214-010-9659-6, Bibcode 2010SSRv..155..387G).
  120. (en) George Pararas-Carayannis, « Evaluation of the threat of mega tsunami generation from postulated massive slope failures of island volcanoes on La Palma, Canary Islands, and on the island of Hawaii », drgeorgepc.com, (consulté le 20 décembre 2008).
  121. a et b (en)Prehistoric Asteroid "Killed Everything", National Geographic, 2002.
  122. « La chute d’une météorite a bien été fatale aux dinosaures », sur Le Monde.fr, (consulté le 22 octobre 2016).
  123. a et b Bostrom 2002, section 4.10.
  124. Laurent Sacco, L’apocalypse dans 7,6 milliards d’années ?. futura-sciences.com, 28 février 2008. .
  125. (en) Ken Croswell, Will Mercury Hit Earth Someday?, Skyandtelescope.com 24 avril 2008.
  126. (en) Explosions in Space May Have Initiated Ancient Extinction on Earth, NASA.
  127. (en) Anne Minard, « Gamma-Ray Burst Caused Mass Extinction? », sur http://news.nationalgeographic.com, National Geographic News, .
  128. (en) Adrian Melott et Brian Thomas, « Astrophysical Ionizing Radiation and the Earth: A Brief Review and Census of Intermittent Intense Sources », Astrobiology, vol. 11,‎ , p. 343–361 (DOI 10.1089/ast.2010.0603, Bibcode 2011AsBio..11..343M, arXiv 1102.2830, lire en ligne).
  129. (en) Annonce du passage proche de Gliese 710.
  130. (en) Fraser Cain, « Local Galactic Dust is on the Rise », Universe Today,‎ (lire en ligne).
  131. Bostrom 2002, section 7.2.
  132. (en) COSPAR, « COSPAR PLANETARY PROTECTION POLICY » [PDF], .
  133. a, b et c (en) Jason Gaverick Matheny, « Reducing the Risk of Human Extinction », Risk Analysis, vol. 27, no 5,‎ , p. 1335–1344 (DOI 10.1111/j.1539-6924.2007.00960.x, lire en ligne).
  134. (en) D.J. Asher, M.E. Bailey, V. Emel'yanenko et W.M. Napier, « Earth in the cosmic shooting gallery », The Observatory, vol. 125,‎ , p. 319–322 (Bibcode 2005Obs...125..319A, lire en ligne [PDF]).
  135. a et b (en) David J. Asher, Victor Clube, Bill Napier et Duncan Steel (1994). Coherent Catastrophism. Vistas in Astronomy, 38 (1), 1-27 (Harvard.edu résumé en ligne).
  136. Ambrose 1998; Rampino et Ambrose 2000, p. 71, 80.
  137. a et b (en) Robinson Meyer, « Human Extinction Isn't That Unlikely », The Atlantic, (consulté le 30 avril 2016).
  138. (en) « Global Challenges Foundation website, Report for 2016 », globalchallenges.org (consulté le 30 avril 2016).
  139. a et b (en) Milan Ćirković, Anders Sandberg (en) et Nick Bostrom, « Anthropic Shadow: Observation Selection Effects and Human Extinction Risks », Risk Analysis, vol. 30,‎ , p. 1495–1506 (DOI 10.1111/j.1539-6924.2010.01460.x, lire en ligne).
  140. (en) E. M. Jones, « 'Where is everybody?' An account of Fermi's question », Los Alamos National Laboratory (LANL), United States Department of Energy, (consulté le 12 janvier 2013).
  141. (en) Brian Ventrudo, « So Where Is ET, Anyway? » [« Où est ET, alors ? »], Universe Today,‎ (lire en ligne) : « Some believe [the Fermi Paradox] means advanced extraterrestrial societies are rare or nonexistent. Others suggest they must destroy themselves before they move on to the stars ».
  142. (en) Derek Parfit, Reasons and Persons [« Causes et gens »], Oxford University Press, , 453–454 p..
  143. (en) Damian Harrington, « Date set for desert Earth » [« Une date pour une Terre déserte »], BBC News Online,‎ (lire en ligne).
  144. (en) Martin Weitzman, « On modeling and interpreting the economics of catastrophic climate change » [« Modélisation et interprétation des conséquences économiques de catastrophes climatiques »], The Review of Economics and Statistics, vol. 91, no 1,‎ , p. 1–19 (DOI 10.1162/rest.91.1.1, lire en ligne).
  145. (en) J.A. Hausman (dit.), W.H. Desvousges, F.R. Johnson, R.W. Dunford, K.J. Boyle, S.P. Hudson et N. Wilson, Contingent Valuation:A Critical Assessment [« Évaluation contingente: analyse critique »], Amsterdam, North Holland, , « Measuring natural resource damages with contingent valuation: tests of validity and reliability », p. 91−159.
  146. Voir par exemple cette recension de Phillip V. Stanley (en) dans le cadre d’un cours sur les mythes grecs de catastrophe, et plus généralement Jeanvrin 2009.
  147. « Sept ans de famine, trois mois de guerre ou trois jours de peste », Samuel 24-13.
  148. (en) Un contre-argument important développé par un des experts de la NASA.
  149. Lafargue 2012.
  150. (en) AtKisson, A., Believing Cassandra: An Optimist Looks at a Pessimist's World, Earthscan (en) (1999).
  151. D’autres motivations pour ce refus sont exposées dans "Confronting the New Misanthropy" (en), un article de Frank Furedi (en) dans Spiked en 2006.
  152. Voir cette analyse des spéculations alarmistes autour du LHC, et en particulier cet article (en) de Nature.
  153. Normand Baillargeon, « Vous reprendrez bien un peu de propagande », sur http://voir.ca, Voir, .
  154. Claude Lévi-Strauss, Mythologiques, t. I : Le Cru et le Cuit, Paris, Plon, 1964.
  155. Diamond 2006, ch.2, section La forêt évanouie. .
  156. Graham Turner, « Les limites de la croissance (1972-2012), quarante ans de perdus », sur lemonde.fr, (consulté le 23 octobre 2016).
  157. Jean-Paul Baquiast, « 1972-2012 : le Club de Rome confirme la date de la catastrophe », sur Mediapart, (consulté le 13 août 2016).
  158. (en) Sophie McBain, « Apocalypse soon: the scientists preparing for the end of times » [« Bientôt l'Apocalypse : les savants se préparent à la fin des temps »], New Statesman, (consulté le 5 juin 2015).
  159. (en) « Reducing Long-Term Catastrophic Risks from Artificial Intelligence » [« Réduction des risques de catastrophe globale dus à l'intelligence artificielle »], Machine Intelligence Research Institute (consulté le 5 juin 2015).
  160. (en) Angela Chen, « Is Artificial Intelligence a Threat? », The Chronicle of Higher Education, (consulté le 5 juin 2015).
  161. (en) « About the Lifeboat Foundation », The Lifeboat Foundation (consulté le 26 avril 2013).
  162. (en) Ashlee Vance, « The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I. », New York Times, (consulté le 5 juin 2015).
  163. (en) « The Future of Life Institute » (consulté le 5 mai 2014).
  164. (en) Nick Bilton, « Ava of ‘Ex Machina’ Is Just Sci-Fi (for Now) », New York Times, (consulté le 5 juin 2015).
  165. (en) Sylvia Hui, « Cambridge to study technology's risks to humans », Associated Press, .
  166. (en) « Center for International Security and Cooperation », Center for International Security and Cooperation (consulté le 5 juin 2015).
  167. (en) « Global Alert and Response (GAR) », World Health Organization (consulté le 5 juin 2015).
  168. (en) Kelley Lee, Historical Dictionary of the World Health Organization, Rowman & Littlefield, (lire en ligne), p. 92.
  169. (en) « USAID Emerging Pandemic Threats Program », USAID (consulté le 5 juin 2015).
  170. (en) « Global Security », Lawrence Livermore National Laboratory (consulté le 5 juin 2015).
  171. (en) David Denkenberger et Joshua Pearce, Feeding Everyone No Matter What: Managing Food Security After Global Catastrophe (en), Elsevier, San Francisco, 2014.
  172. (en) Denkenberger, D. C., & Pearce, J. M. (2015). Feeding Everyone: Solving the Food Crisis in Event of Global Catastrophes that Kill Crops or Obscure the Sun. Futures. 72:57–68. open access .
  173. (en) Baum, S.D., Denkenberger, D.C., A Pearce, J.M., Robock, A., Winkler, R. Resilience to global food supply catastrophes. Environment, Systems and Decisions 35(2), p. 301-313 (2015). open access.
  174. (en) Mankind must abandon earth or face extinction: Hawking, physorg.com, (lire en ligne).
  175. (en) Lewis Smith, « Doomsday vault for world’s seeds is opened under Arctic mountain », The Times Online, Londres,‎ (lire en ligne).
  176. a et b Nick Bostrom, « Are You Living In a Computer Simulation? » [« Vivez-vous dans une simulation informatique ? »], Philosophical Quarterly, vol. 53,‎ , p. 243-255 (lire en ligne).
  177. (en) Nick Bostrom, « The Doomsday Argument, Adam & Eve, UN++, and Quantum Joe », Synthese, vol. 127, no 3,‎ , p. 359–387 (DOI 10.1023/A:1010350925053, lire en ligne).
  178. (en) M. Tegmark et N. Bostrom, « Is a doomsday catastrophe likely? », Nature, vol. 438, no 5875,‎ , p. 754 (DOI 10.1038/438754a, Bibcode 2005Natur.438..754T, lire en ligne).
  179. (en) Steve Fuller, Why Superintelligence May Not Help Us Think about Existential Risks—or Transhumanism, Social Epistemology Review and Reply Collective 3, no. 10 (2014): 47-49.
  180. Jeanvrin 2009.
  181. Jacques Goimard, préface à Histoires de catastrophes, dans la Grande Anthologie de la Science-fiction. .
  182. Liste de prédictions de Tous à Zanzibar, dans Gentside.
  183. Les films avec les plus grosses aberrations scientifiques, sur le site senscritique.com.

Annexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Cet article est reconnu comme « bon article » depuis sa version du 15 février 2017 (comparer avec la version actuelle).
Pour toute information complémentaire, consulter sa page de discussion et le vote l'ayant promu.
La version du 15 février 2017 de cet article a été reconnue comme « bon article », c'est-à-dire qu'elle répond à des critères de qualité concernant le style, la clarté, la pertinence, la citation des sources et l'illustration.