Pourquoi le futur n'a pas besoin de nous

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Pourquoi le futur n’a pas besoin de nous sous-titré : « les technologies les plus puissantes de XXIe siècle : le génie génétique, la robotique et les nanotechnologies menacent d’extinction l’espèce humaine. » est un article de Bill Joy, datant de 2000, publiée notamment dans Wired Magazine.

Joy explique qu'il est convaincu qu'avec les avancées scientifiques et techniques en génétique et en nanotechnologie, les robots intelligents remplaceront l'humanité, au moins sur les plans intellectuel et social, dans un futur relativement proche. Il inclut dans son texte une réflexion sur les positions « neo-Luddite » de Unabomber. En 2004, en partie en réaction à la portée de ce texte, une réunion à Alexandria (Virginie) rassemble pour la première fois des experts de 26 pays qui débattent de la façon de réguler ce type de recherche au niveau planétaire.

Citations[modifier | modifier le code]

« Je l'ai senti moi-même. Le scintillement des armes nucléaires. Il est irrésistible si vous les approchez comme un scientifique. De sentir que c'est là dans vos mains, de libérer cette énergie qui alimente les étoiles, de la plier à votre volonté. D'exécuter ces miracles, de soulever un million de tonnes de roche dans le ciel. C'est quelque chose qui donne aux gens une illusion de pouvoir illimité et c'est, en quelque sorte, la cause de tous nos ennuis - cela, ce que vous pourriez appeler l'arrogance technique, qui a raison des gens quand ils voient ce qu'ils peuvent faire avec leur esprits" »

— Else, Jon.The Day After Trinity: J. Robert Oppenheimer and The Atomic Bomb.

« Maintenant, comme alors, nous sommes les créateurs de nouvelles techniques et les étoiles d'un avenir imaginé, poussés en avant - cette fois par de grandes récompenses financières et la compétition globale - malgré les dangers bien apparents, évaluant à peine à quoi cela ressemblera d'essayer de vivre dans un monde qui est le résultat probable de ce que nous créons et imaginons. »

Le philosophe John Leslie a étudié cette question et a conclu que le risque de l'extinction humaine est au moins de 30 pour cent[1], tandis que Ray Kurzweil croit que nous avons « plus de chance que jamais de nous en sortir », tout en avertissant qu'il « a toujours été accusé d'être un optimiste ». Non seulement ces évaluations ne sont pas encourageantes, mais elles n'incluent pas la probabilité de beaucoup de résultats horrifiants qui n'impliquent pas l'extinction.

« Cela a cristallisé mon problème avec le rêve de Kurzweil. Une approche technologique de l'Éternité - la quasi-immortalité par la robotique - peut ne pas être l'utopie la plus désirable et sa poursuite apporte des dangers clairs. Peut-être devrions nous repenser nos choix utopiques. »

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Auteur attaqué : Ray Kurzweil, son transhumanisme, et sa vision idyllique du progrès technologique et de la singularité technologique

Concepts liés :

Auteurs liés :

Concepts attaqués :

Liens externes[modifier | modifier le code]

Autres traductions :

Notes et références[modifier | modifier le code]

  1. Cette évaluation se trouve dans le livre de Leslie The End of the World: The Science and Ethics of Human Extinction, où il note que la probabilité d'extinction est sensiblement plus haute si nous acceptons l'Argument du Jour du Jugement Dernier de Brandon Carter, qui est, brièvement, que "« nous devrions avoir une certaine répugnance à croire que nous sommes très exceptionnellement tôt, par exemple dans les 0,001 premiers pour cent de tous les humains qui auront jamais vécu. Ce serait une certaine raison de penser que l'humanité ne survivra plus pendant beaucoup plus de siècles, sans parler de coloniser la galaxie. L'argument du Jour du Jugement Dernier de Carter ne produit pas d'évaluation de risque par lui-même. C'est un argument pour revoir les évaluations que nous produisons quand nous considérons divers dangers possibles ». (Routledge, 1996 : 1, 3, 145.)