Utilisateur:Magnum81/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

La dévaluation de l'humanité par l'intelligence artificielle[modifier | modifier le code]

La dévaluation de l’humanité par l’intelligence artificielle est un sujet qui porte à débat dans la communauté scientifique face au développement du concept d’intelligence artificielle (aussi, de façon réduite : IA) et de l’idée de super intelligence. Plutôt que de s’orienter sur le risque existentiel à long terme posé par la perte de contrôle inattendue d’un système dit « super intelligent » ou doté d’une intelligence artificielle forte ou générale, on se penche ici sur un enjeu à plus court terme qui tendra à s’accentuer au fil du temps et qui a comme point central les valeurs de l’être humain mises au défi par la machine intelligente, que ce soit en tant que système robotisé ou embarqué.

Explosion du concept d’intelligence artificielle et d’automatisation[modifier | modifier le code]

Des années 1950 jusqu’à nos jours, l’idée d’une « machine qui pense » a fait son chemin dans la communauté scientifique. L’IA a fait l’objet de beaucoup d’études et de spéculations concernant sa conception, ses capacités et, dans le cadre de l’automatisation de certains processus traditionnellement opérés par des humains, de son potentiel côté éthique. Notamment, les conférences de Dartmouth sur l’intelligence artificielle et la robotique de 1956 et 2006 ainsi que les symposiums tenus par L’Association pour l’Avancement de l’Intelligence Artificielle (AAIA) à tous les 2 ans depuis 1980[1] ont contribué à l’avancement de ces études et spéculations.

Nick Bostrom, 2014

La vulnérabilité des valeurs humaines[modifier | modifier le code]

Selon Nick Bostrom, philosophe suédois à l’Université d’Oxford, lors d’une conférence[2] en 2016, la super intelligence comme on la conçoit généralement pourrait éventuellement et certainement « dépasser le potentiel de raisonnement du cerveau humain dans des proportions difficiles à concevoir »[3], ce qui pose un problème : un tel système serait alors en position de pouvoir par rapport à l’humain et deviendrait donc, en quelque sorte, le « décideur du sort de l’humanité, tout comme l’humain décide du sort d’une majorité d’espèces sur la Terre ». Selon Bostrom, ce problème pourrait être résolu de deux façons : soit « en listant et en encodant toutes les valeurs humaines et/ou ce qui nous tient à cœur », ou bien « en enseignant au système à reconnaître ces traits et ces valeurs et à en tenir compte dans ses calculs »[4]. De façon évidente, on voit que plus l’IA ainsi conceptualisée est forte, plus l’idée de « contrôle » s’estompe et fait place au « Pouvoir décisionnel » de l’IA.

Stuart Russell

Identification des valeurs[modifier | modifier le code]

Afin d’avoir un meilleur contrôle sur une IA ou, plus simplement, sur notre propre existence, il serait donc important de connaître ces valeurs humaines dont nous avons fait mention à la section précédente. Selon Stuart Russell, « il semblerait que les valeurs humaines restent à jamais mystérieuses, même pour l’humain. En assumant que celles-ci sont révélées dans notre comportement, on aimerait à penser que la machine soit capable d’en prendre l’essence, en partie du moins »[5]. La morale, l’éthique et la valeur du travail humain devraient alors devenir des constantes sur lesquelles tous les humains s’entendent, mais il a été prouvé que ce n’était pas du tout le cas dans le monde actuel.

Une vision à court terme[modifier | modifier le code]

La vision de l’IA étant très colorée par la vision populaire, on préfère souvent se pencher sur les enjeux à court terme de celle-ci ; cette vision n’implique pas d’agents super intelligents, mais plutôt de multiples IA faibles ou spécialisées appliquées à des domaines précis. En effet, aujourd’hui, on connaît bien le fonctionnement des IA spécialisées et on s’en sert dans tous les domaines où une marge d’erreur humaine n’est simplement pas acceptable (répartition électricité dans un réseau se complexifiant, transport, domaine médical) ; Le développement futur donnerait alors lieu à une production augmentée dans tous les domaines où l’automatisation pourrait s’avérer utile. Cependant, l’automatisation et la montée de l’IA pourraient éventuellement faire en sorte que des postes soient abolis ou des salaires diminués ; les salariés autant que les employeurs devraient alors penser à des pistes de solution pour éviter la perte d’emploi tout en orientant la production vers des sphères d’application où la machine et l’automatisation auraient moins ou pas de place.[6]

Les gens ont tendance à penser que les systèmes intelligents les remplaceront ; cela serait possible à très long terme avec l’apparition de systèmes super intelligents, mais au contraire, les salaires auraient plutôt tendance à diminuer et c’est ici que la valeur du travail entre en jeu : La production devenant de plus en plus automatisée, le travail physique serait de moins en moins mis en valeur et cela pourrait accentuer des inégalités déjà présentes dans notre société; par exemple, un conducteur de machinerie lourde spécialisée remplacé par une IA robotisée devrait se recycler dans d’autres sphères d’activités, ce qui n’est pas une mince affaire. Il serait donc important de prendre de bonnes décisions maintenant afin de mieux intégrer l’IA en société et dans notre économie. Nous revenons ici au principe de contrôle énoncé par Nick Bostrom. Il est peu possible que l’art et la culture soient prises en charge par une éventuelle Super IA, car ce sont des caractéristiques propres à l’humain qui peuvent être assistées par un système automatisé (imprimerie 3D, logiciels de traitement d’images, etc.), mais jamais totalement remplacées. Ainsi, avec l’automatisation incrémentielle de sa production, l’humanité pourrait se concentrer sur la culture, l’art et le progrès technologique[7] afin de créer un environnement viable pour tous.[8]

La collaboration humain-machine[modifier | modifier le code]

Dans un rapport de 1993 du symposium de l’ AAIA, Loren Terveen a soulevé le point de la collaboration entre l’humain et la machine, qui se décrirait en trois points distincts :

  • Distribution de responsabilité humain-machine dans le but d’accomplir une tâche.
  • Communication humain-machine efficace à propos de la tâche et de l’état de la collaboration.
  • Approvisionnement du système avec assez de connaissances et de puissance de calcul afin de lui permettre de contribuer de façon signifiante à la résolution du problème.[9]

Dans un contexte de transition vers les systèmes super intelligents, le travailleur moyen sera de plus en plus mené à entrer en communication et accomplir un travail en étant assisté d’un système intelligent. Toujours dans le cadre du symposium de l’AAIA, plusieurs points ont été discutés dont : « Les éléments d’information pouvant être déduits par les concepteurs [d’un tel système] d’études concernant les interactions entre humains et de simulations de comportement collaboratif sur ordinateur » [10], ce qui mènerait à une meilleure approximation de la distribution de responsabilité (i.e. : le premier critère de la collaboration humain-machine).

Le deuxième critère, celui de la communication efficace, a aussi été discuté lors de ce symposium : Dans le cadre d’une utilisation à long terme d’un tel système de collaboration, le système intelligent devrait prioriser l’aide à l’apprentissage de procédés et d’applications plutôt que la résolution de problèmes spécifiques, ce qui mènerait alors à « des inefficacités à court terme dans le domaine de la résolution de problèmes » du côté de la machine. De plus, lors d’une utilisation à long terme d’une telle application, le système collaboratif « devrait pouvoir agrandir son propre champ de connaissance en fonction des connaissances/compétences acquises par l’humain au fil du temps, ce qui requerrait des outils sophistiqués d’apprentissage côté machine afin de garantir une certaine réflexivité de cette dernière »[11].

Pour ce qui est de la connaissance nécessaire à l’épanouissement d’un tel système de collaboration, tous les participants du symposium se sont entendus sur le fait qu’un tel système « requerrait énormément de connaissances et de réflexivité du côté de la machine », ainsi que beaucoup d’autres types de connaissance tels que les plans et objectifs de l’humain et les ressources de communication afin d’assister à une collaboration saine et efficace.

Ainsi, la collaboration humain-machine ne serait pas tout à fait à l’image de la culture populaire, où les êtres robotisés deviennent souvent perfides et tentent d’éliminer l’inefficacité de l’humain, mais aurait en fait le potentiel de devenir un réel outil de performance et de mise en valeur de l’humain, de ses valeurs et de ses capacités.

Le Forum Économique mondial

Corrélation : Résistance à l’avancement technologique[modifier | modifier le code]

L'idée de dévaluation de l’humanité par l’Intelligence artificielle trouve son complémentaire dans la résistance fondamentale de l’humain au changement technologique[12]. Selon un rapport du Forum économique mondial, l’évolution des systèmes intelligents et la robotisation de la production seront « des facteurs de changement socio-économiques importants » d’ici 2020 ; pour ce qui est de la suite, il existe deux visions des choses : la vision optimiste, où ces facteurs de changement sont simplement des outils de plus pour améliorer la qualité de vie de l’humanité, et la vision pessimiste, où ces indices ne sont que les précurseurs d’une apocalypse socio-économique découlant d’une singularité trop accentuée.

Elon Musk, 2015

Le « démon » de la 4e révolution Industrielle[modifier | modifier le code]

Bill Gates et Elon Musk, entre autres, ont cette vision pessimiste de l’avancement des techniques de développement de l’IA : notamment, lors d’une entrevue avec le Washington Post, Elon Musk affirme « Qu’il est important d’être très prudent concernant l’intelligence artificielle » et qu’avec l’avènement de l’intelligence artificielle, « nous appelons le démon », en faisant référence aux grands dangers pour les valeurs humaines que représente ce concept. [13]

Le pas de géant pour l’humanité[modifier | modifier le code]

Dans un autre ordre d’idées, Eric Horvitz, pour sa part, croit que l’humanité « sera très proactive dans sa façon de gérer le développement de l’intelligence artificielle et des enjeux reliés, et qu’au final, nous retirerons d’énormes bénéfices de la machine intelligente dans toutes les sphères de la vie humaine » et sera donc en mesure de bien baliser ses valeurs afin d’en faire un bon point d’appui pour le progrès technologique.[14]

Notes et références[modifier | modifier le code]

  1. AAAI's official site AAIA : années des conférences
  2. TED Talks TED : Nick Bostrom sur l'intelligence artificielle
  3. TED Talks Ibid
  4. TED Talks Ibid
  5. (en) Natalie Wolchover, « Concerns of an artificial intelligence pioneer », Quanta Magazine,‎ (lire en ligne, consulté le )
  6. President Barack Obama on the future of AI Barack Obama : le futur de l'intelligence artificielle
  7. Report on the 2016 World Economic Forum Un rapport sur le Forum Économique Mondial, p.16
  8. President Barack Obama on how artificial intelligence will affect jobs Barack Obama : Impact de l'intelligence artificielle sur le marché du travail visionné le 26 octobre 2016
  9. AAAI Fall Symposium Reports points de collaboration humain-machine : un rapport de l'AAIA consulté le 26 octobre 2016
  10. AAAI Fall Symposium Report Un rapport de l'AAIA sur le symposium de 2016
  11. AAAI Fall Symposium Report Ibid
  12. (en) Calestous Juma, « Why do people resist new technologies? History might provide the answer », WEF Agenda,‎ (lire en ligne, consulté le )
  13. (en) Matt McFarland, « Elon Musk: ‘With artificial intelligence we are summoning the demon.’ », The Washington Post,‎ (lire en ligne, consulté le )
  14. (en) Auteur inconnu, « Out of control AI will not kill us, believes Microsoft Research chief », BBC news,‎ (lire en ligne, consulté le )