Google DeepMind

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Google DeepMind
Image illustrative de l'article Google DeepMind

Création 2010 [1]
Fondateurs Demis Hassabis, Shane Legg, et Mustafa Suleyman
Siège social Drapeau du Royaume-Uni 5 New Street Square,
Londres[2] Voir et modifier les données sur Wikidata (Royaume-Uni)
Actionnaires GoogleVoir et modifier les données sur Wikidata
Activité Intelligence artificielle
Société mère Google
Effectif 350 (estimation 2016)[réf. nécessaire]
Site web deepmind.com

Google DeepMind est une entreprise britannique spécialisée dans l'intelligence artificielle. Originellement appelée DeepMind Technologies Limited et fondée en 2010 par Demis Hassabis, Mustafa Suleyman (en) et Shane Legg (en)[3], elle est rachetée le 26 janvier 2014, par Google pour plus de 628 millions de dollars américains[4].

Recherche[modifier | modifier le code]

L’objectif de DeepMind est de « résoudre l'intelligence ». Pour atteindre ce but, l'entreprise essaie de combiner « les meilleures techniques de l'apprentissage automatique et des neurosciences des systèmes pour construire de puissants algorithmes d'apprentissage généraliste ». L'entreprise souhaite non seulement doter les machines d'intelligence artificielle performante, mais aussi comprendre le fonctionnement du cerveau humain. Demis Hassabis explique :

« Tenter de distiller l'intelligence dans une construction algorithmique peut s’avérer être le meilleur chemin pour comprendre le fonctionnement de nos esprits. »

— Demis Hassabis, Nature, 23 février 2012.

L'entreprise se concentre sur le développement de systèmes informatiques capables de jouer à des jeux tels que le go ou des jeux d'arcade. Selon Shane Legg une machine à l’intelligence comparable à l'intelligence humaine peut être réalisée « lorsqu’une machine peut apprendre à jouer à une très large gamme de jeux à partir de flux perceptuels d’entrée et de sortie, et d’utiliser la compréhension acquise entre les jeux [...]. » La présentation d’une intelligence artificielle capable d’apprendre à jouer à sept jeux différents sur Atari 2600 (Pong, Breakout, Space Invaders, Seaquest, Beamrider, Enduro, et Q*bert) aurait motivé leur acquisition par Google.

Une nouvelle publication dans la revue Nature de février 2015[5] montre les progrès réalisés par DeepMind. Le logiciel est maintenant meilleur qu’un expert humain des jeux vidéo pour 22 titres classiques d’Atari sur 49 testés mais reste inférieur aux performances humaines dans 20 autres jeux, et ne dépasse pas un joueur humain pour les titres restants. La principale limitation du logiciel est qu’il reste pour l’instant incapable de planifier de longues stratégies dans le temps (plus de 15 secondes)[4].

Machine de Turing neuronale[modifier | modifier le code]

Un des défis que tente de relever DeepMind est de réaliser une mémoire à court terme similaire à celle travaillant dans le cerveau humain. Le système développé est un type de réseau de neurones qui a été adapté pour fonctionner avec une mémoire externe. Le résultat est un ordinateur qui apprend en stockant des souvenirs et en les réutilisant pour effectuer des tâches logiques qu’il ne saurait faire autrement[6]. Comme cette forme de calcul diffère de manière importante d'un réseau neuronal classique, DeepMind lui a donné un nouveau nom : une machine de Turing neuronale[7]. La machine de Turing neuronale apprend comme un réseau neuronal classique en utilisant les entrées qu'il reçoit du monde extérieur mais il apprend aussi à stocker ces informations et à les récupérer.

Deep reinforcement learning[modifier | modifier le code]

DeepMind combine la technique d’apprentissage automatique « Deep Learning » avec une technique appelée l'apprentissage par renforcement, qui est inspirée par les travaux de psychologues tels que B. F. Skinner notamment sur le conditionnement opérant. La technique est nommée « Deep reinforcement learning ». Le logiciel apprend en effectuant des actions et en observant les effets et conséquences, de la même manière que les humains ou les animaux. Mais jusqu'à la publication de DeepMind, personne n’avait réussi à construire un système capable de réaliser des actions aussi complexes que jouer à un jeu vidéo. Une partie du processus d'apprentissage consiste à analyser les expériences passées à plusieurs reprises pour tenter d’extraire des informations plus précises pour agir plus efficacement à l'avenir. Ce mécanisme est très proche de ceux qui ont lieu dans le cerveau humain. Quand nous dormons l’hippocampe rejoue la mémoire de la journée à notre cortex[8].

Première victoire contre un joueur professionnel de go[modifier | modifier le code]

Article détaillé : Match AlphaGo - Lee Sedol.

Le jeu de go est considéré comme un des plus difficiles à appréhender pour une intelligence artificielle de par la multiplicité des positions et des placements possibles sur le goban. Le programme AlphaGo mis au point par DeepMind combine l'algorithme Monte-Carlo et les réseaux de neurones, une méthode qui bat les autres programmes de go dans 99,8 % des cas[9].

En octobre 2015, l'algorithme AlphaGo de DeepMind a battu le champion européen en titre de go, Fan Hui, par cinq victoires à zéro, première victoire d'un ordinateur contre un joueur professionnel[10],[11]. Pour mieux comprendre l'importance de cet exploit informatique, voir l'article Jeu de go en informatique.

En mars 2016, AlphaGo gagne contre l'un des meilleurs joueurs du monde Lee Sedol (score 4-1) [12].

Raisonnement rationnel[modifier | modifier le code]

Dans deux études parues début juin 2017, les chercheurs de Deepmind détaillent leurs efforts pour développer des agents dotés de capacité de raisonnement relationnel[13] et prédictif[14] ; deux facultés fondatrices de l’intelligence humaines.

Les deux systèmes sont basés sur des méthodes existantes d’apprentissage machine. Le premier est capable d’apprendre à reconnaître des relations spatiales entre des objets et le second parvient à produire des prédictions de mouvement d’objets se déplaçant dans un environnement en deux dimensions. Il s’agit d’un « moteur physique intuitif ».

Leurs résultats sont nettement meilleurs que tout ce qui a été réalisé auparavant, dépassant même les performances humaines dans certains cas[15],[13].

Si les travaux ont été salués par certains chercheurs comme un pas dans la bonne direction. Certains, dont Sam Gershman, professeur de psychologie à Harvard, se montrent plus critiques et mettent en garde contre une surestimation de l'importance des travaux produits par DeepMind. Leur argument est qu’obtenir des performances surhumaines pour chacune des tâches séparées ne permettra pas d’obtenir une intelligence générale surhumaine[15],[16].

Références[modifier | modifier le code]

  1. deepmind.
  2. (en) Volodymyr Mnih, Koray Kavukcuoglu et David Silver, « Human-level control through deep reinforcement learning », Nature, vol. 518,‎ (DOI 10.1038/nature14236, lire en ligne)
  3. Amy Thomson, « Google Buys U.K. Artificial Intelligence Company DeepMind », sur Bloomberg.com (consulté le 22 février 2016)
  4. a et b (en) « Google's AI Masters Space Invaders », sur www.technologyreview.com, (consulté le 10 mars 2015).
  5. (en) « Human-level control through deep reinforcement learning », sur www.nature.com, (consulté le 10 mars 2015).
  6. (en) « Facebook AI Director Yann LeCun on His Quest to Unleash Deep Learning and Make Machines Smarter », sur http://spectrum.ieee.org, (consulté le 10 mars 2015).
  7. (en) « Google's Secretive DeepMind Startup Unveils a "Neural Turing Machine" », sur www.technologyreview.com, (consulté le 10 mars 2015).
  8. (en) « Google’s Intelligence Designer », sur www.technologyreview.com, (consulté le 10 mars 2015).
  9. (en) « Mastering the game of Go with deep neural networks and tree search », Nature, no 529,‎ (DOI 10.1038/nature16961, lire en ligne).
  10. « Première défaite d’un professionnel du go contre une intelligence artificielle », http://www.lemonde.fr, 27 janvier 2016.
  11. David Larousserie et Morgane Tual, « Fan Hui, champion européen de go : « L’ordinateur joue comme un humain » », sur lemonde.fr, (consulté le 28 janvier 2016).
  12. Jeu de go: l'ordinateur AlphaGo distingué
  13. a et b Adam Santoro, David Raposo, David G. T. Barrett et Mateusz Malinowski, « A simple neural network module for relational reasoning », arXiv:1706.01427 [cs],‎ (lire en ligne)
  14. Nicholas Watters, Andrea Tacchetti, Theophane Weber et Razvan Pascanu, « Visual Interaction Networks », arXiv:1706.01433 [cs],‎ (lire en ligne)
  15. a et b (en) Will Knight, « Forget AlphaGo, DeepMind has a more interesting step toward general AI », MIT Technology Review,‎ (lire en ligne)
  16. Brenden M. Lake, Tomer D. Ullman, Joshua B. Tenenbaum et Samuel J. Gershman, « Building Machines That Learn and Think Like People », Behavioral and Brain Sciences,‎ , p. 1–101 (ISSN 0140-525X et 1469-1825, DOI 10.1017/S0140525X16001837, lire en ligne)

Liens externes[modifier | modifier le code]