Rétropropagation du gradient

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Rétropropagation)

En intelligence artificielle, plus précisément en apprentissage automatique, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones. Elle consiste à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale.

De façon abusive, on appelle souvent[Qui ?][réf. nécessaire] « technique de rétropropagation du gradient » l'algorithme classique de correction des erreurs reposant sur le calcul du gradient grâce à la rétropropagation. C'est cette méthode qui est présentée ici. La correction des erreurs peut se faire selon d'autres méthodes, par exemple le calcul de la dérivée seconde.

Ce principe fonde les méthodes de type algorithme du gradient, qui sont utilisées dans des réseaux de neurones multicouches comme les perceptrons multicouches. L'algorithme du gradient a pour but de converger de manière itérative vers une configuration optimale des poids synaptiques. Cette configuration peut être un minimum local de la fonction dite fonction de coût, ou, idéalement, le minimum global de cette fonction. Normalement, la fonction de coût est non linéaire au regard des poids synaptiques. Elle dispose également d'une borne inférieure et moyennant quelques précautions lors de l'apprentissage, les procédures d'optimisation finissent par aboutir à une configuration stable au sein du réseau de neurones.

Historique[modifier | modifier le code]

La méthode de rétropropagation du gradient a fait l'objet de communications dès 1975 (Werbos)[réf. nécessaire], puis 1985 (Parker[1] et [[Yann LeCun|LeCun[réf. nécessaire]]]), mais ce sont les travaux de Rumelhart, Hinton et Williams en 1986[2] qui ont suscité le véritable début de l'engouement pour cette méthode[3].

Jürgen Schmidhuber, dans un état de l'art publié en 2015[4] établit que la méthode a été mise au point pour la première fois par Seppo Linnainmaa dans son mémoire de maîtrise soutenu à l'université d'Helsinki en 1970[5],[6].

Utilisation au sein d'un apprentissage supervisé[modifier | modifier le code]

Dans le cas d'un apprentissage supervisé, des données sont présentées à l'entrée du réseau de neurones et celui-ci produit des sorties. La valeur des sorties dépend des paramètres liés à la structure du réseau de neurones : connectique entre neurones, fonctions d'agrégation et d'activation ainsi que les poids synaptiques.

Les différences entre ces sorties et les sorties désirées forment des erreurs qui sont corrigées via la rétropropagation, les poids du réseau de neurones sont alors changés. La manière de quantifier cette erreur peut varier selon le type d'apprentissage à effectuer. En appliquant cette étape plusieurs fois, l'erreur tend à diminuer et le réseau offre une meilleure prédiction. Il se peut toutefois qu'il ne parvienne pas à échapper à un minimum local, c'est pourquoi on ajoute en général un terme d'inertie (« momentum ») à la formule de la rétropropagation pour aider l'algorithme du gradient à sortir de ces minimums locaux.

Algorithme[modifier | modifier le code]

Les poids dans le réseau de neurones sont au préalable initialisés avec des valeurs aléatoires. On considère ensuite un ensemble de données qui vont servir à l'apprentissage. Chaque échantillon possède ses valeurs cibles qui sont celles que le réseau de neurones doit à terme prédire lorsqu'on lui présente le même échantillon. L'algorithme suit les étapes suivantes.

  • Soient un échantillon que l'on présente à l'entrée du réseau de neurones et la sortie désirée pour cet échantillon.
  • On propage[Quoi ?] le signal en avant dans les couches du réseau de neurones : , avec le numéro de la couche, et et les numéros des neurones sur leur couche respective.
  • La propagation vers l'avant se calcule à l'aide de la fonction d'activation , de la fonction d'agrégation (souvent un produit scalaire entre les poids et les entrées du neurone) et des poids synaptiques entre le neurone et le neurone . La notation est alors inversée : indique bien un poids de vers .
  • Lorsque la propagation vers l'avant est terminée, on obtient à la sortie le résultat .
  • On calcule alors l'erreur entre la sortie donnée par le réseau et le vecteur désiré à la sortie pour cet échantillon. Pour chaque neurone dans la couche de sortie, on calcule ( étant la dérivée de ):
  • On propage l'erreur vers l'arrière grâce à la formule suivante :
note:
  • On met à jour les poids dans toutes les couches :
représente le taux d'apprentissage (de faible magnitude et compris entre et ).

Implémentation[modifier | modifier le code]

L'algorithme présenté ici est de type « online », c'est-à-dire que l'on met à jour les poids pour chaque échantillon d'apprentissage présenté dans le réseau de neurones. Une autre méthode est dite en « batch », c'est-à-dire que l'on calcule d'abord les erreurs pour tous les échantillons sans mettre à jour les poids (on additionne les erreurs) et lorsque l'ensemble des données est passé une fois dans le réseau, on applique la rétropropagation en utilisant l'erreur totale. Cette façon de faire (batch) est préférée pour des raisons de rapidité et de convergence.

L'algorithme est itératif et la correction s'applique autant de fois que nécessaire pour obtenir une bonne prédiction. Il faut cependant veiller aux problèmes de surapprentissage liés à un mauvais dimensionnement du réseau ou un apprentissage trop poussé.

Ajout d'inertie[modifier | modifier le code]

Pour éviter les problèmes liés à une stabilisation dans un minimum local, on ajoute un terme d'inertie (momentum). Celui-ci permet de sortir des minimums locaux dans la mesure du possible et de poursuivre la descente de la fonction d'erreur. À chaque itération, le changement de poids conserve les informations des changements précédents. Cet effet de mémoire permet d'éviter les oscillations et accélère l'optimisation du réseau. Par rapport à la formule de modification des poids présentée auparavant, le changement des poids avec inertie au temps se traduit par :

avec un paramètre compris entre 0 et 1.

Analogie biologique[modifier | modifier le code]

Un phénomène biologique équivalent à la rétropropagation d'information dans les réseaux de neurones  a été attesté par Stuart et ses collègues[7] : c'est la rétropropagation neuronale.

Notes et références[modifier | modifier le code]

  1. D.B. Parker, « Learning Logic », Massachusetts Institute of Technology, Cambridge MA,‎
  2. Rumelhart, Hinton et Williams, « Learning representations by back-propagating errors », Nature, vol. 323, no 6088,‎ , p. 533–536 (DOI 10.1038/323533a0, Bibcode 1986Natur.323..533R, S2CID 205001834, lire en ligne)
  3. Patrick van der Smagt, An Introduction to Neural Networks, 1996, page 33.
  4. Jürgen Schmidhuber, « Deep Learning », Scholarpedia, vol. 10, no 11,‎ , p. 32832 (DOI 10.4249/scholarpedia.32832 Accès libre, Bibcode 2015SchpJ..1032832S)
  5. (fi) Seppo Linnainmaa, The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors (thèse), University of Helsinki, , 6–7 p.
  6. Seppo Linnainmaa, Algoritmin kumulatiivinen pyöristysvirhe yksittäisten pyöristysvirheiden Taylor-kehitelmänä (« Représentation de l'erreur cumulative d'un algorithme comme développement en séries de Taylor des arrondis des erreurs locales »), cité par J. Schmidhuber. Deep learning in neural networks: An overview (« Apprentissage profond dans les réseaux de neurones. État de l'art. »), Neural Networks, n°61, 2015, p.85–117.
  7. (en) Greg Stuart, Nelson Spruston, Bert Sakmann et Michael Häusser, « Action potential initiation and backpropagation in neurons of the mammalian CNS », Trends in Neurosciences, vol. 20, no 3,‎ , p. 125–131 (DOI 10.1016/S0166-2236(96)10075-8, lire en ligne, consulté le )

Voir aussi[modifier | modifier le code]