Aller au contenu

Discussion:Perceptron multicouche

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

perceptron multi-couches et rétropropagation du gradient de l'erreur[modifier le code]

Dans l'article, il est indiqué qu'un MLP avec une rétro-propagation du gradient de l'erreur implique que chaque neurone d'une couche est connecté à tous les neurones de la couche suivante. C'est le modèle le plus répandu, mais je ne crois pas qu'il soit obligatoire d'avoir cette connexité complète pour un MLP avec backprop.

En pratique, dans de nombreuses librairies comme FANN, on peut définir un taux de connexions entre les couches, permettant de définir la proportion de connections entre un neurone et les neurones de la couche suivante. En outre, si on applique un algo de type optimal brain damage, qui va supprimer des connections, à un MLP, cela signifierait qu'on obtiendrait autre chose qu'un MLP?

Pour moi la connexité complète entre deux couches n'est pas obligatoire. Le caractère essentiel du MLP c'est bien sa construction mutlicouches et la propagation de l'influx en "feedforward". Quand à la backprop, elle ne modifie pas la nature du MLP, mais décrit simplement la méthode d'apprentissage qui permet de régler les poids synaptiques en fonction du gradient de l'erreur.

Exacte, c'est une erreur ! Je t'enjoins à corriger l'article si tu à le temps :). Merci de l'avoir relevé. D Cat laz (discuter) 3 octobre 2022 à 14:54 (CEST)[répondre]
Je me permets de donner mon avis en passant: il y a moult variations du perceptron donc les présenter toutes est compliqué; la page peut se concentrer sur une présentation détaillée du perceptron canonique et lister quelques variations; en ce qui concerne la rétropropagation, il faut renvoyer à la page Rétropropagation du gradient pour les détails. Duboismathieu gaas (discuter) 20 juin 2024 à 10:49 (CEST)[répondre]

Erreur dans la description de la matrice de poids ?[modifier le code]

D'après les conventions choisies, la matrice de poids est de taille est la taille de la couche de sortie et la taille de la couche d'entrée. Sauf erreur de ma part, le terme générique représente donc le poids entre la sortie () et l'entrée (). La page dit le contraire. Duboismathieu gaas (discuter) 18 juin 2024 à 18:50 (CEST)[répondre]

Il me semble que la page Rétropropagation du gradient dit la même chose que moi (donc le contraire de ce qui est dit dans cette page). Duboismathieu gaas (discuter) 19 juin 2024 à 11:33 (CEST)[répondre]