Discussion:Réseau de neurones artificiels

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Modification du titre[modifier le code]

je suis vraiment surpris de ce titre et du non accord entre "artificiel" et neurones. Dans ce titre, seul le neurone est artificiel et est un modèle plus ou moins simple de neurone. Le réseau quant à lui ne ne pas être caractérisé d'artificiel.

Je propose donc de changer le titre de cette page en  : Réseau de neurones artificiels

--Beleys (d) 22 juin 2010 à 18:57 (CEST)[répondre]

Oui, bien sûr, je n'avais jamais remarqué l'erreur sur le titre, mais c'est clairement une erreur. Cordialement, Freewol (d) 23 juin 2010 à 11:37 (CEST)[répondre]

Par contre, je n'ai pas les droits pour modifier le titre, je corrige donc le corp de la page et je laisse la correction du titre à qui le peux.

Beleys (d) 26 juin 2010 à 00:16 (CEST)[répondre]

J'ai fait la demande à un administrateur, qui a fait le renommage. Cordialement, Freewol (d) 26 juin 2010 à 13:12 (CEST)[répondre]

Classes de fonction[modifier le code]

Dans la rubrique classe de problèmes, les résultats sont tirés de "Machine Learning" de Tom M. Mitchell Julisube

Référence ?[modifier le code]

"par exemple pour la classification d'espèce animale par espèce étant donnée une analyse ADN"

Est-il possible d'avoir un lien sur ce sujet ? La classification manuelle semble dans ce cas précis tellement plus adéquate... François-Dominique 3 sep 2004 à 05:32 (CEST)

Plutôt une classification automatique par les méthodes d'agrégation classiques, non ? 81.64.199.69 26 juillet 2005 à 07:28 (CEST)[répondre]


"pour éduquer correctement un cerveau de 10^11 neurones, il ne faut tout de même pas moins de 25 ans"

Y a t-il un référence pour cette affirmation?

N'est-ce pas là le temps qu'il faut à une personne de bonne culture pour achever ses études ? Je n'arrive pas à y voir d'autre sens. 89.224.147.179 (d) 28 août 2010 à 09:12 (CEST)[répondre]

Coquille potentielle[modifier le code]

Il est écrit: "classification en domaines connexes (c’est-à-dire tels que si des points A et B font partie du domaine, alors tout le segment AB en fait partie aussi)".

Pour moi il est question de convexité et non de connexité. Gloumouth1 9 jun 2005 à 18:33 (CEST)

Pas de réaction? Bon. J'effectue la modification connexe --> convexe. Gloumouth1 13 jun 2005 à 16:35 (CEST)
J'approuve la modif :) Par contre, je trouve que l'explication est trop restrictive, les réseaux de neurones peuvent très bien traiter des domaines non-convexes grâce à des couches cachées. Dake 3 jul 2005 à 21:54 (CEST)

Les réseaux de neurones ont par la suite connu un essor considérable, et ont fait partie des premiers systèmes à bénéficier de l’éclairage de la théorie de la régularisation statistique (et pas parti)

je viens de le corriger, mais à l'avenir n'hesite pas à le corriger toi-même... c'est ça le wiki --Serenityping 31 janvier 2006 à 09:54 (CET)[répondre]

Dans l'article: «Plus précisément, le neurone reçoit en entrée les signaux provenant des autres par des synapses, et émet en sortie une information par son axone.»

Je pense qu'un neurone reçoit des signaux par sa dendrite.

évaluation de la puissance de calcul du cerveau[modifier le code]

Ce paragraphe, c'est n'importe quoi. les chiffres sont faux et la méthode de calcul aussi. Je la ré-écris.
Camion 29 août 2006 à 09:26 (CEST)[répondre]

Peut-être, mais je trouve votre ré-écriture tout aussi approximative. D'ailleurs, je serais pour la suppression pure et simple de ce passage, dont la valeur encyclopédique n'est pas évidente.
--Gloumouth1 29 août 2006 à 12:31 (CEST)[répondre]
Groumpf. qu'est-ce qu'elle a d'approximatif mon écriture... Le fond ou la forme ? Si c'est le fond, critiquez mon cher, dites moi ce qui ne vous convient pas. Si c'est sur la forme, ne vous génez par pour reformuler. Si c'est sur la pertinence en rapport avec l'article, n'hésitez pas à déplacer vers un autre article. Mais si c'est pour supprimer le travail d'un autre contributeur, qui est tout a fait susceptible d'intéresser un lecteur, alors vous y allez un peu fort de café. C'est très énervant cette arrogance qui conduit certains à dire : "Si ça ne m'intéresse pas, ça n'est pas intéressant et ça n'intéresse personne d'autre.". Si j'ai corrigé cette partie d'article, c'est peut-être parce que c'est un sujet qu'il m'aurait intéressé de trouver dans une encyclopédie, non ?
Je suis un peu aggacé par ces gens qui qui quand ça ne leur convient pas veulent virer plutôt qu'améliorer. Où est le travail coopératif ?
Camion 29 août 2006 à 13:44 (CEST)[répondre]
Effectivement, mon intervention était un peu arrogante, et je vous prie de m'en excuser. Je vais essayer d'être plus constructif, malgré le peu de temps dont je dispose. Pour répondre à votre question, je parlais de la forme et du fond. Discutons tout d'abord du plus important: le fond. Ce type de calcul n'est pas dépourvu d'intérêt, mais il me semble assez douteux. Ou en tout cas assez douteux pour être sourcé. Qu'en pensez-vous?
--Gloumouth1 29 août 2006 à 16:56 (CEST)[répondre]
Je lis régulièrement le terme sourcé, mais je ne suis pas sûr de ce qu'il représente. S'il s'agit de trouver des sources dans la litérature, je n'en connais pas. Je sais qu'il existe différentes estimations, basées sur de méthodes différentes, et avec des résultats différents. Personnellement, je me base uniquement sur mes propres compétence en informatique, en neurophysiologie et en neuroanatomie. Sinon, ce calcul, est bien sûr une évaluation pour fixer un ordre de grandeur. C'est la raison pour laquelle je propose un facteur d'erreur aussi grand. Qu'est-ce qui vous parait douteux dans le calcul ? (Ne perdons pas de vue que ce calcul ne cherche pas à être précis)
Camion 3 septembre 2006 à 16:08 (CEST)[répondre]
"Comme, de plus, les chiffres cités sont probablement extrêmement variables en fonction du niveau d'éducation de la personne, il faut compter un niveau d'incertitude important autour de cette valeur"
Je ne pense pas que le niveau d'éducation ait quoi que ce soit à voir la dedans...
Peut-être quelques facteurs génétiques, et encore...
Mais en meme temps je n'y connais rien, je me trompe peut-être.
Islington 19 février 2007 à 10:08 (CEST)[répondre]

Bonjour,

En 1989, j'ai étudié les technologies neuromimétiques sur le logiciel "NESTOR" développé par Leon COOPER (le Nobel). Mes condisciples de SUPTELECOM on effectivement développé la reconnaissance du code postal avec "NESTOR et "BACKPROP", il ne faut pas oublier que le décodage du génome humain a aussi été facilité par cette technologie (c'était des chercheurs de Marseille). MKS.

Comparaison avec le cerveau humain - Apprentissage non supervisé[modifier le code]

Tout d'abord merci pour l'écriture de cet article vraiment très intéressant. J'aurai cependant quelques suggestions :

Concernant la comparaison avec le cerveau humain :

Je trouve très troublante l'idée de comparer la "puissance de calcul" du cerveau humain avec celle d'un réseau de neurones formels.

Cette comparaison impliquerait que le neurone formel soit équivalent à un neurone biologique. Or le neurone formel n'est qu'une modélisation mathématique à partir de ce que l'on connait du neurone biologique aujourd'hui.

On pourrait croire que la seule limite à la réalisation d'un réseau "type cerveau humain" serait la puissance de calcul des ordinateurs... La nature n'a donc plus de secrets pour nous ?

Je ne vois pas le rapport. Il est toujours bon de fournir des ordres de grandeur de ce dont on parle. Si ont dit par exemple qu'un homme peut fournir 150W de puissance musculaire et un tracteur 20 kW, c'est toujours utile pour les situer l'un par rapport à l'autre, et on ne voit pas en quoi ça suggèrerait que l'homme "est" un tracteur. Ni que leurs méthodes de fonctionnement ont quoi que ce soit de commun. Il ne faut en aucun cas faire dire aux phrases davantage que ce qu'elles disent réellement. 89.224.147.179 (d) 28 août 2010 à 09:08 (CEST)[répondre]

Soyons clair, on ne connait rien ( ou presque ) du cerveau humain ! On en découvre tous les jours ! Par exemple, il y a encore quelques années on pensait que le capital neuronal ne faisait que diminuer au cours de la vie alors qu'on sait depuis peu que des cellules souches se spécialisent en neurones, renouvellant ce capital !

A mon avis, le problème n'est pas dans les chiffres donnés mais dans la comparaison elle-même.

Ce qui est intéressant en revanche c'est le nombre de neurones et de connections qu'il y a en moyenne dans un cerveau humain. (début du paragraphe)

Concernant les réseaux a apprentissage non supervisé :

L'apprentissage non supervisé n'impose pas que les neurones effectuent un calcul de norme. Il suffit que les activations des neurones soient comparables pour déterminer le(s) gagnant(s). En utilisant une fonction d'activation adéquate (sigmoide par exemple), un perceptron classique peut etre entrainé selon un apprentissage non supervisé.

Je ne me permets pas de corriger l'article, j'espère juste que ces suggestions pourront peut-être être utiles. Merci encore pour cet article. felipe 7 juillet 2007 à 11:01 (CEST)

Fonctions représentables par un perceptron[modifier le code]

Vincent Aravantinos (d · c · b) signale:

« [A CORRIGER D'URGENCE : LES DEUX PHRASES SUIVANTES SONT FAUSSES, on ne peut pas représenter toutes les fonctions booléennes sans représenter le XOR !!!Je ne connais pas le résultat, que qqn qui le connaisse - vraiment - corrige.] »

à propos du texte suivant

« Un perceptron (un réseau à une unité) peut représenter les fonctions booléennes suivantes : AND, OR, NAND, NOR mais pas le XOR. Comme toute fonction booléenne est représentable à l'aide de AND, OR, NAND et NOR, un réseau de perceptrons est capable de représenter toutes les fonctions booléennes. »

Il me semble qu'il n'y a pas de problème car les deux phrases ne m'apparaissent pas contradictoires: la première dit qu'il suffit d'un perceptron peut représenter les fonctions AND, OR, NAND, ou NOR mais pas pour XOR. Il dit ensuite que les autres fonctions booléennes, dont XOR, peuvent être représentées par un réseau de perceptrons. Maintenant, je n'ai pas compétence pour confirmer si ces deux affirmations sont vraies dans l'absolu. HB (d) 16 février 2009 à 12:10 (CET)[répondre]

et tu as raison. Une référence rapide en ligne sur le xor: http://www.generation5.org/content/1999/perceptron.asp. Sylenius (d) 16 février 2009 à 13:37 (CET)[répondre]
autant pour moi, je n'avais pas vu la nuance, désolé. Vincent Aravantinos

En fait il est possible de représenter un XOR avec 1 seul neurone mais il faut alors lui donner une valeur supplémentaire indiquant l'apparition des 2 valeurs d'entrés en même temps (a.b). C'est ce qui ce passe quand l'on chaîne deux neurones l'un derrière l'autre. Le premier fait un AND avec les valeurs d'entrées et le second fait un OR avec les deux valeurs d'entrées et un NAND avec la sortie du premier neurone. Cela donne : !((a.b).(a+b)) => (!a+!b)+(!a.!b) => a(+)b si sur 1 seul neurone on donne 3 entrées dont c représente a.b on à : !(c.(a+b)) => !c+(!a.!b) puis par substitution de c par sa valeur !(a.b)+(!a.!b) => (!a+!b)+(!a.!b) => a(+)b d'ailleurs si on tape sur une calculatrice 3D f(x,y)=1/(1+exp(-x*y)) on obtient le tracé d'un carré quantique séparé par une fonction XOR.

exemple de topologie XOR avec un seul neurone ayant pour fonctions de seuil f(x)=1/(1+exp(-x))

 Entrées      poids  multiplications   somme            sortie
biais = 1     - 10   -1O               -10+15a+15b-35c  f(somme) = a(+)b
a     = a     + 15   a*15
b     = b     + 15   b*15
c     = a.b   - 35   c*(-35)

Ppignol (d) 6 mai 2012 à 12:53 (CEST)[répondre]

Personne ne pense à enlever la comparaison avec le cerveau humain ??[modifier le code]

Cette comparaison est vide de sens car le modèle neuronal utilisé dans cette comparaison est reconnu comme n'ayant aucune plausibilité biologique. De plus, si la motivation n'était que d'imiter le cerveau humain, cette voie aurait été abandonnée depuis longtemps ... ce n'est pas de la science fiction soyons sérieux. ... et, on l'oublie souvent dans les analogies avec le Vivant, il n'y a pas que les humains à avoir des neurones

Dommage que cette comparaison vienne entâcher cet article intéressant

Adaline (d) 26 octobre 2009 à 17:31 (CET)[répondre]

Peut-être que votre remarque serait intéressante à ajouter au paragraphe. Si la comparaison n'a pas de sens, il ne faut pas tant la supprimer que de préciser qu'elle n'a effectivement pas de sens, avec une référence à l'appui si possible.
Pour conclure, je dirais surtout : Wikipédia:N'hésitez pas !
Bien cordialement, Plyd /!\ 26 octobre 2009 à 19:59 (CET)[répondre]
Arf, j'avais pas vu ta réponse Plyd, je n'ai effectivement pas hésité, et supprimé le paragraphe en question. De façon plus général, il y a beaucoup de choses à sourcer dans cet article. Sylenius (d) 26 octobre 2009 à 20:31 (CET)[répondre]
Je dois avouer être contre cette suppression, comme l'indique Plyd, cette partie du texte permettait justement de mettre en avant le fait que cette comparaison n'avait pas de sens. Il aurait été plus utile de modifier cette section que de la supprimer. N'oublions pas qu'il n'y a pas que des spécialistes des réseaux neuronaux sur cette page, et il est normal pour un lecteur inexpérimenté de se poser la question de l'éventuel rapport avec les neurones biologiques. L'article actuel de wikipédia n'éclairera pas la lanterne de ce lecteur, chose que je trouve dommage.HR (d) 21 octobre 2010 à 02:57 (CEST)[répondre]
En fait le modèle du neurone formel à d'abord été établis sur un neurone de calamar géant avant de pouvoir être reporté aux systèmes neuronaux d'êtres plus petits. En fait électriquement parlant le neurone formel reproduit le comportement des neurones animaux à la fatigue près(un neurone logique ne dort jamais). Cependant les interactions chimiques des neuro-transmeteurs ainsi que la prise en compte de la modulations des autres cellules neurologiques ayant une influence sur la propagation des informations n'est approximé par le modèle que par la backpropagation. Ppignol (d) 6 mai 2012 à 13:04 (CEST)[répondre]

Comparaison peut-être malvenue[modifier le code]

"Le neurone formel est conçu comme un automate doté d'une fonction de transfert qui transforme ses entrées en sortie selon des règles précises"

Cette image n'induit-elle pas gravement en erreur ? La caractéristique principale d'un automate est de posséder un état interne, alors qu'au contraire celle d'un neurone formel est de ne pas en posséder, non ? 89.224.147.179 (d) 28 août 2010 à 09:02 (CEST)[répondre]

Encore que la valeur - variable - du seuil puisse, il est vrai, être considérée comme une sorte d'"état". Nous sommes cependant loin des automates d'état fini classique, et la comparaison peut induire en erreur. 89.224.147.179 (d) 28 août 2010 à 09:14 (CEST)[répondre]

En fait l'état interne est introduits par les poids qui sont remis à jours en cas d’erreur. Les réseaux neuronaux sont aussi bien plus puissants qu'un automate à états finis.Ppignol (d) 6 mai 2012 à 12:52 (CEST)[répondre]

Traduction[modifier le code]

Je surfais sur la page des RBF (Radial Basis Functions) de wikipedia anglophone, et ai cliqué sur le lien pour avoir la version francaise de la page... et je tombe sur cette page sur les reseaux de neurones. Je sais que /des RBFs/ sont utilisées en reseaux de neurones, mais ce n'est pas du tout une nécéssité et les RBFs servent tout aussi bien à faire de l'interpolation ou autre (commes les reseaux de neurones ne sont pas forcement faits de RBFs)... Bref, je n'ai pas vu de page RBF francaise mais je ne pense pas que ce soit une raison pour rediriger la page RBF anglaise vers une page de reseaux de neurones. En particulier puisque si on clique sur la traduction anglaise de la page francaise, on tombe bien sur la page "Neural Networks" et non RBF.

C'est corrigé. Je crains qu'en d'autres langues le problème soit similaire. Xavier Combelle (d) 3 septembre 2010 à 11:51 (CEST)[répondre]

Historique[modifier le code]

L'article cite en premier "What the frog’s eye tells to the frog’s brain" paru apparemment en 1959 pour ensuite parler des travaux de Hebb en 1949. Pourtant à lire l'article on a l'impression que Hebb est arrivé après McCulloch et Pitts.

Je viens de lire la version anglaise, il y est cité l'article de 1943 à la place : McCulloch, Warren; Walter Pitts (1943). "A Logical Calculus of Ideas Immanent in Nervous Activity". Bulletin of Mathematical Biophysics 5 (4): 115–133. doi:10.1007/BF02478259. C'est plus cohérent.

Catégories réseau de neurones artificiels et neuromimétisme[modifier le code]

J'écris ici parce que je pense que c'est l'article qui est le plus lu par les gens qui s’intéressent au domaine. Ne voyant pas de catégorie sur les réseaux de neurones, j'ai créer la catégorie réseau de neurones artificiels. Je vois maintenant qu'elle fait un peu doublon avec la cat neuromimétisme. Je préfère mon titre, qui est plus clair je crois. Que pensez-vous de supprimer la cat neuromimétisme, et de tout rassembler dans réseau de neurones artificiels ? (Maintenant que j'ai créé la seconde, il va falloir passer par une suppression de toute façon, j'aurais dû penser à un renommage, mais je ne pensais pas que neuromimétisme était si proche.) --Roll-Morton (discuter) 26 avril 2016 à 10:53 (CEST)[répondre]

Notification Sylenius, François-Dominique, Traroth et RegisDecamps : Vous avez contribuez à cet article, qu'en pensez-vous ?--Roll-Morton (discuter) 28 avril 2016 à 10:45 (CEST)[répondre]
Et aussi Notification ADM :. --Roll-Morton (discuter) 28 avril 2016 à 10:52 (CEST)[répondre]
Je vais en causer sur le projet:informatique théorique. --Roll-Morton (discuter) 24 mai 2016 à 15:24 (CEST)[répondre]
Vu le contenu, je préfère aussi réseau de neurones artificiels, mais je ne connais pas bien le sens de neuromimétisme, terme que je ne crois pas avoir rencontré avant. Sylenius (discuter) 26 mai 2016 à 13:12 (CEST)[répondre]
Je ne connais pas bien le sens non plus, je dirai "qui essaye de reproduire le cerveau". --Roll-Morton (discuter) 26 mai 2016 à 14:17 (CEST)[répondre]
ou plutôt "qui essaye de reproduire le fonctionnement du cerveau", en boite blanche, plutôt qu'en boite noire. Pas très chaud pour le terme "neuromimétisme", peu connu et flou (embêtant pour une catégorie). --Jean-Christophe BENOIST (discuter) 26 mai 2016 à 14:25 (CEST)[répondre]

Merci pour les avis. Je vais encore rameuter un peu, et sans opposition je proposerai le transfert d'ici quelques jours. --Roll-Morton (discuter) 30 mai 2016 à 10:16 (CEST)[répondre]

Notifs des auteurs prolifiques de l'article intelligence artificielle n'ayant pas donné d'avis : Notification JeanPhi85, PIerre.Lescanne, DainDwarf, Nabeth et JKHST65RE23 :. --Roll-Morton (discuter) 30 mai 2016 à 10:18 (CEST)[répondre]
Et aussi Notification Jul.H, Romainhk, TomT0m et Bayo : --Roll-Morton (discuter) 30 mai 2016 à 10:20 (CEST)[répondre]

Si mon humble avis vous intéresse, je préfère l'expression réseau de neurones artificiels à neuromimétisme qui est, il me semble, un néologisme dont la définition reste à établir. Spikyvins (discuter) 31 mai 2016 à 11:49 (CEST)[répondre]

Je suis en faveur de réseaux de neurones artificiels. --Pierre de Lyon (discuter) 1 juin 2016 à 11:49 (CEST)[répondre]
Je plussoie aussi la proposition. Romainhk (QTx10) 3 juin 2016 à 12:59 (CEST)[répondre]

Ok, merci à tous, je vais faire le changement. --Roll-Morton (discuter) 3 juin 2016 à 14:28 (CEST)[répondre]

✔️ Si un admin passe par là, il faut supprimer la catégorie vide. Sinon je pense qu'elle sera détectée rapidement : j'ai enlevé la catégorie mère et le texte (j'ai mis un commentaire pour expliquer). --Roll-Morton (discuter) 13 juin 2016 à 16:25 (CEST)[répondre]

Classification des ConvNets en apprentissage non supervisé[modifier le code]

Bonjour,

ayant travaillé sur la technique des ConvNets, je suis surpris de les voir classés dans la catégorie des réseaux à apprentissage non supervisés, sans rétropropagation. D'une part, la plupart des ConvNets utilisent une rétropropagation du gradient de la fonction d'erreur pour corriger les poids (l'algorithme de descente du gradient stochastique en est un exemple). D'autre part, il me semble que les ConvNets font plutôt partie de l'apprentissage supervisés, dans le sens où ils sont entraînés à reconnaître des classes séparés précises (les phases d'apprentissages sont labellisées).

Je serais plutôt d'avis de les placer dans la section "Apprentissage supervisé avec rétropropagation".

✔️ fait, merci de votre vigilance. Sylenius (discuter) 30 janvier 2017 à 11:11 (CET)[répondre]

Conférences...[modifier le code]

Je signale (en vidéo en ligne) :