Discussion:Réseau neuronal convolutif

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Remarques[modifier le code]

Je suis passé sur l'article pour rajouter des modèles, corriger des coquilles etc. Je ne vais sans doute pas le lire en entier bien tout de suite. Juste une remarque : il faudrait éviter les appels de référence dans le résumé introductif ; mais je n'ai pas eu le courage de voir comme les gérer ailleurs. Sinon c'est un chouette article, sur un sujet important, merci Émoticône sourire --Roll-Morton (discuter) 26 avril 2016 à 14:46 (CEST)[répondre]

Image « carte d'activation » totalement fausse[modifier le code]

Je viens de remarquer que l'illustration "Exemple d'image intermédiaire (« carte d'activation ») créée par un réseau neuronal." ajoutée par Goel ne représentait pas du tout une heatmap. Il s'agit du résultat d'une image passée dans Google DeepDream. Je changerai ça quand j'aurai le temps si c'est pas fait avant.

--EyedMoon (discuter) 16 juin 2017 à 10:27 (CEST)[répondre]

Liens externes modifiés[modifier le code]

Bonjour aux contributeurs,

Je viens de modifier 1 lien(s) externe(s) sur Réseau neuronal convolutif. Prenez le temps de vérifier ma modification. Si vous avez des questions, ou que vous voulez que le bot ignore le lien ou la page complète, lisez cette FaQ pour de plus amples informations. J'ai fait les changements suivants :

SVP, lisez la FaQ pour connaître les erreurs corrigées par le bot.

Cordialement.—InternetArchiveBot (Rapportez une erreur) 19 avril 2018 à 18:05 (CEST)[répondre]

Modification de la section "couche de correction"[modifier le code]

Bonjour à tous,

J'ai pensé à modifier la section couche de correction de cet article en commençant par le titre puisqu'il affiche ReLU mais évoque également les fonctions d'activation logistiques comme tanh, sigmoid etc.

De plus, il y a plusieurs informations à compléter notamment les ReLU paramétriques qui prennent de plus en plus de place dans la littérature, je pense par exemple au PReLU (surtout dans les CNN) ou au Leaky Relu qui permettent d'éviter des problèmes connus sous le nom de dying ReLU.

Je compte aussi parler des activations logistiques ainsi que d'autres activations du genre RBF.

Je me demande enfin si on ne renverrait pas vers l'article des activations notamment celui anglais puisqu'il existe peu de source en français pour en faire un équivalent. J'avais pour projet de compléter l'ébauche sur les unités linéaires rectifiées, mais les source en français sont assez maigres.

Merci d'avance pour vos retours !

--Nsaura (discuter) 12 mai 2020 à 15:34 (CEST)[répondre]