Utilisateur:Nsaura/Brouillon

Une page de Wikipédia, l'encyclopédie libre.
HEllo

voir la couche de perte ?? Réseau neuronal convolutif#Couche de perte (LOSS)

Inception Network

On parle les prochains paragraphes : ébauches d'article sur les ReLU en français. L'article qui a été créé (non par moi) est Redresseur (réseaux neuronaux)

Unités linéaires rectifiées[modifier | modifier le code]

Dans le contexte des réseaux de neurones artificiels le rectifieur linéaire (ReLU en anglais) utilise une fonction d'activation de l'entrée consistant à ne prendre que sa partie positive [1] :

Il existe plusieurs généralisations du rectifieur linéaire, elles sont essentiellement basées sur la non nullité de la partie négative de l'entrée, offrant parfois une meilleur optimisation du réseau, d'autres fois l'identification de caractéristiques remarquables dans les données.

Propriétés mathématiques du ReLU[modifier | modifier le code]

La fonction est continue sur et est différentiable sur . La non-différentiabilité de en peut sembler problématique dans l'optique de l'optimisation d'un réseau de neurones par descente de gradient, cependant, en pratique, cette fonction permet des performances d'apprentissages satisfaisantes au point où elles sont souvent utilisées comme standards dans plusieurs tâches comme la vision par ordinateur ou des tâches de régression.

Cette utilisation est en effet justifiée dans le cadre de l'optimisation d'un réseau de neurones d'une part parce que l'optimisation n'est pas exacte. La minimisation est sujette aux erreurs numériques, ainsi si on demande l'évaluation de g(0), il est très fort probable que l'ordinateur évalue g(0+) [1]. On s'affranchit alors du problème de la non-différentiabilité de en considérant les valeurs des dérivées à gauche (0) ou à droite (1).

  1. a et b Ian Goodfellow, L'apprentissage profond



//// Jusquici