Régression non linéaire

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Une régression non linéaire consiste à ajuster un modèle, en général non linéaire,

y = ƒa1, …, am(x)

pour un ensemble de valeurs (xi, yi)1 ≤ in. Les variables xi et yi peuvent être des scalaires ou des vecteurs.

Par « ajuster », il faut comprendre : déterminer les paramètres de la loi, (a1, …, am), afin de minimiser S = ||ri||, avec :

ri = yi - ƒa1, …, am(xi).
||…|| est une norme.

On utilise en général la norme euclidienne, ou norme ℓ2 ; on parle alors de méthode des moindres carrés.

(Illustrations extraites du livre Calcul d'incertitudes).
Article détaillé : Régression (statistiques).

Démarche générale[modifier | modifier le code]

La base de la démarche est identique à la régression linéaire : pour un jeu de données (xi, yi)1 ≤ in, S est une fonction des paramètres (aj)1 ≤ jm. Si S est minimum, alors

\forall j, \frac{\partial \mathrm{S}}{\partial a_j} = 0

si ces dérivées existent. Cela fournit un système de n équations, en général non linéaires, qu'il n'est pas possible de résoudre de manière analytique.

Notons que l'on peut effectuer une régression non linéaire sur un modèle linéaire. Par exemple, on sait que la norme ℓ1 — |ri| — est moins sensible aux points aberrants que la norme ℓ2. Mais le système d'équations que l'on obtient n'est pas linéaire.

Algorithmes de résolution[modifier | modifier le code]

On utilise des algorithmes itératifs :

Articles connexes[modifier | modifier le code]

Lien externe[modifier | modifier le code]

  • Calcul d'incertitudes Livre qui traite de la régression généralisée avec ou sans barres d'erreurs en utilisant l'algorithme de Gauss-Newton.