Méthode de quasi-Newton

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Méthode de Quasi-Newton)
Aller à : navigation, rechercher
image illustrant les mathématiques
Cet article est une ébauche concernant les mathématiques.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

La méthode de Quasi-Newton est une méthode numérique utilisée pour résoudre des systèmes d'équations non linéaires. Typiquement, le problème que résout une méthode de Quasi-Newton est avec dont on ne connaît pas forcément l'expression analytique.

Pour de tels problèmes, il est en général possible d'utiliser la méthode de Newton-Raphson, dont les itérations sont , mais celle-ci pose quelques problèmes pratiques :

  • si la dimension du système est grande, le calcul de la matrice jacobienne peut prendre trop de temps de calcul,
  • de même, la résolution du système linéaire est une opération coûteuse en calculs.

L'idée des méthodes Quasi-Newton est de remplacer par une matrice plus facile à calculer, et à laquelle on peut imposer certaines propriétés. Le fait qu'elle soit une approximation de l'inverse du jacobien se traduit par la relation de Quasi-Newton,

,

ce qui est manifestement la généralisation du coefficient utilisé dans la méthode de la sécante.

Les itérations des méthodes de Quasi-Newton sont alors de la forme suivante :

Dans cette formule, est un coefficient choisi pour optimiser la convergence, et est mise à jour à chaque itération selon une formule particulière. Selon les méthodes de Quasi-Newton, la formule de mise à jour varie.

Souvent on applique la méthode à la recherche d'un minimum d'une fonction g(x) que l'on traduit en la recherche de . Dans ce cas il est naturel d'imposer à la matrice Bk qu'elle soit symétrique, car elle correspond alors à la matrice hessienne de g.

Méthode de Broyden[modifier | modifier le code]

Ici la mise à jour de la matrice Bk s'écrit

avec , . Cette méthode s'applique au cas général où le jacobien n'a pas de raison d'être symétrique.

Méthode de Davidon-Fletcher-Powell[modifier | modifier le code]

C'est historiquement la première méthode quasi-Newton appliquée à l'optimisation, c'est-à-dire au calcul d'un extremum d'une fonction. Par conséquent, elle impose la symétrie des matrices Bk. En effet, ici ces matrices sont censées représenter une approximation de l'inverse de la matrice hessienne de la fonction à minimiser. La symétrie de ces approximations est assurée par le fait qu'on utilise une mise à jour d'une forme particulièrement simple, (voir ci-dessous).

On initialise et assez proche de la solution qu'on cherche. Les itérations sont les suivantes:

  • On calcule d'abord la direction de déplacement:
  • le coefficient s'en déduit, il est nécessairement strictement positif et choisi pour minimiser
  • on trouve le terme de la suite
  • est calculé par la formule de Davidon-Fletcher-Powell
avec, comme ci-dessus, et .

La méthode DFP a des propriétés satisfaisantes, mais dans la pratique elle est aujourd'hui en général remplacée par la méthode de Broyden-Fletcher-Goldfard-Shanno (BFGS) qui est encore plus efficace.

Voir aussi[modifier | modifier le code]

Sources[modifier | modifier le code]

  • Méthodes numériques itératives, Claude Brezinski, Michela Redivo-Zaglia, Éditions Ellipses