Recherche linéaire

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
image illustrant les mathématiques
Cet article est une ébauche concernant les mathématiques.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

En optimisation mathématique, la recherche linéaire est l'une des deux approches classiques permettant de forcer la convergence des algorithmes de calcul d'un minimum d'une fonction , lorsque le premier itéré est éloigné d'un tel minimum. L'autre méthode est celle des régions de confiance.

Algorithme[modifier | modifier le code]

i) Mettre le compteur d'itération à 0 , et fixer une valeur initiale, comme minimum.
ii) Calculer une direction de descente .
iii) Choisir afin de minimiser en fonction de la variable .
iv) Mettre à jour , .
Si tolerance, STOP.
Sinon, retourner au ii).

Dans l'étape iii) on peut minimiser exactement , en résolvant , ou bien minimiser faiblement, en n'imposant qu'une décroissance suffisante de . Cette dernière approche peut être réalisée en utilisant les critères de Wolfe.

Comme les autres méthodes d'optimisation, la recherche linéaire peut être couplée avec le recuit simulé afin d'éviter les minimums locaux.

Annexes[modifier | modifier le code]

Article connexe[modifier | modifier le code]

Références[modifier | modifier le code]

  • N. I. M. Gould and S. Leyffer, An introduction to algorithms for nonlinear optimization. In J. F. Blowey, A. W. Craig, and T. Shardlow, Frontiers in Numerical Analysis, pages 109-197. Springer Verlag, Berlin, 2003.