Recherche linéaire (optimisation)

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 14 avril 2021 à 23:31 et modifiée en dernier par 90.22.53.199 (discuter). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

En optimisation mathématique, la recherche linéaire est l'une des deux approches classiques permettant de forcer la convergence des algorithmes de calcul d'un minimum d'une fonction , lorsque le premier itéré est éloigné d'un tel minimum. L'autre méthode est celle des régions de confiance.

Exemple

Voici un exemple d'algorithme qui utilise la recherche linéaire à l'étape 3:
i) Mettre le compteur d'itération à 0 , et fixer une valeur initiale, comme minimum.
ii) Calculer une direction de descente .
iii) Choisir , comme la valeur , telle que atteigne son minimum.
iv) Mettre à jour , .
Si tolerance, STOP.
Sinon, retourner au ii).

Dans l'étape iii) on peut minimiser exactement , en résolvant , ou bien minimiser faiblement, en n'imposant qu'une décroissance suffisante de . Cette dernière approche peut être réalisée en utilisant les critères de Wolfe.

Comme les autres méthodes d'optimisation, la recherche linéaire peut être couplée avec le recuit simulé afin d'éviter les minimums locaux.

Annexes

Article connexe

Références

  • N. I. M. Gould and S. Leyffer, An introduction to algorithms for nonlinear optimization. In J. F. Blowey, A. W. Craig, and T. Shardlow, Frontiers in Numerical Analysis, pages 109-197. Springer Verlag, Berlin, 2003.