Algorithme à régions de confiance

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Un algorithme à régions de confiance est un algorithme d'optimisation différentiable (l'optimisation dont il est question ici est une branche des mathématiques), destiné à minimiser une fonction réelle définie sur un espace euclidien (par exemple, \mathbb{R}^n, l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, l'algorithme effectue un déplacement qui est obtenu en minimisant un modèle simple de la fonction (par exemple quadratique) sur une région de confiance (généralement une boule dont le rayon est appelé le rayon de confiance du modèle). Le rayon de confiance est ajusté de manière à faire décroître suffisamment la fonction à chaque itération.

Cette approche algorithmique peut être vue comme une technique de globalisation, c'est-à-dire une méthode permettant d'obtenir la convergence des itérés (sous certaines conditions) quel que soit l'itéré initial choisi. Elle s'apparente ainsi aux algorithmes à directions de descente en améliorant légèrement (mais parfois de manière décisive) leurs résultats de convergence. La conception des algorithmes à régions de confiance est cependant plus compliquée que celle des algorithmes à directions de descente, ce qui limite parfois leur application (par exemple aux grands problèmes de moindres-carrés sans possibilité de calcul de la jacobienne des résidus).

Le principe des régions de confiance est très général et s'étend (parfois avec peine) à d'autres problèmes classiques de l'optimisation : optimisation non lisse, optimisation avec contraintes, etc.

Principes de l'algorithme[modifier | modifier le code]

Soient \mathbb{E} un espace hilbertien (produit scalaire noté \langle\cdot,\cdot\rangle et norme associée notée \|\cdot\|) et x\in\mathbb{E}\mapsto f(x)\in\mathbb{R} une fonction différentiable. On note f'(x) et \nabla f(x) la dérivée et le gradient de f en x, si bien que


\forall\,d\in\mathbb{E}:\qquad f'(x)\cdot d=\langle\nabla f(x),d\rangle.

Comparaison avec les algorithmes avec recherche linéaire[modifier | modifier le code]

Comparaison de la recherche linéaire et des régions de confiance
Recherche linéaire Région de confiance
On se donne une direction de descente d_k de f en x_k On se donne un modèle \psi_k de f en x_k
On adapte le pas \alpha_k > 0 le long de d_k pour faire décroître f On adapte le rayon de confiance \Delta_k > 0 pour faire décroître f
Le déplacement s_k=\alpha_k d_k est aligné sur d_k (recherche linéaire) Le déplacement s_k change d'orientation avec \Delta_k (recherche curviligne)
Facile à mettre en œuvre Difficile à mettre en œuvre
Résultats de convergence faibles Résultats de convergence renforcés

Annexes[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Lien externe[modifier | modifier le code]

Ouvrage de référence[modifier | modifier le code]

  • (en) A. R. Conn, N. I. M. Gould, Ph. L. Toint (2000). Trust-Region Methods. MPS-SIAM Series on Optimization 1. SIAM and MPS, Philadelphia.