Algorithme de Josephy-Newton
L'algorithme de Josephy-Newton est une méthode de linéarisation pour résoudre une inclusion fonctionnelle, c'est-à-dire un problème de la forme
où est une fonction différentiable entre les deux espaces vectoriels et et est une multifonction entre les mêmes espaces. Ce problème signifie que l'on cherche tel que l'ensemble contienne l'élément nul de ou encore tel que l'ensemble contienne . Ce formalisme est suffisamment général pour englober les problèmes variationnels, les problèmes d'inéquations variationnelles, les problèmes de complémentarité non linéaires et les conditions d'optimalité du premier ordre des problèmes d'optimisation.
L'algorithme de Josephy-Newton consiste à générer une suite , où le nouvel itéré est calculé à partir de l'itéré courant en résolvant (si possible) l'inclusion partiellement linéarisée
On retrouve l'algorithme de Newton si . Le fait de maintenir inchangé dans cette inclusion linéarisée, qui calcule le nouvel itéré, permet d'avoir les mêmes résultats de convergence superlinéaire ou quadratique qu'avec la méthode de Newton résolvant un système non linéaire, sous des hypothèses de lissité et de régularité similaires. Cependant, contrairement à l'algorithme de Newton, il ne suffit pas de résoudre un système linéaire à chaque itération pour calculer le nouvel itéré , car le système ci-dessus permettant de calculer celui-ci est une inclusion non linéaire, qui pourra demander beaucoup de temps de calcul.
L'algorithme de Josephy-Newton
Cas général
Comme spécifié dans l'introduction, l'algorithme de Josephy-Newton de résolution de consiste à générer une suite , où le nouvel itéré est calculé à partir de l'itéré courant en résolvant (si possible) l'inclusion partiellement linéarisée
où est un opérateur linéaire valant ou une approximation de cette dérivée (on pense ici surtout à des approximations quasi-newtoniennes). On ne « linéarise » donc que le premier terme qui est supposé différentiable ; le second est laissé inchangé. Sans hypothèse particulière, il se peut que l'inclusion fonctionnelle linéarisée (JN) n'ait pas de solution, auquel cas l'algorithme ne peut pas calculer l'itéré suivant et doit s'arrêter. Par ailleurs, si la multifonction est complexe, l'itération pourra requérir beaucoup de temps de calcul (elle est toutefois plus simple que le problème initial), mais la convergence locale rapide peut laisser espérer qu'une solution sera trouvée en très peu d'itérations. Il se peut aussi que l'on ne connaisse pas de méthode pour résoudre (JN), auquel cas il faudra se tourner vers d'autres algorithmes de résolution.
Ce schéma algorithmique prenant en compte un grand nombre de situations a été introduit par Josephy en 1979[1].
Examinons à présent quelques cas particuliers.
Exemples
Problème de complémentarité
Si et si la multifonction est le cône normal à un cône convexe fermé non vide , le problème d'inclusion fonctionnelle s'écrit comme le problème de complémentarité non linéaire
Alors le schéma de Josephy-Newton s'écrit comme le problème de complémentarité linéaire
dans lequel on s'est contenté de linéariser en .
Conditions d'optimalité d'un problème d'optimisation
Lorsque l'algorithme de Josephy-Newton est appliqué aux conditions d'optimalité d'un problème d'optimisation avec contraintes d'égalité et d'inégalité, on retrouve l'optimisation quadratique successive.
Système d'égalités et d'inégalités
Un système d'égalités et d'inégalités , avec les ensembles d'indices et formant une partition de , peut s'écrire comme une inclusion fonctionnelle
en prenant comme multifonction , la multifonction constante , où et . L'algorithme de Josephy-Newton consiste dans ce cas à résoudre à l'itération le système d'équations linéarisées en suivant
Celui-ci peut ne pas avoir de solution, même lorsque est proche d'un point vérifiant les égalités et les inégalités , auquel cas l'algorithme doit s'interrompre.
Convergence
Les résultats de cette section sont repris de Bonnans (1994).
Comportement asymptotique
La notion de semistabilité permet d'avoir des conditions suffisantes de convergence superlinéaire et quadratique d'une suite générée par l'algorithme de Josephy-Newton.
Conditions suffisantes de convergence superlinéaire et quadratique — Supposons que soit dans le voisinage d'une solution semistable de et que la suite vérifie la récurrence (JN) de l'algorithme de Josephy-Newton et converge vers .
- Si , alors la convergence de est superlinéaire.
- Si et si est dans un voisinage de , alors la convergence de est quadratique.
Corollaire — Supposons que soit dans le voisinage d'une solution semistable de et que la suite vérifie la récurrence (JN) et converge vers .
- Si , alors la convergence de est superlinéaire.
- Si et si est dans un voisinage de , alors la convergence de est quadratique.
Convergence locale
La semistabilité n'assure en rien l'existence d'une solution de l'équation linéarisée et donc d'un nouvel itéré de l'algorithme de Josephy-Newton, même si cet itéré est proche d'une solution. C'est la raison d'être de la propriété d'hémistabilité. En réalité, comme le montre le résultat suivant, c'est à la fois la semistabilité et l'hémistabilité d'une solution de qui assurent le caractère bien posé de l'algorithme de Josephy-Newton démarrant proche de cette solution et la convergence de la suite générée vers celle-ci.
Convergence locale de l'algorithme de Josephy-Newton — Supposons que soit dans le voisinage d'une solution semistable et hémistable de et que dans l'algorithme de Josephy-Newton (JN). Alors, il existe , tel que si le premier itéré , alors
- l'algorithme de Josephy-Newton peut générer une suite dans ,
- toute suite générée dans par l'algorithme de Josephy-Newton converge superlinéairement vers (et quadratiquement si est ).
L'algorithme de Josephy-Newton peut donc générer une suite convergeant vers si le premier itéré est assez proche d'une solution semistable et hémistable , mais rien ne dit qu'il en sera ainsi si la solution de l'inclusion linéarisée n'est pas choisie assez proche de à chaque itération.
Annexes
Note
- Voir Josephy (1979a) pour la version newtonienne et Josephy (1979b) pour la version quasi-newtonienne.
Articles connexes
Lien externe
- (en) J.Ch. Gilbert (2015). Advanced Continuous Optimization, planches du cours du M2 Optimization à l'université Paris-Saclay.
Bibliographie
- (en) J.F. Bonnans (1994). Local analysis of Newton-type methods for variational inequalities and nonlinear programming. Applied Mathematics and Optimization, 29, 161–186.
- (en) A.F. Izmailov, M.V. Solodov (2014). Newton-Type Methods for Optimization and Variational Problems, Springer Series in Operations Research and Financial Engineering, Springer.
- (en) N.H. Josephy (1979a). Newton’s method for generalized equations. Technical Summary Report 1965, Mathematics Research Center, University of Wisconsin, Madison, WI, USA.
- (en) N.H. Josephy (1979b). Quasi-Newton’s method for generalized equations. Summary Report 1966, Mathematics Research Center, University of Wisconsin, Madison, WI, USA.