Aller au contenu

Méthode du gradient proximal

Un article de Wikipédia, l'encyclopédie libre.

Les méthodes de gradient proximal sont une forme généralisée de projection utilisée pour résoudre des problèmes d'optimisation convexe non différenciables.

Une comparaison entre les itérations de la méthode du gradient projeté (en rouge) et de la méthode Frank-Wolfe (en vert).

De nombreux problèmes intéressants peuvent être formulés sous forme de problèmes d’optimisation convexes de la forme

sont des fonctions convexes potentiellement non différenciables. Le manque de différentiabilité exclut les techniques conventionnelles d'optimisation continue comme la méthode de descente de gradient et la méthode du gradient conjugué, mais les méthodes du gradient proximal peuvent être utilisées à la place.

Les méthodes de gradient proximal commencent par une étape de séparation, dans laquelle les fonctions sont utilisées individuellement afin de produire un algorithme facilement implémentable. Ils sont appelés proximaux car chaque fonction non différenciable parmi intervient via son opérateur proximal . L'algorithme itératif avec seuil de retrait[1], l'algorithme de Landweber , l'algorithme de gradient projeté, l'algorithme de projection sur ensembles convexes, la méthode de multiplicateurs de Lagrange, et la méthode de Bregman séparée sont des instances spéciales d'algorithmes proximaux[2].

Pour la théorie des méthodes de gradient proximal du point de vue et avec des applications à la théorie de l'apprentissage statistique, voir méthodes de gradient proximal pour l'apprentissage.

Projection sur des ensembles convexes (POCS)

[modifier | modifier le code]

L'un des algorithmes d'optimisation convexe les plus utilisés est la projection sur des ensembles convexes (POCS). Cet algorithme est utilisé pour récupérer/synthétiser un signal satisfaisant simultanément plusieurs contraintes convexes. Soit la fonction indicatrice d'un ensemble convexe fermé non vide modélisant une contrainte. On se réduit alors au problème de faisabilité convexe, qui nécessite de trouver une solution telle qu'elle se situe à l'intersection de tous les ensembles convexes. . Dans la méthode POCS, chaque ensemble est incorporé par son opérateur de projection . Donc à chaque itération est mis à jour comme

Cependant, au-delà de ces problèmes, les opérateurs de projection ne sont pas appropriés et des opérateurs plus généraux sont nécessaires pour les résoudre. Parmi les diverses généralisations existantes de la notion d'opérateur de projection convexe, les opérateurs proximaux sont les mieux adaptés à d'autres fins.

Des instances spéciales de méthodes de gradient proximal sont

Voir également

[modifier | modifier le code]
  1. Daubechies, Defrise et De Mol, « An iterative thresholding algorithm for linear inverse problems with a sparsity constraint », Communications on Pure and Applied Mathematics, vol. 57, no 11,‎ , p. 1413–1457 (DOI 10.1002/cpa.20042, Bibcode 2003math......7152D, arXiv math/0307152)
  2. Plus de détails sur les méthodes de gradient proximal dans (en) Patrick L. Combettes et Jean-Christophe Pesquet, « Proximal Splitting Methods in Signal Processing », .

Références

[modifier | modifier le code]
  • R. T. Rockafellar, Convex analysis, Princeton, Princeton University Press,
  • Patrick L. Combettes et Jean-Christophe Pesquet, Fixed-Point Algorithms for Inverse Problems in Science and Engineering, vol. 49, , 185–212 p.

Liens externes

[modifier | modifier le code]