Méthodes de points intérieurs

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Les méthodes de points intérieurs forment une classe d’algorithmes qui permettent de résoudre des problèmes d’optimisation mathématique. Elles ont l'intérêt d'être polynomiales lorsqu'on les applique aux problèmes d'optimisation linéaire, quadratique convexe, semi-définie positive ; et plus généralement aux problèmes d'optimisation convexe, pourvu que l'on dispose d'une barrière auto-concordante représentant l'ensemble admissible, calculable en temps polynomial (ce n'est pas toujours le cas, car certains problèmes d'optimisation convexe sont NP-ardus (voir Problème NP-complet)).

Les méthodes de points intérieurs se répartissent en plusieurs familles :

  • les méthodes « affine scaling » (optimisation sur des ellipsoïdes) ;
  • les méthodes de réduction du potentiel (notion de barrière, chemin central, relaxation).

Historique[modifier | modifier le code]

Toutes ces méthodes trouvent leur origine (historique) dans les travaux d’un élève du mathématicien soviétique Andreï Kolmogorov : Dikin. C’est, en effet, à Dikin que l’on doit la méthode des ellipsoïdes sur laquelle se fondent plus ou moins toutes les méthodes de points intérieurs. Arkadi Nemirovski, David B. Yudin, Shor développent, en 1972, la méthode des ellipsoïdes pour des problèmes d’optimisation (non linéaire) convexe. En 1979, Leonid Khachiyan démontre que la méthode des ellipsoïdes, appliquée à la PL a une complexité, dans le pire des cas, polynomiale. Cependant, l’algorithme qu’il propose est beaucoup plus lent que le simplexe. Cette approche, qui s’étend de façon très élégante à des problèmes non linéaires convexes peut être considéré comme l’idée germinale des méthodes de points intérieurs développées par la suite.

Les algorithmes développés par la suite ont été inspirés par l’Algorithme de Karmarkar, développé en 1984 par Narendra Karmarkar pour l'optimisation linéaire. L’idée de base de la méthode est d’utiliser des fonctions barrières pour décrire l’ensemble des solutions qui est convexe par définition du problème. À l’opposé de l’algorithme du simplexe, cette méthode atteint l’optimum du problème en passant par l’intérieur de l’ensemble des solutions réalisables.

Article connexe[modifier | modifier le code]