Optimisation linéaire en nombres entiers

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche

L'optimisation linéaire en nombres entiers (OLNE) (ou programmation linéaire en nombres entiers (PLNE) ou encore Integer Programming (IP)) est un domaine des mathématiques et de l'informatique théorique dans lequel on considère des problèmes d'optimisation d'une forme particulière. Ces problèmes sont décrits par une fonction de coût et des contraintes linéaires, et par des variables entières.

La contrainte d'intégralité sur les variables, qui différencie l'OLNE de l'optimisation linéaire classique est nécessaire pour modéliser certains problèmes, en particulier des problèmes algorithmiques. Mais cette contrainte supplémentaire rend le problème plus complexe et demande des techniques particulières.

Définitions[modifier | modifier le code]

Définitions générales[modifier | modifier le code]

Un problème d'optimisation est un problème mathématique où, étant donné un ensemble de variables et des contraintes sur ces variables, on doit trouver une assignation qui maximise (ou minimise) une certaine fonction de coût. On parle de problème linéaire lorsque les contraintes et la fonction de coût sont combinaisons linéaires des variables et le problème est à nombres entiers si ces variables ne sont autorisées qu'à prendre des valeurs dans l'ensemble des entiers.

La contrainte qui force les variables à prendre des valeurs entières est appelée contrainte d'intégralité. Lorsque l'on gomme cette contrainte, on parle d'un problème relaxé ou de relaxation continue, et l'on a alors affaire à un problème d'optimisation linéaire. Le rapport entre l'optimal dans la version relaxée et dans la version entière est souvent appelé integrality gap.

Formes canonique et standard[modifier | modifier le code]

Un problème d'OLNE peut être mis sous deux formes classiques : la forme canonique et la forme standard. La forme canonique pour une maximisation est :

,

et la forme standard est :

sont des vecteurs et est une matrice ayant des valeurs entières.

Exemple[modifier | modifier le code]

Problème d'OLNE et relaxation linéaire

On donne un exemple de problème d'OLNE, illustré par l'image ci-contre.

Il y a deux variables, les solutions sont donc des couples d'entiers. Les points rouges sont les couples qui vérifient les contraintes et les pointillés rouges montrent l'enveloppe convexe de ces points. Les solutions optimales de ce problèmes sont (1,2) et (2,2).

Les lignes bleues et l'axe des abscisse délimitent les couples de réels qui satisfont toutes les contraintes sauf la contrainte d'intégralité. L'optimum est meilleur dans cette version relaxée.

Modélisation par OLNE[modifier | modifier le code]

De nombreux problèmes de recherche opérationnelle et d'algorithmique peuvent être traduits en problème d'OLNE. Par exemple le problème de couverture par ensembles est le suivant. Étant donné un ensemble A, on dit qu'un élément e est couvert par A si e appartient à A ; pour un ensemble U et une famille S de sous-ensembles de U, le problème consiste à couvrir tous les éléments U avec une sous-famille de S la plus petite possible. Ce problème se traduit naturellement sous la forme suivante[1] :

minimiser : (Minimiser le nombre de sous-ensembles)
tel que : (Tous les éléments sont couverts)
. (Chaque sous-ensemble est, ou bien dans la couverture, ou bien pas)

Résolution[modifier | modifier le code]

Complexité[modifier | modifier le code]

Au sens de la théorie de la complexité, l'optimisation linéaire en nombres entiers est considérée comme difficile car c'est un problème NP-difficile[2]. Cette complexité est facilement déduite de la NP-difficulté du problème de couverture par ensembles. Une des conséquences pratiques est que, pour des problèmes de grande taille, le temps de calcul peut être très grand.

Cependant, la complexité est polynomiale quand le nombre de variables est fixé, comme montré par Lenstra en 1983 [3].

Cas particuliers[modifier | modifier le code]

Lorsque les contraintes prennent la forme d'une matrice totalement unimodulaire et entière, une résolution en temps polynomial est possible car les solutions du problème relaxé sont entières.

Si le nombre de variables est fixé, alors le problème est aussi polynomial[4].

Méthodes de résolution exacte[modifier | modifier le code]

Parmi les méthodes classiques de résolution, on peut citer la méthode des plans sécants (notamment à l'aide de coupes de Gomory) et le principe de séparation et évaluation (branch and bound). Depuis les années 1990, l'inclusion de coupes de Gomory a permis de grandement accélérer l'algorithme séparation et évaluation. Cela a donné naissance à une nouvelle classe d'algorithmes nommés branch and bound [5].

Approximation[modifier | modifier le code]

La théorie des algorithmes d'approximation fait souvent appel à une formulation OLNE des problèmes et essaie de borner l'integrality gap pour obtenir une solution approchée en temps polynomial[réf. nécessaire].

Applications[modifier | modifier le code]

Ce type d'optimisation est très utilisée en recherche opérationnelle. C'est aussi devenu une approche classique en bio-informatique[6],[7].

Notes et références[modifier | modifier le code]

  1. Voir par exemple (en) Michael A. Trick, « A Tutorial on Integer Programming : Set Covering »,
  2. Il fait d'ailleurs partie de la liste des 21 problèmes NP-complets de Karp sous le nom de 0-1 INTEGER PROGRAMMING. Voir : (en) Richard M. Karp, « Reducibility Among Combinatorial Problems », dans Raymond E. Miller et James W. Thatcher, Complexity of Computer Computations, Plenum, (ISBN 978-1-4684-2003-6, DOI 10.1007/978-1-4684-2001-2_9, lire en ligne), p. 85-103.
  3. (en) H. W. Lenstra, « Integer programming with a fixed number of variables », Mathematics of operations research,‎ (lire en ligne)
  4. Hendrik Lenstra, « Integer programming with a fixed number of variables », Mathematics of operations research, no 8,‎ .
  5. (en) Gérard Cornuéjols, « The Ongoing Story of Gomory Cuts », Documenta Math,‎ (lire en ligne)
  6. « Integer Linear Programming in Computational Biology (symposium) », sur Simons Institute for the Theory of Computing (en).
  7. Dan Gusfield, « Integer Linear Programming in Computational Biology tutorial », .

Bibliographie[modifier | modifier le code]

  • (en) Bradley, Hax, and Magnanti, « Integer programming », dans Applied Mathematical Programming, Addison-Wesley,

Lien externe[modifier | modifier le code]