Optimisation linéaire

Un article de Wikipédia, l'encyclopédie libre.
Optimisation linéaire dans un espace à deux dimensions (x1, x2). La fonction-coût fc est représentée par les lignes de niveau bleues à gauche et par le plan bleu à droite. L'ensemble admissible E est le pentagone vert.

En optimisation mathématique, un problème d'optimisation linéaire demande de minimiser une fonction linéaire sur un polyèdre convexe. La fonction que l'on minimise ainsi que les contraintes sont décrites par des fonctions linéaires[note 1], d'où le nom donné à ces problèmes. L'optimisation linéaire (OL) est la discipline qui étudie ces problèmes. Elle est également désignée par le nom de programmation linéaire, terme introduit par George Dantzig vers 1947[1], mais cette appellation tend à être abandonnée[note 2] à cause de la confusion possible avec la notion de programmation informatique.

Par exemple, le problème à deux variables suivant :

qui consiste à minimiser la fonction linéaire sous la contrainte d'inégalité affine x1 + 2x2 ≥ 2 et les contraintes de positivité des xi, est un problème d'optimisation linéaire. Sa solution est (x1 , x2) = (0,1). Dès que le nombre de variables et de contraintes augmente, le problème ne peut plus se résoudre par tâtonnement.

Plus généralement, un problème d'OL s'écrira donc en notation matricielle de la manière suivante :

est l'inconnue, le vecteur des variables réelles x1,...,xn à optimiser, et les données sont des vecteurs et et une matrice . L'inégalité vectorielle Axb doit être entendue composante par composante : pour tout indice i, on doit avoir (Axb)i ≤ 0. L'ensemble admissible est donc bien un polyèdre convexe, puisqu'il s'agit de l'intersection des demi-espaces , pour i = 1,...,m, en nombre fini. Un problème de maximisation se ramène à la formulation précédente en minimisant l'opposé de la fonction-coût sur le même polyèdre convexe.

Parmi les problèmes d'optimisation avec contraintes d'inégalité, les problèmes linéaires sont simples à résoudre numériquement. On connaît en effet des algorithmes polynomiaux efficaces, requérant donc un nombre d'itérations qui est majoré par un polynôme, fonction des dimensions du problème. Typiquement, un algorithme de points intérieurs requerra théoriquement au plus un nombre d'itérations de l'ordre de O(n) pour une formulation du problème voisine de celle donnée ci-dessus.

Beaucoup de problèmes de recherche opérationnelle peuvent être exprimés comme des problèmes d'optimisation linéaire. Ces problèmes apparaissent aussi comme sous-produits dans des algorithmes conçus pour résoudre des problèmes plus difficiles.

Dans certains problèmes d'OL, on requiert en plus que les variables ne prennent que des valeurs entières (contraintes dites d'intégrité), voire que les valeurs 0 ou 1. On parle alors de problème d'optimisation linéaire en nombres entiers. Ces derniers problèmes sont beaucoup plus difficiles à résoudre que les problèmes d'OL à variables continues décrits ci-dessus.

Introduction sur un exemple en dimension 2[modifier | modifier le code]

On peut pressentir la problématique en dimension deux en observant la situation suivante : « Une firme a le projet de construire deux produits nécessitant l'utilisation de 3 machines. la machine A ne peut travailler que 150 heures par mois, la machine B, 210 heures, et la machine C, 180 heures. Le premier produit P1 nécessite 1 heure de la machine A et 1 heure de la machine B et il est vendu 300 euros à l'unité. Le second produit P2 nécessite une heure de la machine A, trois heures de la machine B et 3 heures de la machine C et il est vendu 500 euros à l'unité. La firme cherche à définir le programme de fabrication lui permettant de rendre maximal son bénéfice. »

Exemple pratique d'un problème d'optimisation linéaire

Une modélisation mathématique conduit à appeler x le nombre de produits P1 à fabriquer et y le nombre de produits P2 ; M sera le point de coordonnées (x, y). Les contraintes de fabrication s'expriment à l'aide des inégalités suivantes :

Chacune de ces contraintes définit un demi-plan auquel M doit appartenir. L'intersection de ces demi-plans dessine un polygone convexe (OABCD) appelé ensemble admissible.

Sur cet ensemble admissible, on définit la fonction revenu net : f(x, y) = 300x + 500y que l'on cherche à rendre maximale. Les programmes de fabrication permettant de rentrer, par exemple, 40 000 euros correspondent aux points de la droite (d40000) : 300x + 500y = 40000. Cette droite partage le plan en deux demi-plans, un dans lequel f(x, y) < 40000 et l'autre dans lequel f(x, y) > 40000. Comme il existe des points de l'ensemble admissible appartenant au deuxième demi-plan, on peut trouver des programmes de fabrication donnant un revenu supérieur. Les programmes de fabrication donnant un revenu S correspondent aux points d'une droite (dS) parallèle à (d40000) . Pour maximiser le revenu net, il suffit de trouver la droite (dS) parallèle à (d40000) qui contient au moins un point de l'ensemble admissible sans traverser celui-ci : une telle droite passe nécessairement par un sommet du polygone et une simple observation graphique place la droite en question au point B.

Une optimisation linéaire en dimension deux consiste en général à dessiner l'ensemble admissible (polygone convexe borné ou non) et à chercher la meilleure position d'une droite de direction fixée pour rendre maximale ou minimale une valeur donnée. Cette droite, si elle existe, passe toujours par un sommet du polygone. Dans une optimisation linéaire de dimension trois, l'ensemble admissible est un polyèdre et l'optimisation consiste à trouver la meilleure position d'un plan de direction fixée.

Représentation d'une optimisation linéaire en dimension deux à 6 inégalités (au moins) : l'ensemble admissible est coloré en jaune et forme un polyèdre convexe. La fonction-coût minimisée a sa ligne de niveau en la solution représentée par la ligne rouge et la flèche indique le sens suivant lequel la fonction décroît (pour un problème de minimisation).
Optimisation en dimension trois : L'ensemble admissible est un polyèdre, la surface donnant une valeur fixée à la fonction à optimiser est un plan (non dessiné). Le problème d'optimisation consiste à trouver un sommet du polyèdre qui donne la valeur optimale à la fonction étudiée.

Le problème devient plus complexe en dimension supérieure où une résolution graphique est inenvisageable et nécessite des outils demandant une formalisation sous forme matricielle.

Formalisation canonique : dans l'exemple ci-dessus, on pose . Les contraintes se résument à Aub. La fonction revenu net est qu'il faut maximiser. La formalisation canonique s'écrit enfin

que l'on peut écrire sous la forme de l'introduction en changeant A, b, et c en leurs opposés.

Formalisation standard

Il est parfois utile de remplacer l'inégalité définissant l'ensemble admissible par une égalité. Cela peut se faire en augmentant la dimension d'étude du problème. Dans l'exemple ci-dessus, les trois inégalités se traduisent par trois égalités et trois contraintes positives sous la forme suivante :

.

Il suffit alors de poser pour obtenir la formalisation

.

C'est sur ces formes (canonique ou standard) que se mettent en place les techniques d'optimisation en dimension n. Elles supposent la connaissance de l'algèbre linéaire, des notations matricielles et des bases de l'optimisation (en particulier, du vocabulaire de cette discipline).

Analyse du problème[modifier | modifier le code]

Définitions[modifier | modifier le code]

Formulations du problème[modifier | modifier le code]

On peut représenter un polyèdre convexe de différentes manières. Lorsqu'on le voit comme ci-dessus, à savoir comme une intersection d'un nombre fini de demi-espaces :

on dit que le polyèdre (ou le problème d'optimisation linéaire avec un tel polyèdre) est écrit sous forme canonique. Lorsque le polyèdre convexe est vu comme l'intersection de l'orthant positif et d'un sous-espace affine :

on dit que le polyèdre (ou le problème d'optimisation linéaire avec un tel polyèdre) est écrit sous forme standard.

En pratique, les problèmes peuvent présenter des contraintes plus variées ou plus structurées telles que des contraintes d'égalité ou des contraintes de borne inférieures et supérieures :

Les bons solveurs permettent d'utiliser de telles représentations de l'ensemble admissible. Cependant, autant de contraintes compliquent et alourdissent inutilement l'analyse des problèmes d'optimisation linéaire, si bien que celle-ci se fait en général sur une formulation simplifiée de l'ensemble admissible permettant toutefois de représenter toutes les contraintes affines imaginables. Les formulations canonique et standard possèdent cette propriété de généricité, pourvu que l'on introduise des données et des variables supplémentaires. En particulier, un ensemble admissible écrit sous forme canonique pourra se représenter sous la forme standard suivante :

le lien entre la variable x de la forme canonique et les variables (u,v,s) de la formulation standard ci-dessus se faisant par x = uv. Réciproquement un ensemble admissible écrit sous forme standard pourra se représenter sous la forme canonique suivante :

Les analyses du problème d'optimisation linéaire se font le plus souvent sur le problème dont l'ensemble admissible est représenté sous la forme standard, problème que nous écrirons comme suit :

On note

la valeur optimale de (PL) et

l'ensemble de ses solutions (qui peut être vide).

Le qualificatif linéaire donné au problème (PL) défini ci-dessus peut être trompeur. En effet, ces problèmes ne sont pas linéaires dans le sens où leurs solutions dépendraient linéairement de certaines de leurs données. Ce sont les inégalités définissant les contraintes qui introduisent de la non-linéarité. En l'absence d'inégalités, le problème devient linéaire dans ce sens, mais est alors trivial : soit il n'y a pas de solution, soit tous les points admissibles sont solutions.

Sommet[modifier | modifier le code]

Certains algorithmes s'intéressent aux sommets du polyèdre convexe sur lequel on minimise une fonction linéaire. Dans l'algorithme du simplexe, par exemple, tous les itérés sont des sommets du polyèdre convexe qu'est l'ensemble admissible.

Un sommet d'un polyèdre convexe est une face de dimension zéro de cet ensemble, c'est-à-dire un point que l'on peut ôter du convexe sans remettre en cause sa convexité ; dit encore autrement et c'est la définition précise, c'est un point qui ne peut pas s'écrire comme la demi-somme de deux points distincts du polyèdre convexe. Donc x est un sommet du polyèdre convexe P si xP et si

Tous les polyèdres convexes n'ont pas nécessairement un sommet. Par exemple, le demi-espace n'en a pas. Cependant un polyèdre convexe écrit sous la forme standard en a toujours ; c'est une des raisons pour lesquelles l'algorithme du simplexe est défini sur un problème d'OL ayant son ensemble admissible écrit sous cette forme. De plus, il est alors aisé de les reconnaître par une technique d'algèbre linéaire.

On note Aj la colonne c de la matrice A.

Sommet d'un polyèdre convexe sous forme standard — Soient un polyèdre convexe non vide et xP. Alors les propriétés suivantes sont équivalentes :

  1. x est un sommet de P,
  2. les colonnes de A sont linéairement indépendantes.

De plus P a au moins un sommet.

Existence de solution[modifier | modifier le code]

Il y a exactement deux cas (exclusifs) dans lesquels le problème d'optimisation linéaire n'a pas de solution.

  • Le premier est celui où les contraintes ne sont pas compatibles (par exemple x ≥ 2 et x ≤ 1). La valeur optimale du problème de minimisation vaut alors +∞, par convention. Dans ce cas, on dit que le problème n'est pas réalisable.
  • Le second se produit lorsque le problème de minimisation est réalisable mais que sa valeur optimale vaut –∞ (par exemple lorsqu'on cherche à minimiser x sous la contrainte x ≤ 0). Dans ce cas, on dit que le problème n'est pas borné ou est non borné.

Dans tous les autres cas, la valeur optimale du problème d'optimisation linéaire est finie et le problème a une solution.

Existence de solution — Pour un problème d'optimisation linéaire, les propriétés suivantes sont équivalentes :

  1. le problème a une solution,
  2. le problème est réalisable et borné,
  3. la valeur optimale du problème est finie.

Un autre résultat d'existence de solution, fondé sur le précédent et très souvent utilisé, est donné par le théorème de dualité forte dans la section Propriétés de dualité.

Comme l'ensemble des solutions de (PL) est un polyèdre convexe écrit sous forme standard, il aura un sommet s'il est non vide et ce sommet sera aussi un sommet de l'ensemble admissible de (PL).

Existence de solution-sommet — Si le problème (PL) a une solution, il a une solution en un sommet de son ensemble admissible.

Ce résultat est important pour l'algorithme du simplexe, car celui-ci, générant ses itérés sur des sommets, cherche une solution-sommet (qui doit donc exister pour qu'il en trouve une !).

Conditions d'optimalité[modifier | modifier le code]

Énoncé[modifier | modifier le code]

Les conditions d'optimalité du problème d'optimisation linéaire (PL) peuvent être obtenues comme cas particulier de la théorie générale des problèmes d'optimisation différentiables en dimension finie (conditions de Karush, Kuhn et Tucker), avec la simplification supplémentaire de ne pas avoir à s'occuper de la qualification des contraintes du problème. L'affinité de celles-ci les rend en effet qualifiées (voir la section Affinité locale (QC-A)), si bien que l'on ne trouve pas de trace de ces questions dans les manuels d'optimisation linéaire. Par ailleurs, grâce à la convexité du problème d'OL, les conditions énoncées ci-dessous sont nécessaires et suffisantes à l'optimalité.

Conditions d'optimalité — Le point est solution de (PL) si, et seulement si, il existe des vecteurs et tels que

Les variables y et s introduites par ces conditions d'optimalité portent le nom de multiplicateurs de Lagrange ou de variables duales. Les premières sont associées aux contraintes d'égalité (il y en a une par contrainte) et les secondes aux contraintes de positivité de la variable primale x. Comme on aura l'occasion de le voir ci-dessous, ces variables cachées dans le problème (PL) jouent un rôle important dans son analyse. On note l'ensemble des solutions primales-duales, c'est-à-dire l'ensemble des triplets (x,y,s) vérifiant les conditions d'optimalité ci-dessus.

Les relations (a) expriment l'admissibilité duale et la première de ces relations est le gradient en x du lagrangien du problème, qui est la fonction

Les relations (b) expriment l'admissibilité primale et la relation (c) exprime la complémentarité existant entre les variables primales x et leurs multiplicateurs s : xi ou si est nul (ou les deux) ; voir aussi plus loin.

Chaque variable optimale duale s'interprète comme le coût marginal associé à sa contrainte.

Après élimination de la variable d'écart duale s, les conditions d'optimalité peuvent s'écrire sous la forme de problème de complémentarité linéaire avec contrainte linéaire :

Ces conditions d'optimalité ont de multiples usages. Elles permettent en particulier de concevoir des algorithmes primaux-duaux (qualifiés ainsi parce qu'ils utilisent alors les variables primales et duales) de résolution. Elles permettent aussi d'établir diverses propriétés des problèmes d'OL.

Produit cartésien des solutions — L'ensemble des solutions primales-duales est un produit cartésien :

Autrement dit, si (x1, y1, s1) et (x2, y2, s2) sont des solutions primales-duales, alors (x1, y2, s2) est aussi une solution primale-duale.

Solution strictement complémentaire[modifier | modifier le code]

Revenons sur les conditions de complémentarité, la condition (c) du système d'optimalité. Cette condition s'écrit

Comme x et s ont leurs composantes positives, cela revient au même d'écrire

ou encore

Ceci n'implique pas que si > 0 lorsque xi = 0.

Une solution primale-duale (x,y,s) est dite strictement complémentaire, si

Un problème d'optimisation linéaire avec solution a toujours une solution primale-duale strictement complémentaire. On note

Solution primale-duale strictement complémentaire — Si le problème (PL) a une solution, alors il a une solution primale-duale strictement complémentaire. Cette affirmation revient à dire que (B,N) forme une partition de  :



Dualité lagrangienne[modifier | modifier le code]

Le problème dual standard[modifier | modifier le code]

La dualisation lagrangienne est une technique utilisée pour introduire un problème dual d'un problème d'optimisation. Si l'on considère le problème d'optimisation (PL), la dualisation lagrangienne conduit au problème dual standard suivant

Il s'agit de deux problèmes de maximisation ; celui de droite est obtenu à partir de celui de gauche en éliminant la variable , si bien qu'il ne lui reste que la variable .

On note

la valeur optimale de (DL) et

l'ensemble de ses solutions (qui peut être vide).

Technique de dualisation[modifier | modifier le code]

On pourrait énoncer le problème dual du problème d'optimisation linéaire le plus général, mais nous préférons donner ici la technique utilisée pour les établir, ce qui permettra de s'en sortir dans tous les cas. On part du problème (PL), qualifié ici de primal.

La première étape consiste à écrire le problème primal comme un inf sup. Par exemple, comme à fixé

on a

L'égalité tient compte de la convention que l'infimum sur un ensemble vide vaut +∞ ; donc, s'il n'y a pas de x ≥ 0 vérifiant Ax = b, on trouvera +∞ dans les deux membres. On a ainsi écrit le problème primal comme un inf sup (on enlève les parenthèses, en gardant à l'esprit que la signification à donner à cet inf sup est celle ci-dessus) :

On dit que l'on a dualisé la contrainte d'égalité Ax = b, car c'est avec elle que l'on a construit le lagrangien intervenant dans la technique de dualisation ci-dessus.

La seconde étape consiste à inverser l'ordre dans lequel sont pris l'infimum et le supremum, pour obtenir le problème dual

Il reste à l'interpréter. Commençons par le problème interne :

Comme, par convention, le supremum sur un ensemble vide vaut –∞, le problème dual s'écrit

comme annoncé ci-dessus.

Propriétés de dualité[modifier | modifier le code]

Quelle que soit la fonction définie sur des ensembles quelconques X et Y, on a

C'est ce que l'on appelle la relation de dualité faible. Par la technique de dualisation lagrangienne exposée ci-dessus, on obtient alors la relation suivante entre les valeurs optimales primale et duale.

Dualité faible — .

Dans le cas de l'optimisation linéaire, cette inégalité s'obtient par simple calcul : on prend un point x admissible primal, un point y admissible dual, on en déduit que et on conclut en prenant la borne supérieure à gauche et la borne inférieure à droite.

On déduit du résultat de dualité faible que si l'un des deux problèmes est non borné, l'autre n'est pas réalisable.

L'écart entre les valeurs optimales primale et duale est ce que l'on appelle le saut de dualité :

On dit qu'il n'y a pas de saut de dualité si val(PL) = val(DL). En optimisation linéaire, il est rare d'avoir un saut de dualité. La seule possibilité est que l'on ait val(PL) = +∞ (i.e., le problème primal n'est pas réalisable ; par exemple si A = 0 et b ≠ 0) et val(DL) = –∞ (i.e., le problème dual n'est pas réalisable ; par exemple si A = 0 et ). C'est une conséquence du résultat d'existence de solution en OL (voir ci-dessus) et du résultat de dualité forte suivant.

Dualité forte — Les propriétés suivantes sont équivalentes :

  1. les problèmes primal et dual sont réalisables,
  2. le problème primal a une solution,
  3. le problème dual a une solution.

Dans ce cas, il n'y a pas de saut de dualité.

La démonstration de ce résultat n'est pas sans intérêt. Donnons quelques éléments de preuve, ce qui permettra de donner quelques informations supplémentaires.

  • L'implication 1 → 2 est une conséquence facile du résultat d'existence de solution et de la dualité faible.
  • L'implication 2 → 3 est une conséquence du fait que les multiplicateurs apparaissant dans les conditions d'optimalité du problème primal (qui a une solution) sont en réalité solutions du problème dual.
  • L'implication 3 → 1 se démontre aussi à partir des conditions d'optimalité du problème dual, qui sont identiques à celles du problème primal.

L'implication 1 → 2 [resp. 1 → 3] est très souvent utilisée pour montrer que le problème primal [resp. dual] a une solution. Pour qu'il en soit ainsi, il suffit en effet de vérifier que les problèmes primal et dual sont réalisables, un fait qui peut se constater sans difficulté dans certains cas.

Algorithmes[modifier | modifier le code]

Algorithme du simplexe[modifier | modifier le code]

L'algorithme du simplexe, développé par Dantzig à partir de 1947[1], est une méthode de résolution finie d'un problème d'OL. Le qualificatif fini signifie qu'en un nombre fini d'étapes, l'algorithme trouve une solution ou montre que le problème est non borné ou encore montre que le problème n'est pas réalisable (les seules trois possibilités pour un problème d'OL, voir ci-dessus). L'algorithme a une interprétation géométrique simple. Les itérés sont des sommets de l'ensemble admissible (un polyèdre convexe). En un sommet, l'algorithme détermine une arête (face de dimension 1) de l'ensemble admissible le long de laquelle la fonction-coût décroît et prend comme nouvel itéré le sommet situé au bout de l'arête sélectionnée (opération appelée pivotage). Il peut y avoir plusieurs arêtes permettant de faire décroître la fonction-coût. Dans la règle du coût réduit minimal, l'algorithme choisit une arête le long de laquelle la fonction-coût décroît le plus.

Bien que l'algorithme du simplexe soit souvent efficace en pratique, ce n'est pas un algorithme polynomial : en réalité, il est exponentiel dans le pire des cas. Klee et Minty (1972) ont en effet construit un problème, dans lequel l'ensemble admissible est un « cube » de légèrement déformé, pour lequel l'algorithme du simplexe visite les 2n sommets de l'ensemble admissible. C'est le fait de prendre une décision à chaque itération à partir d'information locale (le coût réduit par exemple), ayant des effets globaux (le nombre d'itérations dépend du nombre de sommets visités avant d'arriver en une solution), qui ne permet pas d'obtenir la polynomialité de l'algorithme. Cet exemple est lié à une règle particulière de pivotage, mais des variantes de l'exemple de Klee et Minty existent pour la plupart des règles de pivotage, voir Terlaky et Zhang (1993). On ne sait d'ailleurs pas aujourd'hui (2011) s'il existe une règle de pivotage qui permettrait d'avoir la polynomialité, voir De Loera (2011). Ce contre-exemple a stimulé la recherche d'algorithmes pouvant être polynomiaux en optimisation linéaire, un problème jugé suffisamment simple pour admettre un tel algorithme. Ceci a conduit aux algorithmes de points intérieurs, qui ont ensuite été étendus à tous les problèmes d'optimisation (éventuellement non convexes).

L'efficacité souvent observée de l'algorithme du simplexe est justifiée aujourd'hui par le fait démontré de sa polynomialité en moyenne, pour des données distribuées aléatoirement suivant diverses lois de probabilité ; voir Borgwardt (1982, 1987), Smale (1983), Megiddo (1987), Sharmir (1987).

Algorithmes de points intérieurs[modifier | modifier le code]

Le premier algorithme polynomial pour l'OL a été proposé par Leonid Khatchian en 1979. Il est fondé sur la méthode de l'ellipsoïde en optimisation non linéaire précédemment proposée par Naum Z. Shor. Cette méthode est elle-même une généralisation de la méthode de l'ellipsoïde en optimisation convexe due à Arkadi Nemirovski (Prix John von Neumann 2003[réf. souhaitée]), et à David B. Yudin. L'efficacité pratique de l'algorithme de Khachiyan est décevante : l'algorithme du simplexe est pratiquement toujours plus rapide. Cependant, ce résultat a encouragé la recherche sur les méthodes de points intérieurs.

En 1984, Narendra Karmarkar propose la méthode projective. C'est le premier algorithme efficace à la fois en théorie et en pratique. Sa complexité pire-cas est polynomiale et les expérimentations sur les problèmes pratiques montrent que la méthode peut raisonnablement être comparée à l'algorithme du simplexe.

Depuis lors, plusieurs méthodes de points intérieurs ont été proposées et étudiées. Contrairement à l'algorithme du simplexe dont les itérés sont des sommets du polyèdre convexe défini par les contraintes, appartenant donc à la frontière de ce polyèdre, les méthodes de points intérieurs (dans leur version admissible) génèrent des itérés dans l'intérieur relatif de l'ensemble admissible. Une des méthodes les plus couramment mises en œuvre est l'algorithme prédicteur-correcteur.

Comparaison des algorithmes du simplexe et de points intérieurs[modifier | modifier le code]

Le tableau suivant donne quelques éléments de comparaison entre l'algorithme du simplexe primal et les algorithmes de points intérieurs les plus couramment utilisés, ceux qui génèrent des itérés suivant un chemin central.

Comparaison des algorithmes du simplexe et de points intérieurs
Simplexe Points intérieurs
Auteur-initiateur Dantzig (vers 1947) Karmarkar (1984)
Concept de base sommet d'un polyèdre convexe chemin central
Itération d'un sommet à l'autre en suivant une arête d'un voisinage d'un point central à l'autre par un pas de Newton
Type de convergence finie infinie
Polynomialité probablement non polynomial, polynomial en moyenne polynomial : convergence à ε > 0 près en O(n1/2 log ε−1) itérations

Le but premier de ce tableau est de donner les grandes tendances des deux approches algorithmiques. Il manque certainement de nuance et de précision. On consultera les articles spécialisés[Lesquels ?][réf. nécessaire] sur ces algorithmes pour plus d'information.

Algorithmes pour problèmes de grande taille[modifier | modifier le code]

Dans le cas d'un grand nombre de variables et de contraintes, la résolution peut prendre beaucoup de temps. Dans certains cas, on peut accélérer la résolution en ne considérant pas toutes les données dès le départ (par exemple en ne prenant en compte qu'un sous-ensemble de contraintes) ou bien en profitant d'une forme particulière du problème. c'est ce que font les méthodes suivantes :

Applications[modifier | modifier le code]

L'optimisation linéaire est essentiellement appliquée pour résoudre des problèmes d'optimisation à moyen et long terme (problèmes stratégiques et tactiques, dans le vocabulaire de la recherche opérationnelle). Les domaines d'application de ces problèmes sont très nombreux aussi bien dans la nature des problèmes abordés (planification et contrôle de la production, distribution dans des réseaux) que dans les secteurs d'industrie : industrie manufacturière, énergie (pétrole, gaz, électricité, nucléaire), transports (aériens, routiers et ferroviaires), télécommunications, industrie forestière, finance.

Logiciels[modifier | modifier le code]

  • (en) AIMMS Optimization Modeling AIMMS — include linear programming in industry solutions (free trial license available);
  • (en) CGAL — The Computational Geometry Algorithms Library includes a linear solver, which is exact and optimized for problems with few constraints or few variables
  • (en) COIN-OR — COmputational INfrastructure for Operations Research, open-source library
  • (en) Cplex — Commercial library for linear programming
  • (en) Vanguard System Linear Programming Optimization Add-In
  • (en) GNU Linear Programming Kit, Bibliothèque libre GLPK (en) pour l'optimisation linéaire, méthode du simplex, de points intérieurs, …
  • (en) GIPALS — Linear programming environment and dynamic link library (DLL)
  • (en) HOPDM — Higher Order Primal Dual Method
  • (en) LINDO — LP, IP, Global solver/modeling langage
  • (en) LiPS — Free easy-to-use program intended for solving linear, integer and goal programming problems.
  • (en) « Linear programming and linear goal programming »(Archive.orgWikiwixArchive.isGoogleQue faire ?) A freeware program for MS-DOS
  • (en) MOSEK — Optimization software for LP, IP, QP, SOCP and MIP. Free trial is available. Free for students.
  • (en) Mathematica — General technical computing system includes large scale linear programming support
  • (en) Microarray Data Classification Server (MDCS) based on linear programming
  • (en) Optimj OptimJ is an extension of the Java programming langage with langage support for writing optimization models and powerful abstractions for bulk data processing.
  • (en) Orstat2000 — Includes easy-to-use modules for linear and integer programming (free for educational purposes).
  • (en) Premium Solver — Spreadsheet add-in
  • (en) QSopt Optimization software for LP (free for research purposes).
  • (en) R Logiciel libre de calcul statistique contenant des librairies additionnelles pour l'OL: glpk, linprog (simplex), Rglpk (interface R pour GPLK (en))
  • (fr) Scilab dispose de la commande karmarkar() permettant de résoudre un problème d'optimisation linéaire par l'algorithme de Karmarkar.
  • (en) Simplex Method Tool A quick-loading web page
  • (en) What's Best! — Spreadsheet add-in
  • (en) Xpress-MP — Optimization software free to students
  • (fr) IMSL — développements pour Fortran, C/C++, Java et C#
  • (en) Gurobi — Commercial Solver: Linear Programming (LP) and Mixed Integer Programming (MILP) as well as quadratic and quadratically constrained programming (QP, QCP, MIQP, and MIQCP).

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. On devrait dire affines.
  2. L'expression programmation mathématique tend à être abandonnée. Par exemple, en juin 2010, la société savante qui représente la discipline de l'optimisation mathématique a vu son nom antérieur Mathematical Programming Society changé en Mathematical Optimization Society[2].

Références[modifier | modifier le code]

  1. a et b (en) G. B. Dantzig, « Maximization of a linear function of variables subject to linear inequalities », dans T. C. Koopmans, Activity Analysis of Production and Allocation, New York, Wiley, , p. 339–347.
  2. « Welcome to the website of the Mathematical Optimization Society », sur Mathematical Optimization Society.

Annexes[modifier | modifier le code]

Sur les autres projets Wikimedia :

Bibliographie[modifier | modifier le code]

  • (en) J. F. Bonnans, J. Ch. Gilbert, C. Lemaréchal, C. Sagastizábal (2006). Numerical Optimization - Theoretical and Numerical Aspects, Spinger. [détail des éditions]
  • (en) K.-H. Borgwardt (1982). The average number of pivot steps required by the simplex-method is polynomial. Z. Oper. Res., (26), A157–A177.
  • (en) K.-H. Borgwardt (1987). The Simplex Method: A Probabilistic Analysis. Springer, Berlin.
  • (en) J. A. De Loera (2011). New insights into the complexity and geometry of linear optimization. Optima — Mathematical Optimization Society Newsletter 87.
  • Christelle Guéret, Christian Prins et Marc Sevaux, Programmation Linéaire, Eyrolles, 2000 (ISBN 2-212-09202-4), 365 pages.
  • Eric Jacquet-Lagrèze. Programmation Linéaire - Modélisation et mise en œuvre informatique. Collection : P.I.Q. Poche - Éditeur : Economica.
  • (en) V. Klee, G.L. Minty (1972). How good is the simplex algorithm ? In O. Shisha, éditeur, Inequalities III, pages 159–175. Academic Press, New York.
  • (en) N. Megiddo (1987). On the complexity of linear programming. In T. Bewley, éditeur, Advances in Economic Theory, pages 225–268. Cambridge Univ. Press, Cambridge.
  • (en) R. Shamir (1987). The efficiency of the simplex method: a survey. Management Science, 33, 301–334.
  • (en) S. Smale (1983). On the average number of steps of the simplex method of linear programming. Mathematical Programming, 27, 241–262.
  • (en) T. Terlaky, S. Zhang (1993). Pivot rules for linear programming – a survey. Annals of Operations Research, 46, 203–233.

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]