Calcul des variations

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En mathématiques, et plus précisément en analyse fonctionnelle, le calcul des variations (ou calcul variationnel) est un ensemble de méthodes permettant de minimiser une fonctionnelle. Celle-ci, qui est à valeurs réelles, dépend d'une fonction qui est l'inconnue du problème. Il s'agit donc d'un problème de minimisation dans un espace fonctionnel, de dimension infinie. Le calcul des variations s'est développé depuis le milieu du dix-huitième siècle jusqu'aujourd'hui ; son dernier avatar est la théorie de la commande optimale, datant de la fin des années 1950. Le calcul des variations a des applications dans de nombreux domaines :

  1. L'inconnue étant une courbe paramétrée, on recherche une courbe de longueur minimale (ou extrémale), autrement dit une géodésique ; c'est une question fondamentale en géométrie différentielle.
  2. L'inconnue étant une surface, on recherche, pour un périmètre donné, la surface d'aire maximale (problème d'isométrie).
  3. En physique, le principe de moindre action affirme que les mouvements d'un système matériel se produisent de manière, sinon à minimiser l'action, du moins à rendre celle-ci stationnaire. Ces mouvements peuvent donc être déterminés en minimisant ou en rendant stationnaire cette fonctionnelle, ce qui fait du calcul des variations un outil fondamental pour les physiciens (formulation variationnelle des équations de la physique).
  4. Une condition nécessaire d'extremum (ou plus généralement de stationnarité) de la fonctionnelle est l'équation d'Euler-Lagrange. Or il arrive que le but qu'on se propose soit précisément la résolution de cette équation ; quand cette résolution est très difficile dans une approche directe, il peut être commode de formuler le problème variationnel qui lui correspond : la résolution de celui-ci fournit la solution de celle-là.

Historique[modifier | modifier le code]

On peut faire remonter les principes variationnels à Pierre de Fermat (1657) et Christian Huygens (1690) pour l'étude de la propagation de la lumière (principe de Fermat et principe de Huygens-Fresnel). Néanmoins, le calcul des variations est né en 1696, avec le problème de la courbe brachistochrone, posé par Jean Bernoulli ; il s’agit d’un problème de temps minimal (comme l’indique la racine grecque : « βραχιστος (brachistos) », « le plus court » ; « χρονος (chronos) », « temps »). Ce problème fut résolu par Jean et Jacques Bernoulli, Gottfried Wilhelm Leibniz, Isaac Newton, Guillaume François Antoine de l'Hospital et Ehrenfried Walther von Tschirnhaus. La solution de Jacques Bernoulli se fondait sur le principe d'Huygens et l'idée du front d'onde ; elle préfigurait l'équation de Hamilton-Jacobi. Celle de Jean Bernoulli était fondée sur une analogie avec la propagation de la lumière et le principe de Fermat, ainsi que la loi de Descartes. Celle de Leibniz, enfin, était fondée sur l'approximation de la courbe par des lignes brisées et était le premier pas vers l'équation d'Euler-Lagrange[1]. Le second pas a été accompli par Euler, élève de Jean Bernoulli : Euler a ébauché à partir de considérations géométriques la méthode des « petites variations » ; vers le milieu du dix-huitième siècle Joseph-Louis Lagrange a donné sa forme actuelle à la solution d'Euler. Adrien-Marie Legendre a complété l'équation d'Euler-Lagrange, qui est une condition du premier ordre, par la condition du second ordre qui porte son nom. Ces résultats ont été rassemblés par Lagrange dans sa Théorie des fonctions analytiques, parue en 1797. Il revenait à Karl Weierstrass, en 1879, de définir la notion d'extremum fort et d'établir la condition qui porte son nom. Les travaux Charles Gustave Jacob Jacobi et William Rowan Hamilton, contemporains de ceux de Weierstrass, ont permis de donner sa forme définitive à la solution de Jacques Bernoulli déjà mentionnée[2]. Les principaux résultats du calcul des variations classique avaient dès lors été obtenus.

Néanmoins, Paul David Gustave du Bois-Reymond, Adolf Kneser, Christian Gustav Adolph Mayer (en) et David Hilbert ont apporté des compléments substantiels peu avant le tournant du vingtième siècle[3], Hilbert ayant notamment résolu le problème de Dirichlet - le problème de calcul de variations à intégrales multiples le plus célèbre. Ont suivi, au début du vingtième siècle, William Fogg Osgood (en), Emmy Noether, Oskar Bolza (en), Constantin Carathéodory[4], Élie Cartan, Jacques Hadamard, ainsi que George David Birkhoff et surtout son élève Marston Morse[5] (lequel avait également suivi les leçons d'Osgood et avait été très influencé par le livre de Bolza)[3]. La théorie de Morse a été généralisée par Richard Palais (en) et Stephen Smale en 1964 (condition de compacité de Palais-Smale (en))[6],[7]. Le calcul des variations a connu un profond renouveau dans les années 1950 avec le développement de la théorie de la commande optimale, sous l'impulsion de Lev Pontriaguine[8] et Richard Bellman[9],[10]. Le formalisme de Pontryagin et de Bellman est une extension et une amélioration du formalisme hamiltonien classique, et clarifie la formulation de Carathéodory[11]. On peut encore mentionner les contributions, postérieures à 1960, de Jacques-Louis Lions, Ivar Ekeland, Jean-Pierre Aubin (de) et Frank H. Clarke[12],[13]. Le calcul des variations reste en mathématiques un domaine fort actif. Les mathématiciens qui ont contribué à son développement sont extrêmement nombreux (ils comprennent en fait la plupart des grands noms du dix-neuvième siècle et du début du vingtième, et même le célèbre philosophe Edmund Husserl, élève des mathématiciens Leo Königsberger, Leopold Kronecker et surtout Karl Weierstrass ; Husserl a soutenu en 1883 sa thèse Beiträge zur Variationsrechnung). N'ont été mentionnés plus haut que certains parmi les plus notables de ces mathématiciens.

Un domaine d'application important du Calcul des variations est l'étude des géodésiques sur une variété munie d'une connexion affine, et plus particulièrement des géodésiques minimales dans un espace de Riemann[14] (ou sur une variété pseudo-riemanienne, comme celle de la Relativité générale). L'étude locale des géodésiques minimales sur une surface a été réalisée, à la suite de Carl Friedrich Gauss, par Jacobi en 1836 (il a introduit à cette occasion la notion de point conjugué) et Pierre-Ossian Bonnet (qui a démontré le résultat que Jacobi avait énoncé sans démonstration)[15]. Ces travaux ont été complétés par Kneser, Tullio Levi-Civita et Elie Cartan (ce dernier ayant donné de l'équation géodésique sa forme intrinsèque[16]). Le problème global n'a cessé d'être à l'ordre du jour et a donné naissance à la théorie de Morse, déjà évoquée.

Problèmes fondamentaux du calcul des variations[modifier | modifier le code]

Problème à extrémités fixes[modifier | modifier le code]

C'est le problème le plus simple, parfois appelé problème de Lagrange. Soit [t_0,t_f] un intervalle de la droite réelle et \Omega un voisinage ouvert de l'origine dans un espace vectoriel normé \mathbf{X} qu'on peut supposer de dimension finie. Soit d'autre part

\mathcal L: [t_0,t_f]\times\Omega \times \Omega   \rightarrow \R : (t,x,u) \mapsto \mathcal L(t,x,u)

une fonction appelée lagrangien, supposée continûment différentiable (en abrégé : de classe \mathcal C^1) ainsi que sa différentielle partielle \frac{\partial \mathcal L}{\partial u}. Le problème de Lagrange consiste à déterminer (si elle existe) une fonction suffisamment régulière x : t \mapsto x(t) telle que x(t_0)=x_0 et x(t_f)=x_f, où x_0 et x_f sont des points fixés de \Omega, et minimisant la quantité, appelée critère,

J(x)=\int_{t_0}^{t_f}\mathcal{L}\left(t, x(t),\dot{x}\left( t\right) \right) dt.

Problème à extrémités variables[modifier | modifier le code]

Nous considérons maintenant un problème plus général où la bornes d'intégration t_0 et t_f, non plus que les points x_0 et x_f, ne sont plus fixés. La quantité à minimiser est

J(x)=K(t_0,x_0,t_f,x_f)+\int_{t_0}^{t_f}\mathcal{L}\left(t, x(t),\dot{x}\left( t\right) \right) dt

avec les contraintes (t_0,x_0) \in \mathcal V_0, (t_f,x_f) \in \mathcal V_f, où \mathcal V_0 et \mathcal V_f sont des sous-variétés de \mathcal I \times \Omega_1, \mathcal I désignant un intervalle compact de la droite réelle. La fonction \mathcal L vérifie les mêmes hypothèses que ci-dessus et la fonction K est continûment différentiable.

Le critère ci-dessus est mixte (du fait de la présence du terme K(t_0,x_0,t_f,x_f)) et le problème correspondant est appelé le problème de Bolza. On se ramène au cas d'un critère intégral (problème de Lagrange avec extrémités variables) en définissant une inconnue supplémentaire y telle que \dot y=0 et y\left( t_{f}\right) =\frac{1}{t_{f}-t_{0}}K\left(t_0,x_0, t_{f},x_{f}\right) , puisque alors J=J(x,y)

J\left( x,y\right) =\int_{t_{0}}^{t_{f}}\left( \mathcal{L}\left( t,x(t),\dot{x}(t)\right) +y(t)\right) dt.

On peut aussi se ramener au cas d'un problème de la forme

J(\hat x)=\hat K\left(t_0,\hat x_0,t_f, \hat x_f\right)

(problème de Mayer) en posant \dot z = \mathcal L\left(t,x,\dot x\right), \hat x_0=\left( x_0,z_0\right), \hat x_f=\left( x_f,z_f\right) et

\hat K\left(t_0,\hat x_0,t_f, \hat x_f\right)=K\left(t_0,x_0,t_f,x_f\right)+z_f-z_0.

Minimum faible et minimum fort[modifier | modifier le code]

Si, dans ce qui précède, on recherche des minima globaux, le problème est en général sans solution. On est donc conduit à rechercher des minima locaux. Par définition, x^\ast minimise localement J(x) si J(x)-J(x^\ast) \ge 0 pour toute fonction suffisamment régulière x dans un voisinage suffisamment petit de x^\ast. Encore faut-il préciser quel type de régularité on impose à x^\ast et, puisqu'on a ici affaire à un problème en dimension infinie, par quelle norme on définit les voisinages de 0.

Une première possibilité consiste à imposer à x^\ast d'être de classe \mathcal C^1, c'est-à-dire continûment dérivable, donc d'appartenir à l'espace \mathcal C^1\left(\mathcal I,\Omega\right) des fonctions continûment dérivables de \mathcal I dans \Omega. On peut munir cet espace de la norme

\left\Vert x\right\Vert _{1}=\sup\limits_{t\in \mathcal{I}}\left(
\left\Vert x(t)\right\Vert +\left\Vert \dot{x}(t)\right\Vert \right)

qui en fait un espace de Banach qu'on notera \mathcal E^1.

Une autre possibilité consiste à imposer seulement à x^\ast d'être continûment dérivable par morceaux, c'est-à-dire continue, et ayant une dérivée continue sauf en un nombre fini de points, et ayant en ces points une dérivée à gauche et une dérivée à droite. Soit K\mathcal C^1\left(\mathcal I,\Omega\right) l'espace des fonctions continues par morceaux de \mathcal I dans \Omega. On peut munir cet espace de la norme

\left\Vert x\right\Vert _{0}=\sup\limits_{t\in \mathcal{I}}\left(
\left\Vert x(t)\right\Vert \right)

qui en fait un espace vectoriel normé, non complet, qu'on notera \mathcal E^0.

Définition — Un minimum local de J sur \mathcal E^1 (resp. \mathcal E^0) est appelé un minimum local faible (resp. fort).

On montre que, sous les hypothèses qui ont été précisées, la fonction J : x \mapsto J(x) est différentiable sur \mathcal E^1, mais non sur \mathcal E^0. Il s'ensuit que la minimisation faible relève du calcul différentiel classique dans un espace de Banach, ce qui n'est pas le cas de la minimisation forte. La minimisation forte est donc un problème plus difficile que la minimisation faible.

Notons qu'une fonction continûment dérivable qui fournit un minimum local fort fournit nécessairement un minimum local faible. Par suite, une condition nécessaire de minimum local fort (pour une fonction continûment dérivable) est également une condition nécessaire de minimum local faible.

Problèmes isopérimétriques[modifier | modifier le code]

Ces problèmes consistent à minimiser un critère J_0(x) sous les contraintes J_i(x)=0 (i=1,...,m) avec

J_i(x)=\int_{t_0}^{t_f}\mathcal{L}_i\left(t, x(t),\dot{x}\left( t\right) \right) dt,

toutes les fonctions \mathcal{L}_i (i=0,...,m) vérifiant les mêmes hypothèses que la fonction \mathcal L ci-dessus.

Problèmes à plusieurs variables[modifier | modifier le code]

Soit D un sous-ensemble compact connexe de \mathbb R^n et

J\left( u\right) =\int_{D}\mathcal{L}\left(x, u,\frac{\partial u}{\partial x
}\right) dx,

x étant la variable (plus haut notée t), u=(u_1, ..., u_m) la fonction inconnue (plus haut notée x), \frac{\partial u}{\partial x} sa différentielle, et dx=dx_1 ... dx_n la mesure de Lebesgue. Le problème considéré ici consiste à déterminer, si elle existe, une fonction continûment différentiable u : x \mapsto u(x) qui minimise J\left( u\right) . L'ensemble D peut être fixe ou variable.

Formalisme Lagrangien[modifier | modifier le code]

Condition du premier ordre[modifier | modifier le code]

Considérons le problème de Lagrange à extrémités fixes. Soit \varepsilon \delta x un accroissement de x, où \delta x est une fonction continûment dérivable telle que \delta x(t_0)=\delta x(t_f)=0 et \varepsilon >0 est un nombre réel. Il en résulte un accroissement \varepsilon\delta J(x) de J(x), en négligeant les termes du second ordre en \varepsilon pour \varepsilon tendant vers 0. En effet, un développement limité au premier ordre donne

J\left( x+\varepsilon \delta x\right) =J\left( x\right) +\varepsilon \delta
J\left( x\right) +o\left( \varepsilon \right)

\delta J(x)=DJ(x)\delta x ; ici DJ(x) \in L(\mathcal E^1; \R), où  L(\mathcal E^1; \R)= (\mathcal E^1)^\prime est l'espace des formes linéaires continues sur \mathcal E^1, désigne la différentielle de J au point x (on peut montrer de manière rigoureuse que cette différentielle existe[17]). Pour que x^\ast minimise J(x), il est donc nécessaire que soit vérifiée la condition d'Euler (condition du premier ordre, ou de stationnarité de J) \delta J(x^\ast)=0. Or on a

\delta J\left( x\right) =\int_{t_{0}}^{t_{f}}\left( \frac{\partial \mathcal{
L}}{\partial x}\delta x+\frac{\partial \mathcal{L}}{\partial \dot{x}}\delta 
\dot{x}\right) dt.

Il est nécessaire que \delta J(x^\ast)=0 pour tout accroissement continûment dérivable \delta x. Ceci conduit au théorème suivant :

Équation d'Euler-Lagrange — Une condition nécessaire pour que J(x^\ast) soit minimum (ou maximum) local faible est qu'au point x^\ast J soit stationnaire, c'est-à-dire que \delta J(x^\ast)=0. Cette condition est satisfaite si, et seulement si x^\ast est solution de l'équation d'Euler-Lagrange

(EL)
\frac{\partial \mathcal{L}}{\partial x}\left( t,x^{\ast }\left( t\right) ,
\dot{x}^{\ast }\left( t\right) \right) -\frac{d}{dt}\left( \frac{\partial 
\mathcal{L}}{\partial \dot{x}}\left( t,x^{\ast }\left( t\right) ,\dot{x}
^{\ast }\left( t\right) \right) \right) =0
.

Une fonction continûment dérivable solution de l'équation d'Euler-Lagrange est appelée une extrémale.

Application : voir le § Géodésiques d'une variété pseudo-riemanienne.

Remarques[modifier | modifier le code]

(1) L'intégration par parties effectuée dans la démonstration qui précède quand on utilise le Lemme fondamental du calcul des variations n'est licite que si la fonction t \mapsto\frac{\partial \mathcal{L}}{\partial \dot{x}}\left( t,x^{\ast }\left( t\right) ,\dot{x}
^{\ast }\left( t\right) \right) est de classe \mathcal C^1, ce qui n'est vérifié que si x^\ast est de classe \mathcal C^2 puisque \dot{x}^\ast soit être de classe \mathcal C^1. C'est pourquoi l'utilisation du Lemme de du Bois-Reymond, pour lequel il suffit de supposer x^\ast de classe \mathcal C^1, est une meilleure méthode.

(2) Pour que la fonction x^\ast \in \mathcal E^0 fournisse un minimum local fort, il est encore nécessaire, comme on le verra plus loin, qu'elle soit solution de l'équation d'Euler-Lagrange dans chaque intervalle dans lequel elle est continûment dérivable.

Cas des problèmes isopérimétriques[modifier | modifier le code]

On introduit des multiplicateurs de Lagrange \lambda_i (i=0,1,...,n)\lambda_0 \in \left\{0,1\right\}, et on forme la quantité (appelée Lagrangien, mais dans un sens qui n'est pas à confondre avec le précédent, d'où la majuscule employée)

J\left( x\right) =\sum\limits_{i=0}^{m}\lambda
_{i}J_{i}\left( x\right) =\int_{t_{0}}^{t_{f}}\mathcal{L}\left( t,x(t),\dot{x
}\left( t\right) \right) dt

avec

\mathcal{L}\left( t,x,u\right) =\sum\limits_{i=0}^{m}\lambda _{i}\mathcal{L}_{i}\left( t,x,u\right) .

Une condition nécessaire pour que x^\ast soit solution du problème isométrique est qu'il existe des multiplicateurs de Lagrange comme ci-dessus, non tous nuls, tels que x^\ast rende stationnaire J(x)[18]. Cette stationnarité équivaut à la satisfaction de la même équation d'Euler-Lagrange que plus haut.

Application : voir le § Problème de Didon.

Remarque[modifier | modifier le code]

Si les différentielles D_iJ(x^\ast) dont linéairement indépendantes, on a nécessairement \lambda_0=1 : c'est alors la formulation classique du théorème des multiplicateurs de Lagrange.

Cas du problème à plusieurs variables[modifier | modifier le code]

Avec les notations introduites lors de la position du problème, la condition nécessaire et suffisante de stationnarité est constituée par les m équations d'Euler-Lagrange[19], parfois appelées équations d'Ostrogradski, obtenues en utilisant le théorème de Stokes

\frac{\partial \mathcal{L}}{\partial u_{j}}-\sum\limits_{i=1}^{n}\frac{
\partial }{\partial x_{i}}\left( \frac{\partial \mathcal{L}}{\partial \left( 
\frac{\partial u_{j}}{\partial x_{i}}\right) }\right) =0
(j=1,...,m).

Les fonctions u vérifiant ces conditions sont de nouveau appelées extrémales.

Application : voir le § Intégrale de Dirichlet.

Conditions du second ordre de minimum faible[modifier | modifier le code]

Désormais nous considérons le problème de Lagrange et nous supposons \mathcal L de classe \mathcal C^2, ainsi que ses différentielles partielles \frac{\partial \mathcal L}{\partial x} et \frac{\partial \mathcal L}{\partial \dot x}, et \mathbf{X} de dimension finie. On recherche dans ce paragraphe une des conditions du second ordre de minimum local faible.

Seconde variation[modifier | modifier le code]

Soit x^\ast une extrémale, pour laquelle on a donc, par définition, \delta J(x^\ast)=0, et faisons un développement limité au second ordre de J(x^\ast+\varepsilon \delta x). Sous l'hypothèse ci-dessus, la différentielle seconde D^2J(x^\ast)\in L_2(\mathcal E^1;\R) de J existe au point x^\ast (où L_2(\mathcal E^1;\R) est l'espace des formes bilinéaires continues sur \mathcal E^1 \times \mathcal E^1) et

J(x^\ast+\varepsilon \delta x)=J(x^\ast)+ \varepsilon^2 \delta^2 J(x^\ast)+o(\varepsilon^2)

\delta^2 J(x^\ast)=\frac{1}{2} D^2J(x^\ast).(\delta x, \delta x). La quantité \delta^2 J(x^\ast) est appelée la seconde variation de J au point x^\ast. Il vient

\delta ^{2}J(x^{\ast })=\frac{1}{2}\int_{t_{0}}^{t_{f}}\left( \frac{
\partial ^{2}\mathcal{L}}{\partial x^{2}}.\left( \delta x,\delta x\right) +2
\frac{\partial ^{2}\mathcal{L}}{\partial x\partial \dot{x}}\left( \delta 
\dot{x},\delta x\right) +\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}
}.\left( \delta \dot{x},\delta \dot{x}\right) \right) dt

où pour abréger on a écrit \frac{\partial ^{2}\mathcal{L}}{\partial x^{2}} pour \frac{
\partial ^{2}\mathcal{L}}{\partial x^{2}}(t,x^\ast(t),\dot x^\ast(t), etc. En intégrant les second terme par parties on obtient

\delta ^{2}J(x^{\ast })=\frac{1}{2}\int_{t_{0}}^{t_{f}}\left( \frac{
\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}}.\left( \delta \dot{x},\delta 
\dot{x}\right) +\left( \frac{\partial ^{2}\mathcal{L}}{\partial x^{2}}-\frac{
d}{dt}\left( \frac{\partial ^{2}\mathcal{L}}{\partial x\partial \dot{x}}
\right) \right) \left( \delta x,\delta x\right) \right) dt, soit donc
\delta ^{2}J(x^{\ast })=\frac{1}{2}\int_{t_{0}}^{t_{f}}\left( P(t).\left(
\delta \dot{x},\delta \dot{x}\right) +Q(t).\left( \delta x,\delta x\right)
\right) dt avec
P(t)=\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}}\left( t,x^{\ast
}\left( t\right) ,\dot{x}^{\ast }\left( t\right) \right) ,
Q(t)=\frac{\partial ^{2}\mathcal{L}}{\partial x^{2}}\left( t,x^{\ast }\left(
t\right) ,\dot{x}^{\ast }\left( t\right) \right) -\frac{d}{dt}\left( \frac{
\partial ^{2}\mathcal{L}}{\partial x\partial \dot{x}}\left( t,x^{\ast
}\left( t\right) ,\dot{x}^{\ast }\left( t\right) \right) \right) .

Condition de Legendre[modifier | modifier le code]

La quantité \delta ^{2}J(x^{\ast }) doit être non négative pour tout accroissement \delta x de classe \mathcal C^1 tel que \delta x(t_0)=\delta x(t_f)=0. On montre assez facilement[20] qu'une condition nécessaire pour qu'il en soit ainsi est que la forme bilinéaire symétrique P(t) (définissant le premier terme de l'intégrale ci-dessus) soit semi-définie positive, ce qu'on écrira sous la forme P(t) \ge 0 : c'est la condition faible de Legendre.

Condition de Jacobi[modifier | modifier le code]

Reste que les deux termes de l'intégrale \delta ^{2}J(x^{\ast }) doivent être considérés simultanément. Si \delta x est la fonction nulle, il est clair que \delta ^{2}J(x^{\ast })=0. Par conséquent, cette fonction nulle doit minimiser \delta ^{2}J(x^{\ast }), avec les conditions aux limites \delta x(t_0)=\delta x(t_f)=0, dans un voisinage de 0 dans \mathcal E^1 (« problème de minimisation secondaire »). Ceci conduit à étudier l'équation d'Euler-Lagrange (EL) associée à ce problème secondaire. Il s'agit de l'équation de Jacobi

(J):: Q(t).\delta x-\frac{d}{dt}\left( P(t).\delta \dot{x}\right) =0.

Définition — Un point \tau\in \left] t_{0},t_{f}\right] est dit conjugué à t_0 si l'équation de Jacobi (J) admet une solution \bar{\delta x} telle que \bar{\delta x}(t_0)=\bar{\delta x}(\tau)=0 et P(\tau) \dot {\bar{\delta x}}\left( \tau \right ) \neq 0 (dans le cas, fréquemment rencontré, où \det P(\tau) \neq 0, cette dernière condition équivaut à \dot {\bar{\delta x}}\left( \tau \right ) \neq 0 ; c'est la situation qui a été envisagée par Jacobi).

S'il existe un point conjugué à t_0 dans l'intervalle \left]t_0,t_f\right[, il existe une solution non nulle \bar{\delta x} rendant stationnaire \delta ^{2}J(x^{\ast }). Alors pour tout \varepsilon >0, \varepsilon \bar{\delta x} rend stationnaire \delta ^{2}J(x^{\ast }). Si la condition forte de Legendre P(t)>0 est vérifiée, étant donné que l'intégrande P(t).\left(
\delta \dot{x},\delta \dot{x}\right) +Q(t).\left( \delta x,\delta x\right)
de \delta ^{2}J(x^{\ast }) est quadratique en \left(\delta x,\delta \dot x\right), \varepsilon \bar{\delta x} donne un minimum local faible strict pour \delta ^{2}J(x^{\ast }), donc \delta x=0 ne minimise pas localement faiblement \delta ^{2}J(x^{\ast }). Weierstrass a obtenu en 1877 le théorème suivant[21] :

Théorème de Jacobi-Weierstrass —  (A) Une condition nécessaire pour que x^\ast donne un minimum local faible pour le problème de Lagrange à extrémités fixes est que

(1) L'équation d'Euler-Lagrange (EL) soit vérifiée, ainsi que les conditions aux limites x^\ast(t_0)=x_0, x^\ast(t_f)=x_f ;

(2) La condition faible de Legendre P(t) \ge 0, \forall t \in \left[t_0,t_f\right] soit vérifiée ;

(3) La condition faible de Jacobi soit satisfaite : « Il n'y a pas de point conjugué à t_0 dans l'intervalle \left]t_0,t_f\right[ ».


(B) Une condition suffisante pour que x^\ast donne un minimum local faible strict pour le problème de Lagrange à extrémités fixes est que

(1') La condition (1) ci-dessus soit satisfaite ;

(2') La condition forte de Legendre P(t) > 0, \forall t \in \left[t_0,t_f\right] (où P(t)>0 signifie que la forme bilinéaire symétrique P(t) est définie positive) soit vérifiée ;

(3') La condition forte de Jacobi soit satisfaite : « Il n'y a pas de point conjugué à t_0 dans l'intervalle \left]t_0,t_f\right] ».

Application : voir le § Principe de l'action stationnaire.

Conditions de minimum fort[modifier | modifier le code]

Considérons de nouveau le problème de Lagrange à extrémités fixes, en supposant \mathcal L de classe C^2, mais cherchons cette fois un minimum local fort. Définissons en fonction du lagrangien \mathcal L(t,x,u) la fonction de Weierstrass ou « excessus »

\mathcal{E}\left( t,x,u;w\right) =\mathcal{L}\left( t,x,w\right) -\mathcal{L
}\left( t,x,u\right) -\frac{\partial \mathcal{L}}{\partial u}\left(
t,x,u\right). \left( w-u\right) .

La condition nécessaire de Weierstrass peut s'obtenir soit directement, grâce aux « variations en aiguille » introduites par Weierstrass[22], soit, comme on va le voir plus loin, comme une conséquence du principe du maximum de la commande optimale.

Condition nécessaire de minimum fort —  Pour que x^\ast \in \mathcal C^1\left(\left[ t_0,t_f \right],\Omega\right) fournisse un minimum local fort, il faut que les conditions nécessaires (1), (2), (3) de minimum faible du théorème de Jacobi soient satisfaites, ainsi que la condition faible de Weierstrass : pour tout t\in[t_0,t_f],

\mathcal{E}\left( t,x^\ast(t),\dot x^\ast(t);w\right)\ge 0, \forall w \in \mathbf{X}
.

La condition suffisante de Weierstrass est fondée sur la notion de « champ d'extrémales » et l'« invariant intégral de Hilbert »[23]. Le résultat final s'exprime toutefois sans ces notions de la manière suivante[24] :

Condition suffisante de minimum fort —  Soit x^\ast \in \mathcal C^1\left(\left[ t_0,t_f \right],\Omega\right), \Gamma =\left\{ t,x^{\ast }\left( t\right) ,\dot{x}^{\ast }\left( t\right)
:t\in \left[ t_{0},t_{f}\right] \right\}, et V un voisinage de \Gamma dans \mathcal I \times \mathbf{X} \times \mathbf{X}. Pour que x^\ast fournisse un minimum local fort, il suffit que les conditions suffisantes (1'), (2'), (3') de minimum faible du théorème de Jacobi-Weierstrass soient satisfaite, ainsi que la condition forte de Weierstrass :

\mathcal{E}\left( t,x,;w\right)\ge 0, \forall (t,x,u,w) : (t,x,u) \in V, (t,x,w) \in V.

Si de plus \mathcal{E}\left( t,x,u;w\right)> 0 pour w \ne u, ce minimum est strict.

La formule de Taylor d'ordre 2 avec reste de Lagrange s'écrit

\mathcal{L}(t,x,u+h)=\mathcal{L}(t,x,u)+\frac{\partial \mathcal{L}}{
\partial u}\left( t,x,u\right) .h+\frac{\partial ^{2}\mathcal{L}}{\partial
u^{2}}\left( t,x,u+\theta h\right) .\left( h,h\right)  \theta \in \left]0,1\right[ .

En prenant \theta = w-u, on voit donc que la condition forte de Weierstrass est satisfaite si

\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}}\left( t,x,u\right) \geq 0, \forall (t,x,u) \in V.

De plus, \mathcal{E}\left( t,x,u;w\right)> 0 (w \ne u) si \frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}}\left( t,x,u\right) > 0, \forall (t,x,u) \in V.

Formalisme hamiltonien[modifier | modifier le code]

On considère à présent le problème à extrémités variables. Il suffit, comme on l'a vu, de considérer le problème de Lagrange, puisque celui de Bolza s'y ramène (cela simplifie les conditions de transversalité ci-dessous). Les fonctions \mathcal L et \frac{\partial \mathcal{L}}{\partial \dot{x}} sont supposées continûment différentiables et \mathbf{X} est supposé de dimension finie.

Pseudo-hamiltonien et principe du maximum[modifier | modifier le code]

On appelle pseudo-hamiltonien la fonction

\mathcal{H}:\mathcal{I}\times\Omega\times \mathbf{X}\times
\mathbf{X}^{\prime}\rightarrow \mathbb{R}

(où \mathbf{X}^{\prime} est le dual de \mathbf{X}) définie par

\mathcal{H}\left( t,x,u,p^{\prime }\right) =\left\langle p^{\prime
}|u \right\rangle -\mathcal L\left( t,x,u\right).

(où \left\langle . | .\right\rangle est le crochet de dualité).

Le dual de \mathbb{R}\times\mathbf{X} est identifié avec \mathbb{R}\times\mathbf{X}^\prime. Soit les deux équations canoniques de Hamilton

\dot{x}^{\ast }=\frac{\partial \mathcal{H}}{\partial p^{\prime }}\left(
t,x^{\ast },u^{\ast },p^{\prime \ast }\right),
\dot{p}^{\prime \ast }=-\frac{\partial \mathcal{H}}{\partial x}\left( t,x^{\ast
},u^{\ast },p^{\prime \ast }\right) .

Notons T_{\left( t_{f}^{\ast },x_{f}^{\ast }\right) }\left( \mathcal{V}_{f}\right) l'espace tangent à la variété \mathcal{V}_{f} au point \left( t_{f}^{\ast },x_{f}^{\ast }\right) et N_{\left( t_{f}^{\ast },x_{f}^{\ast }\right) }\left( \mathcal{V}
_{f}\right) l'orthogonal de T_{\left( t_{f}^{\ast },x_{f}^{\ast }\right) }\left( \mathcal{V}_{f}\right) dans \mathbb{R}\times\mathbf{X}^\prime, c'est-à-dire l'ensemble des formes linéaires continues k^{\prime }\in\mathbb{R}\times\mathbf{X}^\prime telles que \left\langle k^{\prime } | h\right\rangle =0,\forall h\in T_{\left(t_{f}^{\ast },x_{f}^{\ast }\right) }\left( \mathcal{V}_{f}\right). On définit de même T_{\left( t_{0}^{\ast },x_{0}^{\ast }\right) }\left( \mathcal{V}_{0}\right) et N_{\left( t_{0}^{\ast },x_{0}^{\ast }\right) }\left( \mathcal{V}
_{0}\right)

On appelle conditions de transversalité les relations

\left (-\mathcal{H}\left( t_{f}^{\ast },x_{f}^{\ast
},u^{\ast }\left( t_{f}^{\ast }\right) ,p^{\prime \ast
}\left( t_{f}^{\ast }\right) \right) , p^{\prime \ast }\left(
t_{f}^{\ast }\right) \right) \in N_{\left( t_{f}^{\ast },x_{f}^{\ast }\right)
}\left( \mathcal{V}_{f}\right) ,
\left (-\mathcal{H}\left( t_{0}^{\ast },x_{0}^{\ast
},u^{\ast }\left( t_{0}^{\ast }\right) ,p^{\prime \ast
}\left( t_{0}^{\ast }\right) \right) , p^{\prime \ast }\left(
t_{0}^{\ast }\right) \right) \in N_{\left( t_{0}^{\ast },x_{0}^{\ast }\right)
}\left( \mathcal{V}_{0}\right) ,

La première d'entre elles est justifiée plus loin. Le résultat suivant est une conséquence du principe du maximum de la commande optimale[25] :

Principe du maximum du calcul des variations — Pour que x^\ast fournisse un minimum local fort, il est nécessaire qu'il existe un vecteur adjoint p^{\prime \ast }\in KC^1\left( \mathcal{I};\mathbf{X}^\prime\right) pour lequel les deux équations canoniques et les conditions de transversalité soient satisfaites, que la fonction t\mapsto \mathcal{H}\left( t,x^{\ast }\left( t\right) ,u^{\ast }\left(
t\right) ,p^{\prime \ast }\left( t\right) \right) soit continue, et que le principe du maximum

\mathcal{H}\left( t,x^{\ast }\left( t\right) ,\dot x^{\ast }\left( t\right)
,p^{\prime \ast }\left( t\right) \right) \geq \mathcal{H}
\left( t,x^{\ast }\left( t\right) ,u,p^{\prime \ast }\left(
t\right) \right) ,\forall u\in \mathbf{X}

soit vérifié en tout point t\in \left[ t_{0}^{\ast },t_{f}^{\ast }\right] auquel x^\ast est continûment dérivable[26]. On a en tout point où \dot x^\ast et p^{\prime \ast } sont continues (donc sauf en un nombre fini de points) l'égalité (E) :

\frac{d}{dt}\mathcal{H}\left( t,x^{\ast }\left( t\right) ,\dot x^{\ast }\left(
t\right) ,\lambda ^{\ast },p^{\prime \ast }\left( t\right) \right) =\frac{
\partial }{\partial t}\mathcal{H}\left( t,x^{\ast }\left( t\right) ,\dot x^{\ast
}\left( t\right) ,p^{\prime \ast }\left( t\right) \right)

et en particulier, si le pseudo-hamiltonien \mathcal{H} ne dépend pas explicitement du temps,

\mathcal{H}\left( x^{\ast }\left( t\right) ,\dot x^{\ast }\left( t\right)
,p^{\prime \ast }\left( t\right) \right) =C^{te}
.

Cas particuliers[modifier | modifier le code]

Nous supposons maintenant que la variété \mathcal{V}_{f} soit de la forme \mathcal{T}_{f}\times \mathcal{X}_{f}\mathcal{T}_{f} et \mathcal{X}_{f} sont des sous-variétés de \mathcal{\mathbb{R}} et de \mathbf{X}, respectivement. L'équation de transversalité s'écrit donc

(a) \mathcal{H}\left( t_{f}^{\ast },x_{f}^{\ast
},\dot x^{\ast }\left( t_{f}^{\ast }\right) ,p^{\prime \ast
}\left( t_{f}^{\ast }\right) \right) \in N_{t_{f}^{\ast }}\left( \mathcal{T}
_{f}\right),
(b) p^{\prime \ast }\left( t_{f}^{\ast }\right)
\in N_{t_{f}^{\ast }}\left( \mathcal{X}_{f}\right).

Dans le cas d'un instant final libre, on a \mathcal{T}_{f}=\mathcal{\mathbb{R}}, par conséquent N_{t_{f}^{\ast }}\left( \mathcal{T}_{f}\right)=0 et (a) devient

(a') \mathcal{H}\left( t_{f}^{\ast },x_{f}^{\ast
},\dot x^{\ast }\left( t_{f}^{\ast }\right) ,p^{\prime \ast
}\left( t_{f}^{\ast }\right) \right)=0

alors que dans le cas d'un instant final fixé, \mathcal{T}_{f}=\left\{ t_{f}\right\} et N_{t_{f}^{\ast }}\left( \mathcal{T}_{f}\right) =\left\{ 0\right\}, donc (a) est trivialement vérifiée. Dans les deux cas on a une équation: (a') dans le premier, t_{f}^{\ast }=t_{f} dans le second.

Dans le cas d'un état final libre, on a \mathcal{X}_{f}=\mathbf{X}, par conséquent N_{x_{f}^{\ast }}\left( \mathcal{X}_{f}\right)=0 et (b) devient

(b') p^{\prime \ast }\left( t_{f}^{\ast }\right) =0.

Dans le cas d'un état final fixé, \mathcal{X}_{f}=\left\{ x_{f}\right\} et N_{x_{f}^{\ast }}\left( \mathcal{X}_{f}\right) =\left\{ 0\right\}, donc (b) est trivialement vérifiée. Dans les deux cas on a n équations, si \mathbf{X} est de dimension n : (b') dans le premier, x_{f}^{\ast }=x_{f} dans le second.

Le même raisonnement s'applique évidemment pour la condition initiale.

Équation d'Euler-Lagrange, conditions de Legendre et de Weierstrass[modifier | modifier le code]

Montrons que les conditions nécessaires de minimum local fort données plus haut, à l'exception de la condition de Jacobi, sont des conséquences du principe du maximum du calcul des variations, et ceci bien qu'on se place ici dans le contexte plus général d'extrémités éventuellement variables (la condition de Jacobi classique n'est valide que dans le cas d'extrémités fixes envisagé plus haut ; néanmoins une condition analogue, faisant intervenir la notion de point focal, due à Kneser, a été obtenue dans le cas d'une extrémité finale libre[3],[27]).

Les équations canoniques s'écrivent encore

\dot{x}^{\ast }\left( t\right) =u^{\ast }\left( t\right) ,
\dot{p}^{\ast }\left( t\right) =\frac{\partial \mathcal{L}}{\partial x}
\left( t,x^{\ast }\left( t\right) ,u^{\ast }\left( t\right) \right) .

Le principe du maximum implique au premier ordre l'équation d'Euler (ou de stationnarité)

\frac{\partial \mathcal{H}}{\partial u}\left( t,x^{\ast }\left( t\right)
,u^{\ast }\left( t\right) ,p^{\prime \ast }\left( t\right) \right) =0,

autrement dit, en utilisant la première équation canonique,

p^{\prime \ast }\left( t\right) =\frac{\partial \mathcal{L}}{\partial \dot{x
}}\left( t,x^{\ast }\left( t\right) ,\dot{x}^{\ast }\left( t\right) \right) .

La seconde équation canonique implique donc maintenant l'équation d'Euler-Lagrange (EL) en chaque point auquel x^\ast est continûment dérivable. D'autre part, on a

\mathcal{H}(t,x,u,p^{\prime })-\mathcal{H}(t,x,w,p^{\prime })=\mathcal{L}
\left( t,x,w\right) -\mathcal{L}\left( t,x,w\right) -\left\langle p^{\prime
}|w-u\right\rangle .

Par conséquent, en utilisant l'expression de p^{\prime \ast }\left( t\right) qui vient d'être obtenue, on voit que le principe du maximum implique la condition faible de Weierstrass. Celle-ci à son tour implique la condition faible de Legendre.

Conditions de Weierstrass-Erdmann[modifier | modifier le code]

Le principe du maximum implique que les fonctions

t \mapsto p^{\prime \ast }\left( t\right) =\frac{\partial \mathcal{L}}{\partial \dot{x
}}\left( t,x^{\ast }\left( t\right) ,\dot{x}^{\ast }\left( t\right) \right),
t \mapsto \mathcal{H}(t,x^{\ast }\left( t\right) ,\dot{x}^{\ast }\left( t\right)
,p^{\prime \ast }(t))=\frac{\partial \mathcal{L}}{\partial x}\left(
t,x^{\ast }\left( t\right) ,u^{\ast }\left( t\right) \right) .\dot{x}^{\ast
}\left( t\right) -\mathcal{L}\left( t,x^{\ast }(t),\dot{x}^{\ast }\left(
t\right) \right)

sont continues. Ce sont les deux conditions d'arrondissement des angles de Weierstrass–Erdmann (en).

On dit que le lagrangien est régulier (au sens de Hilbert) si

\det\left(\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}}\left( t,x,u\right) \right)\neq 0 \left(\left(t,x,u\right)\in \mathcal I \times \Omega \times \mathbf{X}\right) .

Considérons le cas où \mathbf{X}=\R et où le lagrangien est régulier. Alors la première condition d'arrondissement des angles implique le

Corollaire — Toute fonction x^\ast donnant un minimum fort est continûment derivable.

En effet, supposons qu'en un point t \in ]t_0, t_f[, \dot x^\ast admette une limite à gauche u_1 différente de sa limite à droite u_2. Pour fixer les idées, supposons u_1 < u_2. Soit \varphi \left( u\right) =\frac{\partial \mathcal{L}}{\partial \dot{x}}
\left( t,x^{\ast }\left( t\right) ,u\right) . Cette fonction admet une dérivée \frac{d\varphi }{du}\left( w\right) =\frac{\partial ^{2}\mathcal{L}}{
\partial \dot{x}^{2}}\left( t,x^{\ast }\left( t\right) ,w\right) . La première condition d'arrondissement des angles implique \varphi(u_1)=\varphi(u_2), par conséquent il existe w \in ]u_1, u_2[ telle que \frac{d\varphi }{du}\left( w\right)=0, ce qui est impossible. Par conséquent, u_1=u_2.

Remarque[modifier | modifier le code]

On montre le résultat suivant : si \mathcal L de classe \mathcal C^2 et le lagrangien est régulier, alors une extrémale x^\ast de classe \mathcal C^1 est de classe \mathcal C^2[28]. Par conséquent, dans les conditions du corollaire ci-dessus, x^\ast est de classe \mathcal C^2.

Formalisme hamiltonien classique[modifier | modifier le code]

Supposons de nouveau le lagrangien régulier. La maximisation du pseudo-hamiltonien implique la condition d'Euler

\frac{\partial \mathcal{H}}{\partial u}\left( t,x,u ,p^{\prime}
\right) =0 \Leftrightarrow  p^{\prime} =\frac{\partial \mathcal L}{\partial 
u}\left( t,x,u\right).

On peut écrire cette équation sous la forme G\left(z,u\right)=0 avec

z=\left(t,x,p^{\prime}\right) et G\left(z,u\right)=p^{\prime} -\frac{\partial \mathcal L}{\partial u}\left( t,x,u\right).

Puisque le lagrangien est régulier, le théorème des fonctions implicites implique que u est (localement) une fonction de classe \mathcal C^1 de z, qu'on peut écrire u^0\left(z\right).

Soit alors l'hamiltonien

{\mathfrak{H}}(t,x,p^{\prime}) =\mathcal{H}
\left(t,x,u^{0}(t,x,p^{\prime}),p^{\prime}\right).

Les deux équations canoniques s'écrivent maintenant

\dot{x}^\ast(t)=\frac{\partial \mathfrak{H}}{\partial p^{\prime }}(t,x^\ast(t),p^{\prime \ast }\left( t\right))
\dot{p}^{\prime
}(t)=-\frac{\partial \mathfrak{H}}{\partial x}(t,x^\ast(t),p^{\prime \ast }\left( t\right))

où l'on a défini le vecteur adjoint par la relation p^{\prime} =\frac{\partial \mathcal L}{\partial 
\dot x}\left( t,x,\dot x\right).

Puisque \frac{\partial \mathcal{H}}{\partial u}\left( t,x,u^{0}(t,x,p^{\prime}) ,p^{\prime}\right) =0 , l'égalité (E) du principe du maximum implique, en tout point auquel x^\ast et p^{\ast} sont continûment dérivables (donc sauf en un nombre fini de points)

\frac{\partial \mathfrak{H}}{\partial t}\left( t,x^{\ast }(t),p^{\ast
}(t)\right) =\frac{d}{dt}\mathfrak{H}\left( t,x^{\ast }(t),p^{\ast
}(t)\right) .

Condition suffisante d'optimalité[modifier | modifier le code]

Considérons de nouveau le problème de Lagrange, mais à condition initiale fixée : \mathcal{V}_{0}=\left\{ \left( t_{0},x_{0}\right) \right\} . Le lagrangien est supposé régulier.

Principe d'optimalité du calcul des variations[modifier | modifier le code]

D'après le principe général de la programmation dynamique de Bellman, généralisation du principe d'Huyghens-Fresnel, une fonction x^\ast minimise J(x), si, et seulement si pour tout \left( \tau ,\xi \right) \in \left[ t_{0},t_{f}\right[ \times \Omega, x^\ast minimise le critère

J_{\tau}(x)=\int_{\tau}^{t_{f}}\mathcal L\left( t,x\left(
t\right) ,\dot x\left( t\right) \right) dt

avec

x\left( \tau \right) =\xi.

Désignons par -S\left( \tau ,\xi\right) la valeur optimale de ce critère et considérons de nouveau le pseudo-hamiltonien \mathcal H(t,x,u,p^{\prime }). L'équation de Hamilton-Jacobi-Bellman du calcul des variations[29] est l'équation aux dérivées partielles

(HJB)::\frac{\partial S }{\partial t}\left( \tau ,\xi \right) +\max_{u\in \mathbf{X}}
\mathcal{H}\left( \tau ,\xi ,u,\frac{\partial S }{\partial \xi}
\left( \tau ,\xi \right) \right)=0

avec pour condition aux limites

(CL):: S \left( t_{f},x_{f}\right) =0 ,\forall
\left( t_{f},x_{f}\right) \in \mathcal{V}_{f}.

Introduisons comme plus haut la fonction u^{0}\left( \tau ,\xi ,p^{\prime }\right), découlant de la maximisation du pseudo-hamiltonien (dans (HJB)) et du théorème des fonctions implicites et posons, pour alléger les écritures, \hat{u}\left( t,x\right) =u^{0}\left( t,x,\frac{\partial S }{\partial\xi }\left( t,x\right) \right). On a le résultat suivant :

Théorème de Bellman —  Pour que x^\ast, vérifiant les conditions initiale et finale, minimise J(x), il est suffisant qu'il existe une solution continûment différentiable S : \left( \tau ,\xi \right)\rightarrow S\left( \tau ,\xi \right) à l'équation de Hamilton-Jacobi-Bellman (HJB), avec la condition aux limites (CL), et (ii)  \dot{x}^{\ast }\left( t\right) =\hat{u}\left( t,x^{\ast }\left( t\right)
\right) . La valeur minimale du critère est alors J(x^\ast)=-S\left( t_{0} ,x\left( t_{0}\right)\right).

Formulation de Carathéodory[modifier | modifier le code]

La formulation de Carathéodory[30] est équivalente au théorème de Bellman dans le contexte du Calcul des variations. Elle peut s'exprimer sous la forme suivante : supposons qu'il existe une fonction continûment différentiable S : (t,x)\mapsto S(t,x) telle que, en posant, comme on l'a déjà fait plus haut,

u^{0}\left( t,x,p^{\prime}\right) =\underset{u \in \mathbf X}{
\arg \max }\mathcal{H}\left( t,x,u,p^{\prime}\right)

(à supposer que le maximum existe et soit strict), S soit solution de l'équation aux dérivées partielles « de Carathéodory »

\frac{\partial S }{\partial t}(t,x)+\mathcal{H}(t,x,u^{0}(t,x,\frac{
\partial S }{\partial x}(t,x)),\frac{\partial S}{\partial x}(t,x))=0.

Alors la fonction optimale x^{\ast} est solution de l'équation différentielle

\dot{x}^{\ast }\left( t\right) =u^{o}\left( t,x^{\ast }(t),\frac{\partial
S }{\partial x}\left( t,x^{\ast }\left( t\right) \right) \right)
.

Équation de Hamilton-Jacobi[modifier | modifier le code]

En récrivant l'équation de Carathéodory à l'aide de l'hamiltonien \mathfrak H, on obtient l'équation d'Hamilton-Jacobi

\frac{\partial S}{\partial t}+{\mathfrak{H}}(t,x,\frac{\partial
S}{\partial x})=0.

Théorème de Jacobi[modifier | modifier le code]

Soit n=\dim(\mathbf X), de sorte que, par identification, \mathbf X=\R^n et que ses éléments sont représentés par des vecteurs colonne. La fonction S dépend de n paramètres, par exemple les composantes de x_0. De manière générale, soit \alpha le vecteur des paramètres dont dépend S. Supposons donc que l'équation de Hamilton-Jacobi admette une solution S(t,x,\alpha), de classe \mathcal C^2. Posons

(Dp):: p^{\prime }=\frac{\partial S}{\partial x}\left( t,x,\alpha \right)

et considérons l'équation

(Dx1)::\frac{\partial S}{\partial \alpha }(t,x,\alpha )=\beta ^{\prime }

\beta ^{\prime } est une ligne de n éléments. En supposant que

(C) ::\det \left( \frac{\partial ^{2}S}{\partial \alpha \partial x}\right) \neq 0,

d'après le théorème des fonctions implicites, cette équation détermine (localement) x en fonction de t, \alpha et \beta ^{\prime } :

(Dx2)::x=x^0(t,\alpha,\beta ^{\prime })

de sorte que l'on a

(E1):: \frac{\partial S}{\partial \alpha }(t,x^0(t,\alpha,\beta ^{\prime }),\alpha )=\beta ^{\prime }

Dérivons part rapport à t l'équation (E1). Il vient

\frac{\partial ^{2}S}{\partial \alpha \partial t}\left( t,x^{0}\left(
t,\alpha ,\beta ^{\prime }\right) ,\alpha \right) +\frac{\partial ^{2}S}{
\partial \alpha \partial x}\left( t,x^{0}\left( t,\alpha ,\beta ^{\prime
}\right) ,\alpha \right) \frac{\partial x^{0}}{\partial t}\left( t,\alpha
,\beta ^{\prime }\right) =0.

D'autre part, en différenciant l'équation de Hamilton-Jacobi par rapport à \alpha, il vient

\frac{\partial ^{2}S}{\partial \alpha \partial t}\left( t,x,\alpha \right) +
\frac{\partial \mathfrak{H}}{\partial p^{\prime }}\left( t,x,\frac{
\partial S}{\partial x}\left( t,x,\alpha \right) \right) \frac{\partial ^{2}S
}{\partial \alpha \partial x}\left( t,x,\alpha \right) =0

En soustrayant ces deux équations avec x=x^0(t,\alpha,\beta ^{\prime }) on obtient, en posant \dot x=\frac{\partial x^{0}}{\partial t}\left( t,\alpha
,\beta ^{\prime }\right)

\frac{\partial ^{2}S}{
\partial \alpha \partial x}\left( t,x^{0}\left( t,\alpha ,\beta ^{\prime
}\right) ,\alpha \right) \dot x-\frac{\partial \mathfrak{H}}{\partial p^{\prime }}\left( t,x,\frac{
\partial S}{\partial x}\left( t,x,\alpha \right) \right) \frac{\partial ^{2}S
}{\partial \alpha \partial x}\left( t,x,\alpha \right) =0

qui donne la première équation canonique

\dot x=\frac{\partial \mathfrak{H}}{\partial p^{\prime }}.

En différenciant l'équation de Hamilton-Jacobi par rapport à x,

\frac{\partial ^{2}S}{\partial t\partial x}+\frac{\partial \mathfrak{H}}{
\partial x}\left( t,x,\frac{\partial S}{\partial x}\right) =0

ce qui donne la seconde équation canonique

\dot p^{\prime }=-\frac{\partial \mathfrak{H}}{\partial x}.

On a donc obtenu le résultat suivant :

Théorème de Jacobi —  Soit S(t,x,\alpha), de classe \mathcal C^2, une intégrale complète de l'équation de Hamilton-Jacobi pour laquelle la condition (C) est vérifiée. Alors les fonctions (Dx2) déterminées par (Dx1), ainsi que les fonctions (Dp), constituent une solution générale des deux équations canoniques. Ces dernières forment un système caractéristique de l'équation de Hamilton-Jacobi.

Démonstration de la condition de transversalité[modifier | modifier le code]

L'équation de Hamilton-Jacobi s'intègre avec la condition \mathcal S(t_f,x(t_f)) =0 pour (t_f,x(t_f))\in \mathcal V_f. Pour tout accroissement admissible infiniment petit \left( \delta t_{f},\delta x_{f}\right) \in T_{\left( t_{f}^{\ast},x_{f}^{\ast }\right) }\mathcal{V}_{f} on a donc nécessairement

\frac{\partial S}{\partial t}\left( t_{f}^{\ast },x_{f}^{\ast }\right)
\delta t_{f}+\frac{\partial S}{\partial x}\left( t_{f}^{\ast },x_{f}^{\ast
}\right) \delta x_{f}=0.

Or, d'après l'équation de Hamilton-Jacobi, \frac{\partial S}{\partial t}=-\mathfrak{H}, et d'après (Dp), \frac{\partial S}{\partial x}=p^\prime, d'où la condition de transversalité sur la variété \mathcal V_f.

Applications[modifier | modifier le code]

Applications à la physique[modifier | modifier le code]

Les applications à la physique s'effectuent principalement grâce au principe de l'action stationnaire.

Géodésiques d'une variété pseudo-riemanienne[modifier | modifier le code]

La métrique d'une variété pseudo-riemanienne de dimension n est donnée par la forme différentielle ds définie par

\left( ds\right) ^{2}=\sum\limits_{i,j}g_{ij}dx^{i}dx^{j}

où les g_{ij} sont des fonctions continûment différentiables des coordonnées x^{i} ; les indices i et j varient entre 1 et n. La forme quadratique ci-dessus est supposée non dégénérée, autrement dit, si G désigne la matrice dont les éléments sont les g_{ij}, cette matrice est symétrique réelle inversible (le cas d'un espace de Riemann correspond à celui où toutes ces valeurs propres restent strictement positives). La longueur d'une courbe paramétrée de classe \mathcal C^2, x=x(t), t\in [t_0,t_f], d'extrémités fixes x(t_0)=x_0 et x(t_f)=x_f, est donc

J\left( x\right) =\int_{t_{0}}^{t_{f}}\sqrt{\sum\limits_{i,j}g_{ij}\dot{x}
^{i}\dot{x}^{j}}dt.

Une telle courbe est appelée une géodésique si elle rend J(x) stationnaire, autrement dit si c'est une extrémale, et une telle géodésique est dite minimale si elle minimise J(x). La recherche des géodésiques minimales est donc un problème de Lagrange à extrémités fixes. Posons

\varphi=\mathcal L^2=\sum\limits_{i,j}g_{ij}\dot{x}
^{i}\dot{x}^{j}. L'équation d'Euler-Lagrange s'écrit
\frac{1}{2\sqrt{\varphi }}\frac{\partial \varphi }{\partial x}=\frac{d}{dt}
\left( \frac{1}{2\sqrt{\varphi }}\frac{\partial \varphi }{\partial \dot{x}}\right) .

Elle se simplifie si l'on choisit comme paramètre t=s puisque dans ce cas \varphi=1. Faisons donc ce choix. L'équation d'Euler-Lagrange s'explicite alors comme suit :

\frac{1}{2}\sum\limits_{p,q}\frac{\partial g_{pq}}{\partial x^{i}}\dot{x}
^{i}\dot{x}^{q}+\sum\limits_{p,s}\frac{\partial g_{pi}}{\partial x^{s}}\dot{x
}^{s}\dot{x}^{p}-\sum\limits_{s}g_{si}\ddot{x}^{s}=0.

En introduisant les symboles de Christoffel de première espèce \Gamma _{pq,i}=\frac{1}{2}\left( \frac{\partial g_{pi}}{\partial x^{q}}+
\frac{\partial g_{qi}}{\partial x^{p}}-\frac{\partial g_{pq}}{\partial x^{i}}
\right) , cette expression se met sous la forme

\sum\limits_{s}g_{si}\ddot{x}^{s}+\sum\limits_{p,q}\Gamma _{pq,i}\dot{x}^{p}
\dot{x}^{q}=0.

Soit maintenant g^{ik} les éléments de la matrice G^{-1} et soit les symboles de Christoffel de deuxième espèce \Gamma _{pq}^{j}=\sum\limits_{i}g^{ij}\Gamma _{pq,i} ; on obtient finalement l'équation géodésique

\ddot{x}^{j}+\sum\limits_{p,q}\Gamma _{pq}^{j}\dot{x}^{p}\dot{x}^{q}=0.

Soit u^{j}=\frac{dx^{j}}{dt}t = as+b, a\neq 0 (« paramétrage affine »). La dérivée covariante du champ de vecteurs u le long de la courbe x est donnée par

\left( \nabla _{u}u\right) ^{j}=\sum\limits_{p}\frac{\partial u^{j}}{
\partial x^{p}}u^{p}+\sum\limits_{p,q}\Gamma _{pq}^{j}u^{p}u^{q}=\frac{du^{j}
}{dt}+\sum\limits_{p,q}\Gamma _{pq}^{j}u^{p}u^{q},

par conséquent les géodésiques sont les courbes de classe \mathcal C^2, x=x(t) telles que, avec u=\frac{dx}{dt},

\nabla _{u}u=0

(on l'a démontré avec un paramétrage affine, mais on vérifie que c'est encore vrai avec un paramétrage quelconque). Autrement dit, ce sont les courbes auxquelles le « vecteur vitesse » u reste constamment parallèle. C'est de cette façon qu'on définit une courbe géodésique sur une variété munie d'une connexion affine quelconque (mais dans ce cas la notion de géodésique minimale n'a plus de sens).

Problème de Dirichlet[modifier | modifier le code]

Soit D un domaine borné du plan (x,y) et considérons l'intégrale

J\left( u\right) =\iint\nolimits_{D}\left( \left( \frac{\partial u}{
\partial x}\right) ^{2}+\left( \frac{\partial u}{\partial y}\right)
^{2}\right) dxdy.

D'après l'équation d'Ostrogradski, les extrémales de classe \mathcal C^2 pour cette fonctionnelle sont les solutions de l'équation de Laplace

\frac{\partial ^{2}u}{\partial x^{2}}+\frac{\partial ^{2}u}{\partial y^{2}}
=0,

autrement dit ce sont les fonctions harmoniques.

Problème de Didon[modifier | modifier le code]

Le problème de la reine Didon consiste à déterminer, parmi toutes les courbes de classe \mathcal C^1 et de longueur l, celle qui délimite avec un segment AB l'aire maximale. Il peut donc se formaliser de la manière suivante : minimiser

J_0\left( y\right) =-\int_{a}^{b}y\left( x\right) dx

avec y(a)=y(b)=0, sous la contrainte

J_{1}\left( y\right) =\int_{a}^{b}\sqrt{1+\dot{y}^{2}\left( x\right) }dx=l.

Introduisons les multiplicateurs de Lagrange \lambda_0 \in \left\{0,1\right\} et \lambda_1. D'après la remarque faite à propos des problèmes isopérimétriques, on a nécessairement \lambda_0=1. Il vient donc, avec \lambda=\lambda_1,

\mathcal{L}=-y+\lambda \sqrt{1+\dot{y}^{2}}.

L'équation d'Euler-Lagrange s'écrit

\frac{d}{dx}\left( \frac{\lambda \dot{y}}{\sqrt{1+\dot{y}^{2}}}\right) =1

d'où en intégrant \frac{\lambda \dot{y}}{\sqrt{1+\dot{y}^{2}}}=x-x_{0}, ce qui équivaut à \dot{y}=\frac{x-x_{0}}{\sqrt{\lambda^2 -\left( x-x_{0}\right) ^{2}}}, soit encore

(y-y_0)^2+(x-x_0)^2=\lambda^2.

Les courbes extrémales sont donc des arcs de cercle. Pour qu'une telle courbe soit solution du problème, il faut bien entendu que la longueur l soit supérieure ou égale à la longueur de AB.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Alexéev, Tikhomirov et Fomine 1982, § 1.1.
  2. Goldstine 1980
  3. a, b et c Bolza 2006
  4. Carathéodory 1999
  5. Milnor 1973
  6. Palais et Smale 1964
  7. Bourguignon 2008
  8. Pontryagin et al. 1962
  9. Bellman 1957
  10. Comme l'écrit Laurence Chisholm Young (en) dans Lectures on the Calculus of Variations and Optimal Control (1969) : « The proof of the maximal principle, given in the book of Pontryagin, Boltyanskii, Gramkrelidze and Mischhenko... represents, in a sense, the culmination of the efforts of mathematicians, for considerably more than a century ago, to rectify the Lagrange multiplier rule. »
  11. Voir par exemple Hans Josef Pesh, « Carathéodory on the Road to the Maximum Principle », Documenta Math., vol. ISMP,‎ 2012 (lire en ligne)
  12. Clarke 1987
  13. Vinter 2010
  14. Kobayashi et Nomizu 1969
  15. Dieudonné 1986, Chap. IX (par Paulette Libermann).
  16. Malliavin 1972
  17. Schwartz 1997, § III.11.
  18. Alexéev, Tikhomirov et Fomine 1982, § 1.3.2.
  19. Gelfand et Fomin 2003, Chap. 7.
  20. Gelfand et Fomin 2003, sect. 25.
  21. Alexéev, Tikhomirov et Fomine 1982, § 4.4.
  22. Alexéev, Tikhomirov et Fomine 1982, § 1.4.
  23. Gelfand et Fomin 2003, sect. 34.
  24. Alexéev, Tikhomirov et Fomine 1982, § 4.4.5.
  25. Pontryagin et al. 1962
  26. Le Principe du maximum de la Commande optimale s'obtient en remplaçant \mathbf{X} par un espace topologique \mathbf{U} quelconque.
  27. Bourlès 2004
  28. Gelfand et Fomin 2003, § 4.1.
  29. L'équation de Hamilton-Jacobi-Bellman de la Commande optimale s'obtient en remplaçant \mathbf{X} par un espace topologique \mathbf{U} quelconque.
  30. Carathéodory 1999, § 231


Références[modifier | modifier le code]

  • V. Alexéev, V. Tikhomirov et S. Fomine (en), Commande optimale, Mir,‎ 1982, 447 p.
  • (en) Richard Bellman, Dynamic Programming, Princeton University Press,‎ 1957, 360 p. (ISBN 0486428095)
  • (en) Oskar Bolza, Lectures on the Calculus of Variations, Michigan Historical Reprint Series,‎ 2006, 288 p. (ISBN 141818201X) (édition originale : University of Chicago, 1904).
  • Jean-Pierre Bourguignon, Calcul variationnel, Editions de l’École Polytechnique,‎ 2008 (ISBN 2730214151)
  • Henri Bourlès, « Principe du maximum », dans H. Abou-Kandil (dir.), La commande optimale des systèmes dynamiques, Hermès-Science,‎ 2004 (ISBN 2746209659), « 1 », p. 15-70
  • (en) Constantin Carathéodory, Calculus of Variations and Partial Differential Equations of the First Order, American Mathematical Society,‎ 1999 (ISBN 0821819992)
  • (en) Frank H. Clarke, Optimization and Nonsmooth Analysis, Society for Industrial & Applied Mathematics,U.S.,‎ 1987, 360 p. (ISBN 0898712564)
  • Jean Dieudonné, Abrégé d'histoire des mathématiques, Hermann,‎ 1986 (ISBN 9782705660246)
  • (en) Israel Gelfand et Sergei Fomin, Calculus of Variations, Dover Publications,‎ 2003 (ISBN 0486414485, lire en ligne)
  • (en) Herman H. Goldstine (en), A History of the Calculus of Variations from the 17th through the 19th Century, Springer-Verlag,‎ 1980, 410 p. (ISBN 0387905219)
  • (en) Shoshichi Kobayashi et Katsumi Nomizu, Foundations of Differential Geometry - Vol. II, Interscience Publishers,‎ 1969, 470 p. (ISBN 9780471157328)
  • Paul Malliavin, Géométrie différentielle intrinsèque, Hermann,‎ 1972 (ISBN 2705656960)
  • (en) John Milnor, Morse Theory, Princeton University Press,‎ 1973 (ISBN 0691080089)
  • (en) Richard Palais et Stephen Smale, « A generalized Morse theory », Research Announcement, Bull. Amer. Math. Soc., vol. 70,‎ 1964, p. 165-172 (lire en ligne)
  • (en) L.S. Pontryagin, V.G. Boltyanskii, R.V. Gamkrelidze et E.F. Mishchenko, The Mathematical Theory of Optimal Processes, Interscience,‎ 1962 (ISBN 2881240771)
  • Laurent Schwartz, Analyse II, Hermann,‎ 1997 (ISBN 2705661625)
  • (en) Richard Vinter, Optimal Control, Springer,‎ 2010 (ISBN 9780817649906)

Liens externes[modifier | modifier le code]

Articles connexes[modifier | modifier le code]