Calcul des variations

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En mathématiques, et plus précisément en analyse fonctionnelle, le calcul des variations (ou calcul variationnel) est un ensemble de méthodes permettant de minimiser une fonctionnelle. Celle-ci, qui est à valeurs réelles, dépend d'une fonction qui est l'inconnue du problème. Il s'agit donc d'un problème de minimisation dans un espace fonctionnel, de dimension infinie. Le calcul des variations s'est développé depuis le milieu du dix-huitième siècle jusqu'aujourd'hui ; son dernier avatar est la théorie de la commande optimale, datant de la fin des années 1950. Le calcul des variations a des applications dans de nombreux domaines :

  1. L'inconnue étant une courbe paramétrée, on recherche une courbe de longueur minimale (ou extrémale), autrement dit une géodésique ; c'est une question fondamentale en géométrie différentielle.
  2. L'inconnue étant une surface, on recherche, pour un périmètre donné, la surface d'aire maximale (problème d'isométrie).
  3. En physique, le principe de moindre action affirme que les mouvements d'un système matériel se produisent de manière, sinon à minimiser l'action, du moins à rendre celle-ci stationnaire. Ces mouvements peuvent donc être déterminés en minimisant ou en rendant stationnaire cette fonctionnelle, ce qui fait du calcul des variations un outil fondamental pour les physiciens (formulation variationnelle des équations de la physique).
  4. Une condition nécessaire d'extremum (ou plus généralement de stationnarité) de la fonctionnelle est l'équation d'Euler-Lagrange. Or il arrive que le but qu'on se propose soit précisément la résolution d'une équation différentielle qu'on montre (en résolvant le « problème inverse du calcul des variations ») être l'équation d'Euler-Lagrange d'un problème variationnel ; la résolution de celui-ci (effectuée, par exemple, en passant au formalisme hamiltonien) fournit la solution de celle-là.

Les principaux résultats du calcul des variations « classique », qui fait l'objet de cet article sont :

  1. L'équation d'Euler-Lagrange (condition nécessaire du premier ordre) ;
  2. Les conditions de transversalité (dans le cas de problèmes à extrémités variables) ;
  3. Les conditions du second ordre de minimum faible de Legendre et de Jacobi ;
  4. Les conditions du second ordre de minimum fort de Weierstrass ;
  5. La relation entre formalisme lagrangien au formalisme hamiltonien (transformation de Legendre) ;
  6. L'équation de Hamilton-Jacobi et le théorème de Jacobi ;
  7. Enfin, pour ses applications à la Physique, le théorème de Noether est fondamental.

Sommaire

Historique[modifier | modifier le code]

Sans aller jusqu'au légendaire problème de la reine Didon, on peut faire remonter les principes variationnels à Pierre de Fermat (1657) et Christian Huygens (1690) pour l'étude de la propagation de la lumière (principe de Fermat et principe de Huygens-Fresnel). Néanmoins, le calcul des variations est né en 1696, avec le problème de la courbe brachistochrone, posé par Jean Bernoulli (à la suite de Galilée dans son Dialogue sur les deux grands systèmes du monde paru en 1632)[1] ; il s’agit d’un problème de temps minimal (comme l’indique la racine grecque : « βραχιστος (brachistos) », « le plus court » ; « χρονος (chronos) », « temps »). Ce problème fut résolu par Jean et Jacques Bernoulli, Gottfried Wilhelm Leibniz, Isaac Newton, Guillaume François Antoine de l'Hospital et Ehrenfried Walther von Tschirnhaus. La solution de Jacques Bernoulli se fondait sur le principe d'Huygens et l'idée du front d'onde ; elle préfigurait l'équation de Hamilton-Jacobi. Celle de Jean Bernoulli était fondée sur une analogie avec la propagation de la lumière et le principe de Fermat, ainsi que la loi de Descartes. Celle de Leibniz, enfin, était fondée sur l'approximation de la courbe par des lignes brisées et était le premier pas vers l'équation d'Euler-Lagrange[2].

Le second pas a été accompli par Euler, élève de Jean Bernoulli : Euler a ébauché à partir de considérations géométriques la méthode des « petites variations » en 1744. Joseph-Louis Lagrange a introduit le vocable « Calcul des variations » vers 1760[1] et a donné sa forme actuelle à la solution d'Euler. Adrien-Marie Legendre a complété en 1786 l'équation d'Euler-Lagrange, qui est une condition du premier ordre, par la condition du second ordre qui porte son nom. Ces résultats ont été rassemblés par Lagrange dans sa Théorie des fonctions analytiques, parue en 1797 ; Lagrange a également introduit les variables canoniques en 1811 dans sa Mécanique analytique (bien quelles aient été attribuées à William Rowan Hamilton par Charles Gustave Jacob Jacobi)[1]. L'équation d'Euler-Lagrange a été étendue au cas du Calcul des variations à intégrales multiples en 1834 par Mikhaïl Ostrogradski[3] (généralisant un résultat obtenu en 1831 par Siméon Denis Poisson sur le même sujet). L'équation d'Hamilton-Jacobi a été introduite en premier lieu par Hamilton dans son Second Essay on a General Method in Dynamics en 1835 à l'occasion d'un problème de mécanique. Jacobi a complété la condition du second ordre de Legendre en 1837, avec la théorie des « points conjugués »[4] et a reformulé la contribution de Hamilton, cette fois dans un contexte général, dans ses Vorlesungen über Dynamik (1842). Alfred Clebsch a généralisé en 1858 les résultats de Legendre et de Jacobi[5]. Eduard Heine a établi le lemme fondamental du calcul des variations en 1870[6]. Il revenait à Karl Weierstrass, dans ses cours professés à l'Université de Berlin, notamment celui de 1879, de définir la notion d'extremum fort, et d'établir la condition qui porte son nom, ainsi que la « condition d'arrondissement des angles » (également obtenue, indépendamment, par G. Erdmann en 1877[7]). Paul David Gustave Du Bois-Reymond[8],[9] a établi son fameux lemme en 1879 : cette extension du lemme fondamental du calcul des variations permet d'établir de manière plus satisfaisante l'équation d'Euler-Lagrange. Enfin, David Hilbert a établi le théorème de l'intégrale invariante (qui clarifie la théorie de Weierstrass) et résolu le problème de Dirichlet[10] (le problème de calcul de variations à intégrales multiples le plus célèbre) en 1900. Les principaux résultats du calcul des variations classique avaient dès lors été obtenus.

Néanmoins, des compléments substantiels ont été apportés au tournant du vingtième siècle par Hermann Amandus Schwarz (généralisation du théorème de Weierstrass entre 1898 et 1899) et Adolf Kneser[11] (condition de transversalité, 1900). Oskar Bolza (en)[12] et Harris Hancock[13] ont réalisé indépendamment en 1904 deux synthèses de tous les travaux précédents ; leur lecture est encore très instructive et facilement accessible, . Christian Gustav Adolph Mayer (en) a introduit en 1905 les « champs de Mayer » qui généralisent les champs d'extrémales de Weierstrass ; il a également réalisé une étude fine des « arcs anormaux ». William Fogg Osgood (en)[14] et Jacques Hadamard[15],[16] ont continué d'étudier entre 1900 et 1906 le Calcul des variations avec intégrale multiple. On peut encore citer les contributions de la première moitié du vingtième siècle dues à Emmy Noether (théorème de Noether[17] : obtenu en 1918, il est la formulation mathématique des lois de conservation en physique - de l'énergie, de l'impulsion, du moment cinétique, etc.) ; à Alfréd Haar (le lemme de Haar, datant des années 1926-1932, peut être vu comme une extension du lemme de Du Bois-Reymond au cas d'intégrales multiples)[18],[19]; et à Constantin Carathéodory[20] (Hermann Boerner (de) appelait en 1953 « der Königsweg der Variationsrechnung », autrement dit « la route royale du calcul des variations » l'approche de Carathéodory). Gilbert Ames Bliss (en) et ses élèves, dont Magnus Hestenes, ont réalisé pendant plus de vingt ans une étude détaillée du problème de Bolza, étude dont les résultats ont été rassemblés dans la vaste synthèse que sont les Lectures on the Calculus of Variations[1] de Bliss. Mentionnons encore George David Birkhoff et son élève Marston Morse[21] (théorie de Morse). La théorie de Morse a été généralisée par Richard Palais (en) et Stephen Smale en 1964 (condition de compacité de Palais-Smale (en))[22],[23].

Le calcul des variations a connu un profond renouveau dans les années 1950 avec le développement de la théorie de la commande optimale, sous l'impulsion de Lev Pontriaguine[24] et Richard Bellman[25],[26]. Le formalisme de Pontryagin et de Bellman est une extension et une amélioration du formalisme hamiltonien classique, et clarifie la formulation de Carathéodory[27].

On peut encore mentionner les contributions, postérieures à 1960, de Jacques-Louis Lions, Ivar Ekeland, Jean-Pierre Aubin (de) et Frank H. Clarke[28],[29] (calcul des variations « non lisse »). Le calcul des variations reste en mathématiques un domaine fort actif. Les mathématiciens qui ont contribué à son développement sont extrêmement nombreux (ils comprennent en fait la plupart des grands noms du dix-neuvième siècle et du début du vingtième, et même le célèbre philosophe Edmund Husserl, élève des mathématiciens Leo Königsberger, Leopold Kronecker et Karl Weierstrass ; Husserl a soutenu en 1883 sa thèse Beiträge zur Variationsrechnung). N'ont été mentionnés plus haut que certains parmi les plus notables de ces mathématiciens.

Un domaine d'application important du calcul des variations est l'étude des géodésiques sur une variété munie d'une connexion affine, et plus particulièrement des géodésiques minimales dans un espace de Riemann[30]. L'étude locale des géodésiques minimales sur une surface a été réalisée, à la suite de Carl Friedrich Gauss, par Jacobi (théorie des points conjugués) et Pierre-Ossian Bonnet (qui a démontré le résultat que Jacobi avait énoncé sans démonstration)[31]. Ces travaux ont été complétés par Kneser, Tullio Levi-Civita et Elie Cartan (ce dernier ayant donné de l'équation géodésique sa forme intrinsèque[32]). Le problème global n'a cessé d'être à l'ordre du jour et a donné naissance à la théorie de Morse, déjà évoquée.

Problèmes fondamentaux du calcul des variations[modifier | modifier le code]

Problème à extrémités fixes[modifier | modifier le code]

C'est le problème le plus simple, parfois appelé problème de Lagrange. Soit [t_0,t_f] un intervalle de la droite réelle et \Omega_1, \Omega_2 des ouverts non vides dans un espace vectoriel normé \mathbf{X} qu'on peut supposer de dimension finie. Soit d'autre part

\mathcal L: [t_0,t_f]\times\Omega_1 \times \Omega_2   \rightarrow \R : (t,x,u) \mapsto \mathcal L(t,x,u)

une fonction appelée lagrangien, supposée continûment différentiable (en abrégé : de classe \mathcal C^1) ainsi que sa différentielle partielle \frac{\partial \mathcal L}{\partial u}. Le problème de Lagrange consiste à déterminer (si elle existe) une fonction suffisamment régulière x=x(.) : t \mapsto x(t)\in \Omega_1 telle que x(t_0)=x_0 et x(t_f)=x_f, où x_0 et x_f sont des points fixés de \Omega_1, avec \dot x(t) \in \Omega_2 \left(t \in [t_0,t_f]\right), et minimisant la fonctionnelle,

J(x(.))=\int_{t_0}^{t_f}\mathcal{L}\left(t, x(t),\dot{x}\left( t\right) \right) dt.

Problème à extrémités variables[modifier | modifier le code]

Nous considérons maintenant un problème plus général où ni les bornes d'intégration t_0 et t_f, ni les points x_0 et x_f, ne sont fixés. La fonctionnelle à minimiser est

J(x(.))=K(t_0,x_0,t_f,x_f)+\int_{t_0}^{t_f}\mathcal{L}\left(t, x(t),\dot{x}\left( t\right) \right) dt

avec les contraintes (t_0,x_0) \in \mathcal V_0, (t_f,x_f) \in \mathcal V_f, où \mathcal V_0 et \mathcal V_f sont des sous-variétés de \mathcal I \times \Omega_1, \mathcal I désignant un intervalle compact de la droite réelle. La fonction \mathcal L vérifie les mêmes hypothèses que ci-dessus et la fonction K est continûment différentiable.

La fonctionnelle ci-dessus est mixte (du fait de la présence du terme K(t_0,x_0,t_f,x_f)) et le problème correspondant est appelé le problème de Bolza. On se ramène au cas d'une fonctionnelle intégrale (problème de Lagrange avec extrémités variables) en définissant une inconnue supplémentaire y définie à une constante près par \dot y=\frac{1}{t_{f}-t_{0}}K\left(t_0,x_0, t_{f},x_{f}\right), puisque alors J=J(x(.),y(.)))

J\left( x(.),y(.)\right) =\int_{t_{0}}^{t_{f}}\left( \mathcal{L}\left( t,x(t),\dot{x}(t)\right) +y(t)\right) dt.

On peut aussi se ramener au cas d'un problème de la forme

J(\hat x(.))=\hat K\left(t_0,\hat x_0,t_f, \hat x_f\right)

(problème de Mayer) en posant \dot z = \mathcal L\left(t,x,\dot x\right), \hat x_0=\left( x_0,z_0\right), \hat x_f=\left( x_f,z_f\right) et

\hat K\left(t_0,\hat x_0,t_f, \hat x_f\right)=K\left(t_0,x_0,t_f,x_f\right)+z_f-z_0.

Minimum faible et minimum fort[modifier | modifier le code]

Si, dans ce qui précède, on recherche des minima globaux, le problème est en général sans solution. On est donc conduit à rechercher des minima locaux. Par définition, x^\ast minimise localement J(x) si J(x)-J(x^\ast) \ge 0 pour toute fonction suffisamment régulière x dans un voisinage suffisamment petit de x^\ast. Encore faut-il préciser quel type de régularité on impose à x^\ast et, puisqu'on a ici affaire à un problème en dimension infinie, par quelle norme on définit les voisinages de 0.

Une première possibilité consiste à imposer à x^\ast d'être de classe \mathcal C^1, c'est-à-dire continûment dérivable, donc d'appartenir à l'espace \mathcal C^1\left(\mathcal I,\mathbf X\right) des fonctions continûment dérivables de \mathcal I dans \mathbf X. On peut munir cet espace de la norme

\left\Vert x\right\Vert _{1}=\sup\limits_{t\in \mathcal{I}}\left(
\left\Vert x(t)\right\Vert +\left\Vert \dot{x}(t)\right\Vert \right)

qui en fait un espace de Banach qu'on notera \mathcal E^1.

Une autre possibilité consiste à imposer seulement à x^\ast d'être continûment dérivable par morceaux, c'est-à-dire continue, et ayant une dérivée continue sauf en un nombre fini de points, et ayant en ces points une dérivée à gauche et une dérivée à droite. Soit K\mathcal C^1\left(\mathcal I,\mathbf X\right) l'espace des fonctions continûment dérivables par morceaux par morceaux de \mathcal I dans \mathbf X. On peut munir cet espace de la norme

\left\Vert x\right\Vert _{0}=\sup\limits_{t\in \mathcal{I}}\left(
\left\Vert x(t)\right\Vert \right)

qui en fait un espace vectoriel normé, non complet, qu'on notera \mathcal E^0.

Définition — Un minimum local de J sur \mathcal E^1 (resp. \mathcal E^0) est appelé un minimum local faible (resp. fort).

On montre que, sous les hypothèses qui ont été précisées, la fonction J : x \mapsto J(x) est différentiable sur \mathcal E^1, mais non sur \mathcal E^0. Il s'ensuit que la minimisation faible relève du calcul différentiel classique dans un espace de Banach, ce qui n'est pas le cas de la minimisation forte.

Remarque sur la notion de minimum fort[modifier | modifier le code]

Pour la formulation de la notion de minimum fort, d'autres espaces fonctionnels que K\mathcal C^1\left(\mathcal I,\mathbf X\right) sont possibles : on peut notamment le remplacer par W^{1,1}\left(\mathcal I,\mathbf X\right), l'espace des fonctions absolument continues de \mathcal I dans \mathbf X (on a W^{1,1}\left(\mathcal I,\mathbf X\right)\supset K\mathcal C^1\left(\mathcal I,\mathbf X\right)) ; dans certains cas, J(x(.)) admet un minimum sur W^{1,1}\left(\mathcal I,\mathbf X\right) mais non sur K\mathcal C^1\left(\mathcal I,\mathbf X\right) comme l'a montré Leonida Tonelli (en) en 1915[33]. Néanmoins, nous nous limiterons dans ce qui suit à la définition donnée plus haut qui permet d'éviter quelques difficultés.


Notons qu'une fonction continûment dérivable qui fournit un minimum local fort fournit nécessairement un minimum local faible. Par suite, pour une fonction continûment dérivable, une condition nécessaire de minimum local faible (voir, ci-dessous, la partie (A) du théorème de Jacobi-Weierstrass) est également une condition nécessaire de minimum local fort. Au contraire, une condition suffisante de minimum local fort (voir, ci-dessous, la condition suffisante de minimum fort de Weierstrass) est également une condition suffisante de minimum local faible, compte tenu du schéma logique, valide pour une fonction de classe \mathcal C^1 :

condition suffisante de minimum fort \Rightarrow minimum fort \Rightarrow minimum faible \Rightarrow condition nécessaire de minimum faible

Problèmes isopérimétriques[modifier | modifier le code]

Ces problèmes consistent à minimiser une fonctionnelle J_0(x(.)) sous les contraintes J_i(x(.))=0 (i=1,...,m) avec

J_i(x(.))=\int_{t_0}^{t_f}\mathcal{L}_i\left(t, x(t),\dot{x}\left( t\right) \right) dt,

toutes les fonctions \mathcal{L}_i (i=0,...,m) vérifiant les mêmes hypothèses que la fonction \mathcal L ci-dessus.

Problèmes à intégrale multiple[modifier | modifier le code]

Soit D variété de dimension n, éventuellement à bord, et

J\left( u(.)\right) =\int_{D}\mathcal{L}\left(x, u,\frac{\partial u}{\partial x
}\right) dx,

x étant la variable (plus haut notée t), u=u(.): D \rightarrow \mathbf X la fonction inconnue (plus haut notée x), où \mathbf X est un espace vectoriel normé, \frac{\partial u}{\partial x} sa différentielle, et dx=dx_1 ... dx_n la mesure de Lebesgue. On suppose \mathcal{L} de classe C^2. Le problème considéré ici consiste à déterminer, si elle existe, une fonction u : x \mapsto u(x) de classe C^2 qui minimise J\left( u\right) [34].

Formalisme Lagrangien[modifier | modifier le code]

Condition du premier ordre[modifier | modifier le code]

Première variation[modifier | modifier le code]

Considérons le problème de Lagrange à extrémités fixes (le problème à extrémités variables conduit à ajouter les conditions de transversalité : voir, infra, le § Pseudo-hamiltonien et principe du maximum). Soit \varepsilon h un accroissement de x, où h est une fonction continûment dérivable telle que h(t_0)=h(t_f)=0 (on notera ci-dessous \mathcal A l'espace vectoriel formé des h vérifiant ces conditions) et \varepsilon >0 est un nombre réel. Il en résulte un accroissement \varepsilon\delta J(x;h) de J(x), en négligeant les termes du second ordre en \varepsilon pour \varepsilon tendant vers 0. En effet, un développement limité au premier ordre donne

J\left( x+\varepsilon h\right) =J\left( x\right) +\varepsilon \delta
J\left( x;h\right) +o\left( \varepsilon \right)

\delta J(x;h) est la « première variation » de J.

Différentielle de Gâteaux et condition d'Euler[modifier | modifier le code]

Toute fonction J, définie dans un voisinage de x, et pour laquelle un tel développement limité existe, est dite « différentiable au sens de Gâteaux », et par définition D^GJ(x): \mathcal A \ni h \mapsto \delta J(x;h) est la « différentielle de Gâteaux » de J au point x. Cette application D^GJ(x) est homogène (i.e. D^GJ(x).(\alpha h)=\alpha D^GJ(x).h pour tout réel \alpha) mais n'est pas linéaire en général.

Condition d'Euler — Soit \Omega un ouvert d'un espace vectoriel normé (ou, plus généralement, d'un espace vectoriel topologique) et J une fonction différentiable au sens de Gâteaux dans \Omega. Pour que x^\ast minimise J(x) dans \Omega, il est nécessaire que soit vérifiée la condition d'Euler (condition du premier ordre, ou de stationnarité de J) D^GJ(x^\ast)=0.

Équation d'Euler-Lagrange[modifier | modifier le code]

On a d'autre part

\delta J\left( x;h\right) =\int_{t_{0}}^{t_{f}}\left( \frac{\partial \mathcal{
L}}{\partial x}h+\frac{\partial \mathcal{L}}{\partial \dot{x}} 
\dot{h}\right) dt

et on en déduit le théorème suivant :

Équation d'Euler-Lagrange — Soit x^* une fonction de classe \mathcal C^1. La condition de stationnarité D^GJ(x^*)=0 est satisfaite si, et seulement si x^\ast est une extrémale, c'est-à-dire est solution de l'équation d'Euler-Lagrange

(EL)
\frac{\partial \mathcal{L}}{\partial x}\left( t,x^{\ast }\left( t\right) ,
\dot{x}^{\ast }\left( t\right) \right) -\frac{d}{dt}\left( \frac{\partial 
\mathcal{L}}{\partial \dot{x}}\left( t,x^{\ast }\left( t\right) ,\dot{x}
^{\ast }\left( t\right) \right) \right) =0
.

Il s'agit donc d'une condition nécessaire pour que J(x^*) soit un minimum (ou maximum) local faible de J.

Application : voir #Géodésiques d'une variété riemannienne.

Remarques sur l'équation d'Euler-Lagrange[modifier | modifier le code]

(1) L'intégration par parties effectuée dans la démonstration qui précède quand on utilise le Lemme fondamental du calcul des variations n'est licite que si la fonction t \mapsto\frac{\partial \mathcal{L}}{\partial \dot{x}}\left( t,x^{\ast }\left( t\right) ,\dot{x}
^{\ast }\left( t\right) \right) est de classe \mathcal C^1, ce qui n'est vérifié que si x^\ast est de classe \mathcal C^2 puisque \dot{x}^\ast soit être de classe \mathcal C^1. C'est pourquoi l'utilisation du Lemme de du Bois-Reymond, pour lequel il suffit de supposer x^\ast de classe \mathcal C^1, est une meilleure méthode.

(2) Pour que la fonction x^\ast \in \mathcal E^0 fournisse un minimum local fort, il est encore nécessaire, comme on le verra plus loin (#Pseudo-hamiltonien et principe du maximum ; conditions de transversalité), qu'elle soit solution de l'équation d'Euler-Lagrange dans chaque intervalle dans lequel elle est continûment dérivable. Si x^\ast est seulement supposée absolument continue, l'équation d'Euler-Lagrange doit être vérifiée presque partout.

Cas des problèmes isopérimétriques[modifier | modifier le code]

On introduit des multiplicateurs de Lagrange \lambda_i (i=0,1,...,n)\lambda_0 \in \left\{0,1\right\}, et on forme la quantité (appelée Lagrangien, mais dans un sens qui n'est pas à confondre avec le précédent, d'où la majuscule employée)

J\left( x\right) =\sum\limits_{i=0}^{m}\lambda
_{i}J_{i}\left( x\right) =\int_{t_{0}}^{t_{f}}\mathcal{L}\left( t,x(t),\dot{x
}\left( t\right) \right) dt

avec

\mathcal{L}\left( t,x,u\right) =\sum\limits_{i=0}^{m}\lambda _{i}\mathcal{L}_{i}\left( t,x,u\right) .

Une condition nécessaire pour que x^\ast soit solution du problème isométrique est qu'il existe des multiplicateurs de Lagrange comme ci-dessus, non tous nuls, tels que x^\ast rende stationnaire J(x)[35]. Cette stationnarité équivaut à la satisfaction de la même équation d'Euler-Lagrange que plus haut.

Application : voir #Problème de Didon.

Remarque sur les multiplicateurs de Lagrange[modifier | modifier le code]

Si les différentielles DJ_i(x^\ast) (i=1,...,m) sont linéairement indépendantes, on a nécessairement \lambda_0=1 : c'est alors la formulation classique du théorème des multiplicateurs de Lagrange.

Cas des problèmes à intégrale multiple[modifier | modifier le code]

Avec les notations introduites lors de la position du problème (§ Problèmes à intégrale multiple), une condition nécessaire de stationnarité, si l'on se restreint aux extrémales de classe C^2 (pour les extrémales de classe C^1, on utilisera le lemme de Haar) est donnée par l'équation d'Ostrogradski (généralisation de l'équation d'Euler-Lagrange) :

\frac{\partial \mathcal{L}}{\partial u}-\frac{
\partial }{\partial x}\left( \frac{\partial \mathcal{L}}{\partial \left( 
\frac{\partial u}{\partial x}\right) }\right) =0

\frac{\partial u}{\partial x} désigne la différentielle de u ; on peut également noter cette différentielle d u: D \rightarrow L(\R^n,\mathbf X), où L(\R^n,\mathbf X) est l'espace des applications linéaires de \R^n dans \mathbf X. Lorsque \mathbf X=\R^m, l'équation d'ostrogradski peut s'expliciter comme suit :

\frac{\partial \mathcal{L}}{\partial u_{j}}-\sum\limits_{i=1}^{n}\frac{
\partial }{\partial x_{i}}\left( \frac{\partial \mathcal{L}}{\partial \left( 
\frac{\partial u_{j}}{\partial x_{i}}\right) }\right) =0
(j=1,...,m).

Les fonctions u vérifiant ces conditions sont de nouveau appelées extrémales.

Application : voir le § Problème de Dirichlet.

Conditions du second ordre de minimum faible[modifier | modifier le code]

Désormais nous considérons le problème de Lagrange et nous supposons \mathcal L de classe \mathcal C^2, ainsi que ses différentielles partielles \frac{\partial \mathcal L}{\partial x} et \frac{\partial \mathcal L}{\partial \dot x}, et \mathbf{X} de dimension finie. On recherche dans ce paragraphe une des conditions du second ordre de minimum local faible.

Seconde variation[modifier | modifier le code]

Soit x^\ast une extrémale, pour laquelle on a donc, par définition, \delta J(x^\ast)=0, et faisons un développement limité au second ordre de J(x^\ast+\varepsilon h). Sous l'hypothèse ci-dessus, la différentielle seconde D^2J(x^\ast)\in L_2(\mathcal E^1;\R) de J existe au point x^\ast (où L_2(\mathcal E^1;\R) est l'espace des formes bilinéaires continues sur \mathcal E^1 \times \mathcal E^1) et

J(x^\ast+\varepsilon h)=J(x^\ast)+ \varepsilon^2 \delta^2 J(x^\ast;h)+o(\varepsilon^2)

\delta^2 J(x^\ast;h)=\frac{1}{2} D^2J(x^\ast).(h, h). La quantité \delta^2 J(x^\ast;h) est appelée la seconde variation de J au point x^\ast. Il vient

\delta ^{2}J(x^{\ast };h)=\frac{1}{2}\int_{t_{0}}^{t_{f}}\left( \frac{
\partial ^{2}\mathcal{L}}{\partial x^{2}}.\left( h,h\right) +2
\frac{\partial ^{2}\mathcal{L}}{\partial x\partial \dot{x}}\left( 
\dot{h},h\right) +\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}
}.\left(  \dot{h},\dot{h}\right) \right) dt

où pour abréger on a écrit \frac{\partial ^{2}\mathcal{L}}{\partial x^{2}} pour \frac{
\partial ^{2}\mathcal{L}}{\partial x^{2}}(t,x^\ast(t),\dot x^\ast(t)), etc. En intégrant les second terme par parties on obtient

\delta ^{2}J(x^{\ast };h)=\frac{1}{2}\int_{t_{0}}^{t_{f}}\left( \frac{
\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}}.\left(  \dot{h}, 
\dot{h}\right) +\left( \frac{\partial ^{2}\mathcal{L}}{\partial x^{2}}-\frac{
d}{dt}\left( \frac{\partial ^{2}\mathcal{L}}{\partial x\partial \dot{x}}
\right) \right) \left( h,h\right) \right) dt, soit donc
\delta ^{2}J(x^{\ast };h)=\frac{1}{2}\int_{t_{0}}^{t_{f}}\left( P(t).\left(
\dot{h},\dot{h}\right) +Q(t).\left( h,h\right)
\right) dt avec
P(t)=\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}}\left( t,x^{\ast
}\left( t\right) ,\dot{x}^{\ast }\left( t\right) \right) ,
Q(t)=\frac{\partial ^{2}\mathcal{L}}{\partial x^{2}}\left( t,x^{\ast }\left(
t\right) ,\dot{x}^{\ast }\left( t\right) \right) -\frac{d}{dt}\left( \frac{
\partial ^{2}\mathcal{L}}{\partial x\partial \dot{x}}\left( t,x^{\ast
}\left( t\right) ,\dot{x}^{\ast }\left( t\right) \right) \right) .

Condition de Legendre[modifier | modifier le code]

La quantité \delta ^{2}J(x^{\ast };h) doit être non négative pour tout accroissement h de classe \mathcal C^1 tel que h(t_0)=h(t_f)=0. On montre[37] qu'une condition nécessaire pour qu'il en soit ainsi est que la forme bilinéaire symétrique P(t) (définissant le premier terme de l'intégrale ci-dessus) soit semi-définie positive, ce qu'on écrira sous la forme P(t) \ge 0 : c'est la condition faible de Legendre (ou de Legendre-Clebsch). En effet, dans l'intégrale \delta^2 J(x^\ast;h), le terme

\frac{1}{2}\int_{t_{0}}^{t_{f}}\left( P(t).\left(
\dot{h},\dot{h}\right) \right) dt

« prédomine », dans le sens où l'on peut construire des fonctions réelles, définies dans [t_0,t_f], nulles en t_0 et t_f, de petite amplitude et dont la dérivée est de grande amplitude (alors qu'une fonction nulle en t_0 et t_f, dont la dérivée est de petite amplitude sur [t_0,t_f], est nécessairement de petite amplitude).

Remarque : cas du calcul des variations à intégrale multiple[modifier | modifier le code]

(Voir les §§ Problèmes à intégrale multiple et Cas des problèmes à intégrale multiple). La condition faible de Legendre, qui porte alors le nom de condition de Legendre-Hadamard, s'écrit P(x) \ge 0

P\left( x\right) =\frac{\partial ^{2}\mathcal{L}}{\partial v^{2}}\left(
x,u^{\ast }\left( x\right) ,v^{\ast }\left( x\right) \right) , avec v=\frac{
\partial u}{\partial x}
.

Condition de Jacobi[modifier | modifier le code]

Reste que les deux termes de l'intégrale \delta ^{2}J(x^{\ast };h) doivent être considérés simultanément. Si h est la fonction nulle, il est clair que \delta ^{2}J(x^{\ast };h)=0. Par conséquent, cette fonction nulle doit minimiser \delta ^{2}J(x^{\ast };h), avec les conditions aux limites h(t_0)=h(t_f)=0, dans un voisinage de 0 dans \mathcal E^1 (« problème de minimisation secondaire »). Ceci conduit à étudier l'équation d'Euler-Lagrange (EL) associée à ce problème secondaire. Il s'agit de l'équation de Jacobi

(J):: Q(t).h-\frac{d}{dt}\left( P(t). \dot{h}\right) =0.

Définition — Un point \tau\in \left] t_{0},t_{f}\right] est dit conjugué à t_0 (ou : x^*(\tau) est dit conjugué à x^*(t_{0})) si l'équation de Jacobi (J) admet une solution \bar{h} telle que \bar{h}(t_0)=\bar{h}(\tau)=0 et P(\tau) \dot {\bar{h}}\left( \tau \right ) \neq 0.

Dans le cas usuel (et seulement envisagé par Jacobi), où \det P(\tau) \neq 0, cette dernière condition équivaut à \dot {\bar{h}}\left( \tau \right ) \neq 0.

S'il existe un point conjugué à t_0 dans l'intervalle \left]t_0,t_f\right[, il existe une solution non nulle \bar{h} rendant stationnaire \delta ^{2}J(x^{\ast };h). Alors pour tout \varepsilon >0, \varepsilon \bar{h} rend stationnaire \delta ^{2}J(x^{\ast };h).

On montre le résultat suivant dans le cas où la condition forte de Legendre P(t)>0, \forall t\in [t_0,t_f] est vérifiée :

L'accroissement nul h=0 donne un minimum local faible strict pour \delta ^{2}J(x^{\ast };h) parmi les accroissements h de classe \mathcal C^1 tels que h(t_0)=h(t_f)=0, si et seulement si la condition forte de Jacobi est satisfaite : il n'existe pas de point conjugué à t_0 dans l'intervalle ]t_0,t_f].

Weierstrass a obtenu en 1877 le théorème suivant[38] :

Théorème de Jacobi-Weierstrass —  (A) Une condition nécessaire pour que x^\ast donne un minimum local faible pour le problème de Lagrange à extrémités fixes est que

(I) L'équation d'Euler-Lagrange (EL) soit vérifiée, ainsi que les conditions aux limites x^\ast(t_0)=x_0, x^\ast(t_f)=x_f ;

(II) La condition faible de Legendre P(t) \ge 0, \forall t \in \left[t_0,t_f\right] soit vérifiée ;

(III) La condition faible de Jacobi soit satisfaite : « Il n'y a pas de point conjugué à t_0 dans l'intervalle \left]t_0,t_f\right[ ».


(B) Une condition suffisante pour que x^\ast donne un minimum local faible strict pour le problème de Lagrange à extrémités fixes est que

(I') : condition identique à (I) ;

(II') La condition forte de Legendre P(t) > 0, \forall t \in \left[t_0,t_f\right] (où P(t)>0 signifie que la forme bilinéaire symétrique P(t) est définie positive) soit vérifiée ;

(III') La condition forte de Jacobi soit satisfaite : « Il n'y a pas de point conjugué à t_0 dans l'intervalle \left]t_0,t_f\right] ».

Application : voir #Principe d'action stationnaire de Hamilton.

Remarque : cas d'un intégrande ne dépendant pas de l'inconnue[modifier | modifier le code]

Supposons que \mathcal L=\mathcal L(t,\dot x). La condition forte de Jacobi devient alors triviale si la condition forte de Legendre est vérifiée. Par suite, une condition suffisante pour que x^\ast donne un minimum local faible strict est que la condition d'Euler-Lagrange et la condition forte de Legendre soient toutes deux satisfaites.

Ce résultat est encore valable dans le cas des problèmes à intégrale multiple (§§ Problèmes à intégrale multiple et Cas des problèmes à intégrale multiple) lorsque \mathcal L=\mathcal L(x, \frac{\partial u}{\partial x})[39]. Comme application, voir le § Problème de Dirichlet.

Remarque : cas convexe[modifier | modifier le code]

Supposons que la condition forte de Legendre soit satisfaite (P(t)>0) et que de plus Q(t)\ge 0, ceci pour tout t\in[t_0,t_f]. Alors il est clair que \delta^2J\left(x^*;h\right)>0 pour tout h\neq 0 de classe \mathcal C^1 tel que h(t_0)=h(t_f)=0. Par suite, il n'y a pas de point conjugué à t_0 dans l'intervalle [t_0,t_f], et un minimum local faible strict de J est atteint au point x^*. Ceci généralise la remarque précédente.

Remarque : cas convexe avec intégrale multiple[modifier | modifier le code]

Dans le cas d'un problème à intégrale multiple, considérons la forme bilinéaire symétrique

\left( \upsilon ,\xi \right) \mapsto \frac{\partial ^{2}\mathcal{L}}{
\partial u^{2}}\left( x,u^{\ast }\left( x\right) ,v^{\ast }\left( x\right)
\right) .\left( \upsilon ,\upsilon \right) +2\frac{\partial ^{2}\mathcal{L}}{
\partial u\partial v}\left( x,u^{\ast }\left( x\right) ,v^{\ast }\left(
x\right) \right) .\left( \upsilon ,\xi \right) +\frac{\partial ^{2}\mathcal{L
}}{\partial v^{2}}\left( x,u^{\ast }\left( x\right) ,v^{\ast }\left(
x\right) \right) .\left( \xi ,\xi \right)

avec les notations déjà introduites dans ce cas (i.e. v=\frac{\partial u}{\partial x}). Supposons cette forme définie positive pour tout x \in D. Alors la variation seconde de J est >0 pour tout accroissement non nul et suffisamment petit h de u^* dans \mathcal C^1(D), s'annulant sur la frontière de D, et par conséquent un minimum local faible strict est obtenu pour u=u^*[40].

Conditions de minimum fort[modifier | modifier le code]

Fonction de Weierstrass[modifier | modifier le code]

Considérons de nouveau le problème de Lagrange à extrémités fixes, en supposant \mathcal L de classe C^2, mais cherchons cette fois un minimum local fort. Définissons en fonction du lagrangien \mathcal L(t,x,u) la fonction de Weierstrass ou « excessus »

\mathcal{E}\left( t,x,u;w\right) =\mathcal{L}\left( t,x,w\right) -\mathcal{L
}\left( t,x,u\right) -\frac{\partial \mathcal{L}}{\partial u}\left(
t,x,u\right). \left( w-u\right) .

La condition nécessaire de Weierstrass peut s'obtenir soit directement, grâce aux « variations en aiguille » introduites par Weierstrass[41], soit, comme on va le voir plus loin, comme une conséquence du principe du maximum de la commande optimale.

Condition nécessaire de minimum fort —  Pour que x^\ast \in \mathcal C^1\left(\left[ t_0,t_f \right],\Omega\right) fournisse un minimum local fort, il faut que les conditions nécessaires (I), (II), (III) de minimum faible du théorème de Jacobi soient satisfaites, ainsi que la condition faible de Weierstrass (IV) : pour tout t\in[t_0,t_f],

\mathcal{E}\left( t,x^\ast(t),\dot x^\ast(t);w\right)\ge 0, \forall w \in \mathbf{X}
.

La condition suffisante de Weierstrass est une conséquence directe sa formule intégrale, explicitée et démontrée plus bas en utilisant les apports de Hilbert, de Poincaré et de E. Cartan. Cette relation fondamentale conduit au résultat suivant :

Condition suffisante de minimum fort (Weierstrass, 1879) —  Soit x^\ast \in \mathcal C^1\left(\left[ t_0,t_f \right],\Omega\right) une courbe admissible, \Gamma =\left\{ t,x^{\ast }\left( t\right) ,\dot{x}^{\ast }\left( t\right)
:t\in \left[ t_{0},t_{f}\right] \right\}, et V un voisinage de \Gamma dans \mathcal I \times \mathbf{X} \times \mathbf{X}. Pour que x^\ast fournisse un minimum local fort, il suffit que les conditions suffisantes (I), (II'), (III') de minimum faible du théorème de Jacobi-Weierstrass soient satisfaite, ainsi que la condition forte de Weierstrass (IV') :

\mathcal{E}\left( t,x,u;w\right)\ge 0, \forall (t,x,u,w) : (t,x,u) \in V, (t,x,w) \in V.

Si de plus \mathcal{E}\left( t,x,u;w\right)> 0 pour w \ne u, ce minimum est strict.

Remarque sur la condition suffisante de minimum fort[modifier | modifier le code]

La formule de Taylor d'ordre 2 avec reste de Lagrange s'écrit

\mathcal{L}(t,x,u+h)=\mathcal{L}(t,x,u)+\frac{\partial \mathcal{L}}{
\partial u}\left( t,x,u\right) .h+\frac{\partial ^{2}\mathcal{L}}{\partial
u^{2}}\left( t,x,u+\theta h\right) .\left( h,h\right)  \theta \in \left]0,1\right[ .

En prenant \theta = w-u, on voit donc que la condition forte de Weierstrass est satisfaite si

\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^2}\left( t,x,u\right) \geq 0, \forall (t,x,u) \in V.

(condition suffisante de minimum fort). De plus, \mathcal{E}\left( t,x,u;w\right)> 0 (w \ne u) si

\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^2}\left( t,x,u\right) > 0, \forall (t,x,u) \in V.

(condition suffisante de minimum fort strict).

Formalisme hamiltonien[modifier | modifier le code]

On considère à présent le problème à extrémités variables. Il suffit, comme on l'a vu, de considérer le problème de Lagrange, puisque celui de Bolza s'y ramène (cela simplifie les conditions de transversalité ci-dessous). Les fonctions \mathcal L et \frac{\partial \mathcal{L}}{\partial \dot{x}} sont supposées continûment différentiables et \mathbf{X} est supposé de dimension finie.

Pseudo-hamiltonien et principe du maximum ; conditions de transversalité[modifier | modifier le code]

On appelle pseudo-hamiltonien la fonction

\mathcal{H}:\mathcal{I}\times\Omega\times \mathbf{X}\times
\mathbf{X}^{\prime}\rightarrow \mathbb{R}

(où \mathbf{X}^{\prime} est le dual de \mathbf{X}) définie par

\mathcal{H}\left( t,x,u,p^{\prime }\right) =\left\langle p^{\prime
}|u \right\rangle -\mathcal L\left( t,x,u\right).

(où \left\langle . | .\right\rangle est le crochet de dualité).

Le dual de \mathbb{R}\times\mathbf{X} est identifié avec \mathbb{R}\times\mathbf{X}^\prime. Soit les deux équations canoniques de Hamilton

\dot{x}^{\ast }=\frac{\partial \mathcal{H}}{\partial p^{\prime }}\left(
t,x^{\ast },u^{\ast },p^{\prime \ast }\right),
\dot{p}^{\prime \ast }=-\frac{\partial \mathcal{H}}{\partial x}\left( t,x^{\ast
},u^{\ast },p^{\prime \ast }\right) .

Notons T_{\left( t_{f}^{\ast },x_{f}^{\ast }\right) }\left( \mathcal{V}_{f}\right) l'espace tangent à la variété \mathcal{V}_{f} au point \left( t_{f}^{\ast },x_{f}^{\ast }\right) et N_{\left( t_{f}^{\ast },x_{f}^{\ast }\right) }\left( \mathcal{V}
_{f}\right) l'orthogonal de T_{\left( t_{f}^{\ast },x_{f}^{\ast }\right) }\left( \mathcal{V}_{f}\right) dans \mathbb{R}\times\mathbf{X}^\prime, c'est-à-dire l'ensemble des formes linéaires continues k^{\prime }\in\mathbb{R}\times\mathbf{X}^\prime telles que \left\langle k^{\prime } | h\right\rangle =0,\forall h\in T_{\left(t_{f}^{\ast },x_{f}^{\ast }\right) }\left( \mathcal{V}_{f}\right). On définit de même T_{\left( t_{0}^{\ast },x_{0}^{\ast }\right) }\left( \mathcal{V}_{0}\right) et N_{\left( t_{0}^{\ast },x_{0}^{\ast }\right) }\left( \mathcal{V}
_{0}\right)

On appelle conditions de transversalité les relations

\left (-\mathcal{H}\left( t_{f}^{\ast },x_{f}^{\ast
},u^{\ast }\left( t_{f}^{\ast }\right) ,p^{\prime \ast
}\left( t_{f}^{\ast }\right) \right) , p^{\prime \ast }\left(
t_{f}^{\ast }\right) \right) \in N_{\left( t_{f}^{\ast },x_{f}^{\ast }\right)
}\left( \mathcal{V}_{f}\right) ,
\left (-\mathcal{H}\left( t_{0}^{\ast },x_{0}^{\ast
},u^{\ast }\left( t_{0}^{\ast }\right) ,p^{\prime \ast
}\left( t_{0}^{\ast }\right) \right) , p^{\prime \ast }\left(
t_{0}^{\ast }\right) \right) \in N_{\left( t_{0}^{\ast },x_{0}^{\ast }\right)
}\left( \mathcal{V}_{0}\right) ,

La première d'entre elles est justifiée plus loin. Le résultat suivant est une conséquence du principe du maximum de la commande optimale[42] :

Principe du maximum du calcul des variations — Pour que x^\ast (supposée continument dérivable par morceaux) fournisse un minimum local fort, il est nécessaire qu'il existe un vecteur adjoint p^{\prime \ast }\in KC^1\left( \mathcal{I};\mathbf{X}^\prime\right) pour lequel les deux équations canoniques et les conditions de transversalité soient satisfaites, que la fonction t\mapsto \mathcal{H}\left( t,x^{\ast }\left( t\right) ,u^{\ast }\left(
t\right) ,p^{\prime \ast }\left( t\right) \right) soit continue, et que le principe du maximum

\mathcal{H}\left( t,x^{\ast }\left( t\right) ,\dot x^{\ast }\left( t\right)
,p^{\prime \ast }\left( t\right) \right) \geq \mathcal{H}
\left( t,x^{\ast }\left( t\right) ,u,p^{\prime \ast }\left(
t\right) \right) ,\forall u\in \mathbf{X}

soit vérifié en tout point t\in \left[ t_{0}^{\ast },t_{f}^{\ast }\right] auquel x^\ast est continûment dérivable[43]. On a en tout point où \dot x^\ast et p^{\prime \ast } sont continues (donc sauf en un nombre fini de points) l'égalité (E) :

\frac{d}{dt}\mathcal{H}\left( t,x^{\ast }\left( t\right) ,\dot x^{\ast }\left(
t\right) ,\lambda ^{\ast },p^{\prime \ast }\left( t\right) \right) =\frac{
\partial }{\partial t}\mathcal{H}\left( t,x^{\ast }\left( t\right) ,\dot x^{\ast
}\left( t\right) ,p^{\prime \ast }\left( t\right) \right)

et en particulier, si le pseudo-hamiltonien \mathcal{H} ne dépend pas explicitement du temps,

\mathcal{H}\left( x^{\ast }\left( t\right) ,\dot x^{\ast }\left( t\right)
,p^{\prime \ast }\left( t\right) \right) =C^{te}
.

Cas particuliers des conditions de transversalité[modifier | modifier le code]

Nous supposons maintenant que la variété \mathcal{V}_{f} soit de la forme \mathcal{T}_{f}\times \mathcal{X}_{f}\mathcal{T}_{f} et \mathcal{X}_{f} sont des sous-variétés de \mathcal{\mathbb{R}} et de \mathbf{X}, respectivement. L'équation de transversalité s'écrit donc

(a) \mathcal{H}\left( t_{f}^{\ast },x_{f}^{\ast
},\dot x^{\ast }\left( t_{f}^{\ast }\right) ,p^{\prime \ast
}\left( t_{f}^{\ast }\right) \right) \in N_{t_{f}^{\ast }}\left( \mathcal{T}
_{f}\right),
(b) p^{\prime \ast }\left( t_{f}^{\ast }\right)
\in N_{t_{f}^{\ast }}\left( \mathcal{X}_{f}\right).

Dans le cas d'un instant final libre, on a \mathcal{T}_{f}=\mathcal{\mathbb{R}}, par conséquent N_{t_{f}^{\ast }}\left( \mathcal{T}_{f}\right)=0 et (a) devient

(a') \mathcal{H}\left( t_{f}^{\ast },x_{f}^{\ast
},\dot x^{\ast }\left( t_{f}^{\ast }\right) ,p^{\prime \ast
}\left( t_{f}^{\ast }\right) \right)=0

alors que dans le cas d'un instant final fixé, \mathcal{T}_{f}=\left\{ t_{f}\right\} et N_{t_{f}^{\ast }}\left( \mathcal{T}_{f}\right) =\left\{ 0\right\}, donc (a) est trivialement vérifiée. Dans les deux cas on a une équation: (a') dans le premier, t_{f}^{\ast }=t_{f} dans le second.

Dans le cas d'un état final libre, on a \mathcal{X}_{f}=\mathbf{X}, par conséquent N_{x_{f}^{\ast }}\left( \mathcal{X}_{f}\right)=0 et (b) devient

(b') p^{\prime \ast }\left( t_{f}^{\ast }\right) =0.

Dans le cas d'un état final fixé, \mathcal{X}_{f}=\left\{ x_{f}\right\} et N_{x_{f}^{\ast }}\left( \mathcal{X}_{f}\right) =\left\{ 0\right\}, donc (b) est trivialement vérifiée. Dans les deux cas on a n équations, si \mathbf{X} est de dimension n : (b') dans le premier, x_{f}^{\ast }=x_{f} dans le second.

Le même raisonnement s'applique évidemment pour la condition initiale.

Équation d'Euler-Lagrange, conditions de Legendre et de Weierstrass[modifier | modifier le code]

Montrons que les conditions nécessaires de minimum local fort données plus haut, à l'exception de la condition de Jacobi, sont des conséquences du principe du maximum du calcul des variations, et ceci bien qu'on se place ici dans le contexte plus général d'extrémités éventuellement variables (la condition de Jacobi classique n'est valide que dans le cas d'extrémités fixes envisagé plus haut ; néanmoins une condition analogue, faisant intervenir la notion de point focal, due à Kneser, a été obtenue dans le cas d'une extrémité finale libre[12],[44]).

Les équations canoniques s'écrivent encore

\dot{x}^{\ast }\left( t\right) =u^{\ast }\left( t\right) ,
\dot{p}^{\ast }\left( t\right) =\frac{\partial \mathcal{L}}{\partial x}
\left( t,x^{\ast }\left( t\right) ,u^{\ast }\left( t\right) \right) .

Le principe du maximum implique au premier ordre l'équation d'Euler (ou de stationnarité)

\frac{\partial \mathcal{H}}{\partial u}\left( t,x^{\ast }\left( t\right)
,u^{\ast }\left( t\right) ,p^{\prime \ast }\left( t\right) \right) =0,

autrement dit, en utilisant la première équation canonique,

p^{\prime \ast }\left( t\right) =\frac{\partial \mathcal{L}}{\partial \dot{x
}}\left( t,x^{\ast }\left( t\right) ,\dot{x}^{\ast }\left( t\right) \right) .

La seconde équation canonique implique donc maintenant l'équation d'Euler-Lagrange (EL) en chaque point auquel x^\ast est continûment dérivable. D'autre part, on a

\mathcal{H}(t,x,u,p^{\prime })-\mathcal{H}(t,x,w,p^{\prime })=\mathcal{L}
\left( t,x,w\right) -\mathcal{L}\left( t,x,w\right) -\left\langle p^{\prime
}|w-u\right\rangle .

Par conséquent, en utilisant l'expression de p^{\prime \ast }\left( t\right) qui vient d'être obtenue, on voit que le principe du maximum implique la condition faible de Weierstrass. Celle-ci à son tour implique la condition faible de Legendre.

Conditions d'arrondissement des angles de Weierstrass-Erdmann[modifier | modifier le code]

Le principe du maximum implique que les fonctions

t \mapsto p^{\prime \ast }\left( t\right) =\frac{\partial \mathcal{L}}{\partial \dot{x
}}\left( t,x^{\ast }\left( t\right) ,\dot{x}^{\ast }\left( t\right) \right),
t \mapsto \mathcal{H}(t,x^{\ast }\left( t\right) ,\dot{x}^{\ast }\left( t\right)
,p^{\prime \ast }(t))=\frac{\partial \mathcal{L}}{\partial x}\left(
t,x^{\ast }\left( t\right) ,u^{\ast }\left( t\right) \right) .\dot{x}^{\ast
}\left( t\right) -\mathcal{L}\left( t,x^{\ast }(t),\dot{x}^{\ast }\left(
t\right) \right)

sont continues. Ce sont les deux conditions d'arrondissement des angles de Weierstrass–Erdmann (en).

On dit que le lagrangien est régulier (au sens de Hilbert) si

\det\left(\frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}}\left( t,x,u\right) \right)\neq 0 \left(\left(t,x,u\right)\in \mathcal I \times \Omega \times \mathbf{X}\right) .


Corollaire — Supposons \mathbf{X}=\R et le lagrangien régulier. Alors toute fonction x^\ast (supposée continûment dérivable par morceaux) donnant un minimum fort est continûment derivable.

Différentiabilité des extrémales[modifier | modifier le code]

Hilbert a montré le résultat suivant en utilisant le théorème des fonctions implicites : si \mathcal L de classe \mathcal C^n (n \ge 2) et le lagrangien est régulier, alors une extrémale x^\ast de classe \mathcal C^1 sur un intervalle est de classe \mathcal C^n sur cet intervalle[1]. Par conséquent, dans les conditions du corollaire ci-dessus, x^\ast est de classe \mathcal C^n.

Formalisme hamiltonien classique[modifier | modifier le code]

Supposons de nouveau le lagrangien régulier. La maximisation du pseudo-hamiltonien implique la condition d'Euler

\frac{\partial \mathcal{H}}{\partial u}\left( t,x,u ,p^{\prime}
\right) =0 \Leftrightarrow  p^{\prime} =\frac{\partial \mathcal L}{\partial 
u}\left( t,x,u\right).

On peut écrire cette équation sous la forme G\left(z,u\right)=0 avec

z=\left(t,x,p^{\prime}\right) et G\left(z,u\right)=p^{\prime} -\frac{\partial \mathcal L}{\partial u}\left( t,x,u\right).

Puisque le lagrangien est régulier, le théorème des fonctions implicites implique que u est (localement) une fonction de classe \mathcal C^1 de z, qu'on peut écrire u^0\left(z\right).

Soit alors l'hamiltonien

{\mathfrak{H}}(t,x,p^{\prime}) =\mathcal{H}
\left(t,x,u^{0}(t,x,p^{\prime}),p^{\prime}\right).

Les deux équations canoniques s'écrivent maintenant

\dot{x}^\ast(t)=\frac{\partial \mathfrak{H}}{\partial p^{\prime }}(t,x^\ast(t),p^{\prime \ast }\left( t\right))
\dot{p}^{\prime
}(t)=-\frac{\partial \mathfrak{H}}{\partial x}(t,x^\ast(t),p^{\prime \ast }\left( t\right))

où l'on a défini le vecteur adjoint par la relation p^{\prime} =\frac{\partial \mathcal L}{\partial 
\dot x}\left( t,x,\dot x\right).

Le passage des variables (t,x,\dot x) aux « variables canoniques » (t,x,p^\prime) est la transformation de Legendre.

Puisque \frac{\partial \mathcal{H}}{\partial u}\left( t,x,u^{0}(t,x,p^{\prime}) ,p^{\prime}\right) =0 , l'égalité (E) du principe du maximum implique, en tout point auquel x^\ast et p^{\prime\ast} sont continûment dérivables (donc sauf en un nombre fini de points)

\frac{\partial \mathfrak{H}}{\partial t}\left( t,x^{\ast }(t),p^{\prime\ast}(t)\right) =\frac{d}{dt}\mathfrak{H}\left( t,x^{\ast }(t),p^{\prime\ast}(t)\right) .

Condition suffisante d'optimalité (Bellman)[modifier | modifier le code]

Considérons de nouveau le problème de Lagrange, mais à condition initiale fixée : \mathcal{V}_{0}=\left\{ \left( t_{0},x_{0}\right) \right\} . Le lagrangien est supposé régulier.

Principe d'optimalité du calcul des variations[modifier | modifier le code]

D'après le principe général de la programmation dynamique de Bellman, généralisation du principe d'Huyghens-Fresnel, une fonction x^\ast minimise J(x), si, et seulement si pour tout \left( \tau ,\xi \right) \in \left[ t_{0},t_{f}\right[ \times \Omega, x^\ast minimise le critère

J_{\tau}(x)=\int_{\tau}^{t_{f}}\mathcal L\left( t,x\left(
t\right) ,\dot x\left( t\right) \right) dt

avec

x\left( \tau \right) =\xi.

Désignons par -S\left( \tau ,\xi\right) la valeur optimale de ce critère et considérons de nouveau le pseudo-hamiltonien \mathcal H(t,x,u,p^{\prime }). L'équation de Hamilton-Jacobi-Bellman du calcul des variations[45] est l'équation aux dérivées partielles

(HJB)::\frac{\partial S }{\partial t}\left( \tau ,\xi \right) +\max_{u\in \mathbf{X}}
\mathcal{H}\left( \tau ,\xi ,u,\frac{\partial S }{\partial \xi}
\left( \tau ,\xi \right) \right)=0

avec pour condition aux limites

(CL):: S \left( t_{f},x_{f}\right) =0 ,\forall
\left( t_{f},x_{f}\right) \in \mathcal{V}_{f}.

Introduisons comme plus haut la fonction u^{0}\left( \tau ,\xi ,p^{\prime }\right), découlant de la maximisation du pseudo-hamiltonien (dans (HJB)) et du théorème des fonctions implicites et posons, pour alléger les écritures, \hat{u}\left( t,x\right) =u^{0}\left( t,x,\frac{\partial S }{\partial\xi }\left( t,x\right) \right). On a le résultat suivant :

Théorème de Bellman —  Pour que x^\ast, vérifiant les conditions initiale et finale, minimise J(x), il est suffisant qu'il existe une solution continûment différentiable S : \left( \tau ,\xi \right)\rightarrow S\left( \tau ,\xi \right) à l'équation de Hamilton-Jacobi-Bellman (HJB), avec la condition aux limites (CL), et (ii)  \dot{x}^{\ast }\left( t\right) =\hat{u}\left( t,x^{\ast }\left( t\right)
\right) . La valeur minimale du critère est alors J(x^\ast)=-S\left( t_{0} ,x\left( t_{0}\right)\right).

Formulation de Carathéodory[modifier | modifier le code]

La formulation de Carathéodory[46] est équivalente au théorème de Bellman dans le contexte du Calcul des variations. Elle peut s'exprimer sous la forme suivante : supposons qu'il existe une fonction continûment différentiable S : (t,x)\mapsto S(t,x) telle que, en posant, comme on l'a déjà fait plus haut,

u^{0}\left( t,x,p^{\prime}\right) =\underset{u \in \mathbf X}{
\arg \max }\mathcal{H}\left( t,x,u,p^{\prime}\right)

(à supposer que le maximum existe et soit strict), S soit solution de l'équation aux dérivées partielles « de Carathéodory »

\frac{\partial S }{\partial t}(t,x)+\mathcal{H}(t,x,u^{0}(t,x,\frac{
\partial S }{\partial x}(t,x)),\frac{\partial S}{\partial x}(t,x))=0.

Alors la fonction optimale x^{\ast} est solution de l'équation différentielle

\dot{x}^{\ast }\left( t\right) =u^{o}\left( t,x^{\ast }(t),\frac{\partial
S }{\partial x}\left( t,x^{\ast }\left( t\right) \right) \right)
.

Théorie de Jacobi[modifier | modifier le code]

Équation de Hamilton-Jacobi[modifier | modifier le code]

En récrivant l'équation de Carathéodory à l'aide de l'hamiltonien \mathfrak H, on obtient l'équation d'Hamilton-Jacobi

\frac{\partial S}{\partial t}+{\mathfrak{H}}(t,x,\frac{\partial
S}{\partial x})=0.

Théorème de Jacobi[modifier | modifier le code]

Soit n=\dim(\mathbf X), de sorte que, par identification, \mathbf X=\R^n et que ses éléments sont représentés par des vecteurs colonne. La fonction S dépend d'un vecteur \alpha de n paramètres. Supposons donc que l'équation de Hamilton-Jacobi admette une solution S(t,x,\alpha), de classe \mathcal C^2. Posons

(Dp):: p^{\prime }=\frac{\partial S}{\partial x}\left( t,x,\alpha \right)

et considérons l'équation

(Dx1)::\frac{\partial S}{\partial \alpha }(t,x,\alpha )=\beta ^{\prime }

\beta ^{\prime } est une ligne de n éléments. En supposant que

(C) ::\det \left( \frac{\partial ^{2}S}{\partial \alpha \partial x}\right) \neq 0,

d'après le théorème des fonctions implicites, cette équation détermine (localement) x en fonction de t, \alpha et \beta ^{\prime } :

(Dx2)::x=x^0(t,\alpha,\beta ^{\prime })

de sorte que l'on a

(E1):: \frac{\partial S}{\partial \alpha }(t,x^0(t,\alpha,\beta ^{\prime }),\alpha )=\beta ^{\prime }

Dérivons part rapport à t l'équation (E1). Il vient

\frac{\partial ^{2}S}{\partial \alpha \partial t}\left( t,x^{0}\left(
t,\alpha ,\beta ^{\prime }\right) ,\alpha \right) +\frac{\partial ^{2}S}{
\partial \alpha \partial x}\left( t,x^{0}\left( t,\alpha ,\beta ^{\prime
}\right) ,\alpha \right) \frac{\partial x^{0}}{\partial t}\left( t,\alpha
,\beta ^{\prime }\right) =0.

D'autre part, en différenciant l'équation de Hamilton-Jacobi par rapport à \alpha, il vient

\frac{\partial ^{2}S}{\partial \alpha \partial t}\left( t,x,\alpha \right) +\frac{\partial ^{2}S
}{\partial \alpha \partial x}\left( t,x,\alpha \right)
\frac{\partial \mathfrak{H}}{\partial p^{\prime }}\left( t,x,\frac{
\partial S}{\partial x}\left( t,x,\alpha \right) \right)  =0

(En effet, on a l'égalité

\frac{\partial \mathfrak{H}}{\partial p^{\prime }}\left( t,x,\frac{
\partial S}{\partial x}\left( t,x,\alpha \right) \right)\frac{\partial ^{2}S
}{\partial \alpha \partial x}\left( t,x,\alpha \right) =\frac{\partial ^{2}S
}{\partial \alpha \partial x}\left( t,x,\alpha \right)
\frac{\partial \mathfrak{H}}{\partial p^{\prime }}\left( t,x,\frac{
\partial S}{\partial x}\left( t,x,\alpha \right) \right)

qu'on peut vérifier en développant les deux membres dans la base canonique de \R^n et sa base duale. La raison de ceci est donnée au § Justification du théorème de Pontryagin-Boltyanskii de l'article Commande optimale.)

En soustrayant ces deux équations avec x=x^0(t,\alpha,\beta ^{\prime }) on obtient, en posant \dot x=\frac{\partial x^{0}}{\partial t}\left( t,\alpha
,\beta ^{\prime }\right)

\frac{\partial ^{2}S}{
\partial \alpha \partial x}\left( t,x ,\alpha \right) \dot x-\frac{\partial ^{2}S
}{\partial \alpha \partial x}\left( t,x,\alpha \right)\frac{\partial \mathfrak{H}}{\partial p^{\prime }}\left( t,x,\frac{
\partial S}{\partial x}\left( t,x,\alpha \right) \right)  =0

qui donne en multipliant à gauche par l'inverse de \frac{\partial ^{2}S
}{\partial \alpha \partial x}\left( t,x,\alpha \right) la première équation canonique

\dot x=\frac{\partial \mathfrak{H}}{\partial p^{\prime }}\left(t,x,p^\prime\right).

En différenciant l'équation de Hamilton-Jacobi par rapport à x,

\frac{\partial ^{2}S}{\partial t\partial x}+\frac{\partial \mathfrak{H}}{
\partial x}\left( t,x,\frac{\partial S}{\partial x}\right) =0

ce qui donne la seconde équation canonique

\dot p^{\prime }=-\frac{\partial \mathfrak{H}}{\partial x}\left(t,x,p^\prime\right).

On a donc obtenu le résultat suivant :

Théorème de Jacobi —  Soit S(t,x,\alpha), de classe \mathcal C^2, une intégrale complète de l'équation de Hamilton-Jacobi pour laquelle la condition (C) est vérifiée. Alors les fonctions x=x^0(t,\alpha,\beta^\prime) de (Dx2) déterminées par (Dx1), ainsi que les fonctions p^\prime de (Dp), constituent une solution générale des deux équations canoniques. Ces dernières forment un système caractéristique de l'équation de Hamilton-Jacobi.

Remarque : pente d'une extrémale[modifier | modifier le code]

On notera que puisque p^{\prime }=\frac{\partial S}{\partial x}\left( t,x,\alpha \right) est indépendant de \beta^\prime, il en va de même de \dot x=\frac{\partial x^{0}}{\partial t}\left( t,\alpha
,\beta ^{\prime }\right) d'après la première équation canonique ; on peut donc supprimer \beta^\prime de ses arguments et écrire

\dot x=\zeta\left( t,\alpha
\right).

\zeta\left( t,\alpha
\right)=\frac{\partial x^{0}}{\partial t}\left( t,\alpha,\beta^\prime
\right).

Il s'ensuit que les composantes \beta_1,...,\beta_n du vecteur ligne (ou covecteur) \beta^\prime sont des constantes d'intégration de la variable x telle que \dot x=\zeta\left( t,\alpha
\right). Par suite, en notant \beta le vecteur colonne de composantes \beta_1,...,\beta_n, on peut écrire

x^{0}\left( t,\alpha
,\beta ^{\prime }\right)=\hat x\left (t,\alpha\right)+\beta.

On appelle \zeta\left( t,\alpha
\right)=\frac{\partial \hat x}{\partial t}\left( t,\alpha\right) la pente de l'extrémale \hat x\left (t,\alpha\right)+\beta.

Démonstration de la condition de transversalité[modifier | modifier le code]

L'équation de Hamilton-Jacobi s'intègre avec la condition \mathcal S(t_f,x(t_f)) =0 pour (t_f,x(t_f))\in \mathcal V_f. Pour tout accroissement admissible infiniment petit \left( \delta t_{f},\delta x_{f}\right) \in T_{\left( t_{f}^{\ast},x_{f}^{\ast }\right) }\mathcal{V}_{f} on a donc nécessairement

\frac{\partial S}{\partial t}\left( t_{f}^{\ast },x_{f}^{\ast }\right)
\delta t_{f}+\frac{\partial S}{\partial x}\left( t_{f}^{\ast },x_{f}^{\ast
}\right) \delta x_{f}=0.

Or, d'après l'équation de Hamilton-Jacobi, \frac{\partial S}{\partial t}=-\mathfrak{H}, et d'après (Dp), \frac{\partial S}{\partial x}=p^\prime, d'où la condition de transversalité sur la variété \mathcal V_f.

Théorie de Weierstrass (formule intégrale)[modifier | modifier le code]

Revenons au problème de Lagrange à instants initial et final fixés. Le théorème de Jacobi a permis d'obtenir la solution générale des équations canoniques (donc toutes les extrémales \hat x(t,\alpha)+\beta, de pente \zeta(t,\alpha)) à partir de la fonction S(t,x,\alpha).

Champ d'extrémales[modifier | modifier le code]

Réciproquement, soit x^*=\hat x(t,\alpha_0)+\beta_0 une extrémale. Soit \varepsilon >0 et

\mathfrak{E}_{\varepsilon }=\left\{ \left( t,\hat{x}(t,\alpha )+\beta_0\right)
:\left\Vert \alpha -\alpha _{0}\right\Vert <\varepsilon ,t\in \left[
t_{0},t_{f}\right] \right\} .

Alors \mathfrak E_\varepsilon est appelé un champ d'extrémales autour de x^* si par tout point (t,x)\in \mathfrak E_\varepsilon passe une extrémale et une seule \hat x(t,\alpha)+\beta_0, \beta_0 étant fixé, pour laquelle \left \Vert \alpha - \alpha_0 \right \Vert < \varepsilon. Cette notion est due à Weierstrass. Si un tel champ existe, on peut résoudre en \alpha l'équation \hat x(t,\alpha)+\beta_0=x, et on obtient donc une fonction \alpha=\alpha(t,x). En conséquence, la pente \zeta de l'extrémale \hat x s'exprime elle aussi comme une fonction \hat\zeta(t,x) qu'on supposera de classe \mathcal C^2.

On montre que si les conditions (II') et (III') sont satisfaites, l'extrémale x^*=\hat x(.,\alpha_0)+\beta_0, où \beta_0 est fixé, peut être entourée d'un champ d'extrémales ayant une fonction de pente (t,x) \mapsto\hat\zeta(t,x) de classe \mathcal C^2[47],[1].

Forme de Poincaré-Cartan[modifier | modifier le code]

Supposons que l'extrémale x^* soit entourée d'un champ d'éxtrémales de pente \hat \zeta(t,x) et posons

\mathfrak H\left(t,x,p'\right)=\langle p^\prime| \hat \zeta(t,x)\rangle - \mathcal L\left(t,x,\hat \zeta(t,x\right).

La « variable adjointe » est définie par

p^{\prime }=\frac{\partial \mathcal{L}}{\partial \dot{x}}\left( t,x,
\hat{\zeta}\left( t,x\right) \right).

En dérivant \mathfrak{H} par rapport à x, on obtient

\frac{\partial \mathfrak{H}}{\partial x}\left( t,x,p^{\prime }\right)
=p^{\prime }\frac{\partial \hat{\xi}}{\partial x}-\frac{\partial \mathcal{L}
}{\partial x}-\frac{\partial \mathcal{L}}{\partial \dot{x}}\frac{\partial 
\hat{\zeta}}{\partial x}=-\frac{\partial \mathcal{L}}{\partial x}.

Mais puisque \hat \zeta(t,x) est la pente d'une extrémale, on a l'équation d'Euler-Lagrange

\frac{d}{dt}\left( \frac{\partial \mathcal{L}}{\partial \dot{x}}\left( t,x,
\hat{\zeta}\left( t,x\right) \right) \right) =\frac{\partial \mathcal{L}}{
\partial x}\left( t,x,\hat{\xi}\left( t,x\right) \right)

et par suite p^\prime vérifie la seconde équation canonique

\dot{p}^{\prime }=-\frac{\partial \mathfrak{H}}{\partial x},

La forme différentielle, dite forme de Poincaré-Cartan[48],[49]

\omega =-\mathfrak H .dt+ p^\prime.dx

est donc une différentielle exacte dS avec p^\prime=\frac{\partial S}{\partial x} et -\mathfrak H=\frac{\partial S}{\partial t} (équation de Hamilton-Jacobi).

Intégrale invariante de Hilbert[modifier | modifier le code]

Soit maintenant x(.) :t\mapsto x(t) une courbe admissible quelconque (ne vérifiant donc pas a priori la première équation canonique) et x^*(.): t\mapsto x^*(t) une extrémale admissible (qui, sous certaines conditions, sera unique). On a d'après ce qui précède

\int_{x(.)}\omega =\int_{x^*(.) }\omega =S\left( t_{f},x_{f}\right)
-S\left( t_{0},x_{0}\right) .

Cette quantité est appelée l'intégrale de Hilbert[50] ; elle est invariante, c'est-à-dire indépendante de la courbe admissible considérée x(.). On peut mette l'intégrale de gauche sous la forme

\int_{x\left( .\right) }\omega =\int_{x(.)}\left\{ \mathcal{L}
\left( t,x,\hat\zeta(t,x)\right) +\frac{\partial \mathcal{L}}{\partial \dot{x}}\left(
t,x,\hat \zeta(t,x) \right) .\left( \dot{x}-\hat \zeta(t,x) \right) \right\}dt .

Si x(.)=x^*(.), on a \dot x=\hat \zeta\left(t,x\right), donc

\int_{x^*\left( .\right) }\omega =\int_{t_{0}}^{t_{f}} \mathcal{L}
\left( t,x^*(t),\dot x^*(t)\right) dt=J(x^*).

Par conséquent, par l'invariance de l'intégrale de Hilbert,

J(x^*)=\int_{x\left( .\right) }\omega =\int_{x(.)}\left\{ \mathcal{L}
\left( t,x,\hat\zeta(t,x) \right) +\frac{\partial \mathcal{L}}{\partial \dot{x}}\left(
t,x,\hat\zeta(t,x) \right) .\left( \dot{x}-\hat \zeta(t,x) \right) \right\}dt

Formule intégrale de Weierstrass[modifier | modifier le code]

On a par définition,

J(x)=\int_{t_{0}}^{t_{f}} \mathcal{L}
\left( t,x,\dot x\right) dt=\int_{x(.)} \mathcal{L}
\left( t,x,\dot x\right) dt

et par conséqnent

J\left( x\right) -J\left( x^{\ast }\right) =\int_{x\left( .\right) }\left\{ 
\mathcal{L}\left( t,x,\dot{x}\right) -\mathcal{L}\left( t,x,\hat\zeta(t,x) \right) -
\frac{\partial \mathcal{L}}{\partial \dot{x}}\left( t,x,\hat\zeta (t,x)\right) .\left( 
\dot{x}-\hat\zeta (t,x)\right) \right\} dt.

La fonction de Weierstrass permet d'écrire ce résultat sous la forme suivante :

Formule intégrale de Weierstrass (1879) — Supposons que l'extrémale x^* puisse être entourée d'un champ d'extrémales (ce qui est le cas si les conditions (II'), (III') sont satisfaites). Alors la variation totale de l'intégrale \Delta J=J\left( x\right) -J\left( x^{\ast }\right) est donnée par la formule de Weierstrass

\Delta J=\int_{x\left( .\right) }
\mathcal{E}\left( t,x(t),\hat\zeta(t,x(t)) ;\dot{x}(t)\right) dt.

\hat\zeta(t,x) est la pente du champ d'extrémales.

Théorème de Noether[modifier | modifier le code]

Article détaillé : Théorème de Noether (physique).

Considérons une famille d'applications \mathfrak S_\alpha : \R \times X \rightarrow \R \times X, \vert \alpha \vert < \varepsilon_0,

\mathfrak S_\alpha=\left(\mathfrak T(t,x,\alpha), \mathfrak X(t,x,\alpha)\right)

\mathfrak T et \mathfrak X sont de classe \mathcal C^1,

\mathfrak T(t,x,0)=t, \mathfrak X(t,x,0)=x

et plus précisément pour \alpha \rightarrow 0

\mathfrak T(t,x,\alpha)=t+T(t,x)+o(\alpha),
\mathfrak X(t,x,\alpha)=x+X(t,x)+o(\alpha).

Soit x:[t_0,t_f]\ni t \mapsto x(t)\in\Omega_1 \subset X. L'image du graphe de cette fonction par \mathfrak S_\alpha est le graphe d'une fonction

\xi(\alpha):[\tau_0(\alpha),\tau_f(\alpha)]\ni \tau \mapsto \xi(\alpha,\tau) \in X.

Considérons maintenant le problème de Lagrange et écrivons

J\left( x\left( .\right) ,t_{0},t_{f}\right) =\int_{t_{0}}^{t_{f}}\mathcal{L
}\left( t,x(t),\dot{x}\left( t\right) \right) dt

\mathcal L, \frac {\partial \mathcal L}{\partial x} et \frac {\partial \mathcal L}{\partial \dot x} sont continues dans [t_0,t_f] \times \Omega_1 \times \Omega_2 (avec les notations déjà considérées).

Définition — La fonctionnelle intégrale J est dite invariante relativement à la famille de transformations \left(\mathfrak S_\alpha\right) si pour toute fonction x:[t_0,t_f]\ni t \mapsto x(t)\in\Omega_1 , de classe \mathcal C^2 et telle que \dot x\in \Omega_2 (t\in [t_0,t_f]),

J\left( \xi\left( .,\alpha\right) ,\tau_{0}(\alpha),\tau_{f}(\alpha)\right)=J\left( x\left( .\right) ,t_{0},t_{f}\right)

dès que \vert \alpha \vert est suffisamment petit.

L'ensemble des familles de transformation laissant invariante J forme un groupe de Lie \mathfrak G, le groupe des symétries de J. Chaque \left(\mathfrak S_\alpha\right) forme un sous-groupe de Lie à un paramètre de \mathfrak G, dont le champ de vecteurs \left(T,X\right) est un générateur infinitésimal, donc un élément de l'algèbre de Lie \mathfrak g de \mathfrak G.

Considérons la forme de Poincaré-Cartan \omega=-\mathfrak H+p^\prime. dx et formons la quantité

\psi(t,x,p^\prime)=\langle p^\prime|X(t,x)\rangle-\mathfrak H(t,x,p^\prime) T(t,x).

Théorème de Noether — Si J est invariante relativement à la famille de transformations \left(\mathfrak S_\alpha\right), alors \psi(t,x,p^\prime)=C^{te} sur chaque solution des équations canoniques.

Exemple 1 : conservation de l'énergie totale[modifier | modifier le code]

Supposons que \mathcal L ne dépende pas explicitement de t. Alors J est invariante par la famille de transformations x \mapsto x, t \mapsto t+C^{te}, d'où X(t,x)=0, T(t,x)=1. Par suite, \psi(t,x,p^\prime)=-\mathfrak H(t,x,p^\prime) et le théorème de Noether se traduit par

\mathfrak H(t,x,p^\prime)=C^{te} .

En Mécanique, J est l'action, dont le lagrangien est \mathcal L=\mathcal T(\dot x, x)-\mathcal U(x)\mathcal T(\dot x, x)=\frac {1}{2}\dot x^T M(x) \dot x (la « masse généralisée » M(x) est une matrice symétrique réelle définie positive) est l'énergie cinétique et \mathcal U(x) est l'énergie potentielle. La « variable adjointe », à savoir le covecteur

p'=\frac{\partial \mathcal L}{\partial \dot x}=\dot x^TM(x)

s'identifie dans l'espace euclidien au transposé du vecteur colonne p=M(x)\dot x qui est la quantité de mouvement. Alors

\mathfrak H(t,x,\frac{\partial \mathcal L}{\partial \dot x})=\langle \frac{\partial \mathcal L}{\partial \dot x}|\dot x\rangle - \mathcal L =  \dot x^T M(x) \dot x - \frac {1}{2}\left(\dot x^T M(x) \dot x -\mathcal U(x) \right) = \mathcal T(\dot x,x)+\mathcal U(x)

est l'énergie totale. Le théorème de Noether fournit donc le théorème usuel de conservation de l'énergie totale.

Exemple 2 : conservation de la quantité de mouvement[modifier | modifier le code]

Supposons que le lagrangien de dépende pas explicitement de la variable x_1. Alors J est invariante par la famille de transformations x_1\mapsto x_1 +C^{te}, x_i\mapsto x_i (i=2,...,n), t\mapsto t donc X_1(t,x)=1, X_i(t,x)=0 (i=2,...,n), T(t,x)=0, et par suite \psi(t,x,p^\prime)=p_1.

On a vu que dans le cadre de la Mécanique, p_1 s'interprète comme la quantité de mouvement suivant la direction x_1 (s'il y a m particules, \sum_{1\leq j\leq m}p_{j1} se conserve).

Exemple 3 : conservation du moment cinétique[modifier | modifier le code]

Supposons le lagrangien invariant par rotation de x autour, par exemple, de l'axe x_3 dans l'espace usuel à 3 dimensions. Alors J est invariant relativement à la famille de transformations

\xi_1(\alpha)=x_1 \cos\alpha + x_2 \sin \alpha,
\xi_2(\alpha)=-x_1 \sin\alpha + x_2 \cos \alpha,
\xi_3=x_3.

On a

\frac {\partial \xi_1}{\partial \alpha}(0)=x_2, \frac {\partial \xi_2}{\partial \alpha}(0)=-x_1, \frac {\partial \xi_3}{\partial \alpha}(0)=0,

par conséquent

\psi(t,x,p^\prime)=p_1 x_2-p_2 x_1.

Dans le cadre de la Mécanique, cette quantité s'interprète comme le moment cinétique (s'il y a m particules, \sum_{1\leq i\leq m}p_{i1}x_{i2}-p_{i2}x_{i1} se conserve).

Calcul des variations sur une variété[modifier | modifier le code]

Soit X une variété différentielle. Une courbe x: I\rightarrow X de classe \mathcal C^1 tracée sur X (où I est un intervalle de \R) a pour dérivée au point t\in I le vecteur tangent \dot x(t) \in T_{x(t)}(X), et \left(x(t),\dot x(t)\right) \in T(X)T(X) est le fibré tangent de X. Soit alors \mathcal L: T(X)\rightarrow \R une fonction de classe \mathcal C^1 (on suppose ici, pour simplifier, que ce lagrangien ne dépend pas explicitement du temps ; sinon on devra remplacer X par I\times X). La fonctionnelle considérée dans le problème de Lagrange est de nouveau

J(x(.))=\int_{t_0}^{t_f}\mathcal{L}\left(x(t),\dot{x}\left( t\right) \right) dt.

La variable adjointe p^\prime, ou plus exactement le couple (x,p^\prime), appartient au fibré cotangent T(X)^*. La transformation de Legendre est

T(x) \ni\left(x,\frac{\partial \mathcal L}{\partial u} (x,u)\right)\mapsto (x,p^\prime) \in T(X)^*

en supposant qu'il s'agisse d'un difféomorphisme, dont l'application inverse est (x,p^\prime)\mapsto \left(x,u^0(x,p^\prime)\right). L'hamiltonien est

\mathfrak H: I\times T(X)^* \ni (x,p^\prime) \mapsto \langle p^\prime | u^0(x,p^\prime) \rangle - \mathcal L(x, u^0(x,p^\prime)) \in \R.

L'équation d'Euler-Lagrange est inchangée, et t \mapsto  x^*(t) est solution de cette équation si, et seulement si x^* et p^{\prime *}:=\frac{\partial \mathcal L}{\partial \dot x}(x^*,\dot x^*) sont solutions des deux équations canoniques de Hamilton.

Applications[modifier | modifier le code]

On a rapidement évoqué plus haut quelques applications du théorème de Noether à la Mécanique. Voyons maintenant d'autres applications.

Principe d'action stationnaire de Hamilton[modifier | modifier le code]

Soit un système conservatif (c'est-à-dire soumis à des forces qui dérivent toutes d'un potentiel) à n degrés de libertés et q=\left( q_{1},...,q_{n}\right) le vecteur de ses coordonnées généralisées (noté x dans ce qui précède). L'action entre les instants t_0 et t_f est la quantité

S\left( t_{0},t_{f}\right) =\int_{t_{0}}^{t_{f}}\mathcal{L}\left( q\left(
t\right) ,\dot{q}\left( t\right) \right) dt

où le lagrangien \mathcal L est défini par l'expression \mathcal L = T - U, T(q,\dot q) étant l'énergie cinétique et U(q) l'énergie potentielle.

Le principe de moindre action, tel qu'énoncé par Pierre Louis Moreau de Maupertuis, postule que le mouvement entre les instants t_0 et t_f s'effectue de manière à rendre cette action minimale.

Considérons le cas très simple d'un point matériel se déplaçant sur l'axe des x et soumis à une force de rappel -k x, k>0. Cette force dérive du potentiel U=\frac{1}{2}kx^{2}. Le lagrangien est donc \mathcal L(x,u)=\frac{1}{2}m u^{2}-\frac{1}{2}kx^{2} avec u=\dot x. L'équation d'Euler-Lagrange donne l'équation de Newton habituelle du mouvement de l'extrémité d'un ressort à laquelle est accrochée une masse m, l'autre extrémité étant fixe (et le ressort lui-même étant supposé de masse négligeable) :

m\ddot{x}=-kx.

On a \frac{\partial ^{2}\mathcal{L}}{\partial \dot{x}^{2}}=m>0, et la condition forte de Legendre est donc vérifiée. Un calcul élémentaire montre que l'équation de Jacobi est également

m\ddot{h}+kh=0

dont les solutions sont de la forme h(t)=A\cos(\omega t+\phi)\omega=\sqrt{\frac{k}{m}}. La condition faible de Jacobi n'est donc pas vérifiée sur un intervalle d'amplitude plus grande que \frac{\pi}{\omega}, et par suite l'action sur un tel intervalle intervalle n'est pas minimisée.

Le mouvement d'un ressort vibrant dont les extrémités sont fixes peut être approché par celui d'une infinité de points matériels tels que ci-dessus, ayant des pulsations \omega_k multiples d'une pulsation fondamentale. Il n'existe alors aucun intervalle de temps, aussi petit soit-il, sur laquelle l'action correspondante puisse être minimale[51].

Le principe de moindre action de Maupertuis doit donc être corrigé, et l'énoncé correct est principe d'action stationnaire de Hamilton : le mouvement s'effectue non pas, en général, de manière à minimiser l'action, mais la rendre stationnaire, c'est-à-dire à annuler sa première variation, ce qu'on écrit traditionnellement sous la forme \delta S=0.

Géodésiques d'une variété riemannienne[modifier | modifier le code]

Cas d'une variété pseudo-riemannienne[modifier | modifier le code]

La métrique d'une variété pseudo-riemannienne de dimension n munie de sa connexion de Levi-Civita est donnée par la forme différentielle ds définie par

\left( ds\right) ^{2}=\sum\limits_{i,j}g_{ij}dx^{i}dx^{j}

où les g_{ij} sont des fonctions continûment différentiables des coordonnées x^{i} ; les indices i et j varient entre 1 et n. La forme quadratique ci-dessus est supposée non dégénérée, autrement dit, si G désigne la matrice dont les éléments sont les g_{ij}, cette matrice est symétrique réelle inversible (le cas d'un espace de Riemann correspond à celui où toutes ces valeurs propres restent strictement positives). La longueur d'une courbe paramétrée de classe \mathcal C^2, x=x(t), t\in [t_0,t_f], d'extrémités fixes x(t_0)=x_0 et x(t_f)=x_f, est donc

L\left( x\right) =\int_{t_{0}}^{t_{f}}\sqrt{\sum\limits_{i,j}g_{ij}\dot{x}
^{i}\dot{x}^{j}}dt.

Définition — Une courbe paramétrée t \mapsto x(t) comme ci-dessus est appelée une géodésique si elle est parcourue à vitesse constante et est une extrémale pour L(x) ; une telle géodésique est dite minimale si elle minimise L(x).

La recherche des géodésiques est donc un problème de Lagrange à extrémités fixes. Posons

\varphi=\mathcal L^2=\sum\limits_{i,j}g_{ij}\dot{x}
^{i}\dot{x}^{j}. L'équation d'Euler-Lagrange s'écrit
\frac{1}{2\sqrt{\varphi }}\frac{\partial \varphi }{\partial x}=\frac{d}{dt}
\left( \frac{1}{2\sqrt{\varphi }}\frac{\partial \varphi }{\partial \dot{x}}\right) .

Puisque la géodésique est parcourue à vitesse constante (i.e. ds/dt=C^{te}> 0), le paramétrage est affine (t = as+b, a\neq 0) en fonction de l'abscisse curviligne s. On a donc \varphi=a et l'équation d'Euler-Lagrange s'explicite comme suit :

\frac{1}{2}\sum\limits_{p,q}\frac{\partial g_{pq}}{\partial x^{i}}\dot{x}
^{i}\dot{x}^{q}+\sum\limits_{p,s}\frac{\partial g_{pi}}{\partial x^{s}}\dot{x
}^{s}\dot{x}^{p}-\sum\limits_{s}g_{si}\ddot{x}^{s}=0.

Il s'agit également de l'équation d'Euler-Lagrange pour les courbes rendant stationnaire l'« énergie »

E\left( x\right) =\int_{t_{0}}^{t_{f}}\sum\limits_{i,j}g_{ij}\dot{x}
^{i}\dot{x}^{j}dt

sans hypothèse cette fois sur la nature du paramétrage. On a donc le résultat suivant :

Théorème — Les géodésiques sont les extrémales de E\left( x\right).

En introduisant les symboles de Christoffel de première espèce \Gamma _{pq,i}=\frac{1}{2}\left( \frac{\partial g_{pi}}{\partial x^{q}}+
\frac{\partial g_{qi}}{\partial x^{p}}-\frac{\partial g_{pq}}{\partial x^{i}}
\right) , cette expression se met sous la forme

\sum\limits_{s}g_{si}\ddot{x}^{s}+\sum\limits_{p,q}\Gamma _{pq,i}\dot{x}^{p}
\dot{x}^{q}=0.

Soit maintenant g^{ik} les éléments de la matrice G^{-1} et soit les symboles de Christoffel de deuxième espèce \Gamma _{pq}^{j}=\sum\limits_{i}g^{ij}\Gamma _{pq,i} ; on obtient finalement l'équation géodésique

\ddot{x}^{j}+\sum\limits_{p,q}\Gamma _{pq}^{j}\dot{x}^{p}\dot{x}^{q}=0.

Corollaire — Une courbe paramétrée x est une géodésique si, et seulement si elle satisfait l'équation des géodésiques.

Soit u^{j}=\frac{dx^{j}}{dt}. La dérivée covariante du champ de vecteurs u le long de la courbe x est donnée par

\left( \nabla _{u}u\right) ^{j}=\sum\limits_{p}\frac{\partial u^{j}}{
\partial x^{p}}u^{p}+\sum\limits_{p,q}\Gamma _{pq}^{j}u^{p}u^{q}=\frac{du^{j}
}{dt}+\sum\limits_{p,q}\Gamma _{pq}^{j}u^{p}u^{q},

par conséquent les géodésiques sont les courbes de classe \mathcal C^2, x\mapsto x(t) telles que, avec u=\frac{dx}{dt},

\nabla _{u}u=0.

Autrement dit, on a le

Corollaire — Les géodésiques sont les courbes auxquelles le « vecteur vitesse » u reste constamment parallèle.

C'est également de cette façon qu'on définit une courbe géodésique sur une variété munie d'une connexion affine quelconque[52]. Une géodésique reste telle par reparamétrage si, et seulement si celui-ci est affine.

Cas d'une variété riemannienne[modifier | modifier le code]

La condition faible de Legendre n'est satisfaite que dans le cas riemannien (et dans ce cas la condition forte de Legendre est satisfaite). C'est donc dans ce cas seulement qu'on peut avoir des géodésiques minimales.

On a au sens de la métrique riemannienne

\sum\limits_{i,j}g_{ij}\dot{x}^{i}(t)\dot{x}^{j}(t)=\Vert \dot x(t)\Vert^2

et l'inégalité de Cauchy-Schwarz implique

L(x)^2 \le (t_f-t_0) E(x)

(en considérant le produit scalaire dans L^2([t_0,t_f]) de la fonction f(t)=\sqrt{\sum\limits_{i,j}g_{ij}\dot{x}^{i}(t)\dot{x}^{j}(t)} avec g(t)=1) avec égalité si, et seulement si f(t)=C^{te}\neq 0, c'est-à-dire si t dépend de manière affine de l'abscisse curviligne.

On se ramène sans perte de généralité au cas où t_0=0 et t_f=1.

Lemme — Soit x_0, x_1 deux points d'une variété riemannienne M, éloignés d'une distance d. Soit A(x_0,x_1) l'ensemble des arcs x de classe \mathcal C^2 tracés sur M tels que x(0)=x_0 et x(1)=x_1 et supposons qu'il existe une géodésique minimale x^*\in A(x_0,x_1) (ce qui est le cas si la variété M est complète d'après le théorème de Hopf-Rinow). Alors l'énergie E(x^0) est minimale sur A(x_0,x_1), et vaut alors d^2, si et seulement si x^0\in A(x_0,x_1) est une géodésique minimale.

L'étude des géodésiques minimales peut s'effectuer grâce au théorème de Jacobi-Weierstrass et on obtient ce qui suit[53] :

Considérons une famille de courbes \xi \mapsto \left(t \mapsto x(t,\xi)\right) où la fonction I\times J \ni(t,\xi)\mapsto x(t,\xi) est de classe C^3, I est un intervalle ouvert contenant l'intervalle [t_0,t_f] et J est un intervalle ouvert contenant 0. On suppose de plus que pour tout \xi \in J, x(t_0,\xi)=x_0, x(t_f,\xi)=x_f, et \frac{\partial x}{\partial \xi }\left( t,0\right) n'est pas identiquement nul dans [t_0,t_f]. Supposons que x(.,0) soit une géodésique \mathfrak G (ce qui implique que la variable t dépend de l'abscisse curviligne de \mathfrak G de manière affine). On a alors le résultat suivant :

Théorème —  (1) L'absence de point conjugué au point t_0 dans l'intervalle ]t_0,t_f] pour \mathfrak G est une condition suffisante pour que la longueur de l'arc \mathfrak G sur l'intervalle [t_0,t_f] soit minimale parmi les arcs « voisins » x(.,\xi), c'est-à-dire ceux pour lesquels \left\vert \xi \right\vert est suffisamment petit.

(2) Réciproquement, si t_f est le premier point conjugué à t_0 pour la courbe \mathfrak G dans l'intervalle [t_0,t_f], alors pour tout \varepsilon >0 il existe une courbe y, de classe C^\infty dans [t_0, t_f+\varepsilon], d'extrémités x_0 et x(t_f+\varepsilon, 0), dont la distance à \mathfrak G (pour la topologie de la convergence uniforme induite par la métrique riemannienne) est <\varepsilon, et dont la longueur est strictement inférieure à celle de la restriction de \mathfrak G à [t_0, t_f+\varepsilon].

Cas de la sphère[modifier | modifier le code]

La notion de point conjugué se laisse bien appréhender dans le cas de la sphère, qui est une variété riemannienne particulière. Les géodésiques de la sphère sont les grands cercles. Soit A un point d'une sphère de centre O ; son point conjugué est son antipode B. Soit C un point d'un grand cercle passant par A, orienté dans le sens trigonométrique. La distance entre A et C est minimale (resp. strictement minimale) à la surface de la sphère si, et seulement si l'angle \widehat{\left(OA,OC\right)} est inférieur ou égal (resp. strictement inférieur) à 180°. Ceci illustre la partie (2) du théorème énoncé plus haut.

Cas du cylindre[modifier | modifier le code]

Considérons un cylindre à base circulaire, d'axe vertical. Il s'agit de nouveau d'une variété riemannienne qui est paramétrée par (\theta,z)

\left\{ 
\begin{array}{c}
x=\cos \theta  \\ 
y=\sin \theta  \end{array}
\right.

Soit une courbe \theta=\theta(t), z=z(t) à la surface de ce cylindre. Un calcul très simple montre que cette courbe est une géodésique si, et seulement si elle est un cercle (situé dans un plan horizontal) ou une droite verticale ou une hélice circulaire. Soit alors A un point du cylindre et H une hélice circulaire passant par A. Un calcul de nouveau très simple montre que A n'a pas de point conjugué sur H. Mais il existe une infinité d'hélices circulaires passant par deux points A et B du cylindre. De plus, si B est un point situé au-dessus de A, le chemin le plus court reliant A et B n'est pas une hélice circulaire, mais la droite verticale passant par A et B. Ceci illustre bien le caractère « local » de la partie (1) du théorème énoncé plus haut.

Problème de Dirichlet[modifier | modifier le code]

Soit D un domaine ouvert du plan (x,y) et considérons l'intégrale de Dirichlet[54]

J\left( u\right) =\iint\nolimits_{D}\left( \left( \frac{\partial u}{
\partial x}\right) ^{2}+\left( \frac{\partial u}{\partial y}\right)
^{2}\right) dxdy.

D'après l'équation d'Ostrogradski (§ Cas des problèmes à intégrale multiple) et la remarque sur le cas d'un intégrande ne dépendant pas de l'inconnue, les fonctions de classe \mathcal C^2 minimisant cette fonctionnelle sont les solutions de l'équation de Laplace

\frac{\partial ^{2}u}{\partial x^{2}}+\frac{\partial ^{2}u}{\partial y^{2}}
=0,

autrement dit ce sont les fonctions harmoniques. Le Principe de Dirichlet (établi de manière rigoureuse par Hilbert et Henri Lebesgue peu avant 1900, puis réexaminé par Hadamard en 1906) énonce qu'il existe une unique fonction de classe \mathcal C^1 sur D, minimisant l'intégrale de Dirichlet, continue sur l'adhérence de D et prenant des valeurs fixées sur sa frontière, et cette fonction est harmonique sur D.

Problème de Didon[modifier | modifier le code]

Le problème de la reine Didon consiste à déterminer, parmi toutes les courbes de classe \mathcal C^1 et de longueur l, celle qui délimite avec un segment AB l'aire maximale. Il peut donc se formaliser de la manière suivante : minimiser

J_0\left( y\right) =-\int_{a}^{b}y\left( x\right) dx

avec y(a)=y(b)=0, sous la contrainte

J_{1}\left( y\right) =\int_{a}^{b}\sqrt{1+\dot{y}^{2}\left( x\right) }dx=l.

Introduisons les multiplicateurs de Lagrange \lambda_0 \in \left\{0,1\right\} et \lambda_1. D'après la remarque faite à propos des problèmes isopérimétriques, on a nécessairement \lambda_0=1. Il vient donc, avec \lambda=\lambda_1,

\mathcal{L}=-y+\lambda \sqrt{1+\dot{y}^{2}}.

L'équation d'Euler-Lagrange s'écrit

\frac{d}{dx}\left( \frac{\lambda \dot{y}}{\sqrt{1+\dot{y}^{2}}}\right) =1

d'où en intégrant \frac{\lambda \dot{y}}{\sqrt{1+\dot{y}^{2}}}=x-x_{0}, ce qui équivaut à \dot{y}=\frac{x-x_{0}}{\sqrt{\lambda^2 -\left( x-x_{0}\right) ^{2}}}, soit encore

(y-y_0)^2+(x-x_0)^2=\lambda^2.

Les courbes extrémales sont donc des arcs de cercle. Pour qu'une telle courbe soit solution du problème, il faut bien entendu que la longueur l soit supérieure ou égale à la longueur de AB.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. a, b, c, d, e et f Bliss 1944
  2. Alexéev, Tikhomirov et Fomine 1982, § 1.1.
  3. M. Ostrodradsky, « Mémoire sur le calcul des variations des intégrales multiples », Journal für die reine und angewandte Mathematik, vol. 4,‎ 1836, p. 332-354 (lire en ligne)
  4. (de) Charles Gustave Jacob Jacobi, « Sur le Calcul des variations et sur la Théorie des équations différentielles », Journal des mathématiques pures et appliquées, 1e série, t. 3,‎ 1838, p. 44-59 (lire en ligne)
  5. (de) Alfred Clebsch, « Ueber diejenigen Probleme der Variationsrechnung, welche nur eine und abhändige Variable enhalten », Journal für die reine und angewandte Mathematik, vol. 55,‎ 1858, p. 335-355 (lire en ligne)
  6. (de) Eduard Heine, « Aus brieflichen Mittelheilungen (namentlich über Variationsrechnung) », Mathematische Annalen, vol. 2,‎ 1870, p. 187-191 (lire en ligne)
  7. (de) G. Erdmann, « Ueber unstetige Lösungen in der Variationsrechnung », Journal für die reine und angewandte Mathematik, vol. 82,‎ 1877, p. 21-30 (lire en ligne)
  8. (de) Paul du Bois-Reymond, « Erläuterungen zu den Anfangsgründen der Variationsrechnung », Mathematische Annalen, vol. 15, no 2,‎ 1879, p. 283-314 (lire en ligne)
  9. (de) Paul du Bois-Reymond, « Fortsetzung der Erläuterungen zu den Anfangsgründen der Variationsrechnung », Mathematische Annalen, vol. 15, no 2,‎ 1879, p. 564-576 (lire en ligne)
  10. David Hilbert, « Sur le principe de Dirichlet », Nouvelles annales de mathématiques, 3e série, t. 19,‎ 1900, p. 337-344 (lire en ligne)
  11. (de) Adolf Kneser, Lehrbuch der Variationsrechnung, Braunschweig,‎ 1900 (lire en ligne)
  12. a et b Bolza 1904
  13. (en) Harris Hancock, Lectures on the Calculus of Variations (the Weierstrassian Theory), University of Cincinnati,‎ 1904 (lire en ligne)
  14. (en) William F. Osgood, « Sufficient Conditions in the Calculus of Variations », Annals of Mathématics, vol. 2, no 1/4,‎ 1900-1901, p. 105-129 (lire en ligne)
  15. Jacques Hadamard, « Sur quelques questions de calcul des variations », Bulletin de la Société mathématique de France, vol. 33,‎ 1905, p. 73-80 (lire en ligne)
  16. Jacques Hadamard, « Sur le principe de Dirichlet », Bulletin de la S.M.F., vol. 34,‎ 1906, p. 135-138 (lire en ligne)
  17. (de) Emmy Noether, « Invariante Variationsprobleme », Göttinger Nachrichten,‎ 1918, p. 235-257 (lire en ligne)
  18. (de) Alfréd Haar, « Über die Variation der Doppelintegrale », Journal für die reine und angewandte Mathematik, vol. 149, no 1/2,‎ 1926, p. 1-18 (lire en ligne)
  19. (de) Alfréd Haar, « Zur Variationsrechnung », Abhandlungen aus dem Mathematischen Seminar der Universität Hamburg, vol. 8, no 1,‎ 1931/1932, p. 1-27 (lire en ligne)
  20. Carathéodory 1982
  21. Milnor 1973
  22. Palais et Smale 1964
  23. Bourguignon 2008
  24. Pontryagin et al. 1962
  25. Bellman 1957
  26. Comme l'écrit Laurence Chisholm Young (en) dans Lectures on the Calculus of Variations and Optimal Control (1969) : « The proof of the maximal principle, given in the book of Pontryagin, Boltyanskii, Gramkrelidze and Mischhenko... represents, in a sense, the culmination of the efforts of mathematicians, for considerably more than a century ago, to rectify the Lagrange multiplier rule. »
  27. Voir par exemple Hans Josef Pesh, « Carathéodory on the Road to the Maximum Principle », Documenta Math., vol. ISMP,‎ 2012 (lire en ligne)
  28. Clarke 1987
  29. Vinter 2010
  30. Kobayashi et Nomizu 1969
  31. Dieudonné 1986, Chap. IX (par Paulette Libermann).
  32. Malliavin 1972
  33. (en) Leonida Tonelli, « Sur une méthode directe du calcul des variations », Rendiconti del Circolo Matematico di Palermo, vol. 39, no 1,‎ 1915, p. 233-264 (lire en ligne)
  34. Morrey 1966
  35. Alexéev, Tikhomirov et Fomine 1982, § 1.3.2.
  36. (en) Serge Lang, Fundamentals of Differential Geometry, Springer,‎ 1999[1], p. 497
  37. Gelfand et Fomin 2003, sect. 25, p. 103
  38. Alexéev, Tikhomirov et Fomine 1982, § 4.4. La numérotation des conditions est celle, très commode, utilisée dans Bolza 1904.
  39. Voir par exemple Smirnov 1975, § II. 38, ou l'article d'Osgood déjà cité dans l'historique.
  40. Smirnov 1975, §II.38
  41. Alexéev, Tikhomirov et Fomine 1982, § 1.4.
  42. Pontryagin et al. 1962
  43. Le Principe du maximum de la Commande optimale s'obtient en remplaçant \mathbf{X} par un espace topologique \mathbf{U} quelconque.
  44. Bourlès 2004
  45. L'équation de Hamilton-Jacobi-Bellman de la Commande optimale s'obtient en remplaçant \mathbf{X} par un espace topologique \mathbf{U} quelconque.
  46. Carathéodory 1982, § 231
  47. Gelfand et Fomin 2003, Sect. 32, Thm. 6.
  48. Henri Poincaré, Les nouvelles méthodes de la mécanique céleste, Gauthier-Villars,‎ 1899, tome 3 , Chap. 27
  49. Élie Cartan, Leçons sur les invariants intégraux, Hermann,‎ 1922 (lire en ligne).
  50. On l'appelle aussi l'invariant intégral de Poincaré-Cartan. Hilbert a mis en évidence l'invariance de cette intégrale à l'occasion de son cours dispensé à l'université de Göttingen durant le semestre de l'été 1900.
  51. Gelfand et Fomin 2003
  52. Dieudonné 1971, Sect. 18.6.
  53. Dieudonné 1971, Sect. 20.20.
  54. Le lecteur prendra garde au fait que le vocable « intégrale de Dirichlet » n'a pas une acception unique.

Bibliographie commentée[modifier | modifier le code]

  • V. Alexéev, V. Tikhomirov et S. Fomine (en), Commande optimale, Mir,‎ 1982, 447 p.

Livre remarquable sur le Principe de Pontryagin, il contient également tout un chapitre sur le Calcul des variations, et en particulier une belle présentation de la transformation de Legendre.

Cet ouvrage permet d'approfondir le Calcul des variations sur une variété.

  • (en) Richard Bellman, Dynamic Programming, Princeton University Press,‎ 1957, 360 p. (ISBN 0486428095)
  • (en) Gilbert Ames Bliss, Lectures on the Calculus of Variations, The Mathematical Association of America,‎ 1944

Livre de référence sur les conditions suffisantes pour le « problème de Bolza ».

  • (en) Oskar Bolza, Lectures on the Calculus of Variations, University of Chicago,‎ 1904 (réédition: Michigan Historical Reprint Series, 2006).

Bien que ce livre date un peu, il est très clair et contient bien des éléments encore intéressants aujourd'hui.

  • Jean-Pierre Bourguignon, Calcul variationnel, Editions de l’École Polytechnique,‎ 2008 (ISBN 2730214151)
  • Henri Bourlès, « Principe du maximum », dans H. Abou-Kandil (dir.), La commande optimale des systèmes dynamiques, Hermès-Science,‎ 2004 (ISBN 2746209659), « 1 », p. 15-70
  • (en) Constantin Carathéodory, Calculus of Variations and Partial Differential Equations of the First Order, American Mathematical Society,‎ 1982 (ISBN 0821819992) (première édition, en allemand, en 1935)
  • (en) Frank H. Clarke, Optimization and Nonsmooth Analysis, Society for Industrial & Applied Mathematics,U.S.,‎ 1987, 360 p. (ISBN 0898712564, lire en ligne)

L'ouvrage fondateur sur l'optimisation non lisse en général, et le Calcul des variations non lisse en particulier.

  • Jean Dieudonné, Éléments d'analyse, vol. 4, Gauthier Villars,‎ 1971

Géodésiques, champs de Jacobi, géodésiques minimales.

Une référence de base sur le calcul des variations « classique ».

  • (en) Herman H. Goldstine (en), A History of the Calculus of Variations from the 17th through the 19th Century, Springer-Verlag,‎ 1980, 410 p. (ISBN 0387905219)
  • (en) Shoshichi Kobayashi et Katsumi Nomizu, Foundations of Differential Geometry - Vol. II, Interscience Publishers,‎ 1969, 470 p. (ISBN 9780471157328)
  • Paul Malliavin, Géométrie différentielle intrinsèque, Hermann,‎ 1972 (ISBN 2705656960)
  • (en) John Milnor, Morse Theory, Princeton University Press,‎ 1973 (ISBN 0691080089)

Introduction très efficace à la théorie de Morse, en particulier pour ce qui concerne les géodésiques.

  • (en) Charles B. Morrey, Multiple Integrals in the Calculus of Variations, Springer Verlag,‎ 1966

Comme son titre l'indique, ce livre permet d'approfondir le Calcul des variations avec intégrale multiple.

  • (en) Richard Palais et Stephen Smale, « A generalized Morse theory », Research Announcement, Bull. Amer. Math. Soc., vol. 70,‎ 1964, p. 165-172 (lire en ligne)
  • (en) L.S. Pontryagin, V.G. Boltyanskii, R.V. Gamkrelidze et E.F. Mishchenko, The Mathematical Theory of Optimal Processes, Interscience,‎ 1962 (ISBN 2881240771)
  • Laurent Schwartz, Analyse II, Hermann,‎ 1997 (ISBN 9782705661625)

Obtention de l'équation d'Euler-Lagrange à partir du calcul différentiel classique sur les espaces de Banach.

  • Vladimir Smirnov, Cours de mathématiques supérieures, tome IV, première partie, Mir,‎ 1975, 342 p.

Ce livre contient une courte introduction très claire au Calcul des variations, avec intégrale multiple notamment.

Un des ouvrages clé sur la géométrie différentielle, et au passage sur la théorie des géodésiques.

Livre sur la formulation non lisse de la Commande optimale, comprenant en particulier un chapitre sur le Calcul des variations non lisse.

Liens externes[modifier | modifier le code]

Articles connexes[modifier | modifier le code]