Théorème de Nash-Moser

Un article de Wikipédia, l'encyclopédie libre.

En mathématiques, le théorème de Nash-Moser permet de montrer qu'une application est localement inversible, dans un cadre où le théorème d'inversion locale entre espaces de Banach ne peut être appliqué, parce que l'inverse de sa différentielle induit une « perte de dérivée ».

Le théorème et la stratégie de sa preuve sont utiles pour la résolution d'équations aux dérivées partielles, en cas d'échec de méthodes itératives plus standard telles que celles de Cauchy-Lipschitz ou de Newton.

Historique[modifier | modifier le code]

Une première réalisation du théorème de Nash-Moser a été mise au point par John Nash dans le cadre de sa preuve du plongement isométrique de classe . La méthode a ensuite été adaptée à un cadre plus abstrait par Jürgen Moser et appliquée en particulier à la théorie KAM en mécanique céleste. De nombreux auteurs, parmi lesquels Richard S. Hamilton et Lars Hörmander, ont également généralisé le résultat afin de fournir un outil robuste adapté à une large classe de problèmes de résolution perturbative d'équations aux dérivées partielles[1],[2]. Néanmoins, la plupart des problèmes pour lesquels un théorème de Nash-Moser a été développé ont été résolus ultérieurement à l'aide de techniques plus standard[3].

Énoncé[modifier | modifier le code]

L'énoncé du théorème peut varier selon les auteurs mais contient les ingrédients suivants[1],[3].

  • Une échelle de régularité, à savoir une famille d'espaces de Banach emboités et munis de normes croissantes :
    .
    Par exemple : les espaces de Hölder, ou les espaces de Sobolev.
  • Une famille d'opérateurs de régularisation RK, linéaires et continus sur tous ces espaces, et dont on contrôle explicitement la norme d'opérateur et de l'approximation Id – RK, en fonction des paramètres K et des indices des espaces en jeu.
    Par exemple : un multiplicateur de Fourier coupant les fréquences supérieures au niveau K.
  • Une application, Φ, localement deux fois différentiable et dont la différentielle seconde et l'inverse de la différentielle vérifient des estimations avec pertes de dérivées  « douces ».
    Par «  douces », on entend que l'estimation ne fait intervenir qu'un nombre fini de perte de dérivées et que la dépendance est au plus linéaire en la « grande norme »[4].

Théorème de Nash-Moser —  Soit Φ vérifiant les hypothèses ci-dessus dans un voisinage U de x0. Alors il existe un voisinage V de l'origine tel que

possède une solution xU.

On peut faire quelques remarques sur cet énoncé.

  • Contrairement au théorème d'inversion locale entre espaces de Banach, les hypothèses du théorème doivent être vérifiées sur un voisinage de l'état autour duquel la perturbation est effectuée, et non pas uniquement en ce point.
  • L'ensemble de la démonstration se place dans l'espace de Fréchet de régularité infinie , mais le résultat admet des données de régularité finie, et s'accompagne d'une estimation de la taille de x – x0 en fonction de la taille de f (avec perte de dérivée « douce »).
  • Lorsque l'application Φ n'est définie que sur , alors l'égalité de l'énoncé signifie qu'il existe une suite infiniment régulière et convergente, (xn), telle que Φ(xn) converge vers Φ(x0) + f.

Stratégie de la preuve[modifier | modifier le code]

Il existe de nombreuses variantes de la preuve[1], mais la solution est généralement construite comme la limite d'un processus itératif (à l'exception notable de la preuve originale de John Nash qui construit une famille continue d'approximations[2]) basé sur la méthode de Newton. Par exemple, on peut poser

.

En l'absence de l'opérateur de régularisation , la méthode correspond exactement à la méthode itérative de Newton. L'idée est donc d'introduire un opérateur de régularisation afin de neutraliser la perte de dérivée due à l'opérateur . En choisissant le paramètre de plus en plus grand, l'opérateur approche l'identité. Le prix à payer est que la norme de l'opérateur linéaire explose. Cette croissance peut toutefois être compensée grâce aux estimations « douces » et au caractère quadratique de la convergence de la méthode de Newton[1],[4].

Notes et références[modifier | modifier le code]

  1. a b c et d Cédric Villani, « Nash et les équations aux dérivées partielles. », MATAPLI,‎ , p. 35-53 (lire en ligne).
  2. a et b (en) Camillo De Lellis, « The masterpieces of John Forbes Nash Jr », preprint,‎ (arXiv 1606.02551), à paraître dans (en) Helge Holden et Ragni Piene, The Abel Prize 2013-2017, Springer.
  3. a et b (en) Sergiu Klainerman, « On Nash’s unique contribution to analysis in just three of his papers », Bull. Amer. Math. Soc., vol. 54, no 2,‎ , p. 283-305 (DOI 10.1090/bull/1560).
  4. a et b Alinhac et Gérard 1990.

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Serge Alinhac et Patrick Gérard, Opérateurs pseudo-différentiels et théorème de Nash-Moser, EDP Sciences, coll. « Savoirs Actuels », (ISBN 9782759802821, OCLC 927740818)
  • (en) Richard S. Hamilton, « The inverse function theorem of Nash and Moser », Bull. Amer. Math. Soc., vol. 7, no 1,‎
  • (en) Lars Hörmander, « On the Nash-Moser implicit function theorem », Annales Academiae Scientiarum Fennicae. Series A. I. Mathematica, vol. 10,‎
  • (en) Jürgen Moser, « A rapidly convergent iteration method and non-linear partial differential equations - I », Annali della Scuola Normale Superiore di Pisa - Classe di Scienze, vol. 20, no 2,‎
  • (en) Jürgen Moser, « A rapidly convergent iteration method and non-linear differential equations - II », Annali della Scuola Normale Superiore di Pisa - Classe di Scienze, vol. 20, no 3,‎
  • (en) John Nash, « The Imbedding Problem for Riemannian Manifolds », Annals of Mathematics, vol. 63, no 1,‎