Stabilité de Lyapunov

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Lyapunov.

En mathématiques et en automatique, la notion de stabilité de Lyapunov (ou, plus correctement, de stabilité au sens de Lyapunov) apparait dans l'étude des systèmes dynamiques. De manière générale, la notion de stabilité joue également un rôle en mécanique, dans les modèles économiques, les algorithmes numériques, la mécanique quantique, la physique nucléaire, etc.

Un exemple typique de système stable au sens de Lyapunov est celui constitué d'une bille roulant sans frottement au fond coupelle ayant la forme d'une demi-sphère creuse : après avoir été écartée de sa position d'équilibre (qui est le fond de la coupelle), la bille oscille autour de cette position, sans s'éloigner davantage : la composante tangentielle de la force de gravité ramène constamment la bille vers sa position d'équilibre. En présence d'une frottement visqueux (si l'on ajoute par exemple un peu d'huile au fond de la coupelle), les oscillations de la bille sont amorties et celle-ci revient à sa position d'équilibre au bout d'un certain temps (théoriquement infiniment long) : cet amortissement est dû à la dissipation d'énergie sous forme de chaleur. Le système est alors asymptotiquement stable. Si maintenant on retourne la coupelle, le sommet de celle-ci (ayant toujours la forme d'une demi-sphère) est encore une position d'équilibre pour la bille. Mais à présent, si l'on écarte la bille d'une quantité infinitésimale en absence de frottement, cette bille se met à rouler sur la paroi de la coupelle en tombant ; elle s'écarte sans retour de sa position d'équilibre, car la composante tangentielle de la force de gravité éloigne constamment la bille de sa position d'équilibre. In tel système est dit instable.

De manière moins imagée, si tout mouvement d'un système issu d'un voisinage suffisamment petit d'un point d'équilibre x_e demeure au voisinage de ce point, alors x_e est dit stable au sens de Lyapunov. Le théorème central d'Alexandre Lyapunov dit qu'un système dynamique (décrit par une équation différentielle du type \dot{x} = f(x,t)) est stable (au sens de Lyapunov) en un point d'équilibre x_e si et seulement s'il existe une fonction vérifiant certaines conditions précises et liées à la fonction f de l'équation différentielle et à x_e. Le problème de la stabilité se ramène donc à chercher une telle fonction (dite fonction de Lyapunov), souvent par tâtonnement. Les conditions que doit vérifier une fonction de Liapunov du problème dynamique (purement mathématique) rappellent les conditions que doit vérifier l'énergie potentielle pour qu'il y ait stabilité d'un système physique.

D'autres notions de stabilité peuvent être traitées de manière similaire. Par exemple:

  • la stabilité asymptotique (si tout mouvement issu d'un voisinage suffisamment petit U de x_e reste au voisinage de ce point et converge vers x_e). Cette stabilité asymptotique est dite globale si U est l'espace tout entier;
  • la stabilité structurelle (si lorsque l'équation différentielle est perturbée par un terme suffisamment petit, ses orbites ou trajectoires[1] restent peu modifiées).

Les cas d'instabilité peuvent donner lieu à des comportements chaotiques.

Dans le cas de systèmes linéaires aux paramètres incertains, la recherche d'une fonction de Lyapounov peut se formaliser en un problème d'optimisation et, lorsque celui-ci est convexe, il existe des algorithmes de résolution efficaces. Il existe également des méthodes permettant de réaliser un bouclage de manière qu'une fonction de Lyapunov, choisie à l'avance, garantisse la stabilité.

Sommaire

Exemples[modifier | modifier le code]

Les exemples qui suivent sont traités grâce aux théorèmes énoncés et démontrés dans la suite de cet article. Ces exemples ont pour rôle de motiver ces théorèmes et les définitions, parfois un peu techniques, qui sont également nécessaires. Les systèmes considérés ont des coefficients qui ne dépendent pas du temps (ils sont régis par des équations différentielles autonomes). Pour de tels systèmes, les notions délicates d'uniformité sont inutiles, ce qui simplifie considérablement les concepts.

Exemple 1[modifier | modifier le code]

Considérons le système dynamique défini par l'équation différentielle du premier ordre

\dot x = -x -x^3.

Pour déterminer les points d'équilibre, on écrit \dot x =0, d'où 0=x+x^3=x(1+x^2), ce qui équivaut à x=0: c'est l'unique point d'équilibre. Le but est de déterminer si ce point d'équilibre est stable sans avoir à résoudre l'équation différentielle.

Soit alors la fonction V(x)=x^2; on peut l' assimiler à une énergie puisque cette fonction est strictement positive sauf au point d'équilibre x=0 (on dit qu'elle est définie positive) et elle est « globalement propre », c'est-à-dire que V(x) \rightarrow + \infty lorsque \left\Vert x\right\Vert \rightarrow +\infty . Calculons maintenant la dérivée de cette fonction le long des trajectoires du système. Elle s'écrit \dot V(x)=\frac{\partial V}{\partial x}\dot{x} pour \dot x = -x -x^3, soit donc \dot V(x) =2x (-x -x^3)=-2x^2-2x^4. Par conséquent, \dot V(x)<0 pour tout x \neq 0 (on dit par conséquent que la fonction -\dot V est définie positive, ou encore que \dot V est définie négative). Cette énergie est donc toujours strictement décroissante. Le théorème de Lyapunov, explicité plus bas, montre que cette énergie devra nécessairement s'annuler, c'est-à-dire que l'état x du système va nécessairement converger vers 0 quelle que soit la condition initiale. On dit que V est une fonction de Lyapunov et que le point d'équilibre 0 est globalement asymptotiquement stable.

Exemple 2[modifier | modifier le code]

Envisageons maintenant un système plus compliqué, pour lequel la fonction de Lyapunov ne sera pas aussi simple: soit le système

\left\{ 
\begin{array}{c}
\dot{x}_{1}=-2x_{1}+2(x_2)^{4} \\ 
\dot{x}_{2}=-x_{2}
\end{array}\right. .

L'origine x=0 est de nouveau un point d'équilibre. Soit cette fois V(x)=6x_1^2+12x_2^2+4x_1x_2^4+x_2^8. On peut écrire cette quantité sous la forme

V(x)=\left(2x_1+x_2^4\right)^2+2x_1^2+12x_2^2.

Elle est donc définie positive (au sens précisé plus haut, et bien qu'il ne s'agisse pas d'une forme quadratique) et globalement propre, et peut de nouveau être considérée comme une énergie, dans un sens généralisé. Un calcul semblable au précédent donne

\dot{V}\left( x\right) =\frac{\partial V}{\partial x_{1}}\dot{x}_{1}+\frac{
\partial V}{\partial x_{2}}\dot{x}_{2}

\dot x_1 et \dot x_2 sont les quantités définies plus haut en fonction de x_1 et x_2. On vérifie que

\dot V(x)=-24\left(x_1^2 + x_2^2\right)

et \dot V est donc définie négative. Par le même raisonnement que dans le premier exemple, V est une fonction de Lyapunov, et le théorème de Lyapunov permet de conclure que le point d'équilibre x=0 est globalement asymptotiquement stable.

Exemple 3[modifier | modifier le code]

Soit maintenant le système

\left\{ 
\begin{array}{c}
\dot{x}_{1}=-x_{1}+x_{2} +\epsilon x_1\left(x_1^2+x_2^2\right)\\ 
\dot{x}_{2}=-x_1-x_{2}+\epsilon x_2\left(x_1^2+x_2^2\right)
\end{array}\right.

avec \epsilon =\pm 1. Étudions de nouveau la stabilité du point d'équilibre x=0. Pour x voisin de 0, on peut considérer ce système comme « quasi-linéaire » (voir infra) et on peut l'approcher par le système linéaire (en négligeant les termes du second ordre)

\left\{ 
\begin{array}{c}
\dot{x}_{1}=-x_{1}+x_{2}\\ 
\dot{x}_{2}=-x_1-x_{2}
\end{array}\right.

soit encore \dot x =A x avec A=\left[ 
\begin{array}{cc}
-1 & 1 \\ 
-1 & -1
\end{array}
\right]
. On vérifie facilement que les valeurs propres de A sont -1+i, -1-i. La condition nécessaire et suffisante de stabilité d'un système linéaire à coefficients constants (voir infra) montre alors que 0 est asymptotiquement stable pour ce système linéaire, puisque ces valeurs propres appartiennent toutes deux au demi-plan gauche ouvert du plan complexe. Par conséquent, d'après le théorème de Perron, donné plus bas, l'origine est asymptotiquement stable pour le système non linéaire envisagé.

La question se pose maintenant de savoir si cette stabilité asymptotique est globale ou non. D'après le Critère de Lyapunov (voir infra), il existe une unique solution symétrique réelle définie positive P à l'équation algébrique dite de Lyapunov

A^T P + P A = -2 I_2.

En résolvant cette équation, on obtient en effet P=I_2. Par conséquent, la fonction V(x)=x^T P x = x_1^2+x_2^2 est une fonction de Lyapunov pour l'approximation linéaire. Voyons maintenant ce qu'il en est pour le système non linéaire initial. On obtient

\dot V(x)=2x_1 \left(-x_1-x_2+\epsilon\left(x_1^2+x_2^2\right)\right)
 +2x_2 \left(-x_1-x_2+\epsilon \left(x_1^2+x_2^2\right)\right)

soit encore

\dot V(x)=2\left(x_1^2+x_2^2\right)\left(-1+\epsilon \left(x_1^2+x_2^2\right)\right).

Par conséquent,

  • pour \epsilon=-1, la fonction \dot V est définie négative, et l'origine est donc globalement asymptotiquement stable pour le système non linéaire. De plus, \dot V(x)\le -2V(x) d'où, pour une condition initiale x(t_0)=x_0, on a pour tout t \ge t_0
V(x) \le V(x_0)e^{-2(t-t_0)} d'où \vert\vert x(t)\vert\vert \le \vert\vert x_0\vert\vert e^{-(t-t_0)}

et le point d'équilibre 0 est dit globalement exponentiellement stable.

  • Pour \epsilon=1, prenons un état initial situé à l'extérieur de la boule x_1^2+x_2^2=1 : alors \dot V(x) >0, donc V(x) ne peut qu'augmenter, et par suite l'état du système ne peut que s'éloigner de cette boule. L'origine n'est donc pas globalement asymptotiquement stable. Son bassin d'attraction est la boule ouverte x_1^2+x_2^2<1, car pour un état initial situé dans cet ensemble, \dot V(x) <0, et l'« énergie » V(x) va diminuer jusqu'à s'annuler à l'origine.

Exemple 4[modifier | modifier le code]

Considérons enfin le système

\left\{ 
\begin{array}{c}
\dot{x}_{1}=x_{2}\\ 
\dot{x}_{2}=-x_{2}-x_1^3
\end{array}\right.

et envisageons comme « candidate » pour être fonction de Lyapunov

V(x)=x_1^4+x_1^2+2x_1 x_2 +2x_2^2.

On a V(x)=x_1^4+\left(x_1 + x_2\right)^2+x_2^2, c'est donc une fonction définie positive et strictement propre. Un calcul simple montre que \dot V(x) = -2 x_2^2. La fonction -\dot V est donc seulement semi-définie positive, puisqu'elle s'annule sur la droite x_2=0. Le théorème de Lyapunov permet de conclure que l'origine est stable (c'est-à-dire que si la condition initiale est voisine de 0, l'état restera proche de 0), mais ne permet pas de conclure qu'elle est asymptotiquement stable. Mais si x_2=0, alors \dot{x}_{1}=0, donc x_1=C^{te}. De plus, \dot{x}_{2}=-x_1^3, donc x_2 ne peut rester nul que si x_1=0. On exprime ceci en disant que le plus grand ensemble invariant inclus dans l'ensemble des x tels que V(x)=0 se réduit à l'origine. Le théorème de Krasovskii-LaSalle (voir infra) permet alors de conclure que l'origine est globalement asymptotiquement stable.

Conclusion[modifier | modifier le code]

Ces quatre exemples montrent les points suivants :

(i) La détermination d'une fonction de Lyapunov est un problème délicat. Celles des exemples 2 et 4 ont été obtenues après des tâtonnements.
(ii) Les théorèmes de Lyapunov, qui sont les plus connus, sont parfois insuffisants, et à l'exemple 4 on n'a pu conclure que grâce au théorème de Krasovskii-LaSalle.

Recadrer ces exemples dans un contexte général demande des développements non triviaux.

Introduction historique[modifier | modifier le code]

On tente ci-dessous de retracer les grandes étapes de l'évolution de la théorie de la stabilité. Les contributions depuis plus d'un siècle sont innombrables et l'exposé qui suit n'est bien évidemment pas exhaustif[2].

Stabilité au sens de Lagrange-Dirichlet[modifier | modifier le code]

C'est tout d'abord les systèmes mécaniques dont la stabilité a été étudiée. Soit un système conservatif (c'est-à-dire soumis à des forces qui dérivent toutes d'un potentiel) à n degrés de libertés et q=\left( q_{1},...,q_{n}\right) le vecteur de ses coordonnées généralisées. Le mouvement vérifie l'équation de Lagrange

\frac{d}{dt}\frac{\partial \mathcal L}{\partial \dot{q}}-\frac{\partial \mathcal L}{\partial q
}=0

\mathcal L(q,\dot q)=T(q,\dot q) -U(q), T(q,\dot q) étant l'énergie cinétique, supposée être une forme quadratique semi-définie positive en \dot q, et U(q) étant l'énergie potentielle. L'équation de Lagrange s'écrit de manière équivalente

\frac{d}{dt}\left( \frac{\partial T}{\partial \dot{q}}\right) -\frac{
\partial T}{\partial q}+\frac{\partial U}{\partial q}=0.

Les équilibres q=c^{te} sont donc solutions de \frac{\partial U}{\partial q}=0. Joseph-Louis Lagrange, généralisant le principe de Evangelista Torricelli (1644) suivant lequel un corps pesant a tendance à aller vers la position d'équilibre où son centre de gravité est le plus bas, a énoncé en 1788 le principe suivant : si l'énergie potentielle U(q) possède un minimum relatif strict (« condition de Lagrange »), l'équilibre en ce point est stable. La démonstration de Lagrange était toutefois incorrecte, sauf dans le cas où l'énergie potentielle est une forme quadratique. C'est Johann Peter Gustav Lejeune Dirichlet qui, le premier, a pu donner du principe de Lagrange une démonstration générale et rigoureuse en 1846. Il a montré que, si la condition de Lagrange est vérifiée au point q=0, si le système est à l'équilibre en ce point, et si on l'en écarte suffisamment peu et suffisamment lentement, le vecteur q reste aussi proche que l'on veut de ce point : c'est ce qu'on appelle la stabilité au sens de Lagrange-Dirichlet (si Dirichlet avait supposé que l'énergie cinétique est une forme quadratique définie positive en \dot q, il aurait obtenu la stabilité au sens de Lyapunov, à savoir que \dot q également serait resté aussi proche que l'on veut de 0 ; cela sera détaillé plus loin, en application du théorème de stabilité de Lyapunov).

Stabilité au sens de Poisson ou de Poincaré[modifier | modifier le code]

Siméon Denis Poisson, quant à lui, a défini la stabilité d'un système comme étant la propriété suivante : tout mouvement de celui-ci retourne un nombre infini de fois dans un voisinage arbitrairement petit de son état initial. Poincaré, qui s'est durablement intéressé à la stabilité des orbites des planètes du système solaire, est allé plus loin : tout d'abord dans son fameux mémoire Sur le problème des trois corps et les équations de la dynamique (1889) ; puis, celui-ci comportant une erreur, dans ses Méthodes Nouvelles de la mécanique céleste , parues entre 1892 et 1899. Au cours de ces travaux, Poincaré a été amené à définir la stabilité orbitale, encore appelée aujourd'hui stabilité au sens de Poincaré. Il a ajouté à la définition de Poisson la condition que la « propriété de récurrence » des mouvements du système doit être satisfaite avec une probabilité égale à 1 ; il a appelé la propriété obtenue la stabilité au sens de Poisson et a établi ce qu'on appelle aujourd'hui le « théorème de récurrence de Poincaré ». Ces résultats, complétés en 1901 par ceux d'Ivar Bendixson (voir le théorème de Poincaré-Bendixson), conduiront George David Birkhoff à établir le « théorème de Poincaré-Birkhoff » (1912), à définir la notion d'ensemble limite (en) (1927), dont il sera question plus loin, puis à démontrer son théorème ergodique (1931).

Joseph Liouville a appliqué le principe de Lagrange aux mouvements d'un fluide en rotation en 1842, puis en 1855. Ses résultats ont été peu convaincants, et le problème a intéressé Pafnouti Tchebychev en 1882 ; il l'a confié à Alexandre Lyapunov dans le cadre de sa maîtrise.

L’œuvre de Lyapunov[modifier | modifier le code]

Lyapunov a tout d'abord repris la méthode de Liouville, puis s'est vivement intéressé à la démonstration de Dirichlet. Aux yeux de Lyapunov, le point essentiel était que l'énergie totale V(q,\dot q)=T(q,\dot q) +U(q) est une « fonction définie positive » en x=(q,\dot q), qui reste constante tandis que système bouge. Cette énergie totale allait devenir en 1892, dans sa thèse de doctorat intitulée Le problème général de la stabilité du mouvement, ce que nous appelons aujourd'hui une « fonction de Lyapunov ». Cette thèse est d'abord parue en russe, puis traduite en français en 1908, et en anglais pour son centenaire, en 1992[3]. Dans ce travail, Lyapunov, influencé d'autre part par les travaux d'Edward Routh[4] avec son Treatise on the Stability of a Given State of Motion (1877), de William Thomson (Lord Kelvin) et Peter Guthrie Tait avec leur Treatise of Natural Philosophy (1879), de Nikolay Yegorovich Zhukovsky (en) qui avait fait sa thèse sur la stabilité du mouvement en 1882, et de Poincaré avec son mémoire de 1889 déjà mentionné, a également introduit les notions de stabilité (au sens que nous appelons aujourd'hui « de Lyapunov ») et de stabilité asymptotique. Lyapunov a d'autre part étudié la stabilité de l'origine pour les systèmes « quasi-linéaires »

\frac{dx}{dt}=Ax+f\left( x\right)

et est parvenu à la conclusion que, lorsque la matrice A est constante, et que 0 est asymptotiquement stable pour ce système lorsqu'il est linéaire (f=0), alors il est également stable pour le système non linéaire lorsque \left\Vert f\left( x\right) \right\Vert =o\left( \left\Vert x\right\Vert
\right) pour \left\Vert x\right\Vert \rightarrow 0. Durant les années qui ont suivi, Lyapunov a continué d'étudier la stabilité de ces systèmes quasi-linéaires dans le cas où la matrice constante A du système linéaire a ses valeurs propres sur l'axe imaginaire. Ces travaux ont été retrouvés dans les papiers de Lyapunov et publiés une dizaine d'années après qu'il se fut donné la mort en 1918.

Cas des systèmes linéaires[modifier | modifier le code]

La stabilité dans le cas des systèmes linéaires à coefficients constants (stabilité asymptotique ou, de manière équivalente, exponentielle) a fait l'objet de critères algébriques. Un premier résultat a été obtenu par le mathématicien français Charles Hermite en 1856. Lyapunov a lui-même établi deux critères en 1892, dans sa célèbre thèse de doctorat déjà mentionnée: celui qu'il est convenu d'appeler le « critère de Lyapunov », détaillé plus bas, et un autre, s'appliquant spécifiquement au cas d'une seule équation différentielle scalaire. Mais dans ce cas, c'est le mathématicien anglais Edward Routh qui a franchi le pas décisif en 1875, en proposant son fameux critère. Celui-ci a été établi sous une forme différente, et de manière indépendante, par Adolf Hurwitz en 1895, à partir du travail d'Hermite. Il en est résulté le critère appelé depuis « de Routh-Hurwitz ». Celui-ci a été amélioré par les mathématiciens français Liénard et Chipart en 1914 (pour tous ces résultats, voir l'article Polynôme de Hurwitz).

Systèmes quasi-linéaires et stabilité uniforme[modifier | modifier le code]

La question s'est ensuite posée de la stabilité de 0 pour le système quasi-linéaire ci-dessus lorsque cette fois, la matrice A dépend du temps : A=A(t). Le résultat obtenu par Lyapunov a tout d'abord paru généralisable tel quel à ce cas. Mais Oskar Perron en a exhibé en 1930 un exemple de système quasi-linéaire pour lequel 0 est asymptotiquement stable lorsque f=0, et est instable avec f \neq 0 vérifiant la condition indiquée[5].

Les progrès de l'Analyse, grâce notamment aux travaux de Maurice René Fréchet, ont alors permis à Ioėlʹ Gilʹevich Malkin d'affiner les définitions de Lyapunov et d'introduire la notion de stabilité uniforme dans les années 1940. Konstantin Petrovich Persidskii, dans son article Sur la théorie de la stabilité des équations différentielles (1946) a établi pour le système quasi-linéaire ci-dessus, que si 0 est uniformément asymptotiquement stable lorsque f=0, 0 est encore uniformément asymptotiquement stable lorsque f \neq 0 vérifie la condition indiquée.

Notions et résultats complémentaires[modifier | modifier le code]

Il n'était pas suffisant de définir clairement la stabilité uniforme ; il convenait d'étudier de plus près la stabilité asymptotique. La notion de stabilité exponentielle a été introduite par Malkin en 1935.

R.E. Vinograd a monté sur un exemple, en 1957, que l'attractivité d'un point d'équilibre n'entraîne pas sa stabilité asymptotique, même pour un système autonome.

Nicolai Chetaev a énoncé en 1934 un important critère d'instabilité de l'origine, généralisant un autre critère obtenu par Lyapunov en 1892 (le théorème de Chetaev a lui-même été généralisé par plusieurs auteurs, dont José Luis Massera (en) en 1956[6] et James A. Yorke (en) en 1968[7],[8]). Les livres de Malkin (Theory of Stability of Motion, 1952), Nikolai N. Krasovskii (Stability of Motion, 1959) et l'article de Massera déjà mentionné, ont contribué à donner à ces résultats leur forme définitive. Une addition importante est celle faite par Evgenii Alekseevich Barbashin et Krasvosskii en 1952 en Russie, et indépendamment par Joseph P. LaSalle en 1960 aux États-Unis, du « Principe d'invariance (en) de Krasovskii-LaSalle ». Ce Principe a tout d'abord été obtenu pour les systèmes autonomes ; sa généralisation au cas des systèmes non autonomes, qui est non triviale, a été réalisée par Jack K. Hale et LaSalle en 1967.

La méthode des fonctions de Lyapunov a été étendue sans grande difficulté au cas des systèmes à temps discret grâce aux contributions de Ta Li (qui a donné en 1934 un exemple correspondant, pour le cas des systèmes à temps discret, à celui de Perron) et Wolfgang Hahn (en) (1958) notamment. Rudolf Kalman et J.E. Bertram ont fait une synthèse d'une partie de ces résultats en 1960 dans un article qui est resté classique[9].

L'approche inaugurée par Lyapunov pour les systèmes définis par une équation différentielle a été étendue au cas des systèmes définis par une équation différentielle retardée vers la fin des années 1950 et le début des années 1960 par Krasvoskii et Boris Sergeevich Razumikhin ; le principe d'invariance de Krasovskii-LaSalle a été étendu à ces systèmes par Hale en 1965, et on doit à cet auteur une synthèse, plusieurs fois rééditée et à chaque fois augmentée, de l'ensemble de ces résultats[10].

La théorie qualitative des équations différentielles, initiée par Poincaré et Birkhoff, a continué d'être développée par Viktor Vladimirovich Nemytskii (en) et V. V. Stepanov dans leur livre Qualitative Theory of Differential Equations, paru en 1947 ; ce travail, complété par celui de Nemytskii en 1949, a conduit Walter Gottschalk (en) et Gustav A. Hedlund en 1955, Solomon Lefschetz en 1958, Vladimir Ivanovich Zubov en 1961 (voir la méthode de Zubov (en)), J. Auslander et P. Seibert en 1964, A. Strauss et (de manière indépendante) Nam Parshad Bhatia en 1966, à considérer un système dynamique comme étant défini par un semi-groupe (un système défini par une équation différentielle en étant un cas particulier), et à étudier la stabilité (ou la stabilité asymptotique) d'un ensemble compact pour un tel système au moyen d'une « fonction de Lyapunov généralisée », continue mais non différentiable[8].

Réciproques[modifier | modifier le code]

Les théorèmes de Lyapunov et ses compléments divers disent essentiellement que si, pour un point d'équilibre donné, par exemple l'origine, on peut trouver une fonction de Lyapunov, alors ce point d'équilibre est stable (ou asymptotiquement stable, uniformément asymptotiquement stable, etc., suivant la nature exacte de cette fonction de Lyapunov). La réciproque a également été étudiée. K. P. Persidskii a montré en 1933 que, si 0 est un point d'équilibre stable d'un système non linéaire, il existe une fonction de Lyapunov dont la dérivée le long du champ de vecteurs de l'équation est semi-définie négative. Malkin a démontré en 1954 que, si 0 est un point d’équilibre uniformément asymptotiquement stable, il existe une fonction de Lyapunov dont cette même dérivée est définie négative. Ces résultats, et quelques autres, ont été rassemblés en 1962 par Massera (à qui on doit le « lemme de Massera (en) », qui joue un rôle important pour ces questions) dans un article. L'exposé systématique de tous ces travaux a été réalisé par Hahn en 1967 et (dans une perspective un peu différente) par Bhatia et Giorgio P. Szegö en 1970, dans des livres qui font encore autorité[11],[8].

Stabilité structurelle[modifier | modifier le code]

Poincaré, au volume III de son mémoire Méthodes Nouvelles de la Mécanique Céleste, avait découvert les orbites homoclines et hétéroclines (voir infra), au voisinage desquelles se manifeste une dépendance sensitive des conditions initiales (dans la terminologie actuelle). Balthasar van der Pol avec son oscillateur en 1928, puis Aleksandr Andronov et Lev Pontriaguine en 1937, ont développé les idées de Poincaré sur la stabilité orbitale jusqu'à parvenir à la notion de stabilité structurelle d'un système. Andronov et Pontryagin ont appelé « système grossier » un système structurellement stable, et démontré ce qu'on appelle aujourd'hui le « critère d'Andronov-Pontryagin (en) ». Ces résultats ont été généralisés par Maurício Peixoto (en) en 1959, puis par Vladimir Arnold, Dmitri Anossov, Yakov G. Sinai, Stephen Smale et René Thom notamment, dans les années 1960. Ces travaux ont conduit à la théorie du chaos qui s'est développée dans les années 1970.

Applications aux systèmes bouclés[modifier | modifier le code]

Les fonctions de Lyapunov ont été utilisées pour étudier la stabilité des systèmes bouclés par M.A. Aizerman (1947) (dont la conjecture s'est révélée fausse mais a été à l'origine de nombreux travaux sur la stabilité absolue (en)), A. Lur'e (1957), V. N. Postnikov et Aleksander Mikhailovich Letov (1961)  ; Vasile M. Popov (en) (théorie de l'hyperstabilité et critère de Popov, 1961-1962), Rudolf Kalman (1963) et Vladimir Andreevich Yakubovich (en) (1964 : Lemme de Kalman-Yakubovich-Popov (en)). Alors que les résultats de Lyapunov sur la stabilité de 0 pour un système « presque linéaire » incitaient à rechercher assez systématiquement des fonctions de Lyapunov quadratiques, ces travaux ont montré qu'il fallait dans de nombreux cas envisager une classe de fonctions de Lyapunov beaucoup plus large, en l'occurrence comprenant un terme quadratique et un terme dépendant du temps, sous forme d'une intégrale fonction de sa borne supérieure. Par ailleurs, Kalman a montré en 1960 que pour un système linéaire stationnaire, la théorie de commande optimale pouvait fournir des fonctions de Lyapunov. La théorie de la passivité (en) ou de la dissipativité (en), d'abord apparue dans le cadre des circuits électriques, puis placée dans un cadre général à partir du milieu des années 1960, peut également être établie grâce l'emploi de fonctions de Lyapunov. Bruce A. Francis et W. M. Wonham (de) ont introduit en 1975 la notion de « synthèse structurellement stable », c'est-à-dire un asservissement qui confère au système bouclé une stabilité structurelle en présence de perturbations dont la dynamique est connue[12]. Avec le passage du qualitatif au quantitatif, dans les années qui ont suivi, est née la problématique de la commande robuste, dont une des approches, datant du milieu des années 1990, est la recherche d'une fonction de Lyapunov quadratique optimale au moyen d'un algorithme d'optimisation convexe, sur la base d'inégalités linéaires matricielles (en)[13]. Le mathématicien russe V.L. Kharitonov a montré en 1978 que pour étudier la stabilité d'un système régi par une équation différentielle scalaire à coefficients constants mais incertains et compris entre des bornes données, il est suffisant de tester si quatre polynômes seulement (les polynômes que l'on appelle maintenant « de Kharitonov ») sont de Hurwitz (voir l'article Théorème de Kharitonov (en)); le résultat de Kharitonov n'a été connu en Occident qu'en 1988. Vers le milieu des années 1990 est apparue, sous l'impulsion d'Eduardo D. Sontag (en), une méthode de conception de régulateurs pour des systèmes non linéaires, fondée sur la notion de stabilité entrée-état (« input-to-state stability »[14]) et l'utilisation d'une fonction de Lyapunov.

Définition de certains types de stabilité[modifier | modifier le code]

Ainsi qu'il ressort de l'historique ci-dessus, il existe de nombreux types de stabilité : au sens de Lagrange-Dirichlet, Zhukovsky, Poisson, Poincaré, Lyapunov, etc. Nous envisagerons ci-dessous les plus importants. Puis nous donnerons les principaux théorèmes de stabilité et d'instabilité. On est amené à distinguer le cas d'un système autonome (c'est-à-dire dont les coefficients ne dépendent pas explicitement de la variable t, qu'on peut considérer comme désignant le temps) et le cas d'un système non autonome. Dans ce dernier cas apparaît la notion délicate d'uniformité, qui rend les définitions (et les résultats) beaucoup plus complexes. Il est donc vivement conseillé de se contenter, dans une première lecture, de ne considérer que le cas des systèmes autonomes.

Cas d'un système autonome[modifier | modifier le code]

Soit un système autonome

(A)::\dot x = f(x)

f : D \to \mathbb{R}^n est une application supposée localement lipschitzienne sur l'ouvert  D  \subset \mathbb{R}^n contenant l'origine x=0. On suppose que 0 est un point d'équilibre du système, c'est-à-dire que f(0)=0. Soit \varphi(x_0,t_0;.) : t \mapsto \varphi(x_0, t_0;t) l'unique solution maximale de l'équation différentielle (A), vérifiant la condition initiale \varphi(x_0, t_0;t_0)=x_0.

Les définitions qui suivent seraient incompréhensibles sans l'emploi de quantificateurs (et n'ont pu être rendues précises que grâce à cet emploi).

Le point d'équilibre 0 du système (A) est :

  • stable au sens de Lyapunov si : \forall \varepsilon > 0, \exists \delta (\varepsilon) > 0 tel que : dès que \left\| {x_0} \right\| < \delta(\varepsilon), \varphi(x_0, t_0;.) est définie sur un intervalle contenant [t_0,+\infty[ & \left\| {\varphi(x_0, t_0;t)} \right\| < \varepsilon, \forall t\ge t_0  ;
  • instable s'il n'est pas stable (en particulier, si \varphi(x_0,t_0,.) n'est définie que sur un intervalle \left] t_{1},t_{2}\right[ \supset \left\{ t_{0}\right\}
, t_2<+\infty, x_e n'est pas stable[11]. Cela ne peut se produire que si \lim\limits_{t\rightarrow t_{2}}\varphi (x_{0},t_{0};t)\in Fr(D), Fr(D) désignant la frontière de D) ;
  • asymptotiquement stable s'il est stable et si : \exists \eta >0: \left\| {x_0} \right\| < \eta \Rightarrow \varphi(x_0,t_0;t) \to 0 quand t \to \infty ;
  • globalement asymptotiquement stable s'il est stable, D=\mathbb R^n et l'implication ci-dessus est valide pour tout \eta >0 ;
  • exponentiellement stable s'il est stable et :  \exists \alpha , \beta, \gamma > 0 tels que pour tous t \ge t_0 et \vert\vert x_0 \vert\vert \le \gamma,
 \left\| {\varphi(x_0,t_0;t)} \right\| \le \alpha  \left\| {x_0} \right\|  e^{-\beta (t-t_0)}  ;
  • globalement exponentiellement stable si D=\mathbb R^n et, ci-dessus, \vert\vert x_0 \vert\vert est quelconque.

Cas d'un système non autonome[modifier | modifier le code]

Considérons maintenant un système non autonome

(E) : \dot x = f(x,t)

f : D \times]T,+\infty[ \to \mathbb{R}^n est localement lipschitzienne par rapport à la première variable sur l'ouvert  D  \subset \mathbb{R}^n, et où T \ge -\infty.

Pour un tel système, on distingue la stabilité uniforme de la stabilité, la stabilité asymptotique uniforme de la stabilité asymptotique, etc., alors que pour un système autonome, ces notions coïncident.

Soit x_e \in D un point d'équilibre du système, c'est-à-dire vérifiant f(x_e,t)=0, \forall t \in ]T, +\infty[. Soit (x_0,t_0) \in D \times ]T, +\infty[ et \varphi(x_0,t_0;.) :t \mapsto \varphi(x_0,t_0;t) l'unique solution maximale de l'équation différentielle (E) vérifiant la condition initiale x(t_0)=x_0.

Le point d'équilibre x_e est[15] :

  • stable si : \forall \varepsilon >0,\exists \delta \left( \varepsilon ,t_{0}\right)
>0 tel que : dès que \left\Vert x_{0}-x_{e}\right\Vert \leq \delta \left( \varepsilon
,t_{0}\right), \varphi(x_0,t_0,.) est définie sur un intervalle contenant [t_0,+\infty[ & \forall t\geq t_{0},\left\Vert \varphi \left(
x_{0},t_{0};t\right) -x_{e}\right\Vert \leq \varepsilon  ;
  • instable s'il n'est pas stable ;
  • uniformément stable s'il est stable et si la quantité \delta \left( \varepsilon
,t_{0}\right) ci-dessus est indépendante de t_0 (et peut donc s'écrire \delta \left( \varepsilon\right)) ;
  • attractif si : \exists \delta >0,\left\Vert x_{0}-x_{e}\right\Vert \leq \delta \Rightarrow\lim\limits_{t\rightarrow +\infty }\left\Vert \varphi \left(
x_{0},t_{0};t\right) -x_{e}\right\Vert =0 ;
  • globalement attractif si D=\mathbb R^n et, ci-dessus, \exists \delta >0 est remplacé par \forall \delta >0 ;
  • uniformément attractif si
\exists \delta >0,\forall \varepsilon >0,\exists \tau \left( \varepsilon
,\delta \right) >0,\forall t_{0}>T:\left\Vert x_{0}-x_{e}\right\Vert \leq
\delta
\Rightarrow \forall t\geq t_{0}+\tau \left( \varepsilon ,\delta
\right) ,\left\Vert \varphi \left( x_{0},t_{0};t\right) -x_{e}\right\Vert
\leq \varepsilon  ;
  • globalement uniformément attractif si D=\mathbb R^n et, ci-dessus, \exists \delta >0 est remplacé par \forall \delta >0 ;
  • asymptotiquement stable (resp. globalement asymptotiquement stable) s'il est stable et attractif (resp. globalement attractif) ;
  • uniformément asymptotiquement stable s'il est uniformément stable et uniformément attractif ;
  • uniformément borné si

\forall \alpha >0,\exists \beta \left( \alpha \right) >0,\forall
t_{0}>T:\left\Vert x_{0}-x_{e}\right\Vert \leq \alpha \Rightarrow \forall
t\geq t_{0},\left\Vert \varphi \left( x_{0},t_{0};t\right) -x_{e}\right\Vert
\leq \beta \left( \alpha \right)  ;

  • globalement uniformément asymptotiquement stable s'il est stable, globalement uniformément attractif et uniformément borné.
  • exponentiellement stable s'il est stable et
\exists \alpha >0,\forall \varepsilon >0,\forall t_{0}>T,\exists \delta
\left( \varepsilon \right) >0:\left\Vert x_{0}-x_{e}\right\Vert \leq \delta
\left( \varepsilon \right)
\Rightarrow \forall t\geq t_{0},\left\Vert
\varphi \left( x_{0},t_{0};t\right) -x_{e}\right\Vert \leq \varepsilon
e^{-\alpha \left( t-t_{0}\right) } ;
  • globalement exponentiellement stable s'il est stable, D=\mathbb R^n et
\exists \alpha >0,\exists \gamma >0,\forall \beta >0,\forall
t_{0}>T,\exists k\left( \beta \right) >0:\left\Vert x_{0}-x_{e}\right\Vert
\leq \beta
\Rightarrow\forall t\geq t_{0},\left\Vert \varphi \left(
x_{0},t_{0};t\right) -x_{e}\right\Vert \leq k\left( \beta \right) \left\Vert
x_{0}-x_{e}\right\Vert ^{\gamma }e^{-\alpha \left( t-t_{0}\right) }.

On précise parfois que la stabilité exponentielle, telle que définie ci-dessus, est uniforme, par opposition à une stabilité exponentielle non uniforme qui serait une condition moins stricte.

Stabilité d'un mouvement[modifier | modifier le code]

Stabilité d'un mouvement ou d'un ensemble positivement invariant[modifier | modifier le code]

Soit \psi un mouvement du système (E), c'est-à-dire une solution maximale de l'équation différentielle (E) sur ]T, +\infty[. En remplaçant dans ce qui précède x_e par \psi(t), on définira comme ci-dessus un mouvement stable, attractif, asymptotiquement stable, etc.

Soit M un sous-ensemble de D. Cet ensemble est dit positivement invariant si pour tout mouvement \psi tel que \psi(t_1) \in M pour un instant t_1, on a \psi(t) \in M, \forall t \ge t_1. On peut de même définir un ensemble positivement invariant stable, attractif, asymptotiquement stable, etc., en remplaçant ci-dessus \left\Vert \varphi \left(
x_{0},t_{0};t\right) -x_{e}\right\Vert par d(\varphi \left(
x_{0},t_{0};t\right),M)d\left( x,M\right) =\inf\limits_{y\in M}\left\Vert x-y\right\Vert (le plus souvent, M est compact, et dans ce cas on peut remplacer \inf par \min).

Soit \psi : ]T, +\infty[ \rightarrow D un mouvement. Son orbite (ou trajectoire) est son image

\mathcal{O}\left( \psi \right) =\left\{ \psi (t):t\in \left] T,+\infty 
\right[ \right\} \subset D.

Si t_0 est l'instant initial, la semi-orbite positive de \psi est \mathcal{O}^{+}\left( \psi \right) =\left\{ \psi (t):t \ge t_0\right\}.

Les ensembles \mathcal{O}\left( \psi \right) et \mathcal{O}^{+}\left( \psi \right) sont connexes (en tant qu'images d'un ensemble connexe par une application continue).

Stabilité au sens de Poincaré[modifier | modifier le code]

Il est clair qu'une semi-orbite positive est un ensemble positivement invariant. On peut donc parler d'une semi-orbite positive stable, asymptotiquement stable, etc. On dit parfois d'un mouvement dont la semi-orbite positive est stable (resp. asymptotiquement stable, ...) qu'il est orbitalement stable (resp. orbitalement asymptotiquement stable, ...). La stabilité orbitale est également appelée stabilité au sens de Poincaré. C'est une notion plus faible que la stabilité au sens de Lyapunov.

Stabilité structurelle et robustesse[modifier | modifier le code]

Stabilité structurelle[modifier | modifier le code]

La notion de stabilité structurelle est liée à la stabilité au sens de Poincaré. L'équation d'un système est toujours connue avec une certaine imprécision. Le système est dit structurellement stable si cette imprécision, à condition qu'elle soit suffisamment faible, n'entraîne pas une trop grande variation de ses orbites. Par exemple, un oscillateur pur (sans frottement) a des orbites circulaires. Dès qu'on rajoute un frottement visqueux, aussi faible soit-il, ces orbites deviennent des spirales tendant vers l'origine : l'oscillateur pur n'est donc pas structurellement stable, contrairement à l'oscillateur avec frottement visqueux.

Au plan mathématique[16], soit le système défini par l'équation différentielle (A) où f est de classe \mathcal C^1. Le champ de vecteurs f étant impossible à connaître exactement, on peut supposer qu'on en connaît une approximation g, ce second de champ de vecteurs, lui aussi de classe \mathcal C^1, étant « proche » de f. On conviendra que sera le cas si la quantité \left\Vert f-g\right\Vert _{1} est suffisamment petite, où \left\Vert .\right\Vert _{1} est la norme définie sur l'espace des (germes de) champs de vecteurs continûment différentiables sur un voisinage ouvert de \overline\Omega \subset D, \Omega étant un ouvert connexe et \overline\Omega son adhérence, supposée compacte, par

\left\Vert X\right\Vert _{1}=\max\limits_{x\in \overline\Omega}\left\{ \left\Vert X\left(
x\right) \right\Vert +\left\Vert d X\left( x\right) \right\Vert
\right\}

d X\left( x\right) \in \mathbb R^{n\times n} est la différentielle de X au point x. Soit h : \Omega \rightarrow \Omega un homéomorphisme. On dit que h est un \varepsilon-homéomorphisme si \forall x \in \Omega, \left\Vert h(x)-x \right\Vert \le \varepsilon.

Par abus de langage, on appellera orbites de f les orbites du système (A), et on parlera de même des orbites de g.

Définition — Le champ de vecteurs f (ou le système (A)) est dit structurellement stable si pour tout \varepsilon >0, il existe \eta(\varepsilon)>0 tel que pour tout champ de vecteurs g de classe \mathcal C^1 sur \Omega vérifiant \left\Vert f-g\right\Vert _{1} < \eta, il existe un \varepsilon-homéomorphisme h : \Omega \rightarrow \Omega qui envoie chaque orbite de f sur une orbite de g.

Robustesse[modifier | modifier le code]

La problématique de la robustesse d'un système ressemble celle de la stabilité structurelle : un système est robuste si son comportement est peu sensible aux erreurs de modèle. Ce n'est pas ici le lieu de développer cette notion très importante. Disons simplement que, dans la théorie de la robustesse, le modèle du système peut être sujet à des erreurs plus grandes que dans celle de la stabilité structurelle. Ces erreurs comportent en général des dynamiques négligées. La notion de robustesse ne s'applique raisonnablement qu'à un système bouclé.

Attracteurs et chaos[modifier | modifier le code]

Dépendance sensitive des conditions initiales[modifier | modifier le code]

Considérons un système autonome (pour simplifier la présentation). Le point d'équilibre x_e de ce système est instable s'il n'est pas stable, autrement dit

\exists \varepsilon >0,\forall \delta >0,\exists x_{0} \in D :\left\Vert
x_{0}-x_{e}\right\Vert \leq \delta & \left\Vert \varphi \left( x_{0},t_0;t\right)
-x_{e}\right\Vert \geq \varepsilon .

La dépendance sensitive des conditions initiales du flot g:t \mapsto g^t: x_0 \mapsto g^tx_0=\varphi \left( x_{0}, t_0;t\right) est une condition légèrement différente. L'instant initial est fixé et égal à t_0. Soit \Lambda un sous-ensemble compact et invariant de D. Le flot g est dit dépendant de manière sensitive des conditions initiales sur \Lambda si :

\exists \varepsilon >0,\forall x_{0}\in \Lambda ,\forall \delta >0,\exists
y\in D, \exists t>t_{0}:\left\Vert y-x_{0}\right\Vert \leq \delta & \left\Vert
g^{t}x_{0}-g^{t}y\right\Vert >\varepsilon

y et t dépendent tous deux de \varepsilon, x_0 et \delta.

Orbites homoclines et hétéroclines[modifier | modifier le code]

Supposons que T=-\infty. Soit x \in D tel que la fonction t \mapsto g^t x est définie sur ]-\infty,+\infty[, et soit \gamma \left( x\right) =\left\{ g^{t}x:t\in \mathbb{R}\right\} l'orbite de x. Supposons qu'il existe deux points d'équilibre a et b tels que \lim\limits_{t\rightarrow -\infty }g^{t}x=a et \lim\limits_{t\rightarrow +\infty }g^{t}x=b. Cette orbite est dite homocline si a=b et hétérocline sinon.

Attracteurs[modifier | modifier le code]

Soit \Lambda \subset D un ensemble positivement invariant fermé. Cet ensemble est dit topologiquement transitif si pour tous ouverts U et V inclus dans \Lambda, il existe un instant t>T (dépendant de U et V) tel que \left( g^{t}U\right) \cap V\neq \varnothing . Cela signifie donc intuitivement que tout point de \Lambda devient arbitrairement proche de n'importe quel autre point de cet ensemble sous l'effet du flot.

Un attracteur un ensemble attractif et topologiquement transitif.

Chaos[modifier | modifier le code]

Soit \Lambda \subset D un ensemble compact et positivement invariant. Cet ensemble est dit chaotique si le flot g dépend de manière sensitive des conditions initiales sur \Lambda et cet ensemble est topologiquement transitif.

Un attracteur est dit étrange s'il est chaotique.

Fonctions de Lyapunov et théorèmes de stabilité pour les systèmes non linéaires[modifier | modifier le code]

Préliminaire[modifier | modifier le code]

Montrons tout d'abord que l'étude de la stabilité d'un mouvement se ramène à celle de la stabilité d'un point d'équilibre.

Considérons le système défini par l'équation différentielle non linéaire (E). Soit \psi:t \mapsto \psi(t) un mouvement de ce système. Par définition, \psi est une solution de (E), par conséquent \dot \psi(t) =f(\psi(t),t). En posant y=x-\psi, on obtient donc

\dot y=g(y,t)

g(y,t)=f(y+\psi(t),t)-f(\psi(t),t). L'étude de la stabilité du mouvement \psi est donc ramené à celle du point d'équilibre 0 pour cette nouvelle équation différentielle ; on a g(0,t)=0, \forall t.

Dans ce qui suit, on considère le système défini par (E), où f(0,t)=0 pour tout t \in ]T, +\infty[, et on étudie la stabilité (ou l'instabilité) du point d'équilibre 0. On envisage également brièvement le cas où l'on s'intéresse à la stabilité (ou l'instabilité) d'un ensemble positivement invariant compact M.

Systèmes quasi-linéaires[modifier | modifier le code]

Avec les notations qui précèdent, on a d'après la formule des accroissements finis

(QL):: \dot y=A(t)y+h(y,t)

avec A\left( t\right) =\frac{\partial f}{\partial x}\left( \psi \left(
t,t\right) \right) et \frac{\left\Vert h\left( y,t\right) \right\Vert }{\left\Vert y\right\Vert }
\leq M \left( y,t\right)

M \left( y,t\right) =\sup\limits_{z\in \left] \psi \left(
t\right) ,y+\psi \left( t\right) \right[ }\left\Vert \frac{\partial f}{
\partial x}\left( z,t\right) -\frac{\partial f}{\partial x}\left( \psi
\left( t\right) ,t\right) \right\Vert .

En supposant \frac{\partial f}{\partial x} continue, M(y,t) tend vers 0 lorsque y tendant vers 0. Si cette limite est uniforme par rapport à t pour , on dit que le système considéré est quasi-linéaire. Par définition, en effet, le système (QL) est quasi-linéaire si

\lim\limits_{\left\Vert y\right\Vert \rightarrow 0,y\neq 0}\frac{h(y,t)}{
\left\Vert y\right\Vert }=0

uniformément par rapport à t.

Par exemple, supposons l'orbite \mathcal O=\left\{ \psi \left( t\right) :t\in \left] T,+\infty \right[ \right\} compacte et f ne dépendant pas explicitement de t. Posons x^{\prime\prime}=\psi(t)\in \mathcal O et x^\prime=zz\in \left] \psi \left(
t\right) ,y+\psi \left( t\right) \right[ . Alors, d'après un théorème classique d'analyse, pour tout \varepsilon >0, il existe \eta>0 tel que \left\Vert x^\prime-x^{\prime\prime}\right\Vert \le \eta entraîne \left \Vert Df(x^\prime)-Df(x^{\prime\prime})\right\Vert\le \varepsilon. Le système (QL) est donc quasi-linéaire.

Définitions[modifier | modifier le code]

Il est nécessaire de donner tout d'abord quelques définitions concernant les fonctions qui vont fournir des généralisations de la notion d'énergie. On peut supposer sans perte de généralité, moyennant une translation dans \mathbb R^n, que le point d'équilibre auquel on s'intéresse est x_e=0, D étant donc un voisinage ouvert de 0.

Le plus souvent, l'« énergie généralisée » est une fonction de x uniquement. Soit V : D \rightarrow \mathbb R une fonction continue telle que V(0)=0. Elle est dite définie positive (resp. semi-définie positive) si V(x)>0 (resp. V(x) \ge 0) pour x \in D, x \neq 0. On définit de même une fonction définie négative et semi-définie négative.

Dans certains cas, néanmoins, il s'avère nécessaire de considérer une fonction de x et de t. Soit V : D \times ]T, +\infty[ \rightarrow \mathbb R une fonction continue telle que pour tout t \in ]T, +\infty[, V(0,t)=0. Elle est dite définie positive s'il existe une fonction définie positive W : D \rightarrow \mathbb R (au sens déjà précisé) telle que V(x,t) \ge W(x), \forall (x,t) \in D \times ]T, +\infty[ . Elle est dite semi-définie positive si V(x,t) \ge 0, \forall (x,t) \in D \times ]T, +\infty[ . On définit de même une fonction définie négative et semi-définie négative.

On appelle fonction de classe \mathcal K une fonction continue strictement croissante \alpha: [0,r] \rightarrow \mathbb R_+ (r>0) telle que \alpha(0)=0. On montre qu'une fonction continue V : D \times ]T, +\infty[ \rightarrow \mathbb R est définie positive si, et seulement s'il existe une fonction \alpha de classe \mathcal K telle que V(x,t) \ge \alpha(\vert\vert x \vert \vert), \forall (x,t) \in D \times ]T, +\infty[ .

Si la fonction V ne dépend que de x, elle est dite propre s'il existe un réel \varepsilon >0 tel que l'ensemble

\Psi_\varepsilon =\left\{ x\in D :V\left( x\right) \leq \varepsilon\right\}

est compact ; elle est dite globalement propre (ou radialement non bornée, ou uniformément non bornée) si D=\mathbb R^n et \Psi_\varepsilon est compact pour tout \varepsilon >0[17]. On montre qu'une fonction définie positive est propre[18].

Enfin, une fonction V : D \times ]T, +\infty[ \rightarrow \mathbb R est dite une fonction de Lyapunov pour (E) si elle permet de façon générale de tester la stabilité ou l'instabilité de son point d'équilibre 0[11],[19].

Supposons V continûment différentiable, et soit dV\left( x,t\right) =\frac{\partial V}{\partial x}(x,t)dx+\frac{\partial V
}{\partial t}(x,t)dt sa différentielle au point (x,t) \in D \times ]T, +\infty[. A l'équation différentielle (E) il convient d'adjoindre l'équation \frac{dx_{n+1}}{dt}=1x_{n+1}=t. La dérivée de Lie de V suivant le champ de vecteurs (f,1) au point (x,t) est la quantité

\dot V(x,t)= \frac{\partial V}{\partial x}(x,t)f(x,t)+\frac{\partial V}{\partial t}(x,t).

Lorsque V ne dépend que de x, la définition ci-dessus se réduit évidemment à

\dot V(x,t)= \frac{\partial V}{\partial x}(x)f(x,t).

Remarque[modifier | modifier le code]

Si \psi : t \mapsto \psi(t) est un mouvement du système, c'est-à-dire une solution de son équation différentielle, et si l'on pose v(t)=V(\psi(t),t) et \dot{v}=\frac{dv}{dt}, les deux membres des deux expressions ci-dessus deviennent \dot v(t). Néanmoins, on se gardera de croire que v soit une fonction de Lyapunov. Des abus d'écriture malencontreux conduisent parfois à cette conception erronée. Les démonstrations données plus bas devraient éclaircir ce point.

Théorèmes fondamentaux[modifier | modifier le code]

Théorème de stabilité de Lyapunov-Persidskii (1892, 1946) et sa réciproque (Persidskii, 1933) — 

Soit le système (E). Il existe une fonction continûment différentiable définie positive V : (x,t) \mapsto V(x,t) telle que \dot V est semi-définie négative si, et seulement si 0 est un point d'équilibre stable. Si V telle que ci-dessus existe et, de plus, V(x,t)\rightarrow 0 quand t \rightarrow 0 uniformément par rapport à t, alors 0 est uniformément stable.

Pour le théorème ci-dessous, on supposera que le système considéré est autonome, donc défini par l'équation différentielle (A)[20].

Principe d'invariance de Krasovskii-LaSalle (1953-1960) — Supposons qu'il existe une fonction continûment différentiable définie positive V : x \rightarrow V(x) et un ensemble \Psi_\varepsilon =\left\{ x\in \mathbb R^n:V\left( x\right) \leq \varepsilon\right\} (\varepsilon>0), inclus dans D, tel que \dot V(x) \le 0, \forall x \in \Psi_\epsilon. Soit M le plus grand sous-ensemble positivement invariant de l'ensemble E=\left\{ x\in D:\dot{V}\left( x\right) = 0\right\} . Alors, si \Psi_\varepsilon est compact (ce qui est le cas si \varepsilon est suffisamment petit, et ce qui est toujours vrai si V est globalement propre), M est attractif pour l'ensemble \Psi_\varepsilon, i.e. tout mouvement qui commence dans \Psi_\varepsilon tend vers M.

Voir comme application l'exemple 4.

On obtient la condition suffisante d'attractivité de 0 du théorème ci-dessous (et donc de stabilité asymptotique de 0 puisque sa stabilité résulte alors du théorème de Lyapunov démontré plus haut) pour un système autonome (A) en appliquant le Principe d'invariance de Krasovskii-LaSalle avec E=\left\{ 0\right\} .

Théorème de stabilité asymptotique (Lyapunov, 1892; LaSalle, 1960) et sa réciproque (Massera, 1949) — Soit le système (A). Il existe une fonction définie positive V : x \mapsto V(x) telle que \dot V est définie négative si, et seulement si 0 est un point d'équilibre asymptotiquement stable. De plus, 0 est globalement asymptotiquement stable si V est globalement propre.

Remarque: Ce théorème peut se démontrer directement pour le système non autonome (E) ; une condition suffisante de stabilité asymptotique de 0 s'obtient alors avec une fonction de Lyapunov continûment différentiable V : (x,t) \rightarrow V(x,t) telle que \dot V est définie négative. Si de plus V(x,t)\rightarrow 0 uniformément par rapport à t quand \vert\vert x\vert\vert \rightarrow 0, cette stabilité asymptotique est uniforme. Pour la réciproque, on obtient une fonction de Lyapunov V : (x,t) \rightarrow V(x,t) pour (E) non autonome mais 0 uniformément asymptotiquement stable (Massera, 1956) ; l'importance de l'uniformité a été reconnue par Malkin (1954). Si les coefficients de (E) sont périodiques, ceux de V(x,t) le sont également.

Voir comme applications les exemples 1, 2 et 3.

Terminons ce paragraphe par la stabilité exponentielle :

Théorème de stabilité exponentielle et sa réciproque — Soit le système (E) où f est localement lipschitzienne. Supposons qu'il existe une fonction continûment différentiable V : (x,t) \rightarrow V(x,t) définie sur D \times ]T, +\infty[ telle que V(0,t)=0, \forall t \in ]T, +\infty[, et pour laquelle il existe des réels \alpha, \beta, \gamma, \delta, \varepsilon >0 tels que pour tout x \in D ayant une norme suffisamment petite et tout t \in ]T, +\infty[,

(SE):: \alpha \left\Vert x\right\Vert^\delta \leq V\left( x, t\right) \leq \beta  \vert\vert x \vert\vert^\varepsilon et \dot{V}\left( x, t\right) \leq -\gamma V(x,t) .

Alors le point d'équilibre 0 est exponentiellement stable. Il est globalement exponentiellement stable si D = \mathbb R^n et les inégalités ci-dessus sont vérifiées pour tout x \in \mathbb R^n (et tout t \in ]T, +\infty[).

Réciproquement, supposons qu'il existe \mu, r, c >0 tels que

(C):: \vert\vert \varphi(x,t;\tau) \vert\vert \leq \mu \vert\vert x \vert\vert e^{{-c(\tau-t)}}

pour tous t, \tau, x tels que T <t \le \tau et \vert\vert x \vert \vert \le r. Alors il existe un réel \rho>0 et une fonction continûment différentiable V: (x,t) \mapsto V(x,t) définie pour \vert\vert x \vert\vert \le \rho et t >T, ainsi que \alpha, \beta, \gamma >0, vérifiant (SE) avec \delta=\varepsilon=2. Si (C) est vérifiée pour tous t, \tau tels que T<t\le \tau et tout x \in \mathbb R^n, alors V est définie sur \mathbb R^n \times ]T, +\infty[ et vérifie (SE) sur son domaine de définition (avec \delta=\varepsilon=2).

Stabilité d'un compact pour un système défini par un semi-groupe[modifier | modifier le code]

La solution \varphi: t \mapsto \varphi (x;t) du système autonome (A) vérifiant la condition initiale \varphi(0)=x_0 a les propriétés suivantes (l'instant initial t_0 étant supposé nul, ce qui n'induit pas de perte de généralité dans le cas d'un système autonome, cette quantité est omise dans les arguments de \varphi) :

\varphi(x_0;0)=x_0, \varphi(\varphi(x_0;t_1);t_2)=\varphi(x_0;t_1+t_2).

Si l'on suppose que ces quantités sont définies pour tous t_1,t_2 \ge 0, on exprime ces propriétés en disant que le flot

g:t \mapsto g^t: x_0 \mapsto g^t x_0=\varphi \left( x_0;t\right)

définit le semi-groupe de difféomorphismes (g^t)_{t\ge t_0} (puisque chaque g^t est un difféomorphisme et que g^{t_{1}+t_{2}}=g^{t_{2}}\circ g^{t_{1}} pour tous t_1,t_2 \ge 0 ; il s'agit d'un groupe si les quantités ci-dessus sont également définies pour tous t_1,t_2 \le 0, mais cette hypothèse est inutile pour ce qui suit).

Au lieu de se donner le système par l'équation différentielle autonome (A), on peut le faire, plus généralement, par le flot (g^t)_{t\ge 0} (g^t:x \mapsto \varphi(x;t)) en supposant simplement \varphi continue (et non plus continûment différentiable) ; le semi-groupe (g^t)_{t\ge 0} est alors dit continu.

Il s'agit bien d'une généralisation, car si \varphi est continûment différentiable, on caractérise le semi-groupe (g^t)_{t\ge 0} par son « générateur infinitésimal » A: x_0 \mapsto A x_0 défini par

Ax_{0}=\lim\limits_{t\rightarrow 0^{+}}\frac{1}{t}\left[ g^{t}-I\right]
x_{0}=\lim\limits_{t\rightarrow 0^{+}}\frac{\varphi \left( x_{0};t\right)
-x_{0}}{t}=\frac{\partial \varphi }{\partial t}\left( x_{0},0\right)

par conséquent l'opérateur A est la fonction f, ou encore l'« opérateur » (en général non linéaire) x \mapsto f(x). On est donc effectivement ramené à la formulation où le système est donné par l'équation différentielle autonome (A).

On étend alors le principe d'invariance de Krasovskii-LaSalle à ce cas avec une fonction V : x\mapsto V(x) continue (et non plus continûment différentiable) en remplaçant la condition \dot V(x) \le 0, \forall x \in \Psi_\varepsilon par la condition : la fonction t\mapsto V(\varphi(x;t)) est décroissante, \forall x \in \Psi_\varepsilon (la démonstration restant par ailleurs inchangée).

Soit alors M \subset D un ensemble compact positivement invariant. On déduit comme plus haut de ce principe de Krasovskii-LaSalle « généralisé » la condition suffisante du théorème ci-dessous (la démonstration de la condition nécessaire étant nettement plus complexe)[8] :

Théorème (Bhatia (1966)) —  L'ensemble compact M est asymptotiquement stable (resp. globalement asymptotiquement stable) si, et seulement s'il existe une fonction continue (resp. continue et globalement propre) V:D\mapsto \mathbb R, où D est un voisinage ouvert de M (resp. D=\mathbb R^n), telle que

(C1)::V(x)=0 si x \in M, V\left( x\right) >0 si x\notin M,

(C2)::V(\varphi(x;t))<V(x) si x \notin M, t>0 et \varphi(x,[0,t]) \subset D.

Si le système est défini par l'équation différentielle autonome (A), avec f localement lipschitzienne, donc continue, et V est continûment différentiable, on voit facilement que la condition (C2) est satisfaite si, et seulement si \dot V(x) <0 pour D \ni x\notin M.

Exemple : cas d'un système mécanique holonome (1)[modifier | modifier le code]

Considérons, comme dans l'historique, un système mécanique holonome à n degrés de liberté, à liaisons scléronomes. Soit q \in \mathbb R^n le vecteur de ses coordonnées généralisées. On suppose que

(a) l'énergie cinétique T(q,\dot q) est de classe \mathcal C^2 et est une forme quadratique définie positive en \dot q ;
(b) certaines forces dérivent d'un potentiel U(q) de classe \mathcal C^1, possédant un minimum relatif strict en q=0 ;
(c) les autres forces sont rassemblées dans le vecteur ligne Q(q,\dot q) \in \mathbb R^{1 \times n} de classe \mathcal C^1 et vérifient

(F):: Q . q \le 0

(c'est le cas des forces de frottement visqueux). On a le résultat suivant qui, comme on va le voir, se démontre grâce au théorème de stabilité de Lyapunov et au Principe d'invariance de Krasvosskii-LaSalle :

Théorème — L'origine de l'espace des phases (c'est-à-dire de l'espace \mathbb R^{2n} des x=(\dot q,q )) est stable. Si le membre de gauche de (F) ne s'annule qu'en q=0, elle est asymptotiquement stable.

Théorème d'instabilité pour les systèmes non linéaires[modifier | modifier le code]

Considérons de nouveau le système (E). Le théorème d'instabilité qu'on peut considérer comme étant le plus important (même s'il n'est pas le plus général[21]), car le plus facilement utilisable en pratique, est le suivant :

Théorème d'instabilité de Chetaev (1934) —  Supposons qu'il existe une fonction V : D \rightarrow \mathbb R de classe C^1 telle que

(a) il existe des points x arbitrairement proches de 0 tels que V(x)<0.

Pour \varepsilon >0 donné, notons alors G_{\varepsilon }=\left\{ x\in D:\left\Vert x\right\Vert \leq \varepsilon
\right\} \cap \left\{ x\in D:V\left( x\right) \le 0\right\}

(b) Dans G_{\varepsilon }, \dot V(x,t)<0.

Alors le point d'équilibre 0 est instable.

Corollaire - Premier théorème d'instabilité de Lyapunov —  S'il existe une fonction V : D \rightarrow \mathbb R de classe C^1, définie négative ou de signe indéfini, telle que \dot V est définie négative, alors le point d'équilibre 0 est instable.

Exemple : cas d'un système mécanique holonome (2)[modifier | modifier le code]

Considérons de nouveau un système holonome en supposant que U(q) admet un maximum relatif strict en q=0. Plus précisément, en posant p=\dot q, supposons que l'énergie cinétique et l'énergie potentielle s'écrivent respectivement T(p,q)=p^T M(p,q) p et U(q)=-q^T R(q) q où les fonctions (p,q)\mapsto M(p,q) et q \mapsto R(q) sont continûment différentiables et les matrices M(0,0) et R(0) sont définies positives. Supposons également que les forces qui ne dérivent pas du potentiel s'écrivent Q(q,p)=-\varepsilon(q,p) p^T\varepsilon est continûment différentiable. On obtient le résultat suivant à l'aide du théorème de Chetaev :

Théorème — Si \left\vert \varepsilon \left( 0,0\right) \right\vert est suffisamment petit, le point d'équilibre x=0, où x=(p,q), est instable.

Ce résultat montre par exemple qu'un pendule inversé est, en présence d'un frottement visqueux suffisamment faible, en équilibre instable à la verticale[22].

Théorèmes de stabilité et d'instabilité pour les systèmes linéaires ou quasi-linéaires[modifier | modifier le code]

Cas d'un système linéaire[modifier | modifier le code]

Considérons un système linéaire

(L) :: \dot x=A(t) x

où la fonction t \mapsto A(t) \in \mathbb R^{n \times n} est localement intégrable et bornée. Étudions le point d'équilibre 0 de (L).

Les conditions suivantes sont équivalentes[11] :

(i) 0 est uniformément asymptotiquement stable ;

(ii) 0 est globalement uniformément asymptotiquement stable ;

(iii) 0 est exponentiellement stable ;

(iv) 0 est globalement exponentiellement stable.

Seul le fait que (ii) entraîne (iii) n'est pas trivial, et ce résultat est dû à Hahn (1966). D'autre part, si la matrice A est constante, la stabilité de 0 équivaut à sa stabilité uniforme, sa stabilité asymptotique équivaut à sa stabilité asymptotique uniforme, et toutes ces conditions équivalent à (voir Stabilité d'une représentation d'état)

(v) les valeurs propres \lambda_i de A (i=1,...,n) vérifient toutes la condition \Re(\lambda_i)<0.

On dit parfois qu'une matrice A vérifiant la condition (v) est une « matrice de stabilité » ; c'est par erreur que certains auteurs parlent de « matrice de Hurwitz » : le polynôme caractéristique d'une matrice de stabilité est un polynôme de Hurwitz[23].

D'autre part, le point d'équilibre 0 est stable (au sens de Lyapunov) si, et seulement si les valeurs propres de A sont toutes situées dans le demi-plan gauche fermé (c'est-à-dire ont toutes une partie réelle négative ou nulle), celles situées sur l'axe imaginaire (s'il en existe) étant simples (c'est-à-dire d'ordre 1) (voir de nouveau Stabilité d'une représentation d'état).

Critère de Lyapunov (1892) —  Supposons la matrice A constante. Soit Q une matrice symétrique réelle semi-définie positive (Q \ge 0) (resp. définie positive (Q >0)). S'il existe une matrice P>0 vérifiant l'équation dite de Lyapunov

(EL):: A^T P + P A = -Q

alors le point d'équilibre 0 est stable (resp. exponentiellement stable) pour (L).

Réciproquement, il existe une matrice symétrique P solution de (EL) pour toute matrice symétrique Q si, et seulement si A n'a pas de valeurs propres \lambda_i,\lambda_j telles que \lambda_i+\lambda_j=0 ; cette solution est alors unique. Si Q\ge0 (resp. Q>0) et toutes les valeurs propres de A sont à partie réelle <0, alors P\ge 0 (resp.P>0).

On montre qu'on peut affaiblir comme suit la condition suffisante de ce critère[12]  :

Soit Q= C^T C une matrice telle que (C,A) est détectable. S'il existe une matrice P \ge 0 solution de l'équation de Lyapunov (EL), alors 0 est un point d'équilibre exponentiellement stable pour (L). Dans ce cas, si (C,A) est observable, alors nécessairement P>0.

Cas d'un système quasi-linéaire[modifier | modifier le code]

Considérons maintenant le système non linéaire (E), écrit sous la forme

(QL) :: \dot x=A(t) x + g(x,t)

A est comme ci-dessus et g : D \times ]T, +\infty [\rightarrow \mathbb R^n est fonction localement lipschitzienne au voisinage de x=0, telle que g(0,t)=0, \forall t \in ]T, +\infty [, et qu'on peut considérer comme une « petite perturbation » du système (L). Le système (QL) est supposé quasi-linéaire à savoir que pour \left\Vert x\right\Vert \rightarrow 0, g(x,t)=o(\left\Vert x\right\Vert) dans le sens où

\lim\limits_{\left\Vert x\right\Vert \rightarrow 0,x\neq 0}\frac{g(x,t)}{
\left\Vert x\right\Vert }=0

uniformément par rapport à t. Sous ces hypothèses, on a le[11]

Théorème (Perdiskii (1946) - Hahn (1966)) — Supposons le point d'équilibre 0 exponentiellement stable pour (L). Alors il est exponentiellement stable pour (QL).

Ce théorème a été étendu par Hahn au cas des systèmes à temps discret[24]. En revanche, dans le cas où la matrice A(t) n'est pas constante, la stabilité asymptotique (non uniforme) de 0 pour (L) n'entraîne pas, sous les hypothèses considérées, la stabilité de 0 pour (QL) en général (exemple de Perron).

Théorème — Soit le système quasi-linéaire (QL) où A(t) est constante et où g vérifie la condition ci-dessus. Si A possède une valeur propre à partie réelle >0, alors le point d'équilibre 0 est instable.

Des compléments à ces théorèmes peuvent être trouvé à l'article Exposant de Lyapunov.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Pour certains auteurs, une orbite est une trajectoire qui se referme sur elle-même, c'est-à-dire une trajectoire compacte. Pour d'autres auteurs encore, une trajectoire signifie ce qui dans cet article est appelé un mouvement. Cette dernière acception (utilisée notamment par ceux qui font de la planification de trajectoire) n'est pas sans provoquer des confusions.
  2. Pour des compléments sur l'histoire de la notion de stabilité jusqu'à la contribution de Lyapunov, le lecteur pourra également consulter Leine 2010
  3. Lyapunov 1992
  4. Voir l'article Polynôme de Hurwitz.
  5. (de) Oskar Perron, « Die Stabilitätsfrage bei Differentialgleichungen », Mathematische Zeitschrift, vol. 32,‎ 1930, p. 703-704 (lire en ligne)
  6. J. L. Massera, Contributions to Stability Theory, Ann. of Math., 56, p. 182-206, 1956
  7. James A. York, An extension of Chetaev’s instability theorem using invariant sets and an example, in Seminar of Differential Equations and Dynamical Systems (G. Stephen Jones, edt.), Springer, 60, p. 100-106,1968
  8. a, b, c et d Bhatia et Szegö 2002
  9. R.E. Kalman et J.E. Bertram, Control System Analysis and Design Via the « Second Method » of Lyapunov - II Discrete-Time Systems, J. Basic Eng. Trans. ASME, 82(2), 394-400 (1960)
  10. Hale 1977
  11. a, b, c, d et e Hahn 1967
  12. a et b Wonham 1985
  13. Boyd et al. 1994
  14. Sontag 2008
  15. Michel, Hou et Liu 2008, pp. 466, 467 ; Khalil 1996. Il est à noter que ces auteurs ont des définitions légèrement différentes de la stabilité asymptotique uniforme globale.
  16. Kupka 1960-1961
  17. Sontag 1998
  18. a, b et c Rouche et Mawhin 1973
  19. Pour certains auteurs, une fonction candidate de Lyapunov est une fonction définie positive, et un fonction de Lyapunov est une fonction candidate de Lyapunov dont la dérivée le long des trajectoires est semi-définie négative ; l'existence d'une fonction de Lyapunov est alors une condition nécessaire et suffisante de stabilité au sens de Lyapunov.
  20. LaSalle 1960
  21. Voir l'introduction historique.
  22. Bourlès 2010
  23. Le lecteur trouvera à l'article Polynôme de Hurwitz une approche fort différente de celle envisagée ici pour l'étude de la stabilité des systèmes linéaires à coefficients constants (critères de Routh-Hurwitz ainsi que de Liénard et Chipart).
  24. (de) Wolfgang Hahn, « Über die Anwendung der Methode von Ljapunov auf Differenzengleichungen », Mathematische Annalen, vol. 136,‎ 1958, p. 430-441 (lire en ligne)

Ouvrages ayant servi à établir le texte[modifier | modifier le code]

  • (en) Nam Parshad Bhatia et Giorgio P. Szegö, Stability Theory of Dynamical Systems, Springer,‎ 2002 (ISBN 3540427481, lire en ligne)
  • (en) Henri Bourlès, Linear Systems, John Wiley & Sons,‎ 2010 (ISBN 1848211627)
  • (en) Stephen Boyd, Laurent El Ghaoui, Feron et Venkararamanam Balakrishnan, Linear Matrix Inequalities in System and Control Theory, SIAM,‎ 1994 (ISBN 089871334X, lire en ligne)
  • (en) Wolfgang Hahn, Stability of Motion, Springer-Verlag,‎ 1967 (ISBN 0387038299)
  • (en) Jack Hale, Theory of functional differential equations, Springer,‎ 1977 (ISBN 0387902031)
  • (en) Hassan K. Khalil, Nonlinear Systems, Prentice-Hall,‎ 1996 (ISBN 0130673897)
  • (en) Ivan Kupka, « Stabilité structurelle », Séminaire Janet, vol. 4, no 7,‎ 1960-1961, p. 1-16 (lire en ligne)
  • (en) J.P. LaSalle, « Some Extensions of Liapunov's Second Method », IRE Transactionson Circuit Theory, no 7,‎ 1960, p. 520-527 (lire en ligne)
  • (en) R.I. Leine, « The historical development of classical stability concepts: Lagrange, Poisson and Lyapunov stability », Nonlinear Dyn., no 59,‎ 2010, p. 173-182 (lire en ligne)
  • (en) Alexandre Lyapunov, The general problem of the stability of motion, CRC Press,‎ 1992 (ISBN 0748400621)
  • (en) Antony N. Michel, Ling Hou et Derong Liu, Stability of Dynamical Systems, Birkhäuser,‎ 2008 (ISBN 9780817646493, lire en ligne)
  • N. Rouche et J. Mawhin, Equations différentielles ordinaires - Tome II, Masson,‎ 1973 (ISBN 222537290X)
  • (en) Eduardo D. Sontag, Mathematical Control Theory, Springer,‎ 1998 (ISBN 0387984895)
  • (en) Eduardo D. Sontag, « Input to State Stability: Basic Concepts and Results », Springer - Lecture Notes in Mathematics, vol. 1932,‎ 2008, p. 163-220 (lire en ligne)
  • (en) Mathukuma Vidyasagar, Nonlinear System Analysis, Prentice-Hall,‎ 1978 (ISBN 0898715261)
  • (en) W. Murray Wonham, Linear multivariable control: a geometric approach, Springer,‎ 1985 (ISBN 0387960716)

Autres ouvrages[modifier | modifier le code]

Voir aussi[modifier | modifier le code]