Exposant de Lyapunov

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Lyapunov.

Dans l'analyse d'un système dynamique l'exposant de Lyapunov permet de quantifier la stabilité ou l'instabilité de ses mouvements[1]. Un exposant de Lyapunov soit est un nombre réel, soit vaut + \infty ou - \infty. Un mouvement instable a un exposant de Lyapunov positif, un mouvement stable, un exposant de Lyapunov négatif. Les mouvements bornés d'un système linéaire ont un exposant de Lyapunov négatif ou nul. L'exposant de Lyapunov peut servir à étudier la stabilité (ou l'instabilité) des points d'équilibre des systèmes non linéaires. Linéarisons un tel système au voisinage d'un point d'équilibre[2]. Si le système non linéaire est non autonome, le système linéaire obtenu est à coefficients variables ; chacun de ses mouvements a son propre exposant de Lyapunov. Si chacun d'eux est négatif et si le système linéaire est « régulier » (notion que nous détaillerons plus loin), alors le point d'équilibre est (localement) asymptotiquement stable pour le système non linéaire. Si l'un de ces exposants de Lyapunov est positif et si le système linéaire est régulier, alors le point d'équilibre est instable pour le système non linéaire. Dans ce cas, le comportement du système est extrêmement « sensible aux conditions initiales », dans le sens où une incertitude sur celles-ci entraîne une incertitude sur le mouvement qui grandit de manière exponentielle au cours du temps. Ce phénomène est parfois assimilé, à tort (du moins en général), à un comportement chaotique ; il en est néanmoins une condition nécessaire.

L'inverse du plus grand exposant de Lyapunov est un temps caractéristique du système, appelé parfois horizon de Lyapunov. Le caractère prédictible de l'évolution du système ne subsiste que pour les instants très inférieurs à cet horizon ; à ces instants-là, l'erreur sur le point courant de la trajectoire garde une taille comparable à l'erreur sur les conditions initiales. En revanche, pour les temps supérieurs, toute prédiction devient pratiquement impossible, même si le théorème de Cauchy-Lipschitz, qui suppose la connaissance parfaite des conditions initiales, reste valide.

Introduction : exposants de Lyapunov des systèmes aux différences[modifier | modifier le code]

Avant d'entrer dans les détails, historiques ou mathématiques, envisageons des systèmes aux différences simples pour comprendre à quelles fins on peut utiliser les exposants de Lyapunov. Considérons donc un système aux différences, dont l'état est une suite définie par une relation de récurrence u_n = f(u_{n-1}).

Problème[modifier | modifier le code]

Les suites définies par une relation de récurrence ont, dans les cas les plus simples, un comportement qui se réduit pour l'essentiel, en fonction d'un paramètre, à la stabilité (convergence exponentielle) ou l'instabilité (divergence exponentielle).

D'autres suites sont bornées, ce qui interdit la divergence, remplacée alors par des phénomènes plus compliqués, cycles limites et chaos.

Exposant de Lyapunov[modifier | modifier le code]

On peut calculer l'erreur à un pas donné n en fonction de l'erreur au pas précédent supposée petite :

\varepsilon_n = f(u_{n-1}+\varepsilon_{n-1})-f(u_{n-1}).

Lorsque les deux erreurs consécutives tendent vers 0 leur rapport qui mesure l'amplification instantanée de l'erreur tend donc vers la pente f'(u_{n-1}) [3].

Cette amplification varie généralement d'un pas au suivant, ce qui conduit à calculer le produit des rapports d'erreurs consécutives :

|\tfrac {\varepsilon_n} {\varepsilon_0}|  =  \prod _{i=1}^n |\tfrac {\varepsilon_i} {\varepsilon_{i-1}}| = \prod _{i=1}^n |f'(u_{i-1})|.

En écrivant \varepsilon_n = e^{\lambda n} \varepsilon_0 et en passant à la limite on obtient l'exposant de Lyapunov qui représente le logarithme moyen de l'accroissement :

\lambda = \lim_{n \to \infty} \tfrac 1 n \sum _{i=1}^n \ln (|f'(u_{i-1})|).

Suites simples[modifier | modifier le code]

Dans le cas de la suite géométrique u_n = a u_{n-1} la pente est constante et égale à a, ce qui dispense de calculer la moyenne.

Cette suite est stable lorsque |a|<1, instable lorsque |a|>1. Ces comportements sont analogues à celui d'un oscillateur harmonique qui deviendrait instable si un amortissement négatif lui fournissait de l'énergie. Ils se traduisent par un exposant de Lyapunov négatif ou positif (de signe opposé à celui du coefficient d'amortissement) [4].

Lorsque le paramètre vaut 1, le système est encore stable (il est stationnaire) tandis que lorsque ce paramètre vaut -1, on observe des oscillations entretenues analogues à celles d'un système conservatif. C'est un exemple simplifié de cycle limite. On peut parler de système superstable associé à un exposant de Lyapunov qui tend vers moins l'infini.

Suites bornées[modifier | modifier le code]

La suite logistique fournit l'exemple le plus simple de suite bornée :

u_n = a \, u_{n-1}\,(1-u_{n-1}) \quad (0 \leqslant a \leqslant 4).

Le terme correctif apporté à la suite géométrique contraint les valeurs à rester dans l'intervalle [0,1]. Cette contrainte introduit une évolution complexe.

Pour des valeurs relativement faibles du paramètre a on trouve en 0 et ½ des points superstables entre lesquels existent des points possédant une stabilité asymptotique d'autant plus forte que l'exposant est plus négatif. Ensuite on observe une succession de bifurcations faisant apparaître des ensembles de cycles limites de plus en plus compliqués qui correspondent néanmoins à une stabilité plus ou moins forte, marquée par un exposant négatif.

Lorsque cet exposant devient positif, apparaît une tentative de divergence contrainte par les limites de l'intervalle. Cela se traduit par un phénomène chaotique dans lequel l'évolution, tout en restant bornée, est sensible aux conditions initiales.

Introduction historique[modifier | modifier le code]

La problématique de la stabilité des systèmes dynamiques a été envisagée par divers auteurs de manière indépendante : notamment Nikolay Yegorovich Zhukovsky (en) en 1882, Henri Poincaré entre 1882 et 1886, et Alexandre Liapounov en 1892, dans sa thèse de doctorat intitulée Le problème général de la stabilité du mouvement (d'abord parue en russe, puis traduite en français en 1908 en en anglais beaucoup plus tard, en 1992)[5]. À cette occasion, Lyapunov a introduit non seulement les fonctions de Lyapunov, justement célèbres, mais aussi (et c'est le sujet de cet article) le « nombre caractéristique » d'une solution d'une équation différentielle. Oskar Perron, en 1929, a préféré raisonner sur la quantité de signe opposé, et c'est elle qu'on appelle aujourd'hui « exposant de Lyapunov » (ou parfois « exposant caractéristique », ou encore « nombre d'ordre »[6]).

Considérons par exemple la fonction f(t)=c e^{at}, où c et a sont des nombres complexes, c étant non nul. Pour calculer son exposant de Lyapunov \chi(f), on détermine le logarithme de sa valeur absolue, soit \ln(c)+\Re(a)t, on le divise par t, ce qui donne \ln(c)/t+\Re(a) ; on fait alors tendre t vers l'infini, et on obtient \chi(f)=\Re(a). Si donc \chi(f) < 0, f(t) tend vers 0, d'autant plus rapidement que |\chi(f)| est grand, si \chi(f) = 0, la fonction f ne tend pas vers 0 mais reste bornée, si \chi(f) > 0, |f(t)| « diverge », d'autant plus rapidement que \chi(f) est grand.

L'objet de Lyapunov, en introduisant ses nombres caractéristiques, était d'étudier la stabilité du point d'équilibre 0 pour l'équation différentielle

(NL) ::\frac{dx}{dt}=A(t)x+g(x,t)

A(t) est une matrice dépendant continûment du temps t et g est une « petite perturbation » du système linéaire

(L) :: \frac{dx}{dt}=A(t)x

au voisinage de x=0, supposé être un point d'équilibre. Cette démarche est la « première méthode de Lyapunov ».

Précisons les hypothèses : g est une fonction continue telle que g(0,t)=0, \forall t ; on suppose qu'il existe des constantes c>0 et \nu >1 telles que \left\Vert g\left( x,t\right) \right\Vert \leq c\left\Vert x\right\Vert^{\nu } dans un voisinage de x=0, de sorte que (L) est l'approximation au premier ordre de (NL) dans ce voisinage. Supposons que les exposants de Lyapunov des solutions non nulles du système (L) soient tous <0. Cela implique que toutes ces solutions tendent exponentiellement vers 0, et donc que 0 est un point d'équilibre asymptotiquement stable pour (L). Qu'en est-il alors pour (NL) ?

Lyapunov a montré le résultat suivant :

Théorème de Lyapunov — Les exposants de Lyapunov des solutions non identiquement nulles du système (L) sont finis. Si ce système est « régulier » (voir infra) et si tous ces exposants sont <0 (resp. si l'un au moins de ces exposants est >0), alors le point d'équilibre 0 est asymptotiquement stable (resp. est instable) pour le système (NL).

Par ailleurs, si 0 est exponentiellement stable pour (L), alors il l'est aussi pour (NL). L'hypothèse de « régularité » qu'évoquait Lyapunov n'était-elle donc pas redondante ? Par un contre-exemple, Perron a montré en 1930 qu'il n'en était rien[7]. De manière précise, son contre-exemple montre les faits suivants :

  • Il se peut que les solutions non nulles de (L) aient toutes un exposant de Lyapunov <0 et que le point d'équilibre 0 soit néanmoins instable[8]) pour (NL).
  • Il se peut qu'il existe une solution de (L) ayant un exposant de Lyapunov >0 tandis que 0 est un point d'équilibre asymptotiquement stable pour (NL).

Le phénomène mis en évidence par Perron (parfois appelé depuis « effet Perron ») a beaucoup impressionné ses contemporains experts en théorie des systèmes non linéaires ; il s'explique par le fait que le système qu'il a considéré est « non régulier ». Pour un tel système, les solutions peuvent toutes converger exponentiellement vers 0 sans que 0 soit un point d'équilibre exponentiellement stable. Perron a clarifié la notion de système régulier ; Nicolai Chetaev a énoncé en 1948 un critère d'instabilité de 0 pour (NL) à partir des exposants de Lyapunov des solutions de (L). Ioėlʹ Gilʹevich Malkin en 1952, et Nikolai N. Krasovskii en 1959, ont simplifié les démonstrations de Lyapunov, de Perron et de Chetaev ; ils ont en outre rectifié les démonstrations de ce dernier. L'ensemble de ces travaux a été synthétisé par Wolfgang Hahn (en) en 1967 dans son livre, considéré depuis comme faisant autorité[6].

Les fonctions de Lyapunov n'ont cessé d'être utilisées jusqu'aujourd'hui en Automatique, avec succès, pour la commande des systèmes non linéaires ; ce n'est pas le lieu ici de détailler ce point. Les exposants de Lyapunov, quant à eux, ont reçu un renouveau d'intérêt dans les années 1960 quand est née la théorie du chaos, grâce notamment aux travaux d'Edward Lorenz. Ce dernier a défini le chaos comme étant lié d'une part à la sensibilité des solutions aux conditions initiales (phénomène déjà observé et théorisé en 1889 par Henri Poincaré dans son mémoire sur le problème des trois corps), d'autre part à l'existence d'un attracteur global borné ; l'attracteur de Lorenz est de cette nature. Considérons le système linéaire (L), et pour simplifier supposons la matrice A constante. Si celle-ci a une valeur propre ayant une partie réelle >0, ce système est instable (i.e. son unique point d'équilibre x=0 est instable), néanmoins il ne peut pas être chaotique, puisque dans ce cas \lim\limits_{t\rightarrow +\infty }\left\Vert x\left( t\right) \right\Vert=+\infty . Ce type d'observation a amené récemment différents experts, notamment Gennady A. Leonov[9], à mettre en garde contre les conclusions abusives qu'on peut tirer des exposants de Lyapunov. Les spécialistes en théorie du chaos J. Mathiesen et P. Cvitanovi´c ont écrit tout récemment, dans le Chaosbook[10] :

«  We are doubtful of the utility of Lyapunov exponents as means of predicting any observables of physical significance, but that is the minority position. »

La possibilité de déterminer les exposants de Lyapunov[11] est liée au théorème d'Osedelets (en) (voir infra), résultat de mathématiques profond et difficile d'ergodicité démontré en 1965. Tout ce que l'on peut dire ici, c'est que les vicissitudes des exposants de Lyapunov au cours de leur histoire depuis un peu plus d'un siècle semblent montrer que ceux-ci doivent être utilisés à bon escient, pour déterminer la sensibilité des mouvements aux conditions initiales, et qu'il est dangereux de vouloir aller au-delà.

Définition et propriétés élémentaires[modifier | modifier le code]

Définition et exemples[modifier | modifier le code]

Soit E un espace vectoriel de dimension finie sur le corps des réels ou des complexes[12] et \mathcal{F}_E l'espace vectoriel des fonctions de la variable réelle (resp. des suites), à valeurs dans E et définies sur un intervalle \mathcal I de \mathbb{R} (resp. \mathbb{Z}) de la forme \left[ t_{0},+\infty \right[ , t_{0}>0. Dans ce qui suit, il sera commode de noter une suite comme une fonction.

Définition — L'exposant de Lyapunov de f \in \mathcal{F}_E est, si f ne s'annule pas sur \mathcal I,

\chi \left( f\right) =\underset{t\rightarrow +\infty ,t\in \mathcal{I}}{
\lim .\sup }\frac{\ln\left\Vert f\left( t\right) \right\Vert }{t}, et \chi \left( 0\right)=-\infty .

Si la quantité du membre de droite est une limite (au lieu d'être une limite supérieure), on dit que f admet pour exposant de Lyapunov exact \chi \left( f\right) .

Cette définition dépend a priori de la norme \left\Vert . \right\Vert choisie dans E. Mais il est immédiat que deux normes équivalentes définissent le même exposant de Lyapunov ; or toutes les normes sont équivalentes sur un espace de dimension finie, et la définition est donc intrinsèque.

Exemple[modifier | modifier le code]

Soit la suite f(t)=c a^t, où c et a sont des nombres complexes non nuls. On a \chi(f)=\ln|a|, d'où les mêmes conclusions que ci-dessus à propos de la fonction f(t)=ce^{at}.

Cet exemple, pour simple qu'il soit, est comme le précédent très caractéristique de la notion d'exposant de Lyapunov.

Propriétés élémentaires[modifier | modifier le code]

L'addition et la multiplication sur la droite achevée \overline{\mathbb{R}} est définie comme d'habitude ; les quantités -\infty +\infty et 0.\pm \infty ne sont pas définies. On pose \ln(0)=-\infty et \ln(+\infty)=+\infty. Dans ce qui suit, E désigne un espace vectoriel de dimension finie[12]. Les propriétés qui suivent sont des conséquences directes de la définition[5],[13] ; elles ont pour la plupart été démontrées par Lyapunov :

(1) Une constante admet pour exposant de Lyapunov strict la valeur 0. Plus généralement, si f\in \mathcal{F}_E est telle qu'il existe deux constantes a,b>0 pour lesquelles a\leq \left\Vert f(t)\right\Vert \leq b, \forall t \in \mathcal I, alors \chi(f)=0.

(2) Soit f_i \in \mathcal{F}_E et c_{i}\in \mathbb{C}\backslash \left\{ 0\right\} (i=1,...,n). Alors

\chi \left( \sum\nolimits_{i=1}^{n}c_{i}f_{i}\right) \leq \sup_{1\leq
i\leq n}\left\{ \chi \left( f_{i}\right) \right\}

avec égalité si \chi \left( f_{i}\right)>\chi \left( f_{j}\right) (j\neq i).

(3) Soit E_i (i=1,...,n) des espaces de de dimension finie, u : \prod\nolimits_{1\leq i\leq n} E_i \rightarrow E une application multilinéaire, et f_i\in \mathcal{F}_{E_i} (i=1,...,n). Alors

\chi \left( u\left( f_{1},...,f_{n}\right) \right) \leq
\sum\nolimits_{i=1}^{n}\chi \left( f_{i}\right) .

(4) Soit f\in \mathcal{F}_E et a\in \mathcal{F}_{\mathbb{C}}a admet un exposant de Lyapunov strict. Alors

\chi \left( af\right) =\chi \left( a\right) +\chi \left( f\right) .

(5) Soit f_i\in \mathcal{F}_{\mathbb{R}} (i=1,...,n) des suites ou des fonctions à valeurs positives. Alors

\chi \left( \sum\nolimits_{i=1}^{n}f_{i}\right) \geq \inf_{1\leq i\leq
n}\chi \left( f_{i}\right) .

(6) Si f \in \mathcal{F}_{\mathbb{C}} est une suite qui ne s'annule pas et est telle que \underset{t\rightarrow +\infty }{\lim .\sup }\left\vert f\left( t\right)
\right\vert =l\in \overline{\mathbb{R}}, alors

\chi \left( t \mapsto \prod\limits_{\tau = t_0}^{t}f\left( \tau \right) \right)
\le\ln(l)

avec égalité si la limite supérieure est une limite.

(7) Si f \in \mathcal{F}_E est une fonction continue (ou plus généralement mesurable au sens de la mesure de Lebesgue), alors

\chi \left( t \mapsto \int f\left( t\right) dt\right)\le \chi \left( f\right)

avec égalité si E=\mathbb{R}, et f ne prend que des valeurs positives et admet un exposant de Lyapunov strict.

(8) Si f_i \in \mathcal{F}_E (i=1,...,n) et \chi(f_1)>\chi(f_2)>... >\chi(f_n), alors les fonctions f_1,..., f_n sont linéairement indépendantes.

(9) Si f \in \mathcal{F}_\mathbb {C} ne s'annule pas, alors \chi(f)+\chi(1/f)\ge 0 ; si de plus f(t)=e^{th(t)}, il y a égalité si et seulement si \lim\limits_{t\rightarrow +\infty }h(t) existe et est finie.

Exposants de Lyapunov des systèmes dynamiques[modifier | modifier le code]

Définition[modifier | modifier le code]

Considérons un système dynamique différentiable, défini par l'équation différentielle

\dot{x}=f(x,t)

t est le temps, \dot{x}=d/dt, et f vérifie les conditions habituelles pour que le théorème de Cauchy-Lipschitz s'applique ; cette fonction, à valeurs dans \mathbb R^n, est supposée de plus continûment différentiable par rapport à x. Pour une condition initiale donnée x(t_0)=x_0, il existe donc une solution unique x(t)=\varphi(x_0,t)=g^t(x_0), qu'on supposera définie sur [t_0, +\infty[. L'application g:t\mapsto g^t:x_0 \mapsto g^tx_0 est le flot défini par le champ de vecteur f. On a g^{t+s}=g^{s}g^{t}\left( t\geq t_{0},s\geq 0\right) , ce qui fait de la famille \left( g^{t}\right) _{t\geq t_{0}} un semi-groupe de difféomorphismes.

Soit donc une solution (également appelé mouvement) x(t)=g^tx_0=\varphi(x_0,t). Supposons qu'on fasse varier la condition initiale x_0 d'une quantité \varepsilon \delta x_0\varepsilon >0. Pour \varepsilon \rightarrow 0, il en résulte une variation du mouvement \varepsilon \delta x\left( x_{0},t\right) , en négligeant les termes du second ordre, où

\delta x\left( x_{0},t\right) =J^{t}\left( x_{0}\right) \delta x_{0}, avec J^{t}\left( x_{0}\right) =\frac{\partial \varphi }{\partial x_0}\left(x_{0},t\right) .

Par conséquent,

\sup\limits_{\left\Vert \delta x_{0}\right\Vert =1}\left\Vert \delta
x\left( x_{0},t\right) \right\Vert =\overline{\sigma }\left( J^{t}\left(
x_{0}\right) \right)

\overline{\sigma }(.) désigne la plus grande valeur singulière de la matrice entre parenthèses. Plus généralement,

Définition —  Soit \sigma_i(t,x_0) (i=1,...,n) les valeurs singulières de J^{t}\left(
x_{0}\right) (autrement dit, les racines carrées des valeurs propres de J^{t}\left(
x_{0}\right)^TJ^{t}\left(x_{0}\right)). Les exposants de Lyapunov du système dynamique sont les \chi(\sigma_i(.,x_0))(i=1,...,n).

Calcul des exposants de Lyapunov d'un système[modifier | modifier le code]

La définition qui précède ne permet pas de calculer directement les exposants de Lyapunov d'un système. On a

\frac{\partial ^{2}\varphi }{\partial x_{0}\partial t}(x_{0},t)=\frac{
\partial }{\partial x_{0}}\left( f(\varphi \left( x_{0},t),t\right) \right) =
\frac{\partial f}{\partial x}\left( \varphi \left( (x_{0},t\right) ,t\right) 
\frac{\partial \varphi }{\partial x_{0}}\left( x_{0},t\right)

par conséquent on obtient

\frac{d}{dt}J^{t}\left( x_{0}\right) =A(x_0,t)J^{t}\left( x_{0}\right) avec A(x_{0},t)=\frac{\partial f}{\partial x}\left( \varphi \left(
x_{0},t\right) ,t\right) .

De plus, on a évidemment J^{t_0}(x_0)=I_n.

Ce calcul et le théorème d'Oseledec[11],[14] permettent d'énoncer le

Théorème — (i) La famille \left( J^{t}\right) _{t\geq t_{0}} est un semi-groupe et la fonction \Phi_{x_0}: t \mapsto J^{t}\left( x_{0}\right) est l'unique solution de l'« équation aux variations » linéaire

(EV):: \frac{d \Phi_{x_0} }{d t}=A(x_0,t)\Phi_{x_0}

vérifiant la condition initiale \Phi_{x_0}=I_n.

(ii) Les exposants de Lyapunov \chi(\sigma_i(.,x_0)) sont exacts « presque sûrement » (au sens d'une mesure de probabilité ergodique pour le flot g^t), la limite

\Lambda \left( x_{0}\right) =\lim\limits_{t\rightarrow +\infty }\left(
J^{t}\left( x_{0}\right) ^{T}J^{t}\left( x_{0}\right) \right)^{1/(2t)}

existe presque sûrement (au sens de la même mesure de probabilité), et les \chi(\sigma_i(.,x_0)) sont les logarithmes des valeurs propres de \Lambda \left( x_{0}\right).

En simulation, on peut déterminer J^{t}\left( x_{0}\right) en intégrant l'équation linéaire (EV) avec la condition initiale indiquée, puis en déduire les exposants de Lyapunov \chi(\sigma_i(.,x_0))(i=1,...,n). Il existe également des méthodes ad hoc pour calculer les exposants de Lyapunov de manière approchée à partir de données expérimentales[11].

Systèmes linéaires réguliers[modifier | modifier le code]

Le théorème de Lyapunov, énoncé plus haut, fait appel à la notion de système régulier. Cette notion a été introduite par Lyapunov. Considérons l'équation (L) et son équation adjointe

(AD):: \frac{dy}{dt}=-A(t)y.

L'équation (L) a, on l'a vu, des exposants de Lyapunov finis \lambda_1 \le \lambda_2 \le ... \le \lambda_n ; de même, l'équation (AD) a des exposants de Lyapunov finis \mu_1 \ge \mu_2 \ge ...\ge \mu_n.

Définition — Le système (L) est régulier si \lambda_i + \mu_i = 0 (i=1,...,n).

Cette définition est assez malcommode à vérifier, et on peut utiliser plutôt la méthode due à Perron, que nous allons exposer maintenant.

Supposons qu'on fasse dans (L) le changement de variable x=P(t)zP:[t_0, +\infty[ \rightarrow \mathbb R^{n \times n} est une fonction continûment dérivable et P(t) est inversible pour tout t ; on obtient ainsi une nouvelle équation (T). Ce faisant, on ne change pas la nature du système (L) (i.e. si 0 est stable, resp. asymptotiquement stable, etc., pour (L), alors il l'est aussi pour (T)) si P est une transformation de Lyapunov dans le sens suivant :

Définition —  P est une transformation de Lyapunov si les fonctions t\mapsto \left\Vert P(t)\right\Vert , t \mapsto \left\Vert \dot P(t)\right\Vert et t \mapsto \left\Vert P^{-1}(t)\right\Vert sont bornées.

Perron a établi que, si A : t \mapsto A(t) est bornée, on peut toujours déterminer une transformation de Lyapunov pour laquelle (T) soit de la forme

(T):: \frac{dz}{dt}=B(t)z

B(t) est triangulaire supérieure. Soit b_{ii}(t) ses termes diagonaux. On a alors le

Théorème (Perron, 1922) —  Le système (T) est régulier si, et seulement si la limite

\lim\limits_{t\rightarrow +\infty }\frac{1}{t-t_0}\int_{t_{0}}^{t}b_{ii}\left(
\tau \right) d\tau

existe pour i=1,...,n.

Ce résultat et le théorème de Floquet montrent que tout système linéaire à coefficients périodiques (et en particulier tout système linéaire à coefficients constants) est régulier.

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. La stabilité est le plus souvent définie pour un point d'équilibre ; mais cette notion peut s'étendre à un mouvement d'un système (c'est-à-dire, dans le cadre de cet article, une solution de son équation d'état) (Hahn 1967, Chap. V).
  2. Le même raisonnement peut être fait pour la linéarisation autour d'un mouvement nominal.
  3. [1] Quantifying chaos with Lyapunov exponents
  4. [2] Measuring Chaos Lyapunov Exponent
  5. a et b Lyapunov 1992
  6. a et b Hahn 1967
  7. Perron 1930
  8. Il existe différentes notions de stabilité d'un mouvement, notamment celles de Lyapunov, de Zhukovsky et de Poincaré, en allant de la plus forte à la moins forte de ces propriétés ; pour un point d'équilibre, elles sont équivalentes ; pour un mouvement périodique, celles de Zhukovsky et de Poincaré sont équivalentes. C'est l'instabilité d'un mouvement au sens de Zhukovsky (qui entraîne donc celle au sens de Lyapunov mais non celle celle au sens de Poincaré) qui caractérise le mieux sa sensibilité aux conditions initiales (Leonov 2008).
  9. Leonov 2008
  10. Cvitanovi´c et al. 2013, Chapitre 6.
  11. a, b et c Eckmann et Ruelle 1985
  12. a et b On peut supposer, plus généralement, qu'il s'agit d'un espace de Banach.
  13. Cesari 1963
  14. Ruelle 1979

Références[modifier | modifier le code]

  • (en) Lamberto Cesari, Asymptotic Behavior and Stability in Ordinary Differential Equations, Springer Verlag,‎ 1963 (ISBN 364285673X)
  • (en) Predrag Cvitanovi´c, Roberto Artuso, Ronnie Mainieri, Gregor Tanner et G´abor Vattay, Chaos: Classical and Quantum - I: Deterministic Chaos, ChaosBook.org,‎ 2013 (lire en ligne)
  • (en) J.P. Eckmann et D. Ruelle, « Ergodic Theory of Chaos and Stange Attractors », Reviews of Modern Physics, vol. 57, no 3,‎ 1985, p. 617-656 (lire en ligne)
  • (en) Gennadi A. Leonov, Strange Attractors and Classical Stability Theory, St. Petersburg University Press,‎ 2008 (ISBN 9785288045004)
  • (en) Wolfgang Hahn, Stability of Motion, Springer-Verlag,‎ 1967 (ISBN 0387038299)
  • (en) Alexandre Lyapunov, The general problem of the stability of motion, CRC Press,‎ 1992 (ISBN 0748400621)
  • (de) Oskar Perron, « Die Stabilitätsfrage bei Differentialgleichungen », Mathematische Zeitschrift, vol. 32, no 1,‎ 1930, p. 703-728 (lire en ligne)
  • (en) David Ruelle, « Ergodic theory of differentiable dynamical systems », Publications mathématiques de l’I.H.É.S., vol. 50,‎ 1979, p. 27-58 (lire en ligne)

Articles connexes[modifier | modifier le code]