Système dynamique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Ne doit pas être confondu avec Dynamique des systèmes.
Article général Pour un article plus général, voir théorie des systèmes dynamiques.

En mathématiques, en physique théorique et en ingénierie, un système dynamique est un système classique[1] qui évolue au cours du temps de façon à la fois :

  • causale, c’est-à-dire que son avenir ne dépend que de phénomènes du passé ou du présent ;
  • déterministe, c’est-à-dire qu'à une « condition initiale » donnée à l'instant « présent » va correspondre à chaque instant ultérieur un et un seul état « futur » possible.

On exclut donc ici conventionnellement les systèmes « bruités » intrinsèquement stochastiques, qui relèvent de la théorie des probabilités.

L'évolution déterministe du système dynamique peut alors se modéliser de deux façons distinctes :

  • une évolution continue dans le temps, représentée par une équation différentielle ordinaire. C'est a priori la plus naturelle physiquement, puisque le paramètre temps nous semble continu.
  • une évolution discontinue dans le temps. Ce second cas est souvent le plus simple à décrire mathématiquement, même s'il peut sembler a priori moins réaliste physiquement[2]. Cependant, l'étude théorique de ces modèles discrets est fondamentale, car elle permet de mettre en évidence des résultats importants, qui se généralisent souvent aux évolutions dynamiques continues.

Système dynamique à temps discret[modifier | modifier le code]

Notion d'état dynamique : aspect philosophique[modifier | modifier le code]

Il faut faire attention au sens très particulier que prend la notion d’état pour la théorie des systèmes dynamiques. Un paradoxe de Zénon permet de présenter la difficulté. Zénon demandait : « Soit une flèche en vol. À un instant, est-ce qu’elle est au repos ou en mouvement ? » Si on répondait qu’elle est en mouvement, il disait « Mais être en mouvement, c’est changer de position. À un instant, la flèche a une position, elle n’en change pas. Elle n’est donc pas en mouvement. » Si on répondait qu’elle est au repos, il disait « Mais si elle est au repos à cet instant, elle est aussi au repos à tous les autres instants, elle est donc toujours au repos. Elle n’est jamais en mouvement. Mais comment alors peut-elle passer d’une position à une autre ? » Il en concluait qu’il n’est pas possible de dire des vérités sur ce qui est en mouvement. Tout ce qui est en mouvement serait par nature mensonger et il n’y aurait pas de vérités à propos de la matière mais seulement à propos des grandes idées, pourvu qu’elles soient immuables. Le sens commun est exactement inverse. On croit plus couramment à la vérité de ce qu’on voit qu’aux vérités métaphysiques. La théorie des systèmes dynamiques rejoint le sens commun sur ce point.

La notion d’état dynamique fournit une solution au paradoxe de Zénon : à un instant, la flèche est en mouvement, elle a une position mais elle est en train de changer de position, elle a une vitesse instantanée. Les nombres qui mesurent sa position et sa vitesse sont les valeurs de ses variables d’état. Les variables d’état sont toutes les grandeurs physiques qui déterminent l’état instantané du système et qui ne sont pas constantes a priori. On les appelle aussi les variables dynamiques. Si on prend une photo au flash, on ne voit pas que la flèche est en mouvement, mais on peut le détecter par d’autres moyens, par l’effet Doppler par exemple, sans avoir à mesurer un changement de position. L’état dynamique d’un système est un état instantané, mais c’est un état de mouvement. Il est déterminé par les valeurs de toutes les variables d’état à cet instant.

Espace des phases[modifier | modifier le code]

L'espace des phases est une structure correspondant à l'ensemble de tous les états possibles du système considéré. Ce peut être un espace vectoriel, une variété différentielle ou un fibré vectoriel, un espace mesurable

Pour un système possédant n degrés de liberté, par exemple, l'espace des phases \Gamma du système possède n dimensions, de telle sorte que l'état complet {}^{x(t) \in \Gamma} du système à l'instant t est en général un vecteur à n composantes.

Dynamique discrète[modifier | modifier le code]

Un système dynamique discret est généralement défini par une application bijective {}^{\phi : \Gamma \to \Gamma} de l'espace des phases sur lui-même (on étudie aussi la dynamique d'applications non nécessairement bijectives, notamment en dynamique holomorphe). Elle opère de la façon suivante : étant donnée une condition initiale x_0 de l'état du système, le premier état suivant est :

x_1 \ = \ \phi(x_0)

Le second état, qui suit immédiatement le premier, est :

x_2 \ = \ \phi(x_1) \ = \ \phi(\phi(x_0)) \ = \ (\phi \circ \phi)(x_0) \ = \ \phi^2(x_0)

et ainsi de suite, de telle sorte que le n-ième état est donné par :

x_n \ = \ \phi(x_{n-1}) \ = \ \dots \ = \ \phi^n(x_0)

Pour remonter dans le passé, il suffit d’inverser la fonction {}^\phi, ce qui est toujours possible pour une bijection.

Classification des dynamiques[modifier | modifier le code]

On distingue plusieurs grands types de dynamiques en fonction de la nature mathématique de l'espace des phases :

Exemples[modifier | modifier le code]

La fonction logistique[modifier | modifier le code]

Article détaillé : suite logistique.
Bifurcations de la fonction logistique.

La fonction logistique est une application du segment [0, 1] dans lui-même qui sert de récurrence à la suite :

x_{n+1} \ = \ r \, x_n \ (1 - x_n)

n = 0, 1, … dénote le temps discret, x l'unique variable dynamique, et r un paramètre réel compris entre 0 et 4[3].

La dynamique de cette application présente un comportement très différent selon la valeur du paramètre r :

  • Pour 0 \le r < 3 , le système possède un point fixe attractif, qui devient instable lorsque r = 3.
  • Pour 3 \le r < 3,57\ldots, l'application possède un attracteur qui est une orbite périodique, de période 2^nn est un entier qui tend vers l'infini lorsque r tend vers 3,57…
  • Lorsque r = 3,57\ldots, l'application possède un attracteur de Feigenbaum fractal (mais non étrange) découvert par Robert May en 1976[4].
  • Le cas r = 4 avait été étudié dès 1947 par Stanislas Ulam et John von Neumann[5]. On peut dans ce cas précis établir l'expression exacte de la mesure invariante ergodique[6].

On obtient donc une succession de bifurcations de la régularité vers le chaos lorsque le paramètre augmente, résumée sur la figure ci-jointe.

L'application « chat » d'Arnold (1968)[modifier | modifier le code]

Le nom d'application « chat » provient d'un jeu de mot anglais intraduisible en français : en effet, « chat » se dit « cat » en anglais, et Arnold utilisait ce mot comme acronyme de : « Continuous Automorphisms of the Torus », littéralement : « automorphismes continus du tore ».

L'application « chat »[7] est une application du carré [0, 1] × [0, 1] dans lui-même définie par :

\begin{matrix}x_{n+1}  & = &  x_n \, + \, y_n \quad (\mathrm{mod} \ 1) \\ y_{n+1}  & = & x_n \, + \, 2 \, y_n \quad (\mathrm{mod} \ 1)
\end{matrix}

où (mod 1) signifie : à un entier près. Cette condition entraine que le carré [0, 1] × [0, 1] voit ses bords recollés deux à deux pour former le « tore » du titre. Il s'agit d'un système dynamique conservatif, qui préserve la mesure de Lebesgue dx dy.

Cette application a des propriétés intéressantes qui permettent d'illustrer des concepts fondamentaux de la théorie des systèmes dynamiques[8].

L'application de Hénon (1976)[modifier | modifier le code]

L'application de Michel Hénon[9],[10] est une bijection du carré [0, 1] × [0, 1] dans lui-même définie par :

\begin{matrix}x_{n+1}  & = &  y_n \, + \, 1 \, - \, a \, x_n^2 \\ y_{n+1}  & = & b \,  x_n
\end{matrix}

a et b sont deux paramètres, dont des valeurs typiques sont a= 1,4 et b = 0,3. Avec ces valeurs, la dynamique présente un attracteur étrange de nature fractale, de type Cantor[11].

Hénon a obtenu ses équations en cherchant une version simplifiée du système dynamique de Lorenz à temps continu introduit en 1963 (cf. plus bas). Le système dynamique de Hénon n'est pas conservatif, car le jacobien de la transformation est constant[12] et vaut -b, qui est différent de l'unité dans les cas intéressants.

L'application de Hénon est aussi étudiée et généralisée en tant que système dynamique complexe (dans {}^{\C^2}).

Autres exemples[modifier | modifier le code]

  • L'application de décalage sur les suites binaires définie comme suit. L'espace dynamique est l'ensemble des suites de 0 et de 1 et l'application à itérer est l'application \sigma, dite de décalage (traduction du terme anglophone shift, parfois utilisé en français) qui décale la suite d'un cran vers la gauche : si x=(x_0,x_1,x_2,...) est une suite de 0 et de 1, \sigma(x) est la suite (x_1,x_2,x_3,...). Ce modèle de système dynamique se généralise et son importance se trouve dans le fait qu'il résulte généralement du codage d'un système dynamique par une partition de Markov (en).
  • La dynamique holomorphe sur le plan complexe {}^{\C}. C'est dans ce cadre que l'on définit l'ensemble de Mandelbrot et les ensembles de Julia.
  • La percolation.

Système dynamique différentiel[modifier | modifier le code]

Depuis les travaux d'Isaac Newton (1687), l'idée que l'évolution temporelle d'un système physique quelconque est bien modélisée par une équation différentielle (ou ses généralisations à la théorie des champs, les équations aux dérivées partielles) est admise. Cette modélisation différentielle s'est depuis étendue avec succès à d'autres disciplines comme la chimie, la biologie, l'économie

On considère typiquement un système différentiel du premier ordre du type[13] :

\frac{\mathrm dx(t)}{\mathrm dt} \ = \ f(x(t),t)

où la fonction f définit le système dynamique étudié (pour un système à n degrés de liberté, il s'agit à proprement parler d'un champ de vecteurs à n dimensions, c’est-à-dire, d'un point de vue prosaïque, un ensemble de n fonctions scalaires).

Problème de Cauchy[modifier | modifier le code]

On se pose la question suivante, appelée problème de Cauchy : étant donnée une condition initiale x_0 représentant l'état complet du système physique dans son espace des phases à un instant initial t_0, trouver l'état complet du système x(t) dans son espace des phases pour tout instant ultérieur t > t_0 . La solution à ce problème fondamental réside dans le théorème de Cauchy-Lipschitz, qui assure (sous une hypothèse assez large) l'existence locale et l'unicité de la solution d'une équation différentielle.

Déterminisme[modifier | modifier le code]

L’hypothèse que l’avenir est déterminé par le présent est très audacieuse. Son succès n’est pas a priori évident. Pourtant, toutes les grandes théories fondamentales de la physique l’ont adoptée, à la suite de Newton.

Déterminisme d'un système conservatif[modifier | modifier le code]

Nous conviendrons de dire qu'un système physique conservatif est déterministe si et seulement si la dynamique du système associe à chaque condition initiale x_0 un et un seul état final x(t). Il faut pour cela qu'il existe une application bijective \phi_t : \Gamma \to \Gamma de l'espace des phases sur lui-même telle que :

x(t) \ = \ \phi_t(x_0)

Lorsque le temps t varie, cette bijection engendre un flot sur \Gamma , c’est-à-dire un groupe continu à un paramètre \phi_t tel que :

\phi_0 \ = \ \mathrm{Id}
\forall(t,s)\in\R^2 \, \quad \phi_t \ \circ \phi_s \ = \ \phi_{t+s}

Cette description correspond par exemple au flot hamiltonien de la mécanique classique, ainsi qu'au flot géodésique.

Cas d'un système non conservatif[modifier | modifier le code]

Lorsque le système physique considéré est non conservatif, l'application {}^{\phi_t} n'est pas bijective[14], et il existe en général un (ou plusieurs) attracteur dans l'espace des phases du système, c’est-à-dire un sous-ensemble de l'espace des phases invariant sous {}^{\phi_t} vers lequel converge le point représentatif x(t) du système lorsque le temps t tend vers l'infini, et ce pour presque toute condition initiale x_0.

Exemples[modifier | modifier le code]

L'oscillateur de Van der Pol (1928)[modifier | modifier le code]

Oscillateur de Van der Pol.

L'oscillateur de van der Pol libre (i.e. sans excitation extérieure) est un système à un degré de liberté, décrit par la coordonnée x(t), qui possède deux paramètres :

  • une pulsation \omega_0
  • un coefficient de non-linéarité \epsilon.

Son équation différentielle s'écrit[15] :

\frac{\mathrm d^2x(t)}{\mathrm dt^2} \ - \ \epsilon \, \omega_0 \ \left(1 - x^2(t) \right) \; \frac{\mathrm dx(t)}{\mathrm dt} \ + \ \omega_0^2 \ x(t) \ = \ 0

Ce système dissipatif possède une dynamique régulière lorsqu'il est libre, caractérisée par un attracteur en forme de cycle limite représenté sur la figure ci-dessous (où on a posé \omega_0 = 1 ) :

Le système de Lorenz (1963)[modifier | modifier le code]

Attracteur étrange de Lorenz.

En 1963, Edward Lorenz a proposé un système différentiel possédant trois degrés de liberté[16], notés x(t), y(t) et z(t), qui s'écrit :

\frac{\mathrm dx(t)}{\mathrm dt} \ = \ \sigma \ \left[ \ y(t) - x(t) \ \right]
\frac{\mathrm dy(t)}{\mathrm dt} \ = \ \rho \, x(t) \ - \ y(t) \ - \ x(t) \, z(t)
\frac{\mathrm dz(t)}{\mathrm dt} \ = \ x(t) \, y(t) \ - \ b \, z(t)

Dans ces équations, \sigma, \rho et b sont trois paramètres réels. Pour les valeurs suivantes : \sigma = 10, \rho = 28 et b=8/3, ce système dynamique différentiel présente un attracteur étrange, représenté sur la figure ci-jointe.

Systèmes linéaires et non linéaires[modifier | modifier le code]

Nous distinguons les systèmes dynamiques linéaires des systèmes dynamiques non linéaires. Dans les premiers, le membre de droite de l'équation est une fonction dépendant linéairement de x, telle que :

x_{t+1} = 3x_t\,\!

La somme de deux solutions d'un système linéaire est également solution (« principe de superposition »). Les solutions d'une équation linéaire forment un espace vectoriel, ce qui permet l'utilisation de l'algèbre linéaire et simplifie considérablement l'analyse. Pour les systèmes à temps continu, la transformée de Laplace permet de transformer les équations différentielles en des équations algébriques.

Les deux premiers exemples donnés plus haut sont des systèmes non linéaires. Leur analyse est en général très difficile. Par ailleurs, les systèmes non linéaires ont souvent des comportements dits chaotiques, ce qui les rend apparemment imprévisibles.

Les systèmes dynamiques et la théorie du chaos[modifier | modifier le code]

Des systèmes dynamiques non linéaires, ou simplement linéaires par morceau[citation nécessaire], peuvent faire preuve de comportements complètement imprévisibles, qui peuvent même sembler aléatoires (alors qu'il s'agit de systèmes parfaitement déterministes). Cette imprédictibilité est appelée chaos. La branche des systèmes dynamiques qui s'attache à définir clairement et à étudier le chaos s'appelle la théorie du chaos.

Cette branche des mathématiques décrit qualitativement les comportements à long terme des systèmes dynamiques. Dans ce cadre, on ne met pas l'accent sur la recherche de solutions précises aux équations du système dynamique (ce qui, de toute façon, est souvent sans espoir), mais plutôt sur la réponse à des questions comme « Le système convergera-t-il vers un état stationnaire à long terme, et dans ce cas, quels sont les états stationnaires possibles ? » ou « Le comportement à long terme du système dépend-il des conditions initiales ? ».

Un objectif important est la description des points fixes, ou états stationnaires, du système ; ce sont les valeurs de la variable pour lesquelles elle n'évolue plus avec le temps. Certains de ces points fixes sont attractifs, ce qui veut dire que si le système parvient à leur voisinage, il va converger vers le point fixe.

De même, on s'intéresse aux points périodiques, les états du système qui se répètent au bout d'un certain nombre de pas (leur période). Les points périodiques peuvent également être attractifs. Le théorème de Charkovski donne une contrainte sur l'ensemble des périodes possibles des points d'un système dynamique à variable réelle et fonction d'évolution continue ; notamment, s'il existe un point de période 3, il existe des points de période quelconque (résumé souvent en « période 3 implique chaos », d'après le titre d'un article fondateur[17]).

Le comportement chaotique de systèmes complexes n'est pas une surprise – on sait depuis longtemps que la météorologie comprend des comportements complexes et même chaotiques. La véritable surprise est plutôt la découverte de chaos dans des systèmes presque triviaux ; ainsi, la fonction logistique est un simple polynôme du second degré, pourtant le comportement de ses solutions est chaotique.

Notes[modifier | modifier le code]

  1. Classique est ici utilisé au sens de non quantique ; l'étude des systèmes dynamiques quantiques n'en est encore qu'à ses balbutiements.
  2. On peut en fait toujours associer une (ou plusieurs) dynamique(s) discrète(s) à une dynamique continue donnée en échantillonnant l'état du système à une suite d'instants, chaque choix de discrétisation du temps produisant a priori un échantillonnage différent. Mais on utilise surtout des sections de Poincaré, méthode fondamentale pour passer des systèmes continus aux systèmes discrets. La transformation inverse permettant de passer des systèmes discrets aux systèmes continus est une suspension.
  3. Lorsque le paramètre r devient strictement supérieur à quatre, l'application sort de l'intervalle [0, 1].
  4. (en)R.M. May, Nature 261 (1976), 459.
  5. (en)S. Ulam et J. von Neumann, Bulletin of the American Mathematical Society, 53 (1947), 1120.
  6. (en) Pierre Collet et Jean-Pierre Eckmann (en), Iterated Maps on the Interval as Dynamical Systems, Birkhaüser, 1980.
  7. (en) Vladimir I. Arnold et André Avez, Ergodic Problems of Classical Mechanics, (1968) ; Réédition : Advanced Book Classics, Pearson Addison Wesley (Mai 1989), ASIN 0201094061.
  8. C'est l'un des exemples canoniques de Hasselblatt et Katok 1997.
  9. (en) Michel Hénon, A two-dimensionnal mapping with a strange attractor, Communication in Mathematical Physics 50 (1976), 69 [(en) texte intégral][PDF]
  10. (en) James H. Curry, On the Henon transformation, Communication in Mathematical Physics 68 (1979), 129 [(en) texte intégral][PDF]
  11. Avec a = 1,3 et b = 0,3, l'attracteur étrange disparait totalement au profit d'un attracteur en forme d'orbite périodique, de période 7.
  12. Ce type d'application polynomiale de jacobien constant est appelée « transformation entière de Cremona ». Cf. (de) Wolfgang Engel, Ein Satz über ganze Cremona-Transformationen der Ebene, Mathematische Annalen 130 (1955), 11 et : Ganze Cremona-Transformationen von Primzahlgrad in der Ebene, Mathematische Annalen 136 (1958), 319.
  13. Rappelons qu'une équation différentielle d'ordre n peut toujours se ramener à un système de n équations différentielles couplées d'ordre un.
  14. En particulier, l'application {}^{\phi_t} n'admet pas d'inverse.
  15. Introduit en 1928, cet oscillateur à relaxation a été introduit pour la modélisation des battements du cœur humain ; cf. (en) Balth. van der Pol et J. van der Mark, The Heartbeat considered as a Relaxation oscillation, and an Electrical Model of the Heart, Philosophical Magazine Supplement 6 (1928), 763-775.
  16. (en) Edward N. Lorenz, « Deterministic Nonperiodic Flow », J. Atmos. Sci., vol. 20,‎ 1963, p. 130-141 (DOI <0130:DNF>2.0.CO;2 10.1175/1520-0469(1963)020<0130:DNF>2.0.CO;2, lire en ligne)
  17. (en) Tien-Yien Li et James A. Yorke (en), « Period Three Implies Chaos », American Mathematical Monthly, vol. 82, no 10,‎ 1975, p. 985-992 (lire en ligne)

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Systèmes dynamiques (article doublon)


Liens externes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

Ouvrages d'initiation[modifier | modifier le code]

  • John H. Hubbard et Beverly H. West, Équations différentielles et systèmes dynamiques, Cassini, 1999 (ISBN 284225015X)
  • Grégoire Nicolis et Ilya Prigogine, À la rencontre du complexe, Collection Philosophie d'aujourd'hui, PUF, 1992 (ISBN 2-13-043606-4)
  • (en) Boris Hasselblatt (de) et Anatole Katok (de), A First Course in Dynamics with a Panorama of Recent Developments, Cambridge University Press,‎ 2003 (ISBN 0521587506)
  • (en) Diederich Hinrichsen (en) et Anthony J. Pritchard, Mathematical Systems Theory. Modelling, State Space Analysis, Stability and Robustness, New York: Springer (2005). (ISBN 978-3-540-44125-0)
  • (en) Boris Hasselblatt et Anatole Katok, Introduction to the Modern Theory of Dynamical Systems : With a supplement by Anatole Katok and Leonardo Mendoza, Cambridge University Press, coll. « Encyclopedia of Mathematics and Its Applications » (no 54),‎ 1997 (ISBN 0-521-57557-5)
  • David Ruelle, Hasard et chaos, Odile Jacob, Paris, 1991.
  • James Gleick (trad. Christian Jeanmougin), La Théorie du Chaos [« Chaos: Making a New Science »], Flammarion, coll. « Champs », Paris, 1988 (réimpr. 1999), 431 p. (ISBN 2-08081-219-X)

Ouvrages plus techniques[modifier | modifier le code]

Bibliothèque virtuelle[modifier | modifier le code]

  • Paul Manneville, Systèmes dynamiques et chaos, (1998), 233 pages. Cours donné par l'auteur (LadHyX, École Polytechnique) aux DEA de Physique des Liquides et de Mécanique [lire en ligne]
  • (en) David Ruelle, Ergodic theory of differentiable dynamical systems, Publ. Math. IHES 50 (1979), 27-58 [(en) texte intégral][PDF].