Équation de Liapounov

Un article de Wikipédia, l'encyclopédie libre.

En théorie du contrôle, l'équation discrète de Liapounov (également connue sous le nom d'équation de Stein ) est une équation de la forme

,

est une matrice hermitienne et est la matrice adjointe de .

L'équation continue de Liapounov est de la forme

.

L'équation de Liapounov apparaît dans de nombreuses branches de la théorie du contrôle, telles que la stabilité de Liapounov et la commande optimale. Cette équation et des équations associées portent le nom du mathématicien russe Alexandre Liapounov[1],[2].

Application à la stabilité[modifier | modifier le code]

Dans les énoncés suivants , et et sont des matrices symétriques. La notation signifie que la matrice est définie positive.

Théorème (version temps continu) — Étant donné , il existe un unique satisfaisant

si et seulement si le système linéaire est globalement asymptotiquement stable.

La fonction quadratique est une fonction de Liapounov qui peut être utilisée pour vérifier la stabilité.

Théorème (version en temps discret) — Étant donné , il existe un unique satisfaisant

si et seulement si le système linéaire est globalement asymptotiquement stable.

Comme ci-dessus, est une fonction de Liapounov.

Calcul numérique de la solution[modifier | modifier le code]

L'équation de Liapounov est linéaire, et donc si est de taille , il peut être calculé en temps en utilisant les méthodes standard de factorisation matricielle.

Cependant, la structure spécifique de l'équation de Liapounov permet l'usage d'algorithmes beaucoup plus rapides. Dans le cas discret, la méthode de Schur de Kitagawa est souvent utilisée[3]. Dans le cas de l'équation de Liapounov continue, l'algorithme de Bartels-Stewart peut être utilisé[4].

Solution analytique[modifier | modifier le code]

On considère l'opérateur de vectorisation qui empile les colonnes d'une matrice , et on note le produit de Kronecker de et de . Les équations de Liapounov en temps continu et en temps discret peuvent être exprimées comme des solutions d'une équation matricielle. De plus, si la matrice est stable, la solution peut également être exprimée sous la forme d'une intégrale (cas du temps continu) ou d'une somme infinie (cas du temps discret).

Temps discret[modifier | modifier le code]

En utilisant le fait que , on a

,

est la matrice identité de taille et est la matrice adjointe de [5]. On peut alors résoudre par inversion ou en résolvant les équations linéaires. Pour obtenir , il suffit de recomposer la matrice depuis .

De plus, si est stable, la solution peut aussi s'écrire sous la forme

.

À titre d'exemple, considérons le cas unidimensionnel, où la formule dit simplement que la solution de est la fraction

.

Temps continu[modifier | modifier le code]

En utilisant à nouveau le produit de Kronecker et l'opérateur de vectorisation, on a l'équation matricielle

est la matrice adjointe de .

Comme dans le cas discret, si est stable, la solution peut aussi s'écrire comme

.

À titre d'exemple, considérons le cas unidimensionnel ; l'expression dit simplement que la solution de est

.

Relation entre les équations de Liapounov discrètes et continues[modifier | modifier le code]

On considère la dynamique linéaire en temps continu :

.

On la discrétise en :

,

indique un petit déplacement dans le temps. En explicitant l'équation et en mélangeant les termes, on obtient une équation en temps discret pour  :

. Maintenant, on peut utiliser l'équation de Liapounov en temps discret pour  :

.

Avec la définition de , on a :

.

En développant cette expression, on obtient :

.

Comme est petit, si tend zéro, on s'approche de plus en plus d'une dynamique continue, et c'est ce qu'on obtient à la limite. On peut également récupérer les équations de Lyapounov en temps continu à la limite. Pour cela, on divise par des deux côtés, puis quand , on trouve que :

qui est l'équation de Liapounov en temps continu, comme indiqué.

Articles liés[modifier | modifier le code]

Références[modifier | modifier le code]

  1. P. C. Parks, « A. M. Lyapunov's stability theory — 100 years on », IMA Journal of Mathematical Control and Information, vol. 9, no 4,‎ , p. 275–303 (DOI 10.1093/imamci/9.4.275, lire en ligne).
  2. Valeria Simoncini, « Computational Methods for Linear Matrix Equations », SIAM Review, vol. 58, no 3,‎ , p. 377–441 (DOI 10.1137/130912839, hdl 11585/586011, lire en ligne).
  3. G. Kitagawa, « An Algorithm for Solving the Matrix Equation X = F X F' + S », International Journal of Control, vol. 25, no 5,‎ , p. 745–753 (DOI 10.1080/00207177708922266).
  4. R. H. Bartels et G. W. Stewart, « Algorithm 432: Solution of the matrix equation AX + XB = C », Comm. ACM, vol. 15, no 9,‎ , p. 820–826 (DOI 10.1145/361573.361582).
  5. J. Hamilton, Time Series Analysis, Princeton University Press, (ISBN 0-691-04289-6).