Exponentielle d'une matrice

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En mathématiques, et plus particulièrement en analyse, l'exponentielle d'une matrice est une fonction généralisant la fonction exponentielle aux matrices et aux endomorphismes par le calcul fonctionnel. Elle fait en particulier le pont entre un groupe de Lie et son algèbre de Lie.

Définition[modifier | modifier le code]

Définition-théorème — La série d'applications de terme général

\begin{array}{ccc} \mathcal{M}_n(\mathbb C) & \longrightarrow & \mathcal{M}_n(\mathbb C) \\ A & \longmapsto & \frac{1}{k!}A^k\end{array}

converge normalement sur toute partie bornée de \mathcal{M}_n(\mathbb C). On appelle alors exponentielle l'application de \mathcal{M}_n(\mathbb C) dans \mathcal{M}_n(\mathbb C) définie, pour tout A \in \mathcal{M}_n(\mathbb C), par

\exp A=e^A=\sum_{k \geq 0} \frac{1}{k!}A^k.

Pour n=1, on retombe sur la définition de l'exponentielle classique.

Propriétés[modifier | modifier le code]

Soient X et Y deux matrices n×n complexes et soient a et b deux nombres complexes. La matrice identité est notée I, et la matrice nulle, 0. L'exponentielle d'une matrice possède les propriétés suivantes :

L'application exponentielle[modifier | modifier le code]

L'exponentielle d'une matrice est toujours inversible. L'inverse de eX est donné par eX. Cette fonction est donc une application \exp:\mathcal{M}_n(\C) \to GL_n(\C) de l'ensemble des matrices n×n vers le groupe général linéaire, c'est-à-dire le groupe de toutes les matrices inversibles.

Pour deux matrices X et Y, nous avons

 \|{\rm e}^{X+Y} -{\rm e}^X \| \le \|Y\|{\rm e}^{\|X\|}{\rm e}^{\|Y\|},

où || · || désigne une norme matricielle arbitraire. Il suit que l'application exponentielle est continue et lipschitzienne sur tout sous-ensemble compact de Mn(ℂ).

L'application \exp:\mathcal{M}_n(\C) \to GL_n(\C) est même de classe C^\infty.

Sa différentielle en 0 est l'identité et elle réalise un difféomorphisme entre un voisinage de 0 et un voisinage de l'identité.

L'application

t \mapsto{\rm e}^{tX}, \quad t \in \R

définit une courbe de classe C^\infty dans le groupe linéaire qui passe par l'identité en t = 0. Cette courbe est en fait un sous-groupe à un paramètre de GL_n(\mathbb C) puisque

{\rm e}^{tX}{\rm e}^{sX} ={\rm e}^{(t+s)X}.\,

La dérivée de cette courbe au point t est donnée par

\frac{\rm d}{{\rm d}t}{\rm e}^{tX} = X{\rm e}^{tX}. \qquad (1)

(La dérivée au point t = 0 est la matrice X, ce qui revient à dire que X engendre ce sous-groupe à un paramètre.)

En effet, plus généralement, la différentielle de l'application exponentielle en une matrice X est donnée par

\exp'_X(H)=\sum_{i,j\in\N}\frac{X^iHX^j}{(i+j+1)!}=\sum_{i,j\in\N}B(i+1,j+1)\frac{X^i}{i!}H\frac{X^j}{j!}=\int_0^1{\rm e}^{(1-\alpha)X}H{\rm e}^{\alpha X}{\rm d}\alpha

(où B désigne la fonction bêta), d'où

\text{si }XH=HX,\quad\exp'_X(H)=H{\rm e}^X.

Calculs de l'exponentielle d'une matrice[modifier | modifier le code]

Le calcul d'une exponentielle de matrice n'est pas a priori un problème facile. Cependant, dans certains cas, et notamment ceux d'une matrice diagonale et d'une matrice nilpotente, il ne présente aucune difficulté. Une fois cette remarque faite, le cas général peut se traiter en se ramenant aux deux cas précédents.

Matrice diagonale[modifier | modifier le code]

Si A est une matrice diagonale, c'est-à-dire :

A=\begin{pmatrix} a_1 & 0 & \ldots & 0 \\
0 & a_2 & \ldots & 0  \\ \vdots & \vdots & \ddots & \vdots \\
0 & 0 & \ldots & a_n \end{pmatrix},

alors son exponentielle est obtenue en calculant l'exponentielle de chacun des termes de la diagonale principale :

e^A=\begin{pmatrix} e^{a_1} & 0 & \ldots & 0 \\
0 & e^{a_2} & \ldots & 0  \\ \vdots & \vdots & \ddots & \vdots \\
0 & 0 & \ldots & e^{a_n} \end{pmatrix}.

Cette propriété permet de calculer simplement l'exponentielle des matrices diagonalisables. Si A = UDU−1, avec D diagonale, alors eA = UeDU−1.

Matrice nilpotente[modifier | modifier le code]

Une matrice N est nilpotente si Nq = 0 pour un entier q. Dans ce cas, l'exponentielle d'une matrice eN se calcule directement à partir de son développement en série, puisque celui-ci ne comporte alors qu'un nombre fini de termes :

e^N = I + N + \frac{N^2}{2!} + \frac{N^3}{3!} + \cdots + \frac{N^{q-1}}{(q-1)!}.

Matrice quelconque[modifier | modifier le code]

Lorsque le polynôme minimal d'une matrice X est scindé (ce qui est en particulier toujours le cas pour les matrices à coefficients complexes), la décomposition de Dunford donne

X = A + N \,

  • A est diagonalisable ;
  • N est nilpotente ;
  • A commute avec N.

Dès lors, le calcul de l'exponentielle de X se réduit aux deux cas précédents :

e^X = e^{A+N} = e^A e^N.

On peut aussi faire appel à la réduction de Jordan : soit J la forme de Jordan de X, et P la matrice de passage. Alors,

e^{X}=Pe^{J}P^{-1}.

Puisque

J=J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n),
e^{J}\, = \exp \big( J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n) \big)
= \exp \big( J_{a_1}(\lambda_1) \big) \oplus \exp \big( J_{a_2}(\lambda_2) \big) \oplus\cdots\oplus \exp \big( J_{a_k}(\lambda_k) \big).

En conséquence, il faut seulement connaître la méthode pour calculer l'exponentielle d'un bloc de Jordan. Chacun est de la forme

J_{a}(\lambda) = \lambda I + N \,

N est une matrice nilpotente. L'exponentielle du bloc est donnée par

e^{\lambda I + N} = e^{\lambda}e^N. \,

Exemple[modifier | modifier le code]

Soit la matrice

B=\begin{pmatrix}
21 & 17 & 6 \\
-5 & -1 & -6 \\
4 & 4 & 16 \end{pmatrix}

qui a la forme de Jordan

J=\begin{pmatrix}
16 & 1 & 0 \\
0 & 16 & 0 \\
0 & 0 & 4 \end{pmatrix}

et la matrice de passage

P=\begin{pmatrix}
-1 & 1 & {5 \over 8} \\
1 & -1 & -{1\over 8} \\
0 & 2 & 0 \end{pmatrix}.

Maintenant,

J=J_2(16)\oplus J_1(4)\qquad\text{et}\qquad e^B=Pe^JP^{-1}=P\left(e^{J_2(16)}\oplus e^{J_1(4)}\right)P^{-1}.

Alors,

 \exp \left( 16I+\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \right) = e^{16}\left(\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} + {1 \over 2!}\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}+\cdots\right)=\begin{pmatrix} e^{16} & e^{16} \\ 0 & e^{16} \end{pmatrix}.

L'exponentielle de la matrice 1×1 est triviale, avec eJ1(4)=e4, d'où

e^B = P\begin{pmatrix} e^{16} & e^{16} & 0 \\ 0 & e^{16} & 0 \\ 0 & 0 & e^4 \end{pmatrix}P^{-1} = {1\over 4}\begin{pmatrix}
5e^4-e^{16} & 5e^4 - 5 e^{16} & -2e^{16} \\
-e^4 + e^{16} & -e^4 + 5e^{16} & 2e^{16} \\
0 & 0 & 4e^{16} \end{pmatrix}.

Applications[modifier | modifier le code]

Équations différentielles linéaires[modifier | modifier le code]

Une des premières applications de l'exponentielle de matrices est la résolution des équations différentielles ordinaires. En effet, de l'équation (1) ci-dessus, on déduit que la solution de :

 \frac{d}{dt} y(t) = Ay(t), \quad y(0) = y_0,

A est une matrice, est donnée par

 y(t) = e^{At} y_0. \,

L'exponentielle d'une matrice peut aussi servir à résoudre les équations non homogènes :

 \frac{d}{dt} y(t) = Ay(t) + b(t), \quad y(0) = y_0.

En multipliant par eAt, nous avons

e^{-At}\frac{d}{dt} y(t)-e^{-At}A y(t) = e^{-At}b
 \frac{d}{dt} (e^{-At}y) = e^{-At}b

La résolution du système se ramène donc au calcul de eAt.

Il n'existe pas de solution explicite pour les équations différentielles de la forme :

 \frac{d}{dt} y(t) = A(t) \, y(t), \quad y(0) = y_0,

A n'est pas constant, mais le développement de Magnus (en) donne la solution sous la forme d'une somme infinie.

Exemple (équation homogène)[modifier | modifier le code]

Soit le système

\begin{matrix}
x' &=& 2x&-y&+z \\
y' &=&   &3y&-z \\
z' &=& 2x&+y&+3z. \end{matrix}

La matrice associée est

M=\begin{pmatrix}
2 & -1 &  1 \\
0 &  3 & -1 \\
2 &  1 &  3 \end{pmatrix}

et son exponentielle est

\begin{align}e^{tM}&=\begin{pmatrix}-1&1&1\\1&0&-1\\1&-1&1\end{pmatrix}\left(e^{tJ_2(2)}\oplus e^{tJ_1(4)}\right)\begin{pmatrix}1/2&1&1/2\\1&1&0\\1/2&0&1/2\end{pmatrix}\\&=
\begin{pmatrix}(e^{2t}(1-2t)+e^{4t})/2&-te^{2t}&(-e^{2t}+e^{4t})/2\\
(e^{2t}(1+2t)-e^{4t})/2&e^{2t}(1+t)&(e^{2t}-e^{4t})/2\\
(e^{2t}(-1+2t)+e^{4t})/2&te^{2t}&(e^{2t}+e^{4t})/2\end{pmatrix}.\end{align}

La solution générale du système est donc

\begin{pmatrix}x \\y \\ z\end{pmatrix}=
\frac{C_1}2\begin{pmatrix}e^{2t}(1-2t)+e^{4t}\\
e^{2t}(1+2t)-e^{4t}\\
e^{2t}(-1+2t)+e^{4t}\end{pmatrix}
+C_2\begin{pmatrix}-te^{2t}\\
e^{2t}(1+t)\\
te^{2t}\end{pmatrix}
+\frac{C_3}2\begin{pmatrix}-e^{2t}+e^{4t}\\
e^{2t}-e^{4t}\\
e^{2t}+e^{4t}\end{pmatrix}

c'est-à-dire, en posant a=C_1/2, b=C_2 et c=C_3/2 :


\begin{align}
x&=a(e^{2t}(1-2t)+e^{4t})-bte^{2t}+c(-e^{2t}+e^{4t})\\
y&=a(e^{2t}(1+2t)-e^{4t})+be^{2t}(1+t)+c(e^{2t}-e^{4t}) \\
z&=a(e^{2t}(-1+2t)+e^{4t})+bte^{2t}+c(e^{2t}+e^{4t}).
\end{align}

Exemple (équation non homogène, variation de la constante)[modifier | modifier le code]

Pour une équation non homogène, on peut utiliser une méthode semblable à la variation de la constante.

Nous cherchons une solution de la forme yp(t)=exp(tA)z(t) :

\mathbf{y}_p' = (e^{tA})'\mathbf{z}(t)+e^{tA}\mathbf{z}'(t)= Ae^{tA}\mathbf{z}(t)+e^{tA}\mathbf{z}'(t)= A\mathbf{y}_p(t)+e^{tA}\mathbf{z}'(t)

Avec yp comme solution :

e^{tA}\mathbf{z}'(t) = \mathbf{b}(t)
\mathbf{z}'(t) = (e^{tA})^{-1}\mathbf{b}(t)
\mathbf{z}(t) = \int_0^t e^{-uA}\mathbf{b}(u)\,du+\mathbf{c}

Alors,

\mathbf{y}_p = e^{tA}\int_0^t e^{-uA}\mathbf{b}(u)\,du+e^{tA}\mathbf{c}=\int_0^t e^{(t-u)A}\mathbf{b}(u)\,du+e^{tA}\mathbf{c}

c dépend des conditions initiales.

Exemple (non homogène)[modifier | modifier le code]

Soit le système

\begin{matrix}
x' &=& 2x&-y&+z&+e^{2t} \\
y' &=&   &3y&-1z& \\
z' &=& 2x&+y&+3z&+e^{2t}.\end{matrix}

Nous avons donc

M=\begin{pmatrix}
2 & -1 &  1 \\
0 &  3 & -1 \\
2 &  1 &  3 \end{pmatrix}\qquad\text{et}\qquad\mathbf{b}=e^{2t}\begin{pmatrix}1 \\0\\1\end{pmatrix}.

Comme auparavant, la somme de la solution homogène et de la solution particulière donne la solution générale. La solution homogène étant connue, il suffit de trouver la solution particulière.

\begin{align}\mathbf{y}_p&= e^{t}\int_0^t e^{(-u)A}\begin{pmatrix}e^{2u} \\0\\e^{2u}\end{pmatrix}\,du+e^{tA}\mathbf{c}\\
&= e^{t}\int_0^t
\begin{pmatrix} 
     2e^u - 2ue^{2u} & -2ue^{2u}    & 0 \\  \\
-2e^u + 2(u+1)e^{2u} & 2(u+1)e^{2u} & 0 \\  \\
            2ue^{2u} & 2ue^{2u}     & 2e^u\end{pmatrix}\begin{pmatrix}e^{2u} \\0\\e^{2u}\end{pmatrix}\,du+e^{tA}\mathbf{c}\\
&= e^{t}\int_0^t
\begin{pmatrix}
e^{2u}( 2e^u - 2ue^{2u}) \\  \\
  e^{2u}(-2e^u + 2(1 + u)e^{2u}) \\  \\
  2e^{3u} + 2ue^{4u}\end{pmatrix}\,du+e^{tA}\mathbf{c}\\
&=e^{t}\begin{pmatrix}
-{1 \over 24}e^{3t}(3e^t(4t-1)-16) \\  \\
{1 \over 24}e^{3t}(3e^t(4t+4)-16) \\  \\
{1 \over 24}e^{3t}(3e^t(4t-1)-16)\end{pmatrix}+
\begin{pmatrix} 
     2e^t - 2te^{2t} & -2te^{2t}    & 0 \\  \\
-2e^t + 2(t+1)e^{2t} & 2(t+1)e^{2t} & 0 \\  \\
            2te^{2t} & 2te^{2t}     & 2e^t\end{pmatrix}\begin{pmatrix}c_1 \\c_2 \\c_3\end{pmatrix},\end{align}

expression qui peut être simplifiée pour obtenir la solution particulière cherchée.

Notes et références[modifier | modifier le code]

  1. Godement 1982, p. 263.
  2. Pour plus de termes, voir par exemple (en) Janusz Czyż, Paradoxes of Measures and Dimensions Originating in Felix Hausdorff's Ideas, World Scientific,‎ 1994 (ISBN 978-9-81020189-0, lire en ligne), p. 421.

Bibliographie[modifier | modifier le code]

  • Roger Godement, Introduction à la théorie des groupes de Lie, Springer,‎ 1982 (ISBN 3-540-20034-7)
  • Xavier Merlin, Methodix algèbre, Ellipses, coll. « Methodix »,‎ 2007, 400 p. (ISBN 2729895558)
  • (en) Roger A. Horn et Charles R. Johnson, Topics in Matrix Analysis, Cambridge University Press,‎ 1991 (ISBN 0-521-46713-6)
  • Xavier Merlin, Methodix algèbre, Ellipses, coll. « Methodix »,‎ 2007, 400 p. (ISBN 2729895558)
  • (en) Cleve Moler et Charles Van Loan, « Nineteen Dubious Ways to Compute the Exponential of a Matrix », SIAM Review, vol. 20, no 4,‎ 1978 (DOI 10.1137/1020098)
  • (en) Cleve Moler et Charles Van Loan, « Nineteen Dubious Ways to Compute the Exponential of a Matrix, Twenty-Five Years Later », SIAM Review, vol. 45, no 1,‎ 2003 (DOI 10.1137/S00361445024180)
  • (en) Roger B. Sidje, « Expokit: a software package for computing matrix exponentials », ACM TOMS, vol. 24, no 1,‎ mars 1998 (DOI 10.1145/285861.285868)