Logarithme d'une matrice

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En mathématiques, et plus particulièrement en analyse, un logarithme d'une matrice est une autre matrice telle que son exponentielle soit égale à la matrice initiale. C'est une généralisation de la notion usuelle de logarithme, considéré comme inverse de la fonction exponentielle, mais le logarithme n'existe pas pour toutes les matrices, et n'est pas unique en général. L'étude du logarithme des matrices conduit au développement de la théorie de Lie (en), car les matrices ayant un logarithme appartiennent à un groupe de Lie, et le logarithme est alors l'élément correspondant de l'algèbre de Lie associée.

Définition ; étude d'un exemple[modifier | modifier le code]

Une matrice B est un logarithme de la matrice A si l'exponentielle de B est A :  e^B = A. \,

Les rotations planes fournissent un exemple simple. Une rotation d'angle α (autour de l'origine, c'est-à-dire considérée comme rotation vectorielle) est représentée par la matrice 2×2

 A =
\begin{pmatrix}
\cos(\alpha) & -\sin(\alpha) \\
\sin(\alpha) & \cos(\alpha) \\
\end{pmatrix}.

Pour tout entier n, la matrice


B_n=(\alpha+2\pi n)
\begin{pmatrix}
0 & -1 \\
1 & 0\\
\end{pmatrix},

est un logarithme de A ; on peut remarquer que cela correspond aux logarithmes complexes b du nombre a=e^{2i\pi\alpha}, dans l'isomorphisme associant au nombre complexe z=x+iy la matrice Z =
\begin{pmatrix}
x & -y \\
y & x \\
\end{pmatrix}.
. Ainsi, la matrice A possède une infinité de logarithmes (l'angle de rotation n'étant déterminé qu'à un multiple de 2\pi près).

Dans le langage de la théorie de Lie (en), les matrices de rotation A sont éléments du groupe de Lie SO(2). Leurs logarithmes, les matrices B correspondantes, sont éléments de l'algèbre de Lie so(2), formée de toutes les matrices antisymétriques, et dont la matrice 
\begin{pmatrix}
0 & 1 \\
-1 & 0\\
\end{pmatrix}
est un générateur.

Existence et premières propriétés[modifier | modifier le code]

Dans le cas complexe, la matrice A possède un logarithme si et seulement si elle est inversible[1]. Ce logarithme n'est pas unique, mais si A n'a pas de valeurs propres réelles négatives, elle a un logarithme unique dont les valeurs propres sont toutes dans la bande du plan complexe définie par {zC | −π < Im z < π} ; ce logarithme est appelé le logarithme principal[2].

Si on se limite à des matrices à coefficients réels, on a un critère plus compliqué : une matrice réelle admet un logarithme réel si et seulement si elle est inversible et si chaque bloc de Jordan correspondant à une valeur propre réelle négative apparait un nombre pair de fois[3](sinon, elle n'a que des logarithmes complexes). Une analyse plus détaillée dans le cas des matrices 2 x 2 est faite dans la dernière section.

Si A et B sont deux matrices définies positives telles que AB = BA, alors, pour deux logarithmes quelconques de A et B, notés ln(A) et ln(B), on a AB = e^{\ln(A)+\ln(B)}\, .

Pour toute matrice inversible et tout logarithme, A^{-1} = e^{-\ln(A)} \, .

Un autre exemple : logarithmes des rotations de l'espace[modifier | modifier le code]

Une rotation (vectorielle)  R\in {\rm SO(3)} en dimension trois est donnée par une matrice orthogonale 3x3.

Le logarithme de cette matrice R peut être calculé à l'aide de la formule de Rodrigues, sauf lorsque l'une des valeurs propres de R est égale à -1 (R est alors une rotation d'angle \pi, donc une symétrie axiale), auquel cas le logarithme n'est plus unique.

Étant données des matrices de rotation A et B,  d_g(A,B) := \| \log(A^\top B)\|_F est la distance géodésique sur la variété (de dimension 3) des matrices de rotation.

Calcul de logarithmes[modifier | modifier le code]

Matrices diagonalisables[modifier | modifier le code]

Si D est une matrice diagonale (inversible), son logarithme s'obtient en prenant la matrice diagonale dont les éléments de la diagonale sont les logarithmes de ceux de D (si ceux-ci sont tous des réels positifs, il existe un seul logarithme (à coefficients réels).

Plus généralement, si A est une matrice diagonalisable (inversible), on peut par définition écrire A=PDP^{-1}, où D est une matrice diagonale et où P est la matrice de passage correspondant à une base de vecteurs propres de A ; appelant alors L un logarithme de D, on vérifie facilement (voir exponentielle de matrice) que  \exp (PLP^{-1}) =P\exp (L)P^{-1}=A, et donc que PLP^{-1} est un logarithme de A.

Matrices non diagonalisables[modifier | modifier le code]

Le résultat exposé précédemment ne s'applique pas à des matrices non diagonalisables, telles que \begin{pmatrix}1 & 1\\ 0 & 1\end{pmatrix}. Mettant une telle matrice sous forme normale de Jordan, on est donc amené à calculer le logarithme des blocs de Jordan. On peut écrire un tel bloc sous la forme :

B=\begin{pmatrix}
\lambda & 1       & 0       & 0      & \cdots  & 0 \\
0       & \lambda & 1       & 0      & \cdots  & 0 \\
0       & 0       & \lambda & 1      & \cdots  & 0 \\
\vdots  & \vdots  & \vdots  & \ddots & \ddots  & \vdots \\
0       & 0       & 0       & 0      & \lambda & 1       \\
0       & 0       & 0       & 0      & 0       & \lambda \\\end{pmatrix}
=
\lambda \begin{pmatrix}
1 & \lambda^{-1}       & 0       & 0      & \cdots  & 0 \\
0       & 1 & \lambda^{-1}       & 0      & \cdots  & 0 \\
0       & 0       & 1 & \lambda^{-1}      & \cdots  & 0 \\
\vdots  & \vdots  & \vdots  & \ddots & \ddots  & \vdots \\
0       & 0       & 0       & 0      & 1 & \lambda^{-1}       \\
0       & 0       & 0       & 0      & 0       & 1 \\\end{pmatrix}=\lambda(I+K),

K est une matrice nilpotente (triangulaire supérieure, et de diagonale nulle) ; le scalaire λ est non nul, la matrice étant supposée inversible.

Utilisant le développement en série  \ln (1+x)=x-\frac{x^2}{2}+\frac{x^3}{3}-\frac{x^4}{4}+\cdots, on sait que, au sens des séries formelles, \exp(\ln(1+x))=1+x, et donc que (les puissances de matrices commutant entre elles) on aura de même \exp(\ln(I+K))=I+K si la série converge pour une matrice K donnée. Posant alors

L=\ln B=\ln \big(\lambda(I+K)\big)=\ln (\lambda I) +\ln (I+K)= (\ln \lambda) I + K-\frac{K^2}{2}+\frac{K^3}{3}-\frac{K^4}{4}+\cdots ,

la série converge évidemment ici, puisque, K étant nilpotente, elle n'a qu'un nombre fini de termes ; on en déduit que L est bien un logarithme de B.

Ainsi, par exemple, on aura

\ln \begin{bmatrix}1 & 1\\ 0 & 1\end{bmatrix}
=\begin{bmatrix}0 & 1\\ 0 & 0\end{bmatrix}.

Le point de vue de l'analyse fonctionnelle[modifier | modifier le code]

Une matrice carrée d'ordre n représente un endomorphisme (linéaire) de l'espace euclidien Rn ; comme on est en dimension finie, cet endomorphisme est un opérateur borné.

Les méthodes du calcul fonctionnel holomorphe, permettent de prolonger une fonction holomorphe f(z) définie sur un ensemble ouvert du plan complexe à un opérateur borné T, donnant un sens à f(T) si f(z) est définie sur le spectre de T.

La fonction f(z)=ln z peut être définie sur tout ouvert simplement connexe du plan complexe ne contenant pas l'origine, et y est holomorphe. Cela a pour conséquence qu'on peut définir ln T si le spectre de T ne contient pas l'origine, et s'il existe un chemin allant de l'origine à l'infini et ne rencontrant pas le spectre[réf. nécessaire]).

En dimension finie, le spectre de l'opérateur est l'ensemble des valeurs propres de la matrice et est donc fini (satisfaisant la condition de chemin précédente s'il ne contient pas 0) ; ainsi, ln T est défini si T est inversible (mais l'existence de plusieurs branches du logarithme complexe fait que le logarithme n'est pas non plus unique pour les matrices).

Le point de vue de la théorie des groupes de Lie[modifier | modifier le code]

La théorie des groupes de Lie permet de définir une application exponentielle allant d'une algèbre de Lie g vers le groupe de Lie correspondant G,  \exp : g \rightarrow G .

Pour des groupes de Lie de matrices, les éléments de g et de G sont des matrices carrées, et l'application exponentielle est l'exponentielle de matrice. L'application inverse  \log=\exp^{-1} est multivoque, et correspond au logarithme de matrice. Le logarithme envoie donc le groupe de Lie G vers l'algèbre de Lie g.

L'application exponentielle est un difféomorphisme local d'un voisinage U de la matrice nulle  \underline{0} \in g vers un voisinage V de la matrice identité \underline{1}\in G ; le logarithme (de matrice) est donc défini de manière univoque comme une application  \log: V\subset G\rightarrow U\subset g. \,

Contraintes dans le cas des matrices réelles d'ordre 2[modifier | modifier le code]

Toute matrice inversible admet un logarithme complexe, mais si l'on cherche des logarithmes réels pour des matrices réelles, des contraintes supplémentaires apparaissent ; on démontre ainsi (en utilisant la réduction de Jordan) que si une matrice 2 x 2 réelles n'a pas de logarithme réel, c'est que son déterminant est négatif ou nul. Pour une analyse plus précise, on commence par montrer que toute matrice peut s'écrire (de façon unique au signe de b près, sauf dans le troisième cas) sous la forme aI_2+bE, où a et b sont des réels, I_2 est la matrice unité, et où E est une matrice réelle telle que E^2=-I_2, I_2 ou O_2, la matrice nulle[4]. On peut alors identifier la sous-algèbre des matrices de la forme xI_2+yE au plan complexe, au plan des complexes fendus ou au plan des nombres duaux, respectivement, et utiliser le logarithme de ces plans (considérés comme des groupes de Lie).

Ainsi, si A= \begin{pmatrix}2 & 2 \\ -1 & 0 \end{pmatrix}, on a A=I_2+E, avec E^2=-I_2 ; identifiant A au nombre complexe z=1+i=\sqrt2e^{i\pi/4}, on en déduit qu'un logarithme de A doit être L=\frac{\ln2}2I_2+\frac{\pi}4E=\begin{pmatrix}\frac{\ln2}2+\frac{\pi}4 & \frac{\pi}2 \\ -\frac{\pi}4 & \frac{\ln2}2-\frac{\pi}4 \end{pmatrix}.

Le déterminant ne peut être négatif que dans le cas où E^2=I_2, donc correspondant au plan des nombres complexes fendus. Seul un quadrant de ce plan est l'image de l'application exponentielle, et donc le logarithme n'est défini que dans ce quadrant ; le reste du plan est obtenu à partir des matrices ayant un logarithme par les transformations du groupe de Klein, correspondant au changement de signe et au produit par E. Par exemple, posant a = ln 2, et donc ch a = 5/4 et sh a = 3/4, on a pour les matrices \exp \begin{pmatrix}0 & a \\ a & 0 \end{pmatrix} = 
\begin{pmatrix}\cosh a & \sinh a \\ \sinh a & \cosh a  \end{pmatrix} =
\begin{pmatrix}5/4 & 3/4\\ 3/4 & 5/4 \end{pmatrix}. Cette dernière matrice a donc pour logarithme \begin{pmatrix}0 & \ln 2 \\ \ln 2 & 0 \end{pmatrix}. Les trois autres matrices correspondantes (conjuguées par le groupe de Klein) : \begin{pmatrix}3/4 & 5/4 \\ 5/4 & 3/4 \end{pmatrix},\ 
\begin{pmatrix}-3/4 & -5/4 \\ -5/4 & -3/4\end{pmatrix}, \ 
\begin{pmatrix}-5/4 & -3/4\\ -3/4 & -5/4 \end{pmatrix} n'ont pas de logarithmes. Plus généralement, si une matrice n'est pas singulière, et qu'elle n'a pas de logarithme, elle est conjuguée d'une matrice qui en admet un.

L'exemple précédent peut se généraliser : partant d'un triplet pythagoricien (p,q,r) et posant a = ln(p + r) − ln q, on a

e^a = \frac {p + r} {q} = \cosh a + \sinh a.

Donc \exp \begin{pmatrix}0 & a \\ a & 0 \end{pmatrix} =
\begin{pmatrix}r/q & p/q \\ p/q & r/q \end{pmatrix}. et la matrice \tfrac{1}{q}\begin{pmatrix}r & p \\ p & r \end{pmatrix} a pour logarithme\begin{pmatrix}0 & \ln(p+r) - \ln q \\ \ln(p+r) - \ln q & 0 \end{pmatrix}.

Notes et références[modifier | modifier le code]

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Logarithm of a matrix » (voir la liste des auteurs)

Notes[modifier | modifier le code]

  1. Higham 2008, théorème 1.27
  2. Higham 2008, théorème 1.31
  3. Culver 1966
  4. Voir Matrices réelles 2x2 (en).

Références[modifier | modifier le code]

Articles connexes[modifier | modifier le code]