Matrice diagonalisable

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
\begin{pmatrix} 0 & -1 \\ 1 & 0\end{pmatrix}
Exemple de matrice diagonalisable sur le corps
des complexes mais pas sur celui des réels,
son polynôme caractéristique étant X^2+1.

En mathématiques, une matrice diagonalisable est une matrice carrée semblable à une matrice diagonale. Cette propriété est équivalente à l'existence d'une base de vecteurs propres, ce qui permet de définir de manière analogue un endomorphisme diagonalisable d'un espace vectoriel.

Le fait qu'une matrice soit diagonalisable dépend du corps dans lequel sont cherchées les valeurs propres, ce que confirme la caractérisation par le fait que le polynôme minimal soit scindé à racines simples.

Cette caractérisation permet notamment de montrer que les projecteurs sont toujours diagonalisables, ainsi que les involutions si le corps des coefficients est de caractéristique différente de 2. Plus généralement, les endomorphismes et matrices d'ordre fini sont diagonalisables sur le corps des complexes. Au contraire, un endomorphisme nilpotent non nul ne peut pas être diagonalisable.

Les matrices réelles symétriques sont diagonalisables par une matrice orthogonale. Plus généralement les matrices normales, parmi lesquelles les matrices hermitiennes, antihermitiennes et unitaires sont diagonalisables à l'aide d'une matrice unitaire, ce qui conduit au théorème spectral.

La diagonalisation est la détermination effective d'une matrice de passage transformant une matrice diagonalisable en une matrice diagonale, ou la décomposition d'un espace vectoriel en une somme directe de droites stables par un endomorphisme.

Article connexe : Diagonalisation.
Modification par un endomorphisme diagonalisable d'un parallélotope dont les côtés sont dirigés par des vecteurs propres.

Définitions[modifier | modifier le code]

Approche matricielle[modifier | modifier le code]

Une matrice carrée M à coefficients dans un corps K est dite diagonalisable sur K s'il existe une matrice inversible P et une matrice diagonale D à coefficients dans K satisfaisant la relation :

M = P D P^{-1}\,.

Dans ce cas, chaque vecteur colonne Y de la matrice P est un vecteur propre pour la matrice M, c'est-à-dire qu'il existe un scalaire \lambda sur la diagonale de D tel que M Y = \lambda Y.

Réciproquement, si une matrice admet une famille de vecteurs propres qui forment une base de l'espace des vecteurs colonnes alors cette matrice est diagonalisable. Il suffit de construire la matrice inversible formée par une juxtaposition de ces vecteurs, la matrice diagonale étant définie par la suite des valeurs propres associées.

Endomorphisme[modifier | modifier le code]

Un endomorphisme d'un espace vectoriel est dit diagonalisable s'il existe une base de vecteurs propres. Cela signifie que l'espace vectoriel peut être décomposé en une somme directe de droites stables par l'endomorphisme, ou autrement dit que l'espace vectoriel est la somme directe des sous-espaces propres de l'endomorphisme[1].

En dimension finie, cette définition signifie que l'endomorphisme est représenté dans cette base par une matrice diagonale, donc que n'importe quelle représentation matricielle de l'endomorphisme est une matrice diagonalisable par changement de base.

Propriétés et critères[modifier | modifier le code]

Par définition, toute matrice semblable à une matrice diagonalisable est également diagonalisable, ce qui peut se traduire pour les endomorphismes par le fait que le conjugué d'un endomorphisme diagonalisable par un automorphisme est également diagonalisable.

\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}
Matrice de polynôme caractéristique X^2
mais dont le noyau est égal à l'image,
donc non diagonalisable.

Plusieurs autres propriétés se déduisent directement de la forme diagonale :

En revanche, une matrice dont le polynôme caractéristique est scindé n'est pas forcément diagonalisable, comme dans le cas des matrices nilpotentes non nulles.

Cependant, si le polynôme caractéristique est scindé à racines simples, chacune de ses racines est associée à une valeur propre et les vecteurs propres associés forment une base, montrant que la matrice est diagonalisable.

Puissances et polynômes[modifier | modifier le code]

\begin{pmatrix}
\lambda_1 & 0         & \dots  & 0      \\
0         & \lambda_2 & \ddots & \vdots \\
\vdots    & \ddots    & \ddots & 0      \\
0         & \dots     & 0      & \lambda_n
\end{pmatrix}^k =
\begin{pmatrix}
\lambda_1^k & 0           & \dots  & 0      \\
0           & \lambda_2^k & \ddots & \vdots \\
\vdots      & \ddots      & \ddots & 0      \\
0           & \dots       & 0      & \lambda_n^k
\end{pmatrix}
Expression d'une puissance de matrice diagonale.

Les puissances d'une matrice diagonalisable s'expriment sous la forme

M^k = P D^k P^{-1}\,

où la puissance de la diagonale se calcule en élevant simplement chaque coefficient diagonal à la même puissance k.

En conséquence, pour tout polynôme Q, la matrice Q(M) est égale à P.Q(D).P-1, et Q(D) s'exprime en appliquant simplement Q à chaque coefficient diagonal de D. On en déduit que Q(M) est nulle si et seulement si tous les coefficients diagonaux de D sont des racines du polynôme. Le polynôme minimal de M est donc le produit des facteurs (X-λ), où λ parcourt l'ensemble des coefficients diagonaux de D sans tenir compte de leur éventuelle multiplicité. En particulier, ce polynôme est scindé à racines simples.

Caractérisation[modifier | modifier le code]

Par les polynômes[modifier | modifier le code]

La réciproque de la dernière propriété énoncée ci-dessus peut se déduire de la décomposition de Dunford : si une matrice M annule un polynôme scindé, le polynôme minimal de M est scindé lui aussi. La matrice M est alors semblable à la somme d'une matrice diagonale D et d'une matrice nilpotente N dont l'indice de nilpotence est le plus petit commun multiple des ordres de multiplicité de chaque racine du polynôme minimal de M. Si de plus M annule un polynôme scindé à racines simples, alors son polynôme minimal est lui aussi scindé à racines simples, si bien que N est nilpotente d'ordre 1 c'est-à-dire nulle, et M est semblable à la matrice diagonale D.

Article détaillé : Décomposition de Dunford.

Par les sous-espaces propres[modifier | modifier le code]

Pour toute valeur propre λ d'une matrice M, on distingue :

  • sa multiplicité géométrique, qui est la dimension du sous-espace propre associé, et
  • sa multiplicité algébrique, qui est l'ordre de multiplicité de la racine λ dans le polynôme caractéristique de M (c'est aussi la dimension du sous-espace caractéristique associé).

La matrice M est diagonalisable si et seulement si la somme des multiplicités géométriques est égale à la taille de M. Or chaque multiplicité géométrique est toujours inférieure ou égale à la multiplicité algébrique correspondante. Par conséquent, une matrice est diagonalisable si et seulement si :

  • son polynôme caractéristique est scindé et
  • pour toute valeur propre, la multiplicité géométrique est égale à la multiplicité algébrique.

Racine[modifier | modifier le code]

Le fait que toute puissance d'une matrice diagonalisable soit également diagonalisable admet une réciproque partielle. Toute matrice inversible admettant au moins une puissance non nulle diagonalisable est diagonalisable également sur un corps algébriquement clos de caractéristique nulle.

Ce résultat est une conséquence de la caractérisation ci-dessus par les polynômes. Soit A une matrice inversible dont une puissance A^n (avec n>0) a pour polynôme minimal un polynôme scindé à racines simples s'écrivant :

P(X) = \prod_i{(X-\lambda_i)}\,

Puisque A est inversible, sa puissance A^n l'est également donc toutes les racines de P sont non nulles. Il en découle que le polynôme suivant :

Q(X) = \prod_i{(X^n-\lambda_i)}\,

est également scindé à racines simples et est annulé par A, qui est donc diagonalisable.

\begin{pmatrix}1 & 1 \\ 0 & 1\end{pmatrix}
Exemple de matrice non diagonalisable modulo p
mais dont la puissance p-ième vaut l'identité modulo p.

La condition d'inversibilité permet d'exclure les matrices nilpotentes dont une puissance est la matrice nulle qui est diagonalisable. La condition de clôture algébrique peut être affaiblie en supposant simplement que les valeurs propres de A admettent leurs racines d'ordre n dans le corps des coefficients. Enfin, il suffit que la caractéristique du corps soit première avec l'exposant de la puissance diagonalisable pour garantir que ces racines soient simples.

Dans une base orthonormale[modifier | modifier le code]

Matrices symétriques[modifier | modifier le code]

Article détaillé : Matrice symétrique.

Toute matrice réelle symétrique est diagonalisable par une matrice orthogonale, c'est-à-dire que l'endomorphisme associé dans l'espace euclidien de dimension n est diagonalisable dans une base orthonormale. Réciproquement, si U est une matrice orthogonale et D une matrice diagonale réelle, alors le produit de matrices réelles U D U^{-1} est une matrice symétrique.

Lorsqu'une matrice symétrique A est positive, c'est-à-dire si ses valeurs propres sont toutes positives, il existe une unique matrice symétrique positive dont le carré soit A. Cette racine carrée de A est en effet diagonalisable et a nécessairement les mêmes espaces propres avec des valeurs propres en racine carrée de celles de A.

Matrices normales[modifier | modifier le code]

\begin{pmatrix} 0 & -1 \\ 1 & 0\end{pmatrix}
Matrice réelle orthogonale et antisymétrique,
diagonalisable sur le corps des complexes
mais pas sur celui des réels.

De même, toute matrice complexe hermitienne est diagonalisable par une matrice unitaire en une matrice diagonale réelle. Plus généralement, les matrices complexes diagonalisables par une matrice unitaire sont les matrices normales, c'est-à-dire qui commutent avec leur adjointe. Cette définition comprend à la fois les matrices hermitiennes, les antihermitiennes, les unitaires et en particulier leurs versions réelles : symétriques, antisymétriques et orthogonales. Cependant, ces deux dernières familles de matrice n'admettent pas en général de diagonalisation sur le corps des réels.

Article détaillé : Matrice normale.

Application au théorème spectral[modifier | modifier le code]

La sphère rouge représente la sphère unité pour la première distance, la figure bleue représente la sphère unité pour la deuxième distance. La figure bleue est un ellipsoïde dont les axes peuvent être choisis orthogonaux pour la première distance.
Article détaillé : Endomorphisme autoadjoint.

Le théorème spectral stipule qu'étant données deux formes bilinéaires symétriques sur un espace vectoriel réel ou complexe de dimension finie, si l'une d'entre elle est définie positive, il existe une base orthonormale pour celle-ci qui soit orthogonale pour l'autre.

Autrement dit, il existe une base dans laquelle les deux formes soient représentées par des matrices diagonales, la première étant même la matrice identité I. Si les deux formes ont respectivement pour matrice A et B dans une base arbitraire, et pour matrices I et B' dans la base particulière fournie par le théorème, les nouvelles matrices ne sont pas semblables aux anciennes, mais congruentes, via la matrice de passage P (inversible) et sa matrice adjointe P* :

I=P^*\ A\ P,\quad B'=P^*\ B\ P.

Pour démontrer le théorème il suffit de considérer, sur l'espace euclidien ou hermitien défini par la première forme, l'endomorphisme autoadjoint canoniquement associé à la seconde : il existe une base orthonormée (par rapport à la première forme) qui est propre pour cet endomorphisme (donc qui est orthogonale pour la seconde forme).

Répartition[modifier | modifier le code]

La répartition des matrices diagonalisables dans l'ensemble des matrices carrées d'une taille donnée peut être estimée en termes de topologie, pour démontrer certains résultats par densité, ou en termes de mesure pour évaluer la probabilité qu'une matrice prise au hasard soit diagonalisable.

L'ensemble des matrices à coefficients réels ou complexes (d'une taille fixée) est muni d'une unique topologie séparée compatible avec sa structure d'espace vectoriel. Elle peut être obtenue par exemple à l'aide d'une norme matricielle. Le choix d'une base de l'espace des matrices permet en outre de définir une mesure de Lebesgue associée.

Sur le corps des complexes[modifier | modifier le code]

Une partie des matrices diagonalisables est constituée de celles dont le polynôme caractéristique est à racines simples, c'est-à-dire de discriminant non nul. Comme ce discriminant est polynomial en les coefficients des matrices, son lieu d'annulation est un fermé. Par passage au complémentaire, les matrices dont le polynôme caractéristique est à racines simples forment donc un ouvert.

N'importe quelle matrice peut être approchée par de telles matrices en perturbant les coefficients diagonaux d'une matrice triangulaire semblable. L'ensemble des matrices diagonalisables contient donc un ouvert dense. Par passage au complémentaire, l'ensemble des matrices non diagonalisables (inclus dans le lieu d'annulation du discriminant) est donc rare, c'est-à-dire que son adhérence est d'intérieur vide.

Plus précisément, le lieu d'annulation du discriminant est une sous-variété algébrique (stricte) donc elle est de mesure nulle pour la mesure de Lebesgue (quelle que soit la base choisie) ou pour n'importe quelle mesure qui lui est absolument continue.

Enfin, l'ensemble des matrices diagonalisables est un cône, c'est-à-dire qu'il est stable par multiplication scalaire, donc il est connexe par arcs via la matrice nulle. En particulier, il est donc connexe.

Il est possible de démontrer aussi que l'ensemble des matrices diagonalisables inversibles est également connexe par arcs comme image du produit des matrices diagonales inversibles (isomorphe à un produit fini de copies du groupe des complexes non nuls) et du groupe linéaire, tous deux connexes par arcs.

\begin{array}{rcl}\mathrm{Diag}^*_n(\mathbb C) \times \mathrm{GL}_n(\mathbb C) & \!\!\longrightarrow\!\! & \mathcal M_n(\mathbb C) \\
(D, U) & \mapsto & UDU^{-1}\end{array}

Sur le corps des réels[modifier | modifier le code]

DoubleCone.png

M = \left(\begin{matrix} a & b \\ c & d \end{matrix}\right)

\begin{array}{rl} \chi_M(X)\!\!\! & =(a-X)(d-X)-bc \\ & = X^2 - (a+d)X + ad-bc \end{array}

\begin{array}{rl} \Delta\!\!\! & = (a+d)^2-4(ad-bc) \\ & = (a-d)^2+(b+c)^2-(b-c)^2\end{array}
Matrice carrée de taille 2, polynôme caractéristique et discriminant dont l'ensemble d'annulation
est le double cône représenté par projection sur l'ensemble des matrices de trace nulle.
Ce cône est la frontière de l'ensemble des matrices non diagonalisables (au-dessus et en dessous),
séparé en deux composantes connexes par l'ensemble des matrices scalaires (sommet à l'origine).

À partir de la dimension 2, l'ensemble des matrices diagonalisables sur le corps des réels n'est pas dense comme dans le cas complexe, donc l'ensemble des matrices non diagonalisables n'est pas négligeable pour la mesure de Lebesgue. En effet, l'ensemble des matrices réelles non diagonalisables sur les réels et dont le polynôme caractéristique est à racines simples sur le corps des complexes forme alors un ouvert non vide.

En dimension 2 ou 3, la diagonalisabilité d'une matrice est déterminée par le signe du discriminant de son polynôme caractéristique lorsqu'il est non nul. Le lieu d'annulation de ce discriminant réunit alors les matrices non diagonalisables même sur le corps des complexes et les matrices diagonalisables dont le polynôme caractéristique est à racines multiples.

Matrices simultanément diagonalisables[modifier | modifier le code]

Plusieurs matrices sont dites simultanément diagonalisables si elles sont semblables à des matrices diagonales dans une même base.

Une condition nécessaire et suffisante pour qu'un ensemble de matrices diagonalisables soit simultanément diagonalisable est que toutes les matrices de l'ensemble commutent deux à deux[2].

Une application de ce résultat concerne les représentations de groupes finis par des groupes de matrices complexes inversibles. Comme chaque élément du groupe est d'ordre fini, il annule un polynôme de la forme X^n-1 qui est scindé à racines simples sur le corps des complexes. Donc chaque matrice de la représentation est diagonalisable. Si en outre le groupe est abélien, il existe une base dans laquelle toutes les matrices de la représentation sont diagonales.

Application à l'exponentielle matricielle[modifier | modifier le code]

Article détaillé : Exponentielle d'une matrice.

Les techniques de diagonalisation dépassent largement le cas de l'algèbre. L'exemple donné ici traite d'un cas d'analyse fonctionnelle.

Les équations différentielles les plus simples sont les équations différentielles linéaires à coefficients constants. Leur résolution est intimement liée à celle du problème de Cauchy suivant, où a désigne un endomorphisme :

\frac{\mathrm d}{\mathrm dt}\phi(t)=a\circ\phi(t)\quad\text{avec}\quad \phi(0)=\rm Id.

L'existence et l'unicité de la solution sont garanties par le théorème de Cauchy-Lipschitz. De plus — cf. § « L'application exponentielle » de l'article détaillé — cette solution s'exprime sous la forme \phi(t)=\exp(ta) où la fonction exponentielle sur l'espace des endomorphismes est définie par la série suivante :

\exp(b)=\sum_{n=0}^{\infty} \frac{b^n}{n!}.

Dans le cas où a est diagonalisable, le calcul effectif de la fonction \phi (et accessoirement, la vérification qu'il s'agit bien d'une solution) sont immédiats car si v est un vecteur propre pour a, pour la valeur propre \lambda, alors

\forall t\in\R\quad \phi(t)(v)={\rm e}^{\lambda t}v.

Dans le cas général, une analyse plus poussée de la réduction des endomorphismes est nécessaire.

Notes et références[modifier | modifier le code]

  1. L'axiome du choix peut être nécessaire en dimension infinie pour justifier l'existence d'une base de chaque sous-espace propre et même pour exhiber une famille de vecteurs non nuls à partir d'une décomposition en droites vectorielles.
  2. (en) Roger A. Horn et Charles R. Johnson, Matrix Analysis, CUP,‎ 199 (ISBN 9780521386326, lire en ligne), p. 52-53