Décomposition d'une matrice en éléments propres

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres.

Aspects théoriques de la détermination des valeurs propres et vecteurs propres d'une matrice[modifier | modifier le code]

Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que :

 \mathbf{A} \mathbf{v} = \lambda \mathbf{v}

λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».

Ces valeurs propres sont les solutions de l'équation :

 p\left(\lambda\right) := \det\left(\mathbf{A} - \lambda \mathbf{I}\right)= 0. \!\

On appelle p(λ) le polynôme caractéristique de A, et cette équation, l'équation caractéristique, est une équation polynomiale de degré N dont λ est l'inconnue. Cette équation admet Nλ solutions distinctes, avec 1 ≤ NλN. L'ensemble des solutions, i. e. des valeurs propres, est appelé le spectre de A.

On peut factoriser p :

p\left(\lambda\right)= (\lambda-\lambda_1)^{n_1}(\lambda-\lambda_2)^{n_2}\cdots(\lambda-\lambda_k)^{n_k} = 0 \!\

avec

\sum\limits_{i=1}^{N_{\lambda}}{n_i} =N.

Pour chaque valeur propre λi, on a une équation particulière :

 \left(\mathbf{A} - \lambda_i \mathbf{I}\right)\mathbf{v}  = 0,

qui admet mi vecteurs solutions linéairement indépendants, formant une base de l'espace de toutes les solutions (le sous-espace propre associé à la valeur propre λi). Il est important de remarquer que cette multiplicité géométrique mi peut être égale ou pas à la multiplicité algébrique ni, mais qu'on a toujours : 1 ≤ mini. Le cas le plus simple est évidemment mi = ni = 1.

Le nombre de vecteurs propres indépendants de la matrice, noté ici Nv, est égal à la somme : \sum\limits_{i=1}^{N_{\lambda}}{m_i} =N_{\mathbf{v}}. Les vecteurs propres peuvent alors être indexés par leurs valeurs propres respectives, avec un double indice : on appellera alors vi,j le j-ième vecteur propre associé à la i-ième valeur propre. Les vecteurs propres peuvent aussi être notés plus simplement, avec un seul indice : vk, avec k = 1, 2, ... , Nv.

Décomposition d'une matrice en éléments propres[modifier | modifier le code]

Soit A une matrice carrée (N lignes et N colonnes) admettant N vecteurs propres linéairement indépendants, q_i \,\, (i = 1, \dots, N). Alors, A peut s'écrire sous la forme :

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}

Où la matrice de passage Q est une matrice carrée (à N lignes et N colonnes) dont la i-ième colonne est le vecteur propre q_i de A et Λ est la matrice diagonale dont les coefficients diagonaux sont les valeurs propres, i.e., \Lambda_{ii}=\lambda_i.

Les vecteurs propres q_i \,\, (i = 1, \dots, N) sont souvent choisis unitaires, mais pas toujours.

Inversion d'une matrice via sa décomposition en éléments propres[modifier | modifier le code]

Si une matrice carrée A est diagonalisable et que toutes ses valeurs propres sont non nulles, alors A est inversible, et son inverse vaut :

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}.

Or, Λ étant diagonale, les coefficients de son inverse se calculent trivialement :

\left[\Lambda^{-1}\right]_{ii}=\frac{1}{\lambda_i}

Conséquences sur le calcul des puissances[modifier | modifier le code]

La décomposition en éléments simples permet de calculer facilement les fonctions polynomiales de matrices. Si f(x) s'écrit

f(x)=a_0+a_1 x+a_2 x^2+\cdots

alors, on sait que :

f\left(\mathbf{A}\right)=\mathbf{Q}f\left(\mathbf{\Lambda}\right)\mathbf{Q}^{-1}

et Λ étant diagonale, un polynôme en Λ est très facile à calculer :

\left[f\left(\mathbf{\Lambda}\right)\right]_{ii}=f\left(\lambda_i\right).

Les coefficients non diagonaux de f(Λ) sont nuls ; f(Λ) est donc également diagonale. Le calcul de f(A) revient donc à calculer l'image par f de chaque valeur propre.

Exemples
  • \mathbf{A}^{2}=(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1})(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}) = \mathbf{Q}\mathbf{\Lambda}(\mathbf{Q}^{-1}\mathbf{Q})\mathbf{\Lambda}\mathbf{Q}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{2}\mathbf{Q}^{-1}
  • \mathbf{A}^{n}=\mathbf{Q}\mathbf{\Lambda}^{n}\mathbf{Q}^{-1}

Une technique similaire s'applique plus généralement au calcul fonctionnel holomorphe, en utilisant la formule

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}

ci-dessus. On trouve encore

\left[f\left(\mathbf{\Lambda}\right)\right]_{ii}=f\left(\lambda_i\right).

Cas particuliers de décomposition en éléments simples[modifier | modifier le code]

Matrices symétriques réelles[modifier | modifier le code]

Toute matrice symétrique réelle à N lignes et N colonnes admet N vecteurs propres linéairement indépendants. De plus, ces vecteurs peuvent être choisis de façon à être orthogonaux deux à deux et unitaires. Donc, toute matrice symétrique réelle A peut s'écrire sous la forme :

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{T}

Q est une matrice orthogonale, et Λ est une matrice diagonale réelle.

Matrices normales[modifier | modifier le code]

De la même façon, une matrice normale complexe admet une base orthonormale de vecteurs propres, et peut donc s'écrire sous la forme :

\mathbf{A}=\mathbf{U}\mathbf{\Lambda}\mathbf{U}^{H}

U est une matrice unitaire. De plus, si A est hermitienne, la matrice diagonale Λ a tous ses coefficients réels, et si A est unitaire, les coefficients diagonaux de Λ ont tous pour module 1.

Articles connexes[modifier | modifier le code]


(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Eigendecomposition of a matrix » (voir la liste des auteurs).