Décomposition d'une matrice en éléments propres

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Une proposition de fusion est en cours entre Décomposition d'une matrice en éléments propres et Diagonalisation.

Les avis sur cette proposition sont rassemblés dans une section de Wikipédia:Pages à fusionner. Les modifications majeures apportées, entre temps, aux articles doivent être commentées sur la même page.

En algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres.

Aspects théoriques de la détermination des valeurs propres et vecteurs propres d'une matrice[modifier | modifier le code]

Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que :

 \mathbf{A} \mathbf{v} = \lambda \mathbf{v}

λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».

Ces valeurs propres sont les solutions de l'équation :

 p\left(\lambda\right) := \det\left(\mathbf{A} - \lambda \mathbf{I}\right)= 0. \!\

On appelle p(λ) le polynôme caractéristique de A, et cette équation, l'équation caractéristique, est une équation polynomiale de degré N dont λ est l'inconnue. Cette équation admet Nλ solutions distinctes, avec 1 ≤ NλN. L'ensemble des solutions, i. e. des valeurs propres, est appelé le spectre de A.

On peut factoriser p :

p\left(\lambda\right)= (\lambda-\lambda_1)^{n_1}(\lambda-\lambda_2)^{n_2}\cdots(\lambda-\lambda_k)^{n_k} = 0 \!\

avec

\sum\limits_{i=1}^{N_{\lambda}}{n_i} =N.

Pour chaque valeur propre λi, on a une équation particulière :

 \left(\mathbf{A} - \lambda_i \mathbf{I}\right)\mathbf{v}  = 0,

qui admet mi vecteurs solutions linéairement indépendants, formant une base de l'espace de toutes les solutions (le sous-espace propre associé à la valeur propre λi). Il est important de remarquer que cette multiplicité géométrique mi peut être égale ou pas à la multiplicité algébrique ni, mais qu'on a toujours : 1 ≤ mini. Le cas le plus simple est évidemment mi = ni = 1.

Le nombre de vecteurs propres indépendants de la matrice, noté ici Nv, est égal à la somme : \sum\limits_{i=1}^{N_{\lambda}}{m_i} =N_{\mathbf{v}}. Les vecteurs propres peuvent alors être indexés par leurs valeurs propres respectives, avec un double indice : on appellera alors vi,j le j-ième vecteur propre associé à la i-ième valeur propre. Les vecteurs propres peuvent aussi être notés plus simplement, avec un seul indice : vk, avec k = 1, 2, ... , Nv.

Décomposition d'une matrice en éléments propres[modifier | modifier le code]

Soit A une matrice carrée (N lignes et N colonnes) admettant N vecteurs propres linéairement indépendants, q_i \,\, (i = 1, \dots, N). Alors, A peut s'écrire sous la forme :

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}

Où la matrice de passage Q est une matrice carrée (à N lignes et N colonnes) dont la i-ième colonne est le vecteur propre q_i de A et Λ est la matrice diagonale dont les coefficients diagonaux sont les valeurs propres, i.e., \Lambda_{ii}=\lambda_i.

Les vecteurs propres q_i \,\, (i = 1, \dots, N) sont souvent choisis unitaires, mais pas toujours.

Inversion d'une matrice via sa décomposition en éléments propres[modifier | modifier le code]

Si une matrice carrée A est diagonalisable et que toutes ses valeurs propres sont non nulles, alors A est inversible, et son inverse vaut :

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}.

Or, Λ étant diagonale, les coefficients de son inverse se calculent trivialement :

\left[\Lambda^{-1}\right]_{ii}=\frac{1}{\lambda_i}

Conséquences sur le calcul des puissances[modifier | modifier le code]

La décomposition en éléments simples permet de calculer facilement les fonctions polynomiales de matrices. Si f(x) s'écrit

f(x)=a_0+a_1 x+a_2 x^2+\cdots

alors, on sait que :

f\left(\mathbf{A}\right)=\mathbf{Q}f\left(\mathbf{\Lambda}\right)\mathbf{Q}^{-1}

et Λ étant diagonale, un polynôme en Λ est très facile à calculer :

\left[f\left(\mathbf{\Lambda}\right)\right]_{ii}=f\left(\lambda_i\right).

Les coefficients non diagonaux de f(Λ) sont nuls ; f(Λ) est donc également diagonale. Le calcul de f(A) revient donc à calculer l'image par f de chaque valeur propre.

Exemples
  • \mathbf{A}^{2}=(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1})(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}) = \mathbf{Q}\mathbf{\Lambda}(\mathbf{Q}^{-1}\mathbf{Q})\mathbf{\Lambda}\mathbf{Q}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{2}\mathbf{Q}^{-1}
  • \mathbf{A}^{n}=\mathbf{Q}\mathbf{\Lambda}^{n}\mathbf{Q}^{-1}

Une technique similaire s'applique plus généralement au calcul fonctionnel holomorphe, en utilisant la formule

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}

ci-dessus. On trouve encore

\left[f\left(\mathbf{\Lambda}\right)\right]_{ii}=f\left(\lambda_i\right).

Cas particuliers de décomposition en éléments simples[modifier | modifier le code]

Matrices symétriques réelles[modifier | modifier le code]

Toute matrice symétrique réelle à N lignes et N colonnes admet N vecteurs propres linéairement indépendants. De plus, ces vecteurs peuvent être choisis de façon à être orthogonaux deux à deux et unitaires. Donc, toute matrice symétrique réelle A peut s'écrire sous la forme :

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{T}

Q est une matrice orthogonale, et Λ est une matrice diagonale réelle.

Matrices normales[modifier | modifier le code]

De la même façon, une matrice normale complexe admet une base orthonormale de vecteurs propres, et peut donc s'écrire sous la forme :

\mathbf{A}=\mathbf{U}\mathbf{\Lambda}\mathbf{U}^{H}

U est une matrice unitaire. De plus, si A est hermitienne, la matrice diagonale Λ a tous ses coefficients réels, et si A est unitaire, les coefficients diagonaux de Λ ont tous pour module 1.

Articles connexes[modifier | modifier le code]


(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Eigendecomposition of a matrix » (voir la liste des auteurs).