Décomposition d'une matrice en éléments propres

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres.

Aspects théoriques de la détermination des valeurs propres et vecteurs propres d'une matrice[modifier | modifier le code]

valeur propre, vecteur propre, espace propre

Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée à N lignes et N colonnes A si et seulement si il existe un scalaire λ tel que :

 \mathbf{A} \mathbf{v} = \lambda \mathbf{v}

λ appelé valeur propre associée à v. Cette dernière équation est appelée équation aux valeurs propres.

Ces valeurs propres sont les solutions de l'équation :

 p\left(\lambda\right) := \det\left(\mathbf{A} - \lambda \mathbf{I}\right)= 0. \!\

On appelle p(λ) le polynôme caractéristique de A, et cette équation, l'équation caractéristique, est une équation polynomiale de degré N dont λ est l'inconnue. Cette équation admet Nλ solutions distinctes, avec 1 ≤ NλN . L'ensemble des solutions, i.e. des valeurs propres, est appelé spectre de A.

On peut factoriser p :

p\left(\lambda\right)= (\lambda-\lambda_1)^{n_1}(\lambda-\lambda_2)^{n_2}\cdots(\lambda-\lambda_k)^{n_k} = 0 \!\

avec

\sum\limits_{i=1}^{N_{\lambda}}{n_i} =N.

Pour chaque valeur propre λi, on a une équation particulière :

 \left(\mathbf{A} - \lambda_i \mathbf{I}\right)\mathbf{v}  = 0. \!\

Qui admet 1 ≤ mini vecteurs solutions linéairement indépendants Pour chaque valeur popre. Les solutions mi sont les vecteurs propres associés à la valeur propre λi. L'entier mi la multiplicité de la racine λi. Il est important de remarquer que la dimension ni de l'espace propre associé à la valeur propre λi et la multiplicité mi peuvent être égales ou non, mais qu'on a toujours : mini. Le cas le plus simple est évidemment mi = ni = 1.


Le nombre de vecteurs propres indépendants de la matrice, Nv est égal à la somme : \sum\limits_{i=1}^{N_{\lambda}}{m_i} =N_{\mathbf{v}}. Les vecteurs propres peuvent alors être indexés par leurs valeurs propres respectives, avec un double indice : on appellera alors vi,j le jème vecteur propre associé à la ième valeur propre. Les vecteurs propres peuvent aussi être notés plus simplement, avec un seul indice : vk, avec k = 1, 2, ... , Nv.

Décomposition d'une matrice en éléments propres[modifier | modifier le code]

Soit A une matrice carrée (N lignes et N colonnes) admettant N vecteurs propres linéairement indépendants, q_i \,\, (i = 1, \dots, N). Alors, A peut s'écrire sous la forme :

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}

Q est une matrice carrée (à N lignes et N colonnes) dont la ième colonne est le vecteur propre q_i de A et Λ est la matrice diagonale dont les coefficients diagonaux sont les valeurs propres, i.e., \Lambda_{ii}=\lambda_i.

Les vecteurs propres q_i \,\, (i = 1, \dots, N) sont souvent normés, mais pas toujours. Une base de vecteurs propres non normés, v_i \,\, (i = 1, \dots, N), peut aussi être utilisée pour former les colonnes de Q.

Inversion d'une matrice via sa décomposition en éléments propres[modifier | modifier le code]

matrice inversible

Si une matrice carrée A est diagonalisable et que toutes ses valeurs propres sont non nulles, alors A est inversible, et son inverse vaut :

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}

Or, Λ étant une matrice diagonale, les coefficients de son inverse se calculent trivialement :

\left[\Lambda^{-1}\right]_{ii}=\frac{1}{\lambda_i}


Conséquences sur le calcul des puissances[modifier | modifier le code]

La décomposition en éléments simples permet de calculer facilement les fonctions polynomiales de matrices. Soit f(x) définie par :

f(x)=a_0+a_1 x+a_2 x^2+\cdots

Alors, on sait que :

f\left(\mathbf{A}\right)=\mathbf{Q}f\left(\mathbf{\Lambda}\right)\mathbf{Q}^{-1}

Et Λ étant une matrice diagonale, un polynôme en Λ est très facile à calculer :

\left[f\left(\mathbf{\Lambda}\right)\right]_{ii}=f\left(\lambda_i\right)

Les coefficients non-diagonaux de f(Λ) sont nuls ; f(Λ) est donc également une matrice diagonale. Le calcul de f(A) revient donc à calculer l'image par f de chaque valeur propre.

Une technique similaire passant par le calcul d'une fonctionnelle holomorphique (holomorphic functional calculus) fonctionne dans un cas plus général :

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}

from above. Once again, we find that

\left[f\left(\mathbf{\Lambda}\right)\right]_{ii}=f\left(\lambda_i\right)

Exemples[modifier | modifier le code]

\mathbf{A}^{2}=(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1})(\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}) = \mathbf{Q}\mathbf{\Lambda}(\mathbf{Q}^{-1}\mathbf{Q})\mathbf{\Lambda}\mathbf{Q}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{2}\mathbf{Q}^{-1}
\mathbf{A}^{n}=\mathbf{Q}\mathbf{\Lambda}^{n}\mathbf{Q}^{-1}

Cas particuliers de décomposition en éléments simples[modifier | modifier le code]

Matrices symétriques réelles[modifier | modifier le code]

Toute matrice à N lignes et N colonne matrice symétrique réelle admet N vecteurs propres linéairement indépendants. De plus, ces vecteurs peuvent être choisis de façon à être orthogonaux deux à deux et être normés. Donc, toute matrice symétrique réelle A peut s'écrire sous la forme :

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{T}

Q est une matrice orthogonale, et Λ est une matrice diagonale réelle.

Matrices normales[modifier | modifier le code]

De la même façon, une matrice normale complexe admet une base orthonormale de vecteurs propres, et peut donc s'écrire sous la forme :

\mathbf{A}=\mathbf{U}\mathbf{\Lambda}\mathbf{U}^{H}

U est une matrice unitaire. De plus, si A est hermitienne, la matrice diagonale Λ a tous ses coefficients réels, et si A est unitaire, les coefficients diagonaux de Λ ont tous pour module 1.

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]