Matrice inversible

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Inverse (homonymie).

En mathématiques et plus particulièrement en algèbre linéaire, une matrice carrée A d'ordre n est dite inversible ou régulière ou encore non singulière, s'il existe une matrice B d'ordre n telle que :

AB = BA = In

In désigne la matrice unité d'ordre n et la multiplication est la multiplication ordinaire des matrices. D'après le théorème du rang, chacune des deux conditions AB = In ou BA = In suffit. Dans ce cas, la matrice B est unique et est appelée la matrice inverse de A, et est notée A−1.

Une matrice carrée qui n'est pas inversible est dite non inversible ou singulière. Tandis que dans les cas usuels, ces matrices sont à coefficients réels ou complexes, toutes ces définitions peuvent être données pour des matrices à coefficients dans un corps commutatif (voire dans un anneau quelconque).

On démontre qu'une matrice carrée à coefficients dans un corps commutatif est inversible si et seulement si son déterminant est non nul.

Propriétés fondamentales[modifier | modifier le code]

Soit A une matrice carrée d'ordre n à coefficients dans un corps K (par exemple le corps ℝ des réels). Les propositions suivantes sont équivalentes (on note X une matrice colonne à n éléments dans K) :

  • A est inversible,
  • A est équivalente à la matrice unité In d'ordre n,
  • A possède n pivots,
  • le déterminant de A est non nul : det (A) ≠ 0,
  • 0 n'est pas valeur propre de A,
  • le rang de A est égal à n,
  • le système homogène AX = 0 a pour unique solution X = 0,
  • pour tout b dans Mn,1(K), le système linéaire AX = b a au plus une solution,
  • pour tout b dans Mn,1(K), le système linéaire AX = b a au moins une solution,
  • pour tout b dans Mn,1(K), le système linéaire AX = b a exactement une solution,
  • les colonnes de A, considérées comme des vecteurs de Kn, sont linéairement indépendantes,
  • les colonnes de A, considérées comme des vecteurs de Kn, engendrent Kn,
  • les colonnes de A, considérées comme des vecteurs de Kn, forment une base de Kn,
  • l'endomorphisme canoniquement associé à A (c’est-à-dire l'application linéaire de Kn dans lui-même qui a pour matrice A dans la base canonique) est injectif,
  • l'endomorphisme canoniquement associé à A est surjectif,
  • l'endomorphisme canoniquement associé à A est bijectif,
  • la matrice A est inversible à gauche, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que BA = In,
  • la matrice A est inversible à droite, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que AB = In,
  • la transposée tA de A est inversible,
  • il existe un polynôme annulateur de A dont 0 n'est pas racine,
  • 0 n'est pas racine du polynôme minimal de A.

Plus généralement, une matrice carrée à coefficients dans un anneau commutatif unifère est inversible (i.e. possède une matrice inverse à coefficients dans cet anneau) si et seulement si son déterminant est inversible dans cet anneau. En effet, si A est inversible alors det(A) × det (A–1) = det(I) = 1 et réciproquement, si le scalaire det(A) est inversible alors la matrice A l'est, son inverse étant donnée par la formule de Laplace ci-dessous. Par exemple, une matrice carrée à coefficients entiers est inversible si et seulement si son déterminant vaut 1 ou –1.

Autres propriétés et résultats[modifier | modifier le code]

La matrice inverse d'une matrice inversible A est elle-même inversible, et

(A−1)−1 = A

Le produit de deux matrices inversibles A et B (de même ordre, i.e. matrice carrée) est une matrice inversible et son inverse est donné par la relation suivante

(AB)−1 = B−1A−1 (différent de A−1B−1, sauf si le produit AB est commutatif (i.e. AB = BA) - bien sûr l'ordre des matrices reste strictement égal...).

Le produit d'un scalaire non nul k et d'une matrice inversible A est inversible, et son inverse est égal au produit de l'inverse de ce scalaire et de l'inverse de cette matrice.

(kA)−1 = k−1A−1

Des deux premières de ces propriétés, il résulte que l'ensemble des matrices carrées inversibles d'ordre n constitue un groupe multiplicatif (dont l'élément neutre est la matrice unité d'ordre n); on l'appelle groupe général linéaire et on le note habituellement GL_n(K), où K est le corps des scalaires.

En général, « presque toutes » les matrices carrées d'ordre n sont inversibles. Sur le corps des nombres réels, cela peut être formulé de façon plus précise: l'ensemble des matrices non inversibles, considéré comme sous-ensemble de {}^{\R^{n\times n}}, est négligeable pour la mesure de Lebesgue. Intuitivement, cela signifie que si l'on choisit au hasard une matrice carrée d'ordre n à coefficients réels, la probabilité pour qu'elle ne soit pas inversible est nulle. La raison en est que les matrices non inversibles sont les racines (ou zéros) d'une fonction polynomiale donnée par le déterminant.

L'ensemble des matrices inversibles est dense dans l'ensemble des matrices carrées réelles ou complexes. En effet on peut approcher toute matrice de Mn(R) (ou Mn(C)) par une suite de matrices inversibles. Par exemple, considérons la suite de matrices de terme général M(k)=M-(1/k).I. Le déterminant de M(k) est une fonction polynomiale en 1/k, il s'annule donc un nombre fini de fois. Ainsi il existe N tel que pour tout k > N , det(M(k)) soit non nul, et donc que M(k) soit inversible. On a donc bien en considérant la suite (M(k)) pour k>N une suite de matrices inversibles qui converge vers M une matrice quelconque, ce qui justifie la densité.

Méthodes d'inversion[modifier | modifier le code]

Avant de décrire les méthodes usuelles d'inversion, notons qu'en pratique, il n'est pas nécessaire de calculer l'inverse d'une matrice pour résoudre un système d'équations linéaires. Des méthodes de décomposition comme la décomposition LU sont beaucoup plus rapides que l'inversion.

Élimination de Gauss-Jordan[modifier | modifier le code]

Article détaillé : élimination de Gauss-Jordan.

Méthode des cofacteurs[modifier | modifier le code]

Article détaillé : formule de Laplace.

L'inverse d'une matrice A s'écrit sous une forme très simple à l'aide de la matrice complémentaire {}^t{{\rm com} A}

A^{-1}=\frac1{\det A} \, {}^t{{\rm com} A} = \frac1{\det A} \, {}^tC = \frac1{\det A} \, \begin{pmatrix}
C_{11} & C_{21} & \cdots & C_{n1} \\
C_{12} & \ddots &        & C_{n2} \\
\vdots &        & \ddots & \vdots \\
C_{1n} & \cdots & \cdots & C_{nn} \\
\end{pmatrix}

{\det A} est le déterminant de A et où C={{\rm com} A} est la comatrice de A et {}^tC est la matrice transposée de C.

Cette écriture permet un calcul aisé de l'inverse d'une matrice de petite dimension. Pour des matrices de plus grande dimensions, cette méthode essentiellement récursive devient inefficace.

Inversion des matrices 2 x 2[modifier | modifier le code]

L'équation des cofacteurs ci-dessus permet de calculer l'inverse des matrices de dimensions 2 x 2 : si  ad - bc \neq 0,


A = \begin{pmatrix}
a & b \\ c & d \\
\end{pmatrix} ,     \      

{\rm com} A = \begin{pmatrix}
d & -c \\ -b & a \\
\end{pmatrix} ,     \      

{}^t{{\rm com} A} = \begin{pmatrix}
d & -b \\ -c & a \\
\end{pmatrix}



A^{-1} = \begin{pmatrix}
a & b \\ c & d \\
\end{pmatrix}^{-1} =
\frac1{ad - bc} \begin{pmatrix}
d & -b \\ -c & a \\
\end{pmatrix}


Exemple 

C = \begin{pmatrix}
1 & 2 \\ 3 & 4 \\
\end{pmatrix} ,     \      
C^{-1} = \begin{pmatrix}
1 & 2 \\ 3 & 4 \\
\end{pmatrix}^{-1} =
\frac{1}{-2} \begin{pmatrix}
4 & -2 \\ -3 & 1 \\
\end{pmatrix}

Inversion des matrices 3 x 3[modifier | modifier le code]

De même, on obtient l'inverse d'une matrice A = \begin{pmatrix}
a & b & c\\ d & e & f \\ g & h & i \\
\end{pmatrix} de dimension 3 x 3 en calculant son déterminant (par la règle de Sarrus, par exemple) :

 \det A = aei + bfg+cdh - ceg-fha-ibd, \

puis en utilisant la formule :

\begin{array}{rcl}
A^{-1}  = \begin{pmatrix}
a & b & c\\ d & e & f \\ g & h & i \\
\end{pmatrix}^{-1} & = & \displaystyle {\frac1{\det A}}^{\ t}\! \begin{pmatrix}
ei - fh & fg - di & dh - eg \\
ch - bi & ai - cg & bg - ah \\
bf - ce & cd - af & ae - bd
\end{pmatrix} \\
& & \\
&  = & \displaystyle
\frac1{\det A} \begin{pmatrix}
ei - fh & ch - bi & bf - ce\\
fg - di & ai - cg &  cd - af\\
dh - eg  & bg - ah  & ae - bd
\end{pmatrix}
\end{array}

Inversion par bloc[modifier | modifier le code]

Article détaillé : complément de Schur.

L'inverse d'une matrice peut également être calculé par blocs, en utilisant la formule analytique suivante :

\begin{pmatrix} A & B \\ C & D \end{pmatrix}^{-1} = \begin{pmatrix} A^{-1}+A^{-1}B(D-CA^{-1}B)^{-1}CA^{-1} & -A^{-1}B(D-CA^{-1}B)^{-1} \\ -(D-CA^{-1}B)^{-1}CA^{-1} & (D-CA^{-1}B)^{-1} \end{pmatrix},

A, B, C et D sont des blocs de taille arbitraire, sous réserve que A soit inversible ainsi que son complément de Schur D-CA^{-1}B. Cette méthode peut se révéler avantageuse, par exemple, si A est diagonale et si son complément D-CA^{-1}B est une matrice de petite dimension, puisque ce sont les seules matrices à inverser.

Cette technique a été inventée par Volker Strassen, connu également pour l'algorithme de Strassen sur le produit matriciel rapide.

Si D est inversible ainsi que son complément A-BD^{-1}C, on a la formule duale :

\begin{pmatrix}A&B\\C&D\end{pmatrix}^{-1}=\begin{pmatrix}\left(A-B D^{-1}C\right)^{-1}&-\left(A-B D^{-1}C\right)^{-1} BD^{-1}\\-D^{-1}C\left(A-B D^{-1}C\right)^{-1}&D^{-1}+D^{-1}C\left(A-BD^{-1}C \right)^{-1}BD^{-1}\end{pmatrix}.

(Si les matrices A et D sont toutes deux inversibles ainsi que leurs compléments, on peut combiner ces deux formules en choisissant, pour chacun des quatre blocs de la matrice inverse, l'une des deux expressions fournies.)

Dérivée de l'inverse d'une application à valeurs matricielles[modifier | modifier le code]

  • Soient un intervalle I (d'intérieur non vide) de {}^\R et une fonction matricielle
A:I\to\mathrm{GL}_n(\R),~t \mapsto A(t)

dérivable sur I.

Alors la fonction matricielle

A^{-1} : I \to \mathrm{GL}_n(\R),\, t \mapsto A(t)^{-1}

est dérivable sur I et :

\forall\, t \in I,\,\frac{\mathrm{d}A^{-1}}{\mathrm{d}t}(t) = - A^{-1}(t)\, \frac{\mathrm{d}A}{\mathrm{d}t}(t)\, A^{-1}(t).

Cette relation découle de l'identité

\forall\, t \in I,\,A^{-1}(t)\, A(t) = I_n.

Pour n=1, en notant f(t) le réel A(t), on retrouve la formule usuelle de dérivation :

\left(\frac 1 f\right)'(t)=-\frac{f'(t)}{f^2(t)}.
  • Plus génériquement, l'application
\text{inv} :\qquad \mathrm{GL}_n(\R)\to\mathrm{GL}_n(\R),\qquad A\mapsto A^{-1}

est infiniment différentiable (puisque son expression par la formule des cofacteurs est rationnelle).

Les formules explicites donnant ses différentielles successives se déduisent par récurrence de la première :

\forall A\in\mathrm{GL}_n(\R),\ \forall H \in\mathcal M_{n,n}(\R), \quad (D \text{inv})_A(H) = -A^{-1}HA^{-1}.

Généralisations[modifier | modifier le code]

Certaines des propriétés des matrices inverses sont aussi vérifiées par les matrices pseudo-inverses qui peuvent être définies pour n'importe quelle matrice, même pour celles qui ne sont pas carrées.

Au cas où la matrice X n'est pas carrée, il est possible d'inverser grâce à une prémultiplication par le groupe de matrices  (X'X)^{-1}X' \, ou une postmultiplication par  X'(XX')^{-1} \,

On a bien:

 (X'X)^{-1}X'X=I \,
 XX'(XX')^{-1}=I \,

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]