Complément de Schur

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Ne doit pas être confondu avec la méthode du complément de Schur (en) en analyse numérique.

En algèbre linéaire et plus précisément en théorie des matrices, le complément de Schur est défini comme suit. Soit

M=\begin{bmatrix} A & B \\ C & D \end{bmatrix}

une matrice de dimension (p+q)×(p+q), où les blocs A, B, C, D sont des matrices de dimensions respectives p×p, p×q, q×p et q×q, avec D inversible. Alors, le complément de Schur du bloc D de la matrice M est constitué par la matrice de dimension p×p suivante :

A-BD^{-1}C.

Propriétés[modifier | modifier le code]

  • Lorsque B est la transposée de C, la matrice M est symétrique définie positive si et seulement si D et son complément de Schur dans M le sont.
  • Le complément de Schur apparaît en particulier comme le résultat d'une élimination de Gauss «partielle» en multipliant la matrice M à droite avec la matrice «triangulaire inférieure» par blocs suivante
LT=\begin{bmatrix}I_p&0\\-D^{-1}C&D^{-1}\end{bmatrix}.

Ici, Ip désigne la matrice identité de dimension p×p. Après multiplication par la matrice LT, le complément de Schur apparaît dans le bloc p×p supérieur. La matrice produit est

M\cdot LT=\begin{bmatrix}A-BD^{-1}C&BD^{-1}\\0&I_q\end{bmatrix}.

L'inverse de M peut ainsi être exprimée en termes de D^{-1} et de l'inverse du complément de Schur

\begin{bmatrix}A&B\\C&D\end{bmatrix}^{-1}=\begin{bmatrix}\left(A-B D^{-1}C\right)^{-1}&-\left(A-B D^{-1}C\right)^{-1}BD^{-1}\\-D^{-1}C\left(A-B D^{-1}C\right)^{-1}&D^{-1}+D^{-1}C\left(A-B D^{-1}C\right)^{-1}BD^{-1}\end{bmatrix},

ou encore plus simplement,

\begin{bmatrix}A&B\\C&D\end{bmatrix}^{-1}=
\begin{bmatrix}I&0\\-D^{-1}C&I\end{bmatrix}
\begin{bmatrix}(A-BD^{-1}C)^{-1}&0\\0&D^{-1}\end{bmatrix}
\begin{bmatrix}I&-BD^{-1}\\0&I\end{bmatrix}.
  • De même, si A est inversible, son complément de Schur est par définition D-CA^{-1}B, et si ce dernier est également inversible on a :
\begin{bmatrix}A&B\\C&D\end{bmatrix}^{-1}=
\begin{bmatrix}A^{-1}+A^{-1}B(D-CA^{-1}B)^{-1}CA^{-1}&-A^{-1}B(D-CA^{-1}B)^{-1}\\
-(D-CA^{-1}B)^{-1}CA^{-1}&(D-CA^{-1}B)^{-1}\end{bmatrix}.

Application à la résolution d'équations linéaires[modifier | modifier le code]

Le complément de Schur apparaît naturellement lors de la résolution d'un système d'équations linéaires de la forme

Ax + By = a
Cx + Dy = b

  • x et a sont des vecteurs colonne de dimension p,
  • y et b sont des vecteurs colonne de dimension q,
  • A, B, C, D sont comme précédemment.

En multipliant la seconde équation par BD^{-1} puis en la soustrayant de la première, il vient

(A - BD^{-1} C) x = a - BD^{-1} b.\,

Ainsi, la résolution de cette équation en x est possible dès que D et son complément de Schur sont inversibles. Il est ensuite possible d'obtenir y en résolvant l'équation Cx + Dy = b. Cette méthode réduit le problème de l'inversion d'une matrice de dimension (p+q) \times (p+q) à celui de l'inversion de deux matrices de dimensions respectives p×p et q×q. En pratique, la matrice D doit être bien conditionnée pour rendre la méthode précise.

Applications aux probabilités et à la statistique[modifier | modifier le code]

Soit (X,Y) un vecteur gaussien de p+q de matrice de covariance

V=\operatorname{cov}(X,Y)=\begin{bmatrix}A&B\\B^T&C\end{bmatrix}.

Ici, X (respectivement Y) est un vecteur gaussien de p (respectivement q) de matrice de covariance A (respectivement C), et BT désigne la matrice transposée de B.

La loi conditionnelle de X sachant Y est encore une loi gaussienne multivariée de dimension p. Supposons que la matrice V est inversible (elle est donc symétrique et définie positive). Alors, la matrice de covariance de la loi conditionnelle de X sachant Y ne dépend pas de Y et est donnée par le complément de Schur de C dans V.

\operatorname{cov}(X\mid Y)=A-BC^{-1}B^T.

Cela montre en particulier que le complément de Schur d'un bloc diagonal d'une matrice de covariance empirique d'un échantillon gaussien suit une loi de Wishart (tout comme la matrice de covariance empirique elle-même).

Bibliographie[modifier | modifier le code]

  • (en) Roger A. Horn et Charles R. Johnson, Matrix Analysis, Cambridge University Press, chap. 7
  • (en) Kaare Brandt Petersen et Syskind Pedersen, The Matrix Cookbook, version du 16/02/2008, § 9.1

Articles connexes[modifier | modifier le code]