Matrice de variance-covariance

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Nuage de points associé à une loi normale multidimensionnelle avec un écart type de 3 dans la direction droite-haut et un écart type de 1 dans la direction orthogonale. Puisque les composantes en x et y «covarient» les variances respectives de ces variables ne permettent pas de décrire complètement la distribution. Une matrice de covariance 2×2 est nécessaire; la direction des flèches donne la direction des vecteurs propres de la matrice et leurs longueurs correspondent aux racines carrées de ses valeurs propres.

En théorie des probabilités et en statistique, la matrice de variance-covariance d'une série de p variables aléatoires réelles X_1,\dots,X_p\, est la matrice carrée dont l'élément de la ligne i et de la colonne j est la covariance des variables Xi et Xj. Cette matrice permet de quantifier la variation de chaque variable par rapport à chacune des autres.

La matrice de covariance généralise ainsi la notion de variance, destinée à l'étude d'une variable, à l'étude conjointes de plusieurs variables. À titre d'exemple, la variation d'un ensemble de points aléatoires dans l'espace à deux dimensions ne peut pas être caractérisée entièrement par un seul nombre, pas plus que par les seules variances dans les directions x et y, une matrice 2 × 2 sera nécessaire pour caractériser pleinement la variation bidimensionnelle.

L'étude de la matrice, de ses valeurs propres et ses vecteurs propres permet de définir les caractéristiques de la distribution étudiée, c'est l'objet de l'analyse en composantes principales.

Définition[modifier | modifier le code]

La matrice de variance-covariance (ou simplement matrice de covariance) d'un vecteur de p variables aléatoires \vec X=\begin{pmatrix} X_1  \\ \vdots\\ X_p \end{pmatrix} dont chacune a une variance (finie), est la matrice carrée dont le terme générique est donné par :

a_{i,j}=\textrm{cov}\left(X_i,X_j\right)


La matrice de variance-covariance, notée parfois \boldsymbol\Sigma, est donc définie comme :

Définition — \Sigma_X\equiv\operatorname{var}(\vec X) \equiv \operatorname{E}(((\vec X-\operatorname{E}(\vec X))(\vec X-\operatorname{E}(\vec X))^T)

En développant les termes :

\Sigma_X=\operatorname{var}(\vec X)
=
\operatorname{var}\begin{pmatrix} X_1  \\ \vdots\\ X_p \end{pmatrix}
=
\begin{pmatrix} 
\operatorname{var}(X_1) & \operatorname{cov}(X_{1},X_{2}) &  \cdots & \operatorname{cov}(X_{1},X_{p}) \\
\operatorname{cov}(X_{2},X_{1}) & \ddots & \cdots & \vdots\\
\vdots & \vdots & \ddots & \vdots\\
\operatorname{cov}(X_{p},X_{1}) & \cdots & \cdots&  \operatorname{var}(X_p) 
\end{pmatrix}
=
\begin{pmatrix} 
\sigma^2_{x_1} & \sigma_{x_{1}x_{2}} &  \cdots & \sigma_{x_{1}x_{p}} \\
\sigma_{x_{2}x_{1}} & \ddots & \cdots & \vdots\\
\vdots & \vdots & \ddots & \vdots\\
\sigma_{x_{p}x_{1}} & \cdots & \cdots&  \sigma^2_{x_p} 
\end{pmatrix}

Propriétés[modifier | modifier le code]

  • La matrice est symétrique, étant donné la propriété que \operatorname{cov}(X, Y) = \operatorname{cov}(Y, X), .
  • Ses valeurs propres sont positives ou nulles. Lorsqu'il n'existe aucune relation affine presque sûre entre les composantes du vecteur aléatoire, la matrice \boldsymbol{\Sigma} est à valeurs propres strictement positives : elle est définie positive.
  • Les éléments de sa diagonale représentent la variance de chaque variable, étant donné la propriété \operatorname{cov}(X, X) = \operatorname{var}(X)
  • Les éléments en dehors de la diagonale représentent la covariance entre les variables i et j quand  \quad i \neq j.
  • Soit une application linéaire F de M_{m,n}(R) de Matrice M.
    Soit \vec X=\begin{pmatrix} X_1  \\ \vdots\\ X_n \end{pmatrix} un vecteur aléatoire de matrice de variance-covariance VcV de M_{n}(R).
    Alors le vecteur aléatoire F(X) a pour matrice de variance-covariance M*VcV*^{\operatorname t}\!M

Estimation[modifier | modifier le code]

Un estimateur non-biaisé de la matrice de variance-covariance peut être obtenu par:

\operatorname{\widehat {var}}(\vec X)= {1 \over {n-1}}\sum_{i=1}^n (\vec X_i-\overline{\vec{X}})(\vec X_i-\overline{\vec{X}})^T
\overline{\vec X}={1 \over {n}}\sum_{i=1}^n \vec X_i est le vecteur des moyennes empiriques.

L'estimateur du maximum de vraisemblance, sous l'hypothèse que X suit une loi normale multidimensionnelle, vaut en revanche:

\operatorname{\widehat {var}}(\vec X)={1 \over n}\sum_{i=1}^n (\vec X_i-\overline{\vec X})(\vec X_i-\overline{\vec X})^T.

Dans le cas où les données sont générées par une loi normale multidimensionnelle, l'estimateur du maximum de vraisemblance suit une loi de Wishart

Utilisation en statistique[modifier | modifier le code]

La matrice de variance-covariance est un outil essentiel pour l'analyse multivariée:

Test sur la matrice de variance-covariance[modifier | modifier le code]

Le test de sphéricité de Bartlett permet de déterminer si les composantes hors de la diagonale de la matrice sont différentes de zéro, i.e. s'il y a une relation entre les différentes variables prises en considération.

Articles connexes[modifier | modifier le code]