Covariance

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur les redirections Pour le principe physique, voir Principe de covariance générale.
Page d'aide sur l'homonymie Ne pas confondre avec la covariance d'un tenseur en algèbre ou en géométrie différentielle, ou d'un foncteur en théorie des catégories.

En théorie des probabilités et en statistique, la covariance est un nombre permettant d'évaluer le sens de variation de deux variables aléatoires (ou de deux séries de données numériques) et, ainsi, de qualifier l'indépendance de ces variables.

Si deux variables aléatoires sont indépendantes alors leur covariance est nulle, mais la réciproque est fausse.

Définition[modifier | modifier le code]

On nomme covariance de deux variables aléatoires réelles X et Y, et on note cov(X,Y) (ou parfois \sigma_{XY}) la valeur :

Définition — \operatorname{cov}(X,Y)\equiv \mathbb E[(X-\mathbb E[X])\,(Y-\mathbb E[Y])]

\scriptstyle \ \mathbb E\ désigne l'espérance mathématique.

La variance de X est donc cov(X,X).

Intuitivement, la covariance est une mesure de la variation simultanée de deux variables aléatoires. C'est-à-dire que la covariance devient plus positive pour chaque couple de valeurs qui diffèrent de leur moyenne dans le même sens, et plus négative pour chaque couple de valeurs qui diffèrent de leur moyenne dans le sens opposé.

L'unité de mesure de la covariance cov(X,Y) est le produit de l'unité des variables aléatoires X et Y. En revanche, la corrélation, qui dépend de la covariance, est une mesure de dépendance linéaire sans unité et prend ses valeurs dans [-1;1].

Dans le cas de variables discrètes X et Y prenant leurs valeurs dans deux ensembles finis : \scriptstyle \ \{x_i\,|\, 1\le i\le n\}, respectivement \scriptstyle \ \{y_j\,|\, 1\le j\le m\}, on a:

\sigma_{XY}=\operatorname{cov}(X,Y) = \sum_{i=1}^n \sum_{j=1}^m\,x_i y_j \mathbb P(X=x_i\ \textrm{et}\ Y=y_j)-\mathbb E[X]\mathbb E[Y].

tandis que:

\sigma_X^2 = \sum_{i=1}^n x_i^2 \mathbb P(X=x_i)-\mathbb E[X]^2\quad\textrm{et}\quad\sigma_Y^2 = \sum_{j=1}^m y_j^2 \mathbb P(Y=y_j)-\mathbb E[Y]^2.

Propriétés[modifier | modifier le code]

Par généralisation du théorème de König-Huyghens pour la variance, on a :

Propriété — \operatorname{cov}(X, Y) = E(X Y) - E(X)E(Y)

Corollaire — Si X et Y sont indépendantes alors \operatorname{cov}(X,Y) =0.

La réciproque, cependant, n'est pas vraie du moins dans le cas général en effet, l'implication se fait pour des variables au plus binaires (on pensera aux variables indicatrices). Il est en effet possible que X et Y ne soient pas indépendantes, et que leur covariance soit nulle. Par exemple, soit \varepsilon une variable aléatoire de Rademacher de paramètre  \frac{1}{2} (i.e.  \mathbb{P}(\varepsilon = 1) = \mathbb{P}(\varepsilon = -1 ) = \frac{1}{2} ) et soit X une variable aléatoire quelconque indépendante de  \varepsilon . Alors, Y = \varepsilon X et X ne sont clairement pas indépendantes et pourtant

\operatorname{cov}(X, Y) = \mathbb{E}(X Y) - \mathbb{E}(X)\mathbb{E}(Y)= \mathbb{E}(\varepsilon)\operatorname{var}(X) = 0.

Des variables aléatoires dont la covariance est nulle sont dites non corrélées.

Propriétés — 

  • \operatorname{cov}(X, X) = \operatorname{var}(X)
  • \operatorname{cov}(X, Y) = \operatorname{cov}(Y, X)
  • \operatorname{cov}(cX, Y) = c \operatorname{cov}(X, Y)c est une constante
  • \operatorname{cov}(X+c, Y) = \operatorname{cov}(X, Y)c est une constante

Bilinéarité de la covariance :

Propriété —  \operatorname{cov}\left(\sum_i{X_i}, \sum_j{Y_j}\right) = \sum_i{\sum_j{\operatorname{cov}\left(X_i, Y_j\right)}}

Ceci traduit le fait que la covariance est une forme bilinéaire symétrique positive (sur l'espace vectoriel L^2(\Omega, \mathcal{B}, \mathbb{P}) des variables aléatoires de carré intégrable), et que la forme quadratique associée est la variance.

Corollaire —  \operatorname{var}(aX+bY) = a^2\operatorname{var}(X) + b^2\operatorname{var}(Y) + 2ab \operatorname{cov}(X,Y)

Cette formule est l'analogue de (x+y)^2=x^2+y^2+ 2xy . En fait, la plupart des propriétés de la covariance sont analogues à celles du produit de deux réels ou du produit scalaire de deux vecteurs.

Propriété —  \operatorname{var}\left(\sum_{i=1}^n{X_i}\right) = \sum_{i=1}^n\operatorname{var}(X_i) + 2\sum_{1\le i<j\le n}\operatorname{cov}(X_i,X_j)

Cette formule est classique pour une forme quadratique associée à une forme bilinéaire symétrique.

Covariance isotrope[modifier | modifier le code]

Définition — un processus stochastique X sur un espace S est dit de covariance isotrope si sa covariance dépend de la distance entre le couple de points uniquement :

\exists C:\R^+\mapsto\R, \forall t,s\in S, \mathbf{Cov}\left(X_s,X_t\right)=C\left(\left\|s-t\right\|\right)

Si X est un processus centré isotrope sur d, la fonction de corrélation isotrope vérifie ρ(‖h‖) ≥  −1/d.

Représentation spectrale d'une covariance[modifier | modifier le code]

Exemple[modifier | modifier le code]

Dans un forum Internet, quelqu'un affirme que l'activité du forum est plus intense les jours de pleine lune. On peut ne pas disposer du calendrier des pleines lunes, mais si cette affirmation est exacte et si l'on nomme N(t) le nombre de contributions au jour t, la covariance entre N(t) et N(t+28) cumulée sur toutes les valeurs de t, sera probablement supérieure aux covariances entre N(t) et N(t+x) pour les valeurs de x différentes de 28.

Estimation[modifier | modifier le code]

Un estimateur de la covariance \operatorname{cov}(AB)\equiv\sigma_{AB} de deux variables aléatoires A et B observées conjointement N fois est donné par:

\hat\sigma_{AB} = \frac{\sum_{i=1}^N a_i \cdot b_i}{N} - \frac{\sum_{i=1}^N a_i}{N} \cdot \frac{\sum_{i=1}^N b_i}{N}

Cette formule est notamment utilisée en statistiques pour calculer la covariance de deux séries de données numériques (a_i)_{i\leq N} et (b_i)_{i\leq N}

Matrice de variance-covariance[modifier | modifier le code]

Article détaillé : Matrice de variance-covariance.

Définition[modifier | modifier le code]

La matrice de variance-covariance (ou simplement matrice de covariance) d'un vecteur de k variables aléatoires \vec X est la matrice carrée donnée par :

\operatorname{var}(\vec X)
=
\operatorname{var}\begin{pmatrix} X_1  \\ \vdots\\ X_k \end{pmatrix}
=
\begin{pmatrix} 
\operatorname{var}(X_1) & \operatorname{cov}(X_{1}X_{2}) &  \cdots & \operatorname{cov}(X_{1}X_{k}) \\
\operatorname{cov}(X_{2}X_{1}) & \ddots & \cdots & \vdots\\
\vdots & \vdots & \ddots & \vdots\\
\operatorname{cov}(X_{k}X_{1}) & \cdots & \cdots&  \operatorname{var}(X_k) 
\end{pmatrix}
=
\begin{pmatrix} 
\sigma^2_{x_1} & \sigma_{x_{1}x_{2}} &  \cdots & \sigma_{x_{1}x_{k}} \\
\sigma_{x_{2}x_{1}} & \ddots & \cdots & \vdots\\
\vdots & \vdots & \ddots & \vdots\\
\sigma_{x_{k}x_{1}} & \cdots & \cdots&  \sigma^2_{x_k} 
\end{pmatrix}


Vue la propriété \operatorname{cov}(X, Y) = \operatorname{cov}(Y, X), il s'agit d'une matrice symétrique. L'inverse de la matrice de covariance est parfois désignée par le terme de « matrice de précision ». La matrice de covariance est un cas particulier de matrice de Gram.

Estimation[modifier | modifier le code]

Un estimateur de la matrice de variance-covariance de N réalisations d'un vecteur de variables aléatoires peut être donné par:

\operatorname{\widehat {var}}(\vec X) = \frac{\sum x_i \cdot x_i^T}{N} - \frac{\sum x_i}{N} \cdot \left(\frac{\sum x_i}{N}\right)^T

Usage[modifier | modifier le code]

La connaissance des covariances est le plus souvent indispensable dans les fonctions d'estimation, de filtrage et de lissage. Elles permettent, entre autres en photographie, d'arriver à corriger de façon spectaculaire les flous de mise au point ainsi que les flous de bougé, ce qui est extrêmement important pour les clichés astronomiques. On les utilise également en automatique. En sociolinguistique, la covariance désigne la correspondance entre l’appartenance à une certaine classe sociale et un certain parler inhérent à cette condition sociale. Les matrices de covariances sont utilisées pour le krigeage et les méthodes d'analyse par décomposition orthogonale aux valeurs propres. Enfin, on l'utilise aussi en finance, pour connaitre si deux placements ont tendance à évoluer dans le même sens, dans des sens opposés, ou si leurs valeurs ne sont pas liées.

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :