Borne de Cramér-Rao

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Borne.

En statistique, la borne Cramér-Rao exprime une borne inférieure sur la variance d'un estimateur sans biais, basée sur l'information de Fisher. Elle est aussi appelée borne de Fréchet-Darmois-Cramér-Rao (ou borne FDCR) en l'honneur de Maurice Fréchet, Georges Darmois, Harald Cramér et Calyampudi Radhakrishna Rao.

Elle énonce que l'inverse de l'information de Fisher, \mathcal{I}(\theta), d'un paramètre θ, est une borne inférieure de la variance d'un estimateur sans biais de ce paramètre (noté \widehat{\theta}).


\mathrm{var} \left(\widehat{\theta}\right)
\geq
\mathcal{I}(\theta)^{-1}
= \mathbb{E}
 \left[
   \left(\frac{\partial}{\partial \theta} \ln L(X;\theta)\right)^2
 \right]^{-1}

Si le modèle est régulier, la borne de Cramer Rao peut s'écrire : 
\mathcal{I}(\theta)^{-1}
= - \mathbb{E}
 \left[
   \frac{\partial^2}{\partial \theta^2} \ln L(X;\theta)
 \right]^{-1}
L(X;θ) est la fonction de vraisemblance.

Dans certains cas, aucun estimateur non biaisé n'atteint la borne inférieure.

Exemple[modifier | modifier le code]

Supposons que X est un vecteur aléatoire qui suit une loi normale d' espérance connue \mu et de variance inconnue \sigma^2. Considérons T l'estimateur de \sigma^2:


T=\frac{1}{n}\sum_{i=1}^n\left(X_i-\mu\right)^2.

Alors T est non biaisé pour \sigma^2, car \mathbb{E}[T]=\sigma^2. Quelle est la variance de T ?


\mathrm{Var}(T) = \frac{\mathrm{var}(X-\mu)^2}{n}=\frac{1}{n}
\left[
\mathbb{E}\left\{(X-\mu)^4\right\}-\left(\mathbb{E}\left\{(X-\mu)^2\right\}\right)^2
\right]

Le premier terme est le quatrième moment centré et vaut 3\sigma^4, le second est le carré de la variance, soit \sigma^4. Donc :

\mathrm{Var}(T)=\frac{2\sigma^4}{n}.

Quelle est l'information de Fisher de cet exemple ? Le score V est défini par :


V=\frac{\partial}{\partial\sigma^2}\ln L(\sigma^2,X)

avec L étant la fonction de vraisemblance. Donc, dans ce cas,


V=\frac{\partial}{\partial\sigma^2}\ln\left[\frac{1}{\sqrt{2\pi\sigma^2}}e^{-(X-\mu)^2/{2\sigma^2}}\right]
=\frac{(X-\mu)^2}{2(\sigma^2)^2}-\frac{1}{2\sigma^2}

L'information de n évènements indépendants étant seulement n fois l'information d'un seul évènement, soit \frac{n}{2(\sigma^2)^2}.

L'inégalité de Cramér-Rao donne :


\mathrm{var}(T)\geq\frac{1}{I}.

Dans ce cas, on a donc égalité, ce qui montre que l'estimateur est efficace.

Conditions de régularité[modifier | modifier le code]

Cette inégalité repose sur deux conditions faibles de régularité des densités de probabilité, f(x; \theta), et l'estimateur T(X):

  • L'information de Fisher est toujours définie ; de manière équivalente, pour tout x tel que f(x; \theta) > 0,
 \frac{\partial}{\partial\theta} \ln f(x;\theta)
soit fini.
  • L'intégration par rapport à x et la différentiation par rapport à θ peuvent être échangées dans le calcul de T ; soit encore,

 \frac{\partial}{\partial\theta}
 \left[
  \int T(x) f(x;\theta) \,dx
 \right]
 =
 \int T(x)
  \left[
   \frac{\partial}{\partial\theta} f(x;\theta)
  \right]
 \,dx
si le second membre est fini.

Dans certains cas, un estimateur biaisé peut avoir une variance et une erreur quadratique moyenne en dessous de la borne de Cramér-Rao (cette borne ne s'appliquant que pour les estimateurs non biaisés).

Si la régularité permet d'atteindre la dérivée seconde, alors l'information de Fisher peut se mettre sous une autre forme, et l'inégalité de Cramér-Rao donne:


\mathrm{Var} \left(\widehat{\theta}\right)
\geq
\frac{1}{\mathcal{I}(\theta)}
=
\frac{1}
{
 -\mathbb{E}
 \left[
  \frac{\partial^2}{\partial \theta^2} \ln f(X;\theta)
 \right]
}

Références[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • (en) Abram Kagan, « Another Look at the Cramér–Rao Inequality », The American Statistician, vol. 55, no 3,‎ août 2001, p. 211-212