Ceci est une version archivée de cette page, en date du 13 avril 2022 à 15:04 et modifiée en dernier par Soupalognon y Crouton(discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.
Elle énonce que l'inverse de l'information de Fisher, , d'un paramètre θ, est un minorant de la variance d'un estimateur sans biais de ce paramètre (noté ).
Si le modèle est régulier, la borne de Cramer Rao peut s'écrire :
où L(X;θ) est la fonction de vraisemblance.
Dans certains cas, aucun estimateur non biaisé n'atteint la borne inférieure.
L'information de n évènements indépendants étant seulement n fois l'information d'un seul évènement, soit .
L'inégalité de Cramér-Rao donne :
Dans ce cas, on a donc égalité. On dit alors que l'estimateur est efficace.
Conditions de régularité
Cette inégalité repose sur deux conditions faibles de régularité des densités de probabilité, , et l'estimateur :
L'information de Fisher est toujours définie ; de manière équivalente, pour tout tel que ,
soit fini.
L'intégration par rapport à x et la différentiation par rapport à θ peuvent être échangées dans le calcul de T ; soit encore,
si le second membre est fini.
Dans certains cas, un estimateur biaisé peut avoir une variance et une erreur quadratique moyenne en dessous de la borne de Cramér-Rao (cette borne ne s'appliquant que pour les estimateurs non biaisés).
Si la régularité permet d'atteindre la dérivée seconde, alors l'information de Fisher peut se mettre sous une autre forme, et l'inégalité de Cramér-Rao donne:
Références
↑(en) S. M. Kay, Fundamentals of Statistical Signal Processing : Estimation Theory, Englewood Cliffs (N. J.), Prentice Hall, , 595 p. (ISBN0-13-042268-1), p. 47
Bibliographie
(en) Abram Kagan, « Another Look at the Cramér–Rao Inequality », The American Statistician, vol. 55, no 3, , p. 211-212