Différentiabilité en moyenne quadratique (statistiques)

Un article de Wikipédia, l'encyclopédie libre.

La différentiabilité en moyenne quadratique est une propriété de certains modèles statistiques introduite par Lucien Le Cam, détaillée dans un article de 1970[1]. La différentiabilité en moyenne quadratique d'un modèle garantit certains résultats asymptotiques, tels que la normalité asymptotique de l'estimateur du maximum de vraisemblance associé, ou la normalité asymptotique locale.

Définition[modifier | modifier le code]

Soit un modèle statistique dépendant d'un paramètre de dimension , générant une variable aléatoire dans un espace . Notons la vraisemblance d'une observation sous ce modèle avec une valeur du paramètre .

Le modèle est dit différentiable en moyenne quadratique en s'il existe une fonction mesurable telle que, pour tout de dans un voisinage de 0,

[2].

Remarques[modifier | modifier le code]

  • Dans la plupart des cas, la fonction correspond à la dérivée de la log-vraisemblance : , souvent appelée fonction score du modèle. En effet, lorsque est dérivable par rapport à , correspond généralement à la dérivée de par rapport à , c'est-à-dire à .
  • Cette définition désigne en réalité la différentiabilité en moyenne quadratique de la racine carrée de la vraisemblance de ce modèle. Pour être rigoureux, il faudrait donc parler d'un modèle dont la racine carrée de la vraisemblance est différentiable en moyenne quadratique. Cependant, l'appellation différentiabilité en moyenne quadratique est plus concise et plus couramment utilisée.

Différentiabilité dans l'espace L2[modifier | modifier le code]

Comme dit précédemment, la différentiabilité en moyenne quadratique d'une loi de probabilité correspond en réalité à la différentiabilité de la racine carrée de la vraisemblance dans l'espace des fonctions (fonctions dont le carré est intégrable) muni de la norme 2[3].

Pour mieux voir cela, considérons une loi de probabilité dépendant d'un paramètre , dont nous noterons la vraisemblance .

La racine carrée de cette vraisemblance peut être vue comme une application qui, à une valeur de paramètre fait correspondre une fonction dont le carré est intégrable (d'intégrale 1 puisque est une densité), c'est-à-dire un élément de  :

.

Cette application est différentiable dans en s'il existe un élément de tel que pour tout dans un voisinage de , lorsque h tend vers 0. Cette égalité porte sur des fonctions de , le terme désigne donc ici une fonction dont la norme 2 est négligeable devant . Cette égalité peut donc se réécrire comme

.

Exemples[modifier | modifier le code]

Une démarche classique pour montrer la différentiabilité en moyenne quadratique d'une loi de probabilité est la suivante :

  • Effectuer un développement limité de la racine carrée de la vraisemblance: ,
  • Montrer que peut être dominé par une fonction , intégrable et indépendante de , pour tout dans un voisinage de 0, (par exemple en utilisant la dérivée seconde de la racine carrée de la vraisemblance et l'inégalité de Taylor-Lagrange),
  • Conclure en utilisant le théorème de convergence dominée.

Distribution exponentielle[modifier | modifier le code]

La loi exponentielle, paramétrée par sa moyenne , ou par son intensité , est différentiable en moyenne quadratique en toute valeur du paramètre différent de 0. La fonction score associée est .

Contre exemple[modifier | modifier le code]

La loi uniforme sur l'intervalle n'est pas différentiable en moyenne quadratique. En effet, lorsque sont générés de façon iid suivant une loi uniforme sur , l'estimateur du maximum de vraisemblance de est donné par et n'est pas asymptotiquement normal. Or l'estimateur du maximum de vraisemblance associé à un modèle différentiable en moyenne quadratique est nécessairement asymptotiquement normal.

Propriétés[modifier | modifier le code]

Normalité asymptotique du maximum de vraisemblance[modifier | modifier le code]

Si des échantillons aléatoires de tailles , , sont générés de manière iid selon une loi de probabilité différentiable en moyenne quadratique, alors l'estimateur du maximum de vraisemblance est asymptotiquement normal avec pour variance asymptotique l'inverse de l'information de Fisher. Plus précisément, lorsque tend vers l'infini,

est l'estimateur du maximum de vraisemblance, défini comme , désigne l'information de Fisher définie comme et où désigne la convergence en loi.

Normalité asymptotique locale[modifier | modifier le code]

Une loi de probabilité différentiable en moyenne quadratique donne un modèle statistique localement asymptotiquement normal lorsqu'on génère des données iid selon cette loi.

Voir aussi[modifier | modifier le code]

Références[modifier | modifier le code]

  1. L. LeCam, « On the Assumptions Used to Prove Asymptotic Normality of Maximum Likelihood Estimates », The Annals of Mathematical Statistics, vol. 41, no 3,‎ , p. 802–828 (ISSN 0003-4851, DOI 10.1214/aoms/1177696960, lire en ligne, consulté le )
  2. A. W. van der Vaart, Asymptotic Statistics, Cambridge University Press, coll. « Cambridge Series in Statistical and Probabilistic Mathematics », (ISBN 978-0-521-78450-4, DOI 10.1017/cbo9780511802256, lire en ligne)
  3. (en) David Pollard, « Another Look at Differentiability in Quadratic Mean », dans Festschrift for Lucien Le Cam: Research Papers in Probability and Statistics, Springer, (ISBN 978-1-4612-1880-7, DOI 10.1007/978-1-4612-1880-7_19, lire en ligne), p. 305–314