Développement de Von Mises

Un article de Wikipédia, l'encyclopédie libre.

En statistiques, le développement de Von Mises d'une statistique , est un analogue du développement de Taylor de cette statistique vue comme une fonctionnelle, c'est-à-dire comme une fonction d'une distribution. Le développement de au voisinage de la distribution (par exemple la distribution de ) s'écrit donc comme une somme de terme de degrés croissants en , où désigne la distribution empirique de ces données. Le développement de Von Mises d'une statistique permet une meilleure compréhension de sa distribution asymptotique.

Le développement de Von Mises a été introduit pour la première fois par Richard Von Mises en 1947[1].

Statistique fonctionnelle[modifier | modifier le code]

La plupart des statistiques (estimateurs, statistiques de tests, etc.) peuvent être définies en tant que fonctionnelles, c'est ce qu'on appelle des statistiques fonctionnelles.

Une statistique est généralement vue comme une fonction prenant en entrée un jeu de données et retournant une valeur ou un vecteur de valeurs . On peut l'écrire .

Mais il est aussi possible de décrire cette statistique comme une fonction prenant en entrée une distribution de probabilité et retournant une valeur ou un vecteur de valeurs , il s'agit alors d'une statistique fonctionnelle . Cette fonctionnelle est définie de sorte que pour tout jeu de données , si nous appelons la distribution empirique de , alors . Le terme de droite de cette égalité considère comme une fonctionnelle alors que le terme de gauche comme une statistique classique.

Exemples[modifier | modifier le code]

Pour un jeu de données comprenant observations :

  • la moyenne s'écrit classiquement comme . La fonctionnelle associée s'écrit : est la densité de probabilité associée à .
  • la variance s'écrit classiquement comme , la fonctionnelle associée s'écrit : .
  • le -quantile de s'écrit comme (plus petite valeur telle qu'une proportion d'au moins des données lui soit supérieure). La fonctionnelle associée s'écrit est identifiée à sa fonction de répartition (au cas, où n'est pas unique, on peut prendre , le plus petit antécédent de par ).

Dérivabilité d'une fonctionnelle[modifier | modifier le code]

Comme pour des fonctions classiques, il est possible de parler de continuité et de dérivabilité d'une statistique fonctionnelle. On peut définir la dérivée de en dans la direction de comme

.

Les dérivées d'ordres supérieurs peuvent être définies d'une manière analogue par

.

Il est possible de montrer que est linéaire en .

Exemples[modifier | modifier le code]

  • Dérivée de la moyenne : . Les dérivées d'ordre supérieur sont égales à 0.
  • Dérivée de la variance : .

Dérivée de Gateaux et dérivée de Fréchet[modifier | modifier le code]

Il existe en réalité plusieurs notions de dérivées pour les fonctionnelles. La dérivée, définie telle qu'au-dessus, correspond à la dérivée de Gateaux, ou dérivée directionnelle. On peut aussi définir la dérivée de Fréchet, ou dérivée fonctionnelle, d'une statistique fonctionnelle . Cette dérivée est l'unique application linéaire telle que

désigne la norme infini. Dans le cas où les dérivées au sens de Fréchet et au sens de Gateaux existent toutes les deux, elles coïncident nécessairement:

.

Cela permet de justifier que la dérivée de Gateaux est linéaire par rapport à , puisque est linéaire.

Comme la dérivée de Gateaux se ramène à une dérivée unidimensionnelle calculable en utilisant les règles basiques de dérivation, elle est d'un meilleur usage pratique.

Lien avec la fonction d'influence[modifier | modifier le code]

Dans de nombreux cas, la dérivée de en dans la direction de peut s'écrire . La fonction est alors appelée la fonction d'influence de la statistique en . La définition de est d'ailleurs très similaire à celle de la dérivée de  : la distribution y est simplement remplacée par une distribution de Dirac centrée en .

Développement de Von Mises[modifier | modifier le code]

Étant donnés deux distributions de probabilités et , le développement de Von Mises d'une statistique en correspond à l'approximation de par

pour un certain entier positif .

Cette approximation est en réalité le développement de Taylor en de la fonction réelle , évalué en .

Étant donné un échantillon supposé issu de variables aléatoires indépendantes et identiquement distribuées selon une distribution , le développement de Von Mises est souvent appliqué pour approximer par . Comme , cela permet une approximation de la . En particulier, ça permet une meilleur intuition sur la distribution asymptotique de [2].

Lien avec la distribution asymptotique[modifier | modifier le code]

Normalité asymptotique[modifier | modifier le code]

Supposons que l'échantillon soit composé de variables aléatoires indépendantes et identiquement distribuées suivant une distribution .

Alors, sous certaines conditions de régularité, si le terme d'ordre 1 du développement de Von Mises de en est non nul, sera asymptotiquement normale.

Pour s'en rendre compte informellement, il suffit de se rappeler que est la distribution empirique de , puis d'écrire le développement de Von Mises au voisinage de  :

en utilisant la linéarité de . Puisque les sont indépendants et identiquement distribués, le sont aussi le théorème central limite s'applique et indique que est asymptotiquement normalement distribué, et donc aussi.

Distribution asymptotique suivant une combinaison de χ²[modifier | modifier le code]

Lorsque le premier terme non nul du développement de Von Mises est le second terme, sous certaines conditions de régularité, la distribution asymptotique de peut s'écrire comme une combinaison linéaire de variables aléatoires indépendantes distribuées suivant une loi du χ² à un degré de liberté.

Autres distributions asymptotiques[modifier | modifier le code]

Lorsque le premier terme non nul du développement de Von Mises est le troisième ou plus, il existe des expressions plus complexes de la distribution asymptotique de . Toutefois, ces distributions ne s'expriment pas simplement en utilisant des lois de probabilité usuelles[3].

Voir aussi[modifier | modifier le code]

Références[modifier | modifier le code]

  1. (en) R. v. Mises, « On the Asymptotic Distribution of Differentiable Statistical Functions », The Annals of Mathematical Statistics, vol. 18, no 3,‎ , p. 309–348 (ISSN 0003-4851, DOI 10.1214/aoms/1177730385, lire en ligne, consulté le )
  2. Serfling, Robert J. Verfasser, Approximation Theorems of Mathematical Statistics (ISBN 978-0-470-31719-8 et 0-470-31719-1, OCLC 959994695, lire en ligne)
  3. H. Rubin et R. A. Vitale, « Asymptotic Distribution of Symmetric Statistics », The Annals of Statistics, vol. 8, no 1,‎ (ISSN 0090-5364, DOI 10.1214/aos/1176344898, lire en ligne, consulté le )