Principe de grandes déviations

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Le principe de grandes déviations, en théorie des probabilités, concerne le comportement asymptotique de queues de suite de loi de probabilités. Quelques premières idées de la théorie ont été données par Laplace et Cramér ; depuis, une définition formelle a été introduite en 1966 par Varadhan[1]. La théorie des grandes déviations formalise les idées heuristiques de la concentration des mesures et généralise la notion de convergence en loi.

La théorie des grandes déviations concerne la décroissance exponentielle des mesures de probabilité de certains types d'évènements extrêmes ou de queue, lorsque le nombre d'observations est arbitrairement grand.

Exemples introductifs[modifier | modifier le code]

Un exemple élémentaire[modifier | modifier le code]

Soit une suite de pile ou face indépendants (non biaisés). Notons par  X_i le résultat du i-ième lancer, où face donne  X_i =-1 et pile donne  X_i =1. Soit  M_N la moyenne après N lancers, c'est-à-dire

 M_N := \frac{1}{N}\sum_{i=1}^{N} X_i.

Ainsi  M_N est compris entre -1 et 1. En utilisant la loi des grands nombres, on déduit que  M_N est de plus en plus proche de 0, avec une probabilité croissante, quand N est de plus en plus grand. Donnons une explication plus précise. Pour une valeur  0<x<1 fixée, calculons la probabilité  P(M_N > x) . Définissons

 I(x) = \frac{1}{2}[(1+x)\log(1+x) + (1-x)\log(1-x)].

Alors, par l'inégalité de Chernoff, on peut montrer que  P(M_N > x) < \exp(-NI(x)) . Cette borne est optimale dans le sens où  I(x) ne peut pas être remplacé par un nombre plus grand qui assurerait l'inégalité pour tout N strictement positif. (Bien que la borne exponentielle peut toujours être réduite à un facteur sous-exponentiel près de l'ordre de  1/\sqrt N .) La probabilité  \scriptstyle P(M_N > x) décroit exponentiellement rapidement quand N est grand, à une vitesse dépendant de x.

Grandes déviations pour des sommes de variables aléatoires indépendantes[modifier | modifier le code]

Dans l'exemple ci-dessus avec des lancers de pièces, chaque lancer est indépendant des autres, et les probabilités sont les mêmes pour chaque lancer. Autrement dit, les variables aléatoires  X_i sont i.i.d. (indépendantes et identiquement distribuées). Pour des variables i.i.d. dont la loi commune vérifie une certaine condition de croissance, la théorie des grandes déviations assure que la limite suivante existe :

\lim_{N\to \infty} \frac{1}{N} \log P(M_N > x) = - I(x)

La fonction  I(x) est appelée la "fonction de taux (en)" ou "fonction de Cramér" ou parfois "entropie". L'existence d'une telle limite donne la décroissance exponentielle mentionnée précédemment et implique que, pour N grand,  P(M_N >x) est de la forme :

 P(M_N >x) \approx \exp[-NI(x) ].

Remarquons que l'inégalité donnée dans le premier paragraphe, comparée à cette formule asymptotique, n'est plus valide dans des cas plus généraux.

Dans le cas i.i.d., si la loi de probabilité des variables  X_i est connue, il existe une expression explicite de la fonction de taux, donnée par la transformée de Cramér définie par

I(x) = \sup_{\theta > 0} [\theta x - \lambda(\theta)],

où la fonction  \lambda(\theta) est appelée fonction génératrice des cumulants, donnée par

 \lambda(\theta) = \log E[\exp(\theta X)] \, .

Ici,  \scriptstyle E[\,] est l'espérance par rapport à la loi de probabilité de  X_i et  X est l'un des  X_i . Si la loi de  X est normale, la fonction de taux est une parabole.

Si la condition i.i.d. est affaiblie, en particulier si les variables X_i ne sont pas indépendantes mais satisfont la propriété de Markov, le résultat de grandes déviations précédent peut être généralisé.

Définition formelle[modifier | modifier le code]

Soit X un espace polonais et \scriptstyle \{ \mathbb{P}_N\} une suite de mesures de probabilités sur X, soit \scriptstyle \{a_N\} une suite de nombres réels strictement positifs telle que \scriptstyle \lim_N a_N=+\infty, et finalement, soit \scriptstyle I:X\to [0,+\infty] une fonction semi-continue inférieurement sur X. La suite \scriptstyle \{ \mathbb{P}_N\} vérifie le principe de grandes déviations avec une vitesse \scriptstyle \{a_n\} et un taux I, si et seulement si pour tout ensemble borélien mesurable \scriptstyle E \subset X

 -\inf_{x \in E^\circ} I(x) \le \varliminf_N a_N^{-1} \log\big(\mathbb{P}_N(E)\big) \le  \varlimsup_N a_N^{-1} \log\big(\mathbb{P}_N(E)\big) \le -\inf_{x \in \bar{E}} I(x)

\scriptstyle \bar{E} et \scriptstyle E^\circ désignent respectivement l'adhérence et l'intérieur de E.

Espace de Banach[modifier | modifier le code]

Théorème (démontré par Donsker et Varadhan[2] en 1976)

Soient X un espace de Banach séparable, \scriptstyle  \mathbb{P} une loi de probabilité sur X qui admet des moments exponentiels finis, \scriptstyle  (X_i)_{i>1} des variables aléatoires i.i.d. de loi \scriptstyle  \mathbb{P} et de moyenne  \scriptstyle M_N=\frac{1}{N}\sum_{i=1}^N X_i . Alors pour tout borélien E de X,

 -\inf_{x \in E^\circ} I(x) \le \varliminf_N \frac{1}{N} \log \mathbb{P}(M_N \in E)  \le  \varlimsup_N \frac{1}{N} \log \mathbb{P}(M_N \in E) \le -\inf_{x \in \bar{E}} I(x)

 I est la transformée de Cramér (ou transformée de Legendre ou transformée de Fenchel-Legendre) définie par

I(x) = \sup_{\theta > 0} \left[\theta x -  \log E[\exp(\theta X)]\right].

Court historique[modifier | modifier le code]

Les premiers résultats rigoureux concernant les grandes déviations sont dus au mathématicien suédois Harald Cramér, qui les a appliqués pour modéliser les problèmes d'assurance. Du point de vue des compagnies d'assurances, les revenus sont à taux constant par mois (les mensualités), mais les dépenses sont aléatoires. Pour que la compagnie soit bénéficiaire après une durée de plusieurs mois, la somme totale de revenus doit être supérieure aux dépenses totales. Ainsi pour estimer les mensualités, vous devez vous demander : "Quelles mensualités  q devons-nous choisir pour que, après N mois, les dépenses totales  C = \Sigma X_i soient inférieures à  Nq  ?" Ce qui est clairement la même question posée par la théorie des grandes déviations. Cramér a donné une solution à cette question pour des variables aléatoires i.i.d avec une fonction de taux sous forme de série entière. Les résultats cités ci-dessus ont été obtenus plus tard par Herman Chernoff (en) ainsi que d'autres personnes. Donnons une liste incomplète de mathématiciens qui ont fait d'importantes avancées : S.R.S. Varadhan (qui a obtenu pour ces travaux le prix Abel), D. Ruelle et O.E. Lanford.

Applications[modifier | modifier le code]

Les principes des grandes déviations peuvent effectivement être appliqués pour récupérer des informations d'un modèle probabiliste. Ainsi la théorie des grandes déviations trouve des applications dans la théorie de l'information et la gestion du risque. En physique, l'application la plus connue de la théorie des grandes déviations est en thermodynamique et en mécanique statistique (en connexion avec l'entropie correspondant à la fonction de taux).

Estimer des déviations[modifier | modifier le code]

La moyenne \scriptstyle M_N=\frac{1}{N}\sum_{i=1}^{N} X_i est appelée la moyenne empirique des variables i.i.d. \scriptstyle X_i . Notons \scriptstyle  m=\mathbb E[ X_i] la vraie moyenne. Par la loi des grands nombres, pour tout \scriptstyle \delta >0, on obtient

 \lim_{N\rightarrow \infty}\mathbb P(|M_N-m|>\delta)=0.

Ainsi l'évènement \scriptstyle \left\{ |M_N-m|>\delta \right\} (noté \scriptstyle \left\{ M_N\in E \right\} dans la définition formelle) décrit la déviation entre M_N et m.

Cas de la loi normale
Si \scriptstyle X_i sont les variables aléatoires i.i.d. de loi normale centrée réduite \scriptstyle \mathcal N(0,1) alors \scriptstyle M_N est de loi \scriptstyle \mathcal N(0,\frac{1}{N}). Ainsi

 \mathbb P(|M_N|>\delta)=1-\frac{1}{\sqrt{2}}\int_{-\delta\sqrt{n}}^{\delta\sqrt{n}}e^{-\frac{x^2}{2}}dx,

Les grandes déviations sont alors données par :

\lim_{N\rightarrow \infty}\frac{1}{N}\log \mathbb P(|M_N|>\delta)= -\frac{\sigma^2}{2} .

Cela signifie que \scriptstyle |M_N| dévie de son comportement typique en prenant de grandes valeurs avec une (faible) probabilité d'ordre de \scriptstyle exp(-N\delta^2/2).

Grandes déviations et entropie[modifier | modifier le code]

La fonction de taux est reliée à l'entropie en mécanique statistique. Ceci peut être heuristiquement vu de la façon suivante. En mécanique statistique, l'entropie d'un état macroscopique particulier est associé au nombre d'état microscopiques qui correspondent à cet état macroscopique. Dans notre exemple de lancer de pièce, la moyenne  M_N peut désigner un état macroscopique particulier. Et la suite de pile ou face qui donne une valeur de  M_N constitue un état microscopique particulier le composant. Plus simplement, un état macroscopique ayant un grand nombre d'états microscopiques le composant a une grande entropie. Et un état avec une grande entropie a plus de chance d'être réalisé. L'état macroscopique de moyenne nulle (autant de pile que de face) a la plus grand nombre d'état microscopiques le composant et est l'état avec la plus grande entropie. D'un autre côté, La fonction de taux mesure la probabilité d'apparition d'un état macroscopique particulier. Plus la fonction de taux est petite, plus l'état macroscopique a de chance d'apparaitre. Dans notre pile ou face, la fonction de taux vaut 0 en 0. Dans ce cas, on peut assimiler la fonction de taux à l'opposé de l'entropie.

Note et bibliographie[modifier | modifier le code]

Note[modifier | modifier le code]

  1. (en) S.R.S. Varadhan, Asymptotic probability and differential equations, Communications on Pure and Applied Mathematics, 19 (1966),261-286.
  2. R. Azencott, Grandes deviations et applications, Ecole d’Eté de Probabilités de Saint-Flour VIII-1978, Lecture Notes in Mathematics, 1980, Volume 774/1980, 1-176, DOI: 10.1007/BFb0089623

Bibliographie (en anglais)[modifier | modifier le code]

Voir également[modifier | modifier le code]

Article connexe[modifier | modifier le code]

Liens externes[modifier | modifier le code]