« Principe de grandes déviations » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Ahrgrr (discuter | contributions)
→‎Applications : Chasse aux homonymes 3
m v1.41 - Lien magique ISBN obsolète - Catégorie:Pages utilisant des liens magiques ISBN
Ligne 3 : Ligne 3 :
La théorie des grandes déviations concerne la décroissance exponentielle des mesures de probabilité de certains types d'évènements extrêmes ou ''de queue'', lorsque le nombre d'observations est arbitrairement grand.
La théorie des grandes déviations concerne la décroissance exponentielle des mesures de probabilité de certains types d'évènements extrêmes ou ''de queue'', lorsque le nombre d'observations est arbitrairement grand.


==Exemples introductifs==
== Exemples introductifs ==
===Un exemple élémentaire===
=== Un exemple élémentaire ===
Soit une suite de [[pile ou face]] indépendants (non biaisés). Notons par <math> X_i </math> le résultat du ''i''-ième lancer, où ''face'' donne <math> X_i =-1</math> et ''pile'' donne <math> X_i =1</math>. Soit <math> M_N </math> la moyenne après ''N'' lancers, c'est-à-dire
Soit une suite de [[pile ou face]] indépendants (non biaisés). Notons par <math> X_i </math> le résultat du ''i''-ième lancer, où ''face'' donne <math> X_i =-1</math> et ''pile'' donne <math> X_i =1</math>. Soit <math> M_N </math> la moyenne après ''N'' lancers, c'est-à-dire
:<math> M_N := \frac{1}{N}\sum_{i=1}^{N} X_i</math>.
:<math> M_N := \frac{1}{N}\sum_{i=1}^{N} X_i</math>.
Ligne 11 : Ligne 11 :
Alors, par l'[[inégalité de Chernoff]], on peut montrer que <math> P(M_N > x) < \exp(-NI(x)) </math>. Cette borne est optimale dans le sens où <math> I(x) </math> ne peut pas être remplacé par un nombre plus grand qui assurerait l'inégalité pour tout ''N'' strictement positif (bien que la borne exponentielle puisse toujours être réduite à un facteur sous-exponentiel près de l'ordre de <math> 1/\sqrt N </math>). La probabilité <math> \scriptstyle P(M_N > x) </math> décroit exponentiellement rapidement quand ''N'' est grand, à une vitesse dépendant de ''x''.
Alors, par l'[[inégalité de Chernoff]], on peut montrer que <math> P(M_N > x) < \exp(-NI(x)) </math>. Cette borne est optimale dans le sens où <math> I(x) </math> ne peut pas être remplacé par un nombre plus grand qui assurerait l'inégalité pour tout ''N'' strictement positif (bien que la borne exponentielle puisse toujours être réduite à un facteur sous-exponentiel près de l'ordre de <math> 1/\sqrt N </math>). La probabilité <math> \scriptstyle P(M_N > x) </math> décroit exponentiellement rapidement quand ''N'' est grand, à une vitesse dépendant de ''x''.


===Grandes déviations pour des sommes de variables aléatoires indépendantes===
=== Grandes déviations pour des sommes de variables aléatoires indépendantes ===
Dans l'exemple ci-dessus avec des lancers de pièces, chaque lancer est indépendant des autres, et les probabilités sont les mêmes pour chaque lancer. Autrement dit, les variables aléatoires <math> X_i </math> sont [[Variables indépendantes et identiquement distribuées|i.i.d.]] (indépendantes et identiquement distribuées). Pour des variables i.i.d. dont la loi commune vérifie une certaine condition de croissance, la théorie des grandes déviations assure que la limite suivante existe :
Dans l'exemple ci-dessus avec des lancers de pièces, chaque lancer est indépendant des autres, et les probabilités sont les mêmes pour chaque lancer. Autrement dit, les variables aléatoires <math> X_i </math> sont [[Variables indépendantes et identiquement distribuées|i.i.d.]] (indépendantes et identiquement distribuées). Pour des variables i.i.d. dont la loi commune vérifie une certaine condition de croissance, la théorie des grandes déviations assure que la limite suivante existe :
:<math>\lim_{N\to \infty} \frac{1}{N} \log P(M_N > x) = - I(x) </math>
:<math>\lim_{N\to \infty} \frac{1}{N} \log P(M_N > x) = - I(x) </math>
Ligne 26 : Ligne 26 :
Si la condition ''i.i.d.'' est affaiblie, en particulier si les variables <math>X_i</math> ne sont pas indépendantes mais satisfont la [[propriété de Markov]], le résultat de grandes déviations précédent peut être généralisé.
Si la condition ''i.i.d.'' est affaiblie, en particulier si les variables <math>X_i</math> ne sont pas indépendantes mais satisfont la [[propriété de Markov]], le résultat de grandes déviations précédent peut être généralisé.


==Définition formelle==
== Définition formelle ==
Soit <math>X</math> un [[espace polonais]] et <math>\scriptstyle \{ \mathbb{P}_N\}</math> une suite de mesures de probabilités sur <math>X</math>, soit <math>\scriptstyle \{a_N\}</math> une suite de nombres réels strictement positifs telle que <math>\scriptstyle \lim_N a_N=+\infty</math>, et finalement, soit <math>\scriptstyle I:X\to [0,+\infty]</math> une fonction [[Semi-continuité|semi-continue inférieurement]] sur <math>X</math>. La suite <math>\scriptstyle \{ \mathbb{P}_N\}</math> vérifie le principe de '''grandes déviations''' avec une '''vitesse''' <math>\scriptstyle \{a_n\}</math> et un '''taux''' <math>I</math>, [[Équivalence logique|si et seulement si]] pour tout [[Tribu borélienne|ensemble borélien]] mesurable <math>\scriptstyle E \subset X</math>
Soit <math>X</math> un [[espace polonais]] et <math>\scriptstyle \{ \mathbb{P}_N\}</math> une suite de mesures de probabilités sur <math>X</math>, soit <math>\scriptstyle \{a_N\}</math> une suite de nombres réels strictement positifs telle que <math>\scriptstyle \lim_N a_N=+\infty</math>, et finalement, soit <math>\scriptstyle I:X\to [0,+\infty]</math> une fonction [[Semi-continuité|semi-continue inférieurement]] sur <math>X</math>. La suite <math>\scriptstyle \{ \mathbb{P}_N\}</math> vérifie le principe de '''grandes déviations''' avec une '''vitesse''' <math>\scriptstyle \{a_n\}</math> et un '''taux''' <math>I</math>, [[Équivalence logique|si et seulement si]] pour tout [[Tribu borélienne|ensemble borélien]] mesurable <math>\scriptstyle E \subset X</math>
:<math> -\inf_{x \in E^\circ} I(x) \le \varliminf_N a_N^{-1} \log\big(\mathbb{P}_N(E)\big) \le \varlimsup_N a_N^{-1} \log\big(\mathbb{P}_N(E)\big) \le -\inf_{x \in \bar{E}} I(x) </math>
:<math> -\inf_{x \in E^\circ} I(x) \le \varliminf_N a_N^{-1} \log\big(\mathbb{P}_N(E)\big) \le \varlimsup_N a_N^{-1} \log\big(\mathbb{P}_N(E)\big) \le -\inf_{x \in \bar{E}} I(x) </math>
où <math>\scriptstyle \bar{E}</math> et <math>\scriptstyle E^\circ</math> désignent respectivement l'[[adhérence (mathématiques)|adhérence]] et l'[[Intérieur (topologie)|intérieur]] de <math>E</math>.
où <math>\scriptstyle \bar{E}</math> et <math>\scriptstyle E^\circ</math> désignent respectivement l'[[adhérence (mathématiques)|adhérence]] et l'[[Intérieur (topologie)|intérieur]] de <math>E</math>.


==Espace de Banach==
== Espace de Banach ==
'''Théorème''' (démontré par [[M. D. Donsker|Donsker]] et [[Sathamangalam R. Srinivasa Varadhan|Varadhan]]<ref>R. Azencott, ''Grandes deviations et applications'', Ecole d’Eté de Probabilités de Saint-Flour VIII-1978, Lecture Notes in Mathematics, 1980, Volume 774/1980, 1-176, DOI: 10.1007/BFb0089623</ref> en 1976)
'''Théorème''' (démontré par [[M. D. Donsker|Donsker]] et [[Sathamangalam R. Srinivasa Varadhan|Varadhan]]<ref>R. Azencott, ''Grandes deviations et applications'', Ecole d’Eté de Probabilités de Saint-Flour VIII-1978, Lecture Notes in Mathematics, 1980, Volume 774/1980, 1-176, DOI: 10.1007/BFb0089623</ref> en 1976)


Ligne 39 : Ligne 39 :
: <math>I(x) = \sup_{\theta > 0} \left[\theta x - \log E[\exp(\theta X)]\right].</math>
: <math>I(x) = \sup_{\theta > 0} \left[\theta x - \log E[\exp(\theta X)]\right].</math>


==Court historique==
== Court historique ==
Les premiers résultats rigoureux concernant les grandes déviations sont dus au mathématicien suédois [[Harald Cramér]], qui les a appliqués pour modéliser les problèmes d'assurance. Du point de vue des compagnies d'assurances, les revenus sont à taux constant par mois (les mensualités), mais les dépenses sont aléatoires. Pour que la compagnie soit bénéficiaire après une durée de plusieurs mois, la somme totale de revenus doit être supérieure aux dépenses totales. Ainsi pour estimer les mensualités, vous devez vous demander : "Quelles mensualités <math> q </math> devons-nous choisir pour que, après ''N'' mois, les dépenses totales <math> C = \Sigma X_i </math> soient inférieures à <math> Nq </math> ?" Ce qui est clairement la même question posée par la théorie des grandes déviations. Cramér a donné une solution à cette question pour des [[Variable aléatoire|variables aléatoires]] i.i.d avec une fonction de taux sous forme de [[série entière]].
Les premiers résultats rigoureux concernant les grandes déviations sont dus au mathématicien suédois [[Harald Cramér]], qui les a appliqués pour modéliser les problèmes d'assurance. Du point de vue des compagnies d'assurances, les revenus sont à taux constant par mois (les mensualités), mais les dépenses sont aléatoires. Pour que la compagnie soit bénéficiaire après une durée de plusieurs mois, la somme totale de revenus doit être supérieure aux dépenses totales. Ainsi pour estimer les mensualités, vous devez vous demander : "Quelles mensualités <math> q </math> devons-nous choisir pour que, après ''N'' mois, les dépenses totales <math> C = \Sigma X_i </math> soient inférieures à <math> Nq </math> ?" Ce qui est clairement la même question posée par la théorie des grandes déviations. Cramér a donné une solution à cette question pour des [[Variable aléatoire|variables aléatoires]] i.i.d avec une fonction de taux sous forme de [[série entière]].
Les résultats cités ci-dessus ont été obtenus plus tard par {{Lien|lang=en|Herman Chernoff}} ainsi que d'autres personnes. Donnons une liste incomplète de mathématiciens qui ont fait d'importantes avancées : [[Sathamangalam R. Srinivasa Varadhan|S.R.S. Varadhan]] (qui a obtenu pour ces travaux le [[prix Abel]]), [[David Ruelle (physicien)|D. Ruelle]] et [[Oscar E Lanford III|O.E. Lanford]].
Les résultats cités ci-dessus ont été obtenus plus tard par {{Lien|lang=en|Herman Chernoff}} ainsi que d'autres personnes. Donnons une liste incomplète de mathématiciens qui ont fait d'importantes avancées : [[Sathamangalam R. Srinivasa Varadhan|S.R.S. Varadhan]] (qui a obtenu pour ces travaux le [[prix Abel]]), [[David Ruelle (physicien)|D. Ruelle]] et [[Oscar E Lanford III|O.E. Lanford]].


==Applications==
== Applications ==
Les principes des grandes déviations peuvent effectivement être appliqués pour récupérer des informations d'un modèle probabiliste. Ainsi la théorie des grandes déviations trouve des applications dans la [[théorie de l'information]] et la [[gestion du risque]]. En physique, l'application la plus connue de la théorie des grandes déviations est en [[thermodynamique]] et en [[mécanique statistique]] (en connexion avec l'[[Entropie (thermodynamique)#Définition de l'entropie selon la physique statistique|entropie]] correspondant à la fonction de taux).
Les principes des grandes déviations peuvent effectivement être appliqués pour récupérer des informations d'un modèle probabiliste. Ainsi la théorie des grandes déviations trouve des applications dans la [[théorie de l'information]] et la [[gestion du risque]]. En physique, l'application la plus connue de la théorie des grandes déviations est en [[thermodynamique]] et en [[mécanique statistique]] (en connexion avec l'[[Entropie (thermodynamique)#Définition de l'entropie selon la physique statistique|entropie]] correspondant à la fonction de taux).


Ligne 62 : Ligne 62 :
La fonction de taux est reliée à l'[[Entropie (thermodynamique)#Définition de l'entropie selon la physique statistique|entropie]] en mécanique statistique. Ceci peut être heuristiquement vu de la façon suivante. En mécanique statistique, l'entropie d'un état macroscopique particulier est associé au nombre d'état microscopiques qui correspondent à cet état macroscopique. Dans notre exemple de lancer de pièce, la moyenne <math> M_N </math> peut désigner un état macroscopique particulier. Et la suite de ''pile'' ou ''face'' qui donne une valeur de <math> M_N </math> constitue un état microscopique particulier le composant. Plus simplement, un état macroscopique ayant un grand nombre d'états microscopiques le composant a une grande entropie. Et un état avec une grande entropie a plus de chance d'être réalisé. L'état macroscopique de moyenne nulle (autant de pile que de face) a la plus grand nombre d'état microscopiques le composant et est l'état avec la plus grande entropie. D'un autre côté, La fonction de taux mesure la probabilité d'apparition d'un état macroscopique particulier. Plus la fonction de taux est petite, plus l'état macroscopique a de chance d'apparaitre. Dans notre pile ou face, la fonction de taux vaut 0 en 0. Dans ce cas, on peut assimiler la fonction de taux à l'opposé de l'entropie.
La fonction de taux est reliée à l'[[Entropie (thermodynamique)#Définition de l'entropie selon la physique statistique|entropie]] en mécanique statistique. Ceci peut être heuristiquement vu de la façon suivante. En mécanique statistique, l'entropie d'un état macroscopique particulier est associé au nombre d'état microscopiques qui correspondent à cet état macroscopique. Dans notre exemple de lancer de pièce, la moyenne <math> M_N </math> peut désigner un état macroscopique particulier. Et la suite de ''pile'' ou ''face'' qui donne une valeur de <math> M_N </math> constitue un état microscopique particulier le composant. Plus simplement, un état macroscopique ayant un grand nombre d'états microscopiques le composant a une grande entropie. Et un état avec une grande entropie a plus de chance d'être réalisé. L'état macroscopique de moyenne nulle (autant de pile que de face) a la plus grand nombre d'état microscopiques le composant et est l'état avec la plus grande entropie. D'un autre côté, La fonction de taux mesure la probabilité d'apparition d'un état macroscopique particulier. Plus la fonction de taux est petite, plus l'état macroscopique a de chance d'apparaitre. Dans notre pile ou face, la fonction de taux vaut 0 en 0. Dans ce cas, on peut assimiler la fonction de taux à l'opposé de l'entropie.


==Note et bibliographie==
== Note et bibliographie ==
===Note===
=== Note ===
<references />
<references />
===Bibliographie (en anglais)===
=== Bibliographie (en anglais) ===
* S. R. S. Varadhan, [http://arxiv.org/abs/0804.2330v1 ''Special invited paper: Large deviations''], The Annals of Probability 2008, Vol. 36, No. 2, 397–419 DOI: 10.1214/07-AOP348
* S. R. S. Varadhan, [http://arxiv.org/abs/0804.2330v1 ''Special invited paper: Large deviations''], The Annals of Probability 2008, Vol. 36, No. 2, 397–419 DOI: 10.1214/07-AOP348
* Richard S. Ellis, ''Entropy, Large Deviations and Statistical Mechanics'', Springer Publication. ISBN 3-540-29059-1
* Richard S. Ellis, ''Entropy, Large Deviations and Statistical Mechanics'', Springer Publication. {{ISBN|3-540-29059-1}}
* {{Lien|trad=Alan Weiss (mathematician)|Alan Weiss (mathématicien)|texte=Alan Weiss}} et Adam Shwartz, ''Large Deviations for Performance Analysis'', Chapman and Hall ISBN 0-412-06311-5
* {{Lien|trad=Alan Weiss (mathematician)|Alan Weiss (mathématicien)|texte=Alan Weiss}} et Adam Shwartz, ''Large Deviations for Performance Analysis'', Chapman and Hall {{ISBN|0-412-06311-5}}
* Amir Dembo et Ofer Zeitouni, ''Large Deviations Techniques and Applications'', Springer ISBN 0-387-98406-2
* Amir Dembo et Ofer Zeitouni, ''Large Deviations Techniques and Applications'', Springer {{ISBN|0-387-98406-2}}
* Mark I. Freidlin et Alexander D. Wentzell., ''Random Perturbations of Dynamical Systems'', Springer ISBN 0-387-98362-7
* Mark I. Freidlin et Alexander D. Wentzell., ''Random Perturbations of Dynamical Systems'', Springer {{ISBN|0-387-98362-7}}


==Voir également==
== Voir également ==
===Articles connexes===
=== Articles connexes ===
*[[Inégalité de Chernoff]]
*[[Inégalité de Chernoff]]
*[[Loi des grands nombres]]
*[[Loi des grands nombres]]


===Liens externes===
=== Liens externes ===
*{{en}} [http://www.cl.cam.ac.uk/Research/SRG/netos/old-projects/measure/tutorial/rev-tutorial.ps.gz An elementary introduction to the Large Deviations Theory]
*{{en}} [http://www.cl.cam.ac.uk/Research/SRG/netos/old-projects/measure/tutorial/rev-tutorial.ps.gz An elementary introduction to the Large Deviations Theory]
*{{en}} [http://www.abelprisen.no/en/prisvinnere/2007/ Abel Prize 2007 awarded to S.R.S. Varadhan]
*{{en}} [http://www.abelprisen.no/en/prisvinnere/2007/ Abel Prize 2007 awarded to S.R.S. Varadhan]

Version du 21 janvier 2017 à 17:33

Le principe de grandes déviations, en théorie des probabilités, concerne le comportement asymptotique de queues de suite de loi de probabilités. Quelques premières idées de la théorie ont été données par Laplace et Cramér ; depuis, une définition formelle a été introduite en 1966 par Varadhan[1]. La théorie des grandes déviations formalise les idées heuristiques de la concentration des mesures et généralise la notion de convergence en loi.

La théorie des grandes déviations concerne la décroissance exponentielle des mesures de probabilité de certains types d'évènements extrêmes ou de queue, lorsque le nombre d'observations est arbitrairement grand.

Exemples introductifs

Un exemple élémentaire

Soit une suite de pile ou face indépendants (non biaisés). Notons par le résultat du i-ième lancer, où face donne et pile donne . Soit la moyenne après N lancers, c'est-à-dire

.

Ainsi est compris entre -1 et 1. En utilisant la loi des grands nombres, on déduit que est de plus en plus proche de 0, avec une probabilité croissante, quand N est de plus en plus grand. Donnons une explication plus précise. Pour une valeur fixée, calculons la probabilité . Définissons

.

Alors, par l'inégalité de Chernoff, on peut montrer que . Cette borne est optimale dans le sens où ne peut pas être remplacé par un nombre plus grand qui assurerait l'inégalité pour tout N strictement positif (bien que la borne exponentielle puisse toujours être réduite à un facteur sous-exponentiel près de l'ordre de ). La probabilité décroit exponentiellement rapidement quand N est grand, à une vitesse dépendant de x.

Grandes déviations pour des sommes de variables aléatoires indépendantes

Dans l'exemple ci-dessus avec des lancers de pièces, chaque lancer est indépendant des autres, et les probabilités sont les mêmes pour chaque lancer. Autrement dit, les variables aléatoires sont i.i.d. (indépendantes et identiquement distribuées). Pour des variables i.i.d. dont la loi commune vérifie une certaine condition de croissance, la théorie des grandes déviations assure que la limite suivante existe :

La fonction est appelée la "fonction de taux" ou "fonction de Cramér" ou parfois "entropie". L'existence d'une telle limite donne la décroissance exponentielle mentionnée précédemment et implique que, pour N grand, est de la forme :

Remarquons que l'inégalité donnée dans le premier paragraphe, comparée à cette formule asymptotique, n'est plus valide dans des cas plus généraux.

Dans le cas i.i.d., si la loi de probabilité des variables est connue, il existe une expression explicite de la fonction de taux, donnée par la transformée de Cramér définie par

où la fonction est appelée fonction génératrice des cumulants, donnée par

Ici, est l'espérance par rapport à la loi de probabilité de et est l'un des . Si la loi de est normale, la fonction de taux est une parabole.

Si la condition i.i.d. est affaiblie, en particulier si les variables ne sont pas indépendantes mais satisfont la propriété de Markov, le résultat de grandes déviations précédent peut être généralisé.

Définition formelle

Soit un espace polonais et une suite de mesures de probabilités sur , soit une suite de nombres réels strictement positifs telle que , et finalement, soit une fonction semi-continue inférieurement sur . La suite vérifie le principe de grandes déviations avec une vitesse et un taux , si et seulement si pour tout ensemble borélien mesurable

et désignent respectivement l'adhérence et l'intérieur de .

Espace de Banach

Théorème (démontré par Donsker et Varadhan[2] en 1976)

Soient X un espace de Banach séparable, une loi de probabilité sur X qui admet des moments exponentiels finis, des variables aléatoires i.i.d. de loi et de moyenne . Alors pour tout borélien E de X,

est la transformée de Cramér (ou transformée de Legendre ou transformée de Fenchel-Legendre) définie par

Court historique

Les premiers résultats rigoureux concernant les grandes déviations sont dus au mathématicien suédois Harald Cramér, qui les a appliqués pour modéliser les problèmes d'assurance. Du point de vue des compagnies d'assurances, les revenus sont à taux constant par mois (les mensualités), mais les dépenses sont aléatoires. Pour que la compagnie soit bénéficiaire après une durée de plusieurs mois, la somme totale de revenus doit être supérieure aux dépenses totales. Ainsi pour estimer les mensualités, vous devez vous demander : "Quelles mensualités devons-nous choisir pour que, après N mois, les dépenses totales soient inférieures à  ?" Ce qui est clairement la même question posée par la théorie des grandes déviations. Cramér a donné une solution à cette question pour des variables aléatoires i.i.d avec une fonction de taux sous forme de série entière. Les résultats cités ci-dessus ont été obtenus plus tard par Herman Chernoff ainsi que d'autres personnes. Donnons une liste incomplète de mathématiciens qui ont fait d'importantes avancées : S.R.S. Varadhan (qui a obtenu pour ces travaux le prix Abel), D. Ruelle et O.E. Lanford.

Applications

Les principes des grandes déviations peuvent effectivement être appliqués pour récupérer des informations d'un modèle probabiliste. Ainsi la théorie des grandes déviations trouve des applications dans la théorie de l'information et la gestion du risque. En physique, l'application la plus connue de la théorie des grandes déviations est en thermodynamique et en mécanique statistique (en connexion avec l'entropie correspondant à la fonction de taux).

Estimer des déviations

La moyenne est appelée la moyenne empirique des variables i.i.d. . Notons la vraie moyenne. Par la loi des grands nombres, pour tout , on obtient

.

Ainsi l'évènement (noté dans la définition formelle) décrit la déviation entre et .

Cas de la loi normale
Si sont les variables aléatoires i.i.d. de loi normale centrée réduite alors est de loi . Ainsi

Les grandes déviations sont alors données par :

.

Cela signifie que dévie de son comportement typique en prenant de grandes valeurs avec une (faible) probabilité d'ordre de .

Grandes déviations et entropie

La fonction de taux est reliée à l'entropie en mécanique statistique. Ceci peut être heuristiquement vu de la façon suivante. En mécanique statistique, l'entropie d'un état macroscopique particulier est associé au nombre d'état microscopiques qui correspondent à cet état macroscopique. Dans notre exemple de lancer de pièce, la moyenne peut désigner un état macroscopique particulier. Et la suite de pile ou face qui donne une valeur de constitue un état microscopique particulier le composant. Plus simplement, un état macroscopique ayant un grand nombre d'états microscopiques le composant a une grande entropie. Et un état avec une grande entropie a plus de chance d'être réalisé. L'état macroscopique de moyenne nulle (autant de pile que de face) a la plus grand nombre d'état microscopiques le composant et est l'état avec la plus grande entropie. D'un autre côté, La fonction de taux mesure la probabilité d'apparition d'un état macroscopique particulier. Plus la fonction de taux est petite, plus l'état macroscopique a de chance d'apparaitre. Dans notre pile ou face, la fonction de taux vaut 0 en 0. Dans ce cas, on peut assimiler la fonction de taux à l'opposé de l'entropie.

Note et bibliographie

Note

  1. (en) S.R.S. Varadhan, Asymptotic probability and differential equations, Communications on Pure and Applied Mathematics, 19 (1966),261-286.
  2. R. Azencott, Grandes deviations et applications, Ecole d’Eté de Probabilités de Saint-Flour VIII-1978, Lecture Notes in Mathematics, 1980, Volume 774/1980, 1-176, DOI: 10.1007/BFb0089623

Bibliographie (en anglais)

Voir également

Articles connexes

Liens externes