Lemme de classe monotone

Un article de Wikipédia, l'encyclopédie libre.

Le lemme de classe monotone, dû à Wacław Sierpiński[1] et popularisé par Eugene Dynkin[2], permet de démontrer, de manière économique, l'égalité entre deux lois de probabilité : de même que deux applications linéaires qui coïncident sur une base coïncident sur l'espace entier, deux mesures de probabilité qui coïncident sur un π-système, coïncident sur la tribu engendrée par ce π-système.

Dans certains ouvrages, le lemme de classe monotone apparaît sous le nom de « théorème pi-lambda de Dynkin ».

Classe monotone et π-système[modifier | modifier le code]

Définition — 

  • Une classe de parties d'un ensemble Ω est appelée π-système si cette classe est stable par intersection finie :
  • Une classe de parties d'un ensemble Ω est appelée λ-système ou classe monotone si cette classe contient Ω et est stable par différence, et par réunion croissante :
Exemples de π-systèmes :
  • une classe d'intervalles :
  • la classe des singletons :
  • la classe des pavés :
Un exemple de classe monotone :

Soit deux mesures de probabilité et définies sur La classe est une classe monotone.

Énoncé et démonstration du lemme de classe monotone[modifier | modifier le code]

Lemme de classe monotone —  La plus petite classe monotone contenant le π-système est la tribu engendrée par

Applications[modifier | modifier le code]

Lemme d'unicité des mesures de probabilité[modifier | modifier le code]

Le lemme de classe monotone a une conséquence immédiate

Lemme d'unicité des mesures de probabilité —  Deux mesures de probabilité et définies sur l'espace probabilisable et coincidant sur le π-système coïncident aussi sur la tribu engendrée par  :

Parmi de nombreuses applications importantes du lemme d'unicité, citons celle qui est peut-être la plus importante :

Corollaire — Il suit que :

Critères d'indépendance[modifier | modifier le code]

Par exemple,

Critères — Soit X et Y deux variables aléatoires réelles définies sur un espace probabilisé

  • Si, pour tout couple (x,y) de nombres réels,
alors X et Y sont indépendantes.
  • Si Y est à valeurs dans et si, pour tout couple
alors X et Y sont indépendantes.
  • Bien sûr, si X et Y sont à valeurs dans et si, pour tout couple
alors X et Y sont indépendantes.

La démonstration du dernier critère ne nécessite pas le lemme de classe monotone, mais ce lemme est très utile pour la démonstration des deux premiers critères. On peut utiliser le deuxième critère pour démontrer, par exemple, que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations. Pour la démonstration de ces critères, ainsi que pour la démonstration du lemme de regroupement, on a besoin de la définition et de la proposition[5] suivantes.

Théorème — Définition Dans un espace probabilisé une famille finie de classes incluses dans est une famille mutuellement indépendante si et seulement si

Théorème — Proposition Si, dans un espace probabilisé une famille finie de π-systèmes inclus dans est une famille mutuellement indépendante, alors la famille est une famille de tribus mutuellement indépendantes.

Applications :
  • Posons et Alors, sous les hypothèses du premier critère, et sont des π-systèmes indépendants. En vertu de la proposition, et sont alors des tribus indépendantes. Mais et ce qui assure bien l'indépendance du couple (X,Y).
  • Posons et Sous les hypothèses du deuxième critère, et sont des π-systèmes indépendants. Par ailleurs, et et on conclut comme précédemment. Pour démontrer le troisième critère, on utilise cette fois et

Voir aussi[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. 1928, Un théorème général sur les familles d'ensembles, Fund. Math, 12, 206-210,
  2. (en) Eugene Dynkin (dir.) (trad. D. E. Brown), Theory of Markov Processes, Dover Publications Inc., (1re éd. 1961), 224 p. (ISBN 978-0-486-45305-7 et 0-486-45305-7, lire en ligne), chap. 1, p. 1-2.
  3. Par définition de (voir tribu engendrée) est la plus petite (pour l'inclusion) tribu contenant alors que est une tribu contenant Donc est plus petite (pour l'inclusion) que autrement dit
  4. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], démonstration développée à partir de la démonstration du Théorème 1.1, page 2.
  5. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], Lemme 3.6, page 50.

Bibliographie[modifier | modifier le code]

  • (en) Olav Kallenberg, Foundations of Modern Probability, New York, Springer, coll. « Probability and Its Applications », (réimpr. 2001), 638 p. (ISBN 0-387-95313-2, lire en ligne)

Pages liées[modifier | modifier le code]