Aller au contenu

Lemme de classe monotone

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 9 décembre 2021 à 10:36 et modifiée en dernier par Jrcourtois (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

Le lemme de classe monotone, dû à Wacław Sierpiński[1] et popularisé par Dynkin[2], permet de démontrer, de manière économique, l'égalité entre deux lois de probabilité : de même que deux applications linéaires qui coïncident sur une base coïncident sur l'espace entier, deux mesures de probabilité qui coïncident sur un π-système, coïncident sur la tribu engendrée par ce π-système.

Dans certains ouvrages, le lemme de classe monotone apparaît sous le nom de « Théorème pi-lambda de Dynkin ».

Classe monotone et π-système

Définition — 

  • Une classe de parties d'un ensemble Ω est appelé π-système si cette classe est stable par intersection finie :
  • Une classe de parties d'un ensemble Ω est appelé λ-système ou classe monotone si cette classe contient Ω et est stable par différence, et par réunion croissante :
Exemples de π-systèmes :
  • une classe d'intervalles :
  • la classe des singletons :
  • la classe des pavés :
Un exemple de classe monotone :

Soit deux mesures de probabilité et définies sur La classe est une classe monotone.

Énoncé et démonstration du lemme de classe monotone

Lemme de classe monotone —  La plus petite classe monotone contenant le π-système est la tribu engendrée par

Applications

Lemme d'unicité des mesures de probabilité

Le lemme de classe monotone a une conséquence immédiate

Lemme d'unicité des mesures de probabilité —  Deux mesures de probabilité et définies sur l'espace probabilisable et coincidant sur le π-système coïncident aussi sur la tribu engendrée par  :

Parmi de nombreuses applications importantes du lemme d'unicité, citons celle qui est peut-être la plus importante :

Corollaire — Il suit que :

Critères d'indépendance

Par exemple,

Critères — Soit X et Y deux variables aléatoires réelles définies sur un espace probabilisé

  • Si, pour tout couple (x,y) de nombres réels,
alors X et Y sont indépendantes.
  • Si Y est à valeurs dans et si, pour tout couple
alors X et Y sont indépendantes.
  • Bien sûr, si X et Y sont à valeurs dans et si, pour tout couple
alors X et Y sont indépendantes.

La démonstration du dernier critère ne nécessite pas le lemme de classe monotone, mais ce lemme est très utile pour la démonstration des deux premiers critères. On peut utiliser le deuxième critère pour démontrer, par exemple, que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations. Pour la démonstration de ces critères, ainsi que pour la démonstration du lemme de regroupement, on a besoin de la définition et de la proposition[5] suivantes.

Définition — Dans un espace probabilisé une famille finie de classes incluses dans est une famille indépendante si et seulement si

Proposition — Si, dans un espace probabilisé une famille finie de π-systèmes inclus dans est une famille indépendante, alors la famille est une famille de tribus indépendantes.

Applications :
  • Posons et Alors, sous les hypothèses du premier critère, et sont des π-systèmes indépendants. En vertu de la proposition, et sont alors des tribus indépendantes. Mais et ce qui assure bien l'indépendance du couple (X,Y).
  • Posons et Sous les hypothèses du deuxième critère, et sont des π-systèmes indépendants. Par ailleurs, et et on conclut comme précédemment. Pour démontrer le troisième critère, on utilise cette fois et

Voir aussi

Notes et références

  1. 1928, Un théorème général sur les familles d'ensembles, Fund. Math, 12, 206-210,
  2. (en) Eugene Dynkin (dir.) (trad. D. E. Brown), Theory of Markov Processes, Dover Publications Inc, (1re éd. 1961), 224 p. (ISBN 978-0-486-45305-7 et 0-486-45305-7, lire en ligne), chap. 1, p. 1-2.
  3. Par définition de (voir tribu engendrée) est la plus petite (pour l'inclusion) tribu contenant alors que est une tribu contenant Donc est plus petite (pour l'inclusion) que autrement dit
  4. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], démonstration développée à partir de la démonstration du Théorème 1.1, page 2.
  5. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], Lemme 3.6, page 50.

Bibliographie

  • (en) Olav Kallenberg, Foundations of Modern Probability, New York, Springer, coll. « Probability and Its Applications », (réimpr. 2001), 638 p. (ISBN 0-387-95313-2, lire en ligne)

Pages liées