Aller au contenu

Théorème des deux séries de Kolmogorov

Un article de Wikipédia, l'encyclopédie libre.

En théorie des probabilités, le théorème des deux séries de Kolmogorov est un résultat sur la convergence des séries aléatoires. Il résulte de l'inégalité de Kolmogorov et est utilisé dans une preuve de la loi forte des grands nombres .

Énoncé du théorème[modifier | modifier le code]

Soit une suite de variables aléatoires indépendantes d'espérance et de variance , tel que et convergent dans ℝ. Alors converge dans ℝ presque sûrement .

Preuve[modifier | modifier le code]

Supposons sans perte de généralité que . Posons . Nous allons voir que presque sûrement

Pour chaque ,

Ainsi, pour chaque et ,
Alors que la deuxième inégalité est due à l'inégalité de Kolmogorov .

En supposant que converge, il s'ensuit que le dernier terme tend vers 0 lorsque , pour chaque .

Références[modifier | modifier le code]

  • Durrett, Rick. Probabilité: théorie et exemples. Duxbury advanced series, troisième édition, Thomson Brooks / Cole, 2005, section 1.8, pp.   60–69.
  • M. Loève, Théorie des probabilités, Princeton Univ. Presse (1963) pp. Secte. 16,3
  • W. Feller, Une introduction à la théorie des probabilités et ses applications, 2, Wiley (1971) pp. Secte. IX.9