Cumulant (statistiques)

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En théorie des probabilités et en statistique, une variable aléatoire X a une espérance mathématique μ = E(X) et une variance σ2 = E((X − μ)2). Ce sont les deux premiers cumulants : μ = κ1 et σ2 = κ2.

Les cumulants κn sont définis par la fonction génératrice des cumulants qui est g(t) :

g(t)=\ln( \mathbb E (e^{t\cdot X}))=\sum_{n=1}^\infty\kappa_n \frac{t^n}{n!}=\mu t + \sigma^2 \frac{ t^2}{2} + \cdots.

Elle est donc intimement liée à la fonction génératrice des moments et à la fonction caractéristique de la variable X. Les cumulants sont donnés par les dérivées en 0 de g(t) :

κ1 = μ = g' (0),
κ2 = σ2 = g' '(0),
κn = g(n) (0).

Une distribution avec des cumulants κn donnés peut être approchée par un développement d'Edgeworth.

Comme indiqué plus haut, les cumulants d'une distribution sont liés aux moments de la distribution. Travailler avec la fonction génératrice des cumulants est plus pratique dans la mesure où pour des variables indépendantes X et Y,

g_{X+Y}(t)=\ln( \mathbb E(e^{t\cdot (X+Y)}))=\ln( \mathbb E(e^{tX})\cdot \mathbb E(e^{tY}))=\ln( \mathbb E(e^{tX}))+\ln( \mathbb E(e^{tY}))=g_{X}(t)+g_{Y}(t) \,.

tandis qu'avec la fonction génératrice des moments M_X, on obtient

M_{X+Y}(t) =  \mathbb E(e^{t\cdot(X+Y)}) = \mathbb E(e^{tX}) \cdot  \mathbb E(e^{tY}) = M_X(t) \cdot M_Y(t).

Il faut enfin remarquer que :

g_{\alpha X}(t)=\ln( \mathbb E(e^{t\cdot \alpha X})) = g_{X}(\alpha t) \,.


Certains auteurs[1],[2] préfèrent définir la fonction génératrice des cumulants directement à partir de la fonction caractéristique d'une variable aléatoire comme le logarithme népérien de cette fonction caractéristique. La fonction génératrice des cumulants prend alors parfois le nom de seconde fonction caractéristique d'une distribution.

h(t)=\ln( \mathbb E(e^{i t X}))=\sum_{n=1}^\infty\kappa_n \cdot\frac{(it)^n}{n!}=\mu it - \sigma^2 \frac{ t^2}{2} + \cdots.\,

La caractérisation des cumulants est valide même pour les distributions dont les plus hauts moments n'existent pas.

Cumulants de quelques distributions discrètes[modifier | modifier le code]

  • La variable aléatoire constante X = 1. La dérivée de la fonction génératrice des cumulants est g'(t)=1. Le premier cumulant est donc κ1 = g '(0) = 1 et tous les autres cumulants sont nuls, κ2 = κ3 = κ4 = ... = 0.
  • La variable aléatoire Y = μ se déduit de la variable aléatoire précédente. La fonction génératrice des cumulants est donc g_Y(t) = g_X(\mu t)=\mu t. Bref, chaque cumulant est juste μ fois les cumulants précédents. On a donc κ1 = g '(0) = μ et les autres cumulants sont nuls, κ2 = κ3 = κ4 = ... = 0.
  • La loi de Bernoulli (nombre de succès dans une épreuve avec une probabilité de succès p). Le cas spécial p = 1 revient à la variable aléatoire X = 1. La fonction génératrice est g(t)=\ln(p e^t + (1-p)). Sa dérivée est g '(t) = ((p−1−1)·et + 1)−1. Finalement, les cumulants sont κ1 = g '(0) = p et κ2 = g ' '(0) = p·(1−p) . Les cumulants vérifient la formule de récurrence \scriptstyle\kappa_{n+1}=p\cdot(1-p)\cdot\tfrac{d\kappa_n}{dp}.\,
  • La loi géométrique (nombre de défaillances avant un succès, avec une probabilité de succès p à chaque expérience). La dérivée de la fonction génératrice des cumulants est g '(t) = ((1−p)−1·et−1)−1. Les premiers cumulants sont κ1 = g '(0) = p−1−1, et κ2 = g ' '(0) = κ1·p−1. En posant p = (μ+1)−1, on obtient g '(t) = ((μ−1+1)·et−1)−1 et κ1 = μ.
  • La loi de Poisson. La dérivée de la fonction génératrice des cumulants est g '(t) = μ·et. Tous les cumulants sont égaux au paramètre: κ1 = κ2 = κ3 = ...=μ.
  • La loi binomiale (n répétitions indépendantes de l'expérience de Bernoulli décrite plus haut). Chaque cumulant est juste n fois le cumulant associé de la loi de Bernoulli. La dérivée de la fonction génératrice des cumulants est g '(t) = n·((p−1−1)·et + 1)−1. Les premiers cumulants sont κ1 = g '(0) = n·p et κ2 = g ' '(0) = κ1·(1−p). En posant p = μ·n−1 cela donne g '(t) = ((μ−1n−1)·et+n−1)−1 et κ1 = μ. Le cas limite n−1 = 0 est une loi de Poisson.
  • La loi binomiale négative (nombre d'échecs avant n succès avec une probabilité de succès p à chaque expérience). Le cas spécial n = 1 est la loi géométrique. La dérivée de la fonction génératrice des cumulants est g '(t) = n·((1−p)−1·et−1)−1. Les premiers cumulants sont κ1 = g '(0) = n·(p−1−1) et κ2 = g ' '(0) = κ1·p−1. En posant p = (μ·n−1+1)−1, cela donne g '(t) = ((μ−1+n−1)·etn−1)−1 et κ1 = μ. Comparer ces formules à celles de la loi binomial permet de justifier le nom de 'loi binomiale négative'. Le cas limite n−1 = 0 est encore la loi Poisson.

En introduisant \epsilon=\mu^{-1}\sigma^2=k_1^{-1}k_2, les distributions précédentes donnent une formule unifiée pour la dérivée de la fonction génératrice des cumulants :

g'(t)=\mu\cdot(1+\epsilon\cdot (e^{-t}-1))^{-1}.

La dérivée seconde est

g''(t)=g'(t)\cdot(1+e^t\cdot (\epsilon^{-1}-1))^{-1}

confirmant que le premier cumulant est κ1 = g '(0) = μ et que le second cumulant est κ2 = g ' '(0) = μ·ε. Les variables aléatoires constantes X = μ sont telles que є = 0. Les lois binomiales vérifient є = 1 − p si bien que 0<є<1. Les lois de Poisson vérifient є = 1 tandis que les lois binomiales négatives se caractérisent par є = p−1 si bien que є > 1. Il faut noter l'analogie avec l'excentricité des coniques: cercles є = 0, ellipses 0 < є < 1, paraboles є = 1, hyperboles є > 1.

Cumulants de certaines lois continues[modifier | modifier le code]

  • Pour la loi normale, d'espérance μ et de variance σ2, la dérivée de la fonction génératrice des cumulants est g '(t) = μ + σ2·t. Les cumulants sont donc κ1 = μ, κ2 = σ2, et κ3 = κ4 = ... = 0. Le cas spécial σ2 = 0 conduit à une variable constante: X = μ.

Quelques propriétés des cumulants[modifier | modifier le code]

Invariance[modifier | modifier le code]

Les cumulants vérifient pour tout variable aléatoire X et tout constante c les relations: κ1(X + c) = κ1(X) + c et κn(X + c) = κn(X) pour n ≥ 2. Pour résumer, c est ajouté au premier cumulant, et tous les cumulants d'ordre supérieur sont inchangés.

Homogénéité[modifier | modifier le code]

Le n-ième cumulant est homogène de degré n, c'est-à-dire si c est une constante, alors:

\kappa_n(cX)=c^n\kappa_n(X).

Additivité[modifier | modifier le code]

Si X et Y sont indépendants, alors κn(X + Y) = κn(X) + κn(Y).

Un résultat en demi-teinte[modifier | modifier le code]

Sachant les résultats des cumulants de la loi normale, on pourrait espérer trouver des distributions pour lesquelles κm = κm+1 = ... = 0 pour un m>3, et où les cumulants d'ordre inférieur (ordres 3 à m -1) sont non-nuls. Il n'existe pas de telles distributions [3]. Ainsi, la fonction génératrice des cumulants ne peut être un polynôme de degré supérieur à 2.

Cumulants et moments[modifier | modifier le code]

La fonction génératrice des moments est :

1+\sum_{n=1}^\infty \frac{\mu'_n t^n}{n!}=\exp\left(\sum_{n=1}^\infty \frac{\kappa_n t^n}{n!}\right) = \exp(g(t)).

si bien que la fonction génératrice des cumulants est le logarithme de la fonction génératrice des moments. Le premier cumulant est l'espérance; les deuxième et troisième cumulants sont respectivement les deuxième et troisième moments centrés (le moment centré d'ordre 2 est la variance) ; mais les cumulants d'ordre supérieur ne sont pas égaux aux moments non-centrés, pas plus qu'aux moments centrés. Ce sont plutôt des polynômes de ces moments.

Les cumulants sont liés aux moments par la formule de récurrence :

\kappa_n=m_n-\sum_{k=1}^{n-1} \binom{n-1}{k-1} \, \kappa_k \, m_{n-k}.

Le n-ème moment mn est un polynôme de degré n des n premiers cumulants:

m_1 = \kappa_1
m_2 = \kappa_2 + \kappa_1^{\ 2}
m_3 = \kappa_3 + 3 \kappa_2 \kappa_1 + \kappa_1^{\ 3}
m_4 = \kappa_4 + 4 \kappa_3 \kappa_1 + 3 \kappa_2^{\ 2} + 6 \kappa_2 \kappa_1^{\ 2} + \kappa_1^{\ 4}
m_5 = \kappa_5 + 5 \kappa_4 \kappa_1 + 10 \kappa_3 \kappa_2 + 10 \kappa_3 \kappa_1^{\ 2} + 15 \kappa_2^{\ 2} \kappa_1 + 10 \kappa_2 \kappa_1^{\ 3} + \kappa_1^{\ 5}
m_6 = \kappa_6 + 6 \kappa_5 \kappa_1 + 15 \kappa_4 \kappa_2 + 10 \kappa_3^{\ 2} + 15 \kappa_4 \kappa_1^{\ 2} + 60 \kappa_3 \kappa_2 \kappa_1 + 15 \kappa_2^{\ 3} + 20 \kappa_3 \kappa_1^{\ 3} + 45 \kappa_2^{\ 2} \kappa_1^{\ 2} + 15 \kappa_2 \kappa_1^{\ 4} + \kappa_1^{\ 6}

Les coefficients sont précisément ceux qui apparaissent dans les polynômes de Bell et, par conséquent, dans la formule de Faà di Bruno.

Les moments mn ne doivent pas être confondus avec les moments centrés μn. Pour exprimer les moments centraux en fonction des cumulants, il suffit de poser κ1=0 :

\mu_1 = 0
\mu_2 = \kappa_2
\mu_3 = \kappa_3
\mu_4 = \kappa_4 + 3 \kappa_2^{\ 2}
\mu_5 = \kappa_5 + 10 \kappa_3 \kappa_2
\mu_6 = \kappa_6 + 15 \kappa_4 \kappa_2 + 10 \kappa_3^{\ 2} + 15 \kappa_2^{\ 3}
\mu_7 = \kappa_7 + 21 \kappa_5 \kappa_2 + 35 \kappa_4 \kappa_3 + 105 \kappa_3 \kappa_2^{\ 2}
\mu_8 = \kappa_8 + 28 \kappa_6 \kappa_2 + 56 \kappa_5 \kappa_3 + 35 \kappa_4^{\ 2} + 210 \kappa_4 \kappa_2^{\ 2} + 280 \kappa_3^{\ 2} \kappa_2 + 105 \kappa_2^{\ 4}

Lien avec la physique statistique[modifier | modifier le code]

En physique statistique, un système à l'équilibre avec un bain thermique à température T=1/\beta peut occuper des états d'énergie E. Soit f(E) la densité d'états d'énergie E. La fonction de partition du système est donné par

Z(\beta)=\langle \exp(-\beta E) \rangle

L'énergie libre du système est définie par

F(\beta)=(-1/\beta)\ln(Z)

L'énergie libre du système donne accès à l'ensemble des propriétés thermodynamiques du système comme son énergie interne, son entropie, sa chaleur spécifique

Histoire[modifier | modifier le code]

Les cumulants ont été définis en 1889 par l'astronome, mathématicien et actuaire danois Thorvald Nicolai Thiele (1838 - 1910). Thiele les appelle alors half-invariants (demi-invariants). Il faut attendre 1931 pour trouver l'appellation cumulants dans l'article The derivation of the pattern formulae of two-way partitions from those of simpler patterns par Ronald Aylmer Fisher et John Wishart (Proceedings of the London Mathematical Society, Series 2, v. 33, pp. 195-208). L'historien Stephen Stigler reporte que le nom cumulant fut suggéré à Fisher dans une lettre de Harold Hotelling. La fonction de partition pour l'ensemble canonique en physique statistique a été définie par Josiah Willard Gibbs en 1901.

Voir aussi[modifier | modifier le code]

Références[modifier | modifier le code]

  1. Kendall, M.G., Stuart, A. (1969) The Advanced Theory of Statistics, Volume 1 (3rd Edition). Griffin, London. (Section 3.12)
  2. Lukacs, E. (1970) Characteristic Functions (2nd Edition). Griffin, London. (Page 27)
  3. Lukacs, E. (1970) Characteristic Functions (2nd Edition), Griffin, London. (Theorem 7.3.5)

Liens externes[modifier | modifier le code]

  • Cumulant, un article de Eric W. Weisstein, sur mathworld