Méthode des moments (statistiques)

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Méthode des moments.

La méthode des moments est un outil d'estimation intuitif qui date du début des statistiques.

Elle consiste à estimer les paramètres recherchés en égalisant certains moments théoriques (qui dépendent de ces paramètres) avec leurs contreparties empiriques. L'égalisation se justifie par la loi des grands nombres qui implique que l'on peut "approcher" une espérance mathématique par une moyenne empirique. On est donc amené à résoudre un système d'équations.

Formalisation mathématique[modifier | modifier le code]

On suppose que l'échantillon X1,…, Xn est un échantillon iid (identiquement et indépendamment distribué) selon une famille de lois paramétriques, paramétrée par θ. Toute fonction des données de l'échantillon est donc une fonction F(θ). C'est particulièrement le cas des moments de la famille, si ceux-ci existent.

On sélectionne alors s moments G=\left[m_1(\theta), m_2(\theta), \cdots, m_s(\theta)\right], qui définissent un vecteur s×1. Il existe donc une fonction G telle que G(\theta)=\left[m_1(\theta), m_2(\theta), \cdots, m_s(\theta)\right]. L'équivalent empirique du vecteur G est le vecteur composé des s moments d'échantillon, noté \widehat{G}. Cela signifie que l'on remplace le i-ème moment théorique, à savoir E_\theta(X^i), par la quantité :

\widehat{m}_i = \frac{1}{n} \sum_{k=1}^n x_k^i

L'estimateur de θ par la méthode des moments, noté \widehat{\theta}, consiste à résoudre l'équation vectorielle :

\widehat{G} = G(\widehat{\theta})

Exemple[modifier | modifier le code]

Supposons que X1,…, Xn sont des variables aléatoires iid selon la loi Gamma avec pour densité

f(x;\alpha,\beta) = {x^{\alpha-1} e^{-x/\beta} \over \beta^\alpha\, \Gamma(\alpha)} \, \!pour x > 0, et 0 lorsque x < 0.

On cherche à estimer le vecteur des paramètres \theta = [\alpha;\beta]


On détermine d'abord les moments théoriques.

Le premier moment, l'espérance, est donné par
\operatorname{E}(X)\equiv m_1=\alpha\beta\,
et le second moment, l'espérance du carré de la variable, est
\operatorname{E}(X^2)\equiv m_2=\beta^2\alpha(\alpha+1).\,

On exprime ensuite la relation entre les paramètres et les moments théoriques :

\begin{cases}  \alpha\beta & =  m_{1}\\ \beta^2\alpha(\alpha+1) & =  m_{2} \end{cases}

la résolution donne :

\alpha={ m_{1}^2 
\over m_{2} - m_{1}^2}\,\!

et

\beta={ m_{2} - m_{1}^2 \over m_{1}}.\,\!

Une fois cette relation établie, la méthode des moments consiste à utiliser les moments empiriques, en l'occurrence pour notre exemple les deux premiers, \hat m_{1} et \hat m_{2}:

\hat m_{1} = {X_1+\cdots+X_n \over n} \,\!

et

\hat m_{2} = {X_1^2+\cdots+X_n^2 \over n}.\,\!

que l'on pose égaux aux moments théoriques :

\hat m_{1} =  m_{1}\,\!
\hat m_{2} =  m_{2}\,\!


La résolution en α et β fournit alors :

\hat\alpha={ \hat m_{1}^2 
\over \hat m_{2} - \hat m_{1}^2}\,\!

et

\hat\beta={ \hat m_{2} - \hat m_{1}^2 \over \hat m_{1}}.\,\!

Avantages et désavantages de cette méthode[modifier | modifier le code]

Dans certains cas, la méthode des moments n'est pas capable d'atteindre la borne de Cramér-Rao : l'estimation est donc dépassée par l'estimation par maximum de vraisemblance[réf. nécessaire].

Toutefois, dans certains cas comme celui de la loi Gamma, le calcul de la fonction de vraisemblance peut poser des problèmes (l'utilisation de l'ordinateur et d'algorithmes numériques est indispensable) tandis que l'estimation des moments est très facilement accessible[réf. nécessaire].

La méthode des moments peut s'utiliser comme point de départ pour maximiser la (log-)vraisemblance : en effet, on doit utiliser dans ce cas des algorithmes numériques, comme la Méthode de Newton, qui nécessitent des points de départ[réf. nécessaire].

Par contre, lorsque la taille de l'échantillon n'est pas suffisamment grande, la loi des grands nombres ne s'applique pas et par conséquent, les moments empiriques n'approchent pas suffisamment bien les moments théoriques. Ainsi, la méthode des moments n'est pas une méthode de confiance dans ce cas: les estimateurs ainsi obtenus peuvent avoir tendance à sortir du support des paramètres. Par exemple, pour la loi gamma, un faible échantillon peut conduire à α < 0.

Enfin, nous avons vu que la méthode des moments consiste à résoudre :

\widehat{G} = G(\widehat{\theta})

ce qui n'est pas toujours possible. On peut alors chercher à minimiser sur θ la forme quadratique suivante

g'(\theta)Wg(\theta)

g(\theta) = G(\theta) - G

et où W est une matrice (s × s) de pondération. Résoudre ce système revient à résoudre approximativement g(\widehat{\theta})\approx 0. Cette idée est le point de départ de la méthode des moments généralisée (en).

Notes et références[modifier | modifier le code]

Voir aussi[modifier | modifier le code]