Variable antithétique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Les variables antithétiques sont une des techniques de réduction de la variance employées dans la méthode de Monte-Carlo. Il s'agit de tirer parti de certaines symétries d'une distribution et de la corrélation négative entre deux variables aléatoires.

Principe[modifier | modifier le code]

On souhaite estimer \theta = \mathrm{E}( h(X) ), où X est une variable aléatoire et \mathrm{E} désigne son espérance mathématique. La méthode de Monte-Carlo de base consiste à simuler n variables iid selon la loi de X, disons X_1, X_2, \cdots, X_n, puis à estimer \theta par

\hat \theta = \frac{1}{n} \sum_{i=1}^n h(X_i).

On peut avoir une idée de l'erreur commise en construisant un intervalle de confiance ; ce dernier nécessite un estimateur de la variance de l'estimateur \sigma^2_{\hat \theta}.

Supposons que l'on dispose de deux échantillons de taille n ; le premier est noté X_1, X_2, \cdots, X_n et le second X'_1, X'_2, \cdots, X'_n. Pour simplifier les notations, on pose m_1,m_2 les estimateurs empiriques de l'espérance de h(X) sur respectivement l'échantillon 1 et 2. Autrement dit, on aura

m_1 = \frac{h(X_1) + \cdots + h(X_n)}{n}

et

m_2 = \frac{h(X'_1) + \cdots + h(X'_n)}{n}.

L'estimateur Monte-Carlo sur l'échantillon complet est simplement

\hat \theta = \frac{m_1 + m_2}{2}

et, du point de vue de la variance :

\sigma^2_{\hat \theta} = \frac{\sigma^2_{m_1} + \sigma^2_{m_2} + 2 \mathrm{Cov}(m_1, m_2)}{4}.

Dans le cas iid, la covariance s'annule et \sigma^2_{m_1}=\sigma^2_{m_2}, si bien que \sigma^2_{\hat \theta} = \sigma^2_{m_1}/2 : le facteur 2 s'explique car on a doublé la taille de l'échantillon.

La technique de la variable antithétique consiste à choisir l'échantillon 2 identiquement distribué selon la loi de X mais en renonçant à l'indépendance, plus précisément en s'arrangeant pour que \mathrm{Cov}(m_1, m_2) < 0. Il faut donc exploiter les éléments de symétrie de la loi de X afin de construire le second échantillon à partir du premier, en s'assurant de la négativité de la covariance. Ce faisant, la variance sera inférieure à la variance "normale" \sigma^2_{m_1}/2.

Par exemple, si la loi de X est la loi uniforme sur [0;1], le premier échantillon sera simplement u_1, \cdots, u_n, où pour tout i, u_i est tirée selon U(0;1). On construit le second échantillon u'_1, \cdots, u'_n, en posant pour tout i: u'_i = 1-u_i. Si les u_1 sont uniformes sur [0;1], alors il en va de même pour les u'_i. De plus, la covariance est négative, ce qui permet de réduire la variance initiale.

Un autre exemple concerne la loi normale N(\mu,s). En appliquant la transformation x'_i= 2\mu - x_i, où x_i \sim N(\mu, s), on obtient un tirage dans N(\mu,s), qui est négativement corrélé avec le premier tirage x_i

Exemple : estimation d'une intégrale[modifier | modifier le code]

On souhaite estimer

I = \int_0^1 \frac{1}{1+x} \, \mathrm{d}x.

La valeur exacte est I=\ln 2 \approx 0,69314718055995. Cette intégrale peut se voir comme l'espérance de f(U), où

f(x) = \frac{1}{1+x}

et U distribuée selon une loi uniforme sur [0;1].

On compare l'estimateur Monte-Carlo classique (échantillon de taille 2n, avec n=1500, tiré selon la loi uniforme standard) à l'estimateur avec variable antithétique (échantillon de taille n, complété par l'échantillon transformé 1-u_i). La variance se réduit comme suit

Estimation Variance
Méthode classique 0,69365 0,02005
Variable antithétique 0,69399 0,00063

On constate une très nette réduction de la variance dans le cas de l'utilisation d'une variable antithétique.

Notes et références[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • M. Hammersley et K. W. Morton, A new Monte Carlo technique antithetic variates, Proc. Camb. Phil. Soc., 52, 449, 1956.

Liens externes[modifier | modifier le code]