Espérance mathématique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Espérance.

En théorie des probabilités, l'espérance mathématique d'une variable aléatoire réelle est, intuitivement, la valeur que l'on s'attend à trouver, en moyenne, si l'on répète un grand nombre de fois la même expérience aléatoire. Elle se note \scriptstyle \mathbb E(X) et se lit « espérance de X ».

Elle correspond à une moyenne pondérée des valeurs que peut prendre cette variable. Dans le cas où celle-ci prend un nombre fini de valeurs, il s'agit d'une moyenne pondérée par les probabilités d'apparition de chaque valeur. Dans le cas où la variable aléatoire possède une densité de probabilité, l'espérance est la moyenne des valeurs pondérées par cette densité. De manière plus théorique, l'espérance d'une variable aléatoire est l'intégrale de cette variable selon la mesure de probabilité de l'espace probabilisé de départ.

La présentation intuitive de l'espérance exposée ci-dessus est la conséquence de la loi des grands nombres : l'espérance, si elle existe, est la limite presque-sûre de la moyenne des résultats au cours de plusieurs expériences, quand leur nombre augmente à l'infini.

Il n'existe pas toujours d'espérance pour une variable aléatoire. En particulier les distributions à longue traine comme la distribution de Cauchy, produisent des intégrales non convergentes et donc des espérances non définies.

L'espérance est une caractéristique importante d'une loi de probabilité : c'est un indicateur de position. Ainsi, une variable aléatoire est dite centrée si son espérance est nulle. Elle forme, avec la variance, indicateur de dispersion, l'ensemble des indicateurs qui sont presque systématiquement donnés quand est présentée une variable aléatoire.

L'espérance joue un rôle important dans un grand nombre de domaines, comme dans la théorie des jeux pour minimiser les risques, en théorie du signal ou en statistique inférentielle où un estimateur est dit sans biais si son espérance est égale à la valeur du paramètre à estimer.

La notion d'espérance est popularisé par Christiaan Huygens dans son Traité du hasard de 1656 sous le nom de « valeur de la chance ».

Motivations[modifier | modifier le code]

La notion d' espérance prend forme au XVIIe siècle en théorie des jeux. Il s'agit de savoir quelle somme on peut espérer gagner dans un jeu de hasard. Ainsi Blaise Pascal, dans son problème des partis, cherche à savoir comment répartir les mises quand le jeu s'interrompt en cours de partie[1] . Il imagine ainsi un jeu de pile ou face et un pot commun de 64 pistoles, le premier joueur à voir apparaitre trois fois la face qu'il a choisie remporte la mise. Si le jeu s'interrompt à un moment où chacun des deux joueurs a la même chance de gagner, il est équitable de répartir les 64 pistoles à parts égales entre chaque joueur, mais si la partie s'interrompt alors qu'un des joueurs a pris un avantage, la répartition doit se faire autrement. Pascal imagine ainsi que le jeu s'interrompt alors que le lancé de dé est PPF. Il envisage alors ce qu'aurait été le coup suivant :

  • si le coup suivant avait été P, le joueur ayant misé sur P aurait tout remporté et gagné 64 pistoles ;
  • si le coup suivant avait été F, la partie aurait été équitable et l'interruption du jeu aurait conduit à distribuer 32 pistoles à chaque joueur.

Pour Pascal, le joueur ayant misé sur P doit obtenir 32 pistoles à coup sûr mais a une chance sur 2 de gagner 32 pistoles supplémentaires. Il doit donc récupérer 48 pistoles.

Pascal ne parle pas de probabilité ni d'espérance de gain mais son idée intuitive reste d'associer un gain à une chance de l'obtenir[2]. Les 48 pistoles que Pascal propose de donner au joueur ayant misé sur P correspondent de fait à son espérance de gain : si la partie s'arrête au quatrième coup, ce joueur a une chance sur 2 de gagner 64 pistoles (si la pièce tombe sur P) et une chance sur 2 de gagner seulement 32 pistoles (si la pièce tombe sur F et que le jeu s'interrompt). Son espérance de gain est alors de  S=64\times\frac 12 + 32\times\frac 12 (on multiplie chaque gain par la probabilité de l'obtenir puis on fait la somme de tous ces produits).

Christiaan Huygens, quant à lui, dans son Du calcul dans les jeux de hasard de 1657[3] s’intéresse à la somme à miser pour que le jeu soit équitable. Il établit que, si dans un jeu, on a p chances de gagner la somme a pour q chances de gagner la somme b, il faut miser : S=\frac{ap+bq}{p+q} pour que le jeu soit équitable. Il formalise ainsi la notion d'espérance, qu'il nomme la valeur de ma chance et l'étend à d'autres domaines que la théorie des jeux. En particulier, avec son frère, il s'intéresse à l'espérance de vie [4].

Illustration de la convergence vers 3,5 de la suite des moyennes obtenues pour des lancés de dés quand le nombre de lancés (trials) augmente.

L'espérance est fortement liée à l'idée de moyenne. En effet, la notion de hasard empêche de prédire le résultat d'une seule expérience aléatoire mais la loi des grands nombres permet de mieux maitriser le résultat si on exécute un grand nombre d'expériences aléatoires de même type. Ainsi, au cours d'un seul lancé de dé, chaque face a normalement une chance sur 6 d'apparaître et il est difficile de prédire le résultat moyen sur trois lancés de dé. Mais, en renouvelant mille fois ou dix mille fois le lancé, les résultats se répartissent presque équitablement entre les différents nombres de 1 à 6. La moyenne des nombres obtenus aux cours de ces nombreux lancés s'approche alors de  m = 1\cdot\frac16 + 2\cdot\frac16 + 3\cdot\frac16 + 4\cdot\frac16 + 5\cdot\frac16 + 6\cdot\frac16 = 3,5.qui correspond à l'espérance de cette expérience de lancé de dé. L'espérance sert donc à prévoir la valeur moyenne obtenue pour la variable que l'on mesure si l'expérience est renouvelée un très grand nombre de fois. Elle sert donc, en théorie des jeux, à l'organisateur qui peut ainsi prévoir la somme moyenne qu'il remporte pour chaque joueur, mais aussi dans le domaine des assurances pour déterminer le coût moyen d'une assurance permettant de couvrir les frais dus aux accidents.

L'espérance et la loi des grands nombres permettent aussi d'invalider une loi de probabilité. On raconte qu'Henri Poincaré s'en serait servi, avec d'autres indices, pour mettre en évidence la malhonnêteté de son boulanger[5]. En effet, le poids d'un pain est soumis à des fluctuations aléatoires mais son espérance est fixée par la loi. Le poids d'un pain annoncé à 1 kg, par exemple, peut fluctuer autour de cette valeur. Poincaré aurait pesé sur une grande période le pain acheté chez son boulanger et aurait trouvé que son poids moyen était largement inférieur à 1 kg. Cette moyenne était trop loin de l'espérance et indiquait une malversation du commerçant.

Définition[modifier | modifier le code]

Variable discrète prenant un nombre fini de valeurs[modifier | modifier le code]

Si la variable X prend les valeurs x1, x2, ... , xn avec les probabilités p1, p2, ... , pn , l'espérance de X est définie comme :     \mathbb{E}[X] = x_1p_1 + x_2p_2 + \dotsb + x_np_n \;.

Comme la somme des probabilités est égale à un, l'espérance peut être considérée comme la moyenne des xi pondérée par les pi  \mathbb{E}[X] = \frac{x_1p_1 + x_2p_2 + \dotsb + x_kp_k}{p_1 + p_2 + \dotsb + p_k}\;.

Exemple : Le jeu de la roulette française consiste à lancer une petite balle sur une roulette contenant 37 cases. Un joueur mise une certaine somme M sur une des cases. Si la balle s'arrête dans sa case, on lui rembourse 36 fois sa mise (son gain est alors de 35M =36M - M) , sinon il perd sa mise (son gain est alors de -M = 0 - M). Son espérance de gain est alors de : \mathbb{E}[\,\text{Gain}_M] = -M \cdot \frac{36}{37}\ +35M \cdot \frac{1}{37}\approx - 0,027 M. Ce résultat signifie qu'en moyenne, le joueur perd 2,7% de sa mise à chaque jeu et inversement que le casino gagne en moyenne 2,7% de la mise de chaque joueur. Le nombre de joueurs dans un casino est suffisamment important pour que cette espérance corresponde effectivement au gain moyen par joueur pour le casino.

En théorie des jeux, une espérance nulle correspond à un jeu équitable.

Variable discrète prenant un ensemble dénombrable de valeurs[modifier | modifier le code]

Si la variable X prend une infinité dénombrable de valeurs x1, x2,..., avec les probabilités p1, p2,..., l'espérance de X est définie comme \mathbb{E}[X] = \sum_{i=1}^\infty x_i\, p_i, à condition que cette somme soit absolument convergente. Ainsi la série qui prendrait les valeurs 1, -2, 3, -4 ,... avec les probablités c/12, c/22, c/32, c/42, ..., où c = 6/π2 est choisi de telle sorte que la somme des probabilité donne un, donnerait pour somme infinie : \sum_{i=1}^\infty x_i\,p_i = c\,\left( 1 - \frac{1}{2} + \frac{1}{3} - \frac{1}{4} + \dotsb \right). Cette somme converge vers ln(2) ≃ 0,69315. Cependant il serait incorrect d'en conclure que l'espérance de X serait égal à ce nombre — En fait, l'espérance de X n'existe pas car la série n'est pas absolument convergente (voir série harmonique).

Variable continue à densité[modifier | modifier le code]

Si la variable aléatoire X admet une densité de probabilité f, son espérance est définie comme :  \mathbb{E}[X] = \int_{-\infty}^\infty x f(x)\, \mathrm{d}x ,  à condition que l'intégrale soit absolument convergente.

Définition générale[modifier | modifier le code]

La définition permet de retrouver toute les définitions précédentes. Soit \scriptstyle X une variable aléatoire de l'espace probabilisé \scriptstyle(\Omega, \, \mathcal E, \, \mathbb{P})\, vers \scriptstyle(\mathbb R, \, \mathcal B(\mathbb R)),. Si \scriptstyle X est intégrable selon la mesure \scriptstyle \mathbb{P}, , l'espérance de \scriptstyle X est définie par : \mathbb E(X) = \int_\Omega X(\omega) \mathbb{P}(\mathrm d\omega) = \int_{\mathbb R} x \mathbb{P}_X(\mathrm dx).

Généralisation : espérance d'une fonction d'une variable aléatoire[modifier | modifier le code]

\scriptstyle X étant une variable aléatoire non nécessairement réelle, donc à valeur dans un espace mesurable \scriptstyle(F, \, \mathcal F) général, une fonction \scriptstyle \varphi mesurable de \scriptstyle(F, \, \mathcal F) dans \scriptstyle(\mathbb R, \, \mathcal B(\mathbb R)) définit une nouvelle variable aléatoire réelle \scriptstyle \varphi \circ X notée \scriptstyle \varphi(X) dont l'espérance, lorsqu'elle existe, s'écrit en remplaçant \scriptstyle x par \scriptstyle \varphi(x) dans les formules précédentes (théorème de transfert).

Son espérance est définie par :

\mathbb E \big( \varphi(X) \big) = \int_\Omega \varphi \big( X(\omega) \big) \mathbb{P}(\mathrm d \omega) = \int_F \varphi(x) \mathbb{P}_X(\mathrm dx).
  • Si \scriptstyle X est une variable aléatoire absolument continue, de densité de probabilité \scriptstyle f_X par rapport à une mesure \sigma-finie \mu sur \scriptstyle(F, \, \mathcal F), alors :
\mathbb E \big( \varphi(X) \big) = \int_F \varphi(x) f_X(x) \mu(\mathrm dx).
  • Si \scriptstyle X est une variable aléatoire discrète à valeurs dans un ensemble dénombrable \scriptstyle S \subset F, alors :
\mathbb E \big( \varphi(X) \big) = \sum_{x \in S} \varphi(x) \mathbb{P}_X(\{x\}).

C'est notamment le cas quand \scriptstyle S est fini. En notant ses valeurs \scriptstyle x_1, \, \dots, \, x_n et \scriptstyle p_1, \, \dots, \, p_n les probabilités correspondantes, l'espérance devient :

\mathbb E \big( \varphi(X) \big) = \sum_{i = 1}^n \varphi(x_i) p_i.

En particulier, il est intéressant de considérer la variable aléatoire à valeurs complexes \scriptstyle \varphi(X) = e^{i \theta X} (où \theta est un réel) dont l'espérance mathématique est la transformée de Fourier inverse de \scriptstyle f_X (dans le cas où \scriptstyle F = \R) :

\phi_X(\theta) = \mathbb E \left( e^{i \theta X} \right).

Il s'agit de la fonction caractéristique d'une variable aléatoire. L'exponentielle se développe en série de Taylor :

\phi_X(\theta) = \mathbb E \left(\sum_{k = 0}^\infty \frac{(i \theta X)^k}{k!} \right) = \sum_{k = 0}^\infty \frac{(i \theta)^k}{k!} \mathbb E \left( X^k \right).

Propriétés[modifier | modifier le code]

Propriétés élémentaires[modifier | modifier le code]

  • L'espérance d'une variable aléatoire constante est égale à cette constante ; par exemple, si b est une constante, alors \scriptstyle\mathbb E(b)=b.
  • Monotonie : si \scriptstyle X et \scriptstyle Y sont des variables aléatoires tels que \scriptstyle X \le Y presque sûrement, alors \scriptstyle\mathbb E(X)\le\mathbb E(Y).
  • Linéarité : l'espérance est un opérateur linéaire. Pour deux variables aléatoires quelconques \scriptstyle X et \scriptstyle Y (qui doivent être définies sur le même espace probabiliste) et pour deux nombres réels \scriptstyle a et \scriptstyle b :
\mathbb E(aX+bY)=a\mathbb E(X)+b\mathbb E(Y)
  • Produit : en général, l'opérateur espérance ne respecte pas le produit, c'est-à-dire qu'en général \scriptstyle\mathbb E(X Y)\ne\mathbb E(X)\mathbb E(Y). L'égalité est vraie pour des variables X et Y indépendantes. L'absence de la multiplicativité amène à étudier les covariances et corrélation.

Cas d'une variable aléatoire positive[modifier | modifier le code]

Si X est une variable aléatoire positive ou nulle, alors

\mathbb E(X)=\int_0^{+\infty}\mathbb P(X\ge x)dx=\int_0^{+\infty}\mathbb P(X> x)dx.

Plus généralement, si \scriptstyle \varphi est positive, continument dérivable, croissante sur \scriptstyle \mathbb R_+, et si \scriptstyle \varphi(0)=0, on a

\mathbb E[\varphi(X)]=\int_0^{+\infty}\varphi^{\prime}(x)\mathbb P(X\ge x)dx=\int_0^{+\infty}\varphi^{\prime}(x)\mathbb P(X> x)dx.

Un cas particulier important est celui des moments de X : pour \scriptstyle \alpha>0,

\mathbb E[X^{\alpha}]=\int_0^{+\infty}\alpha x^{\alpha-1}\mathbb P(X\ge x)dx,

la première égalité étant l'instance \scriptstyle \alpha=1 de l'égalité précédente. Dans le cas d'une variable aléatoire à valeurs entières, ces formules se réécrivent, après un petit calcul intermédiaire, respectivement :

\mathbb E[X]=\sum_{k\ge 1}\mathbb P(X\ge k),\quad\textrm{et}\quad\mathbb E[X^{\alpha}]=\sum_{k\ge 1}(k^{\alpha}-(k-1)^{\alpha})\mathbb P(X\ge k).

Loi de l'espérance itérée[modifier | modifier le code]

Définition — \mathbb E(X|Y)(y)\equiv\mathbb E(X|Y=y)\equiv \sum\limits_xx\cdot\mathbb{P}(X=x|Y=y).

qui signifie que \mathbb E(X|Y)(y) est une fonction de y (en fait une variable aléatoire). L'espérance itérée vérifie

Propriété — \mathbb E\left(\mathbb E(X|Y)\right)=\mathbb E(X)

  • Pour une variable continue : dans le cas continu, les résultats sont analogues. Dans ce cas-ci, on utilise la densité de probabilité et les intégrales à la place de la distribution et des sommes. En tout cas, le résultat reste valable:
\mathbb E(X)=\mathbb E\left(\mathbb E(X|Y)\right).

Espérance d'une fonctionnelle[modifier | modifier le code]

En général, l'opérateur espérance ne respecte pas les fonctions de variable aléatoire, c'est-à-dire qu'en général:

\mathbb E(g(X))=\int_\Omega g(X)\, \mathrm d\mathbb{P}\ne g(\mathbb E(X)).

Une inégalité célèbre à ce propos est l'inégalité de Jensen pour des fonctions convexes (ou concaves).

Estimation[modifier | modifier le code]

On utilise souvent comme estimateur de l'espérance la moyenne empirique, qui est un estimateur:

Caractère central[modifier | modifier le code]

On considère fréquemment l'espérance comme le centre de la variable aléatoire, c'est-à-dire la valeur autour de laquelle se dispersent les autres valeurs.

En particulier, si X et 2a - X ont même loi de probabilité, c'est-à-dire si la loi de probabilité est symétrique par rapport à a, alors E(X) = a.

Mais ce point de vue n'est plus valable lorsque la loi est dissymétrique. Pour s'en persuader il suffit d'étudier le cas d'une loi géométrique, une loi particulièrement dissymétrique. Si X représente le nombre de lancers nécessaires pour obtenir le chiffre 1 avec un dé cubique, on démontre que E(X) = 6 ce qui veut dire qu'il faut en moyenne 6 lancers pour obtenir le chiffre 1. Pourtant, la probabilité que 5 essais ou moins suffisent vaut près de 0,6 et la probabilité que 7 lancers ou plus soient nécessaires est de 0,33. Les valeurs de X ne se répartissent donc pas équitablement de part et d'autre de l'espérance.

Interprétation et applications[modifier | modifier le code]

Espérance mathématique et choix rationnel[modifier | modifier le code]

Dans certains cas, les indications de l'espérance mathématique ne coïncident pas avec un choix rationnel. Imaginons par exemple qu'on vous fasse la proposition suivante : si vous arrivez à faire un double six avec deux dés, vous gagnez un million d'euros, sinon vous perdez 10 000 euros. Il est probable que vous refuserez de jouer. Pourtant l'espérance de ce jeu vous est très favorable : la probabilité de tirer un double 6 est de 1/36 ; on obtient donc :

\frac{1\,000\,000}{36} - \frac{10\,000 \times 35}{36} = 18\,055

à chaque partie vous gagnez en moyenne 18 000 euros.

Le problème tient justement sur ce « en moyenne » : si les gains sont extrêmement importants, ils n'interviennent que relativement rarement, et pour avoir une garantie raisonnable de ne pas finir ruiné, il faut donc avoir suffisamment d'argent pour participer à un grand nombre de parties. Si les mises sont trop importantes pour permettre un grand nombre de parties, le critère de l'espérance mathématique n'est donc pas approprié.

Incidence de la prime de risque[modifier | modifier le code]

Ce sont ces considérations et de risque de ruine qui conduisirent, à partir de son « paradoxe de Saint Petersbourg », le mathématicien Daniel Bernoulli à introduire en 1738 l'idée d'aversion au risque qui conduit à assortir l'espérance mathématique d'une prime de risque pour son application dans les questions de choix.

Applications particulières (économie, assurance, finance, jeux)[modifier | modifier le code]

  • La notion de prime de risque appliquée à l'espérance mathématique fut en économie à l'origine du concept d'utilité (et d'utilité dite « marginale »).
  • les primes d'assurance sont d'un coût supérieur à l'espérance mathématique de perte du souscripteur du contrat. Mais c'est ce risque de forte perte en cas d'évènement rare qui l'incite à le souscrire.
  • L'espérance mathématique, comme d'autres concepts probabilistes, est utilisée dans les calculs d'évaluation en finance, par exemple pour l'évaluation d'entreprise.
  • La finance comportementale aborde, entre autres, les aspects émotionnels et cognitifs, qui vont au-delà de la simple prime de risque, et qui peuvent interférer avec le concept rationnel d'espérance mathématique à l'heure du choix.
  • De même que l'on paye une prime pour éviter le risque avec les assurances, on paie au contraire un accès au risque dans les jeux de hasard (qui rapportent toujours moins que leur espérance mathématique, puisqu'ils doivent s'autofinancer).

Notion d'utilité probabiliste[modifier | modifier le code]

Plutôt que de passer par une notion de prime, on peut directement établir une fonction d'utilité, associant à tout couple {gain, probabilité} une valeur. L'espérance mathématique constitue alors la plus simple des fonctions d'utilité, appropriée dans le cas d'un joueur neutre au risque disposant de ressources au moins très grandes à défaut d'infinies.

Émile Borel adopta cette notion d'utilité pour expliquer qu'un joueur ayant peu de ressources choisisse rationnellement de prendre un billet de loterie chaque semaine : la perte correspondante n'est en effet pour lui que quantitative, tandis que le gain – si gain il y a – sera qualitatif, sa vie entière en étant changée. Une chance sur un million de gagner un million peut donc valoir dans ce cas précis bien davantage qu'un euro.

Notes et références[modifier | modifier le code]

  1. Lettre de Pascal à Fermat du 29 juillet 1654, citée et analysée dans Pascal, Fermat et la géométrie du hasard, Nicolas Trotignon, 1er juin 1998, «La méthode pas à pas», pp 5-6
  2. Nicolas Trotignon, Pascal, Fermat et la géométrie du hasard, 1er juin 1998, p 17
  3. Christiaan Huygens, Oeuvres complètes. Tome XIV. Probabilités. Travaux de mathématiques pures, 1655-1666 (ed. D.J. Korteweg). Martinus Nijhoff, Den Haag 1920, Van rekeningh in spelen van geluck/Du calcul dans les jeux de hasard, 1656-1657
  4. Jean-Marc Rohrbasser et Jacques Véron, « Les frères Huygens et le «calcul des aages» : l'argument du pari équitable », Population, vol. 54, no 6,‎ 199, p. 993-1011 (lire en ligne)
  5. Alex Bellos, Alex au pays des chiffres, p. 389

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Probabilités adaptées à la finance : article sur l'espérance et exemple simple, sur le site gestion-des-risques-conseil.fr