Espérance mathématique

Un article de Wikipédia, l'encyclopédie libre.
Avec un dé on peut obtenir chaque nombre entre 1 et 6 avec une probabilité de 1/6. Ainsi, l'espérance vaut .

En théorie des probabilités, l'espérance mathématique (ou tout simplement espérance, ou premier moment) d'une variable aléatoire réelle est, intuitivement, la moyenne des valeurs obtenues si l'on répète un grand nombre de fois la même expérience aléatoire. Étant donné que c'est une moyenne, il se peut qu'elle ne soit pas dans les valeurs réalisables, et donc ce n'est pas forcément une valeur que l'on s'attend à trouver durant une expérience. Si est une variable aléatoire, l'espérance de se note .

Elle correspond à une moyenne pondérée des valeurs que peut prendre cette variable. Dans le cas où celle-ci prend un nombre fini de valeurs, il s'agit d'une moyenne pondérée par les probabilités d'apparition de chaque valeur. Dans le cas où la variable aléatoire possède une densité de probabilité, l'espérance est la moyenne des valeurs pondérées par cette densité. De manière mathématiquement plus précise et plus générale, l'espérance d'une variable aléatoire est l'intégrale de cette variable selon la mesure de probabilité de l'espace probabilisé de départ.

La présentation intuitive de l'espérance exposée ci-dessus est la conséquence de la loi des grands nombres : l'espérance, si elle existe[1], est la limite presque-sûre de la moyenne des résultats au cours de plusieurs expériences, quand leur nombre augmente à l'infini.

L'espérance est une caractéristique importante d'une loi de probabilité : c'est un indicateur de position. Ainsi, une variable aléatoire est dite centrée si son espérance est nulle. Elle forme, avec la variance, indicateur de dispersion, l'ensemble des indicateurs qui sont presque systématiquement donnés quand est présentée une variable aléatoire.

L'espérance joue un rôle important dans un grand nombre de domaines, comme dans la théorie des jeux, la théorie de la décision, ou encore en théorie du signal et en statistique inférentielle où un estimateur est dit sans biais si son espérance est égale à la valeur du paramètre à estimer.

La notion d'espérance est popularisée par Christian Huygens dans son Traité du hasard de 1656 sous le nom de « valeur de la chance ».

Motivations historiques[modifier | modifier le code]

La répartition des mises d'un jeu de hasard si la partie est interrompue avant sa fin, ou encore l'estimation des sommes qu'on peut espérer gagner dans un tel jeu, ont suscité l'intérêt des mathématiciens dès le 15e siècle (Luca Pacioli), et de nombreuses contributions et controverses jusque vers le milieu du 17e siècle, notamment de la part de Tartaglia, Forestani et Cardan[2]. Cette question est celle examinée, et largement résolue, par Blaise Pascal dans son problème des partis[3] en 1654 et par Christian Huygens dans son ouvrage Du calcul dans les jeux de hasard[4]en 1657.

Pascal et le problème des partis[modifier | modifier le code]

Dans une lettre à Fermat datée du 29 juillet 1654, Blaise Pascal mentionne un problème qui lui a été posé par le chevalier de Méré[5], auquel il donne une esquisse de solution. Pascal reprend ce sujet et en approfondit les solutions dans son "Traité du triangle arithmétique", publié en 1655, dans la partie intitulée "Usage du triangle arithmétique pour déterminer les partis qu'on doit faire entre deux Joueurs qui jouent plusieurs parties"[6].

Pascal imagine un jeu de pile ou face avec un pot commun de 64 pistoles, et le premier joueur à voir apparaître trois fois la face qu'il a choisie remporte la mise. Si le jeu s'interrompt à un moment où chacun des deux joueurs a la même chance de gagner, il est équitable de répartir les 64 pistoles à parts égales entre chaque joueur, mais si la partie s'interrompt alors qu'un des joueurs a pris un avantage, la répartition doit se faire autrement. Pascal imagine ainsi que le jeu s'interrompt alors que les lancers de pièces ont été PPF (pile-pile-face). Il envisage alors ce qu'aurait été le coup suivant :

  • si le coup suivant avait été P, le joueur ayant misé sur P aurait tout remporté et gagné 64 pistoles ;
  • si le coup suivant avait été F, la partie aurait été équitable et l'interruption du jeu aurait conduit à distribuer 32 pistoles à chaque joueur.

Pour Pascal, le joueur ayant misé sur P doit obtenir 32 pistoles à coup sûr mais a une chance sur deux de gagner 32 pistoles supplémentaires. Il doit donc récupérer 48 pistoles.

Pascal ne parle pas de probabilité ni d'espérance de gain mais son idée intuitive reste d'associer un gain à une chance de l'obtenir[7]. Les 48 pistoles que Pascal propose de donner au joueur ayant misé sur P correspondent de fait à son espérance de gain : si la partie s'arrête au quatrième coup, ce joueur a une chance sur deux de gagner 64 pistoles (si la pièce tombe sur P) et une chance sur deux de gagner seulement 32 pistoles (si la pièce tombe sur F et que le jeu s'interrompt). Son espérance de gain est alors de (on multiplie chaque gain par la probabilité de l'obtenir puis on fait la somme de tous ces produits).

Christian Huygens et la "valeur de la chance"[modifier | modifier le code]

Christian Huygens publie en 1657 son ouvrage "De ratiociniis in Ludo Aleae", petit traité en latin d'une vingtaine de pages[8], qui sera traduit ensuite en néerlandais, puis en français et bien d'autres langues. Ce traité est considéré comme le premier livre sur le calcul des probabilités dans les jeux de hasard, et une des fondations de la théorie des probabilités. Il contient 14 "propositions". La proposition 4 [4]reprend le problème des partis étudié peu de temps auparavant par Pascal. La proposition 3 [4]s’intéresse à la somme à miser pour que le jeu soit équitable, c'est-à-dire que le joueur, sur un très grand nombre de parties, équilibre ses mises et ses gains[9]. Huygens y établit que, si dans un jeu, on a p chances de gagner la somme a pour q chances de gagner la somme b, il faut miser : pour que le jeu soit équitable. Il considère que cette mise est aussi le juste prix auquel un joueur devrait céder sa place à une personne désirant le remplacer pour la suite d'une partie en cours.

Dans son traité, il formalise ainsi la notion d'espérance, qu'il nomme la "valeur de ma chance"[10], et l'étend à d'autres domaines que la théorie des jeux. En particulier, avec son frère, il s'intéresse à l'espérance de vie [11].

Espérance, moyenne et loi des grands nombres[modifier | modifier le code]

Illustration de la convergence vers 3,5 de la suite des moyennes obtenues pour des lancers de dés quand le nombre de lancers augmente.

L'espérance est fortement liée à l'idée de moyenne[12]. En effet, la notion de hasard empêche de prédire le résultat d'une seule expérience aléatoire mais la loi des grands nombres permet de mieux maitriser le résultat si on exécute un grand nombre d'expériences aléatoires de même type. Ainsi, au cours d'un seul lancer de dé, chaque face a normalement une chance sur 6 d'apparaître et il est difficile de prédire le résultat moyen sur trois lancers de dé. Mais, en renouvelant mille fois ou dix mille fois le lancer, les résultats se répartissent presque équitablement entre les différents nombres de 1 à 6[13]. La moyenne des nombres obtenus au cours de ces nombreux lancers s'approche alors de qui correspond à l'espérance de cette expérience de lancer de dé. L'espérance sert donc à prévoir la valeur moyenne obtenue pour la variable que l'on mesure si l'expérience est renouvelée un très grand nombre de fois. Elle sert par exemple, en théorie des jeux, à prévoir la somme moyenne que chaque joueur va remporter[14]. Elle sert aussi dans le domaine des assurances pour déterminer le coût moyen d'une assurance permettant de couvrir les frais consécutifs aux accidents.

L'espérance et la loi des grands nombres permettent aussi d'invalider une loi de probabilité. On raconte qu'Henri Poincaré s'en serait servi, avec d'autres indices, pour mettre en évidence la malhonnêteté de son boulanger[15]. En effet, le poids d'un pain est soumis à des fluctuations aléatoires mais son espérance est fixée par la loi. Le poids d'un pain annoncé à 1 kg, par exemple, peut fluctuer autour de cette valeur. Poincaré aurait pesé sur une grande période le pain acheté chez son boulanger et aurait trouvé que son poids moyen était largement inférieur à 1 kg. Cette moyenne était trop loin de l'espérance et indiquait une malversation du commerçant.

Définition[modifier | modifier le code]

L'espérance d'une variable aléatoire est définie, si elle existe, de façon mathématiquement précise par rapport à un espace probabilisé, généralement noté , où est l'univers des possibles, la tribu (l'ensemble) des évènements possibles (qui sont les valeurs possibles de la variable aléatoire ) et une loi de probabilité telle que =1.

Selon la nature de , la définition et la preuve d'existence de l'espérance sont plus ou moins simples, et explicitées ci-dessous.

Variable discrète prenant un nombre fini de valeurs[modifier | modifier le code]

Si la variable X prend les valeurs x1, x2, ... , xn [16]avec les probabilités p1, p2, ... , pn, l'espérance de X est définie comme :

Comme la somme des probabilités est égale à 1, l'espérance peut être considérée comme la moyenne des xi pondérée par les pi

Exemple : Le jeu de la roulette française consiste à lancer une petite bille sur une roulette contenant 37 cases. Un joueur mise une certaine somme M sur une des cases. Si la bille s'arrête dans sa case, on lui rembourse 36 fois sa mise (son gain est alors de 35M = 36MM), sinon il perd sa mise (son gain est alors de M = 0 – M). Son espérance de gain est alors de : Ce résultat signifie qu'en moyenne, le joueur perd 2,7 % de sa mise à chaque jeu et inversement que le casino gagne en moyenne 2,7 % de la mise de chaque joueur. Le nombre de joueurs dans un casino est suffisamment important pour que cette espérance corresponde effectivement au gain moyen par joueur pour le casino. Ce jeu est donc défavorable aux joueurs, et favorable au casino[14].

Variable discrète prenant un ensemble dénombrable de valeurs[modifier | modifier le code]

Si la variable X prend une infinité dénombrable de valeurs x1, x2, ...[17], avec les probabilités p1, p2, ..., l'espérance de X est définie comme à condition que cette somme soit absolument convergente[18]. Ainsi la série qui prendrait les valeurs 1, -2, 3, -4... avec les probabilités c/12, c/22, c/32, c/42..., où c = 6π2 est choisi de telle sorte que la somme des probabilités donne 1[19], donnerait pour somme infinie : Cette somme infinie vaut[20] c ln(2) = 0,421488.... Cependant il serait incorrect d'en conclure que l'espérance de X est égale à ce nombre : en fait, l'espérance de X n'existe pas car la série n'est pas absolument convergente (voir série harmonique).

Variable continue à densité[modifier | modifier le code]

Si la variable aléatoire continue réelle X [21]admet une densité de probabilité f, son espérance est définie comme : à condition que l'intégrale soit absolument convergente.

Définition générale[modifier | modifier le code]

La définition permet de retrouver toutes les définitions précédentes. Cette définition est basée sur la théorie de la mesure et l'intégrale de Lebesgue. Soit X une variable aléatoire de l'espace probabilisé vers . Si X est intégrable selon la mesure , l'espérance de X est définie par[12] : D'après le théorème de transfert, elle est alors égale à Il s’agit donc du centre de masse, ou en encore du moment d'ordre 1, du support de X muni de la mesure de probabilité associée.

Mais l'espérance de la variable aléatoire peut aussi être définie au graphe de sa fonction de répartition par une égalité des aires qui s'offre. En effet, avec un nombre réel si et seulement si les deux surfaces dans le plan - décrites par

ou

respectivement, ont la même aire finie, c'est-à-dire si

et les deux intégrales de Riemann impropre convergent. Enfin, cela est équivalent à la représentation

également avec des intégrales convergentes[22].

Généralisation : espérance d'une fonction d'une variable aléatoire[modifier | modifier le code]

X étant une variable aléatoire à valeur dans un espace mesurable , une fonction φ mesurable de dans définit une nouvelle variable aléatoire réelle notée φ(x) dont l'espérance, lorsqu'elle existe, s'écrit en remplaçant x par φ(x) dans les formules précédentes (théorème de transfert)[23].

Son espérance est définie par :

D'après le théorème de transfert, elle est alors égale à

  • Si X est une variable aléatoire absolument continue, de densité de probabilité fX par rapport à une mesure σ-finie μ sur , alors :

  • Si X est une variable aléatoire discrète à valeurs dans un ensemble dénombrable , alors :

C'est notamment le cas quand S est fini. En notant ses valeurs x1, ..., xn et p1, ..., pn les probabilités correspondantes, l'espérance devient :

En particulier, il est intéressant de considérer la variable aléatoire à valeurs complexes φ(X) = eiθX (où θ est un réel) dont l'espérance mathématique est la transformée de Fourier inverse de fX (dans le cas où ) :

Il s'agit de la fonction caractéristique d'une variable aléatoire. L'exponentielle se développe en série de Taylor :

Unités[modifier | modifier le code]

Si les probabilités sont toujours sans dimensions, les espérances s'expriment toujours avec les mêmes unités physiques (mètres, kilogrammes, secondes, ampères), monétaires (euros) ou abstraites (points, jetons, buts) que les variables aléatoires correspondantes[24].

Propriétés[modifier | modifier le code]

Dans tout le reste de cet article, les variables aléatoires mentionnées sont supposées remplir les conditions d'existence d'une espérance.

Propriétés élémentaires[modifier | modifier le code]

  • L'espérance d'une variable aléatoire constante est égale à cette constante ; par exemple, si est une constante, alors .
  • Monotonie : si et sont des variables aléatoires telles que presque sûrement, alors .
  • Linéarité : l'espérance est un opérateur linéaire. Pour deux variables aléatoires quelconques et (qui doivent être définies sur le même espace probabilisé) et pour deux nombres réels et [12]:

  • Produit : en général, l'opérateur espérance ne respecte pas le produit, c'est-à-dire qu'en général . L'égalité est vraie si les variables et sont indépendantes [25] (la réciproque est fausse[26]). L'absence de la multiplicativité amène à étudier les covariances et corrélation.

Cas d'une variable aléatoire réelle positive[modifier | modifier le code]

Si X est une variable aléatoire positive ou nulle, alors . Plus généralement, si est positive, continument dérivable, croissante sur , et si , on a . Un cas particulier important est celui des moments de X : pour , , la première égalité étant l'instance de l'égalité précédente. Dans le cas d'une variable aléatoire à valeurs entières, ces formules se réécrivent, après un petit calcul intermédiaire, respectivement : .

Loi de l'espérance itérée[modifier | modifier le code]

  • Pour une variable aléatoire discrète : Pour deux variables aléatoires , on peut définir l'espérance conditionnelle

Définition — 

qui signifie que est une fonction de y (en fait une variable aléatoire). L'espérance itérée vérifie

Théorème de l'espérance totale — 

  • Pour une variable continue : dans le cas continu, les résultats sont analogues. Dans ce cas-ci, on utilise la densité de probabilité et les intégrales à la place de la distribution et des sommes. En tout cas, le résultat reste valable:

Espérance d'une fonctionnelle[modifier | modifier le code]

En général, l'opérateur espérance ne respecte pas les fonctions de variable aléatoire, c'est-à-dire qu'en général :

Une inégalité célèbre à ce propos est l'inégalité de Jensen pour des fonctions convexes (ou concaves).

Estimation[modifier | modifier le code]

On utilise souvent comme estimateur de l'espérance la moyenne empirique, qui est un estimateur:

Caractère central[modifier | modifier le code]

On considère fréquemment l'espérance comme le centre de la variable aléatoire, c'est-à-dire la valeur autour de laquelle se dispersent les autres valeurs.

En particulier, si X et 2a – X ont même loi de probabilité, c'est-à-dire si la loi de probabilité est symétrique par rapport à a, et si X admet une espérance, alors E(X) = a.

Mais ce point de vue n'est plus valable lorsque la loi est dissymétrique. Pour s'en persuader il suffit d'étudier le cas d'une loi géométrique, une loi particulièrement dissymétrique. Si X représente le nombre de lancers nécessaires pour obtenir le chiffre 1 avec un dé cubique, on démontre que E(X) = 6 ce qui veut dire qu'il faut en moyenne 6 lancers pour obtenir le chiffre 1. Pourtant, la probabilité que 5 essais ou moins suffisent vaut près de 0,6 et la probabilité que 7 lancers ou plus soient nécessaires est de 0,33. Les valeurs de X ne se répartissent donc pas équitablement de part et d'autre de l'espérance.

Interprétation et applications[modifier | modifier le code]

Espérance mathématique et choix rationnel[modifier | modifier le code]

Dans certains cas, les indications de l'espérance mathématique ne coïncident pas avec un choix rationnel. Imaginons par exemple qu'on vous fasse la proposition suivante : si vous arrivez à faire un double six avec deux dés, vous gagnez un million d'euros, sinon vous perdez 10 000 euros. Il est probable que vous refuserez de jouer. Pourtant l'espérance de ce jeu vous est très favorable : la probabilité de tirer un double 6 est de 1/36 ; on obtient donc :

à chaque partie vous gagnez en moyenne 18 000 euros.

Le problème tient justement sur ce « en moyenne » : si les gains sont extrêmement importants, ils n'interviennent que relativement rarement, et pour avoir une garantie raisonnable de ne pas finir ruiné, il faut donc avoir suffisamment d'argent pour participer à un grand nombre de parties. Si les mises sont trop importantes pour permettre un grand nombre de parties, le critère de l'espérance mathématique n'est donc pas approprié.

Incidence de la prime de risque[modifier | modifier le code]

Ce sont ces considérations et de risque de ruine qui conduisirent, à partir de son « paradoxe de Saint-Pétersbourg », le mathématicien Daniel Bernoulli à introduire en 1738 l'idée d'aversion au risque qui conduit à assortir l'espérance mathématique d'une prime de risque pour son application dans les questions de choix.

Applications particulières (économie, assurance, finance, jeux)[modifier | modifier le code]

  • La notion de prime de risque appliquée à l'espérance mathématique fut en économie à l'origine du concept d'utilité (et d'utilité dite « marginale »).
  • les primes d'assurance sont d'un coût supérieur à l'espérance mathématique de perte du souscripteur du contrat. Mais c'est ce risque de forte perte en cas d'évènement rare qui l'incite à le souscrire.
  • L'espérance mathématique, comme d'autres concepts probabilistes, est utilisée dans les calculs d'évaluation en finance, par exemple pour l'évaluation d'entreprise.
  • La finance comportementale aborde, entre autres, les aspects émotionnels et cognitifs, qui vont au-delà de la simple prime de risque, et qui peuvent interférer avec le concept rationnel d'espérance mathématique à l'heure du choix.
  • De même que l'on paye une prime pour éviter le risque avec les assurances, on paie au contraire un accès au risque dans les jeux de hasard (qui rapportent toujours moins que leur espérance mathématique, puisqu'ils doivent s'autofinancer).

Notion d'utilité probabiliste[modifier | modifier le code]

Plutôt que de passer par une notion de prime, on peut directement établir une fonction d'utilité, associant à tout couple {gain, probabilité} une valeur. L'espérance mathématique constitue alors la plus simple des fonctions d'utilité, appropriée dans le cas d'un joueur neutre au risque disposant de ressources au moins très grandes à défaut d'infinies.

Émile Borel adopta cette notion d'utilité pour expliquer qu'un joueur ayant peu de ressources choisisse rationnellement de prendre un billet de loterie chaque semaine : la perte correspondante n'est en effet pour lui que quantitative, tandis que le gain – si gain il y a – sera qualitatif, sa vie entière en étant changée. Une chance sur un million de gagner un million peut donc valoir dans ce cas précis bien davantage qu'un euro.

Notes et références[modifier | modifier le code]

  1. Il n'existe pas toujours d'espérance pour une variable aléatoire. En particulier les lois de distribution à longue traîne , comme la distribution de Cauchy, produisent des intégrales non convergentes. Ce ne sont donc pas des lois de probabilité, et elles n'ont pas d'espérances définies.
  2. Ernest Coumet, Le problème des partis avant Pascal, Archives internationales d’histoire des sciences, juillet-décembre 1965, n° 72-73, p. 245-272, (lire en ligne)
  3. Lettre de Pascal à Fermat du 29 juillet 1654, citée et analysée dans Pascal, Fermat et la géométrie du hasard [PDF], Nicolas Trotignon, 1er juin 1998, « La méthode pas à pas », p. 5-6.
  4. a b et c Christiaan Huygens, Œuvres complètes. Tome XIV. Probabilités. Travaux de mathématiques pures, 1655-1666 (ed. D.J. Korteweg). Martinus Nijhoff, Den Haag 1920, Van rekeningh in spelen van geluck/Du calcul dans les jeux de hasard, 1656-1657. Voir en particulier p. 60-68.
  5. Blaise PASCAL, Oeuvres complètes Tome 4, La Haye, Detune, , 493 p. (lire en ligne), p. 412-420
  6. Blaise PASCAL, Oeuvres complètes Tome 5, La Haye, Detune, , 462 p. (lire en ligne), p. 32-54
  7. Nicolas Trotignon, Pascal, Fermat et la géométrie du hasard [PDF], 1er juin 1998, p. 17.
  8. (la) Christiaan Huygens, De Ratiociniis in Ludo Aleae, La Haye, (lire en ligne)
  9. En langage mathématique moderne, on dirait que l'espérance de gain net du joueur est nulle. Huygens définit un jeu équitable comme un jeu "qui ne vise au détriment de personne".
  10. Huygens utilise le mot latin "expectatio" , soit en français "attente" ou "espoir".
  11. Jean-Marc Rohrbasser et Jacques Véron, « Les frères Huygens et le «calcul des aages» : l'argument du pari équitable », Population, vol. 54, no 6,‎ , p. 993-1011 (lire en ligne, consulté le ).
  12. a b et c Grégory MIERMONT 2017, p. 55
  13. Si le dé n'est pas pipé bien sûr. Voir l'article .
  14. a et b En théorie des jeux, un jeu sera dit équitable si l'espérance de gain des joueurs est nulle, défavorable si elle est négative, et favorable si elle est positive.
  15. Alex Bellos, Alex au pays des chiffres, p. 389.
  16. est dans ce cas un ensemble fini de cardinal n.
  17. est dans ce cas un ensemble infini dénombrable.
  18. L'absolue convergence permet à la somme d'être commutativement convergente, propriété indispensable à la preuve d'existence de l'espérance (cf.Léonardo Gallardo, « Cours de probabilité - chapitre 3 », sur Université de Tours, p. 6)
  19. Voir l'article "Problème de Bâle"
  20. Car la série harmonique alternée (1-1/2+1/3-1/4...) converge vers ln(2). Voir l'article série harmonique.
  21. L'ensemble est dans ce cas
  22. Roland Uhl, « Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion », Technische Hochschule Brandenburg,‎ (DOI 10.25933/opus4-2986 Accès libre), p. 2–4.
  23. Grégory MIERMONT 2017, p. 56
  24. En effet l'espérance est une moyenne de ces variables aléatoires pondérées par des probabilités qui sont, elles, sans dimension.
  25. Grégory MIERMONT 2017, p. 74
  26. Prendre par exemple la variable X prenant les valeurs -1 , 0 et 1 de manière équiprobable. Les variables X et X² ne sont pas indépendantes et pourtant .

Annexes[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes et références[modifier | modifier le code]