Théorie des probabilités

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Probabilité (homonymie).
Page d'aide sur l'homonymie Cet article présente la théorie mathématique des probabilités ; pour d'autres notions sur les probabilités voir Probabilité, pour une approche plus élémentaire du calcul des probabilités voir Probabilités (mathématiques élémentaires), pour l'historique de ces notions, voir Histoire des probabilités.
Courbe en cloche, histogramme et dé.

La théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Elle forme avec la statistique les deux sciences du hasard qui sont partie intégrante des mathématiques. Les débuts de l'étude des probabilités correspondent aux premières observations du hasard dans les jeux ou dans les phénomènes climatiques par exemple.

Bien que le calcul de probabilités sur des questions liées au hasard existe depuis longtemps, la formalisation mathématique n'est que récente. Elle date du début du XXe siècle avec l'axiomatique de Kolmogorov. Des objets tels que les événements, les mesures de probabilité, les espaces probabilisés ou les variables aléatoires sont centraux dans la théorie. Ils permettent de traduire de manière abstraite les comportements ou des quantités mesurées qui peuvent être supposés aléatoires. En fonction du nombre de valeurs possibles pour le phénomène aléatoire étudié, la théorie des probabilités est dite discrète ou continue. Dans le cas discret, c'est-à-dire pour un nombre au plus dénombrable d'états possibles, la théorie des probabilités se rapproche de la théorie du dénombrement ; alors que dans le cas continu, la théorie de l'intégration et la théorie de la mesure donnent les outils nécessaires.

Les objets et résultats probabilistes sont un support nécessaire à la statistique, c'est le cas par exemple du théorème de Bayes, de l'évaluation des quantiles ou du théorème central limite et de la loi normale. Cette modélisation du hasard permet également de résoudre plusieurs paradoxes probabilistes.

Qu'il soit discret ou continu, le calcul stochastique est l'étude des phénomènes aléatoires qui dépendent du temps. La notion d'intégrale stochastique et d'équation différentielle stochastique font partie de cette branche de la théorie des probabilités. Ces processus aléatoires permettent de faire des liens avec plusieurs domaines plus appliqués tels que les mathématiques financières, la mécanique statistique, le traitement d'images, etc.

Historique[modifier | modifier le code]

Article détaillé : Histoire des probabilités.

Avant que l'étude des probabilités soit considérée comme une science, l'observation du hasard dans les événements naturels a amené les philosophes et les scientifiques à réfléchir sur la notion de liens entre événements, causes et conséquences, et lois de la nature[1]. Les jeux de hasard, les situations météorologiques ou les trajectoires des astres ont fait partie des domaines étudiés[2]. Les explications données sont alors liées au destin, à une colère céleste ou à une présence divine[2].

Il est communément admis que le début de la science des probabilités se situe au XVIe siècle avec l'analyse de jeux de hasard par Jérôme Cardan et au XVIIe siècle avec les discussions entre Pierre de Fermat et Blaise Pascal au sujet du problème des partis posé par Antoine Gombaud, chevalier de Méré[3] : comment partager les gains quand la partie est interrompue à un moment quelconque. Cette nouvelle théorie est nommée géométrie aléatoire par le chevalier de Méré en 1654, elle est appelée par la suite calcul conjectural, arithmetique politique et plus communément aujourd'hui théorie des probabilités[3]. Cette théorie, dite des probabilités modernes, est alors étudiée par de nombreux penseurs jusqu'au XIXe siècle : Kepler, Galilée, Leibniz, Huygens, Halley, Buffon, les frères Bernoulli, Moivre, Euler, D'Alembert, Condorcet, Laplace, Fourier[4],[5]. Elle est principalement basée sur les événements discrets et la combinatoire.

Au début du XXe siècle, Kolmogorov fit la connexion entre la théorie de la mesure de Borel, la théorie de l'intégration de Lebesgue et les probabilités[5].

Des considérations analytiques ont forcé l'introduction de variables aléatoires continues dans la théorie. Cette idée prend tout son essor dans la théorie moderne des probabilités, dont les fondations ont été posées par Andreï Nikolaevich Kolmogorov. Kolmogorov combina la notion d'univers, introduite par Richard von Mises et la théorie de la mesure pour présenter son système d'axiomes pour la théorie des probabilités en 1933. Très vite, son approche devint la base incontestée des probabilités modernes.

Le XXe siècle voit également le développement de l'application de la théorie des probabilités dans plusieurs sciences.

Avec la mécanique newtonienne, la théorie du champ électromagnétique ou la thermodynamique, la physique classique est la théorie utilisée jusqu'à la fin du XIXe siècle. En 1929, Erwin Schrödinger étudie l'équation qui détermine l'évolution d'une onde au cours du temps : l'équation de Schrödinger. Max Born utilise cette équation pour décrire une collision entre des particules telles que des électrons ou des atomes. Les observations de ses expériences l'amène à supposer que la fonction d'onde est la probabilité que la particule soit détectée en un point de l'espace. C'est le début d'une nouvelle approche de la physique quantique[6].

En 1900, Louis Bachelier fur un des premiers mathématiciens à modéliser les variations de prix boursiers grâce à des variables aléatoires[a 1]. « le marché n'obéit qu'à une seule loi : la loi du hasard ». Bachelier utilise alors le calcul stochastique pour étudier les variations boursières au cours du temps. En 1970, Fischer Black et Myron Scholes reprennent les idées de Bachelier pour modéliser les rendements d'une action grâce à leur modèle Black-Scholes[a 1].

L'utilisation des probabilités en biologie a pris un essor dans les années 1970[7], notamment dans l'étude de l'évolution des espèces. La reproduction des individus est modélisée par un choix aléatoire des gênes transmis ainsi que des mutations apparaissant de manière aléatoire sur les individus. L'extinction des espèces ou des gênes est alors étudiée en fonction des effets stochastiques.

Définition[modifier | modifier le code]

Suivant les époques ou les domaines d'application, la théorie des probabilités peut prendre des noms différents : la théorie de la probabilité mathématique[8], le calcul des probabilités[9], ou plus simplement les probabilités bien qu'il ne faille pas confondre avec une probabilité qui est une loi (ou mesure) de probabilité ou la probabilité d'un événement qui est l'évaluation de son caractère probable. Pour ce dernier terme, voir les différentes approches d'une probabilité.

La théorie des probabilités a évolué au cours de son existence. Dans son cours vers 1893, Henri Poincaré s'exprime ainsi : « On ne peut guère donner de définition satisfaisante de la Probabilité. On dit généralement ... etc. »[a 2]. Cependant, il est toujours fait mention de l'étude de notions comme le hasard, l'aléa, la chance ou encore le caractère probable d'un événement. Une définition peut être donnée sous la forme :

La théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude[a 3].

C'est-à-dire que la théorie des probabilités est un domaine des mathématiques. Ce n'a pas toujours été le cas, cette théorie a été rattachée à la théorie des jeux de hasard[a 4], à la philosophie[10], les géomètres ont été parmi les premiers scientifiques à utiliser le calcul des probabilités[11]. Il est à noter que le groupe mathématique Bourbaki, créé en 1930 et dont le but est de proposer une présentation cohérente des mathématiques, a été critiqué pour ne pas avoir pris suffisamment en considération la théorie des probabilités : « Bourbaki s'est écarté des probabilités, les a rejetées, les a considérées comme non rigoureuses et, par son influence considérable, a dirigé la jeunesse hors du sentier des probabilités. » soulignait Laurent Schwartz dans son autobiographie[a 5].

Axiomatique[modifier | modifier le code]

Andreï Kolmogorov
Andreï Kolmogorov

Pour pleinement appartenir aux mathématiques, la théorie des probabilités a eu besoin d'une axiomatique. Plusieurs constructions sont proposées au début du XXe siècle comme la théorie des collectifs de Richard von Mises ou l'axiomatique de Andreï Kolmogorov. Cette dernière étant la plus pratique des axiomatiques disponibles à l'époque a été adoptée définitivement par les scientifiques à partir de 1950[a 6]. Elle a permis de pouvoir étudier le calcul des probabilités au-delà des probabilités finies, dites théorie discrète des probabilités et de considérer un cadre plus général pour la théorie des probabilités. Dans cette axiomatique, la théorie des probabilités est basée sur un espace probabilisé et ainsi beaucoup de notions correspondent à des notions de la théorie de l'intégration[12]. Cependant dans la théorie des probabilités, le but est de proposer un modèle prédictif pour une expérience aléatoire.

  • Un ensemble, souvent noté \scriptstyle \Omega, donne la liste de tous les résultats que l'on pourrait obtenir si on réalisait l'expérience[12]. Cet ensemble, dont les éléments sont appelés "éventualités" ou "cas possibles" ou "issues" est également appelé univers (ou champ) des possibles.
  • Un ensemble \scriptstyle \mathcal A dont les éléments sont tous les événements liés à l'expérience, chaque événement regroupant les éventualités pour lesquelles une certaine propriété est vérifiée. Ces événements, qui peuvent être réalisés ou pas au cours de l'expérience selon le résultat obtenu, représentent les seuls ensembles de possibilités pour lesquels on sait calculer la probabilité de réalisation. Mathématiquement, un élément \scriptstyle A\in \mathcal A est un sous-ensemble de \scriptstyle \Omega et l'ensemble \scriptstyle \mathcal A des événements liés à l'expérience possède une structure de tribu[12].
  • L'espace probabilisable \scriptstyle (\Omega,\mathcal A) est muni d'une mesure de probabilité afin de pouvoir calculer la probabilité de réalisation de n'importe quel événement lié à l'expérience aléatoire. Mathématiquement, cette mesure de probabilité est une application qui à chaque événement \scriptstyle A\in \mathcal A associe une valeur réelle comprise au sens large entre 0 et 1, souvent exprimée en pourcentage, dite probabilité de l'événement A. Cette mesure de probabilité \scriptstyle \mathbb P vérifie les trois axiomes des probabilités[13] :
    1. (positivité) la probabilité d'un événement est une valeur entre 0 et 1 : pour tout \scriptstyle A\in \mathcal A, \scriptstyle 0\leq \mathbb P(A)\leq 1,
    2. (masse unitaire) la probabilité de l'univers est 1 : \scriptstyle \mathbb P(\Omega) = 1,
    3. (additivité) pour toute suite dénombrable d'événements \scriptstyle A_1,A_2,\dots \in \mathcal A disjoints deux à deux, c'est-à-dire tels que \scriptstyle A_i\cap A_j=\emptyset pour tous \scriptstyle i\neq j, alors \scriptstyle \mathbb P(\bigcup_{i\geq 1}A_i)=\sum_{i\geq 1}\mathbb P(A_i).

L'intérêt de cette construction plutôt abstraite est qu'elle permet une explication globale des calculs de probabilités et notamment des paradoxes qui occupaient tant les scientifiques tels que Joseph Bertrand (voir le paradoxe de Bertrand), Émile Borel (voir le paradoxe du singe savant), etc[a 6].

À titre d'exemple, donnons une modélisation sous forme d'espace probabilisé du lancer d'un dé usuel cubique parfaitement équilibré :

  • \scriptstyle \Omega=\{1,2,3,4,5,6\},
  • \scriptstyle \mathcal A=\mathcal P(\Omega)=\{\emptyset,\{1\},\dots,\{6\},\{1,2\},\dots,\{1,6\},\{2,3\},\dots,\{2,3,4,5,6\},\Omega\}
  • \scriptstyle \mathbb P(A)=\frac{Card(A)}{6}.

Cependant cette axiomatique n'est pas nécessaire pour calculer des probabilités dans des cas simples notamment dans le cas discret : il est facile de calculer que la probabilité d'obtenir un numéro pair dans le lancer de dé précédent est de 1/2.

Variable aléatoire[modifier | modifier le code]

Article détaillé : Variable aléatoire.
deux dés
Diagramme représentant les résultats du lancer de deux dés et les probabilités des sommes possibles.

L'espace probabilisé \scriptstyle (\Omega,\mathcal A,\mathbb P) construit dans la section précédente est un espace abstrait. Il n'est pas forcément adapté pour effectuer des calculs. Lorsque les résultats possibles de l'expérience aléatoire ne sont pas des nombres, c'est le cas des résultats pile et face dans un lancer de pièce, il est utile de pouvoir associer une valeur numérique à chaque résultat. Une variable aléatoire remplit ce rôle.

Une variable aléatoire est une application mesurable \scriptstyle X:\Omega \rightarrow E\scriptstyle (E,\mathcal E) est un espace mesurable[14]. C'est-à-dire qu'à chaque éventualité \scriptstyle \omega\in\Omega est associée une valeur \scriptstyle X(\omega). Si cette valeur est réelle, la variable aléatoire est dite réelle.

Comme précisé précédemment, il n'est pas toujours utile de définir l'espace probabilisé \scriptstyle (\Omega,\mathcal A,\mathbb P), mais il est possible de donner directement les variables aléatoires sur l'espace \scriptstyle (E,\mathcal E). La variable aléatoire s'écrit simplement \scriptstyle X au lieu de \scriptstyle X(\omega).

De la même manière qu'il existe des cas continus et discrets pour la théorie des probabilités, il existe des variables aléatoires discrètes[15] et continues[16]. Il est possible de considérer un vecteur aléatoire comme une variable aléatoire multidimensionnelle : \scriptstyle X=(X_1,\dots, X_n). Lorsque la dimension n du vecteur n'est plus finie mais infinie, on parle de marche aléatoire ; lorsque la dimension est infinie non dénombrable, on parle de processus stochastique (voir la section Calcul stochastique ci-dessous).

Exemple

Donnons un exemple simple du lancer de deux dés, ce qui est équivalent à lancer deux fois un dé. Une première variable \scriptstyle X_1 aléatoire donne le résultat du premier lancer, une deuxième \scriptstyle X_2 donne le résultat du deuxième lancer, c'est-à-dire \scriptstyle X_1(\omega)\in\{1,2,3,4,5,6\} et \scriptstyle X_2(\omega)\in\{1,2,3,4,5,6\} que l'on note plus simplement \scriptstyle X_1\in\{1,2,3,4,5,6\} et \scriptstyle X_2\in\{1,2,3,4,5,6\}.

Il est possible de s'intéresser à la somme des deux résultats, qui peut être notée par une variable aléatoire[14] : \scriptstyle S\in\{2,3,\dots,12\}.

Théorie des probabilités discrète[modifier | modifier le code]

La théorie des probabilités est dite discrète lorsque l'ensemble \scriptstyle \Omega de l'espace probabilisé est fini ou dénombrable[17]. Le plus simple exemple d'étude en théorie des probabilités discrète est le jeu de pile ou face, dans ce cas l'univers \scriptstyle \Omega ne contient que deux éléments : pile et face. Les études d'un lancer de , d'un tirage d'une carte dans un jeu de cartes ou par exemple du loto font également parties de la théorie des probabilités discrète.

Avant que la théorie de la mesure soit introduite, la probabilité d'un événement a été définie comme le nombre de cas favorables divisé par le nombre de cas possibles. De manière plus pratique, une expérience aléatoire était répétée un nombre N de fois, le nombre de fois où l'événement A est réalisé est noté \scriptstyle N_A. Lorsque N tend vers l'infini, la proportion \scriptstyle N_A/N converge vers une valeur dite probabilité de A[18].

Cependant ce raisonnement n'est pas si simple pour toute question relative à une expérience aléatoire. Les différentes manières de compter ont amenées des paradoxes probabilistes. L'axiomatique de Kolmogorov (voir la section ci-dessus) a permis de résoudre ces problèmes. Dans le cas de la théorie discrète, pour une expérience non répétée, l'axiomatique s'écrit[18] :

\begin{cases}\Omega=\{\omega_1,\omega_2,\dots , \omega_n\} & \text{ pour le cas d'un univers fini, }\\ \Omega=\{\omega_1,\omega_2,\omega_3,\omega_4,\dots\}&\text{ pour le cas d'un univers infini dénombrable. }\end{cases}

où le choix \scriptstyle \omega_1=1,\omega_2=2,\dots peut être effectué pour représenter les différents résultats équiprobables de l'expérience. Plusieurs choix de tribu sont possibles, cependant il est raisonnable pour une étude discrète de choisir la tribu de ensemble des parties puisqu'il contient tous les événements possibles :

\mathcal A=\mathcal P(\Omega).

Dans le cas de la théorie discrète, la mesure de probabilité possède la particularité de pouvoir être définie uniquement sur les singletons[16] : \scriptstyle \mathbb P(\{\omega_1\}),\mathbb P(\{\omega_2\}),\dots . Les probabilités des autres événements s'obtiennent grâce aux axiomes des probabilités (voir la section ci-dessus).

Lorsque l'univers \scriptstyle \Omega est fini, contenant n éléments, il est possible de choisir la mesure uniforme[15] : \scriptstyle\mathbb P(\{\omega_1\})=\dots=\mathbb P(\{\omega_n\})=\frac{1}{n} et ainsi obtenir la formule utile et cohérente à l'intuition des scientifiques plus anciens :

\mathbb P(A)=\frac{Card(A)}{n} pour tout A\in \mathcal A.

Grâce à l'utilisation de ces formules, la théorie des probabilités discrète repose sur la théorie des combinaisons, aujourd'hui appelée la combinatoire et le dénombrement[19].

Exemple

Reprenons l'exemple du lancer de deux dés[18]. L'ensemble de tous les possibles est :

\scriptstyle \Omega=\{1,2,3,4,5,6\}^2=\{1,2,3,4,5,6\}\times \{1,2,3,4,5,6\} = \{(1,1),(1,2),\dots,(1,6),(2,1),(2,2),\dots\}

C'est-à-dire que \scriptstyle \Omega contient tous les couples de deux chiffres, le premier correspondant au résultat du premier dé, le deuxième au résultat du deuxième. Un choix possible pour la tribu \scriptstyle \mathcal A est l'ensemble des parties :

\scriptstyle \mathcal A=\mathcal P(\Omega) = \{A\text{ sous-ensemble de } \Omega\}.

Le choix de l'espace \scriptstyle (\Omega,\mathcal A) est fait de tel sorte que les singletons de \scriptstyle \Omega aient tous la même probabilité, ils sont dits équiprobables. Il est alors possible de calculer les probabilités de plusieurs événements comme

\scriptstyle A=\{\text{obtenir 1 pour les deux dés}\}=\{(1,1)\}, donc \scriptstyle \mathbb P(A) = \frac{1}{36}.
\scriptstyle B=\{\text{obtenir 1 pour le premier dé}\}=\{(1,1),(1,2),\dots,(1,6)\}, donc \scriptstyle \mathbb P(B) = \frac{6}{36}=\frac{1}{6}. \scriptstyle \mathbb P(B) s'obtient également en décomposant en singletons : \scriptstyle \mathbb P(B)=\mathbb P(\{(1,1)\})+\dots + \mathbb P(\{(1,6)\})=\frac{1}{36}+\dots + \frac{1}{36}=\frac{1}{6}.

Théorie des probabilités continue[modifier | modifier le code]

La théorie des probabilités est dite continue lorsque l'univers \scriptstyle \Omega n'est plus dénombrable mais quelconque, possiblement non topologique[a 6]. C'est-à-dire lorsque la théorie des probabilité n'est plus discrète.

Il est possible de choisir plusieurs tribus, cependant lorsque l'univers est l'ensemble des réels, il est classique de lui munir la tribu borélienne qui possède de bonnes propriétés. Si ce n'est pas le cas, l'utilisation des variables aléatoires permet de représenter l'univers par l'ensemble des réels \scriptstyle \mathbb R. Le terme théorie des probabilités continue est également utilisé pour désigner le cas où la variable aléatoire, ou la loi de probabilité, associée est absolument continue, c'est-à-dire qu'elle possède une densité.

La mesure de probabilité se définit plus facilement sur \scriptstyle \mathbb R, c'est-à-dire qu'il est plus facile de définir la loi de probabilité de la variable aléatoire[a 6] :

\mathbb P(A)=\mathbb P(\{\omega, X(\omega)\in  B\})=\mathbb P(X\in B) pour tout \scriptstyle A\subset \Omega tel que \scriptstyle B\subset \mathcal E soit l'image réciproque de \scriptstyle A par \scriptstyle X : A=X^{-1}(B).

Dans certains cas de la théorie des probabilités continue, la variable aléatoire réelle est dite absolument continue par rapport à la mesure de Lebesgue[16], c'est-à-dire qu'il existe une fonction \scriptstyle f:\mathbb R\rightarrow \mathbb R_+ telle que :

\mathbb P(X\in B)= \int_{\mathbb R} \bold 1_B(x) f(x)\mathrm d x

où le terme \scriptstyle \bold 1 dans l'intégrale est une indicatrice. La fonction \scriptstyle f est appelée la densité de probabilité de \scriptstyle X.

Grâce à l'utilisation de ces formules, la théorie des probabilités continue repose sur la théorie de l'intégration[12].

Exemple

Des algorithmes[20] de calcul utilisent des valeurs choisies de manière uniforme entre 0 et 1. C'est-à-dire que l'on choisit (aléatoirement) une valeur réelle entre 0 et 1 telle qu'aucune des valeurs n'ait plus de chance d'apparaître qu'une autre. Pour formaliser cette expérience, il y a un espace probabilisé \scriptstyle (\Omega, \mathcal A , \mathbb P) non détaillé ici, cependant on se donne une variable aléatoire \scriptstyle X à valeurs dans \scriptstyle E=[0,1] muni de sa tribu borélienne \scriptstyle \mathcal E=\mathcal B([0,1]) ainsi que les probabilités[21] :

 \mathbb P(X\in [a,b])=\frac{1}{b-a} pour tout intervalle \scriptstyle [a,b].

Propriétés et outils[modifier | modifier le code]

Calculs élémentaires[modifier | modifier le code]

Représentation en gris, par un diagramme de Venn de l'événement \scriptstyle A^c.
Représentation en gris de l'événement \scriptstyle A\cup B.
Représentation, en gris, de l'événement \scriptstyle A\cap B.

Plusieurs formules dites élémentaires se déduisent des axiomes des probabilités (voir la section ci-dessus). Certaines sont intuitives, d'autres le sont moins.

Il est à noter que toute tribu contenant l'ensemble vide, le deuxième axiome des probabilités permet d'obtenir sa probabilité : \scriptstyle \mathbb P(\emptyset)=0. Un événement de probabilité nulle est appelé ensemble négligeable, ensemble \scriptstyle \mathbb P-négligeable, ou ensemble impossible[22]. Il existe des ensembles négligeables autres que l'ensemble vide. Par exemple la probabilité d'obtenir le résultat pile à chaque lancer lors d'une infinité de lancers de pile ou face est nulle.

Il est possible de calculer la probabilité de la négation d'une proposition ; mathématiquement, c'est la probabilité du complémentaire d'un ensemble. Il est également possible d'obtenir la probabilité de se trouver dans une configuration ou dans une autre, cela correspond à une union de deux ensembles. Quant à la probabilité de se retrouver dans deux situations simultanément, c'est la probabilité de l'intersection des deux ensembles[23]. Elle est nulle si et seulement si les deux ensembles sont disjoints. En notant A^c le complémentaire d'un événement A et respectivement A\cup B et A\cap B la réunion et l'intersection de deux événements A et B, on a :

\mathbb P(A^c)=1-\mathbb P(A),
\mathbb{P}(A\cup B)  = \mathbb{P}(A)+\mathbb{P}(B)-\mathbb{P}(A\cap B),
\mathbb P(\emptyset)=0 .
Exemple

Reprenons l'exemple du lancer de deux dés.

La probabilité d'obtenir au moins une fois un 6 se calcule à partir de la probabilité de ne pas obtenir de 6 lors des deux lancers :

\mathbb P({\scriptstyle\text{ obtenir au moins un 6}})=1-\mathbb P({\scriptstyle\text{ne pas obtenir de 6}})=1-\left(\frac{5}{6}\right)^2=\frac{11}{36}.

Cet événement est le même qu'obtenir un 6 au premier lancer ou un 6 au deuxième lancer. Sa probabilité s'obtient également par le calcul de la probabilité de l'union :

\begin{align}\mathbb P({\scriptstyle\text{obtenir un 6 au 1}^\text{er}\text{ ou au 2}^\text{ème}\text{ lancer}})&=\mathbb P({\scriptstyle\text{obtenir 6 au 1}^\text{er}\text{ lancer}})+\mathbb P({\scriptstyle\text{obtenir 6 au 2}^\text{ème}\text{ lancer}}) - \mathbb P({\scriptstyle\text{obtenir 6 au 1}^\text{er}\text{ et au 2}^\text{ème}\text{ lancer}})\\
&=\frac{1}{6}+\frac{1}{6}-\left(\frac{1}{6}\right)^2 = \frac{11}{36}
\end{align}

Indépendance[modifier | modifier le code]

Article détaillé : Indépendance (probabilités).

La notion d'indépendance est une hypothèse utilisée depuis longtemps en théorie des probabilités. On dit que deux événements sont indépendants lorsque le fait de connaître le résultat du premier événement ne nous aide pas pour prévoir le second et inversement. Plusieurs lancers de dés successifs sont considérés indépendants. Dans ce cas l'hypothèse est raisonnable, cependant d'autres situations d'indépendance peuvent paraître indépendantes alors qu'elles ne le sont pas. C'est le cas par exemple du problème de Monty Hall. L'indépendance n'est pas toujours intuitive et demande alors d'être étudiée.

L'indépendance peut se définir sur les ensembles[24], deux événements A et B sont dits indépendants si la probabilité que A apparaissent ne dépend pas de la connaissance de l'obtention de B. Mathématiquement, les événements sont indépendants si et seulement si la probabilité de leur intersection est égale au produit de leur probabilité[25] :

A \text{ et }B\text{ sont indépendants }\Leftrightarrow \mathbb P(A\cap B)=\mathbb P(A)\mathbb P(B)

L'indépendance se définit également pour les variables aléatoires en utilisant la formule précédente. Les variables aléatoires X et Y sont indépendantes si[26] :

\mathbb P(X\in C_1,Y\in C_2)=\mathbb P(X\in C_1)\mathbb P(Y\in C_2), pour tout C_1\in \mathcal E et tout C_2\in \mathcal E,

en reprenant les notation de la section variable aléatoire et \mathcal E=\mathcal B(\mathbb R) pour les variables aléatoires réelles.

De même, des tribus \scriptstyle \mathcal A_1 et \scriptstyle \mathcal A_2 sont dites indépendantes si[26] :

\mathbb P(A_1\cap A_2)=\mathbb P(A_1)\mathbb P(A_2), pour tout A_1\in \mathcal A_1 et tout A_2\in \mathcal A_2.

Lorsque l'on considère plusieurs événements, variables aléatoires ou tribus, il existe plusieurs notions d'indépendance. Les événements A, B et C sont dits[24]

  • indépendants deux à deux si : \begin{cases}\mathbb P(A\cap B)&=\mathbb P(A)\mathbb P(B), \\ \mathbb P(A\cap C)&=\mathbb P(A)\mathbb P(C) \text{ et } \\ \mathbb P(B\cap C)&=\mathbb P(B)\mathbb P(C),\end{cases}
  • mutuellement indépendants si : ils sont indépendants deux à deux et \mathbb P(A\cap B\cap C)=\mathbb P(A)\mathbb P(B)\mathbb P(C).

Ces définitions se généralisent pour plus de trois événements, variables aléatoires ou tribus, possiblement un nombre infini[24].

Probabilité conditionnelle et théorème de Bayes[modifier | modifier le code]

À partir des probabilités élémentaires, il est possible de définir la probabilité conditionnelle d'un événement A sachant qu'un autre événement B est réalisé, notée \mathbb P(A|B) ou \mathbb P_B(A). Si \scriptstyle \mathbb P(B)\neq 0 alors la probabilité de A sachant B est définie par[27] :

\mathbb P(A|B)=\frac{\mathbb P(A\cap B)}{\mathbb P(B)}.

Plus mathématiquement, \scriptstyle \mathbb P(\cdot|B) est une nouvelle mesure de probabilité, elle permet de définir des espérances conditionnelles ou des lois conditionnelles. De manière plus générale, il est possible de définir la probabilité conditionnelle sachant une variable aléatoire, une probabilité conditionnelle sachant une tribu, une densité conditionnelle, etc.

Cette formule simple permet de faire le lien entre \scriptstyle \mathbb P(A|B) et \scriptstyle \mathbb P(B|A) par le très utile théorème de Bayes[25] :

\mathbb P(A|B) = \frac{\mathbb P(B | A) \mathbb P(A)}{\mathbb P(B)}.

De même que la remarque précédente, il est possible de donner d'autres versions du théorème de Bayes par un conditionnement utilisant des variables aléatoires, des tribus ou par l'intermédiaire de lois de probabilité.

Il est possible de décomposer la probabilité d'un événement en probabilités conditionnelles sachant toutes les situations possibles. C'est le rôle de la formule des probabilités totales[25] : pour une partition d'événements \scriptstyle B_1,B_2,\dots,B_n, possiblement infinie,

\mathbb P(A)=\mathbb P(A|B_1)\mathbb P(B_1)+\mathbb P(A|B_2)\mathbb P(B_2)+\dots+\mathbb P(A|B_n)\mathbb P(B_n).

Une manière de représenter cette formule est un arbre de probabilité, chaque branche représente un cas possible.

Exemple

Reprenons l'exemple des deux dés. Considérons les deux événements \scriptstyle A_i : « le résultat du premier lancer est i », B : « le résultat de la somme des deux lancers est 7 » et C : « le résultat du premier lancer est pair ». Il est facile de calculer les probabilités : \scriptstyle \mathbb P(A_i)=1/6, \scriptstyle \mathbb P(B|A_i)=1/6 et \scriptstyle \mathbb P(C)=1/2. La formule des probabilités totales permet d'obtenir :

\scriptstyle \mathbb P(B)=\sum_{i=1}^6 \mathbb P(B|A_i)\mathbb P(A_i)=\sum_{i=1}^6 \frac{1}{6}.\frac{1}{6}=\frac{1}{6} et \scriptstyle \mathbb P(B|C)=\mathbb P(B|A_2)\mathbb P(A_2)+\mathbb P(B|A_4)\mathbb P(A_4)+\mathbb P(B|A_6)\mathbb P(A_6)=\frac{1}{12}.

Le théorème de Bayes permet d'obtenir la probabilité d'avoir eu un résultat pair au premier lancer sachant que la somme des deux résultats est de 7 :

\scriptstyle\mathbb P(C|B)=\frac{\frac{1}{12}.\frac{1}{2}}{\frac{1}{6}}=\frac{1}{4}.

Lois de probabilité[modifier | modifier le code]

Article détaillé : Loi de probabilité.

Comme précisé dans les sections ci-dessus, le choix de la mesure de probabilité pour l'espace probabilisé peut se faire en donnant directement les probabilités \scriptstyle \mathbb P(X\in B) d'une variable aléatoire X. Ainsi la mesure de probabilité donnée par[14] :

B\mapsto \mathbb P_X(B)=\mathbb P(X\in B)
fonctions de répartition
Trois fonctions de répartition de différentes lois de probabilité, une discrète, une continue et une mixte.

est appelée la loi de probabilité de la variable X. Elle décrit complètement le comportement de la variable X. De manière plus générale, une loi de probabilité est une mesure décrivant le comportement aléatoire d'un phénomène dépendant du hasard, c'est-à-dire qu'elle n'est pas toujours définie à partir d'une variable aléatoire. Cependant pour une loi de probabilité donnée, il existe une variable aléatoire dont la loi est la loi de probabilité précédente. La représentation d'une loi par une variable aléatoire n'est pas unique, c'est-à-dire que deux variables aléatoires différentes peuvent avoir la même loi. Comme mentionné dans les sections précédentes, il existe des lois discrètes, des lois absolument continues, mais il existe également des lois plus générales. Les lois discrètes et les lois absolument continues peuvent s'écrire respectivement sous la forme[16] :

\mathbb P_{\textrm{disc.}}(B)=\sum_{x\in E}p_x \delta_x(B) et \mathbb P_{\textrm{abs. cont.}}(B)=\int_B f(x) \mathrm{d}x

Certaines lois de probabilité sont fréquemment rencontrées en théorie des probabilités car on les retrouve dans de nombreux processus naturels. Les lois discrètes les plus fréquentes sont la loi uniforme discrète, la loi de Bernoulli, ainsi que les lois binomiale, de Poisson et géométrique. Les lois uniforme continue, normale, exponentielle et gamma sont parmi les plus importantes lois continues.

Plusieurs outils permettent de définir et étudier ces lois. La fonction de répartition, la fonction caractéristique, la fonction génératrice, la fonction quantile, la densité de probabilité (pour les lois continues), la fonction de masse (pour les lois discrètes) en sont les exemples principaux.

Espérance et moments[modifier | modifier le code]

L'espérance est une propriété des lois de probabilités mais elle s'écrit plus simplement en utilisant une variable aléatoire. Elle donne la moyenne de la variable aléatoire X. L'espérance de la variable aléatoire X de loi \scriptstyle\mathbb P_X est donnée par[16] :

\mathbb E[X]=\int_\Omega X(\omega) \mathbb{P}(\mathrm d\omega) = \int_{\mathbb R} x \mathbb{P}_X(\mathrm dx).

Cette expression s'écrit de manière plus simple dans le cas des variables discrètes et des variables continues (en reprenant les notation de la section Lois de probabilité) : \scriptstyle \mathbb E[X]=\sum_{x\in E} x p(x) pour le cas discret[28] et \scriptstyle \mathbb E[X]=\int_{E}x f(x) \mathrm{d}x pour le cas continu, si les séries et intégrales convergent.

Il est possible de calculer l'espérance d'une fonction de la variable aléatoire par la formule[29] : pour toute fonction \scriptstyle g:E\rightarrow [0,\infty] mesurable

\mathbb E[g(X)]=\int_E g(x)\mathbb P_X(\mathrm{d}x).

Lorsque la fonction \scriptstyle g est suffisamment générale, alors \scriptstyle \mathbb E[g(X)] permet de récupérer la loi de X. Pour la fonction indicatrice \scriptstyle g(x)={\bold 1}_B(x), l'espérance redonne la probabilité : \scriptstyle \mathbb E[g(X)]=\mathbb E[{\bold 1}_B(X))]=\mathbb P(X\in B). Pour les fonctions \scriptstyle g(x)=x^n, les valeurs \scriptstyle \mathbb E[g(X)]=\mathbb E[X^n] sont les moments de la loi de X.

Ces définitions sont valides pour tout espace de valeurs de la variable aléatoire. Dans le cas multidimensionnel, c'est-à-dire de vecteurs aléatoires réels, la notion de espérance se généralise en vecteur des moyennes et la variance en matrice de variance-covariance qui donne les variances des coordonnées sur la diagonale et les covariances entre coordonnées dans le reste de la matrice[30].

L'espérance et les moments permettent d'obtenir des inégalités[31] : sans préciser les conditions d'existence,

Ces inégalités sont très utiles pour estimer la queue de la loi d'une variable aléatoire, c'est-à-dire le comportement de la variable aléatoire lorsqu'elle prend des valeurs éloignées de sa moyenne.

Convergences et résultats limites[modifier | modifier le code]

Lorsque l'on considère un nombre infini de données aléatoires, elles sont modélisées par une suite (infinie) de variables aléatoires. Il peut être utile d'étudier le comportement limite de cette suite. Plusieurs notions de convergences de variables aléatoires ont été définies et des théorèmes limites renseignent sur les résultats asymptotiques.

théorème central limite
Une loi discrète (en noir) s'approchera, au sens d'une convergence en loi, de la loi normale (en rouge) par le théorème central limite.

Une suite de variables aléatoires \scriptstyle (X_n)_{n\in\N}[32],[33] :

  • converge en loi vers une variable aléatoire X si la suite de leurs lois de probabilité \scriptstyle (\mathbb P_{X_n},n\in\N) converge étroitement vers une loi \scriptstyle \mathbb P_X. En particulier dans le cas réel, cette convergence est équivalente à la convergence des fonctions de répartition vers la fonction de répartition de X en tout point de continuité de cette dernière[34]. Cette convergence est également équivalente à la convergence des fonctions caractéristiques, c'est le théorème de continuité de Paul Lévy [35].
  • converge en probabilité vers une variable aléatoire X si pour tout \scriptstyle \epsilon >0, \scriptstyle \lim_{n\rightarrow\infty}\mathbb P\left(\left|X_n-X\right|\geq\varepsilon\right)=0. Cette convergence implique la convergence en loi.
  • converge presque sûrement vers une variable aléatoire X si \scriptstyle \mathbb P(\{\omega/\lim_{n\rightarrow\infty} X_n(\omega)=X(\omega)\})=1. Cette convergence implique les convergences en probabilité et en loi.
  • converge dans \scriptstyle L^p vers une variable aléatoire X si \scriptstyle \lim_{n\rightarrow\infty}\mathbb E(|X_n-X|^p)=0. Cette convergence implique la convergence en probabilité.

Donnons quelques théorèmes limites importants :

  • théorème de Borel-Cantelli[36] : pour une suite \scriptstyle (A_n,n\in \mathbb N) d'événements, si \scriptstyle \sum \mathbb P(A_n) converge alors \scriptstyle \mathbb P(\lim \sup A_n)=0. Réciproquement, si les événements sont indépendants et si \scriptstyle \sum \mathbb P(A_n) diverge alors \scriptstyle \mathbb P(\lim \sup A_n)=1.
  • loi du zéro un de Kolmogorov[37] (également appelé loi du tout ou rien[38]) : pour une suite \scriptstyle (X_n,n\in \mathbb N) de variables aléatoires, notons la tribu asymptotique \scriptstyle \mathcal B_\infty=\cap_{n}\mathcal B_n\scriptstyle \mathcal B_n=\sigma(X_p,p\geq n), alors pour tout événements \scriptstyle B\in\mathcal B_\infty, \scriptstyle \mathbb P(B)=0 ou 1. Intuitivement, un événement qui ne dépend que d'un comportement limite est de probabilité 0 ou 1.
  • loi des grands nombres (faible)[39] : pour une suite \scriptstyle (X_n,n\in \mathbb N) de variables aléatoires indépendantes, de même loi et de variance finie, alors \scriptstyle (X_1+\dots+X_n)/n converge dans \scriptstyle L^2 vers la moyenne de la loi commune \scriptstyle \mathbb E[X]. Les hypothèses de ce théorème peuvent être diminuées pour obtenir cette même convergence dans \scriptstyle L^2. Il est également possible d'obtenir une convergence presque sûre, c'est la loi forte des grands nombres[40]. Intuitivement, ces résultats annoncent que lors d'un grand nombre d'expériences, la moyenne calculées des résultats tend à se rapprocher de la moyenne théorique du phénomène aléatoire.
  • théorème central limite[41] : pour une suite \scriptstyle (X_n,n\in \mathbb N) de variables aléatoires indépendantes, de même loi et de variance finie, alors \scriptstyle (X_1+\dots+X_n-n\mathbb E[X_1])/\sqrt{n} converge en loi vers une variable aléatoire de loi normale \scriptstyle \mathcal N(0,Var(X_1)). Ce théorème possède plusieurs versions : dans le cas où les variables aléatoires sont de loi de Bernouilli c'est le théorème de De Moivre-Laplace, ce théorème peut s'écrire par l'intermédiaire des fonctions de répartition ou des fonctions caractéristiques. Il existe une version multidimensionnelle de ce théorème central limite pour des vecteurs aléatoires[42].

Pour pouvoir utiliser ces théorèmes de convergence dans les applications, notamment informatiques, il est utile de connaître leur vitesse de convergence : c'est l'étude du principe de grandes déviations[43].

Calcul stochastique[modifier | modifier le code]

Article détaillé : calcul stochastique.

Le calcul stochastique est l'étude des phénomènes qui évoluent au cours du temps de manière aléatoire[44]. Le temps peut être modélisé de manière discrète, c'est-à-dire par les valeurs entières : \scriptstyle 0,1,2,\dots , dans ce cas le phénomène est représenté par une suite (infinie) de variables aléatoires : \scriptstyle (X_n,n\geq 0), c'est une marche aléatoire. Le temps peut également être modélisé de manière continue c'est-à-dire par des valeurs réelles \scriptstyle t\in \mathbb R_+ ou \scriptstyle t\in \mathbb R, il s'agit alors de processus stochastique \scriptstyle (X_t,t\geq 0).

Marche aléatoire et chaîne de Markov[modifier | modifier le code]

diagramme d'une chaîne de Markov
Diagramme représentant les différents états du système par les points -2, -1, 0, 1 et 2 ; les changements possibles par des flèches et les probabilités associées par les valeurs associées aux flèches.
Articles détaillés : Marche aléatoire et Chaîne de Markov.
trois marches aléatoires
Trois marches aléatoires (indépendantes) sur le réseau \scriptstyle \mathbb{Z}^2 chacune contient 10 000 pas.

Parmi les modélisations de phénomènes aléatoires dépendant du temps, certaines l'ont été par un temps discret, c'est-à-dire à valeurs entière : \scriptstyle n\in\mathbb N=\{0,1,2,\dots\}. Un processus \scriptstyle (X_n,n\in\mathbb N) est appelé marche aléatoire[45] partant d'un point \scriptstyle x lorsque la variable \scriptstyle X_n s'écrit sous la forme d'une somme de pas aléatoires donné par des variables :

X_0=x et X_n=x+Y_1+Y_2+\dots+Y_n pour n\geq 1.

L'espace de probabilité et la tribu sur lequel le processus est défini n'est pas trivial, la notion de filtration a donc été introduite. C'est une suite de tribu prévue pour que la marche aléatoire puisse être définie sur chaque tribu de la suite, le processus est dit adaptée[46].

Un propriété particulière des marches aléatoires est régulièrement utilisée. Une marche aléatoire est appelée chaîne de Markov si elle possède la propriété de Markov, c'est-à-dire que le n-ième pas ne dépend pas du comportement du processus avant. Autrement dit, le comportement à venir ne dépend que du temps présent et non du temps passé. Plusieurs expressions mathématiques traduisent cette propriété, en voici une courante grâce aux probabilités conditionnelles[47] :

\mathbb P(X_{n+1}=y|X_0,\dots,X_n)=\mathbb P(X_{n+1}=y|X_n).

La probabilité \scriptstyle \mathbb P(X_{n+1}=y|X_n=x) est appelée la probabilité de transition de l'état \scriptstyle x à l'état \scriptstyle y. Lorsque le nombre d'états possibles est fini. Toutes ces probabilités sont résumées dans une matrice de transition. Elle représente à elle seule la chaîne de Markov[47]. La chaîne de Markov dont les états possibles sont les valeurs entières et telle que les probabilités d'aller vers les plus proches voisins sont identiques est appelée la chaîne de Markov simple sur \scriptstyle \mathbb Z[48].

Les récurrence et transience d'une chaîne de Markov sont également étudiées. Si une marche aléatoire revient indéfiniment au point de départ elle est dite récurrente, sinon elle est transiente. Les temps d'arrêt représentent le temps en lequel la marche possède pour la première fois une certaine propriété[49].

Ces notions se généralisent de plusieurs manières[50] : les pas peuvent être des vecteurs aléatoires multidimensionnels ; les états possibles peuvent être les points d'un graphe plus général, ceci introduit, entre autres, la théorie des graphes aléatoires et la théorie de la percolation qui font partie de la théorie des systèmes dynamiques ; le n-ième pas peut être la somme d'un nombre aléatoire de variables, c'est le cas des processus de branchement.

L'étude du comportement de la marche aléatoire lorsque le temps devient grand amène à considérer des théorème limites sur les processus tels que le théorème de Donsker ou le théorème de Glivenko-Cantelli très utilisés en statistique. Apparaissent alors des processus aléatoires dont le temps n'est plus discret mais continu.

Processus stochastique et processus de Markov[modifier | modifier le code]

mouvement brownien
Exemple de processus aléatoire : le mouvement brownien. Un zoom montre que le processus n'admet pas de parties lisses.
Articles détaillés : Processus stochastique et Processus de Markov.

L'introduction des processus aléatoires à temps continu a été possible notamment grâce à l'axiomatique de Kolmogorov. Les processus stochastiques sont des familles de variables aléatoires indexées par un indice réel : \scriptstyle (X_t;t\in \mathbb R_+). De même que dans le cas du temps discret, les notions de filtration et de processus adapté, permettent de définir mathématiquement le processus. Les théorèmes d'extension de Kolmogorov et d'extension de Carathéodory permettent de donner l'existence via les lois finies dimensionnelles, c'est-à-dire que le processus est défini par la donnée d'un nombre fini de ses accroissements[51]  :

la loi de (X_{t_1}-X_{t_0},X_{t_2}-X_{t_1},\dots,X_{t_n}-X_{t_{n-1}}) peut être donnée par une matrice de variance-covariance.

Des probabilités de transitions sont données par des fonctions du type : \scriptstyle p_{s,t}(x,A) qui donnent la probabilité que le processus soit dans un des états de l'ensemble A au temps \scriptstyle t sachant qu'au temps \scriptstyle s le processus était en \scriptstyle x, elle doit vérifiée l'équation de Chapman-Kolmogorov[a 6],[52] :

p_{s,t}(x,A)=\int_E p_{s,u}(x,\mathrm dy)p_{u,t}(y,A), pour tout u\in ]s,t[.

Un exemple important de processus stochastique est le mouvement brownien, il apparait comme limite (en loi) d'une suite de marches aléatoires via le théorème de Donsker[53], il est également un objet central puisque ses lois finies dimensionnelles sont des lois normales, c'est-à-dire que ses accroissements sont gaussiens. La loi du processus est appelée mesure de Wiener[54]. Le mouvement brownien a été beaucoup étudié et nombreux objets mathématiques lui sont liés : bruit blanc, mouvement brownien fractionnaire, processus de Lévy, pont brownien, arbre brownien, processus stationnaire, etc. Le processus de Poisson est un processus de Markov dont les accroissements sont de loi de Poisson[55], ce processus de comptage est un processus de sauts[56].

Différentes méthodes de définition existent : le processus de Feller est un processus de Markov dont les probabilités de transition possède une propriété dite de Feller[57], le processus d'Ornstein-Uhlenbeck est défini à partir d'une équation différentielle stochastique[58] (voir la section ci-dessous), les processus ponctuels sont définis sur des espaces plus généraux, l'espace des excursions par exemple[59]. Une autre manière est l'utilisation de générateurs infinitésimaux, c'est une fonctionnelle sur les fonctions continues qui décrit comment le processus se déplace de points en points. Le générateur infinitésimal d'un processus de Markov X est l'opérateur A tel que[60] :

Af(x)=\lim_{t\rightarrow 0} \frac{1}{t}\left(\mathbb E[f(X_t)|X_0=x]-f(x)\right).

Les processus stochastiques sont utilisés dans de nombreux domaines[a 5] : historiquement le mouvement brownien a été utilisé pour modéliser des trajectoires de particules ou pour calculer le nombre d'Avogadro, il est également utilisé pour modéliser des phénomènes tels que les marchés financiers dont les premiers travaux sont dus à Louis Bachelier ou les travaux en physique par les travaux de Sydney Chapman[a 6].

Martingales[modifier | modifier le code]

Article détaillé : Martingale (calcul stochastique).

Parmi les processus stochastiques à temps discret et à temps continu, certains possèdent une propriété liée à la filtration \scriptstyle (\mathcal F_n,n\in\N) sur laquelle ils sont définis. Un processus \scriptstyle (X_n,n\in\N) est appelé une martingale si[61] :

pour tout n\in\N, \mathbb E[X_{n+1}|\mathcal F_n]=X_n.

Cette définition se généralise pour un processus stochastique en temps continu. Le processus est une sur-martingale si \scriptstyle \mathbb E[X_{n+1}|\mathcal F_n]\leq X_n et une sous-martingale si \scriptstyle \mathbb E[X_{n+1}|\mathcal F_n]\geq X_n. Intuitivement la valeur moyenne du processus à un temps futur n+1 connaissant le passé est égal à la valeur présente du processus. C'est une représentation du bénéfice dans un jeu équitable, c'est de cette correspondance que provient le nom martingale. Une sous-martingale correspond à un jeu favorable et une sur-martingale à un jeu défavorable.

Les martingales ont donc une moyenne constante en tout temps ainsi qu'en certains temps aléatoires : les temps d'arrêt, c'est ce qu'annonce le théorème d'arrêt de Doob[48].

Les bonnes propriétés des martingales permettent d'obtenir des inégalités[62] ainsi que des résultats de convergence[63].

Formule d'Itô et équations différentielles stochastiques[modifier | modifier le code]

Une intégrale stochastique est soit l'intégration d'un processus aléatoire par rapport à une mesure (non aléatoire)[a 6], soit l'intégration d'une fonction (localement bornée) par rapport à un processus stochastique (semi-martingale continue)[64]. Dans le cas où la fonction est étagée, l'intégrale se définit simplement par une formule du type :

\int f(t)\mathrm dX_t = \sum_{i=0}^n f_i (X_{t_{i+1}}-X_{t_{i}}).

De manière plus générale, l'intégrale se définit à partir d'un objet appelé crochet de martingale[65]. L'intégrale \scriptstyle Y_t=\int f(t)\mathrm dX_t s'écrit alors de manière plus simple avec la notation : \scriptstyle \mathrm dY_t=f(t)\mathrm dX_t. En particulier on obtient \scriptstyle (dB_t)^2=dt.

La formule d'Itô dans sa formule générale la plus courante s'écrit sous la forme[a 6] : pour une fonction \scriptstyle (t,x)\mapsto \varphi(t,x) de classe C1 en \scriptstyle t et de classe C2 en \scriptstyle x :

\mathrm d\varphi(t,X_t)=B(t,X_t)\frac{\partial}{\partial x}\varphi(t,X_t) \mathrm d \beta_t + \left(\frac{\partial}{\partial t}\varphi(t,X_t) + A(t,X_t)\frac{\partial}{\partial x}\varphi(t,X_t) + \frac{1}{2}B^2(t,X_t)\frac{\partial^2}{\partial x^2}\varphi(t,X_t) \right)\mathrm dt

\scriptstyle \beta est un mouvement brownien et X est un processus stochastique solution de l'équation différentielle stochastique :

\mathrm d X_t = A(t,X_t)\mathrm d t + B(t,X_t)\mathrm d \beta_t.

Cette formule permet d'obtenir des formules utiles dans le cas du mouvement brownien \scriptstyle (B_s)_{s\geq 0} par exemple[66] :

\varphi(B_t)=\varphi(B_0)+\int_0^t \varphi'(B_s)dB_s + \frac{1}{2}\int_0^t \varphi''(B_s)ds, ou
B_t^2-t = 2 \int_0^t B_s dB_s.

Relations avec d'autres domaines[modifier | modifier le code]

Les domaines liés avec la théories des probabilités sont nombreux, donnons ici quelques exemples.

Statistique[modifier | modifier le code]

La statistique et la théorie des probabilités forment les sciences de l'aléatoire. Ces deux sciences utilisent les mêmes outils aléatoires (loi de probabilité, espérance, écart-type, etc), les frontières entre ces deux domaines sont assez floues[a 7]. Une des différences entre statistique et probabilité vient de l'interprétation faite du hasard : c'est la différence entre probabilité a priori et probabilité a posteriori. Intuitivement, les probabilités permettent d'évaluer les chances de réalisation d'un évènement dans un cadre prédéfini[67] alors que la statistique est l'étude et l'analyse de caractères à partir de données récoltées[68].

Les notions de la théorie des probabilités sont les outils à la base de la théorie statistique[69]. Certaines lois de probabilités ont même une utilisation principalement en statistique plutôt que dans la modélisation directe d'un phénomène[70].

Jeux et paris[modifier | modifier le code]

Les jeux de hasard ont été une des premières motivations pour développer le calcul des probabilités, avec notamment le problème des partis[3]. Les raisonnements au début faits de manière peu rigoureuse sont devenus plus élaborés avec l'arrivée de l'axiomatique de Kolmogorov. Cette écriture scientifique permet dorénavant de pouvoir faire des calculs plus précis sur des questions autour des jeux de hasard[71] : calcul de probabilité dans les jeux de dés, dans les jeux de pile ou face, pour les paris à la loterie, etc. Ces études ont alors donné naissance à une théorie : la théorie des jeux.

De nombreux paradoxes probabilistes sont devenus des jeux mathématiques[71] : c'est le cas du problème de Monty Hall, du paradoxe des prisonniers ou encore du problème de la Belle au bois dormant.

Physique[modifier | modifier le code]

Article détaillé : Physique quantique.

Biologie[modifier | modifier le code]

Article détaillé : Biomathématique.

De nombreuses méthodes statistiques sont utilisées en biologie pour réaliser des échantillonnages d'individus et pouvoir ainsi mieux connaître la population entière. Ces données statistiques sont alors étudiées grâce au calcul des probabilités[72].

Économie[modifier | modifier le code]

Article détaillé : Mathématiques financières.

Le calcul des probabilités permet de pouvoir mieux apprécier les risques économiques qui sont considérés comme aléatoires[73]. C'est le cas dans les calculs d'assurances, dans la gestion des stocks ou dans la finance moderne telle que la création d'un portefeuille d'actifs ou dans les activités de spéculation.

Notes et références[modifier | modifier le code]

Ouvrages[modifier | modifier le code]

  1. Laplace 1814, p. ii
  2. a et b Laplace 1814, p. iii
  3. a, b et c Quetelet 1853, p. 7
  4. Quetelet 1853, p. 78
  5. a et b Jacod et Protter 2003, p. 1
  6. Omnès 2000, p. 44
  7. Quinio Benamo 2005, p. 61
  8. Cournot 1843, p. iv
  9. Cournot 1843, p. i
  10. Laplace 1814, p. i
  11. Cournot 1843, p. v
  12. a, b, c et d Le Gall 2006, p. 91
  13. Sinaï 1992, p. 6
  14. a, b et c Le Gall 2006, p. 93
  15. a et b Sinaï 1992, p. 9
  16. a, b, c, d et e Le Gall 2006, p. 94
  17. Sinaï 1992, p. 1
  18. a, b et c Le Gall 2006, p. 92
  19. Cournot 1843, p. 21
  20. Le Gall 2006, p. 114
  21. Le Gall 2006, p. 98
  22. Sinaï 1992, p. 7
  23. Bertoin 2000, p. 7
  24. a, b et c Jacod et Protter 2003, p. 15
  25. a, b et c Sinaï 1992, p. 44
  26. a et b Sinaï 1992, p. 45
  27. Jacod et Protter 2003, p. 16
  28. Sinaï 1992, p. 10
  29. Le Gall 2006, p. 95
  30. Bertoin 2000, p. 66
  31. Bertoin 2000, p. 16
  32. Bertoin 2000, p. 34
  33. Bertoin 2000, p. 35
  34. Le Gall 2006, p. 132
  35. Le Gall 2006, p. 136
  36. Bertoin 2000, p. 33
  37. Jacod et Protter 2003, p. 72
  38. Le Gall 2006, p. 127
  39. Le Gall 2006, p. 120
  40. Le Gall 2006, p. 129
  41. Le Gall 2006, p. 138
  42. Bertoin 2000, p. 69
  43. Bertoin 2000, p. 44
  44. Revuz et Yor 2004, p. 15
  45. Le Gall 2006, p. 165
  46. Le Gall 2006, p. 163
  47. a et b Le Gall 2006, p. 191
  48. a et b Le Gall 2006, p. 169
  49. Le Gall 2006, p. 167
  50. Le Gall 2006, p. 193
  51. Le Gall 2006, p. 220
  52. Revuz et Yor 2004, p. 80
  53. Le Gall 2006, p. 219
  54. Le Gall 2006, p. 226
  55. Revuz et Yor 2004, p. 58
  56. Revuz et Yor 2004, p. 115
  57. Revuz et Yor 2004, p. 90
  58. Revuz et Yor 2004, p. 38
  59. Revuz et Yor 2004, p. 481
  60. Revuz et Yor 2004, p. 281
  61. Le Gall 2006, p. 164
  62. Revuz et Yor 2004, p. 54
  63. Le Gall 2006, p. 171
  64. Revuz et Yor 2004, p. 141
  65. Revuz et Yor 2004, p. 138
  66. Revuz et Yor 2004, p. 146
  67. Quinio Benamo 2005, p. 4
  68. Quinio Benamo 2005, p. 36
  69. Delsart et Vaneecloo 2010, p. 257
  70. Delsart et Vaneecloo 2010, p. 207
  71. a et b Nahin 2008, p. 1
  72. Quinio Benamo 2005, p. 63
  73. Delsart et Vaneecloo 2010, p. 6

Articles et autres sources[modifier | modifier le code]

  1. a et b Rama Cont, « risques financiers : quelle modélisation mathématique? », Pour la science, no 375,‎ 2009, p. 24-27 (lire en ligne)
  2. Richard von Mises, « Théorie des Probabilités. Fondement et applications », annales de l'IHP, vol. 3, no 2,‎ 1932, p. 137-190 (lire en ligne)
  3. En anglais : Probability theory is a branch of mathematics concerned with the analysis of random phenomena, dans « Probability theory », sur Encyclopædia Britannica,‎ 2012
  4. Alan Hájek, « Interpretations of Probability », sur Stanford Encyclopedia of Philosophy,‎ 2012
  5. a et b Laurent Schwartz, Un mathématicien aux prises avec le siècle, Odile Jacob,‎ 1997, 531 p. (ISBN 2-7381-0462-2, lire en ligne), p. 172
  6. a, b, c, d, e, f, g et h Loïc Chaumont, Laurent Mazliak et Marc Yor, A.N. Kolmogorov : Quelques aspects de l'œuvre probabiliste, Belin,‎ 2003 (lire en ligne)
  7. Pierre Dagnelie, « Diversité et unité de la statistique », journal de la société statistique de Paris, vol. 123, no 2,‎ 1982, p. 86-92 (lire en ligne)

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Bibliographie[modifier | modifier le code]

Articles connexes[modifier | modifier le code]