Processus stochastique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Processus.

Le calcul classique des probabilités concerne des épreuves où chaque résultat possible (ou réalisation) est mesuré par un nombre, ce qui conduit à la notion de variable aléatoire. Un processus stochastique ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire.

Cette notion se généralise à plusieurs dimensions. Un cas particulier important, le champ aléatoire de Markov, est utilisé en analyse spatiale.

Utilité[modifier | modifier le code]

Notion de processus[modifier | modifier le code]

De nombreux domaines utilisent des observations en fonction du temps (ou, plus exceptionnellement, d'une variable d'espace). Dans les cas les plus simples, ces observations se traduisent par une courbe bien définie. En réalité, des sciences de la Terre aux sciences humaines, les observations se présentent souvent de manière plus ou moins erratique. Il est donc tentant d'introduire des probabilités.

Un processus aléatoire généralise la notion de variable aléatoire utilisée en statistiques élémentaires. On le définit comme une famille de variables aléatoires X(t)\, associées à toutes les valeurs t \in T\,. L'ensemble des observations disponibles x(t)\, constitue une réalisation du processus.

Un premier problème concerne le fait que la durée sur laquelle est construit le processus est généralement infinie alors qu'une réalisation porte sur une durée finie. Il est donc impossible de représenter parfaitement la réalité. Il y a une seconde difficulté beaucoup plus sérieuse : à la différence du problème des variables aléatoires, la seule information disponible sur un processus se réduit généralement à une seule réalisation.

Types de processus[modifier | modifier le code]

On distingue généralement les processus en temps discret et en temps continu, à valeurs discrètes et à valeurs continues.

Si l'ensemble T\, est dénombrable on parle de processus discret ou de série temporelle, si l'ensemble est indénombrable on parle de processus continu. La différence n'a rien de fondamental : en particulier la stationnarité, constance en fonction du temps des propriétés statistiques, se définit de la même façon. Il ne s'agit même pas d'une différence pratique car les calculs sur un processus continu s'effectuent à partir de l'échantillonnage d'une réalisation du processus. La différence porte plutôt sur l'attitude adoptée face à l'utilisation d'une seule réalisation.

Il existe une différence un peu plus nette entre les processus à valeurs continues et les processus de comptage à valeurs discrètes. Les seconds remplacent par des sommes algébriques les intégrales utilisées par les premiers.

Exemples[modifier | modifier le code]

En matière de processus à valeurs continues, les processus de Gauss sont particulièrement utilisés pour les mêmes raisons que les variables de Gauss en statistiques élémentaires. Une application intuitive du théorème de la limite centrale conduit à penser que bon nombre de phénomènes, dus à des causes nombreuses, sont approximativement gaussiens. D'autre part, un tel processus présente l'avantage d'être entièrement défini par ses caractéristiques au second ordre, espérance et autocovariance.

La description d'un phénomène par des valeurs discrètes conduit à des processus de comptage dont le plus simple est le processus de Poisson utilisé dans la théorie des files d'attente

La notion de propriété markovienne définit une classe de processus discrets ou continus, à valeurs discrètes ou continues, qui repose sur l'hypothèse selon laquelle l'avenir ne dépend que de l'instant présent.

Approche mathématique des processus stochastiques[modifier | modifier le code]

Définitions et propriété de base[modifier | modifier le code]

On désigne par (\Omega , \mathcal{F} , P) un espace de probabilité, T un ensemble arbitraire et S un espace métrique muni de la tribu borélienne notée \mathcal{B}(S). T est souvent appelé ensemble des indices (souvent, on aura T=\mathbb{R}, \mathbb{R}_+, \mathbb{R}^p, \mathbb{N}, ...). T peut faire référence au temps, à l'espace ou aux deux à la fois.

L'indice t\in{T} désigne alors un instant (\mathbb{R}_+), une date (\mathbb{N}), un point, ou encore un point à un certain instant. S est appelé espace d'état (souvent, on aura S=\mathbb{R}, \mathbb{C}, \mathbb{C}^{\mathbb{N}}, un ensemble fini ou dénombrable). Si l'espace d'état S est de la forme d, on parle de champ aléatoire.

Un processus stochastique (ou aléatoire) est une famille de variables aléatoires (c'est-à-dire, des applications mesurables) définies sur le même espace de probabilité (\Omega , \mathcal{F} , P) indexée par T et à valeurs dans S. Si T est un sous-ensemble d'un espace multidimensionnel, on préfère utiliser la dénomination de champ stochastique. Un processus stochastique est noté par \{X_t\}_{t\in{T}}. La valeur de la variable aléatoire X_t en un certain \omega\in\Omega est désignée par X_t(\omega).

La famille de toutes les distributions finies-dimensionnelles de X s'appelle la loi spatiale du processus. Si S\subseteq\R, on parle de loi temporelle.

Trajectoire d'un processus stochastique[modifier | modifier le code]

Notons par S^T l'ensemble des applications définies sur T en tout point et à valeur dans S. Fixons \omega\in\Omega et désignons par X_{.}(\omega)\in{S^T} l'application : t\mapsto{X_t(\omega)}. Une telle application est appelée trajectoire (ou réalisation) du processus stochastique \{X_t\}_{t\in{T}}.

Mesure de probabilité induite par un processus stochastique[modifier | modifier le code]

Soit \{X_t\}_{t\in{T}} un processus stochastique, \mathcal{B}(S^T) la \sigma-algèbre borélienne de S^T (c'est-à-dire, la \sigma-algèbre engendrée par les ouverts de la topologie produit de S^T) et l'application suivante :

\begin{align}
 \Phi_X\colon (\Omega , \mathcal{F}) &\to (S^T , \mathcal{B}(S^T)) \\
 w &\mapsto \Phi_X(w)=X_{.}(w)
\end{align}

\Phi_X est mesurable. Désignons par \tilde{\mathbb{P}}_X la mesure de probabilité sur (S^T , \mathcal{B}(S^T)) définie pour tout \tilde{D}\in\mathcal{B}(S^T) par \tilde{\mathbb{P}}_X (\tilde{D}) = P \circ {\Phi_X}^{-1}(\tilde{D}) mesure de probabilité sur un espace de fonctions.

La probabilité \tilde{\mathbb{P}}_X est dite induite par le processus stochastique \{X_t\}_{t\in{T}} sur l'espace mesuré (S^T , \mathcal{B}(S^T)).

Lois fini-dimensionnelles[modifier | modifier le code]

Soient deux processus stochastiques \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}}. On suppose que ces deux processus sont à valeur dans (S,\mathcal{B}(S)). Dans cette définition, on ne suppose pas qu'ils sont définis sur le même espace de probabilité. On dit alors que \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} possèdent les mêmes lois finis dimensionnelles si pour tout k\in\mathbb{N}^* et pour tout t_1, ..., t_k\in{T}, les vecteurs (donc de dimension finie) aléatoires (X_{t_1}, ..., X_{t_k}) et (Y_{t_1}, ..., Y_{t_k}) sont de même loi. Pour tout A\in\mathcal{B}(S^k), on a :

P_X\{\omega_X\in\Omega_X : (X_{t_1}, ..., X_{t_k})\in{A}\}=P_Y\{\omega_Y\in\Omega_Y : (Y_{t_1}, ..., Y_{t_k})\in{A}\}

On suppose que le processus \{X_t\}_{t\in{T}} est défini sur l'espace de probabilité (\Omega_X , \mathcal{F}_X , P_X) et le processus \{Y_t\}_{t\in{T}} est défini sur l'espace de probabilité (\Omega_Y , \mathcal{F}_Y , P_Y).

Lorsque deux processus stochastiques \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} possèdent les mêmes lois finis dimensionnelles, ils induisent alors la même mesure de probabilité sur (S^T , \mathcal{B}(S^T)), c'est-à-dire :

\forall\tilde{D}\in\mathcal{B}(S^T), \tilde{\mathbb{P}}_X (\tilde{D})=\tilde{\mathbb{P}}_Y (\tilde{D})

Version d'un processus stochastique[modifier | modifier le code]

Soient deux processus stochastiques \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} définis sur le même espace de probabilité (\Omega , \mathcal{F} , P). On dit que \{Y_t\}_{t\in{T}} est une version (ou modification) du processus stochastique \{X_t\}_{t\in{T}} si \forall t\in{T}, P(X_t=Y_t)=1. Il est clair que si \{Y_t\}_{t\in{T}} est une version de \{X_t\}_{t\in{T}}, alors ils ont les mêmes lois finis dimensionnelles.

Processus stochastiques indistinguables[modifier | modifier le code]

Soient deux processus stochastiques \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} définis sur le même espace de probabilité (\Omega , \mathcal{F} , P). On dit que \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} sont deux processus stochastiques indistinguables s'il existe \Omega'\in\mathcal{F} tel que :

P(\Omega')=1, \forall{\omega\in\Omega', \forall{t\in{T}}}, X_t(w)=Y_t(w)

Il en découle plusieurs propriétés :

  1. si T est dénombrable, deux processus sont indistinguables si et seulement s'ils sont des versions l'un de l'autre.
  2. si T est non dénombrable, deux processus peuvent être une version l'un de l'autre sans pour autant être indistinguables.
  3. supposons T=\mathbb{R} ou \mathbb{R}_+ et \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} deux processus stochastiques tels que \forall\omega\in\Omega, les applications de T dans S, t \mapsto X_t(w) et t \mapsto Y_t(w) sont continues à droite (resp. à gauche). Alors, \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} sont des versions l'un de l'autre si et seulement si \{X_t\}_{t\in{T}} et \{Y_t\}_{t\in{T}} sont indistinguables.

Mutuelle indépendance[modifier | modifier le code]

On dit que m processus stochastiques {\{X^1_t\}}_{t\in{T}}, ...,{\{X^m_t\}}_{t\in{T}} sont mutuellement indépendants si \forall k^1, ...,k^m\in\mathbb{N}^* et \forall (t^1_1, ..., t^1_{k_1})\in(T^1)^{k_1}, ..., (t^m_1, ..., t^m_{k_m})\in(T^m)^{k_m}, les vecteurs aléatoires ({\{X^1_{t^1_1}\}}_{t\in{T}}, ...,{\{X^1_{t^1_{k_1}}\}}_{t\in{T}}), ..., ({\{X^m_{t^m_1}\}}_{t\in{T}}, ...,{\{X^m_{t^m_{k_m}}\}}_{t\in{T}}) sont mutuellement indépendants.

Mesurabilité d'un processus stochastique[modifier | modifier le code]

On suppose T\subset\mathbb{R}^n. On dit qu'un processus stochastique \{X_t\}_{t\in{T}} est mesurable si l'application suivante est mesurable :

\begin{align}
 (\Omega\times{T} , \mathcal{F}\otimes\mathcal{B}(T)) &\to (S , \mathcal{B}(S)) \\
 (w, t) &\mapsto X_t(w)
\end{align}

Supposons que T=\mathbb{R} ou \mathbb{R}_+ et que \{X_t\}_{t\in{T}} est un processus à trajectoires continues à droite (resp. continues à gauches), i.e. \forall w\in\Omega, X_{.}(w) est continue à droite (resp. continues à gauches). Alors, \{X_t\}_{t\in{T}} est mesurable.

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • F. Comets et T. Meyre, Calcul stochastique et modèles de diffusions, éditions Dunod, 2006 (ISBN 9782100501359)
  • (en) Y. K. Lin, Probabilistic Theory of Structural Dynamics, New York, Robert E. Krieger Publishing Company,‎ juillet 1976, 368 p. (ISBN 0882753770)

Articles connexes[modifier | modifier le code]