Aller au contenu

Perte de mémoire (probabilités)

Un article de Wikipédia, l'encyclopédie libre.

En probabilités et statistique, la perte de mémoire est une propriété de certaines lois de probabilité : la loi exponentielle et la loi géométrique. On dit que ce sont des lois sans mémoire.

Cette propriété est le plus souvent exprimée en termes de « temps d'attente ». Supposons qu'une variable aléatoire soit définie comme le temps passé dans un magasin de l'heure d'ouverture (disons neuf heures du matin) à l'arrivée du premier client. On peut donc voir comme le temps qu'un serveur attend avant l'arrivée du premier client.

La propriété de perte de mémoire fait une comparaison entre les lois de probabilité du temps d'attente du serveur de neuf heures à l'arrivée du premier client, et celle du temps d'attente du serveur pour qu'un client arrive à compter d'un délai arbitraire après l'ouverture (disons, par exemple, une heure après l'ouverture soit à partir de dix heures du matin) sachant qu'aucun client n'est arrivé de l'ouverture à l'écoulement de ce délai arbitraire.

La propriété de perte de mémoire affirme que ces lois sont les mêmes.

Ainsi, dans notre exemple, ce n'est pas parce que le serveur a déjà attendu, en vain, pendant une heure l'arrivée d'un premier client qu'il peut espérer que le délai avant qu'arrive effectivement son premier client soit plus faible qu'au moment de l'ouverture.

Les termes de perte de mémoire et sans mémoire ont parfois été utilisés différemment pour faire référence à des processus de Markov, dans ce cas la propriété de Markov assure que les propriétés des variables aléatoires dans le futur dépendent uniquement des informations du temps présent, pas des informations issues du passé. Cependant ces différentes versions de perte de mémoire sont proches d'un point de vue théorique[1].

Perte de mémoire discrète

[modifier | modifier le code]

Considérons une variable aléatoire discrète sur l'ensemble des entiers naturels . La loi de est dite sans mémoire si pour tous , on a

Ici, le terme est la probabilité conditionnelle que la variable soit plus grande que sachant qu'elle est plus grande que .

L'unique loi de probabilité discrète à perte de mémoire est la loi géométrique qui représente le nombre d'essais nécessaires de réalisation d'une expérience jusqu'à son premier succès. En d'autres termes, cette loi correspond à la loi du temps d'attente dans un processus de Bernoulli.

Une erreur courante

[modifier | modifier le code]

La perte de mémoire d'une loi de probabilité d'un nombre d'essais jusqu'au premier succès signifie

Cependant, elle n'implique pas

ce qui serait vrai si les évènements et étaient indépendants, ce qui n'est pas le cas.

Perte de mémoire continue

[modifier | modifier le code]

Considérons une variable aléatoire continue à valeurs réelles positives . La loi de est dite sans mémoire si pour tous , on a

L'unique loi de probabilité continue à perte de mémoire est la loi exponentielle. Cette définition est similaire à la version discrète à l'exception des variables et sont réelles positives et non entières. Plutôt que de compter le nombre d'essais jusqu'au premier succès, on peut penser à l'heure d'arrivée du premier appel téléphonique dans un centre d'appel.

Ainsi les lois géométrique et exponentielle sont des analogues discrète et continue.

Les lois sans mémoire sont exponentielles

[modifier | modifier le code]

L'unique loi de probabilité continue à perte de mémoire est la loi exponentielle, ainsi la propriété de perte de mémoire caractérise la loi exponentielle parmi toutes les lois continues.

Plus précisément, commençons par définir la fonction de survie par

.

Remarquons que est une fonction décroissante. De la relation

et de la définition de la probabilité conditionnelle, on obtient

Ce qui donne l'équation fonctionnelle

sur l'ensemble des fonctions décroissantes. Cette équation implique que la fonction restreinte aux rationnels est une fonction exponentielle. En rajoutant que est décroissante, on obtient la fonction exponentielle sur tout le domaine.

Notes et références

[modifier | modifier le code]
  1. William Feller (1971) Introduction to Probability Theory and Its Applications, Vol II (2nd edition),Wiley. Section I.3 (ISBN 0-471-25709-5)