Aller au contenu

« Histoire des probabilités » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Ipipipourax (discuter | contributions)
création voir pdd
(Aucune différence)

Version du 12 juillet 2012 à 16:11

L'histoire des probabilités a commencé avec celle du hasard et notamment des jeux de hasard. Bien que quelques calculs de probabilité soient apparus dans des applications précises au Moyen Âge, ce n'est qu'au XVIIe siècle que la théorie des probabilités prend vraiment ses débuts. Elles évolue sans vrai formalisme pendant deux siècles autour du célèbre problème des partis, de problèmes d'urnes ou d'autres problèmes issus de jeux. Apparait alors la théorie classique des probabilités basée sur la théorie de la mesure et la théorie de l'intégration. Cette théorie s'est depuis lors diversifiée dans de nombreuses applications.

Les discussions entre scientifiques, la publication des ouvrages et leur transmission étant difficiles à certaines époques, certaines questions historiques restent difficiles à résoudre ; c'est le cas de la paternité de la théorie des probabilités.

Les premières utilisations et idées

Dés anciens d'Asie.

La théorie des probabilités est une mathématisation de l'incertitude et du caractère imprévisible des phénomènes. L'incertitude de la situation présente et à venir a d'abord été attribuée au destin, à la nature ou à des divinités[1].

Pendant l'antiquité, le hasard n'a pas été un objet d'étude à proprement parler. Cependant le hasard a été utilisé pour le divertissement dans les jeux de hasard comme les jeux de dés en terr cuite[2] présents dans l'Égypte antique (du XXXIIe siècle av. J.-C. au Ier siècle av. J.-C.), en Mésopotamie (IIIe millénaire av. J.-C.) ou encore en Inde à la même époque[3]. La notion d'équité était déjà présente puisque certains dés avaient été pipés volontairement[2]. Les carte étaient également très présentes, elles sont d'abord apparues en Chine, Inde, Arabie et Égypte pour n'arriver que beaucoup plus tard à Venise (1377), Nuremberg (1380) et à Paris (1397)[3]. Le hasard était également utilisé comme moyen de prise de décision[4], par exemple pour décider dans quel ordre les équipe vont se rencontrer lors d'un sport.

Les philosophes de la Grèce antique ont abordé la question de la définition de ce concept d'incertitude. Le concept de probable chez Aristote (IVe siècle av. J.-C.) est défini dans les Topiques :

« Sont probables les opinions qui sont reçues par tous les hommes, ou par la plupart d’entre eux, ou par les sages, et parmi ces derniers, soit par tous, soit par la plupart, soit enfin par les plus notables et les plus illustres »

Ce qui rend une opinion probable chez Aristote est son caractère généralement admis[a 1]. Il distingue les évènements contingents qui doivent nécessairement se produire ou très fréquemment, des évènements fortuits ou accidentels qui peuvent se produire ou non[1].

Cette idée d'Aristote a été initiatrice pour mieux définir la notion de probabilité chez de nombreux auteurs . Dans la traduction de Cicéron des Topiques d'Aristote (Ier siècle), probable est traduit par probabilis ou par verisimilis, la notion de vraisemblance est alors associée à celle de probabilité ce qui aura un impact au cours du Moyen Âge puis de la Renaissance avec les commentaires successifs de l'œuvre d'Aristote[a 2]. Au XIIIe siècle, dans une traduction de l'éthique à Nicomaque d'Aristote par Oresme, le terme probabilité désigne « le caractère de ce qui est probable »[a 3].

Certaines ébauches de calculs apparaissent dans des applications précises. Durant la Rome antique, le hasard est évalué pour décider de la valeur des rentes viagères, c'est-à-dire faire un pari sur la durée de vie[2]. Ces calculs sont basés sur des tables de valeurs, certaines du jurisconsulte Ulpien (IIIe siècle) ont été retrouvées. Bien que le concept de probabilité au sens « statistique » ne soit pas encore élaboré, des premiers « raisonnements probabilistes » apparaissent[a 4].

Notion moderne de probabilité

L'apparition de la notion de « risque », préalable à l'étude des probabilités, n'est apparue qu'au XIIe siècle pour l'évaluation de contrats commerciaux avec le Traité des contrats de Pierre de Jean Olivi[a 5]. Cette idée s'est développée pendant le Moyen Âge, au XIIIe siècle et XIVe siècle ; des bourses ont été crées pour assurer les transports maritimes dépendant des fluctuations météorologiques[2] et au XVIe siècle avec la généralisation des contrats d'assurance maritime[a 4].

Une des premières références connues de calculs de probabilités est un calcul élémentaire sur le poème La Divine Comédie qui n'apparaît qu'au XVe siècle pendant la Renaissance[4].

Apparaissent alors quelques références aux probabilités dans un traité posthume de Girolamo Cardano (Jérôme Cardan en français) publié[4] en 1663 titré : Liber de Ludo ALeæ[3]. Il étudie les différentes combinaisons possibles obtenues à partir de un, deux ou trois dés, truqués ou non et il expose le principe d'équiprobabilité ou équipossibilité[5] :

« Aussi il y a une règle générale, que nous devons considérer le circuit entier [i.e. toutes les possibilités], et le nombre de ces lancers qui représente en combien de façons les résultats favorables peuvent se produire, et comparer ce nombre au reste du circuit, et les paris mutuels devront être posés selon cette proportion, de sorte qu'on puisse disputer en termes égaux. »

Cette approche montre l'intuition d'un comportement à long terme, c'est-à-dire correspondant à un sentiment empirique de la loi des grands nombres, elle et qualifiée et fréquentiste. La notion d'indépendance était connue par Cardan puisque qu'il utilise la multiplication des probabilités[6].

Les idées se propagent en Italie et en France, en effet Galilée écrit entre 1620 en 1718 son petit mémoire sur le jeu de dés intitulé Sopra le Scoperte de i Dadi[3] dans lequel il suppose l'équipossibilité des lancers. Cette notion d'équipossibilité se retrouve également, plus tard, dans la correspondance entre Pierre de Fermat et Pierre-Simon de Laplace.

Étymologie au Moyen Âge et probabilisme

Le terme probabilité a été utilisé au Moyen Âge en jurisprudence. Il est issu du latin « probare » qui signifie « prouver » ainsi désigne l'appréciation des éléments de preuves lors d'un jugement tels que les preuves , les indices ou les témoignages. En 1361, le calcul des probabilités est alors une « science dont le but est de déterminer la vraisemblance d'un évènement »[7]. Une opinion est alors probable si elle « a une apparence de vérité ». Le mathématicien Marin Mersenne utilise ces termes en 1637[7] :

« Question XXIV : Peut-on savoir en vray à quelle heure, à quel jour, en quel mois, et en quelle année le monde a commencé, et quand il finira.

Il est certain que nul ne peut sçavoir sans révélation en quelle année ... Dieu a creé le monde, car les plus sçavans Chronologues avoüent ingenuëment qu'ils ne vont qu'à tastons, et qu'ils ne que des conjectures, ou des probabilitez, ... »

Les avis et opinions des autorités morales et religieuses étaient probables. Sous l'influence entre autres de Bartolomé de Medina et des jésuites, il apparut alors au XVIe siècle et XVIIe siècle une doctrine religieuse appelée probabilisme qui « juge impossible d'arriver à la certitude et recommande de s'en tenir à ce qui est le plus probable »[7].

Cette théologie morale a été très critiquée à partir du milieu du XVIIe siècle[a 6] comme introduisant le relativisme moral, en particulier par les jansénistes et par Blaise Pascal, qui sera, par ailleurs, l'un des fondateurs du traitement mathématique du probable[a 7].

Début de la théorie des probabilités

Paternité

Page d'une « copie de la première lettre de Pascal à Fermat ».

Le véritable début de la théorie des probabilités date de la correspondance entre Pierre de Fermat et Blaise Pascal en 1654 au sujet d'une désormais célèbre question posée par Antoine Gombaud (dit chevalier de Méré) : le problème des partis[8] ou problèmes des points[9]. « Il avait pour objet de déterminer la proportion suivant laquelle l'enjeu doit être partagé entre les joueurs lorsqu'ils conviennent de ne point achever la partie, et qu'il leur reste à prendre pour la gagner, des nombres de points inégaux. Pascal en donna le premier la solution, mais pour le cas de deux joueurs seulement ; il fût ensuite résolu pour Fermat, dans le cas général d'un nombre quelconque de joueurs. » (Poisson[8]).

Suite à un séjour à Paris[10] en 1655, Christian Huygens prend connaissance de cette discussion à l'Académie Parisienne et publie en 1657 le premier traité sur la théorie probabiliste : De ratiociniis in ludo aleae (raisonnements sur les jeux de dés). C'est dans une lettre adressée à Frans Van Shooten, qui a traduit son traité en latin dans Mathematische Oeffeningen, qu'il attribue la paternité de la théorie des probabilités à Pascal et Fermat[10] :

« Il faut savoir d'ailleurs qu'il y a un certain temps que quelques uns des plus Célèbres Mathématiciens de toute la France se sont occupés de ce genre de calcul, afin que personne ne m'attribue l'honneur de la première Invention qui ne m'appartient pas. »

Puisqu'il fallait un certain délai entre l'écriture[10], la publication des œuvres et la diffusion de ces dernières, la paternité de la théorie des probabilités n'est pas unanime. Si la date de publication compte, c'est Huygens que revient l'honneur d'être appelé le père de la théorie des probabilités, cependant si la date d'écrit compte, c'est à Jérôme Cardan que revient ce droit[8]. Cependant la mauvaise réputation de Cardan a plus fait penchée la paternité sur Pascal et Fermat[8]. Leibniz (1646-1716) ne cite que Pascal, Fermat et Huygens ; Montmort (1678-1719) cite Cardan mais d'une manière restrictive ; Montucla (1725-1799), Laplace (1749-1827) et Poisson (1781-1840) ne citent que Pascal et Fermat[8].

Influences au XVIIIe siècle

les premières évolutions

Le traité de Huygens est resté le seul ouvrage important de la théorie des probabilités jusqu'au début du XVIIIe siècle, il fut traduit en 1692 en anglais par un auteur anonyme, aujourd'hui attribué à John Arbuthnot. Peut-être du fait que cette théorie ne semblait pas avoir d'applications en sciences[11].

Plusieurs ouvrages sur les probabilités suivent le premier traité de Huygens. Pierre Rémond de Montmort publie en 1708 l'un des premiers : l'Essai sur les Jeux de Hasard contenant le binôme de Newton, des problèmes de jeux de cartes et le problème des partis. de Fontenelle en fit des éloges[12]. Les problèmes se posent ainsi, à propos de la durée d'un jeu de cartes :

« Sur la durée des parties que l'on joue en rabattant... On demande combien il y a à parier que la partie qui peut durer à l'infini sera finie en un certain nombre déterminé de coups au plus. »

— Essay, de Montmort, 1713[13]

On reconnaît ici la probabilité (« à parier ») qu'une variable (« la durée de la partie ») soit plus petite qu'une valeur (« certain nombre déterminé »), il s'agit de la fonction de répartition de la loi de probabilité de la durée d'une partie. Cependant le terme « probabilité » n'apparait toujours pas dans les écrits, il avait une signification autre (voir probabilisme). Les problèmes se posent en fonction des « chances » ou des « hasards » des joueurs[11].

Œuvre de De Moivre.

Abraham de Moivre publie en 1718 The Doctrine of Chances (en anglais) contenant des problèmes combinatoires dont la formule de Stirling, des probabilités conditionnelles ainsi qu'une approximation de loi normale par une loi binomiale, c'est la première version du théorème central limite dit théorème de De Moivre-Laplace[9]. Les énoncés mathématiques sont plus précis mais n'utilisent pas le formalisme actuel[14] :

« Corollaire 8.

La rapport que, dans une puissance infinie d'une binomiale, dénotée par n, le plus grand terme porte à la somme de tout le reste, sera justement exprimé par la fraction , où c désigne, comme auparavant, la circonférence d'un cercle dont le rayon égale l'unité. »

Par ce type d'énoncés, de Moivre en arrive à la courbe appelée normale, mais il ne la considère que comme approximation et non comme densité d'une loi normale[15]. Ce traité reste le traité majeur en théorie des probabilités jusqu'à la parution du grand traité de Laplace en 1812 : Théorie analytique des probabilités[14].


La famille Bernoulli

Œuvre de Jacques Bernoulli.

L’œuvre posthume de Jacques Bernoulli : Ars Conjectandi est publiée en 1713. Elle reprend les calculs de Huygens de divers problèmes combinatoires notamment sur le binôme de Newton[9]. Son traité contient également une description de l'estimation d'un phénomène aléatoire sous forme de fréquences :

« Ce qu'il n'est pas donné d'obtenir a priori l'est du moins a posteriori, c'est-à-dire qu'il sera possible de l'extraire en observant l'issue de nombreux exemples semblables. »

C'est la relation entre la probabilité d'un évènement et l'observation de celui-ci, Bernoulli appelle ce résultat son « théorème d'or ». Le nom de « loi des grands nombres » pour ce type de résultats a été donné plus tard probablement au XIXe siècle par Poisson. Ce résultat est cependant une version généralisée du théorème actuel appelé « loi des grands nombres »[16].

Nicolas Bernoulli publie en 1711 sa thèse de doctorat où apparait pour la première fois la loi uniforme[9]. Daniel Bernoulli étudie, autour de 1732, des applications du calcul des probabilités aux problèmes d'assurance, à l'astronomie, au calcul d'erreur ou au paradoxe de Saint-Pétersbourg[9]. Dans les mêmes années, Leonhard Euler contribue également à des questions d'assurance[9]. Jean le Rond D'Alembert étudie de même le paradoxe de Saint-Pétersbourg et énonce la règle actuelle du calcul de l'espérance d'une variable aléatoire discrète[9].

Bayes et ses applications

Thomas Bayes énonce, à titre posthume en 1764 dans un article intitulé An essay towards solving a problem in the doctrine of chances[17], une première version d'une formule dite théorème de Bayes utilisant des probabilités conditionnelles[9]. Ce théorème est également appelé problème inverse ou probabilité inverse[18] et a été étudié par de nombreux auteurs cependant le premier à donner une formulation précise de ce problème de probabilité inverse est Pierre-Simon de Laplace en 1774 dans son mémoire Sur la probabilité des causes[17] :

« On suppose qu'un évènement de probabilité positive peut être obtenu par n'importe laquelle des causes mutuellement exclusives et exhaustives, toutes de probabilité positive. Ainsi, pour chaque i :

. »

Le naturaliste Georges-Louis Leclerc de Buffon publie en 1777 son Essai d'Arithmétique Morale dans lequel apparait des liens entre les probabilités et la géométrie, et en particulier, le problème de l'aiguille de Buffon[9].

Les travaux de Laplace

Joseph-Louis Lagrange publie vers 1770 un mémoire contenant des problème de durée d'un jeu de hasard et utilisant des lois continues[9]. Débute alors la considération du caractère continu des probabilités.

Au début du XIXe siècle, plus précisément en 1812, Laplace publie son traité intitulé Théorie analytique des probabilités dans lequel il présente des résultats asymptotiques étant ainsi un des premiers ouvrages à distinguer des énoncés de principes probabilistes aux estimations des probabilités observées suite à une expérience[19]. Cependant la distinction aujourd'hui usuelle entre le signe somme et le signe intégrale n'était pas observée à l'époque de Laplace[20]. Il énoncent alors ces résultats à propos de problèmes d'urnes en utilisant des rationnels[20] :

« Le rapport du nombre de billets blancs au nombre total des billets contenus dans l'urne peut être un quelconque des nombres fractionnaires compris depuis 0 jusqu'à 1. »

En augmentant le nombre de « billets » à l'infini, Laplace énonce alors une première version rigoureuse du théorème central limite[21] :

« on voit donc qu'en négligeant les quantités infiniment petites, nous pouvons regarder comme certain que le rapport du nmobre de billets blancs au nombre total de billets est compris est compris entre les limits et , étant égale à , étant plus grand que 2 et moindre que 3; partant peut être supposé moindre qu'aucune grandeur posée. »

Ici le théorème central limite est vu par l'intermédiaire d'intervalles de confiance, c'est-à-dire en donnant l'imprécision de la convergence d'une somme vers la moyenne obtenue pour la loi des grands nombres[a 8]. Les travaux de Laplace resteront des travaux de référence jusqu'à la fin du XIXe siècle et au début du XXe siècle[22].

Théorie classique des probabilités

Fondements

La théorie des probabilités va prendre un nouvel essor vers le début du XXe siècle grâce à l'introduction de nouveaux concepts comme les mesures et l'intégration.

Axel Harnack introduit en 1881 la notion de d'ensemble discret, puis en 1882 le concept d'« égalité en général » qui est précurseur de l'égalité presque sûre[23]. Les mesures apparaissent sous différentes définitions suivant les travaux de Georg Cantor (1884), Giuseppe Peano (1887) ou Camille Jordan (1892)[23]. Mais c'est à Émile Borel que l'on attribue la paternité de la théorie de la mesure avec l'introduction d'ensembles de mesure nulle en 1897, et de la classe des sous-ensembles ouverts de qu'il mesure à partir de la longueur des intervalles. Cette classe portera plus tard le nom de « borélienne »[23].

En 1901, Henri-Léon Lebesgue utilise cette théorie de la mesure pour développer la théorie de l'intégration qui généralise l'intégrale de Riemann[23]. Sous l'impulsion de Johann Radon en 1913, cette théorie se généralise sur puis sur un ensemble plus abstrait muni d'une tribu[23]. La fin de cette généralisation est estimée à 1930 avec la décomposition de Radon-Nikodym-Lebesgue et l'existence des densités[23].

Évolution au XXe siècle

Théorème central limite

La première version moderne du théorème central limite est donnée par Alexandre Liapounov en 1901[a 8] et la première preuve du théorème moderne donnée par Paul Lévy en 1910.

Processus stochastiques

L'origine des processus stochastiques date du début du XXe siècle et ont été introduits pour modéliser des phénomènes temporels où intervient le hasard, en mécanique statistique par exemple. les premiers physiciens à les utiliser sont Willard Gibbs, Ludwig Boltzmann, Henri Poincaré, Marian Smoluchowski ou Paul Langevin[24]. Les bases théoriques sont apparus plus tard dans les années 1930-1940 grâce aux travaux des mathématiciens Joseph Leo Doob et Andreï Kolmogorov, entre autres[24]. Apparait alors le terme stochastique issu du grec « stokastikos » signifiant « conjectural »[24]. En 1902[a 9], Andreï Markov posa les bases de la théorie des processus à temps fini possédant la propriété de Markov : le futur du processus ne dépend que du présent et non du passé. Ces processus seront appelés processus de Markov. Kolmogorov généralisa cette propriété en 1936 pour les processus à temps continu[24].

Applications

Lois de probabilité

Certaines lois de probabilité ont été définie initialement comme le résultat statistique d'une expérience ou comme le comportement asymptotique de d'autres lois, elles ont par la suite été définies rigoureusement.

Loi du χ²

Tandis qu'en 1838, Irénée-Jules Bienaymé obtient la loi du χ² comme limite de variables aléatoires discrètes de loi multinomiale, La formulation de cette loi du chi-carré est dûe au physicien Ernst Abbe en 1863, selon le statisticien Oscar Sheynin[25]. Ludwig Boltzmann en présenta le cas général en 1881. C'est en 1900 que Karl Pearson utilise cette loi en statistique comme approximation dan les tests statistiques[25].

Loi gamma

La loi gamma est issue des travaux de Pierre-Simon de Laplace en 1838[26].

Loi normale

Une des premières apparitions de la loi normale est dûe[22] à Abraham de Moivre en 1733 en approfondissant l'étude de la factorielle . Pierre-Simon de Laplace obtient cette loi en 1774 comme limite d'une loi hypergéométrique[27]. Dans son ouvrage publié en 1781, il donna une première table de cette loi. De nouvelles tables sont données en 1948 par Karl Pearson, en 1952 par le National Bureau of Standards et jusqu'en 1958 par Greenwood et Hartley[27].

Son nom « normale » est donné par Henri Poincaré au début du XXe siècle[22]. La loi porte également le nom loi de Gauss ou loi de Laplace-Gauss[a 8] en fonction de l'attribution de la parternité de la création de cette loi.

Références

Ouvrages
  1. a et b Henry 2001, p. 13
  2. a b c et d Henry 2001, p. 14
  3. a b c et d Dodge 2004, p. 409
  4. a b et c Dalang et Conus 2008, p. 127
  5. Henry 2001, p. 17
  6. Dodge 2004, p. 247
  7. a b et c Henry 2001, p. 25
  8. a b c d et e Henry 2001, p. 19
  9. a b c d e f g h i et j Dalang et Conus 2008, p. 128
  10. a b et c Henry 2001, p. 18
  11. a et b Henry 2001, p. 24
  12. Henry 2001, p. 32
  13. Henry 2001, p. 34
  14. a et b Henry 2001, p. 43
  15. Henry 2001, p. 42
  16. Henry 2001, p. 38
  17. a et b Dale 1999, p. 5
  18. Dale 1999, p. 4
  19. Dale 1999, p. 170
  20. a et b Dale 1999, p. 171
  21. Dale 1999, p. 173
  22. a b et c Tassi 1990, p. 33
  23. a b c d e et f Tassi 1990, p. 34
  24. a b c et d Dodge 2004, p. 413
  25. a et b Dodge 2004, p. 300
  26. Dodge 2004, p. 302
  27. a et b Dodge 2004, p. 502
Autres œuvres

Voir aussi

Bibliographie

  • (fr) Dalang et Conus, Introduction à la théorie des probabilités, Presses polytechniques et universitaires romandes, , 204 p. (ISBN 978-2-88074-794-7, lire en ligne).Document utilisé pour la rédaction de l’article
  • (fr) Michel Henry, Probabilités et statistique, Presses Universitaires de Franche-Comté, , 262 p. (lire en ligne).Document utilisé pour la rédaction de l’article

Articles internes