Discussion:Loi de probabilité

Une page de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
Autres discussions [liste]

commentaires anciens[modifier le code]

a noter que pour les lois de probabilités discrètes, il manque la loi de Bernoulli, qui est sûrement l'exemple le plus simple: http://fr.wikipedia.org/wiki/Distribution_de_Bernoulli


"une loi de probabilité est une mesure positive sur un espace mesuré de masse finie égale à 1" Je me demande si le lecteur non spécialiste (c'est l'audience d'une encyclopédie) trouvera quelque éclaircissement que ce soit dans une telle formulation ! Ne cherchons-nous donc pas à favoriser l' intelligibilité sur la précision ? Bertrand Russell a rappelé que les deux étaient le plus souvent antinomiques.

Le refuge derrière un langage obscur est un héritage de la philosophie médiévale, et le fléau qui handicape l'université française (relativement par exemple aux écoles d'ingénieurs ou aux universités anglosaxonnes). La wikipedia pourrait constituer à mon humble avis un moyen d'en sortir.

Très juste. C'est déplacé dans une section. Exol
extrèmement faux et obscurantiste, l'existence d'un article fondamental sur la définition des lois de probabilités sur R, et sur leur classification, est un gros manque du portail proba, au contraire. Si Bertrand Russell n'en comprend pas l'utilité, cela renseigne seulement sur Bertrand Russell (appelons le ainsi), qui est juste un des dix aveugles donnant leurs définitions de l'éléphant, mais ne renseigne sûrement pas sur l'utilité de la définition mathématique ou de la classification des mesures de probabilité sur R. Risible. Cette page est très bien faite, et très utile, mais il y a une foule immense de domaines utilisateurs des probabilités, avec des besoins différents, et un domaine ne peut pas statuer sur les besoins des autres domaines, sur la base de son expérience partielle et de ses propres besoins. Ici c'est un lieu de science, de vulgarisation de travail collaboratif et de générosité, non pas d'exclusion, d'obscurantisme, ou de reglement de compte sectaire. Cette page est bien telle qu'elle est, et la definition mathématique d'une mesure ou loi de probabilité y arrive un peu comme un cheveu sur la soupe, pas à sa place en introduction, ni à sa place en derniere partie non plus. Il faudrait une page autonome sur les aspects mathématiques fondamentaux d'une loi de proba, avec exemples illustratifs puisés dans cette page ci. Cette page devrait, là je cherche, s'appeler Loi de probabilité(aspect fondamentaux) peut-être ?? alors que cette page-ci devrait s'appeler Loi de probabilité(florilege anthologie bestiaire, lexique, exemples ou je ne sais quoi ???)recherche à poursuivre. Je m'y mettrais en Novembre si personne ne s'en charge d'ici là.--Chassaing 17 septembre 2008 à 11:52 (CEST)

Je ne comprends pas pourquoi on est revenu en arrière en supprimant mes ajouts sur le caractère d'entropie maximale des lois de probabilité sans la moindre explication ! Cette caractéristique est extrêmement importante, et je ne vois pas ce que la Wikipedia à a gagner en supprimant des informations exactes relatives à un sujet.

J'approuve Exol quand il dit que c'est hors sujet. Ici l'article traite des lois de probabilité en toute généralité, vous parlez apparemment de lois de probabilités particulières (par exemple: Gaussienne / Poisson / etc ?). Si c'est effectivement vrai et important, ça mérite une place, mais ailleurs (ou plus loin dans l'article, où on parle de ces lois particulières-là.) FvdP (d) 14 jul 2004 à 23:43 (CEST) (P.S. j'ai écrit ça avant qu'Exol ne transforme l'article en un article sur les lois de probabilités usuelles, ce qui détruit mon argument. Soit...) FvdP (d)
Bon, ok, je reprends la copie :-) J'ai tenté de faire un compromis en créant des sections supplémentaires, qui, je l'espère, vont mettre tout le monde d'accord. A vous de jouer à présent ! Exol

La modification actuelle me convient. Ce qui est important, c'est le fait que le caractère d'entropie maximale est loin de ne concerner que la distribution exponentielle (contrainte unique : valeur de la moyenne) et la distribution gaussienne (contraintes : valeur de la moyenne et de l'écart-type), mais s'applique également à bien d'autres. C'est le cas entre autres de la Loi de Zipf (contrainte : logarithme de la valeur moyenne, c'est à dire l'ordre de grandeur), et de celle de Mandelbrot (qui est en fait la même dans laquelle on introduit deux facteurs correcteurs).

Cela dit, je suis d'accord pour en faire éventuellement un article à part si besoin, par exemple reprenant le sujet dans "méthodes bayésiennes" (à écrire). François-Dominique 15 jul 2004 à 00:00 (CEST)

Je sais bien... Je pense qu'un article sur le maximum d'entropie se justifie. Cela dit, je pense qu'il est plus important d'étoffer celui sur les lois de probas, notamment en donnant plus d'exemples... Exol
Je pense qu'il faudrait fusionner la page avec celle de variable aléatoire. De plus, il faudrait faire une redirection à partir de loi de probabilités avec un s finial (c'est plus correct). Exol 15 jul 2004 à 02:24 (CEST)

Personnellement, je n'ai pas d'avis autorisé sur "une loi de probabilité [...] mesure positive sur un espace mesuré de masse finie égale à 1" et encore moins sur l'entropie maximale. C'est certainement la raison pour laquelle je comprends mal le rapport avec la description élémentaire de quelques lois de probabilité. Il me semble que la définition de la loi de probabilité, quelle qu'elle soit, serait plus à sa place au début de l'article que comme conclusion. Quant à l'entropie maximale, je la verrais plutôt dans l'article plus fondamental Probabilité. Sinon, il faudrait prévoir un nouvel article pour héberger les lois brièvement décrites. Jct 3 mai 2005 à 16:33 (CEST)

Fusion avec Distribution (statistique)[modifier le code]

Il y a t il une bonne raison que cet article soit distinct de Distribution (statistique) ? le contenu est quasi identique ! Si personne ne s'y oppose, je lancerais une fusion de ces deux articles. Sylenius 9 décembre 2006 à 19:02 (CET)

L'article distribution (statistique) a été créé en avril 2006. Le 20 avril 2006Eric Kvaalen (d · c · b) y recopie le contenu de cet article. Je serais d'avis que rien ne soit touché sur cet article (loi de probabilité) qui a l'antériorité (en particulier son titre). Je ne vois pas ce qu'a de spécifique la notion de distribution en statistique. En attendant que quelqu'un créé un article spécifique stat sur les distributions, il suffit de créer un redirect de distribution (statistique) vers Loi de probabilité. HB 9 décembre 2006 à 20:40 (CET)
Je suis assez d'accord. Créer un redirect effacerait cependant le contenu de l'article distribution. Est-ce faisable ? sachant que d'autres utilisateurs y ont contribués après la copie par Eric Kvaalen (d · c · b), est ce que l'on peut supprimer leurs contributions comme ça ? Il me semblait que la fusion était la solution la plus simple (?), mais tu es admin, tu dois savoir ça mieux que moi, et du coup, je te laisse te débrouiller avec ces histoires Clin d'œil Sylenius 9 décembre 2006 à 20:56 (CET)
Stop ! Le titre d'admin ne me donne que la possession d'un balai, pas celui de la sagesse ! J'ai donné mon avis, attendons ceux de l'autre article (les modification ont été très minimes) personne ne devrait se sentir lésé. Le problème est de savoir s'il faut créer un redirect ou différentier les deux articles. HB 9 décembre 2006 à 21:09 (CET)
Ah, mais je ne parlais que d'un point de vue d'une meilleure connaissance wikipédienne Clin d'œil. Pour en revenir au sujet, pour moi, les deux articles recouvrent exactement la même notion. Sylenius 9 décembre 2006 à 21:17 (CET)
Bon j'ai étalé cela sur la place publique . on verra bien les réactions. HB 9 décembre 2006 à 21:23 (CET)
J'ai fusionné les deux articles et les historiques afin de crédités les auteurs des quelques modifications apportées à la copie originale de Loi de probabilité. Jerome66 | causer 18 décembre 2006 à 09:44 (CET)

une petite question sur la loi de laplace[modifier le code]

bonjour! je suis un étudiant de la faculté des sciences juridiques et economiques (bac +2)( universités de NOUAKCHOTT, MAURITANIE) j'ai vus dans un livre que lorsque une varianble X suit une loi normale de paramétres N{m;v} (v:l'ecart type) et qu' il ya une autre variable V=aX + b on peut dire que V aussi suit une loi normale de paramétres N{(a.m) + b;|a|v} et dans le cours qui est representer par WIKIPEDIA il est marqué N{(a.m) + b;a2v2} (a2: a au carree, v2: v au carree)je vous pris de me présenter une solution. merci d'avoir m'aider, je crois que j'ai ete claire merci une autre fois

cela dépend si les paramètres choisis sont la moyenne et l'écart-type (comme dans votre cours) ou la moyenne et la variance (comme dans l'article). Comme la variance est le carré de l'écart type, cela explique cette différence de présentation. HB 17 mai 2007 à 16:21 (CEST)

Loi de Bernouilli...[modifier le code]

Bonsoir, un petit commentaire sur cet article (commentaire de peu de portée...Mes cours de stats datent de plus de 20 ans...) Il me semble que l'exemple choisi pour illustrer la loi de Bernoulli (pile ou face) n'est pas le meilleur.

En effet, un lancer de pièce suit d'abord , au même titre qu'un lancer de dé, une loi uniforme discrète (avec n=2). Il suit aussi, accessoirement la loi de Bernoulli. Mais c'est un cas particulier avec p = 1/2.

Illustrer Bernoulli par "pile ou face" laisse à penser que justement, c'est un "pile ou face" equiprobable. Alors que la difficulté pour une loi de Bernoulli est d'estimer le "p" (p et (1-p)).

J'écrits cela parce que moi-même, j'ai commencé par assimiler, à la lecture de l'article, Bernoulli à "pile ou face"

Il me semble en fait qu'un meilleur exemple serait de "gagner ou perdre à la loterie nationale" ou pour un avion , "de s'écraser ou de ne pas s'écraser".

Je viens de m'inscrire à Wikipédia, et c'est mon premier commentaire... désolé pour le niveau scientifique assez basique...

--Bridard (d) 26 avril 2010 à 23:55 (CEST)

Oui, il valait mieux ne pas citer ce cas particulier. J'ai modifié en évoquant seulement une expérience à deux issues. HB (d) 27 avril 2010 à 08:36 (CEST)

loi conditionnelle[modifier le code]

J'ai fait une première ébauche sur la loi conditionnelle, mais je pense que c'est améliorable et complétable(?). J'avoue ne pas avoir trouvé de définition formelle pour une mesure conditionnelle non définie à partir d'une variable aléatoire. Tout avis est bon à recevoir. Ipipipourax (d) 7 avril 2012 à 21:15 (CEST)

Il pourrait être bon de préciser que le A considéré, si ce n'est pas un événement, est un espace mesurable de la tribu de proba ? Ou bien cela dépend à quel point vous voudriez être précis dans la définition d'une loi conditionnelle. Il est peut-être possible aussi de définir la fonction de densité conditionnelle puisqu'elle définit la loi conditionnelle. Il me semble que la densité conditionnelle est traitée dans le wiki anglais ? Cdt, --Miaoui (d) 26 avril 2012 à 15:32 (CEST)
J'ai ajouté une précision pour les évènements, mais en fait le terme évènement est sensé être suffisant. J'ai fait des petites sous-sections histoire de mieux présenter les différentes notions de conditionnement. Les densités conditionnelles ne sont qu'un cas particulier des lois à densité, j'ai mis la définition mais sans vraiment rentrer dans le détail, je pense que sa vraie place est dans probabilité conditionnelle. merci pour les commentaires. Ipipipourax (d) 29 avril 2012 à 15:01 (CEST)

Autres idées ??[modifier le code]

Bonjour, Après avoir remodelé tout l'article, je ne vois plus trop quel sujet ajouter à cet article déjà long. je crois que j'ai couvert entre autres les idées de l'article anglais. Si quelqu'un a d'autres idées, il est le bienvenu. Peut-être manque-t-il des applications mais je me sens moins compétent pour ça.

Autre remarque : Est-ce que la classification dans le projet physique a vraiment sa place ici?? Je trouve que non ...

Par ailleurs, merci à l'IP 82.225.6.140 qui m'a relu et corrigé. Ipipipourax (d) 8 mai 2012 à 15:42 (CEST)

Relecture de Jackverr[modifier le code]

dans la partie Historique
Je ne comprends pas la phrase " Par exemple, la loi normale est construite par Abraham de Moivre grâce la courbe de Gauss comme une approximation numérique" : vous voulez dire "grâce à"?
Plus loi, "et va continuer avec plusieurs tels" : il doit manquer "personnes" après "plusieurs" je pense..
--Jackverr (d) 11 mai 2012 à 21:29 (CEST)

J'ai corrigé les erreurs. Ipipipourax (d) 11 mai 2012 à 21:34 (CEST)
  • dans la définition, il me semble qu'il faudrait préciser que est la tribu des Boréliens.
    Fait. Ipipipourax (d) 11 mai 2012 à 21:50 (CEST)
  • Tout de suite après, vous parlez de E qui n'est pas défini, je pense..--Jackverr (d) 11 mai 2012 à 21:40 (CEST)
    Fait, c'est en fait les réels. Ipipipourax (d) 11 mai 2012 à 21:50 (CEST)
  • Quand vous dites,

"Ainsi, deux variables aléatoires réelles et ont même loi si : pour toute fonction telle qu'au moins un des deux termes de l'égalité ait un sens." est-ce que ça veut dire que quand l'un des deux termes a un sens les deux l'ont? sinon l'égalité n'a pas de sens, il me semble. c'est juste pour ma compréhension.--Jackverr (d) 12 mai 2012 à 20:05 (CEST)

  • Cette explication n'est pas de moi, elle était là avant. Je serais tenté de dire que si l'une existe alors les deux existent. Mais peut etre existe-t-il des constructions différentes de variables aléatoires de meme loi dont l'une est intégrable pour une fonction Φ mais pas l'autre. Dans le doute il vaut mieux garder la phrase comme ca je pense. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
  • dans "Lois marginales", je pense que ce serait mieux d'écrire "la loi marginale Pi" plutôt que " La marginale Pi".--Jackverr (d) 12 mai 2012 à 20:05 (CEST)
    remplacé. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
  • Dans la Définition pour les variables aléatoires es lois conditionnelles vous dites

"L'égalité précédente est une égalité presque sûre entre variables aléatoires". De quelle égalité vous parlez? si c'est l'égalité de la définition, vous l'avez déjà ditSourire.

  • En fait je voulais préciser que les deux termes de l'égalité sont des variables aléatoires, mais effectivement presque sûre apparait deux fois, je l'ai enlevé. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
  • Dans Définition sur les lois à densité

au lieu de dire "En remplaçant les intégrales par des sommes, on obtient des formules similaires dans le cas où une des lois marginales est discrète et l'autre est à densité", je trouve que ce serait plus simple de dire "En remplaçant les intégrales par des sommes, on obtient des formules similaires dans le cas où les lois marginales sont discrètes"

  • Il y a le cas ou les deux lois sont à densité mais aussi le cas mixte, j'ai détaillé la phrase. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
  • est ce vous pourriez expliquer (dans une note par exemple) ce qu'est une mesure de probabilité tendue?
    J'ai rajouté une explication intuitive. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
  • "Lorsque la loi de probabilité est absolument continue par rapport à la mesure de Lebesgue sur , la loi (ainsi qu'une variable aléatoire associée) est dite absolument continue, ou à densité"

est-ce que vous voulez dire qu'on omet "par rapport à la mesure de Lebesque"?

  • En fait on dit plutot continu (sans le absolument), et oui par rapport a la mesure de Lebesgue est implicite. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
  • est-ce que vous pourriez expliquer ce qu'est une loi stable de paramètre 2 ou 1, parce que l'article correspondant ne l'explique pas?
    Une loi stable vérifie, pour des variables aléatoires X, Y : aX+bY est encore de meme loi; Pour avoir les paramètres 1 ou 2, il faut parler de l'exposant de la transformée de Fourier. Je ne suis pas sûr que l'article soit le bon endroit pour expliquer tout ca. Ca prendrait trop de place pour un seul exemple. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
  • J'ai trouvé que les premières phrases de chaque exemple de loi qui explique comment elles sont utilisées, était une bonne idée. mais vous ne l'avez pas fait pour la Loi de Tukey-Lambda, et la loi de Cauchy. c'est dommage.
    Je ne l'ai pas fait tout simplement parce que je ne connais pas (et n'ai pas trouvé) d'explications intuitives. Mais effectivement ce serait bien. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
D'après cette référence externe (Tukey-Lambda Distribution @ The NIST/SEMATECH e-Handbook of Statistical Methods) de l'article sur la loi de Tukey-Lambda, cette loi sert en stat à modéliser la distribution d'un ensemble de données en jouant sur le paramètre lambda. On ne peux pas se servir de cet article comme ref parce qu'il n'est pas signé, dommage.--Jackverr (d) 13 mai 2012 à 17:53 (CEST)
Cette référence est en fait la copie de la page wikipedia anglaise. Mais "modéliser la distribution d'un ensemble de données" c'est ce que font toutes les lois. Ca n'avance pas a grand chose. En fait elle est utilise particulièrement pour la donnée simple des lois des quantiles. La loi de Cauchy est particulièrement intéressante à titre d'exemple de loi snas moments. Je ne sais pas si ces deux lois représentent quelque chose de simple. Ipipipourax (d) 13 mai 2012 à 18:55 (CEST)
la loi de Cauchy est, approximativement, la loi du temps nécessaire pour atteindre un demi plan donné, pour la marche aléatoire simple dans le plan. Même énoncé pour le mouvement brownien plan, mais la, on peut enlever « approximativement ». C'est aussi un cas particulier de loi de Student, je crois, mais à vérifier ... Chassaing 23 mai 2012 à 08:10 (CEST)
J'ai trouvé une source pour la position d'un mouvement brownien lorsqu'il atteint un demi-plan. Et oui, c'est une loi de student avec paramètre 1 (voir loi de student). Merci pour l'info. Ipipipourax (d) 23 mai 2012 à 10:44 (CEST)
  • Je crois que vous aurez des remarques sur les expressions telles que :"on peut penser", "donnons",
    Oui probablement, n'hésitez pas à reformuler vous meme. Ipipipourax (d) 12 mai 2012 à 23:56 (CEST)
Fait fait.--Jackverr (d) 13 mai 2012 à 12:34 (CEST)
  • Dans «Caractérisation de la loi de probabilité d'une variable aléatoire réelle», je pense qu'il faudrait remplacer "caractérisation" par "définition", ou "spécification" si on peut, et "caractériser" par "préciser", "qualifier", "expliciter" si ça a un sens dans ce contexte. Les répétitions rendent la lecture difficile.--Jackverr (d) 20 mai 2012 à 19:42 (CEST)
    Effectivement ce serait pas plus mal si on diminuait les termes caractéristiques. Je pense qu'on peut les supprimer dans les titres des sous-sections. Et aussi diminuer leur utilisation dans le texte en remplaçant par "détermine de manière unique" (cf saporta) par exemple. Mais je ne suis pas pour utiliser "définition" qui mon sens doit être réservée pour la définition première. je n'ai jamais vu la terme "spécification" depuis que je fais des proba, à mon avis il vaut mieux éviter de l'utiliser. Pareil pour les autres propositions. J'essaierai de faire les changements dans les jours prochains. Ipipipourax (d) 22 mai 2012 à 15:29 (CEST)
    • « Caractérisation  » est le terme approprié, à l'exclusion des termes proposés par Jackverr : l'énoncé : deux lois sont égales si elles ont même fonction de répartition , même série génératrice, ou même densité, ou même fonction caractéristique, ou même transformée de laplace, se formule alternativement sous la forme suivante : « une loi de proba est caractérisée par sa fonction de répartition , sa série génératrice, sa densité » ; "préciser", "qualifier", "expliciter" n'ont pas le même sens, ni même « définie ». « spécifiée  » est plus proche, mais ça reste insatisfaisant. La seule tournure alternative qui me semble acceptable ou exacte est "déterminée de manière unique", mais elle est bien plus lourde. Il serait souhaitable et plus élégant d'éviter ces répétitions, mais pas au prix de la clarté ni de l'exactitude. Chassaing 23 mai 2012 à 01:40 (CEST)

Illustration[modifier le code]

L'article est un peu trapu pour un non mathématicien. Serait-il possible d'avoir des exemples où sont utilisé les différents modèles. Exemple: découpe de barre à la longueur L -> suit une loi normale, mesure de planéité d'une surface (toujours >0) suit une loi ? etc... Skiff (d) 13 mai 2012 à 06:52 (CEST)

Je suis d'accord que ce serait bien de trouver des exemples concrets. Comme je l'ai signalé plus haut, je ne suis pas spécialiste des applications. L'idéal, à mon avis, serait de trouver un exemple dans plusieurs domaines avec des lois de probabilités différentes à chaque fois. Je vais essayer de trouver des sources. En attendant, je propose des domaines : physique, chimie, biologie, linguistique, sociologie, économie, sport, industrie (productivité), médecine, géologie (hydrographie) ... Ipipipourax (d) 13 mai 2012 à 12:05 (CEST)
Finalement, à force de chercher, j'ai trouvé quelques exemples. Quatre c'est déjà pas mal. On peut les multiplier mais je ne pense pas que ce soit l'endroit idéal. Il y a quelques exemples puis basiques dans les exemples de lois discrètes et à densité. Ipipipourax (d) 13 mai 2012 à 18:58 (CEST)
C'est pas mal. Je pense qu'il faudrait les multiplier ou tout au moins en ajouter dans chacun des articles dédiés à chaque loi. Skiff (d) 14 mai 2012 à 05:39 (CEST)
Oui je pense que leur place est vraiment dans les articles correspondant ou dans des articles sur les familles de lois (qu'il faudrait créer). Ipipipourax (d) 14 mai 2012 à 10:06 (CEST)

Redirections[modifier le code]

Je lance une idée : faire des redirections de loi discrète, loi à densité et loi continue vers les sections correspondantes. Ça permettrait d'utiliser de liens faciles pour les autres pages. Par contre ca implique des créer les 3 pages, à moins qu'il y ait une autre méthode. Ipipipourax (d) 14 mai 2012 à 18:13 (CEST)

label BA?[modifier le code]

A mon gout l'article pourrait être proposé BA. Qu'en pensez-vous? Avez-vous d'autres commentaires? Ipipipourax (d) 23 mai 2012 à 11:36 (CEST)

Fairytale bookmark silver light.pngQuestion mark 3d.png
J’ai l’intention de proposer prochainement la page « Loi de probabilité » au label « bon article ». Si vous estimez que la procédure est prématurée, vous pouvez me contacter pour me faire part de vos arguments.

Vote précédent : Proposition « Bon article »

Ipipipourax (d) 24 mai 2012 à 14:45 (CEST)

et, si ca vaut le coup :

Fairytale bookmark gold.svgQuestion mark 3d.png
J’ai l’intention de proposer prochainement la page « Loi de probabilité » au label « article de qualité ». Si vous estimez que la procédure est prématurée, vous pouvez me contacter pour me faire part de vos arguments.

Vote précédent : Proposition « Bon article »

Ipipipourax (d) 24 mai 2012 à 14:45 (CEST)

Remarques après les changements de ‎Maggyero[modifier le code]

Bonjour, après la liste impressionnante de modifs de Maggyero (j'avoue avoir eu du mal à suivre tellement il yen a), j'ai quelques remarques :

  • La principale remarque est que vous avez remplacé, à plusieurs endroits, la mesure par la loi d'une variable aléatoire. Je pense principalement à la définition de loi discrète. Il n'y a pas besoin d'utiliser une variable aléatoire pour définir une loi discrète, j'avais mis en première partie la définition sans variable et après les formules avec variables. L'article étant sur les lois de proba et non les variables ça me parait important de ne pas utiliser une variable pour définir une loi. (je changerai dans 1 ou 2 jours, sauf s'il y a des commentaires contraires).
  • Pour les lois à densité, je suis du même avis, il faut commencer par une définition sans variables et ensuite mettre le cas avec. C'est vrai que ca n'apparaissait avant les changements, mais je le fais dans 1 ou 2 jours (sauf commentaires contraires).
  • Je fais la même remarque pour la décomposition dans la section autre cas, pas besoin de parler de variable aléatoire. (idem : je changerai).
  • Je n'ai trouvé ni le terme loi diffuse ni sa définition (notamment dans Klebaner), il faudrait une source. Et idem, pour les atomes, on peut le faire sans utiliser de variables aléatoires. cette définition d'atomes devrait d'ailleurs plutôt apparaitre dans la section lois discrètes. (idem : je changerai).
  • Vous avez enlevé l'écriture des lois sous forme la somme de Dirac dans les exemples. L'intérêt est d'illustrer la formule générale sur des exemples simples. Je trouve que ça aide à la compréhension. (idem : je remettrai).

Sinon, merci pour l'ajout de la section loi diffuses que je connaissais pas. Je vois que les modifs continuent, j'aurai peut-être d'autres commentaires. Ipipipourax (d) 4 juin 2012 à 18:40 (CEST)

Bonjour. Concernant vos remarques :
  • C'est vrai qu'on peut définir la notion de mesure discrète pour une mesure quelconque, mais dans le cas particulier des mesures de probabilité j'ai toujours trouvé dans la littérature la définition appliquée à la mesure de probabilité image () et non appliquée à la mesure de probabilité initiale (). En plus c'est équivalent il me semble.
    Les sources que j'avais mise étaient justement sur des mesures sans variables aléatoires. Je remettrai les formules générales en début de section suivies des formules pour variables aléatoires. Oui c'est équivalent, donc autant mettre les formules qui correspondent à l'article. Ipipipourax (d) 5 juin 2012 à 10:04 (CEST)
  • Même remarque.
    Egalement même remarque. Ipipipourax (d) 5 juin 2012 à 10:04 (CEST)
  • Pour la décomposition de Lebesgue je ne vois pas d'inconvénient à changer () en () par contre.
  • Les lois diffuses s'appellent aussi lois continues ou lois sans atome (à ne pas confondre avec les lois absolument continues). Plus généralement, la notion provient des mesures continues. On peut trouver la définition à la page 39 (définition 6) de ce livre : http://www.scribd.com/doc/46755664/Theorie-Des-Probabilites. Je ne l'ai pas trouvé sur Wikipédia par contre, il faudra que je la rajoute à l'occasion. J'ai aussi rajouter la définition des lois étrangères (ou singulières), qu'on trouve également dans ce même livre à la page 61 (définition 23), mais aussi dans l'article Wikipédia intitulé Théorème de Radon-Nykodym-Lebesgue (j'ai donc mis un lien vers la l'article).
  • J'ai enlevé les lois décomposées en mesures de Dirac dans les exemple car elles étaient présentes sur 2 exemples uniquement. Vous pouvez les remettre, mais ça serait bien de les mettre sur tous les exemples dans ce cas là.
De rien, merci pour les remarques. --Maggyero (d) 5 juin 2012 à 06:08 (CEST)
  • Je corrobore diffuse, voir peut-être Garet et Kurtzmann, plus récent.
    J'ai trouvé une source, mais pas pour loi continue (c'est pas bien grave) Ipipipourax (d) 5 juin 2012 à 12:52 (CEST)
  • Par contre, je rétablirai les particularisations du théorème de transfert aux cas discrets et continus, ce sont les traductions de ces notions les plus utiles à l'utilisateur de base.Chassaing 5 juin 2012 à 08:43 (CEST)
    J'ai fait le cas continu et j'ai sourcé les deux cas. Ipipipourax (d) 5 juin 2012 à 12:44 (CEST)
  • Pour discret, il est bon d'avoir la notion de support (il est toujours bon d'être plus savant), mais il est aussi intéressant d'être le moins savant possible, or on peut se passer du support pour les lois discrètes, sans aucune perte, et c'est parfois plus ergonomique. Je donnerai donc en plus une definition alternative, dès que j'aurai le temps. De plus y figure une définition du support fausse en général, vraie dans le cas discret, sans que cela soit signalé. Et il est maladroit de placer cette définition après l'utilisation du terme « support ». J'y remédierai au plus tot, j'espère. Chassaing 5 juin 2012 à 08:52 (CEST)
  • La formulation « Une loi (ou sa variable aléatoire associée) » est malheureuse (en particulier le « sa »), car il y a une infinité de v.a. « associées » à une loi donnée. Je sais que les auteurs le savent, mais c'est les lecteurs, qui ne le savent pas toujours, qui vont être induits en erreur. Une formulation plus correcte pourrait être « Une v.a. est dite discrète (resp. diffuse, abs. cont., ...) si sa loi est discrète (resp. diffuse, abs. cont., ...). Une loi de probabilité est dite discrète (resp. diffuse, abs. cont., ...) si .... <définition>.  » Je ne vois pas comment y échapper en restant rigoureux, sur le moment.
    Dans chaque cas, j'ai mis en début de section les définitions sans utiliser de variables aléatoires, puis les versions avec variables. Du coup le problème "(ou sa variable aléatoire associée)" est résolu. Ipipipourax (d) 5 juin 2012 à 12:44 (CEST)
  • J'ai mis « Le plus souvent, la fonction de répartition d'une loi discrète est constante par morceaux.  » à titre conservatoire. Ce n'est certes pas une propriété caractéristique, p.e. si le support est Q, p.e. en utilisant une bijection entre Q et N étoile, et en donnant au rationnel rn la proba 2-n , on obtient une v.a. discrète dont la fn de répart est strictement croissante sur tout R. D'ailleurs le support de cette loi discrète est R, non dénombrable.
  • Ce qui implique que la définition d'une loi discrète donnée par l'article est fausse, la loi définie dans l'alinea précédent étant une somme dénombrable de masses de Dirac et le seul fermé de masse 1 (donc le support) étant R. Il faut revenir à la définition par l'existence d'un ensemble S fini ou dénombrable, de masse 1, lequel n'est pas nécessairement le support. C'est aussi plus ergonomique car il suffit d'en trouver un, sans qu'il soit nécessaire de vérifier qu'il est le plus petit possible. Le pire, c'est que j'avais déjà fait ce cheminement, via ce contrexemple, vers une definition correcte, et que je l'ai oublié. Je n'avais que des objections au niveau ergonomie, contre une définition fausse. Chassaing 5 juin 2012 à 10:03 (CEST)

Remarques d'Ipipipourax[modifier le code]

Je suis ennuyé par plusieurs choses :

  • Maggyero a fait une liste très impressionnante de modifications sur l'article : plus d'une 100aine depuis deux jours, avec de temps en temps plusieurs par minute. J'avoue avoir vraiment du mal à suivre.
  • De mon point de vue, il y en a un certain nombre qui n'ont pas vraiment d'intérêt, par exemple : ceci ou ceci, ou encore de changer lois à densité en lois absolument continues, etc. Je prend un exmple au hasard, je regarde la dernière modif : le m (issu de la référence) est remplacé par M, je ne vois pas l'intérêt et suis même contre ...
  • Et surtout certaines parties (je pense aux définitions de lois discrètes et à densité) étaient écrites d'une certaine forme, Maggyero en a changé l'ordre des définitions, après mes commentaires j'ai remis l'état initial qui est sourcé, et parfois Maggyero a rechangé (voir la diff par exmple), on n'est pas loin d'un conflit d'édition... Bref j'ai l'impression que c'est contre-productif.
  • Tous ces changements, non sourcés en plus, font que l'article ne ressemble plus du tout à ce qui a été voté par les 5 personnes.

Bref, je voudrais juste signaler à Maggyero qu'il pourrait utiliser plus souvent "prévisualiser" et expliquer les changements qu'il a fait et qu'il compte faire. Et surtout qu'il m'explique le but de ses modifs : à mes yeux, ca ressemble plus à une mise en forme selon son point de vue, et non plus essayer de participer collectivement et de mettre des informations issues de sources.

Pour finir, je renonce à participer à cet article, en tout cas tant qu'il y a une modif toutes les 2 minutes, c'est trop difficile de suivre. Dommage j'étais motivé. Ipipipourax (d) 6 juin 2012 à 14:43 (CEST)

L'article n'a fait que s'améliorer, je n'ai supprimé aucune source et j'ai fait le maximum pour prendre en compte les modifications de tout le monde au cours de mes propres modifications. Votre définition de loi discrète était trop restrictive puisqu'elle faisait appel au support d'une mesure (qui n'existe pas toujours) donc à une topologie. Là tout est plus clair il me semble.--Maggyero (d) 6 juin 2012 à 18:16 (CEST)


J'ai l'impression que les modifications de Maggyero diminuent, je vais donc commencer à faire une liste de celles avec lesquelles je ne suis pas d'accord. Je les met dans l'ordre où elles me viennent. Je tiens à signaler que suite à tous ces changements, le vote BA a été abandonné.

  • dans "loi discrète", il est fait mention de fonction masse, je n'ai jamais vu ce terme, pour moi c'est fonction de masse (qui apparait également sur toutes les pages des lois de probabilité). A noter que l'article fonction masse a été renommé par Maggyero sans donner de source ... (étrange).
  • les notations ont été changés par , je trouve que la notation initiale est beaucoup plus clair à lire. Je ne sais pas si il y a une "règle" sur wikipedia pour cette question. Idem pour les uatres notations avec doubles parenthèses.
    Fait Fait. Ipipipourax (d) 20 juin 2012 à 13:37 (CEST)
  • Pourquoi changer la taille des images, je croyais que la meilleure règle sur wikipedia est de mettre "thumb" uniquement (comme expliquer sur l'aide pour la taille des images).
    Pour le thumb, c'est plus qu'une recommandation, c'est un impératif car il y a d'autres lecteurs qui les ordinateurs, notamment les téléphones portables. Ne pas oublier les textes alternatifs dans les images.v_atekor (d) 13 juin 2012 à 11:56 (CEST)
  • Comme je l'avais deja signalé, je ne suis pas d'accord sur la présentation des lois discrètes. Pour moi cet article est sur les lois de probabilités, pas les variables aléatoires. Donc je serais d'avis de mettre la définition d'une loi discrète en tant que mesure dans la première partie avec définition du support, formule en somme de dirac, atomes, etc. Puis dans une deuxième partie, parler du cas d'une loi de probabilité de variable aléatoire, mais ne pas mettre les mêmes détails : ce n'est qu'un cas particulier, donc juste dire que les termes (discret, concentration, atomes, etc) sont les memes, et donner la version du théorème de transfert. Par contre je ne vois pas l’intérêt de remettre la formule de somme de Dirac, c'est la même. Vu que c'est un cas particulier, évidemment que c'est la même.
    Fait. Ipipipourax (d) 3 juillet 2012 à 12:17 (CEST)
  • dans "loi discrètes" : Pourquoi appliquer la formule de la somme des Dirac en un borélien, autant parler des mesures en elles-meme. Il y a des borélien qui apparaissent dans les fonctions de répartition, c'est suffisant à mon gout.
    Fait. Ipipipourax (d) 3 juillet 2012 à 12:17 (CEST)
  • dans "loi discrètes" : Toutes les notions : concentre, atomes, "critère suffisant est que Ω soit dénombrable", "critère suffisant est que X(Ω) soit dénombrable", ... ne sont pas sourcées !!!
  • dans "loi discrètes" : Les deux notations et ne sont pas classiques pour moi (et pourtant je fais des probas), elles sont non sourcées, et en plus la deuxième peu prêter à confusion.
    Fait, j'ai enlevé qui est assez inutile. Ipipipourax (d) 3 juillet 2012 à 12:17 (CEST)
  • dans "loi discrètes" : Pour le théorème de transfert, j'aurais laissé la notation avec et avec l'intégrale par rapport à , puisque c#est la formule la plus utile pour faire les calculs. Et surtout pourquoi supprimer la formule : qui est LA version utile du théorème de transfert. Elle était présente initialement, enlevée par Maggyero, remise par Chassaing, et ré-enlevée par Maggyero. (si j'ai bien suivi)
    Fait, j'ai remis la formule avec la proba. Ipipipourax (d) 3 juillet 2012 à 12:17 (CEST)
  • dans les exemples de lois discrète : j'avais mis l'expression de la somme de dirac dans les cas les plus simples. Ca avait l'avantage de donner des exemples à la formule générale, pourquoi les enlever. Par contre, je ne vois pas l'intérêt de le faire à tous les exemples, ca n'ajoute rien, et les formules sont de plus en plus grosses.
  • "Lois à densité" a été finalement changée par "lois absolument continues" (après beaucoup de changements), je crois que le terme "à densité" est plus courant et en tout cas plus explicite (=possède une densité). Je pense que le Principe de moindre surprise s'applique ici.
  • Je fais les mêmes remarques sur les lois à densité que sur les lois discrètes : sur la forme, les formules, manque de source pour "propriété caractéristique" et "caractéristique des lois continues"
    Fait à part les sources. Ipipipourax (d) 4 juillet 2012 à 14:49 (CEST)
  • Dans les exemples de lois à densité : les fonctions exp() ont été remplacées par des e, je trouve ca plus lisible avec les exp(), ça évite d'avoir beaucoup de différentes hauteurs.
    Fait J'ai finalement opté pour la même présentation que les lois discrètes. Ipipipourax (d) 20 juin 2012 à 13:51 (CEST)
  • Dans la partie singulière : même remarque sur la rédaction. Je n'aime pas la rédaction "(propriété caractéristique)", je pense que les matheux comprennent mais pas vraiment tout le monde. Par exemple avec le choix de rédaction, il n'est pas mentionné qu'une loi continue ne possède pas de densité, ce serait réglé si on remplace "pas absolument continue" par "sans densité".
    Fait, finalement j'ai gardé absolument continue. Ipipipourax (d) 4 juillet 2012 à 15:15 (CEST)
  • dans "autres cas" : même remarque sur la formule avec les lois de variables aléatoires. Je n'en voit pas l'intérêt puisque c'est la même que la précédente. En plus la notation peut prêter à confusion. Pourquoi changer "qui est le cas des fonctions de répartition des lois discrètes." en "(cas des fonctions de répartition des lois discrètes).", je trouve que la rédaction est moins bonne.
    Fait. Ipipipourax (d) 3 juillet 2012 à 18:22 (CEST)
  • Je trouve que le titre de section "Caractérisation de la loi de probabilité d'une variable aléatoire réelle" serait mieux en "Caractérisations d'une loi de probabilité" (ça c'est pas un changement de Maggyero), vu qu'on parle des mesures de proba et pas spécialement des lois de variables aléatoires. Et en plus ca ne s'applique pas qu'aux lois rélles. Par contre il faut préciser dans chaque partie les cas "lois réelles".
    Fait. Ipipipourax (d) 3 juillet 2012 à 17:54 (CEST)
  • dans "fonction de répartition" : même remarque, je mettrais d'abord les explications pour les mesures et a la fin, en application, les explications pour les variables aléatoires. Et pareil, je ne vois pas l’intérêt de la formule pour les variables aléatoires. Ja'avias rajouter (à un moment) que ca ne s'applique qu'aux lois réelles, je crois que j'avais mis une source. Pourquoi enlever pour remplacer par : $\scriptstyle (\Omega, \mathcal A) = (\mathbb R, \mathcal B(\mathbb R))$ qui me parait etre moins clair pour un non-matheux. (en peut aussi garder les deux).
    Fait. Ipipipourax (d) 3 juillet 2012 à 12:41 (CEST)
  • dans "fonction caractéristique" : même remarque sur la rédaction et pour les formules avec variables aléatoires. Il a été rajouté, ""symétrie" de la transformée de Fourier", dans Saporta, il est indiqué directement transformée de Fourier, je crois que tout dépend d'une convention de la définition de la transformée de Fourier, donc autant faire simple.
    Fait. Ipipipourax (d) 3 juillet 2012 à 17:54 (CEST)
  • dans "fonction gnératrice" : pourquoi changer la notation m en M, je l'avais prise d'une source, en plus ca ne correspond pas a la notation de l'article transformée de Laplace, mystère ... Pourquoi supprimer la condition nécessaire "lorsque la fonction est intégrable par rapport à " qui vient d'une source ??? La transformée de Laplace n'est pas toujours bien définie, d'après mes souvenirs.
    Fait, j'ai rajouté la condition avec source, j'ai finalement gardé les notations. Ipipipourax (d) 3 juillet 2012 à 17:36 (CEST)
  • dans la partie "fonction génératrice des probabilités", pourquoi avoir supprimé la formule  ?? Au moins avec elle tout est défini dans cette section pas besoin de faire référence aux autres sections.
    Fait Finalement, c'est revenu sur ma version avant les changements de Maggyero. Ipipipourax (d) 20 juin 2012 à 13:57 (CEST)
  • dans "autres caractérisations" : meme remarque pour les explications avec variables aléatoires. J'avais mis le terme : "C'est l'inverse continue à droite de la fonction de répartition de la loi" qui a été enlevé, ok il etait non sourcé. Maggyero a rajouté "on appelle aussi la fonction quantile réciproque généralisée de F" , également non sourcé. Il faudrait mettre le tout et surtout trouver des sources.
    Fait, mais il faudrait trouver des sources. Ipipipourax (d) 3 juillet 2012 à 17:36 (CEST)
  • toujours dans "autres caractérisations" : il est mentionné que Q est une variable aléatoire. C'est peut-être vrai, mais de toute façon c'est non sourcé et je trouve ça bizarre que l'on dise Q a pour loi P. Et que veut dire Q(U) alors? c'est une variable aléatoire appliquée à une variable aléatoire. Le plus important ici c'est de dire que la fonction Q appliquée à une variable aléatoire U est une var. aléatoire de loi P. bref comme je l'avais mis initialement.
    Fait, j'ai remis. Ipipipourax (d) 3 juillet 2012 à 17:36 (CEST)
  • Dans "Exemples de modélisation" : je trouvais que mettre les domaines en gras était plus clair (mais ça c'est du détail).

Je m’arrête là pour une première liste vu que Maggyero a fait deux autres changements le temps que j'écrive cette partie. (désolé pour la longue liste mais j'ai beaucoup de commentaires ...) Ipipipourax (d) 11 juin 2012 à 19:43 (CEST)

commentaire personnel : j'ai vraiment l'impression que Maggyero fait que ce qu'il veut. Il n'a jamais expliqué ce qu'il fait. La seule fois où je lui ai demandé il m'a envoyé balader (voir ci-dessus). Quand un article a recu plusieurs votes positifs pour un label BA, on fait pas 200 modifs en 5 jours !!! On lance des discussions. Ou alors c'est moi qui me monte la tête ... Ipipipourax (d) 11 juin 2012 à 19:43 (CEST)

c'est un article important, qui était largement faux il y a 3 ans, quand j'ai paré au plus pressé, et largement pas optimal après que j'ai enlevé les grosses erreurs. Il est probablement mieux maintenant, après les travaux d'Ippipourax et Maggyero, mais toujours loin d'être optimal. Le problème vient probablement de sources vieillies, non actuelles, dans certains cas ... Je compte bien tout reprendre en Juillet Août, si ça n'a pas été arrangé d'ici la ... Chassaing 11 juin 2012 à 22:00 (CEST)

terminologie[modifier le code]

Pour une caractérisation de la « discretance », impossible de passer par le support, voir mon commentaire du 5 Juin, plus haut. Sinon je suis essentiellement d'accord avec le reste des changements. Sur le plan de la terminologie, j' ai plutôt l'habitude de « est portée par  » ou, mais un peu moins, « est concentrée sur  », que de « se concentre sur  ». Mais c'est peut-être que moi ... Chassaing 3 juillet 2012 à 22:58 (CEST)

Oui merci d'avoir enlevé cette partie fausse.
Après avoir fini mes remarques ci-dessus, je pense qu'il faudrait revoir les sources en en trouvant des plus récentes (comme vous l'avez indiqué). J'ai choisi les sources actuelles parce qu'elles sont disponibles en ligne.
Je pensais faire une section qui parle des propriétés des lois de proba comme : Paramètre de forme, Paramètre d'échelle, Paramètre de position, Asymétrie (statistiques), Mode (statistiques), Tendance centrale, Dispersion statistique, Kurtosis, la notion de support avec un exemple de loi discrète à support non dénombrable, etc. Ipipipourax (d) 4 juillet 2012 à 14:55 (CEST)
désolé de ne pas avoir le temps de contribuer. Introduire le vocabulaire statistique de description des propriétés des lois de probas est surement une bonne idée. Merci ! Chassaing 4 juillet 2012 à 20:05 (CEST)

re Label BA?[modifier le code]

J'ai effectué les changements suite à mes remarques et à celles de Chassaing (voir au dessus). J'ai rajouté une section sur les propriété (plutot statistiques) des lois de proba. J'ai essayé d'améliorer les sources.

A mon gout, l'article mérite de nouveau le label BA. Qu'en pensez-vous ? Ipipipourax (d) 6 juillet 2012 à 17:35 (CEST)


Une remarque malheureusement désagréable concernant la première figure[modifier le code]

La figure « Densite_et_masse_de_lois.gif » qui accueille le lecteur paraît contestable.

Pris séparément, les graphiques rouge et bleu sont sans mystère (densité et masses de probabilité) ; les placer sur la même figure devient trompeur, sauf à préciser deux systèmes de graduations sur les axes verticaux — mais, à la limite, pourquoi pas, si on prend cette précaution...

En revanche, quand en plus il y a télescopage des deux concepts sur une même « courbe », cela est franchement fautif : l'amplitude de la discontinuité verticale en x= -5 n'a rien à voir avec le niveau de la partie continue de la courbe verte ! Dit autrement, la probabilité (non nulle) de prendre exactement la valeur -5 n'a rien à voir avec une quelconque discontinuité d'une hypothétique fonction de densité (qui en l'occurrence n'existe pas).

Bref : la courbe verte est actuellement un être hybride auquel il n'est pas possible de donner une signification rigoureuse.

N.B. Naturellement, en théorie, rien n'interdit à une fonction de densité d'être discontinue. Mais la discontinuité d'une densité n'a absolument pas le sens d'une charge (masse) de probabilité !.


La formulation correcte, mais rébarbative, consisterait à parler de la mesure de probabilité : mesure absolument continue par rapport à la mesure de Lebesgue dans le premier cas, combinaison linéaire de mesures de Dirac dans le second, mesure quelconque dans le troisième. Mais tracer le graphe d'une mesure... qui sait faire ?


Il y a cependant une solution si on souhaite une représentation graphique correcte. Bien que moins parlante que la figure actuelle, elle consiste à tracer les fonctions de répartition : il s'agirait donc bien cette fois dans les trois cas d'une fonction, continue (en fait, indéfiniment dérivable) dans le premier cas (gaussien), et en escalier dans le second cas. Et cette fois, la superposition des figures serait parfaitement correcte. Quant à la F.R. associée à la troisième loi, elle serait continue partout sauf au point -5, où sa discontinuité mesurerait exactement cette fois la charge de probabilité sur le singleton -5. Et naturellement, cette fois, sa superposition aux deux autres serait parfaitement légitime.

Mais... je dis ça et je ne dis rien.

Foule Narquoise (d) 20 juillet 2012 à 18:01 (CEST)

D'abord, merci pour le commentaire, c'est toujours intéressant.
  1. Je ne vois pas le problème de mettre une densité et une fonction de masse sur le même graphique. Dans un cas, le suppport est continu, dans l'autre, il est discret (c'était le but principal de ce graphique), mais le repère est le même pour les deux lois. L'axe vertical donne la valeur des densité f(x) ou de la fonction de masse p(x), pour tout x de l'axe horizontal. Je ne vois pas ce qui est faux ou imprécis. Les "bâtons" verticaux sont des représentations de masse de dirac, c'est peut-être là la confusion ?
  2. Quant à la troisième courbe (verte), c'est en fait la représentation graphique d'une loi du style de la loi normale rectifiée (sauf que la masse n'est pas en 0). C'est-à-dire, c'est la représentation d'une densité + d'une masse de Dirac. Et oui c'est un hybride : une loi mixte. la discontinuité de la densité n'est pas là pour montrer une masse de dirac, mais le "bâton" oui.
  3. Effectivement dessiner une mesure est beaucoup moins classique (même s'il y a des méthodes ...).
  4. Pour finir, on pourrait aussi mettre les fonctions de répartitions correspondantes, mais je volais mettre la cloche de Gauss qui est le graphique le plus connu (je crois). Et puis il y a des fonctions de répartitions plus loin.

A débattre. Ipipipourax (d) 20 juillet 2012 à 19:42 (CEST)


Précision[modifier le code]

(Désolée (Smiley oups) : durant le week-end, j'étais en vadrouille loin d'Internet)

Le plus simple est de se référer à un ouvrage qui soit accessible en ligne et qui puisse servir de repère. Je propose le cours de Probabilités de l'École Polytechnique, par Sylvie Méléard : [1]. Afin qu'il n'y ait aucun malentendu, je précise que je ne suis pas Sylvie Méléard, et je n'ai pas eu l'occasion de suivre ce cours.

Je n'ai découvert ce poly que ce lundi 23 juillet, et je suis un peu surprise de la façon "pas-à-pas" dont sont présentés les concepts : j'aurais pensé que pour des polytechniciens, on plongeait plus vite dans l'abstraction. Tant mieux, profitons de la présentation intuitive de la densité (remarque 4.2.11, p90 du fichier, numérotée p88).

Puisqu'elle a choisi une présentation concrète, je regrette que l'auteure n'ait pas souligné explicitement que la densité de probabilité est une notion trompeuse. Après tout, n'importe quelle fonction (au sens mathématique précis de fonction mesurable) positive et d'intégrale égale à 1 peut être prise comme densité de probabilité. En particulier, rien n'interdit à une telle fonction de prendre des valeurs supérieures à 1 ! Et par conséquent, il n'est pas si facile de sentir ce que cela représente.

En tout cas, comparer une densité de probabilité à une probabilité n'a pas de sens, puisque ce sont deux notions qui n'expriment pas des grandeurs de même nature. Du reste, le vocabulaire utilisé dans l'article souligne cette différence : masse de probabilité d'un côté, densité de probabilité de l'autre... et il n'est pas d'usage en physique de comparer une masse et une densité ! C'est très exactement ce que fait apparaître la formule 4.2.7, qui fournit une interprétation différentielle de la densité. Ainsi, si l'axe des x représentait un temps, comparer (masse de) probabilité et densité de probabilité n'aurait exactement pas plus de sens que comparer respectivement distance et vitesse, ou quantité d'électricité et intensité, ou énergie et puissance...

Pour en revenir à la superposition des deux figures rouge et bleu que vous désignez respectivement par f(x) — densité — et p(x) — probabilité —, d'accord pour dire que l'axe horizontal ne pose pas de problème. À la limite, passe encore pour une comparaison des "allures générales", bien que cela devienne peu rigoureux (on pourrait peut-être "à vue" comparer grossièrement les espérances, les variances, les symétries). Mais ensuite, les choses se gâtent : quelle graduation faudrait-il mettre sur l'axe vertical, si on voulait exprimer ces deux courbes dans un repère unique ? Sûrement pas des probabilités : cela conviendrait pour la courbe bleue, mais pas la rouge qui peut prendre des valeurs supérieures à 1 (ce qui convenez-en ferait désordre pour une probabilité !) ; et sûrement pas une densité : cela conviendrait pour la courbe rouge, mais pas pour la courbe bleue qui n'admet pas de densité (voir le cours, p91, où S. Méléard cite justement les variables aléatoires discrètes comme exemple banal de VA n'ayant pas de densité).

En résumé : superposition, peut-être, mais avec énormément de précautions et, en tout cas, deux systèmes de graduations sur les axes verticaux. Et à titre personnel, je serais plutôt opposée à ce genre de représentation graphique qui induit plus en erreur qu'elle n'apporte d'information. À cet égard, aussitôt après le rappel que les lois discrètes n'ont pas de densité, S. Méléard introduit très judicieusement et très rigoureusement l'expression générale d'une loi "mixte", et met en évidence par la formule 4.2.8 que l'outil correct pour caractériser une telle loi, c'est bel et bien la fonction de répartition.

Je la cite : une loi de probabilité mixte "n'admet pas de densité et n'est pas non plus discrète". On ne saurait être plus claire !

On serait donc bien en peine de donner une signification à la courbe verte  !

La remarque 4.2.11 du cours de Méléard annonce , la formule équivalente pour les fonctions de masse est : pour toute valeur entière x. C'est en ce sens que j'y voyais une comparaison entre une densité et une fonction de masse, mais je n'ai jamais dit qu'une loi mixte avait une densité et une fonction de masse (ou alors j'ai fait un abus et c'est une erreur). Par contre c'est la somme d'une loi discrète et d'une loi à densité, d'où ma volonté de représenter (en vert) la somme d'une densité et d'une fonction ponctuelle. Effectivement, il est difficile de donner un sens rigoureux à cette somme excepté par des mesures ou des fonctions de répartition. Cette représentation était juste la somme d'une densité et d'une fonction ponctuelle qui n'a effectivement peut-être pas beaucoup de sens.
En résumé, le fait d'avoir cette discussion suffit à montrer que l'image peut prêter à confusion. Je ne voyais pas trop quoi mettre comme image de début d'article sur les lois de proba. Que mettre? l'équivalent mais avec des fonctions de répartition? Ou peut-être une autre idée. En tout cas merci pour les remarques. Ipipipourax (d) 24 juillet 2012 à 12:01 (CEST)
Comme je l'ai laissé entendre, ma préférence irait effectivement à une représentation graphique par des fonctions de répartitions. Bien sûr, une FR est un outil peut-être moins intuitif pour un lecteur non averti, encore que... Parce que une "fonction de masse", en réalité, c'est au sens strict une mesure (ce qui apparaît dans la notation de S. Méléard), c'est-à-dire qu'elle est fonction d'un Borélien ; et la densité de probabilité est une notion en réalité trompeuse : bref, ce n'est pas aussi simple qu'on pourrait croire. Alors qu'une brave FR, avec ses discontinuités éventuelles, c'est un être mathématique sans piège. Par ailleurs, je suis plus que réservée sur l'emploi du mot "somme" appliqué à la loi, si on ne dit pas sous quelle forme on exprime cette loi (il ne faudrait pas qu'un lecteur pressé s'imagine qu'il s'agit de la somme de deux variables aléatoires !) . S. Méléard a choisi justement de passer par la FR, et cela donne la formule 4.2.8. De façon strictement équivalente, mais plus abstraite, on aurait pu exprimer cette somme au niveau de la mesure de probabilité, à savoir avec les mêmes notations que pour 4.2.8 et où bien sûr désigne la mesure de Lebesgue. Mais à titre purement personnel, je ne suis pas sûre que cette abstraction s'impose dans le cas de loi d'une VA scalaire. Foule Narquoise (d) 24 juillet 2012 à 13:04 (CEST)
Ok pour les fonctions de répartition, je vais simuler une continue, une discrète et une mixte. Effectivement je disais somme en pensant somme de mesures, c'est ce qui est écrit dans l'article d'ailleurs. En écrivant l'article, j'étais également concentré sur le fait de définir et donner les propriétés pour les lois de probabilité en tant que mesures et non en tant que mesure image d'une va. J'ai peut-être perdu un peu en clarté sur certains points. Ipipipourax (d) 24 juillet 2012 à 14:46 (CEST)

L'article américain sur la loi normale rectifiée[modifier le code]

Vous avez mentionné dans votre réponse que la courbe verte voulait représenter graphiquement la loi normale rectifiée. Je suis donc remontée à la source, c'est-à-dire à l'article américain que vous avez traduit : [2]. Ce n'est certes pas la première fois que je vois de telles erreurs, et j'en ai même trouvée une de ce type jadis dans un ouvrage édité chez Wiley. Mais il ne faut pas se laisser impressionner par les arguments d'autorité : même imprimée par un grand éditeur, une faute mathématique demeure une faute ! Or, ce très court article comporte deux erreurs majeures, dont une nous concerne directement :

  • à moins que les probabilistes US n'aient leur propre définition (qui de toute façon ne concernerait pas notre article en français), la loi normale rectifiée n'admet pas de densité de probabilité ! et cela, ni vous, ni moi n'y pouvons rien. Et ce n'est pas S. Méléard qui nous dira le contraire ! L'illustration la plus criante, c'est que justement l'objet appelé n'est pas une fonction ;
  • et ce n'est pas une fonction parce que son expression contient un autre objet, , qui à son tour n'est pas une fonction, ne peut pas être une fonction ! En plus, l'article américain est aux limites de la malhonnêteté quand il présente la "fonction de Dirac" parce que de deux choses l'une :
    • ou bien la "définition" de la "fonction de Dirac" est complète dans l'esprit du rédacteur, mais alors, il s'agit simplement d'une banale fonction nulle presque partout c'est-à-dire, pour parler intuitivement, qu'elle ne compte pas dans la "définition" de la densité de probabilité. En effet, une fonction de densité n'est définie que presque partout ! Et par suite, la fonction de l'article ne serait plus d'intégrale égale à 1 ! Fâcheux pour une densité de probabilité ! Mais on peut raisonnablement supposer que ce n'était pas ce que le rédacteur avait en tête ;
    • ou bien, ce qui est plus vraisemblable, le rédacteur a "oublié" la contrainte que l'on voit usuellement, en particulier dans les ouvrages de Physique, à savoir que . Seulement, c'est là que le bât blesse puisque un tel objet (nul sauf en 0 et d'intégrale égale à 1) ne peut exister en tant que fonction. Donc, accessoirement, ne peut être représenté graphiquement.


En résumé, ce qui est malheureusement incontournable : une loi de probabilité "mixte", et singulièrement la loi normale rectifiée, n'admet pas de densité de probabilité. A fortiori, il n'est pas possible d'en représenter graphiquement une densité, pas plus très exactement que cela n'a de sens de représenter dans le même système de coordonnées des densités et des masses de probabilité.

J'avais effectivement traduit l'article anglais, comme je l'ai fait pour beaucoup d'autres, sans trop réfléchir au contenu. Le but était principalement que l'article existe et qu'il y puisse être modifier/améliorer/corriger par d'autres contributeurs motivés comme vous. Ipipipourax (d) 24 juillet 2012 à 12:01 (CEST)
On en trouve parfois des dures à avaler. J'ai vu de mes yeux dans un livre de Probas qu'il n'existe que des lois discrètes et des lois absolument continues ! L'auteur réfutait donc l'existence des lois "mixtes" en prétendant que c'étaient des monstres qui n'avaient pas de sens. Je ne me rappelle pas chez quel éditeur c'était (j'ai assez dit de mal de Wiley pour aujourd'hui !), mais c'était dans un bouquin sûrement beaucoup plus cher que le poly de S. Méléard ! Cela donne à réfléchir ! Foule Narquoise (d) 24 juillet 2012 à 13:04 (CEST)
Dans la section de l'article qui parle des lois mixtes, j'ai mis un exemple provenant d'un livre pour ingénieurs de Bogaert (p72) et qui définit une "densité généralisée". Je n'ai pas réfléchi à quel point la définition théorique est justifiée, mais apparemment les sciences appliquées telles que l'ingénierie utilise ce genre de construction. (par ailleurs, j'avais pris l'idée du graphique). Je pense qu'il est bien de citer des manières plus appliquées d'utilisations des lois de proba mais tout en restant mathématiquement juste. Ipipipourax (d) 24 juillet 2012 à 14:46 (CEST)

Essai d'explication : retour sur la "fonction" de Dirac[modifier le code]

La grave incohérence dans l'article anglais est troublante, parce qu'elle invoque un lien vers la "fonction de Dirac" et que ce dernier article ainsi désigné [3] est quant à lui plutôt bien fait (sauf naturellement que le titre de l'article s'appelle "function...").

Au passage, une curiosité. Dans votre traduction, vous avez pointé vers l'article français Distribution de Dirac, qui pour sa part parle tout de suite de distribution (alors que le cadre de la Théorie de la Mesure suffirait...).

Toutes ces hésitations sont courantes, ainsi du reste si on veut rester rigoureux que toutes les approximations voire incohérences qui subsistent aussi bien dans les articles concernés que dans une part importante de la littérature "papier". La raison en est probablement historique, mais aussi culturelle. Les physiciens ont eu besoin, avec la si mal nommée "fonction de Dirac", d'un outil qui satisfasse à des conditions qui en faisaient un monstre si on persistait à le considérer comme une fonction. Mais ils ont paré au plus pressé, et ont défini des règles de manipulations ad hoc qui ont permis le développement de leurs propres calculs avant même que les mathématiciens aient stabilisé les bases théoriques nécessaires pour donner une légitimité à cet objet.

Si l'on se limite au strict pragmatisme (ce qui est assez anglo-saxon comme attitude), on peut se contenter en général des "recettes" de calcul fournies. Sinon, on sera inévitablement amenés à travailler dans un cadre théorique élargi, et le cadre minimum requis ici est celui de la Théorie de la Mesure (le recours à la Théorie des Distributions ne s'impose pas).

Ce cadre théorique rigoureux (et plus exactement celui des Mesures de Radon : voilà un article qui fait défaut) nous permettrait de comprendre pourquoi la Fonction de Répartition est l'outil très exactement approprié pour une approche unifiée de toutes les lois de probabilités scalaires, qu'elles soient discrètes, absolument continues ou "mixtes". Mais ceci nous conduirait trop loin...

Bonne soirée,

Foule Narquoise (d) 23 juillet 2012 à 21:49 (CEST)

Je pense qu'il y a beaucoup à améliorer sur Distribution de Dirac et Mesure de Dirac, notamment d'utiliser les termes français. Le terme distribution pose un gros problème je pense parce qu'il désigne : une Distribution (mathématiques), une distribution empirique, également une loi de proba par certains auteurs, en particulier la Distribution de Dirac. Pour ma part, je suis partisan de ne pas utiliser le terme distribution pour une loi de proba. Ipipipourax (d) 24 juillet 2012 à 12:01 (CEST)
La première des améliorations au niveau fondamental, ne serait-ce pas de fusionner les deux articles ? Bien sûr, cela condamnerait probablement à garder le vocabulaire le plus général (distribution), qui est probablement aussi le plus rebutant pour un lecteur non averti. Mais qui peut le plus peut le moins, non ? le "fusionneur" devrait faire un petit effort de pédagogie, mais cela en vaudrait la peine au niveau cohérence et synthèse de la notion - y compris en consacrant un paragraphe à expliquer pourquoi cet objet mathématique ne peut pas être une fonction... En tout cas, je suis tout-à-fait d'accord de réserver le terme de "distribution" à Distribution (mathématiques) (chauvinisme, vous croyez ? Schwarz était un Grand !), et tant pis si cela cause quelques difficultés pour traduire des articles US.
Bonne chance !
Foule Narquoise (d) 24 juillet 2012 à 13:04 (CEST)
Je suis tout à fait d'accord de fusionner et de bien expliquer les liens entre fonctions/mesures/distribution et d'expliquer aussi l'utilisation de ces termes en fonction des domaines (math, physique, etc). Une remarque de 2006 sur Discussion:Distribution de Dirac propose cette fusion ; Une petite discussion de 2008 sur une archive du thé aussi. Apparemment, il n'y a pas eu de vraies réponses ... Je pense que c'est par manque de volontaires. Donc si vous voulez vous y lancer, n'hésitez pas. Pour ma part, je pense que je vais me restreindre aux probas. Ipipipourax (d) 24 juillet 2012 à 14:46 (CEST)

2eme proposition de label BA[modifier le code]

Après plus d'un mois sans changement, je proposerai cet article au label BA en fin de semaine. Ipipipourax (d) 9 septembre 2012 à 18:02 (CEST)

Fairytale bookmark silver light.pngQuestion mark 3d.png
J’ai l’intention de proposer prochainement la page « Loi de probabilité » au label « bon article ». Si vous estimez que la procédure est prématurée, vous pouvez me contacter pour me faire part de vos arguments.

Vote précédent : Proposition « Bon article »

Ipipipourax (d) 9 septembre 2012 à 18:02 (CEST)

Perplexité (figure d'accroche)[modifier le code]

Je suis vraiment surpris : pourquoi avoir supprimé dans la première figure la mention que la courbe rouge représente la fonction de répartition de la loi normale (centrée, normée) ? Évidemment, on peut pinailler sur la finesse de la représentation graphique : on a peut-être l'impression que la courbe atteint effectivement les valeurs 0 et 1, et pas seulement asymptotiquement, et dans ce cas il s'agirait d'une loi à support borné, qui ne pourrait pas être la loi normale. Et par ailleurs, on n'a pas vérifié les valeurs numériques (mais les graduations sont peu précises et je doute que le tracé s'éloigne beaucoup du graphe exact).

Il ne s'agit que d'une image assez grossière, et le résultat me paraît parfaitement compatible avec la célèbre courbe en S. Nous sommes bien en présence d'une loi absolument continue, symétrique, de support non borné (si on admet que les valeurs 0 et 1 ne sont atteintes qu'asymptotiquement), d'espérance nulle (si on admet à la fois l'existence de cette espérance et la symétrie de la F.R. par rapport au point (0,1/2) : deux hypothèses raisonnables au vu de la figure, en particulier en ce qui concerne la vitesse de convergence vers les deux valeurs asymptotiques), et dont la forme rappelle bougrement celle de la (F.R. de la) loi normale.

Alors, pourquoi ? Ce n'était évidemment pas indispensable, mais en désignant cette courbe rouge comme la F.R. de la loi normale, on faisait d'une pierre deux coups : on donnait sans conteste un exemple de loi absolument continue, et on montrait en plus au lecteur néophyte à quoi ressemble grosso modo la F.R. de la loi gaussienne normée centrée. Du reste, parallèlement, je doute que quiconque aille vérifier que la courbe bleue représente bien au mm près la F.R. d'une loi de Poisson ! alors, pourquoi cette différence de traitement entre l'exemple de loi discrète et l'exemple de loi absolument continue ?

Pourquoi ? Je préconise le retour à la version du 14 mars, mais naturellement NoModif

Preem Palver 21 mars 2013 à 09:11 (CET)

Perplexité partagée. Il est possible que le correcteur soit peu familiarisé avec les fonctions de répartition et identifie la loi normale à la courbe en cloche de sa densité de probabilité. Je reviens donc à l'ancienne version mais fait cependant une remarque : associer à la loi de probabilité sa fonction de répartition est une attitude d'expert, la fonction de répartition ayant des propriétés intrinsèques intéressantes, mais ce n'est pas l'attitude du néophyte qui associe davantage la loi de probabilité à sa courbe de densité (loi continue) ou un diagramme en bâton (loi discrète). Du coup en tête d'article on a une illustration inhabituelle pour le lecteur non expert alors que partout ailleurs dans l'article on retrouve une représentation plus standard. Cela me semble un peu illogique. HB (d) 21 mars 2013 à 10:29 (CET)
C'est moi qui ai fait cette figure et je confirme que c'est la fonction de répartition de loi loi normale. Il y a longtemps j'avais mis le tracé de la courbe en cloche avec des histogrammes pour les lois discrètes, mais ca posait un problème de mettre ces dessins sur le même graphique, c'est pour ca que je me suis rabattu sur les fonctions de répartition. Si quelqu'un a une meilleure proposition je suis preneur. Ipipipourax (d) 21 mars 2013 à 13:34 (CET)
Chers Collègues,
Je vais exceptionnellement contrevenir à ma règle de conduite consistant à ne pas participer à des discussions (par souci de ne pas dégénérer en polémique) ; mais il me semble que pour la circonstance nous ne différerons au maximum que sur des nuances peu importantes.

J'apporterai il est vrai un bémol aux propos de HB en constatant que bien que la plupart du temps ce sont effectivement des densités de probabilités ou des diagrammes en bâton qui soient représentés dans les figures de cet article, il y a aussi d'autres utilisations de la fonction de répartition (aux paragraphes 5.4, 6.1, 6.4 par exemple - j'en oublie peut-être) : autrement dit, la figure introductive n'est pas si exceptionnelle que cela. Je suis bien d'accord que pour un « néophyte », un « non-expert », la notion de loi de probabilité évoque sans doute plutôt un système de probabilités ou une fonction de densité. Mais attention ! si le système de probabilités pour une loi discrète est relativement sans mystère et renvoie souvent à des questions de combinatoire assez intuitives (sinon faciles), j'affirme par expérience que la notion de « densité de probabilité » n'est pas quelque chose de si naturel que cela, et que nos élèves n'en voient pas toujours le sens. En particulier, combien voudraient graduer l'axe des ordonnées en probabilités, alors que ce sont les aires (et non les ordonnées) qui représentent des probabilités sur le graphe d'une fonction de densité ! Le point de vue du physicien pourrait ici nous venir en aide : sur un diagramme de probabilités (diagramme en bâtons, histogramme), les ordonnées sont des nombres sans dimension (et compris entre 0 et 1) ; sur le graphe d'une densité de probabilité, les graduations sur l'axe des ordonnées s'expriment dans une certaine unité, l'inverse de l'unité dans laquelle s'exprime la VA (puisque c'est le produit f(x) dx qui est une probabilité, sans dimension, et que dx s'exprime dans l'unité de la VA). Par ailleurs, une densité n'a aucune raison de prendre des valeurs entre 0 et 1, et en fait elle n'est même pas nécessairement bornée : on ne lui demande que d'être positive et intégrable (de somme égale à 1). Le moins qu'on puisse dire est que cela n'est pas si intuitif que cela !

Avec un peu d'exagération, je pourrais dire que la densité de probabilité est une notion trompeuse (et si on rajoute, en plus, qu'elle n'est définie que p.p. alors clairement le néophyte perdra pied !). Pour résumer mon point de vue : la FR est un outil peut-être inhabituel voire déroutant pour le néophyte, mais en réalité sans mystère ; la densité est un outil plus courant, mais piégeux quant à sa signification. La question stratégique est de savoir quelle attitude adopter vis-à-vis du lecteur. Je ne cherche absolument pas l'ésotérisme ou l'élitisme (et mes élèves ne le pardonneraient pas), mais je ne crois pas que ce serait judicieux de camoufler les subtilités (réelles) du monde des probabilités en faisant trop de concessions à des habitudes parfois peu rigoureuses.

Naturellement, je suis d'accord avec l'hypothèse de HB : il est probable qu'en retirant l'annotation dont Ipipipourax nous confirme qu'elle est légitime, le correcteur de ce matin a confondu densité et FR, ou même a réagi de façon un peu pavlovienne en pensant automatiquement qu'une loi normale « devait » être représentée par une courbe en cloche ! Eh bien, si tel était le cas, j'y verrais justement la confirmation qu'il faut veiller à la rigueur de la teneur d'un article, et cela nous laisse l'espoir que ce contributeur apprendra quelque chose à la lumière de l'échange que nous avons ici...

Pour finir, je reviens sur la remarque de Ipipipourax, remarque qui est dans la lignée de ce que j'ai essayé d'exprimer ici : si l'on veut présenter sur la même figure et sous une forme homogène des lois aussi différentes qu'une loi de Poisson, une loi normale et une loi mixte, je ne vois pas trop comment on pourrait échapper à la FR, qui est l'outil homogène le plus simple nous permettant d'éviter le télescopage sur une même figure de grandeurs de natures différentes.

En résumé : merci à HB d'avoir approuvé et réalisé le retour à la version du 14 mars ; et en réponse à Ipipipourax, non seulement je n'ai personnellement pas de meilleure proposition, mais je suis franchement attaché à la situation actuelle

Bonne continuation à tous deux, et peut-être à une autre fois sur un autre article de probabilités !
Preem Palver 21 mars 2013 à 15:23 (CET)
Je me laisse aisément convaincre. Gardons les fonctions de répartition. HB (d) 21 mars 2013 à 17:31 (CET)