« Valeur p » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Kiwipidae (discuter | contributions)
Kiwipidae (discuter | contributions)
Ligne 65 : Ligne 65 :
Ainsi David Colquhoun conclut « ''It is concluded that if you wish to keep your false discovery rate below 5%, you need to use a three-sigma rule, or to insist on p ≤ 0.001.'' »<ref name=":0">{{Article|langue=anglais|auteur1=Colquhoun D|titre=An investigation of the false discovery rate and the misinterpretation of p-values|périodique=Royal Society Open Science|date=2014|issn=|lire en ligne=|pages=140216}}</ref>.
Ainsi David Colquhoun conclut « ''It is concluded that if you wish to keep your false discovery rate below 5%, you need to use a three-sigma rule, or to insist on p ≤ 0.001.'' »<ref name=":0">{{Article|langue=anglais|auteur1=Colquhoun D|titre=An investigation of the false discovery rate and the misinterpretation of p-values|périodique=Royal Society Open Science|date=2014|issn=|lire en ligne=|pages=140216}}</ref>.


Donc la valeur de p ne devrait jamais être utilisée pour valider une hypothèse à partir de données puisque c'est l'inverse qui est calculé<ref name=":1">{{Article|langue=anglais|auteur1=Wasserstein RL, Lazar NA|titre=The ASA's statement on p-values: context, process, and purpose|périodique=The American Statistician|date=2016|issn=|lire en ligne=|pages=70:129-133}}</ref>. On lira avec beaucoup d'intérêt la page Wikipedia en anglais sur le p-value qui est beaucoup plus à jour que cette page.
Donc la valeur de p ne devrait jamais être utilisée pour valider une hypothèse à partir de données puisque c'est l'inverse qui est calculé<ref name=":1">{{Article|langue=anglais|auteur1=Wasserstein RL, Lazar NA|titre=The ASA's Statement on p-Values: Context, Process, and Purpose|périodique=The American Statistician|date=2016|issn=|doi=10.1080/00031305.2016.1154108|pages=70:129-133}}</ref>. On lira avec beaucoup d'intérêt la page Wikipedia en anglais sur le p-value qui est beaucoup plus à jour que cette page.


== Notes et références ==
== Notes et références ==

Version du 25 février 2018 à 14:50

Dans un test statistique, la valeur-p (en anglais p-value pour probability value), parfois aussi appelée p-valeur, est la probabilité pour un modèle statistique donné sous l'hypothèse nulle d'obtenir la même valeur (ou une valeur encore plus extrême) que celle observée.

Principe général

La p-value est utilisé pour quantifier la significativité statistique d'un résultat dans le cadre d'une hypothèse nulle. L'idée général est de prouver que l'hypothèse nulle n'est pas vérifiée car dans le cas où elle le serait le résultat observé serait fortement improbable. Il s'agit à ce titre d'une extension du principe de preuve par l'absurde.

Un résultat statistiquement significatif est un résultat qui serait improbable si l'hypothèse nulle (qui représente en général la norme) était vérifiée. Il en résulte donc que l'hypothèse nulle ne s'applique pas au résultat observé et que donc le cas étudié diffère de manière notable de la norme et ainsi présente un intérêt particulier.

En terme statistique la p-value s'interprète comme la probabilité du [résultat observé] sachant que [hypothèse nulle] ou si l'on reprend la notation de probabilité type en appelant x le résultat observé et Ho l'hypothèse nulle on peut définir de manière naïve la p-value[note 1]: p-value = P(x|Ho).

Le résultat d'une p-value "improbable" (suivant des conventions à adopter) implique que l'expérience observée ne suit pas l'hypothèse nulle mais ne permet pas stricto-sensu de pousser plus loin les interprétations. Il est également à noter que la p-value ne doit pas être interprétée comme une probabilité sur l'hypothèse nulle et ne correspond pas, en reprenant la notation précédente, à P(Ho|x) contrairement à une interprétation erronée souvent donnée.

Usage

Ce nombre est utilisé en statistiques inférentielles pour conclure sur le résultat d’un test statistique. La procédure généralement employée consiste à comparer la valeur-p à un seuil préalablement défini (traditionnellement 5 %). Si la valeur-p est inférieure à ce seuil, on rejette l'hypothèse nulle en faveur de l’hypothèse alternative, et le résultat du test est déclaré « statistiquement significatif »[1]. Dans le cas contraire, si la valeur-p est supérieure au seuil, on ne rejette pas l’hypothèse nulle, et on ne peut rien conclure quant aux hypothèses formulées.

Cette utilisation de la valeur-p est remise en question, voir la section critiques de cette page, car ne permettant pas de répondre à la question à laquelle elle est censée donner une réponse et il conviendrait de cesser de l'utiliser au moins dans ce contexte [2],[3],[4],[5],[6],[7],[8].

Conventions sur la probabilité

Approche classique

Le statisticien Ronald Fisher a introduit les termes de significativité, d’hypothèse nulle, et l’utilisation de la valeur-p. Il rejetait toutefois la notion de puissance statistique : selon lui, l’hypothèse nulle ne peut jamais être acceptée, mais peut seulement être rejetée par le test statistique. Dans cette approche, la valeur-p est considérée comme une mesure d’à quel point les données plaident contre l’hypothèse nulle. Les seuils suivants sont généralement pris pour référence :

  •  : très forte présomption contre l'hypothèse nulle
  •  : forte présomption contre l'hypothèse nulle
  •  : faible présomption contre l'hypothèse nulle
  •  : pas de présomption contre l'hypothèse nulle

Il est à noter que si ces valeurs sont classiques et d'usage courant elles restent entièrement arbitraire et conventionnelles et ne sont pas acceptées dans certains domaines demandant des précisions très élevées.

En sciences exactes

En sciences exactes, les scientifiques ont longtemps requis une signification statistique correspondant à un écart d'au moins 3 écarts types pour considérer un résultat expérimental comme une possible découverte, ce qui correspond à une valeur-p au plus égale à 2,7 × 10−3, soit environ -25,7 décibans)[9]. Mais le grand nombre de faux positifs, c'est-à-dire selon la définition ci-dessus, le grand nombre d'erreurs de première espèce, a poussé la communauté scientifique à requérir une signification statistique correspondant à un écart d'au moins 5 déviations standards, ce qui correspond à une valeur-p au plus égale à 5,7 × 10−7[10], soit environ -62,5 décibans (dans le cas où l'écart est possible des deux côtés, c'est-à-dire un effet non nul soit positif soit négatif) ou 2,9 × 10−7 (pour un seul côté).

On consultera avec intérêt la note récente sur le sujet[11] et tout particulièrement le retour d'expérience présenté en table 1. L'auteur étend aussi la discussion de la simple signifiance statistique au « niveau de surprise » et à l'« impact » de la découverte putative (table 2), ou, comme le disait déjà Laplace, « Plus un fait est extraordinaire, plus il a besoin d'être appuyé de fortes preuves »[12]. En cela on retrouve des concepts de l'évaluation des risques, où la matrice de criticité combine la probabilité d'apparition et la gravité du phénomène considéré.

La valeur-p dans l’approche Neyman-Pearson

Le mathématicien polonais Jerzy Neyman et le statisticien britannique Egon Sharpe Pearson ont développé un cadre théorique alternatif.

Dans leur approche, les taux d’erreurs doivent être définis avant la collecte des données :

  • α, le taux d’erreur de première espèce (rejeter à tort une hypothèse nulle vraie)
  • β, le taux d’erreur de seconde espèce (accepter à tort l’hypothèse nulle)

La puissance statistique du test, égale à 1 - β, est ainsi contrôlée et définie à l’avance. Il faut ensuite calculer le nombre de données à collecter pour atteindre une telle puissance statistique, ce qui nécessite d’estimer la variance des données : pour ce faire, on se base sur des études précédentes ou sur une étude pilote.

Lorsque les données sont collectées, la valeur-p est calculée, et la décision suivante est prise :

  • si elle est inférieure à α, on rejette l’hypothèse nulle au profit de l’hypothèse alternative
  • si elle est supérieure à α, on rejette l’hypothèse alternative au profit de l’hypothèse nulle

La décision doit être prise de manière mécanique à la fin de la collecte des données. La notion de significativité est rejetée : si le seuil défini à l’avance est de 0.05, une valeur-p de 0.001 n’est pas considérée comme plus significative qu’une valeur-p de 0.049, dans les deux cas la décision prise est la même.

Cette procédure permet théoriquement de prendre des décisions sur l’interprétation des données tout en contrôlant adéquatement les taux d’erreurs sur le long terme. Toutefois, la validité de ces taux d’erreurs dépend du strict respect de la procédure : le recueil de nouvelles données si la valeur-p est « presque significative », ou bien le calcul de la valeur-p avant le recueil de l’intégralité des données et l’arrêt de l’expérience si celle-ci est trouvée significative invalident les taux d’erreur. Ainsi, le contrôle effectif des taux d’erreurs dépend de ce que feraient réellement les chercheurs lorsqu’ils sont confrontés à des résultats qu’ils n’attendaient pas, pas de ce qu’ils disent qu’ils feraient, ni même de ce qu’ils pensent qu’ils feraient. Par ailleurs, si les taux d’erreur à long terme sont connus, la probabilité de défendre la mauvaise hypothèse à la suite du test statistique dans cette expérience particulière n’est pas connue. Ces limites ont conduit au développement de l’approche bayésienne[13].

Erreurs communes sur la valeur p

La valeur p n'est pas la probabilité que l'hypothèse de test soit vraie. La valeur p indique dans quelle mesure les données sont conformes à l'hypothèse de test et à ses hypothèses (i.e. le modèle statistique sous-jacent)[14].

Critiques

L'utilisation d'une valeur p pour conclure suite à un test statistique est très fortement remise en cause pour plusieurs raisons. D'abord d'un point de vue formel, la valeur de p désigne la probabilité d'observer un jeu de données sous l'hypothèse H0 (P(x|H0)), alors qu'en faisant le test, on cherche à savoir quelle est la probabilité que H0 soit vraie sachant les données (P(H0|x)). Or il est évident d'après le théorème de Bayes que P(x|H0) ≠ P(H0|x) puisque :

Ainsi David Colquhoun conclut « It is concluded that if you wish to keep your false discovery rate below 5%, you need to use a three-sigma rule, or to insist on p ≤ 0.001. »[5].

Donc la valeur de p ne devrait jamais être utilisée pour valider une hypothèse à partir de données puisque c'est l'inverse qui est calculé[6]. On lira avec beaucoup d'intérêt la page Wikipedia en anglais sur le p-value qui est beaucoup plus à jour que cette page.

Notes et références

  1. (en) Larry Wasserman, All of Statistics : A Concise Course in Statistical Inference, New York, Springer-Verlag, , 461 p. (ISBN 978-0387402727), définition 10.11.
  2. (en) Paul Everett Meehl, « Why summaries of research on psychological theories are often uninterpretable », Psychological Reports,‎ (lire en ligne)
  3. (en) Jacob Cohen, « The Earth Is Round (p < .05) », American Psychologist,‎ (lire en ligne)
  4. (en) Baker M, « Statisticians issue warning on P values », Nature,‎ , p. 351:151-152
  5. a et b (en) Colquhoun D, « An investigation of the false discovery rate and the misinterpretation of p-values », Royal Society Open Science,‎ , p. 140216
  6. a et b (en) Wasserstein RL, Lazar NA, « The ASA's Statement on p-Values: Context, Process, and Purpose », The American Statistician,‎ , p. 70:129-133 (DOI 10.1080/00031305.2016.1154108)
  7. (en) Johnson VE, « Revised standards for statistical evidence », Proc Natl Acad Sci U S A,‎ , p. 110:19313-19317
  8. (en) Valentin Amrhein et Sander Greenland, « Remove, rather than redefine, statistical significance », Nature Human Behaviour, vol. 1,‎ , p. 0224 (DOI 10.1038/s41562-017-0224-0)
  9. (en) table 38.1 de la revue de statistique du Particle Data Group.
  10. (en) lire par exemple la discussion au-dessous de l'eq. (38.41) de la revue de statistique de Particle Data Group.
  11. (en) « Extraordinary claims: the 0.000029% solution », EPJ Web of Conferences, Volume 95, 2015, 3rd International Conference on New Frontiers in Physics, 2015. DOI 10.1051/epjconf/20159502003
  12. Laplace - Œuvres complètes, Gauthier-Villars, 1878, tome 7
  13. (en) Zoltán Dienes, Understanding Psychology as a Science : An Introduction to Scientific and Statistical Inference, Palgrave Macmillan, , 170 p. (ISBN 023054231X)
  14. (en) « Statistical tests, P values, confidence intervals, and power: a guide to misinterpretations » (DOI 10.1007/s10654-016-0149-3)


Erreur de référence : Des balises <ref> existent pour un groupe nommé « note », mais aucune balise <references group="note"/> correspondante n’a été trouvée