Oubli de la fréquence de base

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

L'oubli de la fréquence de base (aussi connue sous le nom de négligence de la taille de l'échantillon) est un biais cognitif lié aux lois statistiques, qui se manifeste par le fait que les gens oublient souvent de considérer la fréquence de base de l'occurrence d'un événement (sa probabilité a priori, en termes bayésiens) lorsqu'ils cherchent à en évaluer une probabilité.

Le plus souvent, cela conduit à surestimer cette probabilité.

Historique[modifier | modifier le code]

Dans les années 1970, les psychologues et économistes D. Kahneman et A. Tversky ont mené une série d'expériences mettant en évidence les erreurs dues à l'oubli de la fréquence de base, y compris dans des populations de sujets hautement diplômés.

Exemple[modifier | modifier le code]

Supposons une ville avec un million d'habitants. Sur ce million d'habitants, 100 sont des terroristes connus et 999 900 ne sont pas des terroristes. Afin de détecter les terroristes, la ville souhaite installer des caméras de vidéo-surveillance avec un dispositif de reconnaissance faciale automatique. Cependant, la reconnaissance faciale n'est pas parfaite ; supposons que le taux d'erreur soit de 1 %.

Si une personne prise au hasard parmi les citoyens déclenche une alerte, quelle est la chance que ce soit un terroriste ?

Si l'on raisonne avec oubli de la fréquence de base, on considère uniquement le taux d'erreur de 1 %, et on conclut sur une probabilité de 99 % que le citoyen soit effectivement un terroriste.

Lorsqu'on comptabilise l'ensemble des alertes, deux situations se présentent :

  • 99 % des terroristes feront sonner l'alerte (taux d'erreur de 1 % de faux négatifs) ;
  • 1 % des non-terroristes feront également sonner l'alerte (taux d'erreur de 1 % de faux positifs).

Cela représente 99 terroristes sur 100 et 9999 non-terroristes sur 999 900, soit un total de 10 098 alertes. Lorsqu'une alerte se déclenche, la probabilité que le citoyen soit effectivement un terroriste est donc de 99 sur 10 098, soit 0,98 %. La probabilité qu'une alerte soit fausse est donc de 9999 sur 10 098, soit 99,02 %.

Cas concret[modifier | modifier le code]

Dans les annotations apportées par Richard P. Feynman aux conclusions de l'enquête sur l'Accident de la navette spatiale Challenger[1], il considère que ce biais cognitif a joué un rôle important dans la sous-estimation du risque que représentait ce lancement sur au moins trois points :

- différence notable d'appréciation de la fiabilité des lanceurs en règle générale entre les décideurs, les ingénieurs, et les valeurs statistiques réelles,

- sur-estimation de la fiabilité du joint par une interpolation linéaire non-démontrée de cas antérieurs de fissure,

- sur-estimation des conditions météorologiques de la Floride par les concepteurs (le tir fut effectué au petit matin, par -5°C, ce qui n'y est pas une situation statistiquement rare, mais qui a été délaissée au profit de l'« image de carte postale » d'un État à la douceur du climat réputée).

Voir aussi[modifier | modifier le code]

Notes et références[modifier | modifier le code]