Biais de normalité

Un article de Wikipédia, l'encyclopédie libre.

Le biais de normalité est un biais cognitif qui conduit les gens à nier ou minimiser des avertissements relatifs à un danger[1]. Ce comportement revient à sous-estimer la probabilité d'une catastrophe, ses effets sur sa propre existence et son potentiel destructeur[2]. À cause du biais de normalité, de nombreuses personnes ne se préparent pas suffisamment à une catastrophe naturelle, un effondrement financier ou des crises issues d'une erreur humaine. Il est rapporté qu'environ 70 % des gens affichent un biais de normalité au cours d'une catastrophe[3].

Le biais de normalité peut surgir en réponse à des avertissements en amont d'une catastrophe ou face à une catastrophe avérée, comme un effondrement financier, des accidents de la route, des catastrophes naturelles ou une guerre. Le biais de normalité est aussi appelé « paralysie des facultés d'analyse » (analysis paralysis) ou « faire l'autruche » (the ostrich effect)[4] et certains secouristes parlent de « panique négative » (the negative panic)[5]. Le comportement opposé au biais de normalité est la réaction excessive (surréaction), ou biais du scénario du pire (worst-case scenario bias)[6],[7], qui consiste à voir de légères variations par rapport à la routine comme les indices d'une catastrophe imminente.

Exemples[modifier | modifier le code]

La destruction de Pompéi à cause de l'éruption du Vésuve.
Conséquences de l'ouragan Katrina.

D'après le journaliste David McRaney, « le biais de normalité peut s'imposer au cerveau quelle que soit la gravité du problème. Il apparaît aussi bien quand une personne a reçu de nombreux avertissements pendant des jours que si on n'a que quelques secondes pour réagir à un danger de mort »[8]. Il se manifeste lors d'évènements comme les accidents de la route : bien que ces accidents soient très fréquents, une personne normale ne les vit que très rarement. Ce biais se produit aussi face à des évènements d'une portée mondiale. D'après une étude menée en 2001 par le sociologue Thomas Drabek, les gens qui reçoivent un ordre d'évacuation en amont d'une catastrophe ont tendance, dans la majorité des cas, à se renseigner avec au moins quatre sources d'information avant d'obtempérer. Cette attitude est courante lors des catastrophes[9].

Le biais de normalité explique pourquoi, au moment de l'éruption du Vésuve, les habitants de Pompéi ont assisté à la catastrophe sans évacuer[10]. Ce biais s'est également manifesté lorsque des personnes ont refusé de quitter la Nouvelle-Orléans à l'approche de l'ouragan Katrina[11] et quand 70 % des survivants des attentats du 11 septembre ont discuté avec autrui avant de fuir[9]. Lors du naufrage du Titanic, la White Star Line n'avait pas correctement anticipé l'évacuation des passagers ; certains d'entre eux ont refusé d'évacuer, peut-être parce qu'ils sous-estimaient la probabilité d'un scénario du pire et minimisaient les conséquences[12]. De même, pendant la catastrophe de Fukushima, les experts en liaison avec le personnel sur place étaient convaincus qu'une fusion de plusieurs réacteurs était un scénario impossible[13].

Articles connexes[modifier | modifier le code]

Références[modifier | modifier le code]

  1. Thomas E. Drabek, Human system responses to disaster : an inventory of sociological findings, New York, Springer Verlag, (ISBN 978-1-4612-4960-3, OCLC 852789578), p. 72 :

    « The initial response to a disaster warning is disbelief. »

  2. (en) Haim Omer et Nahman Alon, « The continuity principle: A unified approach to disaster and trauma », American Journal of Community Psychology, vol. 22, no 2,‎ , p. 275–276 (PMID 7977181, DOI 10.1007/BF02506866, S2CID 21140114) :

    « ... normalcy bias consists in underestimating the probability of disaster, or the disruption involved in it ... »

  3. Esther Inglis-Arkell, « The frozen calm of normalcy bias », Gizmodo,‎ (lire en ligne, consulté le ) Cites:
  4. Wyne Ince, Thoughts of Life and Time, Wyne Ince, (ISBN 978-1-973727-15-6, lire en ligne), p. 122
  5. David McRaney, You Are Not So Smart: Why You Have Too Many Friends on Facebook, Why Your Memory Is Mostly Fiction, and 46 Other Ways You're Deluding Yourself, Gotham Books, (ISBN 978-1-59240-736-1, lire en ligne), p. 54
  6. Schneier, Bruce. "Worst-case thinking makes us nuts, not safe", CNN, May 12, 2010 (retrieved April 18, 2014); reprinted in Schneier on Security, May 13, 2010 (retrieved April 18, 2014)
  7. Evans, Dylan. "Nightmare Scenario: The Fallacy of Worst-Case Thinking", Risk Management, April 2, 2012 (retrieved April 18, 2014); from Risk Intelligence: How To Live With Uncertainty, by Dylan Evans, Free Press/Simon & Schuster, Inc., 2012; (ISBN 9781451610901)
  8. David McRaney, You Are Not So Smart: Why You Have Too Many Friends on Facebook, Why Your Memory Is Mostly Fiction, and 46 Other Ways You're Deluding Yourself, Gotham Books, (ISBN 978-1-59240-736-1, lire en ligne), p. 55
  9. a et b [[Amanda Ripley (en)|Amanda Ripley]], « How to Get Out Alive », TIME Magazine, vol. 165, no 18,‎ , p. 58–62 (PMID 16128022, lire en ligne, consulté le )
  10. Vaz Estelita, Cristina Joanaz de Melo et Lígia Costa Pinto, Environmental History in the Making, Springer Publishing, (ISBN 978-3-319-41085-2, lire en ligne)
  11. Todd Strandberg, « The Normalcy Bias and Bible Prophecy », Prophezine (consulté le )
  12. Bryce Hoffman, Red Teaming: How Your Business Can Conquer the Competition by Challenging Everything, Crown Publishing, (ISBN 978-1-101-90597-5, lire en ligne), p. 80
  13. William Saito, « What Fukushima Disaster Taught Me About Risk Management In Cybersecurity », Forbes,‎ (lire en ligne, consulté le )