Atténuation des biais cognitifs

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
Un biais cognitif est un mécanisme de la pensée, qui cause une déviation du jugement. Le terme biais fait référence à une déviation systématique de la pensée logique et rationnelle par rapport à la réalité.

L’atténuation des biais cognitifs est la prévention et la réduction des effets négatifs des biais cognitifs – les influences inconscientes et automatiques sur le jugement et la prise de décision humains qui produisent des erreurs de raisonnement.

Des théories cohérentes et complètes d'atténuation des biais cognitifs sont manquantes. Cet article décrit des outils, des méthodes, des propositions et d'autres initiatives de débiaisement, appliqués dans les milieux académiques et professionnels concernés par l'efficacité du raisonnement humain et en relation avec la notion d'atténuation des biais cognitifs ; la plupart traitant cette question de façon plutôt tacite qu'explicite.

En ce qui concerne la prise de décision, un débat de longue date porte sur le développement de théories et de pratiques d'atténuation des biais cognitifs. Ce débat oppose le standard de prise de décision de l'agent économique rationnel  à celui fondé sur les besoins sociaux humains et les motivations. Le débat oppose également les méthodes utilisées pour analyser et prédire la prise de décision humaine, comme l'analyse formelle mettant l'accent sur les capacités intellectuelles, aux heuristiques, celles-ci mettant l'accent sur les états émotionnels. Cet article identifie les éléments en lien avec ce débat.

Contexte[modifier | modifier le code]

Un grand nombre de preuves[1],[2],[3],[4],[5],[6],[7],[8],[9],[10],[11] ont établi que l'une des caractéristiques des biais cognitifs est qu'ils se manifestent automatiquement et inconsciemment dans beaucoup de champs du raisonnement humain, de sorte que même ceux qui sont conscients de l'existence du phénomène sont incapables de les détecter et, a fortiori, d'atténuer leur manifestation par la seule sensibilisation.

Les effets réels des biais cognitifs[modifier | modifier le code]

Il existe quelques études reliant explicitement les biais cognitifs aux événements du monde réels ayant des conséquences très négatives. Exemples :

  • Une étude[12] a explicitement mis en avant le rôle des biais cognitifs dans les catastrophes de taille; en examinant les causes de la perte de plusieurs membres de deux expéditions sur l'Everest sur deux jours consécutifs en 1996. Cette étude a conclu que plusieurs biais cognitifs se sont manifestés sur la montagne. Les gens les plus hautement qualifiés et expérimentés ont notamment brisé leurs propres règles, apparemment sous l'influence d'un effet d'excès de confiance, du biais des coût irrécupérables, de l'heuristique de disponibilité, et peut-être d'autres biais cognitifs. Cinq personnes, y compris les deux chefs d'expédition, ont perdu la vie en dépit des avertissements explicites dans des séances d'information avant et pendant l'ascension de l'Everest. Outre les erreurs des dirigeants, la plupart des membres de l'équipe, même s'ils ont reconnu les jugements erronés de leurs chefs, n'ont pas insisté sur le fait de suivre les règles d'ascension établies.
  • En 2010, dans une étude menée par MarketBeat[13], des chercheurs allemands ont examiné le rôle que certains biais cognitifs ont pu avoir dans la crise financière mondiale qui a débuté en 2007. Ils ont conclu que le niveau d'expertise des analystes boursiers et des commerçants les avait rendus très résistants à des signaux qui n'étaient pas conformes à leurs croyances dans le maintien du statu quo. En proie à de forts biais de confirmation renforcés par l'excès de confiance et le biais de statu quo, ils n'ont apparemment pas pu voir les signaux de l'effondrement financier, même lorsqu'ils étaient devenus évidents pour les non-experts.
  • De même, Kahneman, lauréat du « prix Nobel d'économie », note[14] dans une étude revue par des pairs que des gestionnaires financiers très expérimentés ne font « pas mieux que le hasard », en grande partie en raison de facteurs tels que rapportés dans l'étude ci-dessus, qu'il a appelés « l'illusion de compétence ».

De nombreuses enquêtes sur des incidents indiquent que l'erreur humaine - notamment causée par des biais cognitifs - est fortement liée aux résultats potentiels ou réels très négatifs. Exemples :

  • L'incident du « Planeur de Gimli »[15] (23 juillet 1983), dans lequel un avion d'Air Canada faisant Montréal-Edmonton s'est trouvé à court de carburant lorsqu'il était à 41 000 pieds au-dessus du Manitoba en raison d'une erreur de mesure du ravitaillement, un résultat qui s'est plus tard avéré être la conséquence d'une série d'hypothèses infondées formulées par le personnel au sol. Sans électricité pour faire fonctionner la radio, ni de radar ou d'autres aides à la navigation, et seulement un manuel d'utilisation des surfaces de contrôle de l'aéronef, l'équipage a réussi à trouver une piste d'atterrissage abandonnée de la Force Aérienne Canadienne située près de Gimli, au Manitoba. Sans la puissance du moteur, et avec seulement le freinage manuel des roues, le pilote a fait atterrir l'avion, avec ses 61 passagers et l'équipage au complet, puis l'arrêta en toute sécurité. Ce résultat a été le fruit de la compétence (le pilote du planeur avait de l'expérience) et de la chance (il s'est trouvé que le co-pilote savait tout sur les pistes d'atterrissage) ; aucune vie n'a été perdue, les dommages causés à l'aéronef ont été modestes, et certains survivants assez expérimentés ont pu par la suite conseiller les modifications des procédures de ravitaillement de tous les aéroports Canadiens.
  • La perte de Mars Climate Orbiter[16], la sonde qui, le 23 septembre 1999, a survolé Mars de trop près et s'est donc désintégrée. Pour laNASA, cette mésaventure est due à un échec d'organisation, celui-ci résultant notamment d'hypothèses infondées émises par les équipes chargées de la mission concernant le mélange entre le système métrique et les unités de mesure américaines utilisées dans les différents systèmes. Dans cette situation, un ensemble de biais cognitifs ont pu jouer : le biais de confirmation, le biais rétrospectif, l'excès de confiance, du biais de disponibilité, et même le biais de la tâche aveugle.
  • L'incident de la mine Sullivan[17] (survenu le 18 mai 2006), au cours duquel deux travailleurs de l'industrie minière et deux ambulanciers se sont rendus à la mine abandonnée de Sullivan (Colombie-Britannique, Canada) et ont perdu la vie. Même s'ils avaient tous eu une formation en sécurité suffisante, ils n'ont ce jour-là pas compris que la situation était potentiellement mortelle alors qu'avec du recul, c'était évident. La première personne à succomber n'avait pas réussi à identifier précisément une zone anoxique au fond d'un puisard auquel elle avait accédé à l'aide d'une échelle. Après le premier décès, les trois autres travailleurs, tous formés dans de dangereuses situations opérationnelles, ont chacun perdu leur vie exactement de la même manière, l'un après l'autre. Apparemment, chacun avait fermé les yeux sur le sort de la victime précédente. La puissance du biais de confirmation à lui seul serait suffisante pour expliquer ce qui s'est passé, mais d'autres biais cognitifs se sont probablement manifesté.
  • Les échecs du London Ambulance Service, dans lesquels plusieurs défaillances du système de répartition assistée par ordinateur ont entraîné des retardements du service, ce qui a donné lieu à des décès. En 1992, une défaillance du système a été particulièrement importante, créant des retards allant jusqu'à 11 heures, ce qui a entrainé près de 30 morts inutiles en plus des centaines de retards de procédures médicales[18]. Cet incident est un exemple de la façon dont les projets de développement de systèmes informatiques présentent d'importantes lacunes dans leur planification, leur conception, leur exécution, leur test, leur déploiement et leur maintenance[19],[20].
  • Atul Gawande, un professionnel accompli dans le domaine médical, reporte[21] les résultats d'une enquête menée au sein d'un grand hôpital américain, qui a montré que les chirurgiens sautaient au moins une des 5 étapes dans 1/3 opérations, après quoi les infirmières avaient été chargées de vérifier les éventuelles omissions des médecins dans une simple liste de contrôle visant à réduire les infections de la colonne vertébrale. Quinze mois plus tard, les taux d'infection étaient passés de 11 % à 0 %, 8 décès avaient été évités et quelque 2 millions de dollars de frais évitables avaient été épargnés.
  • D'autres exemples de catastrophes résultant d'erreurs humaines possiblement liées à des biais cognitifs: le Three Mile Island, une catastrophe nucléaire ; la perte de la Navette Spatiale Challenger ; Tchernobyl, le réacteur nucléaire en feu ; la destruction d'un avions de transport de passagers Iran Air ; la réponse inefficace à l'Ouragan Katrina, et beaucoup plus.

Chacun des quelque 100 biais cognitifs connus à ce jour peuvent également produire des résultats négatifs dans notre vie de tous les jours, mais rarement aussi graves que dans les exemples ci-dessus. Pour illustration, voici une sélection de biais rapportés dans plusieurs études :

  • Le biais de Confirmation, la tendance à rechercher uniquement l'information qui confirme ses propres idées préconçues, et à omettre celle qui ne le fait pas. Par exemple, n'écouter qu'un camp d'un débat politique, ou faillir à accepter la preuve que son travail est devenu redondant.
  • L'effet de cadrage, la tendance à réagir à la façon dont l'information est présentée, au-delà de son contenu factuel. Par exemple, refuser un traitement chirurgical quand on est informé de son taux d'échec de 10 %, alors qu'on aurait opté pour la chirurgie si l'on avait été informé d'un taux de réussite de 90 % ; ou refuser d'opter pour le don d'organe (dans le cadre d'une démarche de renouvellement du permis de conduire) lorsque la réponse par défaut est « Non ».
  • L'effet d'ancrage, la tendance à produire une estimation proche d'un montant repère qui peut ou peut ne pas avoir été volontairement donné. Par exemple, faire une déclaration partant des préférences d'un supérieur, ou négocier le prix d'une maison sur la base d'une somme de départ suggérée par un agent immobilier plutôt que sur une évaluation objective de la valeur de la maison.
  • Le biais des coûts irrécupérables, c'est-à-dire l'impossibilité de réviser ses attentes au regard de la situation actuelle. Exemple : refuser de payer à nouveau pour remplacer le billet d'un concert qui a été perdu, ou bien refuser de vendre un nombre considérable d'actions lors d'une baisse rapide du marché.
  • L'heuristique de représentativité, la tendance à juger quelque chose comme appartenant à une classe en fonction de quelques caractéristiques saillantes sans tenir compte des statistiques de ces caractéristiques. Par exemple, la croyance que l'on ne deviendra pas un alcoolique, car on manque de certaines caractéristiques du stéréotype de l'alcoolique, ou, que l'on a plus de chance de gagner à la loterie parce que l'on achète des billets à chez le même type de vendeur que plusieurs grands gagnants connus.
  • L'effet de Halo, la tendance à attribuer des capacités non vérifiées à une personne sur la base d'une capacité observée. Exemple : supposer sans preuve qu'un homme grand et beau est également intelligent et aimable.
  • Le biais rétrospectif,  la tendance qu'ont les personnes à surestimer rétrospectivement le fait que les événements auraient pu être anticipés moyennant davantage de prévoyance ou de clairvoyance. Par exemple, « se souvenir » après coup d'avoir identifié la cause immédiate de la Grande Récession de 2007.
  • L'heuristique de disponibilité, la tendance à estimer que ce qui est facile à se rappeler est de plus probable que ce qui ne l'est pas. Par exemple, estimer qu'une réunion d'information sur la planification municipale sera ennuyeuse parce que la dernière réunion à laquelle vous avez participé (sur un autre sujet) l'était, ou encore ne pas croire à la promesse d'un député de défendre l'égalité des sexes parce qu'il ne s'est pas présenté à votre vente de pâtisseries à domicile lorsque vous collectiez des fonds pour lui.
  • L'effet de mode, la tendance à faire ou croire ce que les autres font ou pensent. Par exemple, voter pour un candidat politique parce que votre père a toujours voté pour le candidat du parti, ou ne pas s'opposer à une situation de harcèlement car le reste de vos pairs ne le font pas.

À ce jour[modifier | modifier le code]

Un nombre croissant d'universitaires et de professionnels identifient des moyens d'atténuer les biais cognitifs. Des exemples notables sont le domaine du débiaisement, ainsi que le modèle développé par le NeuroLeadership Institute qui liste plus de 150 des biais cognitifs connus dans le cadre de la prise de décision[22].

Ce qui suit est une caractérisation des hypothèses, des théories, des méthodes et des résultats, dans les disciplines concernées par l'efficacité du raisonnement humain, qui, de manière plausible, portent sur la théorie et/ou les pratiques d'atténuation des biais cognitifs. Dans la plupart des cas, ces travaux sont basés sur la référence explicite aux biais cognitifs ou à l'atténuation de leurs effets, dans d'autres elle est implicite mais non moins applicable. Cette caractérisation est organisée suivant la segmentation historique de ces disciplines, même si dans la pratique il existe une quantité significative de chevauchements.

La théorie de la décision[modifier | modifier le code]

La théorie de la décision, une discipline qui plonge ses racines dans l'économie néo-classique, est explicitement axée sur le raisonnement humain, le jugement et la prise de décision, principalement dans des "jeux à un tour" entre deux agents, avec ou sans information parfaite. Le fondement théorique de la théorie de la décision suppose que tous les décideurs sont des agents rationnels qui tentent de maximiser l'utilité économique de leur choix, et que pour y parvenir, ils utilisent des méthodes formelles d'analyse telles que les mathématiques, les probabilités, les statistiques, et la logique sous contraintes de ressources cognitives[23],[24],[25].

Lorsque la théorie de la décision est normative (ou prescriptive) et concerne ce que les gens devraient faire, compte tenu de leur objectif de maximiser leur utilité; dans cette approche, il n'est jamais fait explicitement mention de facteurs inconscients tels que les biais cognitifs, c'est-à-dire que tous les facteurs sont considérés comme des choix de paramètres consciemment pris par les agents. Les praticiens ont tendance à traiter les déviations par rapport à ce qu'un agent rationnel ferait comme des "erreurs irrationnelles", ce qui implique que l'atténuation des biais cognitifs ne peut qu'être atteinte en faisant en sorte que les décideurs deviennent davantage des agents rationnels, bien qu'aucune mesure explicite permettant d'y parvenir ne soit proposée.

La théorie de la décision positive ou descriptive se préoccupe de ce que les gens font réellement; les praticiens ont tendance à reconnaître l'existence persistante d'un comportement «irrationnel» et, bien que certains mentionnent la motivation et les préjugés humains comme contributeurs possibles à un tel comportement, ces facteurs ne sont pas explicités dans leurs modèles. Les praticiens ont tendance à traiter les écarts par rapport à ce qu'un agent rationnel ferait comme preuve de variables décisionnelles importantes, mais non encore comprises, et n'ont encore aucune contribution explicite ou implicite à apporter à une théorie et à une pratique d'atténuation des biais cognitifs.

La théorie des jeux[modifier | modifier le code]

La théorie des jeux, une discipline qui plonge ses racines dans l'économie et la dynamique des systèmes, est une méthode d'étude de la prise de décision stratégique dans des situations impliquant des interactions multi-étapes avec plusieurs agents avec ou sans information parfaite. Comme pour la théorie de la décision, le fondement théorique de la théorie des jeux suppose que tous les décideurs sont des agents rationnels qui essaient de maximiser la valeur économique attendue de leurs choix et qu'ils utilisent des méthodes analytiques formelles telles que les mathématiques, les probabilités, les statistiques, et la logique sous contraintes de ressources cognitives[26],[27],[28],[29].

Une différence majeure entre la théorie de la décision et la théorie des jeux est la notion d '«équilibre», une situation dans laquelle tous les agents s'accordent sur une stratégie parce que toute déviation par rapport à cette stratégie punit l'agent déviant. Malgré les preuves analytiques de l'existence d'au moins un équilibre dans un large éventail de scénarios, les prédictions de la théorie des jeux, comme celles de la théorie de la décision, ne correspondent pas souvent aux choix humains réels[30]. Comme dans le cas de la théorie de la décision, les praticiens ont tendance à considérer ces écarts comme «irrationnels» et, plutôt que de tenter de modéliser un tel comportement, supposent que l'atténuation des biais cognitifs ne peut être atteinte que par les décideurs.

Dans la gamme complète des modèles de théorie des jeux, beaucoup ne garantissent pas l'existence d'équilibres, c'est-à-dire qu'il existe des situations conflictuelles où aucun ensemble de stratégies n'est accepté par tous les agents. Cependant, même lorsque des équilibres théoriques existent, c'est-à-dire lorsque des stratégies de décision optimales sont disponibles pour tous les agents, dans la vraie vie, les décideurs les trouvent rarement; en effet, ils semblent parfois même ne pas essayer de les trouver, ce qui suggère que certains agents ne sont pas toujours «rationnels». La théorie des jeux ne semble pas tenir compte d'un agent autre que l'agent rationnel.

L'économie comportementale[modifier | modifier le code]

Contrairement à l'économie néoclassique et à la théorie de la décision, à l'économie comportementale et aux domaines connexes, la finance comportementale considère explicitement les effets des facteurs sociaux, cognitifs et émotionnels sur les décisions économiques des individus. Ces disciplines combinent les connaissances de la psychologie et de l'économie néo-classique pour atteindre cet objectif[31],[32],[33].

La théorie des perspectives[34] a été une première inspiration pour cette discipline et a été développée par ses praticiens. C'est l'une des premières théories économiques qui reconnaissent explicitement la notion de biais cognitif, même si le modèle lui-même n'en compte que quelques-uns, notamment l'aversion aux pertes, le biais d'ancrage et d'ajustement, l'effet de dotation et peut-être d'autres. Aucune mention n'est faite de l'atténuation des biais cognitifs dans la théorie formelle des perspectives, et il n'y a aucune preuve de travail révisé par des pairs sur l'atténuation des biais cognitifs dans d'autres domaines de cette discipline.

Cependant, Daniel Kahneman et d'autres ont récemment écrit des articles dans des revues commerciales traitant de la notion d'atténuation des biais cognitifs sous une forme limitée[35]. Ces contributions affirment que l'atténuation des biais cognitifs est nécessaire et offrent des suggestions générales sur la façon de l'atteindre, bien que les conseils soient limités à quelques biais cognitifs et ne soient pas généralisables de façon évidente aux autres.

La neuroéconomie[modifier | modifier le code]

La neuroéconomie est une discipline rendue possible par les progrès des technologies d'imagerie de l'activité cérébrale. Cette discipline fusionne certaines des idées de l'économie expérimentale, de l'économie comportementale, des sciences cognitives et des sciences sociales dans le but de mieux comprendre la base neuronale de la prise de décision humaine.

Les expériences IRMf suggèrent que le système limbique est constamment impliqué dans la résolution des situations de décision économique qui ont une valence émotionnelle, l'hypothèse étant que cette partie du cerveau humain est impliquée dans la création des écarts par rapport aux choix rationnels des agents. Les praticiens de cette discipline ont démontré des corrélations entre l'activité cérébrale dans cette partie du cerveau et l'activité de prospection, et il a été démontré que l'activation neuronale a des effets mesurables et constants sur la prise de décision[36],[37],[38],[39],[40]. Ces résultats doivent être considérés comme spéculatifs et préliminaires, mais suggèrent néanmoins la possibilité d'une identification en temps réel des états cérébraux associés à la manifestation du biais cognitif, et la possibilité d'interventions ciblées au niveau neuronal pour atteindre l'atténuation du biais cognitif.

La psychologie cognitive[modifier | modifier le code]

Plusieurs courants d'investigation dans cette discipline sont remarquables pour leur pertinence possible en matière d'atténuation des biais cognitifs.

Une approche de l'atténuation proposée à l'origine par Daniel Kahneman et Amos Tversky, développée par d'autres et appliquée dans des situations réelles, est la prévision de classe de référence. Cette approche comporte trois étapes: avec un projet spécifique en tête, identifier un certain nombre de projets antérieurs qui partagent un grand nombre d'éléments avec le projet sous examen; pour ce groupe de projets, établir une distribution de probabilité du paramètre en cours de prévision; et, comparer le projet spécifique avec le groupe de projets similaires, afin d'établir la valeur la plus probable du paramètre sélectionné pour le projet spécifique. Cette méthode simplement énoncée masque la complexité potentielle de l'application à des projets réels: peu de projets sont caractérisables par un seul paramètre; plusieurs paramètres compliquent de façon exponentielle le processus; la collecte de données suffisantes sur lesquelles construire des distributions de probabilité robustes est problématique; et les résultats des projets sont rarement équivoques et leurs interprétations sont souvent faussées par les intérêts des parties prenantes. Néanmoins, cette approche est justifiée dans le cadre d'un protocole d'atténuation des biais cognitifs lorsque le processus est appliqué avec un maximum de diligence, dans des situations où des données fiables sont disponibles et où toutes les parties prenantes peuvent coopérer.

Concept ancré dans les considérations sur les mécanismes réels du raisonnement humain, la rationalité limitée peut apporter des progrès significatifs dans l'atténuation des biais cognitifs. Conçu à l'origine par Herbert A. Simon[41]  dans les années 1960 et conduisant au concept de satisfaction plutôt qu'à l'optimisation, cette idée trouve une expression expérimentale dans l'œuvre de Gerd Gigerenzer et d'autres. Une piste du travail de Gigerenzer a abouti à une conception du raisonnement comme un mécanisme « rapide et frugal »[42], et mettait l'accent sur la primauté de la « reconnaissance » dans la prise de décision, soutenue par des heuristiques de résolution de problèmes fonctionnant dans un environnement à faibles ressources cognitives. Dans une série de tests objectifs, les modèles basés sur cette approche ont surpassé les modèles basés sur des agents rationnels maximisant leur utilité en utilisant des méthodes analytiques formelles. Une des contributions à une théorie et à une pratique de l'atténuation des biais cognitifs offerte par cette approche est qu'elle aborde l'atténuation sans cibler explicitement les biais cognitifs individuels et se concentre sur le mécanisme de raisonnement lui-même pour éviter la manifestation de biais cognitifs.

L'entraînement situationnel intensif est capable de fournir aux individus ce qui semble être une atténuation des biais cognitifs dans la prise de décision, mais équivaut à une stratégie fixe de sélection de la meilleure réponse aux situations reconnues, quel que soit le «bruit» dans l'environnement.  Des études et des anecdotes rapportées dans des médias populaires[43],[44] de capitaines de pompiers, de chefs de pelotons militaires et d'autres personnes faisant des jugements rapides et corrects sous une contrainte extrême suggèrent que ces réponses ne sont pas généralisables et ne peut contribuer à une théorie  ainsi qu'à une pratique d'atténuation des biais cognitifs que l'idée générale d'un entraînement intensif dans un domaine spécifique.

De même, une formation de niveau expert dans des disciplines fondamentales telles que les mathématiques, les statistiques, les probabilités, la logique, etc. peut être utile pour l'atténuation des biais cognitifs lorsque le niveau de performance attendu reflète ces méthodes analytiques formelles. Cependant, une étude de concepteurs de logiciels informatiques[45] suggère que pour la tâche d'estimation des projets de logiciel, malgré l'aspect analytique fort de cette tâche, les normes de performance se concentrant sur le contexte social du lieu de travail étaient beaucoup plus dominantes que les méthodes analytiques formelles. Cette constatation, si elle est généralisable à d'autres tâches et disciplines, contredirait l'idée selon laquelle la formation d'expert permet d'atténuer les biais cognitifs et pourrait apporter une idée étroite mais importante à la théorie et à la pratique de l'atténuation des biais cognitifs.

Les expériences de laboratoire dans lesquelles l'atténuation des biais cognitifs est un objectif explicite sont rares. Une étude de 1980[46] a exploré la notion de réduction du biais d'optimisme en montrant aux sujets les raisonnements d'autres sujets, avec pour résultat que leur prise de décision subséquente a quelque peu été débiaisée.

Un récent travail de recherche mené par Morewedge et ses collègues (2015) a mis en évidence des formes de débiaisement applicables à tous les domaines. Dans deux expériences longitudinales, les techniques d'entraînement au débiaisement avec des jeux interactifs suscitant six biais cognitifs (ancrage, biais aveugle, biais de confirmation, erreur d'attribution fondamentale, biais de projection et représentativité), ont fourni aux participants une rétroaction individualisée ainsi que des stratégies d'atténuation, permettant ainsi une réduction immédiate de plus de 30% de la survenue des biais et une réduction à long terme (2 à 3 mois plus tard) de plus de 20%. Les vidéos pédagogiques étaient également efficaces, mais toutefois moins efficaces que les jeux[47].

La psychologie évolutionniste[modifier | modifier le code]

Cette discipline défie explicitement la vision répandue selon laquelle les humains sont des agents rationnels qui maximisent la valeur / utilité attendue, en utilisant des méthodes analytiques formelles pour le faire. Des praticiens comme Cosmides, Tooby, Haselton, Confer et d'autres postulent que les biais cognitifs font référence à ce qu'il conviendrait davantage d'appeler des heuristiques cognitives, qui devraient être considérées comme une boîte à outils de raccourcis cognitifs[48],[49],[50],[51] sélectionnés par la pression évolutive et comme des caractéristiques plutôt que des défauts, dans la vue prédominante. Les modèles théoriques et les analyses soutenant ce point de vue sont nombreux[52]. Cette vue suggère que les résultats négatifs de raisonnement proviennent principalement du fait que les défis de raisonnement auxquels sont confrontés les humains modernes et le contexte social et politique dans lequel ils sont présentés imposent des exigences à notre ancienne «boîte à outils heuristique» qui au mieux crée la confusion dans une situation donnée, et au pire générè ce que les partisans de la vue dominante appellent des « erreurs de raisonnement ».

Dans la même veine, Mercier et Sperber décrivent une théorie[53]  du biais de confirmation, et peut-être d'autres biais cognitifs, qui s'écarte radicalement du point de vue dominant selon lequel le raisonnement humain est destiné à aider les décisions économiques individuelles. Leur point de vue suggère qu'il a évolué en tant que phénomène social et que le but était l'argumentation, c'est-à-dire de convaincre les autres et de faire attention lorsque d'autres tentent de nous convaincre. Il est trop tôt pour dire si cette idée s'applique plus généralement à d'autres biais cognitifs, mais le point de vue soutenant cette théorie peut être utile dans la construction d'une théorie et d'une pratique de l'atténuation des biais cognitifs.

Il y a une convergence émergente entre la psychologie évolutionniste et le concept selon lequel notre mécanisme de raisonnement est séparé (approximativement) entre «Système 1» et «Système 2». Selon ce point de vue, le Système 1 est la «première ligne» du traitement cognitif de toutes les perceptions, y compris les «pseudo-perceptions» générées automatiquement, produisant automatiquement, inconsciemment et quasi instantanément des jugements émotivement chargés de leur effet probable sur le bien-être de l'individu. En revanche, le Système 2 est responsable du «contrôle exécutif», prenant les jugements du Système 1 comme des conseils, faisant des prédictions futures sur leur validité grâce à la prospection, puis choisissant les meilleurs conseils (s'il en est) à partir desquels agir. De ce point de vue, le système 2 est lent, simple et paresseux, n'égalant généralement pas les avertissements du système 1 et ne les surpassant que lorsqu'il est intensément entraîné pour le faire. Dans cette perspective, notre «boîte à outils heuristique» réside en grande partie dans le système 1, se conformant à l'idée que les biais cognitifs sont inconscients, automatiques et très difficiles à détecter et à contourner. Les praticiens de la psychologie évolutionniste soulignent que notre boîte à outils heuristique, en dépit de l'abondance apparente des «erreurs de raisonnement» qui lui sont attribuées, fonctionne exceptionnellement bien, étant donné la vitesse à laquelle elle doit fonctionner, la gamme de jugements qu'elle produit et les enjeux. La conception système 1 / système 2 du mécanisme de raisonnement humain semble avoir une plausibilité empirique (voir Neuroscience, ci-après) et peut donc contribuer à une théorie et à une pratique de l'atténuation des biais cognitifs.

Les neurosciences[modifier | modifier le code]

Les neurosciences offrent un support empirique au concept de la séparation du mécanisme de raisonnement humain entre le système 1 et le système 2, comme décrit ci-dessus, basé sur des expériences d'imagerie de l'activité cérébrale en utilisant la technologie IRMf. Bien que cette notion doive rester spéculative jusqu'à ce que davantage de travail soit fait, elle semble être une base productive pour concevoir des options permettant de construire une théorie et une pratique d'atténuation du biais cognitif[54],[55].

L'anthropologie[modifier | modifier le code]

Les anthropologues ont fourni des scénarios généralement acceptés[56],[57],[58],[59],[60] sur la façon dont nos progéniteurs vivaient et ce qui était important dans leur vie. Ces scénarios d'organisation sociale, politique et économique ne sont pas uniformes à travers l'histoire ou la géographie, mais il y a une certaine stabilité tout au long de l'ère paléolithique, et de l'Holocène en particulier. Ceci, avec les découvertes de la psychologie évolutionniste et de la neuroscience ci-dessus, suggère que nos heuristiques cognitives sont à leur meilleur dans un environnement social, politique et économique proche de celui du Paléolithique / Holocène. Si cela est vrai, alors un moyen possible d'obtenir au moins une atténuation des biais cognitifs consiste à imiter autant que possible les scénarios sociaux, politiques et économiques du paléolithique et de l'holocène lorsque l'on effectue une tâche de raisonnement en proie aux effets négatifs de biais cognitifs.

Ingénierie de la fiabilité humaine[modifier | modifier le code]

Un certain nombre de paradigmes, méthodes et outils pour améliorer la fiabilité de ses performances[61],[62],[63],[64],[65] ont été développés dans la discipline de l'ingénierie de la fiabilité humaine. Bien qu'il y ait une certaine attention accordée au mécanisme de raisonnement humain lui-même, l'approche dominante consiste à anticiper les situations problématiques, à contraindre les opérations humaines par des mandats de processus et à guider les décisions humaines par des protocoles de réponse spécifiques au domaine concerné. Bien que cette approche puisse produire des réponses efficaces aux situations critiques sous stress, les protocoles impliqués doivent être considérés comme ayant une généralisation limitée au-delà du domaine pour lequel ils ont été développés, avec pour implication que les solutions dans cette discipline ne puissent fournir que des cadres génériques à une théorie et à une pratique de l'atténuation des biais cognitifs.

Apprentissage automatique[modifier | modifier le code]

L'apprentissage automatique, une branche de l'intelligence artificielle, a été utilisé pour étudier l'apprentissage humain et la prise de décision[66].

Une technique particulièrement applicable à l'atténuation du biais cognitif est l'apprentissage en réseau neuronal et la sélection de choix, une approche inspirée par la structure et la fonction imaginée des réseaux neuronaux réels dans le cerveau humain. La structure multicouche et interconnectée de collecte et de propagation des signaux, typique des modèles de réseaux neuronaux où les poids régissent la contribution des signaux à chaque connexion, permet à de très petits modèles d'effectuer des tâches de prise de décision plutôt complexes à haute fidélité.

En principe, de tels modèles sont capables de modéliser la prise de décision qui tient compte des besoins et des motivations humaines dans les contextes sociaux, et suggèrent leur prise en compte dans une théorie et dans une pratique de l'atténuation des biais cognitifs. Des obstacles à la réalisation de cette possibilité persistent : accumuler une quantité considérable "d'ensembles d'apprentissage" du monde réel appropriés pour la partie du réseau neuronal de tels modèles; caractériser les situations et les résultats de la prise de décision dans la vie réelle afin de diriger efficacement les modèles; et l'absence de schéma liant structure interne d'un réseau de neurones et composantes du mécanisme de raisonnement humain.

Conception de logiciels[modifier | modifier le code]

Cette discipline, bien qu'elle ne soit pas axée sur l'amélioration des résultats du raisonnement humain en tant qu'objectif final, est une discipline dans laquelle la nécessité d'une telle amélioration a été explicitement reconnue, bien que le terme « atténuation des biais cognitifs » ne soit pas universellement utilisé.

Une étude[67] identifie des mesures spécifiques pour lutter contre les effets du biais de confirmation dans certaines phases du cycle de vie du développement d'un logiciel.

Une autre étude prend du recul par rapport aux biais cognitifs et décrit un cadre d'identification des «normes de performance», critères par lesquels les résultats du raisonnement sont jugés corrects ou incorrects, afin de déterminer quand l'atténuation des biais cognitifs est nécessaire pour guider l'identification des biais pouvant survenir dans une situation réelle, et ensuite de prescrire leurs atténuations. Cette étude fait référence à un vaste programme de recherche dans le but d'évoluer vers une théorie et une pratique de l'atténuation des biais cognitifs.

Autres disciplines[modifier | modifier le code]

D'autres initiatives visant directement une théorie et une pratique de l'atténuation des biais cognitifs peuvent exister dans d'autres disciplines sous différentes étiquettes que celles utilisées ici.

Voir également[modifier | modifier le code]

Références[modifier | modifier le code]

  1. Ariely, D. (2008). Predictably Irrational: The Hidden Forces That Shape Our Decisions, Harper Collins.
  2. N. Epley et T. Gilovich, « The Anchoring-and-Adjustment Heuristic: Why the Adjustments are Insufficient », Psychological Science, vol. 17, no 4,‎ , p. 311–318 (PMID 16623688, DOI 10.1111/j.1467-9280.2006.01704.x)
  3. Gigerenzer, G. (2006). "Bounded and Rational." Contemporary Debates in Cognitive Science. R. J. Stainton, Blackwell Publishing: 115–133.
  4. Gilovich, T. (1991). How We Know What Isn't So: The Fallibility of Human Reason in Everyday Life. New York, NY, The Free Press.
  5. J. S. Hammond et R. L. Keeney, « The Hidden Traps in Decision Making », Harvard Business Review, vol. 84, no 1,‎ , p. 118–126
  6. Haselton, M. G., D. Nettie, et al. (2005). The Evolution of Cognitive Bias. Handbook of Evolutionary Psychology. D. M. Buss. Hoboken, Wiley: 724–746.
  7. Henrich, « Markets, Religion, Community Size, and the Evolution of Fairness and Punishment », Science, vol. 327,‎ , p. 1480–1484 (PMID 20299588, DOI 10.1126/science.1182238)
  8. Lerher, J. (2009). How We Decide. New York, NY, Houghton Mifflin Harcourt.
  9. Nozick, R. (1993). The Nature of Rationality. Ewing, NJ, Princeton University Press.
  10. D. L. Schacter, « The Seven Sins of Memory: Insights From Psychology and Cognitive Neuroscience », American Psychologist, vol. 54, no 3,‎ , p. 182–203 (PMID 10199218, DOI 10.1037/0003-066x.54.3.182)
  11. Carey K. Morewedge et Daniel Kahneman, « Associative processes in intuitive judgment », Trends in Cognitive Sciences, vol. 14, no 10,‎ , p. 435–440 (PMID 20696611, DOI 10.1016/j.tics.2010.07.004)
  12. (en) Roberto, M. A., « Lessons from Everest: The Interaction of Cognitive Bias, Psychological, Safety and System Complexity », California Management Review, vol. 45, no 1,‎ , p. 136–158.
  13. M. Knauff, C. Budeck, A. G. Wolf et K. Hamburger, « The Illogicality of Stock-Brokers: Psychological Experiments on the Effects of Prior Knowledge and Belief Biases on Logical Reasoning in Stock Trading », PLoS ONE, vol. 5, no 10,‎ , e13483 (PMID 20976157, PMCID 2956684, DOI 10.1371/journal.pone.0013483)
  14. Kahneman, D. (2011). Thinking, Fast and Slow, Doubleday Canada.
  15. ID=19830723-0 (1983). "Gimli Glider Accident Report." Aviation Safety Network http://aviation-safety.net
  16. (en) Stephenson, Arthur G.; LaPiana, Lia S.; Mulville, Daniel R.; Rutledge, Peter J.; Bauer, Frank H.; Folta, David; Dukeman, Greg A.; Sackheim, Robert et al. (1999-11-10). "Mars Climate Orbiter Mishap Investigation Board Phase I Report." National Air and Space Administration.
  17. (en) British Columbia Ministry of Energy, Mines and Petroleum Resources: Sullivan Mine Accident Report, May 17, 2006.
  18. (en) Beynon-Davies, P., « Information systems `failure': case of the LASCAD project », European Journal of Information Systems, 1995.
  19. (en) Mann, C. C. (2002). « Why Software is So Bad » Technology Review, MIT, July 2002.
  20. (en) W. Stacy et J. MacMillan, « Cognitive Bias in Software Engineering », Communications of the ACM, vol. 38, no 6,‎ , p. 57–63 (DOI 10.1145/203241.203256)
  21. (en) Gawande, A. (2010). The Checklist Manifesto (en): How to Get Things Right. New York, NY, Metropolitan Books.
  22. Matthew Lieberman, David Rock, Heidi Grant Halvorson et Christine Cox, « Breaking Bias Updated: The SEEDS Model(tm) », NeuroLeadership Journal, vol. 6,‎
  23. D. Kahneman et R. Thaler, « Utility Maximization and Experienced Utility », Journal of Economic Perspectives, vol. 20, no 1,‎ , p. 221–234 (DOI 10.1257/089533006776526076)
  24. Frey, B.; Stutzer, A. (2002). "What Can Economists Learn from Happiness Research?". Journal of Economic Literature. 40 (2): 402–35. doi:10.1257/002205102320161320
  25. Kahneman, D. (2000). "Experienced Utility and Objective Happiness: A Moment-Based Approach." Chapter 37 in: D. Kahneman and A. Tversky (Eds.) "Choices, Values and Frames." New York: Cambridge University Press and the Russell Sage Foundation, 1999.
  26. Binmore, K. (2007). "A Very Short Introduction to Game Theory." Oxford University Press.
  27. Camerer, C. F., Ho T.-H., Chong, J.-K. (2002). "A Cognitive Hierarchy Theory of One-Shot Games and Experimental Analysis." Forth, Quarterly Journal of Economics."
  28. Broseta, B., Costa-Gomes, M., Crawford, V. (2000). "Cognition and Behavior in Normal-Form Games: An Experimental Study." Department of Economics, University of California at San Diego, Permalink: http://www.escholarship.org/uc/item/0fp8278k.
  29. Myerson, R. B. (1991). "Game Theory: Analysis of Conflict." Harvard University Press.
  30. Wright J. R., Leyton-Brown, K., Behavioral Game-Theoretic Models: A Bayesian Framework For Parameter Analysis, to appear in Proceedings of the 11th International Conference on Autonomous Agents and Multiagent Systems (AAMAS 2012), (8 pages), 2012.
  31. B. Frey et A. Stutzer, « What Can Economists Learn from Happiness Research? », Journal of Economic Literature, vol. 40, no 2,‎ , p. 402–35 (DOI 10.1257/002205102320161320)
  32. Kahneman, D. "Maps of Bounded Rationality: Psychology for Behavioral Economics." American Economic Review (December 2003): 1449–1475.
  33. Mullainathan, Sendhil, and Richard Thaler. "Behavioral Economics." MIT Department of Economics Working Paper 00-27. (September 2000).
  34. D. Kahneman et A. Tversky, « Prospect Theory: An Analysis of Decision Under Risk », Econometrica, vol. 47, no 2,‎ , p. 263–291 (DOI 10.2307/1914185)
  35. Kahneman, D., Lovallo, D., Sibony, O. (2011). "Before You Make That Big Decision." Harvard Business Review, June, 2011.
  36. George Loewenstein, Scott Rick et Jonathan D. Cohen, « Neuroeconomics », Annual Review of Psychology, vol. 59, no 1,‎ , p. 647–672 (DOI 10.1146/annurev.psych.59.103006.093710)
  37. A Rustichini, « Neuroeconomics: What have we found, and what should we search for? », Current Opinion in Neurobiology, vol. 19,‎ , p. 672–677 (DOI 10.1016/j.conb.2009.09.012)
  38. C. Padoa-Schioppa et J.A. Assad, « The Representation of Economic Value in the Orbitofrontal Cortex is Invariant for Changes of Menu », Nature Reviews Neuroscience, vol. 11,‎ , p. 95–102 (PMID 18066060, PMCID 2646102, DOI 10.1038/nn2020)
  39. Spreng, R. N., Mar, R. A., Kim, A. S. N. (2008). The Common Neural Basis of Autobiographical Memory, Prospection, Navigation, Theory of Mind and the Default Mode: A Quantitative Meta-Analysis. Journal of Cognitive Neuroscience, (Epub ahead of print)(2010).
  40. J. Jamison et J. Wegener, « Multiple Selves in Intertemporal Choice », Journal of Economic Psychology, vol. 31,‎ , p. 832–839 (DOI 10.1016/j.joep.2010.03.004)
  41. H. A. Simon, « Bounded Rationality and Organizational Learning », Organization Science, vol. 2, no 1,‎ , p. 125–134 (DOI 10.1287/orsc.2.1.125)
  42. G. Gigerenzer et D. G. Goldstein, « Reasoning the Fast and Frugal Way: Models of Bounded Rationality », Psychological Review, vol. 103, no 4,‎ , p. 650–669 (PMID 8888650, DOI 10.1037/0033-295x.103.4.650)
  43. Gladwell, M. (2006). Blink: The Power of Thinking Without Thinking. New York, NY, Little, Brown and Company.
  44. Shermer, M. (2010). A review of Paul Thagard's "The Brain and the Meaning of Life". Skeptic Magazine. Altadena, CA, Skeptics Society. 16: 60–61.
  45. Conroy, P., Kruchten, P. (2012). "Performance Norms: An Approach to Reducing Rework in Software Development", to appear in IEEE Xplore re 2012 Canadian Conference on Electrical and Computing Engineering.
  46. N. D. Weinstein, « Unrealistic Optimism About Future Life Events". Department of Human Ecology and Social Sciences, Cook College, Rutgers, The State University », Journal of Personality and Social Psychology, vol. 39, no 5,‎ , p. 806–820 (DOI 10.1037/0022-3514.39.5.806)
  47. C. K. Morewedge, H. Yoon, I. Scopelliti et C. W. Symborski, « Debiasing Decisions: Improved Decision Making With a Single Training Intervention », Policy Insights from the Behavioral and Brain Sciences, vol. 2, no 1,‎ , p. 129–140 (DOI 10.1177/2372732215600886)
  48. Cosmides, L., Tooby, J. "Evolutionary Psychology: A Primer." at http://www.psych.ucsb.edu/research/cep/primer.html."
  49. M. G. Haselton, G. A. Bryant, A. Wilke et D. A. Frederick, « Adaptive Rationality: An Evolutionary Perspective on Cognitive Bias », Social Cognition, vol. 27, no 5,‎ , p. 733–763 (DOI 10.1521/soco.2009.27.5.733)
  50. Haselton, M. G., D. Nettie, et al. (2005). "The Evolution of Cognitive Bias." Handbook of Evolutionary Psychology. D. M. Buss. Hoboken, Wiley: 724–746.
  51. Confer, « Evolutionary Psychology: Controversies, Questions, Prospects, and Limitations », American Psychologist, vol. 65, no 2,‎ , p. 110–126 (PMID 20141266, DOI 10.1037/a0018413)
  52. M. Chudek et J. Henrich, « Culture–Gene Coevolution, Norm-Psychology and the Emergence of Human Prosociality », Trends in Cognitive Sciences, vol. 15,‎ , p. 218–226 (DOI 10.1016/j.tics.2011.03.003)
  53. H. Mercier et D. Sperber, « Argumentative Theory », Behavioral and Brain Sciences, vol. 34, no 2,‎ , p. 57–74 (DOI 10.1017/s0140525x10000968)
  54. Damasio, A. (2010). Self Comes to Mind: Constructing the Conscious Brain. New York, NY, Pantheon.
  55. Changeux, J.-P. P., A. Damasio, et al., Eds. (2007). Neurobiology of Human Values (Research and Perspectives in Neurosciences). Heidelberg, Germany, Springer.
  56. Ember, C. R. (1978). Myths About Hunter-Gatherers, University of Pittsburgh Of the Commonwealth System of Higher Education, 17(4), pp 439–448.
  57. S. L. Gabow, « Population Structure and the Rate of Hominid Brain Evolution », Journal of Human Evolution, vol. 6, no 7,‎ , p. 643–665 (DOI 10.1016/s0047-2484(77)80136-x)
  58. M. J. Hamilton, B. T. Milne, R.S. Walker et O. Burger, « The complex Structure of Hunter–Gatherer Social Networks », Proceedings of the Royal Society B, vol. 2007, no 274,‎ , p. 2195–2203
  59. S. L. Kuhn et M. C. Stiner, « What's a Mother To Do? The Division of Labor among Neanderthals and Modern Humans in Eurasia », Current Anthropology, vol. 47, no 6,‎ , p. 953–981 (DOI 10.1086/507197)
  60. F. W. Marlowe, « Hunter-Gatherers and Human Evolution », Evolutionary Anthropology: Issues, News, and Reviews, vol. 14, no 2,‎ , p. 54–67 (DOI 10.1002/evan.20046)
  61. Gertman, D., Blackman, H., Marble, J., Byers, J. and Smith, C. (2005). The SPAR-H human reliability analysis method.
  62. Hollnagel, E. (1998). Cognitive reliability and error analysis method: CREAM. Elsevier.
  63. Roth, E. et al. (1994). An empirical investigation of operator performance in cognitive demanding simulated emergencies. NUREG/CR-6208, Westinghouse Science and Technology Center. Report prepared for Nuclear Regulatory Commission.
  64. Wiegmann, D. & Shappell, S. (2003). A human error approach to aviation accident analysis: The human factors analysis and classification system.. Ashgate.
  65. Wilson, J.R. (1993). SHEAN (Simplified Human Error Analysis code) and automated THERP. United States Department of Energy Technical Report Number WINCO–11908.
  66. Sutton, R. S., Barto, A. G. (1998). MIT CogNet Ebook Collection; MITCogNet 1998, Adaptive Computation and Machine Learning, (ISBN 978-0-262-19398-6).
  67. Caliki, G., Bener, A., Arsian, B. (2010). "An Analysis of the Effects of Company Culture, Education and Experience on Confirmation Bias Levels of Software Developers and Testers." ADM/IEEE 32nd International Conference on Software Engineering – ICSE 2010 Volume 2: pp187-190.