Erreur humaine

Un article de Wikipédia, l'encyclopédie libre.


Une erreur humaine est une action ou réponse inappropriée d'un être humain ou d'un groupe d’êtres humains qui entraîne ou pourrait entraîner un résultat non conforme à un attendu[1].

L'erreur humaine est considérée comme la cause la plus importante de désastres ou d'accidents mais aussi de la perte de performance des organisations. La prévention des erreurs humaines est généralement considérée comme un facteur majeur de fiabilité et de sécurité des systèmes (complexes). L'erreur humaine est l'une des nombreuses causes contributives des événements à risque. Ces éléments expliquent l'intérêt des chercheurs et des entreprises à comprendre et à adresser ce sujet.

L'erreur humaine est un domaine multidisciplinaire qui fait intervenir des experts des facteurs humains, des psychologues, et ergonomes pour la comprendre mais aussi des ingénieurs et des systémiciens pour en trouver les solutions.

Le terme même "erreur humaine" soulève des débats puisque certains comme Sénèque pensent que "l'erreur est humaine" par essence (il s'agirait donc d'une redondance) alors que d'autres soutiennent que l'erreur ne peut pas être humaine car sa cause est obligatoirement la conséquence d'un ensemble de paramètres extérieurs à lui dont il ne peut prendre en compte qu'une partie. Les autres débats sur le sujet concernent les classifications (taxonomie) des erreurs humaines ainsi que les approches pour les résoudre.

Définition[modifier | modifier le code]

Une erreur humaine est une action ou réponse inappropriée (involontaire, ou volontaire sans compréhension des impacts potentiels) d'un être humain ou d'un groupe d’êtres humains qui entraîne ou pourrait entraîner un résultat non conforme à un attendu (standard de performance)[1].

Selon Rasmussen[2] il est très difficile de donner une définition satisfaisante d'erreurs humaines.

Nous pouvons noter que l'appréhension du sujet varie en fonction de la culture[3] :

  • En France, les erreurs remettent en cause les compétences;
  • En Allemagne, erreur et faute se traduisent par un même mot : Fehler;
  • Au Japon, l’erreur est une source d’amélioration continue... Etc...

Selon Reason[4],[5], il faudra parler d’ « erreurs » pour des actions planifiées (intentionnalité de l’action) qui n’atteignent pas l’objectif désiré car elles ne se déroulent pas en accord au plan ou car le plan lui-même est inadéquat pour atteindre l’objectif.

En cindynique, une erreur est un acte, une parole induisant un risque, un danger voire un accident ; lorsque l'acte est volontaire, on ne parle plus d'erreur mais de sabotage, d'acte criminel ou délictueux.

Importance du thème[modifier | modifier le code]

L’erreur humaine est un phénomène intrinsèquement humain donc universel. Aux quatre coins de la planète et à tous moments des êtres humains génèrent des erreurs, tant dans leur vie privée que professionnelle.

Certaines de ces erreurs n’auront pas d’impacts ou des conséquences bénignes, d’autres auront de plus lourdes répercussions et seront à l’origine d’incidents, voire d’accidents graves et/ou mortels. Les exemples d'erreur humaine les plus cités sont ceux avec le plus d'impact humain ou environnemental. On peut citer: l' accident de Three Mile Island (Industrie nucléaire), les erreurs de pilotage, le désastre de la navette spatiale Challenger et la Catastrophe de la navette spatiale Columbia, l'échouement du pétrolier Exxon Valdez au large de l'Alaska en 1989 ou encore les erreurs médicales. Plus anecdotique, mettre à la poubelle un billet de banque sans s'en rendre compte peut aussi être considéré comme une erreur humaine.

Au-delà de ces cas aux conséquences les plus graves, il y a un autre effet des erreurs humaines qui interpelle les entreprises : l’impact sur la diminution de la performance ou l'augmentation des coûts. Exemples : retravail, retards, gaspillages, frais de garantie... Si le processus n'a pas été totalement suivi lors de la fabrication d'un produit, les lots doivent être éliminés, retravaillés ou revalidés. L'erreur humaine et la performance sont les deux faces d'une même médaille: les mécanismes de «l'erreur humaine» sont les mêmes que les mécanismes de «la performance humaine».

Toute performance éventuellement qualifiée comme «erreur» le sera rétrospectivement[6]. Donc les actions appelées plus tard «erreur humaine» font en réalité partie du spectre ordinaire du comportement humain et de sa performance. L'étude de la distraction dans la vie quotidienne fournit une vaste documentation et une catégorisation de ces aspects du comportement.

Ce qui est désigné "erreur", est dépendant de la culture, du lieu et de l'époque à laquelle elle se produit. Par exemple, certains actes sont vivement conseillés dans certaines cultures et pas du tout acceptés dans d'autres (l'éructation); la poignée de main est un geste commun de salutation, mais pour des raisons d'hygiène elle peut être très vivement déconseillée lors d'une pandémie (poignée de main); enfin, le type de vêtement porté pourrait être considéré comme une erreur en fonction de votre situation géographique, des conditions météorologiques ou de la culture.

Les classifications des erreurs humaines[modifier | modifier le code]

Il existe de nombreuses façons de catégoriser l'erreur humaine[7],[8] :

  • Soit par son caractère exogène ou endogène (c.-à-d. provenant de l'extérieur ou de l'intérieur de l'individu) [9]
  • Soit par l'évaluation de la réponse par rapport à l'attendu [10] :
    • erreur de détection de problème (voir également la théorie de la détection de signal )
    • erreur de diagnostic de problème (voir aussi résolution de problème )
    • erreur dans la planification et l'exécution des actions [11] (par exemple: dérapages ou erreurs d'exécution en opposition aux erreurs d'intention [12],[5] )
  • Soit en fonction du niveau d'analyse; par exemple, perceptif (p. ex. illusions d'optique ), cognitif, de communication ou organisationnel
  • Soit en fonction du type d'erreur de manipulation physique [13]
    • "écarts" survenant lorsque l'action physique ne parvient pas à atteindre l'objectif planifié
    • "fautes" impliquant un échec de la mémoire
  • Soit en fonction du caractère actif ou latent de l'erreur:
    • erreur active : action physique observable qui change l'état de l'équipement, du système ou de l'installation, entraînant des conséquences indésirables immédiates.
    • erreur humaine latente entraînant des faiblesses cachées liées à l'organisation ou des défauts d'équipement qui sont en sommeil; ces erreurs peuvent passer inaperçues au moment où elles se produisent, sans résultat apparent immédiat.
  • Soit en fonction du niveau de dépendance à l'équipement - manque de vigilance en raison de l'hypothèse faite que les commandes matérielles ou les dispositifs de sécurité physique fonctionneront toujours.
  • Soit l'intervention de l'équipe - manque de vigilance créé par l'interaction sociale (interpersonnelle) entre deux ou plusieurs personnes travaillant ensemble.

Les classifications par cause racine[modifier | modifier le code]

Dans son analyse des erreurs humaines, James Reason part du principe qu’il y a a priori une « intention » d’agir. Il n’y a donc pas d’ « intention » de faire une « erreur » car ce serait là un abus de langage qualifiant d’erreur un acte de sabotage.

Ceci amène à considérer qu’il n’y a d’erreur que si, et uniquement si, l’acte de départ est intentionnel et qu’il a donc un but, un objectif déclaré à atteindre. Dans ce cas, le terme « erreur » désigne exclusivement la non atteinte de l’objectif.

Toujours selon Reason, il existe deux raisons fondamentales qui génèrent des erreurs :

  • Les actions ne se sont pas déroulées comme prévu (non-respect de la procédure)
  • Les actions n’ont pas abouti au résultat voulu (procédure inopérante)

Ceci rejoint le concept de Rasmussen qui désigne trois sources d’erreurs dans notre fonctionnement (Behaviour SRK) :

  • Les erreurs liées au Savoir-faire (Skills). Par exemple, les erreurs d'habitude tel qu'oublier de tourner à droite (comportement attendu) car tous les jours c'est à gauche.
  • Les erreurs liées aux Règles ou procédures (Rules). Par exemple, l'application de procédures non conformes aux conditions rencontrées sur le terrain.
  • Les erreurs liées à la connaissance (Knowledge). Par exemple, le manque de connaissance, d'éducation.

Les classifications par impact[modifier | modifier le code]

L'impact dû à l'erreur peut être ou négatif (accident, dommages...) ou positif (sérendipité, nouveauté, innovation inattendue).

L'impact, positif ou négatif, peut aussi être classifié en fonction de son intensité. Par analogie avec l'échelle de Richter pour les séismes, les conséquences d'une erreur peuvent être classées sur une échelle graduée depuis anodines jusque totalement catastrophiques ou innovation majeure, voire révolutionnaire.

Les origines des erreurs humaines[modifier | modifier le code]

Voici quelques exemples de causes de l'erreur humaine collectées dans une entreprise pharmaceutique européenne lors d'interviews d'opérateurs:

  • la pression du temps ou des collègues
  • les distractions et interruptions
  • le multi-tâches, notamment pendant les périodes charnières du début et de la fin de journée
  • des instructions vagues ou sujettes à interprétation
  • la confiance excessive en raison de la routine par exemple
  • les changements de procédure
  • l'environnement physique (température, humidité...)
  • la documentation non exacte ou non disponible
  • le manque de formation ou une formation inadaptée
  • le moral en berne, tristesse ou manque de motivation

De nombreuses erreurs ont pour cause le fonctionnement du cerveau. L'étude cognitive de l'erreur humaine est un domaine de recherche très actif, comprenant des travaux liés aux limites de la mémoire et de l' attention ainsi qu'aux stratégies de prise de décision telles que l' heuristique de disponibilité et autres biais cognitifs . Ces heuristiques et biais sont des stratégies utiles et souvent correctes, mais qui peuvent conduire à des schémas d'erreur systématiques.

Les malentendus en tant que sujet de communication humaine ont été étudiés dans l'analyse de la conversation, notamment comme l'examen des violations du principe coopératif.

Les études organisationnelles sur les erreurs ou les dysfonctionnements ont inclus des études sur la culture de sécurité.

Statistiques sur les origines des erreurs humaines[modifier | modifier le code]

Il est très difficile d'avoir des statistiques fiables sur le taux d'erreurs d'origine humaine pour les raisons du flou sur la définition comme évoqué dans cet article et aussi à cause de la confidentialité de ces informations. Selon la société de service en ingénierie Altran qui a approfondi ce sujet : 30 à 40% des erreurs sont classées comme ayant un cause racine directement humaine. Il s'agit par exemple de problèmes dans la communication d'une consigne, une mauvaise compréhension de la situation. 20 à 30% des erreurs ont pour cause racine une erreur humaine dont la source est un autre être humain : la documentation ou la formation n'ont pas la qualité suffisante pour réaliser le travail, l'organisation est trop complexe (on se sait pas qui fait quoi), les processus changent trop souvent... Les autres causes qui ne sont pas considérées comme humaines sont par exemple : une machine qui ne fonctionne pas comme prévu, une matière première qui ne répond pas aux critères de qualité, des mesures de paramètres qui ne sont pas exactes. voir la classification des 6M.

Les approches pour éviter les erreurs[modifier | modifier le code]

L'approche de l'analyse des risques[modifier | modifier le code]

Il est possible de réduire le risque d’erreurs humaines en utilisant des outils classiques de gestion des risques. Cette dernière consiste à identifier et évaluer les risques potentiels pouvant mettre en danger le bon déroulement d’un projet, d'un évènement ou d'une activité.

Les risques sont évalués en fonction de leur nature (santé, sécurité, qualité, performance…), et en considérant les paramètres suivants :

  • La gravité de l’incident (impact)
  • La probabilité d’apparition ou de reproduction (fréquence)

Il existe plusieurs outils d’analyse de risque dont l’AMDEC (Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité) et l’HAZOP (HAZard and OPerability studies):

Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité (AMDEC)[modifier | modifier le code]

AMDEC est à l’origine destiné à la gestion de la qualité, et est souvent utilisé pour la gestion des risques sous forme d’un tableau. Sa valeur ajoutée s’exprime quand il est utilisé en amont d’un projet. Il doit être régulièrement mis à jour dès la détection d’une nouvelle erreur.

Phases de l’établissement d’un AMDEC en:

  • Phase de préparation : Constituer des groupes de travail afin de fixer le périmètre et l’étude des risques. Surtout dans le cas des erreurs humaines, il faut veiller à avoir un groupe de personnes aux profils et aux rôles complémentaires.
  • Analyse fonctionnelle : Réaliser un découpage fonctionnel et identifier les liens entre chaque composant. Dans le cas d’une erreur humaine, il s’agit de décomposer l’évènement ou l'activité en étapes afin d’identifier tous les paramètres intervenants dans l’erreur.
  • Identification des problèmes, de leur criticité et des causes racines correspondantes. (Voir liste des causes racines potentielles)
  • Détermination des actions correctives et priorisation en utilisant, par exemple, une matrice gains-efforts.

HAZard and OPerability studies (HAZOP)[modifier | modifier le code]

Le principe de HAZOP est la décomposition du système à analyser en plusieurs sous-ensembles, appelés « nœuds »  afin que l’analyse des risques puisse être partagée entre des personnes ou des équipes multidisciplinaires.

L'approche systémique[modifier | modifier le code]

Une erreur humaine correspond à trois critères

  • L’existence d’une procédure (ou règle ou norme) et d'un objectif à atteindre (Reason, Rasmussen)
  • Une déviance par rapport à l’objectif (savoir faire ou connaissance) (Reason, Rasmussen)
  • La désignation en tant qu’erreur

L’approche systémique ne se départit pas des critères ci-dessus. Elle introduit néanmoins la notion d’interaction qui fait que l’erreur est à appréhender sous forme de manquement à la communication. L’interaction entre les éléments du système peut se révéler déficiente pour des raisons identiques à celle attribuées à l’erreur.

La communication entre les éléments du système peut échouer parce que les dits éléments ont des points de référence différents et donc mécomprennent le message reçu. La diversité des protagonistes est un facteur aggravant de la mécompréhension. Plus elle est grande, plus la communication peut être déficiente. Ceci se rapproche des notions de connaissances et savoir-faire qui sont considérées comme sources d'erreur.

De même, cette mécompréhension pour être catégorisée « erreur » doit être désignée comme telle et donc référer à la norme ou l’attente de celui qui la désigne, créant de la sorte une boucle de feedback entre les protagonistes. En qualifiant d’erreur l’acte de l’autre, j’induis un comportement qui peut être un renforcement de l’erreur (feedback positif).

La systémique va s’adresser non pas aux éléments du système mais bien aux interactions entre les éléments du système afin de réduire la différence normative et donc éviter les « erreurs » à travers un rééquilibrage de la communication. Il faut alors envisager le comment et non le pourquoi.

Une des questions fondamentales que la systémique va adresser sera celle du rôle de l’erreur dans l’interaction :

« L’erreur est une notion rétrospective, forgée par l’esprit à l’occasion d’une réflexion (l’erreur peut être qualifiée d’ « obstacle paradoxal » puisqu’elle nous aide à atteindre la vérité en nous trompant). » ref.

« Prendre un risque, c'est accepter de se donner un droit à l'erreur car l'échec est aussi lié à l'erreur, que Littré rapproche de l'illusion : «faute commise dans une supputation ». À l'inverse, prendre en compte et a priori l'erreur possible permettra sans doute de corriger la trajectoire de l'action engagée, par boucle d'informations récursive » - (Jean-François Hérouard)

L'approche systémique peut aussi être considérée comme une stratégie pour éviter l'Erreur fondamentale d'attribution qui consiste à négliger les facteurs externes au profit des facteurs internes.

L'approche humaine[modifier | modifier le code]

Approche intégrant les types de personnalités humaines avec le modèle de Reason Modèle du fromage suisse.

En considérant qu’il faut une approche à la fois systémique et systématique pour limiter le nombre de d’erreurs humaines, Christophe Oudot propose une approche multidisciplinaire articulée autour des 4 types de personnalité proposés par le psychanalyste Carl Gustav Jung et rendu connu par les outils comme le MBTI Myers Briggs type indicator ou l’insights discovery , HBDI...

Le déploiement d’une solution unique ne sera efficace que si on accepte la multiplicité des types de personnalités et donc des solutions. En mettant en parallèle une adaptation du modèle de Reason et le modèle de personnalités considérant les 2 axes : introvertis-extravertis et orientation action ou relation, 4 types de barrières peuvent être mises en place correspondant aux 4 types de personnalités:

  1. Des personnes plutôt extraverties, orientés vers la pensée et la tâche vont avoir besoin de solution très pragmatiques et souvent physiques. Exemple : une buttée qui empêche qu’une vanne soit tournée dans le mauvais sens ou une alarme qui se déclenche quand la porte d’un réfrigérateur reste ouverte trop longtemps. Il s’agit de barrières techniques, nommées détrompeurs ou Poka-Yoke Détrompeur en japonais.
  2. Des personnes plutôt introverties, orientée vers la pensée et la tâche vont avoir besoin de solution accompagnant l’action. Exemples : des procédures avec des actions détaillées, des listes de points de contrôle, des formations de terrain très concrètes. Il s’agit de barrières procédurales ou de systèmes de management ou de formations.
  3. Des personnes plutôt extraverties, orientées vers la relation et l’émotion vont avoir besoin de comprendre pourquoi une action est importante ou nécessaire. Il faudra qu’elles sentent qu’il y a une cohérence entre ce qui est demandé et leurs aspirations profondes. Exemples : attention portée à l’enthousiasme, à l’ambiance dans l’équipe, aux valeurs des individus, à l’intégration émotionnelle de la raison de réaliser des tâches. Il s’agit de barrières culturelles.
  4. Des personnes plutôt introverties, orientées vers la relation et l’émotion vont avoir besoin de pouvoir demander le point de vue ou l’aide de collègues. Exemples : activités réalisées en équipe, attention portée au stress ambiant, entretiens réguliers avec la ligne hiérarchique. Il s’agit de barrières collectives.

Les deux premières barrières sont basées sur l’analyse de cas passés, on parle de sécurité réglée. Les deux suivantes vont permettre d’anticiper des cas non prévus. La culture de la sécurité permettra de rapprocher ses barrières qui, misent en place de manière indépendantes ou éloignées n’ont pas l’effet escompté.(page 10, Les facteurs humains et organisationnels de la sécurité, 2010)

Controverses[modifier | modifier le code]

Certains chercheurs ont fait valoir que la dichotomie des actions humaines comme «correctes» ou «incorrectes» est une simplification excessive et néfaste d'un phénomène complexe[14],[15]. Mettre l'accent sur la variabilité de la performance humaine et la façon dont les opérateurs humains (et les organisations) peuvent gérer cette variabilité peut être une approche plus fructueuse. Les nouvelles approches, telles que l'ingénierie de la résilience mentionnée ci-dessus, mettent en évidence les rôles positifs que les humains peuvent jouer dans des systèmes complexes. Dans l'ingénierie de la résilience, les réussites (les choses qui vont bien) et les échecs (les choses qui ne vont pas) sont considérées comme ayant la même base, à savoir la variabilité des performances humaines.

Articles connexes[modifier | modifier le code]

Références[modifier | modifier le code]

  1. a et b Senders, J.W. and Moray, N.P. (1991) Human Error: Cause, Prediction, and Reduction. Lawrence Erlbaum Associates, p.25. (ISBN 0-89859-598-3).
  2. (en) Rasmussen, Information processing and human-machine interaction, North-Holland, New York,
  3. « DROIT À L’ERREUR, ET SI L’ON S’INSPIRAIT D’AUTRES CULTURES ? », sur https://www.culturecourses.com/, (consulté le 1er septembre 2020)
  4. Justin Larouzée, Franck Guarnieri, Denis Besnard, « Le modèle de l’erreur humaine de James Reason », sur https://hal-mines-paristech.archives-ouvertes.fr/,
  5. a et b Reason, James (1990) Human Error. Cambridge University Press. (ISBN 0-521-31419-4).
  6. Woods, 1990
  7. Jones, 1999
  8. Wallace and Ross, 2006
  9. Senders and Moray, 1991
  10. Roth et al., 1994
  11. Sage, 1992
  12. Norman, 1988
  13. DOE HDBK-1028-2009 ( https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file)
  14. Hollnagel, E. (1983). Human error. (Position Paper for NATO Conference on Human Error, August 1983, Bellagio, Italy)
  15. Hollnagel, E. and Amalberti, R. (2001). The Emperor’s New Clothes, or whatever happened to “human error”? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development.. Linköping, June 11–12, 2001.