Échelle de Likert

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Une échelle de Likert est un outil psychométrique permettant de mesurer une attitude chez des individus. Elle tire son nom du psychologue américain Rensis Likert qui l'a développée[1]. Elle consiste en une ou plusieurs affirmations (énoncés ou items) pour lesquelles la personne interrogée exprime son degré d'accord ou de désaccord.

Principe[modifier | modifier le code]

L'échelle contient pour chaque item une graduation comprenant en général cinq ou sept choix de réponse qui permettent de nuancer le degré d'accord. Le texte des étiquettes est variable, par exemple :

  1. Tout à fait d'accord
  2. D'accord
  3. Ni en désaccord ni d'accord
  4. Pas d'accord
  5. Pas du tout d'accord

Pour les échelles à nombre impair de choix, le niveau central permet d'exprimer une absence d'avis, ce qui rend inutile une modalité "Ne sait pas". Les échelles à nombre pair de modalités voient l'omission de la modalité neutre et sont dites « à choix forcé ».

On associe à chaque modalité de réponse un nombre entier de 1 à 5 ou de -2 à +2 dans le cas à 5 modalités. Dès lors, il est possible d'envisager un traitement quantitatif des données, soit en les assimilant à des données de type ratio soit, par précaution, en se limitant à leur caractère ordinal. Dans le premier cas, on pourra calculer par exemple la moyenne (et l'écart-type) des réponses données par l'échantillon interrogé.

Exemple[modifier | modifier le code]

Un item de Likert n'est presque jamais utilisé seul : l'échelle est en fait constituée de plusieurs items et il est recommmandé, pour détecter les réponses "graphiques" (tous les points alignés), parfois appelées speeding[2], d'insérer au moins un item inversé. En voici un exemple censé mesurer la dépendance au téléphone portable, adapté d'une étude[3] sur la perception de l'effet du mobile sur la vie privée.

Exemple d'échelle de Likert

On remarquera que le premier item est inversé. Dans le cas des études réalisées sur le Web, il est aussi commun[2] de rendre l'ordre des items aléatoire, pour mieux contrôler les comportements de speeding.

Utilisation[modifier | modifier le code]

L'échelle de Likert est très utilisée en psychologie sociale et clinique, sciences de gestion (notamment en marketing), sondages, etc. On lui préfère parfois l'échelle sémantique différentielle, proche dans son principe.

Nunnally a écrit[4] que la psychométrie, et donc les échelles d'attitude, n'a pu se développer qu'avec l'apparition de méthodes statistiques adéquates, vers la moitié du vingtième siècle. Les principaux packages statistiques comportent maintenant de nombreux outils permettant un traitement adéquat des échelles de Likert.

Exploitation statistique[modifier | modifier le code]

Une échelle de plusieurs items peut être résumée par la moyenne des notes des items ; le théorème de la limite centrale a pour effet que la distribution obtenue sera plus régulière et symétrique que celle des items pris isolément. Il est plus fréquent de se placer dans une perspective de mesure d'un facteur latent commun aux items. Dans un premier temps, un coefficient alpha de Cronbach permettra de déterminer ce caractère commun, assimilé à la fiabilité de l'échelle.

Au-delà, l'échelle sera l'objet d'une analyse factorielle exploratoire ou d'une Analyse factorielle confirmatoire (en) ou, si plusieurs échelles sont présentes dans la même étude, de l'inclusion dans un modèle structurel (en).

Difficultés fréquemment observées[modifier | modifier le code]

Les échelles de Likert sont tant utilisées que des mésusages se propagent sans que leurs auteurs ne mesurent toujours les conséquences de ces approximations.

Déséquilibre des libellés[modifier | modifier le code]

On rencontre souvent des libellés non équilibrés comme : pas du tout d'accord - un peu d'accord - moyennement d'accord - tout à fait[5], ou des variantes à plus de degrés mais aux libellés toujours déséquilibrés[6].

Selon Schober et Conrad[7], la position de "un peu d'accord" vers la gauche de l'échelle, vers "pas du tout...", constitue un indice fortuit (incidental clue) en contradiction avec le sens du libellé : être un peu d'accord n'est pas assimilable à un désaccord, même léger. Il devient alors difficile de prédire la réponse, selon que le répondant se fie à la position ou au texte, ce qui diminue la fiabilité de l'échelle.

Tourangeau, Conrad et Couper[2] sont allés au-delà et montré que d'autres indices fortuits, comme une modification de la police ou de la taille des caractères, ou des variations de couleur, étaient susceptibles de produire les mêmes effets de confusion chez le répondant.

Choix forcé[modifier | modifier le code]

Alwin et Krosnick[8] ont testé l'effet de la présence ou de l'absence de point milieu (ni d'accord ni pas d'accord, ou neutre) et constaté que, majoritairement, l'absence diminue aussi la fiabilité de l'échelle, le répondant en étant réduit à choisir au hasard un des deux points encadrant le point milieu omis.

Nombre de points[modifier | modifier le code]

Alwin et Krosnick[8] ont également comparé la fiabilité d'échelles comportant un nombre variable de points : 3 points (contre / neutre / pour), 5 points (désaccord total / désaccord / neutre / accord / accord total), 7 points (désaccord total / désaccord / léger désaccord / neutre / léger accord / accord / accord total) et 11 points (note de 0 à 10). Dans ce dernier cas, il devient difficile de trouver des libellés pour les graduations même si les notes sont un peu moins biaisées vers le haut : ils recommandent plutôt des échelles en 7 points, sans ajout d'une valeur "Ne sait pas".

Plus récemment, une étude[9] ayant recours à de la simulation numérique a mis en évidence qu'utiliser un nombre trop réduit de graduations (3 ou 5) pouvait conduire à des modèles d'analyse factorielle confirmatoire (en) ne détectant pas des anomalies de spécification ou de distribution introduites volontairement. Les auteurs suggèrent donc un optimum de 7 ou 9 points.

Notes et références[modifier | modifier le code]

  1. Rensis Likert, « A Technique for the Measurement of Attitudes », Archives of Psychology, vol. 140,‎ , p. 1–55
  2. a, b et c Tourangeau, Roger, Conrad,Frederik S. et Couper, Mick P., The Science of Web Surveys, Oxford, Oxford University Press,
  3. Di Benedetto, Eric et Tang-Taye, Jean-Pierre, Proposition d’une échelle de perception de la vie privée sur les smartphones, International Marketing Trends Conference, Venise, 2016
  4. Nunnally, Jum C., Psychometric Theory, New-York, NY, McGraw-Hill,
  5. Voir comme exemple « Évaluez vos économies », sur Smartgreen,
  6. Par exemple dans Lise Peillod-Bock et Rébecca Shankland, Manager en pleine conscience - Devenez un leader éthique et inspirant, Paris, Dunod, , p. 96
  7. Schober, Michael F. et Conrad, Frederick G., « A Collaborative View of Standardized Survey Interviews », dans Maynard, Houtkoop-Steenstra et Schaefer, Standardization and Tacit Knowledge: Interaction and Practice in the Survey Interview, Hoboken, NJ, John Wiley & Sons
  8. a et b Alwin, Duane F. et Krosnick, Jon A., « The Reliability of Survey Attitude Measurement: The Influence of Question and Respondent Attributes », Sociological Methods Research, vol. 20, no 1,‎ , p. 139-181
  9. Maydeu-Olivares, Alberto, Fairchild, Amanda J. et Hall, Alexander G., « Goodness of Fit in Item Factor Analysis: Effect of the Number of Response Alternatives », Structural Equation Modeling: A Multidisciplinary Journal, vol. 24, no 4,‎ , p. 495-505

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]