Loi de Hick

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La loi de Hick, ou loi de Hick-Hyman, est un modèle de l'interaction homme-machine qui décrit le temps qu'il faut à un utilisateur pour prendre une décision en fonction du nombre de choix à sa disposition. Étant donnés n choix équiprobables, le temps moyen de réaction T requis pour choisir parmi eux est approximativement

T = b \log_{2}(n + 1)

b est un paramètre qui peut être déterminé empiriquement par régression linéaire. D'après Card, Moran, et Newell (1983), le +1 apparaît « parce qu'il y a une incertitude sur le fait qu'il faille répondre ou non, au même titre que sur le choix de la réponse. »

La loi peut être généralisée dans le cas de choix de probabilités non égales p_{i}, à

T = b H

H est l'entropie (cf Théorie de l'information) de la décision, définie comme

H = \sum_{i}^{n}{p_{i} \log_{2}(1/p_{i} + 1)}.

La loi de Hick est similaire à la loi de Fitts. Intuitivement, on peut faire le raisonnement que la loi de Hick a une forme logarithmique car les gens divisent le nombre total de choix en catégories, en éliminant environ la moitié des options restantes à chaque étape, au lieu de considérer chaque choix un par un, ce qui requerrait un temps linéaire.

La loi de Hick a été démontrée comme s'appliquant dans des expériences où l'on présente à l'utilisateur n boutons, chacun ayant une ampoule à côté de lui. Une ampoule est allumée au hasard, après quoi l'utilisateur doit presser le bouton correspondant le plus vite possible. Évidemment, la décision à prendre ici est très simple, et requiert peu de réflexion.

La loi de Hick est parfois citée pour justifier des choix de conception de menus informatiques.