Loi de Hick

énoncé mathématique

La loi de Hick (ou loi de Hick-Hyman, d'après les noms du psychologue britannique William Edmund Hick (en) et de son confrère américain Ray Hyman (en)) est un modèle d'interaction homme-machine qui décrit le temps qu'il faut à un utilisateur pour prendre une décision en fonction du nombre de choix à sa disposition[1]. Étant donnés n choix équiprobables, le temps moyen de réaction T requis pour choisir parmi eux est approximativement

b est un paramètre qui peut être déterminé empiriquement par régression linéaire. D'après Card, Moran, et Newell (1983), le +1 apparaît « parce qu'il y a une incertitude sur le fait qu'il faille répondre ou non, au même titre que sur le choix de la réponse. »

La loi peut être généralisée dans le cas de choix de probabilités non égales , à

H est l'entropie (cf Théorie de l'information) de la décision, définie comme

La loi de Hick est similaire à la loi de Fitts. Intuitivement, on peut faire le raisonnement que la loi de Hick a une forme logarithmique car les gens divisent le nombre total de choix en catégories, en éliminant environ la moitié des options restantes à chaque étape, au lieu de considérer chaque choix un par un, ce qui requerrait un temps linéaire.

La loi de Hick a été démontrée comme s'appliquant dans des expériences où l'on présente à l'utilisateur n boutons, chacun ayant une ampoule à côté de lui. Une ampoule est allumée au hasard, après quoi l'utilisateur doit presser le bouton correspondant le plus vite possible. Évidemment, la décision à prendre ici est très simple, et requiert peu de réflexion.

La loi de Hick est parfois citée pour justifier des choix de conception de menus informatiques.

Notes et références modifier

  1. W.E. Hick, « On the rate of gain of information », Quarterly Journal of Experimental Psychology, no 4:1,‎ , p. 11-26 (lire en ligne)

Articles connexes modifier