Test de réflexion cognitive

Le test de réflexion cognitive (TRC) est conçu pour mesurer la tendance d’une personne à surpasser ses réponses instinctives et à engager une réflexion plus approfondie pour trouver la bonne réponse. Cependant, la validité de l’évaluation comme une mesure de « la réflexion cognitive » ou de « la pensée intuitive » est questionnable[1]. Cela a été décrit pour la première fois en 2005 par le psychologue Shane Frederick . Le TRC est, entre autres, relié avec la mesure de l'intelligence, comme le test du Quotient Intellectuel, mais il est aussi fortement corrélé avec diverses mesures de l'heuristique de jugement[2],[3],[4],[5]. Certaines recherches soutiennent que le TRC mesure en fait les capacités cognitives (familièrement appelées intelligence)[6].

Des recherches apostériori ont montré que le TRC est une construction à multiples facettes : beaucoup de personnes commencent leur réponse par la bonne réponse, tandis que d'autres ne parviennent pas à résoudre le test même s'ils réfléchissent à leur première réponse instinctive. Il a aussi été défendu que la suppression de la première réponse n’est pas le seul facteur derrière le succès de la performance du TRC : le calcul et la réflexion comptent tous deux comme de la performance[7].

Base du test modifier

Selon Frederick, il existe deux types généraux d'activité cognitive appelés « système 1 » et « système 2 » (ces termes ont été utilisés pour la première fois par Daniel Kahneman). Le système 1 s’exécute rapidement sans réflexion, là où le système 2 nécessite une réflexion consciencieuse et un effort. Le test de réflexion cognitive est composé de trois questions qui ont toutes une réponse évidente mais fausse si elle est produite par le système 1. La réponse correcte nécessite l’activation du système 2. Pour que le système 2 soit activé, une personne doit constater que sa première réponse est incorrecte, ce qui nécessite une réflexion sur sa propre connaissance[2].

Des mesures corrélées modifier

Ce test s'est avéré corrélé avec de nombreuses mesures de la pensée économique, telles que la numératie, l'actualisation temporelle, la préférence pour le risque et la préférence pour le jeu. Il a également été corrélé avec des mesures d'heuristiques de jugement, telles que l'erreur du parieur, la compréhension de la régression vers la moyenne, l'erreur des coûts irrécupérables, etc.

Keith Stanovich a démontré que la capacité cognitive n'est pas fortement corrélée aux scores du TRC car elle ne conduit à une meilleure performance au TRC que dans certaines conditions. Tout d'abord, la personne testée doit reconnaître la nécessité de passer outre sa réponse du système 1, puis elle doit disposer des ressources cognitives nécessaires pour passer outre. Si la personne testée n'a pas besoin d'inhiber le système 1 pour passer outre, la réponse du système 2 suit immédiatement. Sinon, il doit avoir la capacité de maintenir l'inhibition du système 1 afin d'engager la réponse du système 2[8]. Au contraire, certains chercheurs ont évalué la validité de l'évaluation, en utilisant une méthode avancée de théorie de la réponse aux items, et ont découvert que le TRC mesure probablement la capacité cognitive[9]. Les auteurs de l'étude expliquent que la validité du TRC a été remise en question en raison du manque d'études de validité et de l'absence d'une approche psychométrique.

Les questions et réponses du test modifier

Le test original rédigé par le Dr Frederick ne contenait que les trois questions suivantes[2] :

  1. une batte et une balle coûtent 1,10 $ au total. La batte coûte 1,00 $ de plus que la balle. Combien coûte la balle ?
  2. s'il faut 5 minutes à 5 machines pour fabriquer 5 articles, combien de temps faudrait-il à 100 machines pour fabriquer 100 articles ?
  3. dans un lac, il y a une parcelle de nénuphars. Chaque jour, la taille de la parcelle double. S'il faut 48 jours pour que la parcelle couvre tout le lac, combien de temps faudrait-il pour que la parcelle couvre la moitié du lac ?

Les réponses intuitives à ces questions données par le "système 1" sont généralement les suivantes : 10 centimes, 100 minutes, et 24 jours ; alors que les solutions correctes sont : 5 centimes, 5 minutes et 47 jours. En effet, le psychologue Shane Frederick a notamment déclaré que "toute personne qui réfléchit à cela, ne serait-ce qu'un instant, reconnaîtra que la différence entre 1 euro et 10 centimes n'est que de 90 centimes, et non de 1 dollar comme l'indique le problème".

Entre 2003 et 2005, ce questionnaire a été soumis à 3 000 américains, issus de divers milieux scolaires. Cet échantillon était constitué de personnes fréquentant les meilleures universités américaines, telles que : Yale et Harvard. Or, seulement 17% des personnes interrogées ont répondu correctement à toutes les questions peut-on lire dans un article de Shane Frederick publié dans Journal of Economic Perspectives.

Limites et alternatives modifier

Des études ont estimé qu'entre 44 et 51% des participants à la recherche ont déjà été exposés au TRC[10],[11]. Les participants qui connaissent le TRC ont tendance à surclasser ceux qui n'ont jamais réalisé le test, ce qui soulève des questions sur la validité de la mesure dans cette population[10],[11]. Afin de lutter contre les limitations associées à cette familiarité, les chercheurs ont développé une variété de mesures alternatives de la réflexion cognitive[12],[13],[14]. Cependant, des recherches récentes suggèrent que le TRC reste robuste même après plusieurs passages, de sorte que malgré les augmentations du score brut chez les participants expérimentés, ses corrélations avec d'autres variables restent inchangées[15].

K. S. Thomson et D. M. Oppenheimer[16] ont développé un deuxième test (CRT-2) afin de pallier ce problème. Ainsi, ils augmentent le nombre de questions disponibles. Ils tentent également de pallier un second reproche qui est l’ambiguïté avec un test de numératie en réduisant les questions liées aux nombres.

Une autre limite est due au manque de propriétés psychométriques fortes et à la rareté des études de validité dans la littérature[17]. Le TRC n'a pas été conçu d'une manière qui s'aligne sur les normes de l'industrie telles que les normes pour les tests éducatifs et psychologiques qui ont été développées par l'American Educational Research Association, l'Association américaine de psychologieAssociation Américaine de Psychologie et le Conseil national de la mesure dans l'éducation.

Aussi, plusieurs auteurs ont inversé la logique du TRC en évaluant l’intuitivité des gens par le dénombrement des réponses intuitives mais incorrectes. Il parle alors de TRC-Intuitif. La logique de ce TRC-Intuitif est de dire que les participants qui donnent le plus de réponses intuitives le font puisque ce sont des personnes naturellement plus intuitives. Cependant Gordon Pennycook et al[18] (2015) conclue de sa recherche sur le sujet, que le TRC évalue correctement la réflexion cognitive mais qu’à l’inverse il n’évalue pas la pensée intuitive.

Articles connexes modifier

Notes et références modifier

  1. (en) Nikki Blacksmith, Yongwei Yang, Tara S. Behrend et Gregory A. Ruark, « Assessing the validity of inferences from scores on the cognitive reflection test », Journal of Behavioral Decision Making, vol. 32, no 5,‎ , p. 599–612 (ISSN 1099-0771, DOI 10.1002/bdm.2133, lire en ligne)
  2. a b et c (en) Shane Frederick, « Cognitive Reflection and Decision Making », Journal of Economic Perspectives, vol. 19, no 4,‎ , p. 25–42 (DOI 10.1257/089533005775196732)
  3. (en) Jörg Oechssler, Andreas Roider et Patrick W. Schmitz, « Cognitive abilities and behavioral biases », Journal of Economic Behavior & Organization, vol. 72, no 1,‎ , p. 147–152 (ISSN 0167-2681, DOI 10.1016/j.jebo.2009.04.018, lire en ligne)
  4. Eva I. Hoppe et David J. Kusterer, « Behavioral biases and cognitive reflection », Economics Letters, vol. 110, no 2,‎ , p. 97–100 (ISSN 0165-1765, DOI 10.1016/j.econlet.2010.11.015)
  5. (en) Maggie Toplak, « The Cognitive Reflection Test as a predictor of performance on heuristics-and-biases tasks », Memory and Cognition, vol. 39, no 7,‎ , p. 1275–1289 (PMID 21541821, DOI 10.3758/s13421-011-0104-1, lire en ligne, consulté le )
  6. (en) Nikki Blacksmith, Yongwei Yang, Tara S. Behrend et Gregory A. Ruark, « Assessing the validity of inferences from scores on the cognitive reflection test », Journal of Behavioral Decision Making, vol. 32, no 5,‎ , p. 599–612 (ISSN 1099-0771, DOI 10.1002/bdm.2133, lire en ligne)
  7. (en) B. Szaszi, A. Szollosi, B. Palfi et B. Aczél, « The cognitive reflection test revisited: exploring the ways individuals solve the test », Thinking and Reasoning, vol. 23, no 17,‎ , p. 207-234 (DOI 10.1080/13546783.2017.1292954, lire en ligne).
  8. (en) Keith E. Stanovich et Richard F. West, « On the relative independence of thinking biases and cognitive ability », Personality Processes and Individual Differences, vol. 94, no 4),‎ 2008), p. 672-695 (DOI 10.1037/0022-3514.94.4.672, lire en ligne).
  9. (en) Nikki Blacksmith, Yongwei Yang, Tara S. Behrend et Gregory A. Ruark, « Assessing the validity of inferences from scores on the cognitive reflection test », Journal of Behavioral Decision Making, vol. 32, no 5,‎ , p. 599–612 (ISSN 1099-0771, DOI 10.1002/bdm.2133, lire en ligne)
  10. a et b (en) Matthew Haigh, « Has the Standard Cognitive Reflection Test Become a Victim of Its Own Success? », Advances in Cognitive Psychology, vol. 12, no 3,‎ , p. 145–149 (PMID 28115997, PMCID 5225989, DOI 10.5709/acp-0193-5)
  11. a et b (en) Stefan Stieger et Ulf-Dietrich Reips, « A limitation of the Cognitive Reflection Test: familiarity », PeerJ, vol. 4,‎ , e2395 (ISSN 2167-8359, PMID 27651989, PMCID 5018679, DOI 10.7717/peerj.2395)
  12. (en) Caterina Primi, Kinga Morsanyi, Francesca Chiesi et Maria Anna Donati, « The Development and Testing of a New Version of the Cognitive Reflection Test Applying Item Response Theory (IRT) », Journal of Behavioral Decision Making, vol. 29, no 5,‎ , p. 453–469 (ISSN 1099-0771, DOI 10.1002/bdm.1883, lire en ligne)
  13. (en) Maggie E. Toplak, Richard F. West et Keith E. Stanovich, « Assessing miserly information processing: An expansion of the Cognitive Reflection Test », Thinking & Reasoning, vol. 20, no 2,‎ , p. 147–168 (ISSN 1354-6783, DOI 10.1080/13546783.2013.844729)
  14. (en) « Investigating an alternate form of the cognitive reflection test », Judgment and Decision Making, vol. 11,‎ , p. 99–113 (lire en ligne)
  15. (en) Michal Bialek et Gordon Pennycook, « The Cognitive Reflection Test is robust to multiple exposures », Behavior Research Methods, vol. 50, no 5,‎ , p. 1953–1959 (PMID 28849403, DOI 10.3758/s13428-017-0963-x)
  16. (en) Keela S. Thomson et Daniel M. Oppenheimer, « Cognitive Reflection Test-2 », sur PsycTESTS Dataset, (DOI 10.1037/t49856-000, consulté le )
  17. (en) Nikki Blacksmith, Yongwei Yang, Tara S. Behrend et Gregory A. Ruark, « Assessing the validity of inferences from scores on the cognitive reflection test », Journal of Behavioral Decision Making, vol. 32, no 5,‎ , p. 599–612 (ISSN 1099-0771, DOI 10.1002/bdm.2133, lire en ligne)
  18. (en) Gordon Pennycook, James Allan Cheyne, Derek J. Koehler et Jonathan A. Fugelsang, « Is the cognitive reflection test a measure of both reflection and intuition? », Behavior Research Methods, vol. 48, no 1,‎ , p. 341–348 (ISSN 1554-3528, DOI 10.3758/s13428-015-0576-1, lire en ligne, consulté le )