Aller au contenu

Théorie de l'avare cognitif

Un article de Wikipédia, l'encyclopédie libre.

En psychologie, l'esprit humain est considéré comme un « avare cognitif » en raison de sa tendance à réfléchir et à résoudre des problèmes de manière simple et peu coûteuse en effort, plutôt que de manière sophistiquée et exigeante, quelle que soit l'intelligence[1]. Tout comme un avare cherche à éviter de dépenser son argent, l'esprit humain cherche souvent à économiser ses efforts cognitifs. La théorie de l'avare cognitif est une théorie générale de la cognition qui regroupe des recherches antérieures sur les heuristiques et les biais d'attribution pour expliquer quand et pourquoi les individus agissent comme des « avars cognitifs[2],[3] ».

Le terme d'« avare cognitif » a été introduit pour la première fois par Susan Fiske et Shelley Taylor (en) en 1984. Ce concept joue un rôle central dans la théorie de la cognition sociale et a influencé d'autres disciplines comme l'économie et la science politique[2].

« Les individus ont une capacité limitée à traiter l'information, ils prennent donc des raccourcis dès qu'ils le peuvent[2]. »

Hypothèse de base

[modifier | modifier le code]

La métaphore de l'avare cognitif repose sur l'idée que l'esprit humain est limité en temps, connaissances, attention et ressources cognitives[4]. En général, les individus ne pensent pas de manière rationnelle ou prudente, mais utilisent des raccourcis cognitifs pour tirer des conclusions et former des jugements[5],[6]. Ces raccourcis incluent l'utilisation de schémas, scripts, stéréotypes et autres stratégies perceptuelles simplifiées au lieu d'une réflexion approfondie. Par exemple, les individus ont tendance à raisonner de manière correspondante, croyant souvent que les comportements reflètent des caractéristiques stables de la personne[7].

Contexte historique

[modifier | modifier le code]

Le scientifique naïf et la théorie de l'attribution

[modifier | modifier le code]

Avant la théorie de l'avare cognitif de Fiske et Taylor, le modèle prédominant en cognition sociale était celui du « scientifique naïf ». Proposée en 1958 par Fritz Heider dans The Psychology of Interpersonal Relations, cette théorie soutenait que les humains réfléchissent et agissent avec une « rationalité détachée », engageant des processus de pensée détaillés pour des actions complexes comme pour des actions routinières[8]. Selon ce modèle, les individus pensent comme des scientifiques, bien que naïfs, en mesurant et analysant leur environnement.

Dans ce cadre, les « scientifiques naïfs » cherchent la cohérence et la stabilité, ce qui leur permet d’avoir une vision ordonnée du monde et de maintenir un certain contrôle sur leur environnement[9]. Pour répondre à ces besoins, ils formulent des attributions[10].

Cette théorie a conduit à l'étude des biais attributionnels, notamment l'erreur fondamentale d'attribution[11], et a ouvert la voie à la théorie de l'avare cognitif[9].

Théorie de l'« avare cognitif »

[modifier | modifier le code]

La vague de recherches sur les biais attributionnels menée par Daniel Kahneman, Amos Tversky et d'autres chercheurs a marqué la fin de la domination du concept de scientifique naïf proposé par Fritz Heider en psychologie sociale[12]. Fiske et Taylor, s'appuyant sur la prévalence des heuristiques dans la cognition humaine, ont développé la théorie de l'avare cognitif. Cette théorie, qui unifie les approches sur la prise de décision ad hoc, suggère que les humains adoptent des processus de pensée économiquement rationnels, évitant d'agir comme des scientifiques qui évaluent rationnellement les coûts et les bénéfices, testent des hypothèses et ajustent leurs attentes sur la base de résultats expérimentaux quotidiens[2].

En d'autres termes, les humains tendent à fonctionner comme des avares cognitifs, utilisant des raccourcis mentaux pour évaluer et prendre des décisions, même sur des sujets complexes ou importants. Fiske et Taylor soutiennent qu’il est rationnel d’agir ainsi face à la quantité et à l’intensité des informations et stimuli que les humains doivent traiter[2],[13].

Face à leurs capacités limitées de traitement de l’information, les individus adoptent des stratégies pour simplifier des problèmes complexes. Les avares cognitifs agissent de deux façons principales : en ignorant une partie des informations pour réduire leur charge cognitive, ou en surutilisant certaines informations pour éviter de rechercher et de traiter davantage de données.

D'autres psychologues soutiennent que cette tendance constitue une des raisons principales pour lesquelles « les humains sont souvent moins rationnels »[3] Selon cette vision, l'évolution a optimisé l'utilisation des ressources cognitives pour économiser l'énergie mentale, même dans des situations exigeant une réflexion approfondie[14].

Implications

[modifier | modifier le code]

La théorie de l'avare cognitif soulève des questions importantes sur la cognition et le comportement humain. Elle explique non seulement la simplification des tâches analytiques complexes, mais aussi la manière dont les individus traitent des enjeux inconnus ou d'une grande importance[2],[13].

Le comportement des électeurs dans les démocraties illustre bien l’application de la théorie de l'avare cognitif. Ce modèle suggère que les experts d’un domaine utilisent des heuristiques de manière plus efficace pour traiter l’information et prendre des décisions[15].

Toutefois, comme le notent Lau et Redlawsk, l’emploi d’heuristiques produit des résultats très différents selon le niveau d’information des électeurs. Ils écrivent : « Les heuristiques cognitives sont utilisées par presque tous les électeurs, en particulier dans des situations de choix complexes... leur utilisation améliore généralement la probabilité d'un vote correct chez les experts politiques, mais diminue cette probabilité chez les novices. »[15]. Ainsi, dans une démocratie, où chaque vote a le même poids, les choix des électeurs peu informés, fonctionnant comme des avares cognitifs, peuvent avoir des conséquences importantes pour la société[15].

Samuel Popkin propose que les électeurs utilisent des raccourcis rationnels, tels que des informations personnelles ou des perceptions glanées lors des campagnes, pour évaluer les candidats et faciliter leurs choix électoraux[16].

Dans le cadre de la théorie des jeux, les avares cognitifs peuvent contribuer à des dilemmes tel que le dilemme du prisonnier. Pour économiser de l'énergie cognitive, ils supposent souvent que les autres leur ressemblent. Ainsi, les coopérateurs habituels s'attendent à ce que les autres coopèrent, tandis que les déserteurs s'attendent à ce que les autres fassent de même[17].

Communication de masse

[modifier | modifier le code]

Le manque de soutien public envers les techniques émergentes est souvent attribué à un déficit d'informations pertinentes et à une faible littératie scientifique parmi la population. Connu sous le nom de « modèle du déficit de connaissances » (knowledge deficit model), ce point de vue repose sur l'idée que l'éducation et la promotion de la littératie scientifique pourraient augmenter le soutien public à la science. Selon ce modèle, la communication scientifique devrait se concentrer sur l'amélioration de la culture scientifique du public[18],[19]. Cependant, la relation entre l'information et les attitudes envers les questions scientifiques n'est pas toujours confirmée empiriquement[20],[21].

Rationalité à faible information

[modifier | modifier le code]

En se basant sur l'idée que les êtres humains sont économes cognitivement parlant et cherchent à minimiser les coûts cognitifs, la notion de « rationalité à faible information » (low-information rationality) a été introduite comme une alternative empirique pour expliquer la prise de décision et la formation des attitudes. Au lieu de s'appuyer sur une compréhension approfondie des sujets scientifiques, les individus prennent des décisions basées sur des raccourcis ou heuristiques, tels que des préjugés idéologiques ou des signaux des médias de masse, en raison de leur tendance à utiliser seulement l'information strictement nécessaire[22],[23]. Plus un individu est inexpérimenté sur un sujet, plus il est susceptible de recourir à ces raccourcis[23].

La théorie des avares cognitifs a des implications pour la persuasion publique : la formation des attitudes résulte d'une compétition entre les systèmes de valeurs des individus et la manière dont les discours publics encadrent une question donnée. La théorie du cadrage (framing theory (en)) suggère que le même sujet peut entraîner des interprétations différentes selon la manière dont il est présenté[24]. Le changement d'attitude des audiences est étroitement lié au reframing (reformulation ou recadrage) des questions. Une communication efficace peut être atteinte lorsque les médias fournissent des raccourcis cognitifs compatibles avec les schémas mentaux sous-jacents du public.

Évaluation des risques

[modifier | modifier le code]

La métaphore des avares cognitifs aide à comprendre les biais dans l’évaluation des risques, c’est-à-dire la probabilité qu’un événement indésirable survienne[25]. Les individus utilisent divers raccourcis pour juger la probabilité d’un événement, car ces heuristiques fournissent souvent des réponses rapides et généralement exactes[2],[26]. Cependant, certaines erreurs peuvent passer inaperçues. Un exemple illustrant cette manière de penser dans le contexte de l'évaluation des risques est l'accident de la plateforme pétrolière Deepwater Horizon[27] :

  • Les individus ont du mal à imaginer comment de petites défaillances peuvent s'accumuler pour former une catastrophe ;
  • Ils s'habituent inconsciemment aux risques lorsqu'une situation semble stable ;
  • Ils tendent à avoir une foi excessive dans les systèmes de secours et dispositifs de sécurité ;
  • Ils associent souvent des systèmes techniques complexes à des structures de gouvernance complexes ;
  • Ils préfèrent partager les bonnes nouvelles et cacher les mauvaises nouvelles ;
  • Ils ont tendance à penser de manière similaire s’ils travaillent dans le même domaine (cf. la « Chambre d'écho »).

Psychologie

[modifier | modifier le code]

La théorie des avares cognitifs éclaire également la « théorie des processus doubles » en psychologie. Celle-ci propose que l'esprit humain utilise deux types de processus cognitifs : intuitif (Système 1) et raisonné (Système 2). Daniel Kahneman décrit le Système 1 comme étant automatique et rapide, alors que le Système 2 est délibéré et nécessite un effort mental[28],[29].

Le Système 1 génère des impressions et des intuitions que le Système 2 peut accepter ou modifier. Cependant, lorsque tout se passe sans problème, le Système 2 adopte souvent sans réserve les suggestions du Système 1, laissant la porte ouverte à des biais. Une surveillance accrue du Système 2, bien que coûteuse en effort cognitif, est donc nécessaire pour prévenir les erreurs.

Limites : omission du rôle de la motivation

[modifier | modifier le code]

La théorie de l'avare cognitif n'a pas initialement pris en compte le rôle de la motivation dans les processus cognitifs[30]. Dans les recherches ultérieures de Susan T. Fiske, cette omission a été reconnue, notamment en ce qui concerne l'intention dans cette métaphore. Il a été démontré que la motivation influence l'activation et l'utilisation des stéréotypes et des préjugés[31].

Évolutions et recherches ultérieures : le « tacticien motivé »

[modifier | modifier le code]

Les individus utilisent souvent des raccourcis heuristiques pour prendre des décisions. Cependant, ces raccourcis, bien qu’efficaces sur le plan de la rapidité ou de la simplicité, sont parfois moins précis que des processus cognitifs plus réfléchis. Il serait donc nécessaire de définir des paramètres permettant de choisir le raccourci le plus approprié[32]. Kruglanski propose que les individus sont une combinaison de scientifiques naïfs et d'avares cognitifs. Selon cette approche, les êtres humains sont des penseurs sociaux flexibles qui choisissent entre plusieurs stratégies cognitives (rapides et faciles contre précises et logiques) en fonction de leurs objectifs, de leurs motivations et de leurs besoins[32].

Les modèles plus récents remettent en question l'idée que les approches de l'avare cognitif et du scientifique naïf soient des pôles rigides de la cognition sociale. À la place, Susan Fiske, Shelley Taylor, Arie W. Kruglanski et d'autres psychologues sociaux ont introduit la théorie du « tacticien motivé[2] ». Selon cette théorie, les individus choisissent entre des raccourcis cognitifs ou des analyses approfondies en fonction du contexte et de la pertinence d'un problème. En d'autres termes, cette approche suggère que les humains sont à la fois des scientifiques naïfs et des avares cognitifs[9]. Les individus sont stratèges, et leur allocation des efforts cognitifs dépend de leurs objectifs : ils peuvent donc décider de se comporter comme des scientifiques naïfs ou comme des économes cognitifs selon les circonstances.

Références

[modifier | modifier le code]
  1. Keith E. Stanovich, What intelligence tests miss: the psychology of rational thought, New Haven, Yale University Press, , 70–85 (ISBN 9780300123852), « The cognitive miser: ways to avoid thinking » Voir également les chapitres : "Framing and the cognitive miser" (chapitre 7) ; "A different pitfall of the cognitive miser: thinking a lot, but losing" (chapitre 9).
  2. a b c d e f g et h Susan T. Fiske et Shelley E. Taylor, Social cognition, New York, McGraw-Hill, (ISBN 978-0070211919, lire en ligne Inscription nécessaire)
  3. a et b Maggie E. Toplak, Richard F. West et Keith E. Stanovich, « Assessing miserly information processing: an expansion of the Cognitive Reflection Test », Thinking & Reasoning, vol. 20, no 2,‎ , p. 147–168 (DOI 10.1080/13546783.2013.844729)
  4. H. A. Simon, « Rational choice and the structure of the environment », Psychological Review, American Psychological Association (APA), vol. 63, no 2,‎ , p. 129–138 (DOI 10.1037/h0042769)
  5. Thomas Gilovich, How we know what isn't so: the fallibility of human reason in everyday life, Free Press, (ISBN 978-0684857081 (édité erroné))
  6. Richard E. Nisbett, Human inference: strategies and shortcomings of social judgment, Prentice-Hall, (ISBN 978-0134451305 (édité erroné))
  7. Edward E. Jones et Keith E. Davis, « From Acts To Dispositions The Attribution Process In Person Perception », Advances in Experimental Social Psychology, Elsevier, vol. 2,‎ , p. 219–266
  8. Fritz Heider, The psychology of interpersonal relations, John Wiley & Sons, (ISBN 978-0898592825)
  9. a b et c Richard J. Crisp et Rhiannon N. Turner, Essential social psychology, SAGE Publications, (ISBN 9781446270769)
  10. Saul Kassin, Steven Fein et Hazel Rose Markus, Social psychology, Cengage Learning, (ISBN 9781305580220)
  11. Edward E. Jones et Victor A. Harris, « The attribution of attitudes », Journal of Experimental Social Psychology, vol. 3, no 1,‎ , p. 1–24
  12. (en) D. F. Barone, J. E. Maddux, J. E. et . R. Snyder, Social cognitive psychology: History and current domains., (ISBN 978-0-306-45475-2, DOI 10.1007/978-1-4615-5843-9).
  13. a et b Scheufele, Dietram A. et Lewenstein, Bruce V., « The public and nanotechnology: how citizens make sense of emerging technologies », Journal of Nanoparticle Research, vol. 7, no 6,‎ , p. 659–667 [660] (DOI 10.1007/s11051-005-7526-2, Bibcode 2005JNR.....7..659S)
  14. Hull, David L., Science and selection: essays on biological evolution and the philosophy of science, Cambridge University Press, (ISBN 0521643392, lire en ligne)
  15. a b et c Lau, Richard R. et Redlawsk, David P., « Advantages and disadvantages of cognitive heuristics in political decision making », American Journal of Political Science, vol. 45, no 4,‎ , p. 951–971 (DOI 10.2307/2669334)
  16. Popkin, Samuel, The Reasoning Voter, Chicago, IL, The University of Chicago Press, (ISBN 0226675440, lire en ligne)
  17. Orbell, John et Dawes, Robyn M., « A 'Cognitive Miser' Theory of Cooperators Advantage », American Political Science Review, vol. 85, no 2,‎ , p. 515–528 (DOI 10.2307/1963172)
  18. Alan Irwin et Brian Wynne, Misunderstanding Science?, Cambridge University Press, (ISBN 9780521432689, DOI 10.1017/cbo9780511563737)
  19. Nicola J Marks, eLS, John Wiley & Sons, Ltd, , 1–5 p. (ISBN 9780470015902, DOI 10.1002/9780470015902.a0005862.pub3), « Public Understanding of Genetics: The Deficit Model »
  20. Paul M. Kellstedt, Sammy Zahran et Arnold Vedlitz, « Personal Efficacy, the Information Environment, and Attitudes Toward Global Warming and Climate Change in the United States », Risk Analysis, vol. 28, no 1,‎ , p. 113–126 (DOI 10.1111/j.1539-6924.2008.01010.x)
  21. Dietram A. Scheufele, « Communicating science in social settings », Proceedings of the National Academy of Sciences, vol. 110, no Suppl 3,‎ , p. 14040–14047 (DOI 10.1073/pnas.1213275110)
  22. (en) Samuel Popkin, The Reasoning Voter: Communication and Persuasion in Presidential Campaigns, Chicago, The University of Chicago Press, (ISBN 0-226-67544-0)
  23. a et b (en) Dietram Scheufele, « Messages and Heuristics: How audiences form attitudes about emerging technologies », The Consortium for Science, Policy & Outcomes,‎ , p. 20-26 (lire en ligne [PDF], consulté le ).
  24. Dietram A. Scheufele et David Tewksbury, « Framing, agenda setting, and priming: The evolution of three media effects models », Journal of Communication, vol. 57, no 1,‎ , p. 9–20 (DOI 10.1111/j.1460-2466.2006.00326_5.x)
  25. Risk Assessment in the Federal Government, Washington D.C., National Academies Press, (ISBN 978-0-309-03349-7, DOI 10.17226/366)
  26. T. M. Marteau, « Communicating genetic risk information », British Medical Bulletin, vol. 55, no 2,‎ , p. 414–428 (DOI 10.1258/0007142991902466)
  27. David Brooks, « Drilling for Certainty », The New York Times,‎
  28. Daniel Kahneman, « A Perspective on Judgment and Choice: Mapping Bounded Rationality », American Psychologist, vol. 58, no 9,‎ , p. 697–720 (DOI 10.1037/0003-066x.58.9.697)
  29. D. Kahneman, Thinking, Fast and Slow, Penguin Books, (ISBN 978-0-14-191892-1)
  30. Susan T. Fiske, Social cognition: from brains to culture, SAGE Publications, (ISBN 978-1473969292, OCLC 968775128)
  31. Susan T. Fiske, « Intent and Ordinary Bias: Unintended Thought and Social Motivation Create Casual Prejudice », Social Justice Research, Springer Science and Business Media LLC, vol. 17, no 2,‎ , p. 117–127 (ISSN 0885-7466, DOI 10.1023/b:sore.0000027405.94966.23, S2CID 144716889)
  32. a et b A. W. Kruglanski, The Social Psychology of Science, Guilford Publications, , 197–213 p. (ISBN 978-0-89862-021-4), « The social-cognitive bases of scientific knowledge »

Bibliographie

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy