L’esprit critique ne prend pas de vacances ! Abonnez-vous à Books !

Ce que je pense est-il fondé

Sauvegarder cet article

Victime de multiples biais cognitifs d’autant plus pervers qu’ils sont inconscients, je me repose sur l’expertise d’autrui et évolue dans l’illusion de savoir pourquoi j’ai raison.

Ai-je raison de penser ce que je pense ? (Si j’ai une opinion sur le sujet, s’entend.) Comment puis-je en être sûr ? Se pourrait-il que ce que je pense, sans doute pas sur tous les sujets, mais sur la plupart ou sur beaucoup d’entre eux, ne soit pas fondé ? À vrai dire, il n’est pas besoin d’une longue réflexion pour s’en convaincre et constater qu’il en va de même pour chacun d’entre nous. Déjà longuement explorée par Socrate, cette idée continue de cheminer, plus ou moins souterrainement. Mise le plus souvent sous le boisseau, objet du plus formidable de tous les dénis, elle connaît aujourd’hui une nouvelle jeunesse, par la vertu de ce qu’on appelle abusivement les « sciences cognitives ». Je dis « abusivement », parce qu’en fait de science on est bien sûr loin du compte. Disons plutôt qu’un certain nombre de chercheurs, intéressés par le fonctionnement de notre cerveau pris en flagrant délit de juger, décrivent de manière de plus en plus fine les « biais » qui instruisent notre pensée à nos dépens. En France, le penseur qui à ma connaissance a le plus profondément exploré la question est le sociologue Raymond Boudon. Pour en donner une idée, voici quelques phrases tirées de sa préface à une nouvelle édition de L’Idéologie ou l’Origine des idées reçues : « D’où proviennent les croyances aux idées non fondées objectivement ? » ; « Les croyances en des idées non fondées peuvent être aussi et sont souvent au moins pour partie le produit du fonctionnement le plus normal de la pensée » ; « Des idées fausses peuvent être et sont souvent fondées sur une argumentation acceptable » ; « Comment des idées douteuses peuvent-elles être consolidées par des arguments impeccables ? » ; « On peut avec de bonnes raisons croire dur comme fer à des illusions ». Aux États-Unis, le livre fondateur est de Williard Van Orman Quine et Joseph Silbert Ullian, The Web of Belief, dont la première édition est parue en 1970. L’idée de base est que nous acceptons ou rejetons une croyance selon qu’elle entre ou n’entre pas dans notre réseau de croyances. Comme l’a écrit récemment dans The New Yorker la philosophe américaine Sharon Schwarze, « les croyances qui sont au centre de notre réseau sont solidement enracinées, car les changer exigerait de reconstruire des pans entiers du réseau ». Autrement dit, cela exigerait une dépense d’énergie devant laquelle nous préférons inconsciemment renoncer. Une ironie de l’histoire est que le Web, de nos jours, est un réseau bien réel dont toutes les études montrent qu’il renforce nos réseaux de croyances en nous donnant l’illusion de nous conférer un supplément d’objectivité, alors que nous ne faisons le plus souvent qu’y puiser des arguments qui viennent le conforter. Des expériences menées sur des étudiants dans les années 1970 à l’université Stanford montrent que même sur des sujets re
lativement simples, le fait d’apporter une réfutation en bonne et due forme à une croyance même récemment formée la laisse souvent intacte. Sur des sujets lourds et complexes, comme l’attitude à l’égard de la peine de mort, une croyance ancrée dans un sens ou dans l’autre résiste à la présentation d’études « scientifiques » aboutissant à la conclusion contraire. C’est ce que les psychologues Amos Tversky et Daniel Kahneman ont appelé « le biais de confirmation » : la forte tendance à accueillir les informations qui confortent nos croyances et à rejeter les informations qui viennent les contredire. Dans The Undoing Project : A Friendship That Changed Our Minds, Michael Lewis fait le récit de l’amitié entre ces deux hommes, qui ont fait de la psychologie des biais cognitifs une discipline à part entière. Cette discipline est devenue une institution, au point d’être exploitée de manière routinière par les géants du Web et les concepteurs de jeux vidéo, qui misent sur nos biais cognitifs pour développer de savantes techniques de vente. Elle est également exploitée par les services de renseignement, l’armée et, bien sûr, les politiques, qui s’appuient sur des entreprises spécialisées pour concocter les messages les plus propres à persuader. L’un des produits de la psychologie des biais cognitifs est l’économie dite comportementale, elle aussi devenue une discipline à part entière. Elle s’appuie sur le fait que les agents économiques, confrontés au caractère forcément incertain de la plupart des situations, sont victimes d’une douzaine de catégories d’erreurs systématiques identifiables, qui produisent des décisions irrationnelles. Outre le biais de confirmation, qui se retrouve ici comme ailleurs, interviennent par exemple l’effet de dotation, par lequel nous attribuons plus de valeur à ce qui nous appartient qu’à ce qui ne nous appartient pas, la préférence psychologique pour le statu quo, la tendance à attribuer un poids plus important aux pertes qu’aux gains potentiels, le présentisme, qui consiste à prolonger mentalement les tendances actuelles sans imaginer la possibilité d’un changement radical, ou encore la tendance à être impressionné par un événement qui vient de se produire au point de penser que ce type d’événement va se reproduire prochainement. Le dernier livre de Daniel Kahneman, Système 1/Système 2, développe l’idée que notre cerveau fonctionne suivant deux systèmes qui entrent en compétition : le système 1 est fondé sur l’intuition, il est rapide et automatique ; le système 2 est fondé sur la raison, il est lent et réfléchi. Le premier dépense une énergie minimale, le second une énergie maximale. La loi du moindre effort nous commande de privilégier le premier. Comme l’a décrit par le menu le politologue français Philippe Braud, au moment d’une élection le choix des citoyens est pour l’essentiel dicté par leurs émotions, autrement dit le système 1. L’appel à l’émotion est d’autant plus tentant que nous connaissons moins le sujet. Dans un ouvrage intitulé The Knowledge Illusion, les cogniticiens américains Steven Sloman et Philip Fernbach mentionnent un sondage mené aux États-Unis peu après l’annexion de la Crimée, territoire ukrainien, par la Russie. On demandait aux personnes interrogées si elles pensaient que les États-Unis devaient réagir, et aussi si elles pouvaient situer l’Ukraine sur une carte. Or plus elles se trompaient sur la géographie, plus elles étaient favorables à une intervention. Leur ignorance globale était d’ailleurs consternante : la moyenne des estimations était fausse à plus de 1 200 kilomètres près. Pour illustrer l’illusion de la connaissance, biais cognitif s’il en est, Sloman et Fernbach ont mené des expériences simples. Ils ont ainsi demandé à des étudiants de quatrième année, à Yale, s’ils comprenaient le fonctionnement d’une chasse d’eau ou d’une fermeture Éclair. La plupart se sont montrés d’emblée très confiants dans leur savoir ; mais, priés de décrire par écrit le fonctionnement de ces objets ordinaires, ils ont dû déchanter. Les auteurs en tirent un argument positif. C’est qu’Homo sapiens, espèce foncièrement coopérative, a construit peu à peu un savoir collectif sur lequel la plupart d’entre nous peuvent se reposer, sans être obligés de faire l’effort d’y accéder. Nous faisons partie intégrante d’un cerveau collectif, un peu comme l’abeille dans sa ruche. Le versant négatif du phénomène est que nous pensons en savoir plus que nous en savons vraiment – une réalité déjà analysée par Socrate. Ce biais cognitif en induit un autre, parfois appelé « la malédiction du savoir » : ceux qui connaissent un sujet peinent souvent à concevoir que les autres n’y connaissent rien. La complexité de notre rapport à la connaissance est à mettre en relation avec notre « réseau de croyances ». Pour revenir à Boudon, nos préférences idéologiques, qui traduisent une préférence pour les idées reçues, sont d’autant plus facilement confortées que nous nous reposons sur l’expertise d’autrui pour les valider. Mais pas n’importe quelle expertise. Car nous donnons très logiquement la préférence aux experts dont les travaux viennent conforter ce que nous pensons, sans prêter attention ou en dénigrant les travaux d’experts qui plaident en sens contraire. Or, bien entendu, les experts sont eux aussi des hommes et des femmes, sujets aux mêmes biais cognitifs que tout un chacun. Comme l’avait encore très bien analysé Boudon, quand on quitte le domaine des sciences exactes, la référence à « la science » n’est souvent qu’un cache-sexe destiné à me conforter dans mes raisons de penser ce que je pense.
LE LIVRE
LE LIVRE

L’Idéologie ou l’Origine des idées reçues de Raymond Boudon, Points, 2011

SUR LE MÊME THÈME

Post-scriptum Les arbres et le CO2
Post-scriptum Le piège de Thucydide
Post-scriptum La bulle du militant

Aussi dans
ce numéro de Books

Booksletter,
c'est gratuit !

Retrouvez gratuitement la Booksletter
chaque samedi matin dans votre boîte email.