Show Less
Open access

Rhétorique et cognition - Rhetoric and Cognition

Perspectives théoriques et stratégies persuasives - Theoretical Perspectives and Persuasive Strategies

Series:

Edited By Thierry Herman and Steve Oswald

Ce volume met l’accent sur le lien entre démarches cognitives et art du discours qui a toujours été un des enjeux de la rhétorique. Sans ajouter une nouvelle couche à l’examen critique des sophismes, les contributions de cet ouvrage n’ont pas pour but de dénoncer les effets de certains schèmes argumentatifs que d’aucuns jugeraient fallacieux, mais d’étudier leur fonctionnement et leurs effets cognitifs hic et nunc. Quels sont les mécanismes qui expliquent la « performance » des arguments réputés fallacieux ? Comment fonctionnent les stratégies rhétoriques à l’intersection entre cognition, sciences du langage et société ?

This volume gathers contributions from two disciplines which have much to gain from one another – rhetoric and cognitive science – as they both have much to say in the broad realm of argumentation studies. This collection neither condemns the fallacious effects of specific argument schemes nor adds yet another layer to fallacy criticism, but studies how argumentation and fallacies work, hic et nunc. What are the linguistic and cognitive mechanisms behind the «performance » of fallacious arguments? How do rhetorical strategies work at the interface of cognition, language science and society?
Show Summary Details
Open access

La vigilance épistémique: Dan Sperber, Fabrice Clément, Christophe Heintz, Olivier Mascaro, Hugo Mercier, Gloria Origgi et Deirdre Wilson

La vigilance épistémique1

Dan SPERBER, Fabrice CLÉMENT, Christophe HEINTZ, Olivier MASCARO, Hugo MERCIER, Gloria ORIGGI et Deirdre WILSON

1.Introduction

Les humains disposent d’une série de mécanismes cognitifs de vigilance épistémique qui ciblent le risque d’être induit en erreur par autrui. Telle est la thèse que nous présentons ici en considérant les différentes manières dont la vigilance épistémique fonctionne dans la vie mentale et sociale des humains. Notre but est d’intégrer au sein d’un cadre de recherche cohérent un large éventail d’hypothèses développées ailleurs par nous-mêmes ou par d’autres, plutôt que de présenter des arguments détaillés pour chacune de ces hypothèses.

Les humains sont des animaux exceptionnels à la fois par la richesse et la puissance de leurs capacités cognitives et par le degré auquel ils s’appuient sur une large variété d’informations communiquées par autrui. Ces deux traits sont liés. D’une part, il ne serait pas possible de se reposer autant sur la richesse de la communication en l’absence de capacités cognitives spécifiques à l’espèce, en particulier le langage et une forme avancée de lecture de l’esprit (mindreading). D’autre part, ces capacités individuelles ne se développeraient pas ou ne fonctionneraient pas correctement en l’absence de compétences cognitives, d’outils conceptuels et de connaissances d’arrière-plan acquis par le biais d’autrui.

Jusqu’à quel point les autres sontils des sources d’informations fiables? En général, les autres ne se trompent pas plus souvent que nousmêmes – après tout, ‘nous’ et ‘eux’ désignent ici les mêmes personnes – et ils savent ← 21 | 22 → des choses que nous ignorons. Il devrait par conséquent être avantageux de s’appuyer, même aveuglément, sur la compétence des autres. Seraitil plus avantageux de moduler notre confiance en exerçant un certain degré de vigilance vis-à-vis de leur compétence? Cela dépend du coût et de la fiabilité d’une telle vigilance. De toute façon, le problème majeur que pose l’information communiquée n’est pas lié à la compétence des autres, mais à leurs intérêts et à leur honnêteté. Si les intérêts des autres se confondent souvent partiellement avec les nôtres, il est rare qu’ils coïncident exactement. Dans de nombreuses situations, il est avantageux pour autrui de nous donner de fausses informations ou de nous tromper. C’est parce que ce risque de tromperie existe que la vigilance épistémique peut être non simplement avantageuse, mais même indispensable pour que la communication ellemême reste avantageuse.

Dans la plupart des cas, la communication humaine est intentionnelle et ouverte (overt, c’est-à-dire «à visage découvert») le locuteur produit une action par laquelle il communique non seulement une information, mais aussi le fait que, ce faisant, il agit de façon intentionnelle (Grice 1975, Sperber et Wilson 1995).2 Pour qu’un type de communication ainsi caractérisé puisse être couronné de succès, le locuteur et son destinataire doivent coopérer au prix d’un certain effort. Dans le cas du locuteur, il s’agit de l’effort requis par la production d’une action communicative; dans le cas du destinataire, de l’effort requis pour y prêter attention et l’interpréter. Aucun des deux n’est enclin à consentir cet effort sans attendre, en retour, quelque bénéfice. Pour le destinataire, le bénéfice normalement attendu est l’acquisition d’informations pertinentes et vraies. Pour le locuteur, ce bénéfice est de produire un effet désiré sur le destinataire. Pour satisfaire les attentes du destinataire, le locuteur devrait faire de son mieux pour communiquer une information vraie. Pour satisfaire ses propres attentes, par contraste, il devrait ← 22 | 23 → choisir de communiquer l’information la plus à même de produire l’effet escompté sur le destinataire, indépendamment de sa valeur de vérité.3

Il y a des situations dans lesquelles les émetteurs n’ont aucun intérêt à tromper leur auditoire, par exemple lorsqu’ils enseignent des choses à leurs propres enfants ou lorsqu’ils coordonnent une action collective. Les humains cependant communiquent dans une variété beaucoup plus importante de situations, avec des interlocuteurs dont les intérêts divergent souvent des leurs.

Les bénéfices potentiels de la communication sont immenses, mais ils vont de pair avec le risque d’être induit en erreur, de façon accidentelle ou intentionnelle, ce qui pourrait réduire, annuler ou même inverser ces bénéfices. Le fait que la communication soit aussi omniprésente en dépit de ce risque suggère que les humains sont en mesure de calibrer leur confiance de façon à rendre la communication avantageuse en moyenne à la fois pour les locuteurs et pour les destinataires (Sperber 2001, Bergstrom et al. 2006). Pour que cela soit possible, les capacités en œuvre dans la communication explicite et intentionnelle d’une part, dans la vigilance épistémique d’autre part ont dû évoluer en même temps; elles doivent également se développer dans l’individu et être mises à contribution ensemble. Il est donc probable qu’une disposition à la vigilance ait évolué biologiquement parallèlement à la communication telle que les humains la pratiquent. La vie sociale humaine (avec une certaine variabilité culturelle) fournit suffisamment d’inputs pertinents pour le développement de mécanismes psychologiques de vigilance épistémique. Il est vraisemblable en outre que l’interaction entre agents vigilants engendre, outre des mécanismes psychologiques, des mécanismes de vigilance épistémique sociaux. Avant de passer à l’examen d’un certain nombre de ces mécanismes, nous allons considérer quelques questions philosophiques pertinentes pour l’étude de la vigilance épistémique. ← 23 | 24 →

2.Confiance épistémique et vigilance

La confiance est, bien sûr, un aspect essentiel de l’interaction humaine (elle constitue également un vieux sujet philosophique – voir Origgi 2005, 2008). Moins évidente est la thèse selon laquelle les humains sont non seulement amenés à se faire confiance la plupart du temps, mais sont d’emblée confiants et disposés à se croire les uns et les autres, cette confiance fondamentale n’étant suspendue que lorsqu’ils auraient des raisons particulières de se méfier. Cependant, certains philosophes, de Thomas Reid à Tyler Burge et Ruth Millikan, et plus récemment certains psychologues comme Daniel Gilbert ont défendu une version forte de cette thèse en soutenant que les humains sont fondamentalement confiants, pour ne pas dire crédules. Dans cette section, nous discutons ces thèses philosophiques et psychologiques et suggérons que, pour que la confiance puisse jouer le rôle fondamental qui est le sien, elle doit s’appuyer sur une vigilance épistémique active.

Dans l’épistémologie classique, l’acceptation non critique des dires d’autrui était perçue comme incompatible avec ce que la rationalité requiert d’un savoir authentique. Une telle acceptation ne présente en effet pas les mêmes garanties que celles qui accompagnent les idées claires et distinctes ou les impressions sensorielles auxquelles on arrive par soimême. Selon John Locke, par exemple, «Le flottement des opinions d’autres hommes dans nos cerveaux ne nous rend pas le moins du monde plus informés, même si elles s’avèrent être vraies» (Locke 1960, Livre I, ch. 3, sect. 23). Historiquement, cette position individualiste procède d’une réaction contre le rôle écrasant, dans la scolastique, des arguments d’autorité. Elle est toujours présente en épistémologie contemporaine, où, selon une conception répandue, décrite par Tony Coady (1992) comme ‘réductiviste’ et par Elisabeth Fricker (1995) comme ‘réductionniste’, les croyances vraies acquises par le biais du témoignage d’autrui ne peuvent être considérées comme des connaissances que si l’acceptation du témoignage lui-même est justifiée par d’autres croyances vraies ayant été acquises non par le témoignage, mais par la perception ou l’inférence (voir Fricker 1995, Adler 2002, van Cleve 2006).

Cette vision réductionniste contraste avec l’approche ‘anti-réductionniste’, qui considère que la confiance dans le témoignage est intrinsèquement justifiée (Hardwig 1985, Coady 1992, Foley 1994). Selon ← 24 | 25 → Thomas Reid, qui a articulé le premier une vision anti-réductionniste encore influente, non seulement les humains font confiance aux dires d’autrui, mais ils sont, de surcroît, fondés à le faire. Dieu leur a octroyé une disposition à dire le vrai et une disposition à accepter ce que d’autres personnes leur disent comme vrai. Reid met en avant ces deux principes qui ‘vont de pair’, le Principe de Véracité et le Principe de Crédulité (Reid 1764, § 24).

Les défenseurs modernes d’une épistémologie reidienne tirent argument de l’existence même du langage naturel pour prouver que des principes de crédulité et de véracité sont effectivement à l’œuvre. Comment pourrait-on expliquer que des significations partagées dans une langue publique aient pu se stabiliser si ce n’est par le fait que la plupart des énoncés dans cette langue sont des témoignages véridiques? Selon Lewis (1969) et Davidson (1984) en particulier, la simple possibilité d’une langue commune présuppose l’emploi d’une parole généralement véridique. Cet argument peut servir à justifier a priori la confiance accordée au témoignage (voir Coady 1992). Ainsi, Tyler Burge soutient le ‘caractère purement conservateur’ de la communication linguistique: de même que la mémoire est un moyen de conservation de contenu chez l’individu, le langage est un moyen de conservation de contenu d’un individu à l’autre. Dans cette perspective, tout acte de communication implique un engagement tacite envers un principe d’acceptation qui nous autorise à «accepter comme vrai ce qui est présenté comme tel et qui [nous] est intelligible, sauf s’il existe de fortes raisons de ne pas le faire» (Burge 1993, pp. 457-88). Approchant la question sous un angle évolutionniste, Ruth Millikan (1987) soutient que le témoignage est une forme de perception par procuration et que, en tant que tel, il constitue une source directe de connaissance qui ne nécessite pas davantage de justification inférentielle que la connaissance par le moyen de la perception.4

Ce débat entre réductionnisme et anti-réductionnisme tourne autour de deux questions distinctes, l’une normative et l’autre descriptive. La question normative porte sur les conditions dans lesquelles une croyance acquise par ← 25 | 26 → témoignage est assimilable à une connaissance. La question descriptive concerne les pratiques cognitives et sociales intervenant dans la production et l’acceptation des témoignages. Les deux questions sont explicitement reliées par les défenseurs d’une «troisième voie» selon laquelle nos pratiques effectives, qui supposent un certain degré de vigilance, sont probablement raisonnables et donc nous informent aussi sur la norme (par ex. Adler 2002, Fricker 2006).

La question descriptive a récemment été traitée par la psychologie expérimentale. Les travaux de Daniel Gilbert et ses collègues, en particulier, semblent montrer que, dans un premier temps, nos systèmes mentaux acceptent automatiquement l’information communiquée, avant éventuellement de l’examiner et de la rejeter (Gilbert et al. 1990, Gilbert et al. 1993). Ces recherches pourraient (d’un point de vue descriptif plutôt que normatif) faire pencher la balance du côté d’une approche anti-réductionniste de la connaissance acquise par témoignage. Dans une expérience représentative de l’ensemble de ces recherches, on demandait aux participants d’apprendre des mots soi-disant «en Hopi». On leur présentait des phrases telles que: «une Monishna est une étoile», immédiatement suivies d’un signal VRAI ou FAUX indiquant la valeur de vérité de la phrase. Dans certains cas, cependant, on déconcentrait les participants pendant qu’ils traitaient le signal VRAI ou FAUX. Un peu plus tard, ils passaient une tâche de reconnaissance dans laquelle les mêmes énoncés sur le sens de mots prétendument en Hopi étaient présentés, et ils avaient à juger si ces énoncés étaient vrais ou faux. La prédiction des auteurs de cette étude était la suivante: si l’acceptation est automatique, le fait d’avoir distrait les participants pendant l’affichage de signaux indiquant que l’énoncé précédent était faux devrait les mener à se remémorer ces énoncés comme étant vrais. Les résultats ont confirmé cette prédiction.

Quelle est la portée des données de Gilbert et al.? La vigilance épistémique suppose un coût de traitement qui est probablement maintenu à un niveau minimum lorsque l’information communiquée est sans aucune pertinence pour l’individu. Si, par exemple, vous entendez une information à la radio concernant une compétition sportive dont vous ignorez tout et qui ne vous intéresse pas, vous n’allez probablement pas faire d’effort particulier pour décider si croire ou non ce que vous venez d’entendre. Si on vous met en demeure de dire si l’information était vraie ou fausse, vous direz sans doute ← 26 | 27 → qu’elle était vraie. Après tout, l’information n’a pas été seulement énoncée, elle a aussi été affirmée. Dire que l’information était fausse reviendrait à remettre en question la légitimité de l’affirmation; à quoi bon dans de telles circonstances?

Des expériences plus récentes ont souligné le rôle crucial de la pertinence – ou, plutôt, de la non-pertinence – des données utilisées par Gilbert et ses collègues. Quand bien même les participants pourraient faire preuve d’un quelconque intérêt pour des énoncés à propos du sens de mots Hopi (ce qui n’est guère probable vu la situation expérimentale et les compétences des participants), l’information selon laquelle l’une de ces affirmations (par exemple, ‘Une Monishna est une étoile’) est fausse serait totalement non pertinente pour eux. Savoir qu’un énoncé de ce type est faux n’entraîne aucune conclusion. Avec d’autres types d’énoncés, les choses peuvent être différentes. Si vous aviez des raisons préalables de penser qu’une affirmation donnée est vraie, ou si celle-ci décrivait un état de choses normal, on voit bien comment il pourrait être pertinent de découvrir qu’elle est fausse. Par exemple, on voit bien comment le fait d’apprendre qu’une affirmation comme «Patrick est un bon père» est fausse pourrait avoir à vos yeux tout un ensemble d’implications plus ou moins convenues. Et effectivement, dans les expériences de Hasson, Simmons et Todorov (2005), par ailleurs similaires à celles de Gilbert, lorsque les participants avaient affaire à des affirmations dont la fausseté revêtait une pertinence potentielle, l’acceptation automatique disparaissait. Ces résultats jettent un doute sur la valeur des données expérimentales invoquées pour montrer que l’information communiquée est automatiquement acceptée comme vraie (voir aussi Bergstrom et Boyer (soumis), Richter et al. 2009).

Comme relevé précédemment, les philosophes et psychologues défendant l’idée que les humains sont fondamentalement confiants ne nient pas que, lorsque les circonstances semblent le requérir, les gens adoptent une attitude critique face à l’information communiquée et peuvent finir par la rejeter. Les défenseurs de cette approche ne sont pas obligés de nier qu’une telle attitude critique puisse exploiter des mécanismes cognitifs de vigilance épistémique spécifiques. La vigilance (contrairement à la méfiance) n’est pas le contraire de la confiance; elle s’oppose plutôt à la confiance aveugle (voir également Yamagishi 2001). Pourtant, les philosophes et psychologues dont nous avons discuté les affirmations dans cette section assument que, même ← 27 | 28 → si les humains ne font pas confiance aveuglément, ils ferment au moins la plupart du temps les yeux sur la possibilité d’être victimes de désinformation. Dans les termes de Gilbert, les humains sont confiants «par défaut» (Gilbert et al. 1990: 601) et sont disposés à examiner l’information communiquée de manière critique uniquement lorsque les circonstances les motivent à le faire. Leur approche laisse sans réponse la question de savoir comment reconnaître de telles circonstances sans être vigilant en premier lieu.

Il convient également de remarquer que l’idée d’une confiance par défaut est inspirée d’une conception de la cognition inspirée de l’Intelligence Artificielle dans sa première forme et conçue en termes d’organigrammes séquentiels dans lesquels un mécanisme est entièrement inactif tant qu’il n’entre pas en fonction, fonction qu’il remplit ensuite complètement et de façon ininterrompue. Selon une autre façon de voir les choses, plusieurs mécanismes peuvent opérer en parallèle ou en compétition. Par exemple, il se pourrait que chaque comportement communicatif active deux processus distincts chez le destinataire: l’un destiné à identifier la pertinence de l’information communiquée en postulant qu’elle est digne de confiance, et l’autre destinée à évaluer si elle est effectivement digne de confiance. L’un ou l’autre de ces processus pourrait être interrompu par manque d’input adéquat, ou parce que l’un inhibe l’autre, ou encore à la suite d’une distraction. De manière générale, reconnaître l’importance prépondérante de la confiance au sein de la communication humaine ne doit pas nécessairement nous amener à nier ou à minimiser l’importance de la vigilance épistémique.

Voici une analogie susceptible de clarifier comment la confiance épistémique peut coexister avec la vigilance épistémique, et même être renforcée par elle. Lorsque nous marchons dans la rue au milieu d’une foule de gens dont beaucoup passent juste à côté de nous, il existe un risque permanent de collision accidentelle, voire intentionnelle. Pourtant, nous faisons confiance aux gens dans la rue et n’avons aucune hésitation à déambuler parmi eux. Nous n’attendons pas pour autant des autres qu’ils fassent attention alors que nous marchons nousmêmes sans nous soucier de rien. Nous surveillons la trajectoire des autres et gardons l’œil ouvert pour identifier les individus éventuellement distraits ou agressifs, en ajustant automatiquement notre niveau de vigilance à notre environnement. La plupart du temps, ce niveau de vigilance est suffisamment bas pour rester ← 28 | 29 → inconscient et pour ne pas nous distraire, par exemple, du plaisir d’une promenade, mais il augmente lorsque la situation le requiert. Notre confiance mutuelle dans la rue est largement basée sur une vigilance mutuelle. De manière similaire, dans la communication, ce n’est pas tant que nous puissions faire confiance à autrui en général et que, par conséquent, nous n’ayons besoin d’être vigilants que dans des circonstances rares et spéciales. C’est plutôt que nous ne pourrions pas faire preuve de confiance mutuelle si nous n’étions pas, pour commencer, mutuellement vigilants.

3.Compréhension et acceptation

La communication humaine se caractérise, entre autres, par le fait que les communicateurs ont deux buts distincts: être compris et parvenir à faire penser ou agir leur auditoire conformément à ce qu’ils auront compris. Les destinataires de leur côté peuvent comprendre un message sans pour autant l’accepter (qu’il y ait ou non un biais ou une tendance en faveur de l’acceptation).

La compréhension et l’acceptation sont-elles des processus distincts pour d’autres espèces animales? Il y a quelques données limitées qui pourraient suggérer que tel est bien le cas. On a montré expérimentalement que les singes vervets et rhésus ne tiennent pas compte d’un signal d’alerte émanant d’un individu ayant produit dans le passé une série de fausses alertes (Cheney et Seyfarth 1990, Gouzoules et al. 1996). Si l’on interprète ces résultats de façon anthropomorphique, cela pourrait indiquer que les singes comprennent le message, mais qu’ils ne l’acceptent pas compte tenu de la non-fiabilité de la source. Cependant, une explication plus parcimonieuse consiste à dire que les signaux d’alerte de cet individu non fiable ne sont pas d’abord interprétés puis rejetés par ses congénères, mais qu’ils sont simplement traités comme du bruit, et par conséquent rejetés d’office. Plus généralement, il n’y a ni preuves ni arguments solides en faveur d’une distinction entre compréhension et acceptation dans la communication non humaine. (Dans tous les cas, même s’il s’avérait que d’autres animaux sociaux exercent une forme quelconque de vigilance épistémique, cela enrichirait ← 29 | 30 → notre compréhension de leur esprit plutôt que d’appauvrir la compréhension du nôtre).

Les philosophes du langage et les pragmaticiens qui se situant dans la tradition d’Austin, Grice et Strawson se sont particulièrement intéressés à la différence entre compréhension et acceptation ainsi qu’à la relation entre ces processus. Austin, par exemple, a distingué «l’assurance d’avoir été compris»5 (c’est-à-dire «provoquer la compréhension de la signification et de la valeur de la locution») d’un éventail d’autres effets cognitifs ou comportementaux ultérieurs, qu’il a décrits comme «perlocutoires» (Austin 1962: 116, [1970: 124 pour la traduction française]).

Quant à Grice (1957), il a pris l’intention du locuteur de produire un certain effet cognitif ou comportemental qui dépasse la simple compréhension comme point de départ de son analyse du «vouloir-dire» du locuteur:

«[S] a voulu dire quelque chose par x» est (à peu près) équivalent à «[S] a eu l’intention que l’énonciation de x produise quelque effet chez l’auditoire au moyen de la reconnaissance de cette intention». (Grice 1957/1989, p. 220, traduction libre)

Cette analyse, qui a subi de nombreuses révisions et reformulations (par ex. Strawson 1964, Grice 1969/1989, Searle 1969, Schiffer 1972), traite le vouloir dire du locuteur comme un état mental complexe, composé de plusieurs niveaux d’intentions, dont la plus profondément enchâssée est l’intention de faire en sorte que le destinataire pense ou agisse d’une certaine façon. Au-delà de cette intention de base se trouvent deux intentions d’ordre supérieur: que le destinataire reconnaisse l’intention de base, et que la reconnaissance de celle-ci par le destinataire soit au moins en partie sa raison de la satisfaire. En reconnaissant l’intention de base (et donc en satisfaisant l’intention d’ordre supérieur du locuteur de faire en sorte que son intention de base soit reconnue), le destinataire aura compris l’énoncé, qu’il satisfasse ou non par la suite cette intention de base en produisant la réponse souhaitée.

En suivant cette suggestion concernant la relation entre compréhension et acceptation, Sperber et Wilson (1995) construisent leur modèle inférentiel ← 30 | 31 → de la communication autour de l’idée que les locuteurs ont à la fois une intention informative et une intention communicative. Dans leur cadre, le locuteur produit un énoncé (ou d’autres stimuli ostensifs), en ayant par làmême:

L’intention informative: l’intention d’informer un auditoire de quelque chose.

L’intention communicative: l’intention d’informer un auditoire de son intention informative.

Ici, l’intention informative correspond à l’intention basique de premier ordre, chez Grice, de susciter une certaine réponse chez l’auditoire, et l’intention communicative correspond, toujours chez Grice, à l’intention d’ordre supérieur de faire en sorte que cette intention basique soit reconnue. Il convient de remarquer que l’intention communicative est elle-même une intention informative de deuxième ordre, qui est satisfaite une fois que l’intention informative de premier ordre est reconnue. Si le destinataire accepte l’autorité (épistémique ou pratique) du locuteur, la reconnaissance de l’intention informative engendrera sa satisfaction, et par conséquent la production de la réponse cognitive ou comportementale souhaitée. Cependant, l’intention communicative peut être satisfaite sans que l’intention informative correspondante ne le soit: en d’autres termes, un auditoire est en mesure de comprendre correctement un énoncé sans accepter ni se conformer à ce qu’il a compris.

L’analyse de la communication faite par Sperber et Wilson diffère de l’analyse gricéenne du vouloir-dire sur deux points. Sperber et Wilson considèrent que seules deux intentions informatives hiérarchiquement reliées sont en jeu, l’intention communicative étant une intention d’ordre supérieur d’informer l’auditoire de la présence d’une intention informative d’ordre inférieur. Ils rejettent ainsi l’idée que le locuteur doit avoir une intention de troisième ordre selon laquelle la reconnaissance, par le destinataire, de l’intention informative doit constituer, au moins en partie, sa raison de la satisfaire.

Pour Grice, cette intention de troisième niveau est essentielle pour distinguer le fait de ‘vouloir-dire’ quelque chose du fait de ‘montrer’ quelque chose. Si je vous montre que j’ai un coquillage dans ma poche, votre raison de croire que j’ai un coquillage dans ma poche est le fait de l’avoir vu. Si je vous dis «j’ai un coquillage dans ma poche», votre raison de croire que j’ai un ← 31 | 32 → coquillage dans ma poche est le fait que je vous l’ai dit. En quoi le fait de vous dire quelque chose vous donne-t-il une raison de le croire? Par le simple acte de produire une assertion, le locuteur indique qu’il s’engage à fournir de l’information authentique au destinataire, et il souhaite que la reconnaissance de cet engagement fournisse à celui-ci un motif d’accepter un contenu qu’il n’aurait par ailleurs pas de raisons (suffisantes) d’accepter. En d’autres termes, la production d’une assertion implique typiquement la revendication d’une autorité épistémique suffisante pour espérer une confiance épistémique de la part du destinataire. De manière similaire, la formulation d’une requête implique typiquement la revendication d’une autorité pratique ou morale suffisante pour attendre du destinataire une réponse appropriée à la requête.

Pour autant, la reconnaissance, par l’auditoire, du fait que le locuteur voudrait que son énoncé suscite confiance ou conformité est-elle une propriété intrinsèque de la communication du sens? Grice lui-même a attiré l’attention sur un contre-exemple pertinent, dont il pensait qu’il présentait un problème pour son analyse, bien qu’il ne l’ait mentionné qu’en passant, sans fournir de solution. Lorsqu’un locuteur produit un argument logique, il a typiquement l’intention que son auditoire accepte la conclusion de son argument non pas en vertu de son autorité en tant que locuteur, mais parce que la conclusion découle de ses prémisses:

Conclusion de l’argument: p, q, par conséquent r (sur la base de prémisses énoncées au préalable): Si E (l’énonciateur) a l’intention de faire en sorte que D (le destinataire) pense que r, E n’attend en revanche pas (ni n’a l’intention) que D forme la croyance que r sur la base de l’intention de E que D la forme. Les prémisses, et non la confiance en E, sont censées faire le travail (Grice 1969/1989: 107, traduction libre).

Malgré l’existence de tels contre-exemples, Grice considérait que ses raisons de conserver cette intention de troisième niveau dans son analyse du ‘vouloirdire’ étaient déterminantes. Sperber et Wilson, de leur côté, n’analysaient pas le ‘sens’ mais la ‘communication’, et ils considéraient qu’il y a un continuum entre ‘vouloir dire que’ et ‘montrer que’ qui rend improductive la recherche d’une démarcation stricte. En formulant un argument explicite, par exemple, un locuteur veut dire et montre à la fois que sa conclusion découle de ses prémisses. Même si la description que Grice fait de cet exemple est peu concluante, elle est pertinente pour l’étude de la vigilance épistémique. Elle souligne le contraste entre les cas où un locuteur a l’intention que son destinataire accepte ce qu’il dit en vertu du fait qu’il le dit, et ceux où il attend ← 32 | 33 → du destinataire qu’il accepte ce qu’il dit parce y reconnaît un argument valide. Nous creuserons dans un instant davantage cette distinction entre la vigilance qui porte sur la source de l’information communiquée et celle qui porte sur son contenu.

Clairement, la compréhension du contenu communiqué par un énoncé est une précondition de son acceptation. Cependant, il ne s’ensuit pas que les deux processus se déroulent séquentiellement. En effet, on admet généralement que des considérations liées à l’acceptabilité jouent un rôle crucial dans le processus de compréhension lui-même. Nous pensons que c’est effectivement le cas, mais pas de la façon communément envisagée. Comme nous l’avons mentionné précédemment, de nombreux philosophes ont défendu l’idée que, pour que la communication soit possible, la plupart des énoncés doivent être considérés comme vrais lorsqu’ils sont bien interprétés. Selon Davidson, par exemple, nous devons interpréter un énoncé «d’une manière qui optimise l’accord» et qui révèle «un ensemble de croyances en grande partie consistantes et vraies selon nos propres normes» (Davidson 1984: 137). Une telle «charité interprétative» implique une réticence à réviser ses propres croyances à la lumière de ce que disent les autres. Il s’agit là d’une attitude générale de confiance a priori consistant à tenir pour acquis que ce que veut dire autrui est vrai– mais cette confiance est bien pingre dans la mesure où c’est en dernier lieu à l’interprète de décider de ce qui est vrai (voir cependant Davidson 1986 pour une position plus nuancée).

Il y a une différence entre croire un locuteur parce que vous interprétez ses dires de manière à rendre son énoncé aussi crédible que possible à vos yeux, et croire ce que vous comprenez de son énoncé – même si c’est incompatible avec vos propres croyances, que vous devrez peut-être réviser par la suite – parce que vous lui faites d’emblée confiance. Dans ce dernier cas, l’interprétation n’est pas guidée par une présomption de vérité; par quoi est-elle donc guidée? Selon Sperber et Wilson (1995), elle est guidée par une attente de pertinence.

Même lorsqu’un énoncé est formulé dans votre propre langue, le décodage de sa signification linguistique reste bien en deçà de ce qui est nécessaire pour déterminer son interprétation. Le processus de compréhension combine cette signification linguistique avec de l’information contextuelle et vise une interprétation cohérente avec l’attente de pertinence suscitée par tout énoncé. Selon la théorie de la pertinence – que nous ← 33 | 34 → simplifions ici – chaque énoncé communique une présomption de sa propre pertinence, une pertinence suffisante pour mériter l’attention du destinataire. Le destinataire n‘est pas obligé d’accepter cette présomption: après tout, le locuteur pourrait ignorer ce qui est pertinent pour lui, ou il pourrait tout simplement n’y attacher aucune importance. Mais, que le destinataire accepte ou non la présomption de pertinence, le simple fait que celle-ci soit communiquée est suffisant pour guider le processus d’interprétation. Ce fait justifie la recherche d’une interprétation que le locuteur avait des raisons de penser pertinente pour le destinataire. Dans de nombreux cas, l’output d’une telle interprétation, centrée sur des considérations de pertinence, diffère de celui que la charité interprétative favoriserait.

Pour illustrer ce point, supposons que Barbara a demandé à Julie d’amener une bouteille de champagne à la fête:

(1)André (à Barbara): Une bouteille de champagne? Mais le champagne, c’est cher!

(2)Barbara: Julie a de l’argent.

André avait précédemment tenu pour acquis que Julie était une simple universitaire mal payée en début de carrière. Comment devrait-il alors interpréter la réponse de Barbara? Si son but était d’optimiser l’accord entre ce qu’il croit et ce que dit Barbara, il devrait considérer que Barbara veut dire que Julie a de l’argent, par opposition à ne pas avoir d’argent du tout, ce qui est vrai de la plupart des gens et chose qu’il croyait déjà de Julie. Mais une telle interprétation ne rend pas la réponse de Barbara assez pertinente pour mériter l’attention d’André. Par contraste, s’il interprète «a de l’argent» comme voulant dire «a assez d’argent pour être en mesure d’acheter du champagne», l’énoncé de Barbara sera suffisamment pertinent. Plus précisément, l’énoncé sera suffisamment pertinent pour André à condition qu’il le croie. S’il ne croit pas ce qu’il a compris de l’énoncé de Barbara, alors cet énoncé ne lui fournira rien d’autre que des informations sur Barbara elle-même (ses croyances, son vouloir-dire), plutôt que des informations sur Julie, ce qui pourrait bien ne pas s’avérer assez pertinent pour lui. Comment, dès lors, des considérations de pertinence aident-elles André à comprendre le sens de l’énoncé de Barbara alors même qu’il n’est pas disposé à l’accepter? Notre thèse est la suivante: qu’il finisse par l’accepter ou non, le destinataire d’un énoncé attribue à l’émetteur l’intention d’asserter une proposition qui serait assez pertinente pour lui s’il l’acceptait. ← 34 | 35 →

En d’autres termes, les destinataires doivent adopter une ‘posture de confiance’ au cours de leur interprétation (voir Holton 1994; Origgi 2005, 2008). La confiance requise est moins ‘pingre’ que celle requise par le principe de charité. Elle implique chez le destinataire une disposition à ajuster ses propres croyances à une interprétation du vouloir-dire du locuteur guidée par la pertinence, par opposition à un ajustement de sa propre interprétation du vouloir-dire du locuteur à ses propres croyances. D’un autre côté, il s’agit d’une confiance provisoire. Interpréter un énoncé comme si on allait l’accepter n’est pas équivalent à l’accepter dans les faits, pas même à l’accepter ‘par défaut’.

Cela dit, il se pourrait que la posture de confiance que la compréhension implique cause, ou contribue à causer, une tendance ou un biais en faveur de l’acceptation réelle de l’information communiquée. Si tel est le cas, cela pourrait contribuer à expliquer les résultats des expériences psychologiques de Gilbert et les considérations introspectives qui conduisent les philosophes reidiens à supposer (à tort) que la confiance épistémique est une disposition par défaut. Remarquons qu’une simple tendance ou biais en faveur de l’acceptation de l’information communiquée ne serait pas irrationnelle étant donné que, en fait, la communication est la plupart du temps honnête (et nous maintenons que c’est le cas notamment parce que la vigilance de l’auditoire limite l’éventail des situations où la malhonnêteté serait dans le meilleur intérêt des locuteurs).

Somme toute, comprendre n’est pas équivalent à croire mais n’équivaut pas non plus à adopter une position sceptique. La compréhension implique l’adoption d’une attitude de confiance provisoire et fragile; cette posture mènera à l’acceptation de ce qui est compris seulement si la vigilance épistémique, qui est déclenchée par les mêmes actes communicationnels qui déclenchent la compréhension, ne fournit pas de raisons de douter.

4.Vigilance envers la source

La communication apporte des bénéfices vitaux mais comporte pour l’auditoire le risque majeur d’être accidentellement ou intentionnellement ← 35 | 36 → désinformé. Il n’existe aucune méthode infaillible pour calibrer sa propre confiance dans l’information communiquée de manière à évacuer toutes les informations erronées et uniquement celles-là. Comme les enjeux sont particulièrement élevés, il est plausible de penser qu’une pression sélective continue s’est exercée en faveur de tout moyen disponible et, même approximatif, permettant un tel tri à un coût acceptable. Compte tenu de l’existence d’une variété de considérations pertinentes pour l’octroi ou la rétention de la confiance épistémique, nous explorerons la possibilité que différentes compétences favorisant la vigilance épistémique aient émergé au cours de l’évolution biologique et culturelle, chacune étant spécialisée dans un type particulier de considérations pertinentes.

Les facteurs qui influencent l’acceptation ou le rejet d’une information communiquée peuvent concerner soit la source de l’information – qui croire?, soit son contenu – que croire? Nous allons dans un premier temps considérer la vigilance épistémique qui porte sur la source de l’information.

Les jugements que l’on porte sur la fiabilité d’un informateur peuvent être plus ou moins généraux ou contextualisés. On peut par exemple penser de Marie «c’est une personne de confiance», l’entendant à la fois épistémiquement et moralement, et par conséquent s’attendre à ce que Marie dise la vérité, à ce que ce qu’elle accomplisse soit moralement bon, et ainsi de suite. On peut faire confiance à quelqu’un (ou s’en méfier) sur un sujet particulier dans des circonstances spécifiques: par exemple, on peut de manière générale faire confiance à Julie pour tout ce qui touche aux estampes japonaises, mais rester vigilant lorsqu’elle en vend une elle-même. La confiance peut certes être allouée de ces deux manières; mais en quoi celles-ci diffèrent-elles d’un point de vue normatif?

Un informateur fiable doit satisfaire deux conditions: il doit être compétent et il doit être bienveillant. C’est-à-dire qu’il doit posséder de l’information authentique (par opposition à de l’information erronée ou à un manque total d’information) et qu’il doit avoir l’intention de partager cette information authentique avec son auditoire (par opposition à produire des assertions qu’il considère lui-même comme fausses, que ce soit par indifférence ou malveillance). Evidemment, le même informateur peut être compétent sur un sujet mais pas sur d’autres, et bienveillant envers un certain auditoire dans certaines circonstances, mais pas envers un autre auditoire dans d’autres circonstances. Cela suggère que la confiance devrait être ← 36 | 37 → accordée aux informateurs en fonction des sujets, des auditoires et des circonstances. Cependant, une telle précision dans le calibrage de la confiance est une opération coûteuse en termes cognitifs et, s’il arrive souvent que les gens soient disposés à payer ce coût, ils s’appuient plus communément sur des impressions générales de compétence, de bienveillance et de fiabilité globale beaucoup moins coûteuses.

Une illustration frappante de la tendance que nous avons à former des jugements généraux de confiance sur la base d’indices très limités est fournie par une étude de Willis et Todorov (2006). Dans cette expérience, on montrait aux participants des photographies de visages, soit pendant 100 millisecondes seulement, soit sans limite de temps, puis on leur demandait d’évaluer la fiabilité, la compétence, le caractère sympathique, l’agressivité et l’attrait des personnes dont ils avaient vu les visages. Contrairement aux attentes des auteurs, la corrélation entre jugements avec et sans limite de temps n’était pas plus élevée pour l’attrait (.69) – qui est, après tout, une propriété de l’apparence d’une personne – que pour la confiance (.73), alors que les corrélations pour l’agressivité et la compétence restaient relativement basses (.52). Il est permis de douter que de tels jugements de confiance, formés en une fraction de seconde, soient basés sur quoi que ce soit de valable, mais ce que cette expérience suggère fortement, c’est que le fait de rechercher des signes de fiabilité est l’une des premières choses que l’on fait lorsqu’on voit un nouveau visage (voir aussi Ybarra et al. 2001).

Beaucoup de travaux en psychologie sociale suggèrent que le comportement des gens est, pour une part significative, déterminé non pas par leur personnalité,mais par la situation (Ross & Nisbett 1991, Gilbert & Malone 1995). Si tel est le cas, le fait de juger que quelqu’un est généralement digne de confiance pourrait relever d’une telle «erreur fondamentale d’attribution» (Ross 1977): à savoir, de la tendance à surestimer le rôle des dispositions psychologiques et à sous-estimer les facteurs situationnels lorsqu’il s’agit d’expliquer ou de prédire le comportement de quelqu’un. Mais même sans avoir recours à une psychologie des traits de caractère, il est possible de défendre l’idée que certaines personnes sont généralement plus dignes de confiance que d’autres, et qu’elles sont dans une certaine mesure reconnaissables comme telles.

Si nous interagissons continuellement avec les mêmes personnes, mal les informer lorsque cela sert notre intérêt immédiat est potentiellement ← 37 | 38 → dommageable pour notre réputation, et par conséquent coûteux sur le long terme. A l’inverse, faire de notre mieux pour être systématiquement digne de confiance peut s’avérer parfois coûteux sur le court terme, mais bénéfique sur le long terme. La pondération des coûts à court terme et des bénéfices à long terme dans le choix de se comporter de façon à mériter la confiance d’autrui peut différer d’une personne à l’autre selon, par exemple, l’importance qu’elles accordent au futur plus ou moins éloigné (Ainslie 2001), ce qui peut entraîner des choix différents en la matière. Si les humains diffèrent en effet dans le degré auquel ils sont disposés à payer le coût de leur propre fiabilité, il est possible que des jugements généraux sur la crédibilité relative des uns et des autres ne soient pas sans fondement. Les gens qui optent pour une politique de fiabilité systématique récolteraient ainsi les bénéfices d’une réputation de personne hautement fiable. Une telle réputation, nourrie par une connaissance partagée de leurs actions passées, peut de surcroît être soulignée au quotidien par leur comportement et leur attitude.

Il est donc possible de projeter une image de crédibilité (que cette image soit elle-même crédible ou pas). Est-il également possible, à l’inverse, d’agir de façon à tromper autrui, en mentant par exemple, sans n’en laisser rien paraître? La littérature sur la détection du mensonge est substantielle (voir Ekman 2001, pour un panorama); elle montre, en deux mots, que le fait de détecter les mensonges sur la base d’indices comportementaux non-verbaux est une chose difficile (Vrij 2000, Malone & DePaulo 2001, Bond & DePaulo 2006), même pour des gens entraînés à la tâche (par ex. DePaulo & Pfeifer 1986, Ekman & O’Sullivan 1991, Mann, Vrij & Bull 2004, Vrij 2004), et même lorsque les menteurs sont loin d’être des experts – par exemple, lorsque ce sont des enfants de trois ans (Lewis et al. 1989, Talwar & Lee 2002). L’aptitude à mentir peut s’avérer fort avantageuse, mais uniquement si le menteur ne se trahit pas lui-même. Quelles que soient les contributions respectives des dispositions héritées de l’évolution et des compétences acquises, les menteurs semblent à même de maintenir les signes comportementaux de malhonnêteté à un strict minimum.

Afin de mieux comprendre les mécanismes de vigilance épistémique qui portent sur la source, nous avons un besoin urgent non pas de plus de recherches empiriques sur la détection du mensonge ni sur les jugements généraux de crédibilité, mais plutôt de davantage d’études sur la façon dont ← 38 | 39 → la confiance et la méfiance sont calibrées par rapport à la situation, aux interlocuteurs et au thème de la communication. Deux types distincts de considérations devraient ici être pris en compte: la compétence de l’émetteur sur le sujet dont il parle d’une part, et sa motivation à communiquer d’autre part. La compétence et l’honnêteté sont toutes deux des conditions de crédibilité. Il existe une littérature considérable, indirectement pertinente pour l’étude de la vigilance épistémique dans la communication ordinaire, par exemple en histoire et sociologie des sciences (par ex. Shapin 1994), en anthropologie du droit (par ex. Hutchins 1980, Rosen 1989), dans l’étude linguistique des expressions évidentielles (par ex. Chafe & Nichols 1986, Ifantidou 2001, Aikhenvald 2004), ou en psychologie sociale de l’influence et de la persuasion (par ex. Chaiken 1980, Petty et Cacioppo 1986). Cependant, de plus amples recherches sur la vigilance épistémique dans la communication quotidienne doivent encore être entreprises.

Dans la section suivante, nous nous tournons vers le développement de la vigilance épistémique au cours de l’enfance, thème qui est non seulement intéressant en lui-même, mais qui nous aidera en outre à séparer les différentes dimensions de la vigilance épistémique vis-à-vis de la source de l’information.

5.Le développement de la vigilance épistémique (et de la lecture de l’esprit)6

Les études sur le développement de la vigilance épistémique chez l’enfant se multiplient (voir par ex. Koenig & Harris 2007, Heyman 2008, Clément 2010, Corriveau & Harris 2010, Nurmsoo et al. 2010). Ces études montrent que même à un âge très précoce, les enfants n’attribuent pas un degré de fiabilité égal à toutes les informations communiquées. A 16 mois, ils remarquent ← 39 | 40 → l’emploi inapproprié d’un mot familier (Koenig & Echols 2003). A 2 ans, ils essaient souvent de contredire et de corriger des affirmations qu’ils croient fausses (par ex. Pea 1982). Ces recherches remettent en cause l’idée répandue selon laquelle les jeunes enfants sont simplement crédules.

Les jeunes enfants disposent-ils de ressources cognitives suffisantes pour accorder leur confiance sur la base d’informations pertinentes quant à la fiabilité d’un informateur? Lorsqu’ils ont le choix, les enfants de 3 ans semblent préférer des informateurs qui sont à la fois bienveillants (Mascaro & Sperber 2009) et compétents (par ex. Clément et al. 2004). Lorsqu’ils préfèrent des informateurs bienveillants, ils tiennent compte non seulement de leurs propres observations, mais aussi de ce qu’on leur a dit du caractère moral de l’informateur (Mascaro & Sperber 2009), et lorsqu’ils préfèrent des informateurs compétents, ils tiennent compte de leur exactitude passée (par ex. Clément et al. 2004, Birch et al. 2008, Scofield & Behrend 2008). A l’âge de 4 ans, non seulement ils ont des préférences appropriées pour les informateurs fiables, mais ils font aussi preuve d’une certaine compréhension de ce que la fiabilité implique. Par exemple, ils peuvent prédire qu’un informateur malhonnête va fournir une information fausse (Couillard & Woodward 1999), ou qu’un informateur incompétent sera moins fiable (Call & Tomasello 1999, Lampinen & Smith 1995, Clément et al. 2004). De plus, ils font de telles prédictions malgré le fait que les informateurs non fiables se présentent typiquement comme bienveillants et compétents.

La vigilance épistémique précoce exploite certaines compétences utilisées dans la sélection de partenaires pour la coopération, parmi lesquelles l’évaluation morale, le suivi de la fiabilité et la vigilance envers les tricheurs (par ex. Cosmides & Tooby 2005, Harris & Núñez 1996). L’exercice de la vigilance épistémique non seulement s’appuie sur certains de ces processus qui sous-tendent la sélection de partenaires coopératifs, mais contribue aussi à leur efficacité. En particulier, cet exercice contribue à la fiabilité relative des systèmes de réputation, un outil fondamental pour la sélection de partenaires coopératifs (par ex. Alexander 1987, Nowak & Sigmund 1998, Milinski et al. 2002 – mais voir ci-après). Par exemple, à mesure que les enfants de 4 et 5 ans deviennent plus vigilants envers la tromperie (Couillard & Woodward 1999, Mascaro & Sperber 2009), ils deviennent également plus vigilants envers l’hypocrisie dans la présentation de soi (Peskin 1996, Mills & Keil 2005, Gee & Heyman 2007). ← 40 | 41 →

La vigilance épistémique dirigée vers les informateurs génère une variété d’attitudes épistémiques (acceptation, doute ou rejet, par exemple) envers les contenus communiqués par ces informateurs. Des expériences tendent à montrer que les enfants de 3 ans reconnaissent des attitudes comme l’approbation ou le doute (Fusaro & Harris 2008), et qu’ils ont également conscience du fait qu’une affirmation peut être plus ou moins forte (Sabbagh & Baldwin 2001, Birch et al. 2008, Matsui et al. 2009). Les enfants sont capables d’interpréter des commentaires sur la fiabilité de ce qui est communiqué (par ex. Fusaro & Harris 2008, Clément et al. 2004). Ils peuvent par ce moyen profiter des jugements épistémiques d’autrui et enrichir leur propre compréhension épistémique ainsi que leur capacité de vigilance épistémique.

Les enfants semblent aussi disposer d’une certaine capacité à comparer la fiabilité de différentes sources d’information. Dans des expériences s’inspirant des études célèbres de Salomon Asch sur le conformisme (Asch 1956), par exemple, on s’aperçoit qu’une majorité d’enfants de 3 ans font confiance à leurs propres perceptions plutôt qu’à une série cohérente de jugements erronés produits par des comparses des expérimentateurs (Corriveau & Harris 2010; mais voir Walker & Andrade 1996). Les enfants tiennent compte de l’accès à l’information qu’ont les informateurs (par ex. Robinson & Whitcombe 2003, Robinson et al. 2008, Nurmsoo et Robinson 2009). Ils attribuent aux autres des dispositions durables de plus ou moins grande fiabilité (par ex. Koenig & Harris 2007, Birch et al. 2009, Corriveau & Harris 2009) et il s’appuient ce faisant sur leur compréhension du fait que différentes personnes sont plus ou moins bien informées – une composante de la psychologie naïve de l’enfant sur laquelle on n’a pas enquêté en profondeur (mais voir Lutz & Keil 2002). La vigilance épistémique des enfants a donc recours à différents aspects de leur épistémologie naïve (sur lesquels, du coup, elle nous informe): leur compréhension du fait que l’accès à l’information, la force des croyances, le fait d’être bien informé et l’engagement vis-à-vis des assertions peuvent tous être plus ou moins forts.

Lorsque la vigilance épistémique est dirigée vers le risque de tromperie, elle requiert une compréhension non seulement des attitudes épistémiques de l’émetteur, mais également de ses intentions, y compris l’intention d’induire de fausses croyances chez son auditoire. Cela demande une lecture de l’esprit relativement sophistiquée, qui fait usage de métareprésentations ← 41 | 42 → d’ordre supérieur (‘Elle croit que non-P mais veut me faire croire que P’ combine une attribution de croyance de premier ordre avec une attribution d’intention de deuxième ordre).

Il y a des parallèles intéressants à tirer entre le développement de la vigilance épistémique et les résultats des tâches de fausse croyance traditionnellement utilisés pour mesurer le développement de la lecture de l’esprit. On trouve des rudiments de vigilance épistémique chez les jeunes enfants, probablement même chez les bébés. Cependant, dès l’âge de 4 ans, il y a une transition majeure dans la vigilance épistémique, à la fois envers la malhonnêteté (Mascaro & Sperber 2009; voir également Couillard & Woodward 1999, Jaswal et al. 2010) et envers l’incompétence (Povinelli & DeBlois 1992, Call & Tomasello 1999, Welch-Ross 1999, Figueras-Costa & Harris 2001). A 4 ans, les enfants commencent à faire preuve d’une attention plus soutenue envers la qualité épistémique des croyances et des messages d’autrui. Ils deviennent beaucoup plus sélectifs dans leur confiance et se montrent de surcroît beaucoup plus aptes et disposés à manipuler les croyances des autres.

Une telle transition dans la vigilance épistémique se produit autour de l’âge auquel les enfants réussissent des tâches de fausse croyance standard (Wimmer & Perner 1983, Baron-Cohen et al. 1985). Jusqu’à récemment, cette convergence aurait pu être interprétée de la manière suivante: lorsque les enfants ont environ 4 ans, à la suite de l’émergence de la compréhension de ce qu’est une croyance – et une fausse croyance en particulier – ils deviennent de plus en plus conscients que d’autres personnes peuvent avoir des croyances erronées. Cette conscience constitue une base pour des formes plus matures de vigilance épistémique. Bien qu’elle soit séduisante, cette ligne d’interprétation est devenue moins plausible à la suite d’expériences récentes sur des versions non-verbales de la tâche de fausse croyance adaptée pour des bébés. Ces expériences suggèrent que dès leur seconde année, les enfants s’attendent à ce que le comportement d’un agent soit guidé par ses croyances, même lorsque celles-ci sont fausses (par ex. Onishi & Baillargeon 2005, Southgate et al. 2007, Surian et al. 2007). Si tel est le cas, les résultats robustes d’études faites avec la tâche de fausse croyance standard doivent être réinterprétés, de même que la transition, mentionnée précédemment, qui a lieu autour de l’âge de 4 ans. ← 42 | 43 →

Il est aisé d’imaginer deux réinterprétations possibles de cette transition (et une perspective complète peut émerger de ces deux interprétations). Premièrement, la capacité de réussir des tâches de fausse croyance standard et la capacité améliorée de vigilance épistémique pourraient avoir une cause commune, par exemple, un développement majeur des fonctions exécutives (par ex. Perner & Lang 2000, Carlson & Moses 2001). Deuxièmement, consécutivement à une amélioration de leur capacité de vigilance épistémique, les enfants pourraient commencer à prêter davantage attention aux aspects pertinents des tâches de fausse croyance qui sont généralement ignorés à un plus jeune âge. A mesure qu’ils deviennent de plus en plus conscients que d’autres personnes peuvent entretenir des croyances erronées (résultant d’une malchance épistémique ou de tromperie), ils deviennent également meilleurs dans la prise en compte de ces croyances erronées lorsqu’ils cherchent à prédire le comportement d’autrui. Dans ce cas, leur point de vue n’est pas tant celui d’un observateur, mais plutôt celui d’une potentielle victime de désinformation, celui d’un auteur potentiel de manipulation, ou celui d’un coopérateur doté d’une préférence pour des partenaires bien informés.

Les recherches actuelles sur la vigilance épistémique offrent par conséquent des éclairages intéressants sur la nature et le développement des capacités liées à la théorie de l’esprit. Elles montrent que la vigilance épistémique convoque une variété de mécanismes cognitifs ayant des trajectoires développementales différentes, y compris le sens moral relatif à la reconnaissance de partenaires potentiels de coopération, l’épistémologie naïve et la lecture de l’esprit.

6.Vigilance envers le contenu

Comme nous l’avons vu dans les deux sections précédentes, la vigilance épistémique peut être dirigée vers la source de l’information communiquée: l’émetteur est-il compétent et honnête? La vigilance épistémique peut également être dirigée vers le contenu de la communication, qui peut être plus ou moins crédible indépendamment de sa source. Dans cette section et ← 43 | 44 → dans la suivante, nous considérons la vigilance épistémique dirigée vers le contenu de la communication.

Certains contenus sont intrinsèquement crédibles, même s’ils proviennent d’une source non fiable. Les tautologies, les preuves logiques, les truismes et les contenus dont la vérité est mise en évidence par l’acte de communication lui-même (par exemple, dire ‘I am able to say a few words in English’) en sont des exemples. D’autres contenus sont intrinsèquement non crédibles même s’ils proviennent d’une source fiable. Les contradictions logiques, les faussetés flagrantes, et les contenus dont la fausseté est mise en évidence par l’acte de communication lui-même (par exemple, dire ‘Je suis muet’) en sont des exemples.

Dans la plupart des cas, cependant, la vigilance épistémique dirigée vers le contenu communiqué doit s’appuyer sur davantage que les propriétés logiques inhérentes des énoncés, le savoir indubitable d’arrière-plan ou le fait que l’énoncé soit en mesure de confirmer ou d’infirmer son propre contenu. La crédibilité de l’information nouvellement communiquée doit être évaluée par rapport à des croyances d’arrière-plan qui sont elles-mêmes sujettes à révision. Evidemment, les nouvelles informations ne peuvent pas être évaluées relativement à l’intégralité de notre ‘encyclopédie mentale’. Pour maintenir un coût et un temps de traitement dans des limites acceptables, seul un très petit sous-ensemble de cette encyclopédie, étroitement lié à la nouvelle information, peut être amené à jouer un rôle dans son évaluation. En effet, l’activation systématique de ne serait-ce qu’un sous-ensemble restreint d’information d’arrière-plan uniquement dans le but d’évaluer la crédibilité du contenu communiqué serait déjà sensiblement coûteuse en termes de traitement. Nous défendrons l’idée qu’une telle activation ad hoc n’est pas nécessaire.

D’après la théorie de la pertinence (Sperber & Wilson 1995, 2005, Carston 2002, Wilson & Sperber 2004), le processus de compréhension lui-même suppose l’activation automatique d’informations d’arrière-plan dans un contexte dans lequel l’énoncé peut être interprété comme pertinent. Selon cette hypothèse, les coûts de traitement tendent à être proportionnels au bénéfice cognitif que le système en tire. Nous soutenons que les mêmes informations d’arrière-plan qui sont utilisées dans la recherche de pertinence peuvent également générer une évaluation épistémique certes imparfaite, mais d’un rapport coût/bénéfice adéquat. De plus, comme nous nous ← 44 | 45 → apprêtons à le montrer, la recherche de pertinence implique des étapes inférentielles qui fournissent la base de cette évaluation.

Sperber & Wilson (1995) distinguent trois types d’effets contextuels faisant qu’une nouvelle information peut s’avérer pertinente dans un contexte de croyances préalables. (i) Lorsque la nouvelle information et les croyances contextuelles sont combinées en tant que prémisses, elles peuvent générer des ‘implications contextuelles’ (implications que l’on ne peut dériver ni du contexte seul ni de la nouvelle information prise isolément) qui seront acceptées comme des nouvelles croyances. (ii) Le degré de confiance de l’individu dans ces croyances contextuellement activées peut croître ou décroître à la lumière de la nouvelle information. (iii) L’information nouvelle peut contredire des croyances activées contextuellement et cela peut déclencher leur révision. Les trois types d’effets contextuels (acceptation de nouvelles croyances contextuellement impliquées, modification de la force des croyances et révision de croyances) tendent à contribuer à l’amélioration des connaissances de l’individu.

Qu’arrive-t-il lorsque le résultat du traitement d’une nouvelle information dans un contexte de croyances existant prend la forme d’une contradiction? Lorsque la nouvelle information a été acquise de manière perceptuelle, il est généralement justifié de faire davantage confiance à ses propres perceptions qu’à sa mémoire et d’adapter ses croyances en conséquence. Par exemple, si vous croyiez que Julie était dans le jardin et que vous l’entendez parler dans le salon, vous mettrez automatiquement à jour votre croyance au sujet de l’endroit où Julie se trouve. Un tel mécanisme de mise à jour automatique est probablement la seule forme de révision de croyance présente chez les espèces animales non-humaines.

Lorsque la nouvelle information a été communiquée, en revanche, trois possibilités sont à envisager. (i) Si la source n’est pas considérée comme une source crédible, la nouvelle information peut simplement être rejetée comme si elle était fausse, et donc non pertinente: tel est le cas, par exemple, lorsqu’un ivrogne dans la rue vous dit qu’il y a un éléphant blanc au coin de la rue. (ii) Si la source jouit d’une certaine autorité et que les croyances d’arrière-plan qui sont en conflit avec ce que la source vous a dit ne sont pas entretenues avec un degré élevé de conviction, celles-ci peuvent être directement corrigées: par exemple, en regardant Gilles, vous aviez pensé qu’il avait tout juste la vingtaine; or il vous dit qu’il a 29 ans. Vous acceptez ← 45 | 46 → l’information comme vraie et pertinente – pertinente en premier lieu parce qu’elle vous permet de corriger vos croyances erronées. (iii) Si vous faites confiance à la source et à vos propres croyances, alors la révision de croyances devient inévitable. Vous devez réviser soit vos croyances d’arrièreplan, soit votre croyance que la source est crédible, même si le choix entre les deux options n’est pas immédiatement transparent. Par exemple, il vous semblait que Gilles avait tout juste la vingtaine; Lucie vous dit qu’il doit être dans la trentaine. Devriez-vous conserver votre propre estimation ou faire confiance à celle de Lucie?

Les choses ne sont pas si différentes lorsque le résultat du traitement de l’information communiquée par une source à laquelle vous faites confiance n’est pas une inconsistance logique, mais une incohérence empirique: c’est-à-dire, lorsque la nouvelle information est incompatible avec certaines de vos croyances d’arrière-plan, étant donnée la présence d’autres croyances d’arrière-plan qui sont davantage enracinées. Par exemple, vous croyiez que Gilles était docteur; Lucie vous informe qu’il n’a que 22 ans. Vous êtes convaincu que, pour devenir docteur, il faut de nombreuses années d’études, et qu’il est par conséquent presque impossible d’être docteur à 22 ans. Vous devriez donc soit refuser de croire Lucie, soit abandonner la croyance que Gilles est un docteur. Afin de préserver la cohérence de vos croyances, vous devez réduire soit votre confiance dans la source, soit votre confiance dans vos croyances les moins fermes.

Le rôle de la vérification de cohérence dans la révision de croyances a été souligné par des philosophes comme Gilbert Harman (1986) et Paul Thagard (2002). Ici, cependant, nous envisageons la vérification de la cohérence non pas comme une procédure épistémique générale de révision de croyances, mais comme un mécanisme de vigilance épistémique dirigé vers le contenu communiqué, mécanisme qui tire parti des informations d’arrière-plan activées en quantité limitée par la procédure de compréhension elle-même.

Ne serait-ce que pour des raisons d’efficacité, on pourrait s’attendre à ce que le type de vérification de cohérence utilisé dans la vigilance épistémique ne requière rien de plus que les révisions minimales nécessaires à ré-établir la cohérence. Dans certains cas, la cohérence est rétablie plus facilement par une méfiance envers la source, et dans d’autres en révisant certaines de nos propres croyances d’arrière-plan. A moins qu’une option ne domine cette compétition au point d’inhiber la conscience d’alternatives, c’est typiquement ← 46 | 47 → une décision consciente qui résout le problème. Le fait de prendre une telle décision implique une pensée d’ordre supérieur, ou métareprésentationnelle, au sujet de nos propres croyances.

Ce que nous suggérons, c’est que la recherche d’une interprétation pertinente, qui est une partie intégrante du processus de compréhension, suppose automatiquement la génération d’inférences susceptibles de faire apparaître des inconsistances ou des incohérences pertinentes pour l’évaluation épistémique. Lorsque de telles inconsistances ou incohérences se produisent, elles déclenchent une procédure entièrement dédiée à une telle évaluation. Il n’en reste pas moins que la compréhension, la recherche de pertinence et l’évaluation épistémique sont des aspects interreliés d’un unique processus global dont le but est de tirer le meilleur parti de l’information communiquée.

7.Vigilance épistémique et raisonnement

Considérons maintenant les choses du point de vue de l’émetteur. Supposons qu’il soupçonne que son interlocuteur n’acceptera ce qu’il dit sur la seule base de la confiance et qu’il va probablement exercer une certaine vigilance épistémique en vérifiant dans quelle mesure l’énoncé qu’il traite est cohérent avec ses propres croyances. La vigilance active du destinataire constitue un obstacle pour l’accomplissement du but de l’émetteur. Pourtant, du point de vue de ce dernier, un destinataire vigilant vaut toujours mieux qu’un destinataire qui rejette d’office son témoignage. Et, effectivement, le fait que le destinataire s’appuie sur la cohérence en tant que critère d’acceptation ou de rejet de son énoncé peut offrir au locuteur la possibilité de convaincre son interlocuteur en réussissant à vaincre ses défenses.

Nous avons suggéré que la vérification de la cohérence prend place dans le contexte restreint des croyances utilisées dans la recherche d’une interprétation pertinente de l’énoncé. Mais le destinataire est susceptible d’avoir d’autres croyances moins activées qui auraient pu peser dans la balance en faveur de l’information qu’il est réticent à accepter, pour autant qu’il ait été en mesure d’en tenir compte. Dans ce cas, il peut valoir la peine, ← 47 | 48 → pour le locuteur, de rappeler au destinataire de telles croyances d’arrière-plan, augmentant ainsi l’acceptabilité de son énoncé. Il se peut aussi qu’il y ait d’autres informations que le destinataire accepterait sur la base de la confiance qu’il a dans le locuteur, informations qui seraient cohérentes avec son énoncé et qui le rendraient ainsi plus acceptable.

Pour illustrer notre propos, nous adaptons ci-dessous un exemple célèbre de Grice (1989: 32). André et Barbara sont à Boston et parlent de leur ami Steve:

(3)André: Steve n’a pas l’air d’avoir de petite amie en ce moment.

(4)Barbara: Il s’est rendu à de nombreuses reprises à New York dernièrement.

Barbara croit que Steve a une nouvelle petite amie, mais pressent que si elle se contentait de l’affirmer, André, qui vient d’exprimer une opinion contraire, ne serait pas convaincu. Or elle a remarqué que Steve s’est rendu à de nombreuses reprises à New York dernièrement et considère cela comme une indication que Steve a une petite amie dans cette ville. André pourrait aussi s’être rendu compte de ces visites, et même si ce n’est pas le cas, il est susceptible de croire Barbara sur parole. Une fois qu’il aura tenu compte de ces visites, la conclusion que Steve est susceptible d’avoir une petite amie pourrait devenir beaucoup plus acceptable à ses yeux.

Barbara ne cache pas qu’elle souhaite qu’André accepte sa conclusion. Bien au contraire, l’assertion selon laquelle Steve s’est rendu à de nombreuses reprises à New York récemment ne satisfera les attentes de pertinence d’André (ou les attentes de coopération, dans un sens gricéen) que dans la mesure où elle est comprise comme implicitant que Steve peut tout à fait avoir une petite amie malgré les doutes d’André. Même si André reconnaît que cette implicature fait partie du vouloir-dire de Barbara, il peut ne pas l’accepter. Ce sur quoi compte Barbara pour le convaincre, ce n’est pas la capacité d’André à comprendre son énoncé, mais sa capacité à saisir la force de l’argument dont les prémisses comprennent l’énoncé littéral et d’autres informations d’arrière-plan (au sujet des raisons probables pour lesquelles Steve s’est régulièrement rendu à New York dernièrement), et dont la conclusion est l’implicature de Barbara.

Dans un scénario légèrement différent, André lui-même remarque que Steve s’est rendu à New York à de nombreuses reprises dernièrement; mais, parce qu’il ne fait pas le rapprochement, il ajoute ‘Il n’a pas l’air d’avoir de ← 48 | 49 → petite amie ces temps-ci’. Dans ce cas, Barbara peut souligner ce rapprochement afin de l’aider à arriver à la conclusion visée en disant: ‘S’il va à New York, c’est peut-être pour y voir une petite amie’, ou ‘S’il avait une petite amie à New York, cela expliquerait ses visites’. Elle pourrait encore simplement répéter le commentaire d’André, mais avec un changement dans la tournure: ‘Il n’a PAS L’AIR d’avoir de petite amie ces temps-ci, mais il s’est rendu à de nombreuses reprises à New York dernièrement’. Des connecteurs logiques comme ‘si’ et des connecteurs discursifs comme ‘mais’, qui suggèrent des directions d’inférence, sont utilisés par la locutrice pour aider le destinataire à arriver à la conclusion souhaitée (Blakemore 1987, 2002).

Dans les deux scénarios, lorsque Barbara s’exprime de cette façon et qu’André saisit la force de son argument implicite, ils utilisent un mécanisme inférentiel sensible aux relations logiques et évidentielles entre propositions, un mécanisme qui reconnaît, plus spécifiquement, que certaines propositions fonctionnent comme des prémisses et d’autres comme des conclusions. Ce que Barbara communique, et ce qu’André est susceptible de reconnaître, c’est qu’il serait incohérent d’accepter les prémisses et de rejeter la conclusion.

L’argumentation, dans sa forme simple et largement implicite, tout comme dans sa forme plus complexe et explicite, telles que nous les avons illustrées dans les scénarios précédents, est le produit du raisonnement.7 Dans une série d’articles (Mercier & Sperber 2009, Sperber & Mercier 2012, Sperber 2001, Mercier & Sperber 2011), Hugo Mercier et Dan Sperber ont défendu l’idée que le raisonnement est un outil utilisé dans la vigilance épistémique et dans la communication avec des destinataires vigilants. Sa fonction principale est de permettre aux émetteurs de produire des arguments destinés à convaincre autrui, et aux destinataires d’évaluer des arguments de manière à être convaincus seulement lorsque cela est approprié. ← 49 | 50 →

Traditionnellement, le raisonnement est considéré comme un outil de la cognition individuelle; il est censé aider les humains à dépasser les limites de l’intuition, à acquérir des croyances plus justifiées – en particulier dans les domaines qui sont hors de la portée de la perception et de l’inférence spontanée – et à prendre de bonnes décisions (Evans & Over 1996, Kahneman 2003, Stanovich 2004). Cette vision répandue s’accommode difficilement des nombreuses données empiriques montrant que le raisonnement humain n’est pas très efficace pour remplir cette prétendue fonction. Le raisonnement ordinaire échoue dans la résolution de problèmes logiques triviaux (Evans 2002) ou lorsqu’il s’agit de contrecarrer des intuitions qui sont fondamentalement défectueuses (Denes-Raj & Epstein 1994). Il nous amène souvent à prendre de mauvaises décisions (Shafir et al. 1993, Dijksterhuis et al. 2006) et génère des résultats épistémiques médiocres (Kunda 1990). En revanche, l’intuition réussit bien, même dans des computations très complexes (par exemple Trommershauser et al. 2008, Balci et al. 2009). La prétendue fonction du raisonnement humain comme outil de cognition individuelle ne permet pas d’expliquer ses défauts évidents et un coût opératoire relativement élevé.

Les prédictions qui découlent de la ‘théorie argumentative du raisonnement’, en revanche, sont abondamment étayées par les travaux effectués dans différents domaines de la psychologie (Mercier 2011a, 2011b, 2012, Mercier & Landemore 2012, Mercier & Sperber 2011). Pour ne donner qu’un exemple, la théorie argumentative fait une prédiction qui la différencie des autres perspectives et qui est particulièrement pertinente pour l’étude de la vigilance épistémique: si la fonction du raisonnement est de trouver des arguments pour convaincre autrui, alors les arguments qu’il produit devraient soutenir la position de l’émetteur et, dans les circonstances appropriées, remettre en cause la position du récepteur. En d’autres termes, le raisonnement devrait exhiber un fort biais de confirmation. Et effectivement, ce biais consistant à «chercher ou interpréter des preuves de manière biaisée en faveur des croyances et des attentes existantes ou d’une hypothèse préalable» (Nickerson 1998: 175) a été documenté dans d’innombrables expériences de psychologie, ainsi que par des observations en milieu naturel (voir Nickerson 1998 pour un passage en revue). Pour les modèles classiques du raisonnement, le fait qu’un tel biais soit aussi prévalent et robuste – ou même le seul fait que ce biais existe – est déroutant, et des limites cognitives ← 50 | 51 → ou motivationnelles ont été invoquées pour tenter de résoudre ce problème. Il y a cependant plusieurs arguments contre ces tentatives de résolution. D’abord, le biais de confirmation semble restreint au raisonnement et ne pas se produire dans les jugements intuitifs (Mercier & Sperber 2011). Ensuite, les tentatives de dépassement de ces prétendus problèmes cognitifs ou motivationnels sont à peu près sans effet (Camerer & Hogarth 1999, Willingham 2008). Cela suggère que le biais de confirmation n’est pas un défaut du raisonnement, mais plutôt une propriété prévisible d’un mécanisme conçu pour persuader autrui par l’usage d’arguments.

Il est intéressant de noter que le biais de confirmation n’engendre pas nécessairement de performances médiocres d’un point de vue logique et normatif. Lorsque des personnes avec des points de vue différents partagent un intérêt authentique dans l’obtention d’une conclusion correcte, le biais de confirmation rend possible une division efficace du travail cognitif. Chaque individu recherche uniquement des raisons soutenant sa propre position, tout en exerçant une vigilance sur les arguments proposés par les autres et en les évaluant avec attention. Cela requiert bien moins de travail qu’une recherche exhaustive des arguments pour et contre chaque position présente dans le groupe. A l’inverse, lorsque les effets du biais de confirmation ne sont pas contrôlés par des personnes d’avis différent, le raisonnement devient risqué du point de vue épistémique et peut rendre les individus sur-confiants quant à leurs propres croyances (Koriat et al. 1980) ou les amener à adopter des versions plus extrêmes de ces croyances (Tesser 1978). Dans des discussions de groupe dans lesquelles tous les participants partagent le même point de vue et débattent non pas les uns contre les autres, mais plutôt contre des adversaires absents, un effet de polarisation, susceptible de mener au fanatisme (Sunstein 2002) est communément observé.

Nous ne disons pas que le raisonnement a lieu uniquement dans des contextes communicatifs. Il est clair qu’il se produit également dans la pensée solitaire et qu’il joue un rôle important dans la révision de croyances. Nous nous risquons cependant à spéculer que le raisonnement dans des contextes non communicatifs est une extension d’une composante basique de la capacité de vigilance épistémique envers l’information communiquée, et qu’il implique typiquement un contexte communicatif anticipé ou imaginé. Dans cette perspective, le penseur solitaire est en fait celui qui considère des affirmations auxquelles il pourrait être confronté ou dont il pourrait vouloir ← 51 | 52 → convaincre autrui, ou celui qui engage un dialogue avec lui-même, dialogue dans lequel il alterne entre différents points de vue. Les données expérimentales pourront aider à confirmer ou à infirmer cette hypothèse: par exemple, nous prédisons que le fait d’encourager ou d’inhiber l’anticipation ou l’imagination d’un tel contexte faciliterait, ou, au contraire, entraverait le raisonnement.

8.Vigilance épistémique à l’échelle d’une population

Nous avons jusqu’à présent considéré le rôle de filtre joué par la vigilance épistémique dans le flux d’informations propre aux interactions en face à face. Dans cette section, nous allons maintenant nous intéresser au flux d’informations à l’échelle d’une population, comme c’est le cas par exemple pour l’émergence de bonnes ou de mauvaises réputations ou de la propagation de croyances religieuses. Des informations de ce type, qui se propagent dans une population par transmission sociale, sont connues sous le nom ‘d’informations culturelles’. Le succès social, qui est pour ainsi dire une propriété définitoire de l’information culturelle, pourrait suggérer que celle-ci est acceptée sans aucun contrôle critique (mis à part dans des cas de conflit culturel). Nous défendrons cependant l’idée que dans ces cas la vigilance épistémique est également à l’œuvre, bien qu’elle requière des développements culturels et institutionnels appropriés pour relever les défis épistémiques posés par l’information culturelle.

Aucun acte de communication entre humains, même si sa pertinence pour les interlocuteurs au moment où il a lieu n’est que locale, n’est totalement déconnecté du flux d’informations du groupe social dans son entier. La communication humaine a toujours recours à des éléments culturels. Ces recours peuvent être explicites, comme lorsque André dit à Barbara ‘Le champagne, c’est cher’, en lui rappelant une hypothèse culturellement partagée dans leur milieu et qu’il considère pertinente dans les circonstances. Ces recours peuvent être implicites, comme lorsqu’André dit à Barbara, dans un autre de nos exemples, ‘Steve n’a pas l’air d’avoir de petite amie en ce moment’. Même si la remarque d’André a une pertinence locale et assez ← 52 | 53 → limitée, elle implicite des hypothèses culturellement partagées sur ce que l’on peut attendre d’un célibataire comme Steve, sans quoi sa remarque ne serait pas pertinente au sens où il le désirait. De nombreuses hypothèses culturelles sont distribuées de cette façon, pas tant – voire, dans certains cas, pas du tout – en étant directement assertées, mais en étant utilisées comme des prémisses implicites dans un grand nombre d’actes communicatifs tels que l’énoncé d’André.

Exerçons-nous notre vigilance épistémique dans le cas de contenus culturellement transmis, et si oui, comment? Lorsque de tels contenus sont communiqués, explicitement ou implicitement, les émetteurs utilisent leur propre autorité individuelle pas tant pour endosser le contenu en question que pour se porter garants de son statut d’hypothèse culturelle communément acceptée. Lorsqu’André dit que le champagne est cher, ou implicite qu’il serait normal que Steve ait une petite amie, il communique que ces contenus sont acceptés dans son milieu et celui de Barbara. Si Barbara n’est pas d’accord, elle manifeste non seulement un désaccord envers André, mais également un désaccord quant à une vision communément acceptée.

Si une idée est généralement acceptée par les personnes avec lesquelles vous interagissez, n’est-ce pas là une bonne raison pour vous de l’accepter également? Il peut s’avérer modeste et prudent de se rallier aux avis des gens avec qui l’on interagit et d’accepter les idées qu’ils acceptent. N’importe quelle autre attitude pourrait compromettre la compétence culturelle et l’acceptabilité sociale d’une personne. Il est tout à fait possible que les membres d’un groupe culturel acceptent ce qu’ils prennent pour des ‘opinions acceptées’ dans ce sens pragmatique, sans devoir s’engager de manière forte ou claire sur leur contenu (Sperber 1975, 1985, Boyer 1990, Bloch 1998). D’un point de vue épistémologique, le fait qu’une idée soit largement partagée n’est pas une bonne raison de l’accepter, à moins que ceux qui l’acceptent ne l’aient acceptée indépendamment les uns des autres. C’est uniquement dans ces circonstances que le fait de savoir que chaque individu accepte cette idée pourra jouer un rôle dans nos propres raisons épistémologiques de l’adopter à notre tour. Très souvent, cependant, les gens qui acceptent (dans un sens épistémologique) des idées culturelles partagées n’ont pas de raisons indépendantes de le faire.

Souvent, l’information se propage à travers un groupe depuis une source unique et est acceptée par ceux qui se trouvent tout au long de la chaîne de ← 53 | 54 → transmission parce qu’ils font confiance à cette source plus que parce qu’ils disposent de preuves ou d’arguments en faveur du contenu. Si c’est le cas, la considération cruciale devrait être la crédibilité de la source originelle. Si chaque personne qui relaie l’information a de bonnes raisons indépendantes de faire confiance à la source, cela devrait donner aux personnes se trouvant en aval dans la chaîne de bonnes raisons de faire également confiance à la source, et par conséquent d’accepter le contenu initialement communiqué. Cependant, les raisons de croire la source ne sont généralement pas plus indépendantes les unes des autres que les raisons qu’ils ont d’accepter le contenu.

Même si nous faisons l’hypothèse forte que chaque individu situé sur la chaîne de transmission de l’information entre la source et nous-mêmes a de bonnes raisons de faire confiance à l’individu précédent dans la chaîne, ces raisons peuvent toujours être erronées; par conséquent, notre propre confiance dans la source originelle devrait diminuer à mesure que la longueur de la chaîne s’accroît. De plus, il est assez courant qu’une information dont la source n’est pas clairement identifiée soit acceptée et transmise uniquement sur la base du fait qu’elle est largement acceptée et transmise – ce qui constitue une circularité évidente. Ajoutons à ces considérations le fait que lorsqu’une idée se propage à travers une population, son contenu tend à être altéré durant le processus sans que les propagateurs n’en soient conscients (comme c’est le cas de pratiquement toutes les rumeurs et traditions – voir Sperber 1996). Dans ces cas, même s’il existait de bonnes raisons de considérer que la source originelle est crédible, cela ne fournirait aucun soutien sérieux à l’idée telle qu’elle est formulée aujourd’hui.

Dès lors, il semblerait que les humains sont simplement disposés, ou même désireux, d’accepter de l’information culturellement transmise sans exercer de vigilance épistémique à son endroit. Boyd, Richerson et Henrich ont défendu l’idée de l’évolution d’un biais psychologique conformiste en faveur de l’adoption du comportement et des croyances de la majorité des membres de sa communauté (par ex. Boyd & Richerson 1985, Henrich & Boyd 1998). Csibra & Gergely (2009) ont soutenu que les humains en général, et les enfants en particulier, sont demandeurs d’informations culturelles, et que cela pourrait les biaiser dans l’interprétation (et même la surinterprétation) de la pertinence culturelle de l’information communiquée, tout comme dans son acceptation. Une hypothèse alternative (ou peut-être ← 54 | 55 → complémentaire) voudrait que les humains exercent un degré de vigilance épistémique envers toute information communiquée, qu’elle soit locale ou culturelle, mais que leur vigilance vise primordialement l’information issue d’interactions en face à face, et non les informations propagées à plus large échelle. Par exemple, les humains pourraient être disposés à prêter attention aux problèmes soulevés par la non-indépendance des témoignages ou par des problèmes de consistance dans leur contenu lorsque ceux-ci sont flagrants, comme c’est le cas lorsqu’ils sont détectés dans des situations d’interaction en face à face, mais pas dans d’autres circonstances. A l’échelle d’une population, ces problèmes peuvent passer inaperçus même si, à la réflexion, ils sont susceptibles d’être largement répandus. Toutes sortes de croyances largement partagées dans une communauté sont susceptibles de se propager au sein d’une culture en faisant appel à la confiance individuelle en des témoignages convergents. La confiance n’est pas aveugle, mais la vigilance épistémique censée l’étayer est myope.

Il est particulièrement pertinent de considérer ici deux types de croyances typiquement culturelles: les réputations et les croyances dont le contenu est mystérieux et qui donc ne sont que partiellement comprises. Il existe une littérature abondante sur la réputation en général (par ex. Tirole 1996, Morris 1999) et sur sa pertinence vis-à-vis de la coopération et de l’épistémologie sociale (par ex. Mathew & Boyd 2009).

Le terme de ‘réputation’ est généralement compris comme dénotant une opinion positive ou négative, par exemple l’opinion selon laquelle Lisa est généreuse ou selon laquelle Jean est un menteur, opinion devenue largement acceptée dans un groupe par transmission répétée. Si un individu appartient à un groupe relativement restreint dans lequel plusieurs personnes ont une expérience directe des qualités et des défauts de Lisa, et dans lequel ces personnes peuvent exprimer et comparer leurs opinions avec une certaine liberté (par exemple par le commérage), alors le comportement de Lisa peut jouer un rôle important dans le renforcement ou dans la détérioration de sa réputation. Bien sûr, les personnes qui commèrent peuvent elles-mêmes être incompétentes ou pas tout à fait honnêtes, mais la vigilance épistémique ordinaire est pertinente pour l’évaluation à la fois des commérages et de ceux qui les propagent. Cependant, de nombreuses réputations sont propagées à plus large échelle, par des gens sans connaissances pertinentes pour l’évaluation directe de ces réputations. Lorsqu’un destinataire doit décider si ← 55 | 56 → oui ou non il croit une source d’information non familière, il peut se trouver dans la situation où il n’a aucune autre base pour prendre sa décision que sa connaissance de la réputation de la source, qu’il ne peut évaluer lui-même, et qu’il est susceptible d’accepter à défaut d’un meilleur choix. Bien trop souvent, les réputations sont des exemples d’idées qui sont acceptées et transmises purement sur la base du fait qu’elles sont largement acceptées et transmises.

Comme nous l’avons remarqué précédemment, le contenu de croyances socialement transmises est typiquement modifié au cours de leur transmission. L’une des transformations responsables de la modification des réputations est le fait qu’elles gonflent au-delà du niveau de celui des opinions typiques auxquelles on arrive individuellement. Lorsque des autorités épistémiques – leaders religieux, gourous, maîtres à penser – obtiennent de telles réputations artificiellement élevées, les gens qui sont dès lors plus enclins à s’en remettre à ces autorités qu’à des sources dont ils ont directement évalué la crédibilité peuvent se trouver dans le dilemme suivant: s’ils devaient évaluer les déclarations de ces sources (par exemple ‘Marie était et est restée vierge lorsqu’elle a accouché’ ou la déclaration de Lacan selon laquelle ‘il n’y a pas de rapport sexuel’) en termes de cohérence vis-à-vis de leurs croyances existantes, ils les rejetteraient. Mais cela les amènerait ensuite à remettre en question leur acceptation de l’autorité de la source. Une solution répandue à ce problème consiste à engager une variante de ‘l’interprétation charitable’ davidsonienne, et ‘d’optimiser l’accord’ non pas en fournissant une interprétation claire et acceptable de ces déclarations, mais en s’en remettant aux autorités (ou aux interprètes autorisés) pour l’interprétation appropriée, et par conséquent d’accepter une idée seulement comprise à moitié ou ‘semi-propositionnelle’ (Sperber 1985, 1997, 2010). La plupart des croyances religieuses sont des exemples typiques de ce genre de croyance, dont le contenu est en partie mystérieux pour les croyants eux-mêmes (Bloch 1998, Boyer 2001).

Pour l’instant, l’image que nous avons esquissée de la vigilance épistémique à l’échelle d’une population est peu réjouissante. Les mécanismes de vigilance épistémique ne sont pas calibrés pour le filtrage d’informations transmises à si grande échelle. Même si nous avons raison de considérer que ces mécanismes existent, ils n’empêchent pas des idées erronées, des réputations non méritées ou des croyances creuses d’envahir ← 56 | 57 → des populations entières. En revanche, nous avons fait remarquer qu’il est important de ne pas conclure du fait que les gens sont sérieusement, même passionnément, engagés sur certaines idées et qu’ils attendent des autres qu’ils soient similairement engagés, que l’engagement en question est clairement épistémique. Il peut arriver que le contenu des idées vous importe moins que de savoir avec qui vous les partagez dans la mesure où des idées partagées peuvent aider à définir des identités de groupe. Lorsque ce qui importe est le partage, des contenus qui se prêtent sans aucun problème à une évaluation épistémique risquent soit de soulever des objections dans le groupe social visé, soit d’être trop facilement partagés au-delà de ce groupe. Par conséquent, il est possible que des contenus semi-propositionnels qui sont acceptés sans aucun problème par le groupe en question jouissent d’un succès culturel inversement proportionnel à leur valeur épistémique.

Jusqu’à présent, nous avons seulement considéré les effets de la vigilance ordinaire individuelle exercée à l’échelle d’une population. Cependant, la vigilance épistémique peut prendre une forme institutionnelle. Certaines de ces institutions aident à protéger les autorités établies ou à imposer un dogme, et sont par conséquent préjudiciables à de véritables buts épistémiques. De telles formes de vigilance hégémonique ou dogmatique ne sont pas stricto sensu épistémiques. A l’inverse, d’autres formes institutionnelles de vigilance épistémique authentique peuvent fournir un meilleur filtrage épistémique que le seul effet cumulatif de la vigilance spontanée exercée par les individus.

Dans un certain nombre de domaines, il existe des procédures institutionnelles qui ont pour objectif d’évaluer la compétence des individus, qui rendent ces évaluations publiques, au moyen d’une forme de certification, et qui sanctionnent toute prétention frauduleuse à être ainsi certifié. Les docteurs, professeurs, juges, géomètres, comptables, prêtres, et bien d’autres encore, sont généralement tenus pour experts dans leur domaine parce qu’ils ont fourni des preuves solides de leur expertise à des experts encore mieux qualifiés qu’eux. Bien sûr, ces procédures peuvent s’avérer inadéquates ou corrompues, et le domaine peut lui-même être criblé d’erreurs; il n’en reste pas moins que de telles procédures fournissent des indications claires et aisément accessibles quant à l’expertise d’un individu.

Lorsqu’on analyse la façon dont l’information est évaluée, filtrée et, par la même occasion, transformée à l’échelle de la population, il est important ← 57 | 58 → d’étudier la vigilance envers le contenu tout autant que la vigilance envers la source. Nous avons suggéré plus haut que la vigilance envers le contenu est typiquement exercée à travers le débat et l’argumentation, et qu’elle peut donner lieu à une sorte de division spontanée du travail cognitif. Une telle division du travail peut elle-même être organisée culturellement et prendre des formes institutionnelles variées. Les institutions judiciaires fournissent de tels exemples à travers, entre autres, la conception de nombreuses règles et procédures destinées à établir les faits par l’examen des preuves, l’interrogation de témoins et les débats entre parties adverses. L’organisation institutionnelle de la vigilance épistémique n’est nulle part plus évidente que dans les sciences, au sein desquelles les hypothèses fondées sur des observations ou des théories sont évaluées de façon critique via des processus sociaux comme la discussion en laboratoire, les ateliers de recherche, les conférences et l’examen par les pairs dans des revues à comité de lecture. La fiabilité d’une revue est elle-même évaluée par des classements, et ainsi de suite (Goldman 1999).

Les mécanismes sociaux de vigilance envers la source interagissent avec ceux qui portent sur le contenu de plusieurs manières. Dans les procédures judiciaires, par exemple, la réputation des témoins est minutieusement examinée de façon à renforcer ou affaiblir leur témoignage. Dans les sciences, l’examen par les pairs est conçu pour être exclusivement orienté vers le contenu, mais il est trop souvent influencé par la réputation préalable des auteurs (même si l’évaluation à l’aveugle est censée supprimer cette influence), et le résultat de cet examen affecte à son tour la réputation de l’auteur. La certification d’une expertise, par exemple l’octroi d’un doctorat, implique généralement des évaluations complexes et multiples de la part d’enseignants et d’examinateurs au cours d’échanges avec le candidat, ainsi qu’entre les experts; ces évaluations sont compilées par des institutions éducatives qui délivrent finalement un label de réputation, le ‘doctorat’, destiné à un usage public.

Nous ne pouvons ici faire guère plus que de relever certains des problèmes soulevés par les mécanismes sociaux de vigilance épistémique. Notre objectif principal dans cette démarche est de suggérer que ces mécanismes sociaux, dans une large mesure, sont l’articulation de mécanismes psychologiques liés par des chaînes de communication et, dans ces certains cas, par un modelage institutionnel (Sperber 1996). Dans ces ← 58 | 59 → articulations à l’échelle de la population, les mécanismes psychologiques se combinent avec des artefacts cognitifs (par exemple des instruments de mesure), des techniques (comme des tests statistiques de confiance) et des procédures (le contre-interrogatoire) pour générer des systèmes distribués d’évaluation épistémique (Heintz 2006) qui doivent être considérés comme un type spécial de système cognitif distribué (Hutchins 1996).

La façon dont les humains s’appuient sur des systèmes distribués d’évaluation pose une nouvelle version du problème de Reid et de Hume sur la façon dont on peut justifier notre confiance dans le témoignage. Cela est particulièrement vrai dans le cas des nouveaux systèmes d’évaluation sans lesquels nous serions incapables d’utiliser Internet. Google en est un exemple saillant. Google n’est pas seulement un moteur de recherche: il est aussi utilisé comme un moteur d’évaluation épistémique. Il représente de manière implicite, sous la forme d’un classement, la valeur épistémique relative des documents trouvés en ligne à la suite d’une recherche. Plus la position du document est élevée dans le classement, plus celui-ci est susceptible de contenir des informations pertinentes et crédibles. L’une des méthodes de production d’un tel classement implique le calcul du nombre de liens, vers un document donné, qui proviennent d’autres sites web, et la pondération de ce nombre par rapport à l’importance relative de ces sites (qui est elle-même calculée sur la base du nombre de liens entrants en provenance d’autres sites). L’idée générale qui sous-tend ce processus est que le fait de créer un lien vers un document est un jugement implicite de sa valeur. Le processus compile ces jugements dans une indication accessible: sa position dans un classement sur une page de résultats.

Pourquoi, dès lors, les gens se fient-ils à un moteur de recherche comme Google même s’ils ne savent que très peu, voire rien, de la façon dont il génère ses résultats? Et à quel point sont-ils justifiés à le faire? Il convient de remarquer, d’abord, que notre confiance n’est pas entièrement aveugle: cette technologie cognitive, comme n’importe quelle autre technologie, est adoptée parce que son succès à déjà été observé. De plus, notre confiance est provisoire: nous sommes disposés d’abord à regarder les pages figurant en tête de classement et à faire l’hypothèse qu’il y a de bonnes raisons pour qu’elles y figurent. Mais n’exerçons-nous pas alors une forme typique de vigilance épistémique envers l’information qui nous est présentée? Les ← 59 | 60 → travaux et les idées évoquées dans cet article devraient s’avérer pertinents pour une investigation empirique de ces nouvelles questions.

9.Remarque conclusive

Notre but dans cet article était d’étayer la thèse selon laquelle les humains disposent d’une série de mécanismes cognitifs de vigilance épistémique. A cette fin, nous avons passé en revue des problématiques, des recherches et des théories dans différents domaines de la philosophie, de la linguistique, de la psychologie cognitive et des sciences sociales. Nous ne nous attendons pas à ce que nos lecteurs aient accepté toutes nos hypothèses, dont plusieurs nous paraissent d’ailleurs plutôt spéculatives. Nous espérons toutefois avoir réussi à mettre en avant l’importance de la vigilance épistémique dans les interactions humaines. Tout comme la communication, à laquelle elle est essentiellement liée, la vigilance épistémique s’appuie sur des mécanismes mentaux individuels qui s’articulent entre individus et au sein de populations dans des mécanismes sociaux. Certains de ces mécanismes sont dirigés vers la source de l’information, d’autres vers son contenu. Considérer ces divers mécanismes comme autant de contributions à une seule et même fonction de vigilance épistémique peut servir à éclairer l’étude de chacun de ces mécanismes pris séparément.

Bibliographie

Adler, J. (2002): Belief’s Own Ethics. Cambridge, MA: MIT Press.

Aikhenvald, A. Y. (2004): Evidentiality. Oxford: Oxford University Press.

Ainslie, G. (2001): Breakdown of Will. Cambridge: Cambridge University Press.

Alexander, R. D. (1987): The Biology of Moral Systems. Berlin: Aldine de Gruyter.

Asch, S. E. (1956): «Studies of independence and conformity: a minority of one against a unanimous majority», Psychological Monographs 70, 1-70.

Austin, J. L. (1962): How to Do Things with Words. Cambridge, MA: Harvard UniversityPress. ← 60 | 61 →

Balci, F., Freestone, D. & Gallistel, C. R. (2009): «Risk assessment in man and mouse», PNAS 106, 2459-2463.

Baron-Cohen, S., Leslie, A. M. & Frith, U. (1985): «Does the autistic child have a ‘theory of mind’?», Cognition 21, 37-46.

Bergstrom, B. & Boyer, P. (ms.): «Who mental systems believe: effects of source on judgments of truth».

Bergstrom, B., Moehlmann, B. & Boyer, P. (2006): «Extending the testimony problem: Evaluating the truth, scope, and source of cultural information», Child Development 77, 531-538.

Bezuidenhout, A. (1998): «Is verbal communication a purely preservative process?», The Philosophical Review 107, 261-288.

Birch, S., Vauthier, S. A. & Bloom, P. (2008): «Three- and four-year-olds spontaneously use others’ past performance to guide their learning», Cognition, 107, 1018-1034.

Birch, S. A. J., Akmal, N. & Frampton, K. L. (2009): «Two-year-olds are vigilant of others’ non-verbal cues to credibility». Developmental Science 13, 363-369.

Blakemore, D. (1987): Semantic Constraints on Relevance. Oxford: Blackwell.

Blakemore, D. (2002): Relevance and Linguistic Meaning: The Semantics and Pragmatics of Discourse Markers. Cambridge: Cambridge University Press.

Bloch, M. (1998): How We Think They Think: Anthropological Approaches to Cognition, Memory, and Literacy. Boulder, CO: Westview Press.

Bond, C. F. Jr. & DePaulo, B. M. (2006): «Accuracy of deception judgments», Personality and Social Psychology Review 10, 214-234.

Boyer, P. (1992): Tradition as Truth and Communication. Cambridge: Cambridge University Press.

Boyer, P. (2001): Religion Explained: The Evolutionary Foundations of Religious Belief. New York: Basic Books.

Boyd, R. & Richerson, P. J. (1985): Culture and the Evolutionary Process. Chicago, IL: Chicago University Press.

Burge, T. (1993): «Content preservation», Philosophical Review 101, 457-488.

Call, J. & Tomasello, M. (1999): «A nonverbal false belief task: the performance of children and great apes», Child Development 70, 381-395.

Camerer, C. & Hogarth, R. M. (1999): «The effect of financial incentives on performance in experiments: a review and capital-labor theory», Journal of Risk and Uncertainty 19, 7-42.

Carlson, S. M. & Moses, L. J. (2001): «Individual differences in inhibitory control and children’s theory of mind», Child Development 72, 1032-1053.

Carston, R. (2002: Thoughts and Utterances: The Pragmatics of Explicit Communication. Oxford: Blackwell.

Chafe, W. & Nichols, J. eds. (1986): Evidentiality: The Linguistic Coding of Epistemology. Norwood, NJ: Ablex.

Chaiken, S. (1980): «Heuristic versus systematic information processing and the use of source versus message cues in persuasion», Journal of Personality and Social Psychology 39, 752-766.

Cheney, D. L. & Seyfarth, R. M. (1990): How Monkeys See the World. Chicago, IL: Chicago University Press.

Clément, F. (2010): «To trust or not to trust? Children’s social epistemology», Review of Philosophy and Psychology 1(4): 531-549. ← 61 | 62 →

Clément, F., Koenig, M. A. & Harris, P. (2004): «The ontogeny of trust», Mind & Language 19, 360-379.

Van Cleve, J. (2006): «Reid on the Credit of Human Testimony», in J. Lackey & E. Sosa (eds), The Epistemology of Testimony. Oxford: Oxford University Press.

Coady, C. A. J. (1992): Testimony. Oxford: Oxford University Press.

Corriveau, K. & Harris, P. L. (2009): «Preschoolers continue to trust a more accurate informant 1 week after exposure to accuracy information», Developmental Science 12, 188-193.

Corriveau, K. H. & Harris, P. L. (2010): «Young children’s trust in what other people say», in Rotenberg, K. (ed.), Interpersonal Trust During Childhood and Adolescence. Cambridge: Cambridge University Press.

Cosmides, L. & Tooby, J. (2005): «Neurocognitive adaptations designed for social exchange», in D. M. Buss (ed.), Evolutionary Psychology Handbook. New York: Wiley, 584-627.

Couillard, N. L. & Woodward, A. L. (1999): «Children’s comprehension of deceptive points», British Journal of Developmental Psychology 17, 515-521.

Csibra, G. & Gergely, G. (2009): «Natural pedagogy», Trends in Cognitive Sciences 13, 148-153.

Davidson, D. (1984): «Radical interpretation», in his Inquiries into Truth and Interpretation. Oxford: Clarendon Press, 125-140.

Davidson, D. (1986): «A coherence theory of truth and knowledge», in E. LePore (ed), Truth and Interpretation: Perspectives on the Philosophy of Donald Davidson. Oxford: Basil Blackwell, 307-319.

Dawkins, R. & Krebs, J. R. (1978): «Animal signals: information or manipulation?», in Krebs, J. R. & Davies, N. B. (eds), Behavioural Ecology: An Evolutionary Approach. Oxford: Basil Blackwell Scientific Publications.

Denes-Raj, V. & Epstein, S. (1994): «Conflict between intuitive and rational processing: when people behave against their better judgment», Journal of Personality and Social Psychology 66, 819-829.

DePaulo, B. M. & Pfeifer, R. L. (1986): «On-the-job experience and skill at detecting deception», Journal of Applied Social Psychology 16, 249-267.

Dijksterhuis, A., Bos, M. W., Nordgren, L. F. & Van Baaren, R. B. (2006): «On making the right choice: the deliberation-without-attention effect», Science 311, 1005-1007.

Ekman, P. (2001): Telling Lies. New York: Norton.

Ekman, P. & O’Sullivan, M. (1991): «Who can catch a liar», American Psychologist 46, 913-920.

Evans, J. S. B. T. (2002): «Logic and human reasoning: an assessment of the deduction paradigm», Psychological Bulletin 128, 978-996.

Evans, J. S. B. T. & Frankish, K. (eds) (2009): In Two Minds. Oxford:Oxford University Press.

Evans, J. S. B. T. & Over, D. E. (1996): Rationality and Reasoning. Hove: Psychology Press.

Figueras-Costa, B. & Harris, P. (2001): «Theory of mind development in deaf children: a nonverbal test of false-belief understanding», Journal of Deaf Studies and Deaf Education 6, 92.

Foley, R. (1994): «Egoism in epistemology», in Schmitt, F. (ed), Socializing Epistemology. Lanham, MD: Rowman & Littlefield, Inc., 53-73.

Fricker, E. (1995): «Critical notice: telling and trusting: reductionism and anti-reductionism in the epistemology of testimony», Mind 104, 393-411. ← 62 | 63 →

Fricker, E. (2006): «Testimony and epistemic autonomy», in Lackey, J. & Sosa, E. (eds), The Epistemology of Testimony. Oxford: Oxford University Press.

Fusaro, M. & Harris, P. L. (2008): «Children assess informant reliability using bystanders’ nonverbal cues», Developmental Science 11, 771-777.

Gee, C. L. & Heyman, G. D. (2007): «Children’s evaluation of other people’s self-descriptions», Social Development 16, 800-818.

Gilbert, D. T., Krull, D. S. & Malone, P. S. (1990): «Unbelieving the unbelievable: some problems in the rejection of false information», Journal of Personality and Social Psychology 59, 601-613.

Gilbert, D. T. & Malone, P. S. (1995): «The correspondence bias», Psychological Bulletin 117, 21-38.

Gilbert, D. T., Tafarodi, R. W. & Malone, P. S. (1993): «You can’t not believe everything you read», Journal of Personality and Social Psychology 65, 221-233.

Goldman, A. (1999): Knowledge in a Social World. Oxford: Oxford University Press.

Gouzoules, H., Gouzoules, S. & Miller, K. (1996): «Skeptical responding in rhesus monkeys (Macaca mulatta)», International Journal of Primatology 17, 549-568.

Grice, H. P. (1957): «Meaning», Philosophical Review 66, 377-388.

Grice, H.P. (1969): «Utterer’s meaning and intentions», Philosophical Review 78, 147-177. [Réimprimé in Grice, (1989, 86-116)].

Grice, H. P. (1975): «Logic and conversation», in Cole, P. & Morgan, J. P. (eds), Syntax and Semantics Vol. 3: Speech Acts. New York: Seminar Press.

Grice, H. P. (1989): Studies in the Way of Words. Cambridge, MA: Harvard University Press.

Hardwig, J. (1985): «Epistemic dependence», The Journal of Philosophy 82, 335-349.

Harman, G. (1986): Change in View: Principles of Reasoning. Cambridge, MA: MIT Press.

Harris, P. & Núñez, M. (1996): «Understanding of permission rules by preschool children», Child Development 67, 1572-1591.

Hasson, U., Simmons, J. P. & Todorov, A. (2005): «Believe it or not: on the possibility of suspending belief», Psychological Science 16, 566-571.

Heintz, C. (2006): «Web search engines and distributed assessment systems», Pragmatics & Cognition 14, 387-409.

Henrich, J. & Boyd, R. (1998): «The evolution of conformist transmission and the emergence of between-group differences», Evolution and Human Behavior 19, 215-241.

Heyman, G. D. (2008): «Children’s critical thinking when learning from others», Current Directions in Psychological Science 17, 344-347.

Holton, R. (1994): «Deciding to trust, coming to believe», Australasian Journal of Philosophy 72, 63-76.

Hutchins, E. (1980): Culture and Inference: A Trobriand Case Study. Cambridge, MA: Harvard University Press.

Hutchins, E. (1996): Cognition in the Wild. Cambridge, MA: MIT Press.

Ifantidou, E. (2001): Evidentials and Relevance. Amsterdam: John Benjamins.

Jaswal, V. K., Croft, A. C., Setia, A. R. & Cole, C. A. (2010): «Young children have a specific, highly robust bias to trust testimony», Psychological Science 21: 1541-1547.

Kahneman, D. (2003): «A perspective on judgment and choice: mapping bounded rationality», American Psychologist 58, 697-720. ← 63 | 64 →

Koenig, M. A. & Echols, C. H. (2003): «Infants’ understanding of false labeling events: the referential roles of words and the speakers who use them», Cognition 87, 179-203.

Koenig, M. A. & Harris, P. L. (2007): «The basis of epistemic trust: reliable testimony or reliable sources?», Episteme 4, 264-284.

Koriat, A., Lichtenstein, S. & Fischhoff, B. (1980): «Reasons for confidence», Journal of Experimental Psychology: Human Learning and Memory and Cognition 6, 107-118.

Krebs, J. R. & Dawkins, R. (1984): «Animal signals: mind-reading and manipulation?», in Krebs, J. R. & Davies, N. B. (eds), Behavioural Ecology: An Evolutionary Approach, 2nd edn. Oxford: Basil Blackwell Scientific Publications.

Kunda, Z. (1990): «The case for motivated reasoning», Psychological Bulletin 108, 480-498.

Lampinen, J. M. & Smith, V. L. (1995): «The incredible (and sometimes incredulous) child witness: child eyewitnesses’ sensitivity to source credibility cues», Journal of Applied Psychology 80, 621-627.

Lewis, D. K. (1969): Conventions. Cambridge, MA: Harvard University Press.

Lewis, M., Stranger, C. & Sullivan, M. W. (1989): «Deception in 3-year-olds», Developmental Psychology 25, 439-443.

Locke, J. (1975) [1690]: An Essay Concerning Human Understanding, P. Nidditch, ed. Oxford: Oxford University Press.

Lutz, D. J. & Keil, F. C. (2002): «Early understanding of the division of cognitive labor», Child Development 1073-1084.

Malone, B. E. & DePaulo, B. M. (2001): «Measuring sensitivity to deception», in Hall, J. A. & Bernieri, F. (eds), Interpersonal Sensitivity: Theory, Measurement, and Application. Hillsdale, NJ: Erlbaum, 103-124.

Mann, S., Vrij, A. & Bull, R. (2004): «Detecting true lies: police officers’ ability to detect suspects’ lies», Journal of Applied Psychology 89, 137-149.

Mascaro, O. & Sperber, D. (2009): «The moral, epistemic, and mindreading components of children’s vigilance towards deception», Cognition 112, 367-380.

Mathew, S. & Boyd, R. (2009): «When does optional participation allow the evolution of cooperation?», Proceedings of the Royal Society of London B 276(1659), 1167-1174.

Matsui, T., Rakoczy, H., Miura, Y. & Tomasello, M. (2009): «Understanding of speaker certainty and false-belief reasoning: a comparison of Japanese and German preschoolers», Developmental Science 12, 602-613.

Mercier, H. (2011a). «Reasoning serves argumentation in children», Cognitive Development (26)3, 177-191.

Mercier, H. (2011b): «On the universality of argumentative reasoning», Journal of cognition and culture 11(1), 85-113.

Mercier, H. (2012): «Looking for arguments», Argumentation 26(3), 305-324.

Mercier, H. & Landemore, H. (2012). «Reasoning is for arguing: Understanding the successes and failures of deliberation», Political Psychology 33(2), 243-258.

Mercier, H. & Sperber, D. (2009): «Intuitive and reflective inferences», in Evans, J. St B. T. & Frankish, K. (eds), In Two Minds. New York: Oxford University Press, 149-170.

Mercier, H. & Sperber, D. (2011): «Why do humans reason? Arguments for an argumentative theory», Behavioral and Brain Science 34, 57 -111. ← 64 | 65 →

Milinski, M., Semmann, D. & Krambeck, H. J. (2002): «Reputation helps solve the ‘tragedy of the commons’», Nature 415, 424-426.

Millikan, R. G. (1987): Language, Thought and Other Categories. Cambridge, MA: MIT Press.

Mills, C. M. & Keil, F. C. (2005): «The Development of Cynicism», Psychological Science 16, 385-390.

Morris, C.W. (1999): «What is this thing called ‘reputation’?», Business Ethics Quarterly 9, 87-102.

Nickerson, R. S. (1998): «Confirmation bias: a ubiquitous phenomena in many guises», Review of General Psychology 2, 175-220.

Nowak, M. A. & Sigmund, K. (1998): «Evolution of indirect reciprocity by image scoring», Nature 383, 573-577.

Nurmsoo, E. & Robinson, E. J. (2009): «Children’s trust in previously inaccurate informants who were well or poorly informed: when past errors can be excused», Child Development 80, 23-27.

Nurmsoo, E., Robinson, E. J. & Butterfill, S. A. (2010): «Children’s Selective Learning from Others», Review of Psychology and Philosophy 1(4), 551-561.

Onishi, K. H. & Baillargeon, R. (2005): «Do 15-month-old infants understand false beliefs?», Science 308, 255-258.

Origgi, G. (2005): «A stance of trust», Paper presented at the 9th International Pragmatics Conference (IPRA), Riva del Garda, July 10-15th; to be published in T. Matsui (ed.): Pragmatics and Theory of Mind. Amsterdam: John Benjamins (forthcoming).

Origgi, G. (2008): «Trust, authority and epistemic responsibility», Theoria 23, 35-44.

Origgi, G. & Sperber, D. (2000): «Evolution, communication and the proper function of language», in Carruthers P. and Chamberlain, A. (eds), Evolution and the Human Mind: Modularity, Language and Meta-Cognition. Cambridge: Cambridge University Press, 140-169.

Paglieri, F. & Woods, J. (2011): «Enthymematic parsimony», Synthese 178(3), 461-501.

Pea, R. D. (1982): «Origins of verbal logic: spontaneous denials by two-and three-yearolds», Journal of Child Language 9, 597-626.

Perner, J. & Lang, B. (2000): «Theory of mind and executive function: Is there a developmental relationship?», in Baron-Cohen, S., Tager-Flusberg, H. & Cohen, D. (eds), Understanding Other Minds: Perspectives From Autism and Developmental Cognitive Neuroscience, 2nd edn. Oxford: Oxford University Press, 150-181.

Peskin, J. (1996): «Guise and guile: children’s understanding of narratives in which the purpose of pretense is deception», Child Development 1735-1751.

Petty, R. E. & Cacioppo, J. T. (1986): «The elaboration likelihood model of persuasion», in Berkowitz, L. (ed.), Advances in Experimental Social Psychology. Orlando, FL: Academic Press, 124-206.

Povinelli, D. J. & Deblois, S. (1992): «Young children’s (Homo sapiens) understanding of knowledge formation in themselves and others», Journal of Comparative Psychology 106, 228-238.

Reid, T. (2000) [1764]: Inquiry into the Human Mind, T. Duggan, ed. Chicago, IL: University of Chicago Press.

Richter, T., Schroeder, S. & Wöhrmann, B. (2009): «You don’t have to believe everything you read: background knowledge permits fast and efficient validation of information», Journal of Personality and Social Psychology 96, 538-558. ← 65 | 66 →

Robinson, E. J., Haigh, S. N. & Nurmsoo, E. (2008): «Children’s working understanding of knowledge sources: confidence in knowledge gained from testimony», Cognitive Development 23, 105-118.

Robinson, E. J. & Whitcombe, E. L. (2003): «Children’s suggestibility in relation to their understanding about sources of knowledge», Child Development 74, 48-62.

Rosen, L. (1989): The Anthropology of Justice: Law as Culture in Islamic Society. Cambridge: Cambridge University Press.

Ross, L. (1977): «The intuitive psychologist and his shortcomings: distortions in the attribution process», in Berkowitz, L. (ed.), Advances in Experimental Social Psychology. New York: Academic Press, 173-220.

Ross, L. & Nisbett, R. E. (1991): The Person and the Situation: Perspectives of Social Psychology. New York: McGraw-Hill.

Sabbagh, M. A. & Baldwin, D. A. (2001): «Learning words from knowledgeable versus ignorant speakers: links between preschoolers’ theory of mind and semantic development», Child Development 72, 1054-1070.

Schiffer, S. (1972): Meaning. Oxford: Clarendon Press.

Scofield, J. & Behrend, D. A. (2008): «Learning words from reliable and unreliable speakers», Cognitive Development 23, 278-290.

Searle, J. (1969): Speech Acts: An Essay in the Philosophy of Language. Cambridge: Cambridge University Press.

Shafir, E., Simonson, I. & Tversky, A. (1993): «Reason-based choice», Cognition 49, 11-36.

Shapin, S. (1994): A Social History of Truth: Civility and Science in Seventeenth-Century England. Chicago, IL: University of Chicago Press.

Southgate, V., Senju, A. & Csibra, G. (2007): «Action anticipation through attribution of false belief by 2-year-olds», Psychological Science 18, 587-592.

Sperber, D. (1975): Rethinking Symbolism. Cambridge: Cambridge University Press.

Sperber, D. (1985): On Anthropological Knowledge: Cambridge University Press Cambridge.

Sperber, D. (1996): Explaining Culture: A Naturalistic Approach. Oxford: Blackwell.

Sperber, D. (1997): «Intuitive and reflective beliefs», Mind & Language 12, 67-83.

Sperber, D. (2001: «An evolutionary perspective on testimony and argumentation», Philosophical Topics 29, 401-413.

Sperber, D. (2010): «The Guru effect», Review of Philosophy and Psychology 1(4), 583-592.

Sperber, D. & Mercier, H. (2012): «Reasoning as a social competence», in Elster, J. & Landemore, H. (eds), Collective Wisdom. Cambridge, Cambridge University Press, 368-392.

Sperber, D. & Wilson, D. (1995): Relevance: Communication and Cognition, 2nd edn. Oxford: Blackwell.

Sperber, D. & Wilson, D. (2005): «Pragmatics», in Jackson, F. & Smith, M. (eds), Oxford Handbook of Contemporary Philosophy. Oxford: Oxford University Press: 468-501.

Stanovich, K. E. (2004): The Robot’s Rebellion. Chicago, IL: Chicago University Press.

Strawson, P. F. (1964): «Intention and convention in speech acts», The Philosophical Review 73, 439-460.

Sunstein, C. R. (2002): «The law of group polarization», Journal of Political Philosophy 10, 175-195. ← 66 | 67 →

Surian, L., Caldi, S. & Sperber, D. (2007): «Attribution of beliefs by 13-month-old infants», Psychological Science 18, 580-586.

Talwar, V. & Lee, K. (2002): «Development of lying to conceal a transgression: children’s control of expressive behavior during verbal deception», International Journal of Behavioral Development 26, 436-444.

Tesser, A. (1978): «Self-generated attitude change», in Berkowitz, L. (ed.), Advances in Experimental Social Psychology. New York: Academic Press, 289-338.

Thagard, P. (2002): Coherence in Thought and Action. Cambridge, MA: MIT Press.

Tirole, J. (1996): «A theory of collective reputations», The Review of Economic Studies 63, 1-22.

Trommershauser, J., Maloney, L. T. & Landy, M. S. (2008): «Decision making, movement planning and statistical decision theory», Trends in Cognitive Sciences 12, 291-297.

Vrij, A. (2000): Detecting Lies and Deceit: The Psychology of Lying and Implications for Professional Practice. Chichester: John Wiley &. Sons.

Vrij, A. (2004): «Why professionals fail to catch liars and how they can improve», Legal and Criminological Psychology 9, 159-183.

Walker, M. B. & Andrade, M. G. (1996): «Conformity in the Asch task as a function of age», Journal of Social Psychology 136, 367-372.

Welch-Ross, M. K. (1999): «Interviewer knowledge and preschoolers’ reasoning about knowledge states moderate suggestibility», Cognitive Development 14, 423-442.

Willingham, D. T. (2008): «Critical thinking: why is it so hard to teach?», Arts Education Policy Review 109, 21-32.

Willis, J. & Todorov, A. (2006): «First impressions: making up your mind after a 100-ms exposure to a face», Psychological Science 17, 592-598.

Wilson, D. & Sperber, D. (2004): «Relevance Theory», in Horn, L. & Ward, G. (eds), The Handbook of Pragmatics. Oxford: Blackwell, 607-632.

Wimmer, H. & Perner, J. (1983): «Beliefs about beliefs: representation and constraining function of wrong beliefs in young children’s understanding of deception», Cognition 13, 41-68.

Yamagishi, T. (2001): «Trust as a form of social intelligence», in Cook, K. (ed.), Trust in Society. New York: Russell Sage Foundation, 121-147.

Ybarra, O., Chan, E. & Park, D. (2001): «Young and old adults’ concerns about morality and competence», Motivation and Emotion 25, 85-100. ← 67 | 68 →

← 68 | 69 →

 

1Traduction française assurée par Steve Oswald, qui remercie chaleureusement Fabrice Clément, Thierry Herman, Hugo Mercier et Dan Sperber pour leur précieuse collaboration. L’article original a été publié en 2010 dans Mind & Language, Vol. 25 (4), pp. 359–393, chez Blackwell qui en a aimablement autorisé la traduction.

2La communication humaine, envisagée en ces termes, est très différente des multiples formes de communication animale discutées par Dawkins et Krebs (1978) et Krebs et Dawkins (1984). En revanche, des considérations évolutionnistes similaires, en termes de coûts et de bénéfices pour les émetteurs et les récepteurs, sont pertinentes dans les deux cas.

3Il convient de remarquer cependant que si des effets tout autant souhaitables (y compris des effets concernant la réputation sur le long terme) peuvent être obtenus aussi bien par la communication d’informations véridiques que fausses, il pourrait s’avérer préférable de communiquer de l’information véridique, puisque celle-ci est généralement plus facile à gérer (voir Paglieri et Woods 2011, qui développent cet argument de la parcimonie et qui en tirent des conclusions plus fortes que les nôtres).

4Il est à remarquer que cette perspective anti-réductionniste, qui traite le témoignage comme un simple processus de transfert de contenu et qui considère les interprètes comme de simples récepteurs de contenu, ignore largement ou nie la nature systématiquement contextuelle et constructive de la compréhension, qui a pourtant bien été établie par la pragmatique moderne. Bezuidenhout (1998) s’oppose à Burge en ces termes, et Origgi et Sperber (2000) critiquent Millikan sur ces mêmes bases.

5Note du traducteur: nous renvoyons ici à la traduction française de la formulation anglaise, ‘the securing of uptake’ (Austin, J.L. 1970, Quand dire, c’est faire, trad. par Gilles Lane, éditions du Seuil). Le traducteur de l’ouvrage d’Austin, dans la note 40, p. 177, précise qu’une traduction «plus littérale de securing of uptake serait la suivante: s’assurer de ce qu’un autre ‘relève’ (cela même que j’ai ‘jeté dans’ mes paroles).»

6Note du traducteur: nous avons opté pour une traduction littérale du terme anglais, mindreading, en suivant la littérature francophone disponible dans le domaine. Par ‘lecture de l’esprit’ nous entendons donc le processus par lequel on se représente les états mentaux d’autrui.

7Le terme ‘raisonnement’ est parfois utilisé dans un sens large comme un synonyme d‘inférence’ (en particulier en psychologie comparative et du développement). Ici nous emploierons ‘raisonnement’ dans son sens le plus fréquent référant à une forme d’inférence qui suppose la prise en considération des raisons qui nous font accepter une conclusion donnée. Le fait de raisonner, compris de cette façon, implique la réflexion et s’oppose à des formes intuitives d’inférence dans lesquelles on arrive à une conclusion sans considérer les raisons pour lesquelles on l’accepte. Un contraste similaire entre des formes intuitives et réflexives d’inférence a fait l’objet de nombreuses discussions dans les théories du raisonnement en termes de ‘processus duels’ (voir, par exemple, Evans & Frankish 2009).