REGARD SOCIOLOGIQUE

Quand l’IA court-circuite notre esprit critique

Valider un protocole médical sans vérifier les dosages, adopter un rapport juridique citant des jurisprudences inventées, diffuser un compte-rendu transformant une discussion en décision : ces situations révèlent un phénomène d’autorité épistémique (Origgi, 2012) qui suspend notre esprit critique. Face à des réponses bien formulées, nous faisons confiance à la forme sans véritablement interroger le fond – exactement comme un facteur d’impact remplace la lecture d’un article scientifique (Broudoux, 2017). L’IA reconfigure ainsi nos mécanismes de validation du savoir (qui est d’ailleurs abordé dans nos formations) : l‘autorité algorithmique remplace progressivement l’exercice du jugement.

Sabine Jacot OUTILIA Sàrl (1)

Dre. Sabine Jacot
Formatrice IA Senior

Le compte-rendu parfait : quand l'IA transforme une discussion en décision

En formation, un participant partage une expérience qui fait écho dans la salle : face à une pile de notes manuscrites après une longue réunion d’équipe, il a photographié ses pages et demandé à une IA d’en extraire un compte-rendu structuré. Le document généré (mise en page professionnelle, hiérarchisation claire, transitions fluides) a été envoyé dans l’heure qui suit aux collègues et à la hiérarchie.

Trois jours plus tard, un email circonspect arrive : « Je ne me souviens pas qu’on ait décidé de réorganiser les bureaux en open space. On en a parlé comme hypothèse, mais rien n’a été tranché, non ? » La relecture attentive révèle alors une série de glissements : des discussions exploratoires transformées en décisions validées, des réserves exprimées qui ont purement disparu, une proposition individuelle devenue « consensus de l’équipe », des nuances critiques lissées en adhésion unanime.

« Le compte-rendu était tellement bien fait, confie la personne. Structure impeccable, vocabulaire précis, aucune faute d’orthographe ni de syntaxe. Ça paraissait fidèle à ce qui s’était dit. Je l’ai relu rapidement pour vérifier qu’il n’y avait pas d’absurdités, mais je n’ai pas fait de vérification point par point comme je l’aurais fait avec la version d’un collègue. Si quelqu’un de l’équipe m’avait envoyé son brouillon, j’aurais sûrement annoté, questionné, demandé des précisions comme j’avais l’habitude de le faire. Là, le format fini m’a mis en confiance. Je pensais que la machine restituait factuellement. »

Cette situation révèle un triple phénomène sociologique :

1. L’autorité perçue de l’IA, où la forme technique génère la confiance indépendamment du contenu, ce que Broudoux (2017) observe dans l’évaluation scientifique : la mesure algorithmique remplace le jugement qualitatif.

2. L’absence de scepticisme organisé (Merton, 1973) face aux productions algorithmiques, alors que ce scepticisme constitue une norme professionnelle fondamentale : toute affirmation devrait être soumise à examen critique avant acceptation.

3. La suspension des protocoles de validation collective : l’expertise présente dans l’organisation n’a pas été mobilisée en amont, révélant dans ce cas comment l’IA court-circuite les circuits habituels de révision par les pairs. Par ailleurs, peu voire aucun collègue n’ose généralement remettre en question publiquement ce type de document. En ce sens, l’effet d’autorité que peut engendrer la machine crée une forme de confiance collective où contester devient délicat : personne ne veut passer pour celle ou celui qui doute trop, qui complique les choses ou qui ne comprend pas la technologie. Peu à peu, le silence s’installe ; si aucune voix dissonante ne se fait entendre, l’erreur peut alors se faufiler plus aisément à couvert.

Si bien que l’esprit critique professionnel, pourtant cultivé par des années de formation et d’expérience, se suspend alors face à la machine. Cette suspension n’est pas un accident individuel, mais bien davantage un fait social qui appelle une analyse systémique.

Comment l'IA hérite de l'autorité scientifique sans en posséder les fondements

Les ressorts sociologiques de la confiance épistémique

Comme l’a montré la sociologie des sciences avec les métriques bibliométriques (Broudoux, 2017), les systèmes algorithmiques créent une forme d’autorité décontextualisée où la forme technique supplante l’évaluation du contenu. Le Leiden Manifesto (Hicks et al., 2015) documente précisément ce mécanisme dans l’évaluation scientifique : lorsque des indicateurs quantitatifs remplacent le jugement par les pairs, la gouvernance par les nombres (Desrosières, 2010) transforme la nature même de l’autorité épistémique. Lorsqu’un facteur d’impact remplace la lecture critique d’un article scientifique, nous assistons au même mécanisme : la délégation du jugement intellectuel à une infrastructure technique dont l’opacité décourage la contestation.

Gloria Origgi (2012) montre par ailleurs que nous ne pouvons pas tout vérifier nous-mêmes. Face à la spécialisation croissante des savoirs, nous développons des critères implicites de confiance (heuristiques sociales) qui nous permettent de décider à qui accorder crédit. Cette confiance s’articule autour de trois dimensions interdépendantes :

  1. La compétence perçue : diplômes, expérience, vocabulaire technique, reconnaissance institutionnelle, soit autant d’indices qui signalent l’expertise.
  2. La fiabilité construite : constance dans la véracité, réputation accumulée, prédictions confirmées, soit une fiabilité qui se construit dans la durée.
  3. L’intentionnalité évaluée : perception que l’autre agit selon un intérêt compatible avec le nôtre, qu’il s’agisse d’un intérêt individuel ou collectif.

Ces dimensions concourent à produire ce que Bourdieu (1976) désignerait comme une autorité symbolique : un pouvoir socialement reconnu qui permet de faire accepter des énoncés sans vérification immédiate. Dans les champs scientifique et organisationnel, cette autorité se construit par des mécanismes de reconnaissance mutuelle et de légitimation entre pairs, produisant ainsi une présomption de crédibilité pour les discours autorisés.

Comment l’IA brouille ces repères

Or, face à l’IA, ce mécanisme se reproduit : la machine hérite d’une part de cette autorité symbolique, non pas parce qu’elle comprend ou démontre, mais parce qu’elle en adopte les codes : vocabulaire technique, ton assuré, structure impeccable. Elle imite les signes extérieurs de l’expertise, et cela suffit souvent à désamorcer notre réflexe de vérification.

Ce que nous nommons autorité algorithmique s’inscrit dans la lignée des travaux de Gillespie (2014) sur la manière dont les systèmes algorithmiques produisent de la pertinence et de l’autorité. Gillespie montre comment les algorithmes agissent comme de véritables arbitres culturels en orientant ce qui mérite attention ou visibilité et sans que leurs critères de jugement soient pleinement transparents ni aisément contestables. Dans le contexte organisationnel, cette autorité se manifeste lorsque les productions issues de l’IA suspendent les protocoles habituels de vérification que nous appliquons spontanément aux productions humaines.

L’IA génère ce que nous pourrions appeler un effet de compétence superficielle : elle active tous les signaux sociaux de l’expertise (vocabulaire spécialisé, structure argumentative cohérente, références formellement correctes, ton assertif) en prédisant statistiquement les séquences de mots les plus probables dans un contexte donné sans néanmoins « comprendre » au sens humain ce qu’elle produit.

Ce mécanisme s’inscrit dans ce que Porter (1995) désigne comme la « confiance dans les nombres » (Trust in Numbers) : les formes quantifiées ou techniquement sophistiquées acquièrent une objectivité apparente qui dispense d’examen critique. Power (1997) montre, de son côté, comment la « société de l’audit » valorise les procédures de vérification formelles au détriment de l’évaluation substantielle. L’IA hérite de cette autorité de la forme : sa sophistication technique produit une présomption de fiabilité indépendante de la validité du contenu.

Comment l’IA déstabilise les trois piliers de la confiance épistémique

L’IA perturbe systématiquement les trois dimensions de la confiance identifiées par Gloria Origgi (2012) : la compétence, la fiabilité et l’intentionnalité. Ces trois piliers, habituellement indispensables pour accorder crédit à une source, se trouvent fragilisés par la nature même du fonctionnement algorithmique.

  1. Compétence : formelle mais non substantielle

L’IA active tous les signaux sociaux de l’expertise : vocabulaire technique, structure argumentative rigoureuse, ton assertif. Elle reproduit les formes du savoir sans en comprendre les mécanismes, sans anticiper les implications ni les adapter aux contextes.

Ainsi, elle peut générer un discours médical impeccable tout en proposant des dosages potentiellement problématiques. Sa compétence est formelle (maîtrise des modèles de langage et conventions discursives), mais non substantielle (compréhension des effets concrets, logiques causales, contextes d’application).

En d’autres termes, elle exploite nos heuristiques de reconnaissance de l’expertise : elle produit les signaux de la compétence sans en posséder la substance.

  1. Fiabilité : fluctuante et imprévisible

L’IA peut fournir 99 réponses correctes puis inventer une jurisprudence, mélanger des cadres réglementaires incompatibles ou fabriquer une référence bibliographique. Contrairement aux erreurs humaines, souvent explicables par la fatigue, le manque d’information ou des biais cognitifs, les erreurs de l’IA ne suivent aucun schéma stable.

Cette imprévisibilité rend la confiance fragile : on ne peut pas apprendre à repérer pleinement les conditions dans lesquelles elle se trompe. La fiabilité humaine se construit par accumulation d’expériences ; celle de l’IA fluctue de manière opaque, sans calibrage possible.

  1. Intentionnalité : radicalement absente

L’IA n’agit ni dans notre intérêt ni dans le sien puisqu’elle n’en a pas. Cette absence d’intention produit une diffusion de la responsabilité : quand une erreur survient, qui doit en répondre ? L’utilisateur qui a fait confiance ? Les concepteurs du modèle ? L’organisation qui l’a déployé ?

Nous ne pouvons ni évaluer les intentions d’un système algorithmique, ni lui attribuer une responsabilité morale. Or, dans nos interactions sociales, cette évaluation de l’intention est centrale pour décider à qui faire confiance.

Le paradoxe

L’IA hérite du prestige symbolique associé à la technologie, tout en déstabilisant les trois piliers de la confiance épistémique. Elle active les signes de la compétence sans la posséder, échappe à la construction de la fiabilité et se soustrait à toute évaluation intentionnelle.

Ce paradoxe explique pourquoi notre esprit critique se suspend : l’IA reproduit les apparences de la fiabilité tout en contournant les conditions sociales qui, d’ordinaire, la rendent davantage possible. Nous croyons à la solidité de ses réponses parce qu’elles ressemblent à de la vérité, non parce qu’elles en respectent les critères.

Scepticisme organisé face à l’IA : quand l’algorithme suspend le jugement collectif

Robert K. Merton (1973) définit le scepticisme organisé comme une norme fondamentale de la science : toute affirmation doit être soumise à un examen critique systématique avant d’être acceptée. Ce n’est pas du cynisme généralisé, mais une suspension méthodique du jugement, accompagnée d’une recherche active de preuves.

Sociologiquement, l’esprit critique est la capacité individuelle et collective à suspendre son jugement, rechercher des preuves contradictoires et confronter les arguments selon des protocoles partagés. Il suppose d’accepter de réviser sa position face à de meilleures preuves. Il ne s’agit pas de « douter de tout », mais d’instituer un processus de vérification partagée qui mobilise trois dimensions articulées :

  1. Dimension épistémologique

Interroger activement les sources de légitimité du savoir. Pourquoi cette réponse me semble-t-elle convaincante ? Est-ce la forme (présentation, vocabulaire) ou le fond (preuves, logique) qui active ma confiance ? Cette réflexivité permet de distinguer les marqueurs superficiels de crédibilité de la fiabilité substantielle.

  1. Dimension méthodologique

Mettre en œuvre des protocoles actifs de vérification : croiser les sources, identifier les biais potentiels, tester la cohérence interne, rechercher des contre-arguments, vérifier les références citées. Ces techniques ne sont pas innées, mais apprises et institutionnalisées.

  1. Dimension sociale

Instituer des normes collectives qui valorisent la vérification : allouer du temps dédié, clarifier les responsabilités partagées, créer des espaces de contestation légitime. Comme l’a montré Ludwik Fleck (1935), la validation scientifique est toujours un processus collectif : une communauté de pensée partage des standards communs d’évaluation.

L’esprit critique est ainsi socialement distribué : il ne repose pas seulement sur la vigilance d’individus isolés, mais également sur :

  • Des institutions : normes scientifiques, déontologies professionnelles, cadres réglementaires ;
  • Des collectifs : pairs qui se vérifient mutuellement selon des protocoles reconnus ;
  • Des cultures organisationnelles qui valorisent le questionnement plutôt que la conformité.

Or, l’IA perturbe simultanément ces trois dimensions :

  • son autorité perçue suspend le doute épistémologique (dimension 1) ;
  • son opacité technique complique la vérification méthodologique (dimension 2) ;
  • l’absence de culture collective de vigilance face aux algorithmes fragilise la dimension sociale (dimension 3).

Trois paradoxes révélateurs : du double standard à l'uniformisation des voix

Le double standard

En formation, des enseignants génèrent des exercices pédagogiques avec l’IA sur leur matière d’expertise, puis les évaluent comme ils évalueraient le travail d’un stagiaire. Résultat quasi-systématique : les exercices présentent des imprécisions factuelles, consignes ambiguës ou progressions pédagogiques problématiques qu’ils n’auraient pas acceptées en l’état d’un collègue humain.

Le paradoxe : nous appliquons une vigilance plus systématique aux productions de stagiaires précisément parce que nous les savons  de fait faillibles, mais accordons une confiance par défaut à un système dont les erreurs sont documentées et imprévisibles. L’exigence critique appliquée aux humains se relâche face à l’algorithme, renforcée par un effet de normalisation sociale : puisque tout le monde le fait, cela dispense plus aisément de la vérification individuelle.

L’uniformisation invisible

Avec une équipe communication d’une organisation à but non lucratif, j’analyse une vingtaine de leurs publications récentes sur les réseaux sociaux. Découverte collective : la plupart des posts commencent par la même structure rhétorique (« Dans un monde où… », « Saviez-vous que… », « Face aux défis de… »). Réaction de l’équipe : « On ne s’en était pas rendu compte en publiant une par une. Mais quand vous les mettez ensemble, c’est plus évident qu’on a perdu un peu notre voix institutionnelle. On sonne tous pareil. »

L’esprit critique ne porte plus seulement sur la véracité factuelle, mais doit aussi s’étendre à l’authenticité éditoriale : cette voix est-elle la nôtre ? Notre singularité reste-t-elle encore perceptible ? Les LLM, qui tendent vers la moyenne statistique de leurs données d’entraînement, produisent aussi une uniformisation stylistique qui pose une question nouvelle : que devient l’identité collective quand les productions discursives convergent vers des patterns algorithmiques partagés ? Lorsque nos discours finissent par se confondre, que reste-t-il de la singularité de nos voix ?

La transformation possible

Suite à une formation sur l’esprit critique et l’IA, une collaboratrice RH a instauré dans son organisation une règle de double validation : tout document juridique ou stratégique généré avec l’IA doit être vérifié par deux personnes avant diffusion, avec traçabilité documentée. Cette pratique, intégrée aux processus et comptabilisée dans la charge horaire, a permis d’identifier quelques erreurs potentiellement coûteuses : mélanges de cadres réglementaires, articles de loi inexistants, procédures inadaptées au secteur public.

Ce qui était vécu initialement comme perte de temps (« on doit vérifier en plus ? ») est devenu norme valorisée (« c’est notre assurance qualité »). L’esprit critique face à l’IA n’est pas seulement une disposition personnelle, mais un dispositif institutionnel à construire : règles explicites, responsabilités distribuées, temps alloué, culture collective qui légitiment la vigilance.

Cinq protocoles pour instituer la vigilance critique collective face aux productions IA

    1. Instituer le double regard systématique

    Pour tout document à enjeu (juridique, médical, stratégique, financier), imposer une validation par une personne différente de celle qui a généré le contenu. Le temps de vérification est comptabilisé dans la charge de travail, non traité comme surcharge.

    Concrètement : Matrice de criticité des documents (enjeu faible/moyen/élevé) associées à des protocoles de validation correspondants: qui vérifie, quand, selon quels critères.

    1. Documenter les erreurs comme ressource collective

    Créer un registre partagé des hallucinations, biais et erreurs rencontrées. Cette mémoire organisationnelle affine les protocoles de vigilance et forme les nouveaux arrivants.

    Concrètement : quelques minutes mensuelles en réunion pour partager les erreurs détectées, leurs contextes et conséquences évitées afin de transformer l’erreur en apprentissage collectif.

    1. Pratiquer les trois questions de vigilance

    Avant de valider un contenu généré par IA, soumettre à ces trois questions critiques :

    • Sources : D’où vient cette information ? Est-elle vérifiable ? (Lire la source originale, pas la reformulation de l’IA)
    • Alternatives : Existe-t-il un contre-argument, un angle ignoré ? (se souvenir que l’IA privilégie de prime abord les positions statistiquement dominantes)
    • Impact : Quelles conséquences si cette information est inexacte ? Qui serait affecté ? Quelle responsabilité engage-t-on ?
    1. Maintenir le scepticisme méthodologique

    Tester régulièrement l’IA sur des questions où vous possédez une expertise reconnue. L’expérience directe des erreurs dans votre domaine de maîtrise calibre davantage votre vigilance ailleurs.

    Concrètement : Demander à l’IA de produire un contenu sur votre spécialité, puis l’annoter comme le travail d’un stagiaire. Cette pratique révèle le double standard de vigilance.

    1. Questionner ses propres signaux de confiance

    Quand une réponse IA semble immédiatement convaincante, suspendre votre jugement et demander : Est-ce la forme (structure, vocabulaire, ton) ou le fond (preuves, logique, cohérence) qui active ma confiance ?

    Identifier les signaux de surface évite de les confondre avec des marqueurs de fiabilité substantielle. Cette vigilance métacognitive est au cœur de l’esprit critique.

    Références bibliographiques

    • Bourdieu, P. (1976). Le champ scientifique. Actes de la recherche en sciences sociales, 2(2–3), 88–104. https://doi.org/10.3406/arss.1976.3455

    • Broudoux, É. (2017). Autorité scientifique et épistémique à l’épreuve de la mesure des citations. Études de communication, 48, 177–198. https://doi.org/10.4000/edc.6841

    • Desrosières, A. (2010). La politique des grands nombres : Histoire de la raison statistique. Paris : La Découverte. (Ouvrage original publié en 1993)

    • Fleck, L. (2005). Genèse et développement d’un fait scientifique. Paris : Les Belles Lettres. (Ouvrage original publié en 1935)

    • Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. J. Boczkowski, & K. A. Foot (Éds.), Media Technologies: Essays on Communication, Materiality, and Society (pp. 167–194). Cambridge, MA : MIT Press. https://doi.org/10.7551/mitpress/9780262525374.003.0009

    • Hicks, D., Wouters, P., Waltman, L., de Rijcke, S., & Rafols, I. (2015). Bibliometrics: The Leiden Manifesto for research metrics. Nature, 520(7548), 429–431. https://doi.org/10.1038/520429a

    • Merton, R. K. (1973). The Sociology of Science: Theoretical and Empirical Investigations (N. W. Storer, Éd.). Chicago, IL : University of Chicago Press.

    • Origgi, G. (2012). Epistemic Authority: A Theory of Trust, Authority, and Autonomy in Belief. Oxford : Oxford University Press.

    • Porter, T. M. (1995). Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton, NJ : Princeton University Press.

    • Power, M. (1997). The Audit Society: Rituals of Verification. Oxford : Oxford University Press.

    Formez vos équipes à l’IA

    SOCIÉTÉ

    OUTILIA Sàrl
    Avenue de Grandson 48
    1400 Yverdon-les-Bains

    RESTONS CONNECTÉS

    © 2025 OUTILIA Sàrl

    Protection des données