REGARD SOCIOLOGIQUE
L’ambivalence sociologique face à l’IA : comprendre, apprivoiser,
s’adapter
Utiliser l’IA générative au quotidien tout en craignant qu’elle nous remplace : cette contradiction est loin d’être une incohérence personnelle. Elle révèle une ambivalence sociologique profonde, fruit de nos multiples positions sociales face à une technologie qui transforme simultanément nos métiers, nos émotions et nos imaginaires collectifs. Entre fascination et inquiétude, comment passer de cette tension déstabilisante à une appropriation consciente et critique de l’IA ? Cet article explore les mécanismes sociaux de cette ambivalence et montre comment la formation peut devenir l’espace clé pour garder l’humain « dans la boucle ».

Dre. Sabine Jacot
Formatrice IA Senior
Sous la loupe : le cas qui interpelle
En formation, il n’est pas rare qu’un participant me confie :
« J’utilise ChatGPT tous les jours, ça me fait gagner un temps fou, mais j’ai toujours un peu peur qu’un jour il me remplace. »
Cette phrase résume en quelques mots l’état d’esprit de beaucoup d’utilisateurs aujourd’hui : une combinaison d’enthousiasme et de crainte comme de curiosité et de méfiance.
L’essor fulgurant de l’IA générative
Depuis l’arrivée de ChatGPT fin 2022 et la démocratisation rapide des IA génératives, nous sommes de plus en plus nombreux à les intégrer dans notre travail, nos études voire notre vie quotidienne. Et pourtant, ces outils continuent de susciter des débats passionnés : entre promesse d’efficacité et menace pour l’emploi, accès élargi aux outils créatifs ou contrôle concentré entre quelques géants technologiques. Ces questionnements sont légitimes et nécessaires.
Au-delà des postures pro ou anti-IA
Plutôt que de réduire ces réactions à de simples postures « pro » ou « anti » technologies, il est sociologiquement plus fécond de les lire comme une ambivalence collective.
Robert K. Merton, dès 1976, montrait que les attitudes contradictoires des individus ne sont pas des incohérences personnelles, mais bel et bien le produit de positions sociales multiples et parfois incompatibles. Ainsi, une enseignante peut interdire ChatGPT dans sa classe d’histoire tout en l’utilisant le soir pour aider ses enfants avec leurs devoirs de mathématiques : ses positions d’enseignante et de parent génèrent des attentes contradictoires face au même outil.
L’IA comme fait social total
L’IA générative, en tant que fait social total (Mauss), cristallise ces tensions car chaque dimension révèle un paradoxe :
- Nos métiers : gain de temps individuel vs suppressions de postes
- Notre éducation : aide pédagogique vs triche
- Nos lois : droit d’auteur vs libre accès
- Nos représentations culturelles : créativité augmentée vs uniformisation
- Nos émotions : fascination vs inquiétude existentielle
Soit autant de contradictions qui nourrissent notre ambivalence.
Vers une techno-ambivalence consciente
À travers cet article, je souhaite dépasser l’opposition trop simpliste « technophilie vs technophobie » pour explorer davantage cette position plus nuancée de « techno-ambivalence » : pourquoi nous sommes à la fois fascinés et inquiets par l’IA et comment cette ambivalence peut devenir un moteur de réflexion collective.
En mobilisant la théorie de la domestication des technologies (Silverstone & Haddon), nous verrons comment la formation peut jouer un rôle clé pour transformer cette ambivalence en un processus d’appropriation consciente et critique, garantissant que l’humain reste « dans la boucle ».
Phénomène sociologique : L'IA générative comme fait social total et son ambivalence
Une transformation multidimensionnelle
L’IA générative n’est pas qu’un outil : c’est un fait social total, pour reprendre l’expression de Marcel Mauss.
Elle affecte simultanément :
- Nos relations économiques (productivité, automatisation, redistribution de valeur)
- Nos institutions (droit d’auteur, éducation)
- Nos émotions (peur de perdre son emploi, fascination pour les capacités créatives de la machine)
- Nos imaginaires collectifs (science-fiction, scénarios de fin du monde ou de renaissance technologique)
Les révolutions technologiques du passé
Nous avons déjà traversé des révolutions comparables :
L’invention de l’écriture a bouleversé la mémoire collective, transformant les métiers (scribes, archivistes), mais aussi l’autorité (passage de l’oralité à la preuve écrite).
Internet et les smartphones ont redéfini la communication, le commerce et la sociabilité, en créant à la fois de nouvelles opportunités et de nouvelles dépendances.
Ces révolutions ont d’abord suscité de vives résistances (Socrate lui-même craignait que l’écriture ne fasse « perdre la mémoire »), avant d’être intégrées dans nos pratiques au point de devenir invisibles. L’IA générative suit certainement une trajectoire similaire, mais à un rythme beaucoup plus rapide.
Comprendre l’ambivalence selon Merton
Selon Merton, l’ambivalence naît de la coexistence de normes et d’attentes contradictoires liées aux positions sociales. Un même individu peut être :
- Salarié poussé à innover avec l’IA pour rester compétitif
- Citoyen inquiet des effets sur la démocratie et la désinformation
- Parent soucieux de l’éducation de ses enfants dans un monde où l’IA sera omniprésente
Cette pluralité de rôles explique pourquoi les mêmes personnes peuvent applaudir l’IA un jour et la critiquer le lendemain.
L’ambivalence n’est pas une faiblesse : elle reflète une tension sociale légitime qui mérite d’être mise en mots et travaillée.
Clés de lecture
Sur le terrain : quand l’automatisation menace et libère à la fois
Une secrétaire de direction m’exprime en formation une ambivalence typique : « Avec les outils d’IA qui transcrivent les réunions, j’ai peur qu’on n’ait plus besoin de moi pour les procès-verbaux, mais c’est vrai que ça m’enlèverait 2h de prise de notes par conseil municipal. » Cette tension entre soulagement et angoisse existentielle l’a menée vers une expérimentation progressive : l’IA transcrit (en veillant à une transcription qui tient compte de la protection des données !), elle reformule et contextualise en y intégrant les nuances politiques locales que la machine ne saisit pas.
Quelques semaines plus tard, elle a découvert que sa valeur ajoutée n’était pas la frappe, mais l’interprétation et la connaissance institutionnelle. Son rôle a évolué vers la supervision des transcriptions automatiques transformant son ambivalence initiale en opportunité de montée en compétences.
Dépasser technophilie et technophobie : vers la « techno-ambivalence »
Les catégories « technophiles » et « technophobes » sont trop réducteurs. Dans la pratique, la plupart d’entre nous sont davantage « techno-ambivalent·e·s » :
- Nous intégrons l’IA dans nos pratiques, tout en posant des garde-fous (par exemple interdire ChatGPT pour un examen mais l’encourager pour la préparation).
- Nous admirons ses prouesses créatives, tout en craignant l’homogénéisation des discours.
- Nous en parlons comme d’un partenaire de travail, tout en sachant qu’il ne s’agit pas d’un sujet pensant.
Nommer cette ambivalence est une première étape pour l’accompagner plutôt que la subir.
De l’ambivalence à la domestication des technologies
Roger Silverstone et Leslie Haddon ont développé un modèle théorique influent pour comprendre comment les individus s’approprient les nouvelles technologies dans leur quotidien. Leur théorie de la domestication propose un cadre d’analyse en quatre dimensions interdépendantes qui permettent de saisir la complexité des processus d’adoption technologique. En adaptant le modèle de domestication des technologies de Silverstone et Haddon au contexte contemporain, nous pouvons observer comment l’intelligence artificielle générative s’intègre dans les pratiques quotidiennes selon quatre dimensions :
- Appropriation : création de comptes sur ChatGPT, Claude, Copilot, Midjourney, etc. premiers essais de génération de textes et d’images par curiosité professionnelle ou personnelle ;
- Objectivation : intégration dans les flux de travail (rédaction, brainstorming), création de prompts personnalisés sauvegardés, organisation de dossiers de créations générées ;
- Incorporation : génération quotidienne de contenus (articles, présentations, visuels marketing), assistance à la rédaction d’emails, création d’images pour les réseaux sociaux, aide aux devoirs et recherches;
- Conversion : partage de créations sur les réseaux sociaux avec mentions « généré par IA », discussions professionnelles sur l’efficacité des prompts, débats éthiques avec l’entourage, adaptation du discours selon l’acceptabilité sociale du contexte.
Cette relecture du modèle permet de saisir comment l’IA générative évolue d’outil technique complexe vers un assistant créatif familier et parfois quotidien pour les utilisateurs contemporains.
Garder l’humain « dans la boucle »
Si l’IA bouleverse nos métiers, elle ne signe pas leur disparition mais leur reconfiguration. Comme lors de l’apparition des ordinateurs ou d’Internet, certaines tâches disparaîtront, mais d’autres se créeront : superviser les algorithmes et corriger leurs erreurs, concevoir des prompts adaptés à chaque contexte métier, vérifier la fiabilité et la pertinence des contenus générés, former les collaborateurs à ces nouvelles pratiques, assurer la médiation entre intelligence artificielle et intelligence humaine
Cette reconfiguration des métiers révèle un enjeu collectif qui dépasse l’ambivalence individuelle : comment réguler ces technologies pour éviter que quelques acteurs concentrent tout le pouvoir ? Comment garantir que ces outils servent le bien commun plutôt que d’accentuer les inégalités ?
Comme le montre le processus de domestication des technologies, ces questions ne se résolvent pas spontanément par le seul usage : elles nécessitent un débat démocratique impliquant politiques publiques, entreprises, institutions et citoyens. L’ambivalence sociologique que nous ressentons individuellement appelle ainsi une régulation collective consciente.
Clés dans le moteur
La formation comme espace de médiation
La formation a ainsi un rôle crucial pour :
- Exprimer les craintes et les espoirs dans un espace collectif ;
- Développer la vigilance critique : apprendre à demander des sources, à formuler des contre-arguments, à tester les limites.
- Construire des pratiques éthiques : politique interne d’usage comme des Chartres IA, guidelines pour les employés ou étudiants, mutualisation de prompts responsables.
En tant que formatrice, je vois combien ces moments en atelier permettent souvent de transformer l’angoisse en compétence et la résistance en appropriation lucide.
Conclusion
Il convient ainsi de former pour accompagner la domestication consciente de ces technologies, débattre pour transformer l’ambivalence individuelle en réflexion collective ainsi que réguler pour garantir que l’humain reste dans la boucle. Ces trois leviers peuvent faire de cette révolution technologique une opportunité socialement maîtrisée plutôt qu’une fatalité techniquement imposée.
Références bibliographiques
- Mauss, M. (2012). Essai sur le don. Forme et raison de l’échange dans les sociétés archaïques. Presses Universitaires de France. (Œuvre originale publiée en 1925).
- Merton, R. K. (1976). Sociological ambivalence and other essays. Free Press.
- Silverstone, R., & Haddon, L. (1996). Design and the domestication of information and communication technologies: Technical change and everyday life. In R. Silverstone & R. Mansell (Eds.), Communication by design: The politics of information and communication technologies (pp. 44–74). Oxford University Press.
Formez vos équipes à l’IA
SOCIÉTÉ
OUTILIA Sàrl
Avenue de Grandson 48
1400 Yverdon-les-Bains
RESTONS CONNECTÉS
SERVICES
Formations IA
Coaching IA
© 2025 OUTILIA Sàrl
Protection des données