REGARD SOCIOLOGIQUE

GPT-5 et utilisateurs déçus : quand l’IA change de « personnalité »

Avec l’arrivée de GPT-5, de nombreux utilisateurs ont eu l’étrange impression que leur assistant IA préféré avait changé de ton… voire de « personnalité ». Plus concis, moins chaleureux, parfois perçu comme distant, le nouveau modèle GPT-5 a surpris et même déçu certains habitués à ses petites attentions. Derrière cette réaction collective, je décortique un phénomène bien connu : notre tendance à projeter des traits humains sur les technologies. Entre attachement affectif, routines brisées et illusion d’empathie, cette relation quasi-sociale avec l’IA dit autant de nous que des machines que nous façonnons. Une réflexion qui rejoint l’approche que nous développons dans notre agence de formation IA.
Sabine Jacot OUTILIA Sàrl (1)

Dre. Sabine Jacot
Formatrice IA Senior

GPT-5 sous la loupe : le cas qui interpelle

Déception GPT-5 utilisateur, capture écran de réseaux sociaux

Depuis la mise en service de GPT-5, la frustration de cette internaute, illustrée dans un post publié sur Reddit, a été partagée par des milliers d’utilisateurs. Si elle peut paraître surprenante, elle révèle pourtant un phénomène sociologique qui se renforce à l’ère du déploiement exponentiel de l’intelligence artificielle générative conversationnelle : l’attachement affectif voué par les humains aux interfaces conversationnelles. À travers cette doléance, nous pouvons avoir en effet l’impression que ChatGPT aurait modifié « son caractère » ; aussi, dès qu’une IA modifie son ton, son style ou ses réponses après une mise à jour par exemple, certains individus y voient comme un changement de « personnalité » de l’interface. C’est la raison pour laquelle beaucoup d’utilisateurs ont déclaré que GPT-5 était devenu plus concis ou moins chaleureux. Le nouveau modèle utilise en effet moins de touches d’humour ou de flatterie que le modèle précédent GPT-4o : là où l’ancien modèle ajoutait parfois des compliments ou marques d’empathie (« Bravo, tu fais du bon travail ! »), le nouveau paraît alors plus sobre et distant. 

Ce phénomène s’explique par notre tendance à anthropomorphiser les technologies et à tisser une relation quasi-sociale avec elles. De ce fait, toute modification des scripts conversationnels ou d’habitudes de réponse tissées avec une IA peut rompre nos repères et provoquer en conséquence chez certains un sentiment d’étrangeté, de déception voire de nostalgie. S’il ne s’agit en réalité que d’ajustements techniques ou de consignes de design, il reste qu’ils ont un impact sur notre ressenti et par la suite nos usages. Et si cette dimension est d’autant plus marquée chez les utilisateurs réguliers ou attachés à leurs routines, elle touche potentiellement tout le monde, y compris celles et ceux qui ont conscience des ressorts de l’anthropomorphisme technologique.

Pour saisir davantage les enjeux de ce phénomène, explorons ce concept d’anthropomorphisme pour mieux cerner ce qui se cache derrière ce changement perçu de « personnalité » de l’IA cheffe de file qui en a froissé nombre d’entre nous cet été 2025.

L'anthropomorphisation des technologies : un phénomène sociologique

L’anthropomorphisation désigne un processus psychologique et culturel consistant à attribuer des caractéristiques, des comportements, des émotions ou encore des intentions humaines à des entités non-humaines (phénomènes naturels, objets, animaux, technologies,…). Autrement dit, quand on se surprend à dire que « la nature se fâche » ou que « ma voiture refuse de démarrer ». Et désormais que « L’IA me ment sur ce sujet ». Ce processus s’apparente au fonctionnement décrit par Kahneman (2012) du « système 1 » (mode de pensée instantanée et heuristique de notre cerveau) où nous privilégions des réponses intuitives et automatiques face à la complexité algorithmique.

Et pourquoi avons-nous tendance, toute proportion gardée, à considérer ces entités non-humaines comme des êtres humains qu’ils ne sont pas par essence ? Parce que nous anthropomorphisons. Ce processus nous permet en effet de rendre le comportement d’entités non humaines intelligible, de satisfaire des besoins relationnels ou encore de prédire et mieux contrôler notre environnement (Epley et al., 2007).

En ce sens, l’anthropomorphisme remplit plusieurs fonctions qui peuvent agir de manière intriquée.

Cognitive

Sert à réduire la complexité et rendre plus saisissable un monde abstrait en lui appliquant des schémas humains. 

Exemple : dans Her (2013), Theodore attribue des émotions et une personnalité à son système d’exploitation Samantha, ce qui lui rend la technologie à la fois plus intelligible et familière.

Affective et relationnelle

Vise à projeter des traits humains sur le non-humain qui favorise l’attachement, la proximité émotionnelle et le sentiment de relation.

Exemple : dans Seul au monde (2000), Chuck Noland (Tom Hanks) se dispute avec son ballon Wilson pour simuler une interaction sociale qui l’aide à survivre à l’isolement dans sa vie spartiate insulaire.

Symbolique et culturelle

Sert à rendre accessibles des forces invisibles (dieux, esprits, nature) dans les récits mythologiques ou religieux et à transmettre des récits collectifs en un patrimoine culturel partagé.

Exemple : dans la mythologie grecque, Arès, Athéna, Éros ou Némésis incarnent respectivement la guerre, la sagesse, l’amour ou la vengeance sous forme de divinités aux comportements humains.

Morale et normative

Permet d’assigner des codes moraux et d’orienter les comportements individuels en normes de conduite (valorisées ou sanctionnées).

Exemple : dans Le Lièvre et la Tortue (La Fontaine, 1668), la persévérance et l’humilité de la tortue l’emportent sur l’arrogance du lièvre (« Rien ne sert de courir, il faut partir à point »).

Projective

Sert à projeter des émotions, frustrations ou désirs sur le non-humain.

Exemple : dans Toy Story (1995), Woody incarne la peur de l’abandon et la difficulté à accepter le changement face à l’arrivée de Buzz l’Éclair. 

Esthétique et créative

Donne une voix humaine, des traits de personnalité à des objets pour enrichir récits et œuvres littéraires ou créer un univers narratif et visuel qui capte l’attention, facilite la mémorisation et rend le produit plus attrayant.

Exemple : Les M&M’s, dotés de personnalités contrastées (Rouge : sérieux et cynique ; Jaune : naïf et gourmand ; Miss Verte : séductrice) dans une scénarisation humoristique qui transforme un simple produit en personnages récurrents et distinctifs (effet von Restorff), renforçant une meilleure reconnaissance de la marque dans un marché saturé.

Politique

Sert de levier militant ou de critique sociale.

Exemple : dans La Ferme des animaux (Orwell, 1945), les animaux organisent une révolution, allégorie de la critique du totalitarisme stalinien. 

Utilitaire et pragmatique

Attribuer des intentions aux machines (IA, robots, voitures autonomes) permet de mieux les utiliser et de rendre plus naturelle l’interaction.

Exemple : avec Siri, on dit « Merci » ou on s’énerve contre elle comme si elle avait une volonté propre, un mécanisme qui fluidifie l’interaction en entretenant toutefois une illusion de compréhension.

Ces fonctions ne sont cependant pas neutres : si l’anthropomorphisme aide à se repérer dans un univers complexe en le ramenant à des codes humains, il peut aussi tromper, orienter nos comportements ou remettre abusivement notre confiance (effet Dunning-Kruger ou biais de surconfiance) à des objets techniques si nous n’en prenons pas suffisamment conscience. Cette délégation excessive en l’automatisation peut conduire alors à négliger notre vigilance critique (Parasuraman et Riley, 1997). Si bien qu’avec la massification de l’usage des LLM (Large Language Model), ce biais se manifeste par l’acceptation non-critique de réponses perçues comme étant « bien formulées » et à la transmission à l’IA de tâches cognitives complexes sans vérification.

Anthropomorphisme et IA : un phénomène ancien mais amplifié

Notre tendance naturelle à projeter de la cognition et de la conscience sur des systèmes qui ne font que manipuler des symboles (tels que les « tokens ») selon des règles prédéfinies n’est pas nouvelle. Dès 1976, Weizenbaum alertait sur les réactions anthropomorphiques suscitées par ELIZA chez des utilisateurs pourtant avertis. Ce simple programme, qui ne faisait que reformuler les propos en questions à la manière d’un thérapeute rogérien, trompait même des experts qui lui attribuaient empathie et compréhension.

Des relations quasi-sociales avec l’IA

Il est par ailleurs fréquent que les utilisateurs développent des relations quasi-sociales avec les IA, un phénomène que Turkle (2011) avait déjà observé avec les technologies interactives antérieures (des Tamagotchis aux robots compagnons comme Paro ou AIBO).

Cette tendance s’est donc particulièrement intensifiée avec l’émergence des chatbots conversationnels avancés comme ChatGPT, Claude, Gemini ou Copilot, dont la sophistication linguistique et la capacité à maintenir une cohérence conversationnelle prolongée créent une illusion d’intersubjectivité plus convaincante que les générations technologiques précédentes.

Nous développons ainsi des habitudes dialogiques, des sentiments proches de la loyauté voire de confiance vis-à-vis d’interface technologique ou encore des préférences pour des assistants virtuels. Dans certains cas, il peut arriver que des personnes s’y attachent émotionnellement et perçoivent même des sentiments d’empathie réciproque. 

Un phénomène à double tranchant

L’anthropomorphisme appliqué à l’IA est ainsi un phénomène à double tranchant : il facilite à la fois l’interaction naturelle avec la technologie tout en générant des risques significatifs pour les utilisateurs que nous sommes. En effet, attribuer des caractéristiques humaines aux systèmes d’IA peut notamment conduire à :

  • une surconfiance épistémique où la perception d’humanité masque les limites et biais algorithmiques ; 
  • une dépendance émotionnelle qui substitue aux relations humaines authentiques des liens parasociaux avec des entités artificielles ; 
  • des manipulations possiblement commerciales et émotionnelles ; 
  • l’érosion de notre agentivité par un transfert excessif de responsabilité vers l’IA. 

Cependant, ces dérives ne sont pas inéluctables : un anthropomorphisme conscient et maîtrisé, soutenu par une éducation appropriée à l’IA et aux médias numériques, peut préserver les bénéfices de l’interaction intuitive tout en préservant notre esprit critique, notre autonomie et notre responsabilité collective face à ces technologies nouvelles aujourd’hui massivement utilisées.

Clés pratiques pour mieux utiliser l’IA et GPT-5

Nommer clairement l’IA pour ce qu’elle est

Lorsque vous commentez ou partagez une réponse, dites « ChatGPT a généré » plutôt que « ChatGPT pense » : cela permet de maintenir une distance critique et de ne pas surévaluer ses capacités cognitives.

Croiser systématiquement toutes les informations et spécifiquement les plus sensibles

Pour toute décision importante (donnée juridique, médicale, stratégique), validez auprès d’une source humaine ou d’un document officiel. L’IA est un outil de génération de contenu, pas de vérité.

Limiter les usages émotionnellement chargés

Évitez de recourir à l’IA comme unique confident dans les moments de solitude ou de stress : privilégiez un échange avec un collègue, ami ou professionnel pour des sujets impliquant vos émotions.

Mettre en place des rituels de vérification

À la fin d’un échange, demandez à l’IA : « Peux-tu me donner tes sources ? » ou « Peux-tu me donner un contre-argument ? ». Cela permet de détecter les zones d’incertitude et d’éviter de prendre la réponse pour un fait acquis.

Impliquer vos équipes dans l’adaptation

Si vous êtes en contexte professionnel, organisez des séances pour reparamétrer les prompts et co-construisez les usages IA avec vos collaborateurs pour passer de la méfiance à une meilleure appropriation collective.

Surveillez vos propres réactions émotionnelles face aux réponses de l’IA

Si vous ressentez de la gratitude, de la frustration ou de l’attachement, c’est le signal que l’anthropomorphisme opère. Si une réponse vous semble flatteuse, très empathique ou très catégorique, marquez une pause : cela n’est pas le signe d’intention, mais de génération statistique.

Références bibliographiques

  • Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886.
  • Kahneman, D. (2012). Système 1, système 2 : Les deux vitesses de la pensée (R. Clarinard, Trad.). Flammarion.
  • Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, performance. Human Factors, 39(2), 230-253.
  • Turkle, S. (2011). Alone together: Why we expect more from technology and less from each other. Basic Books
  • Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. W. H. Freeman & Co.

Formez vos équipes à l’IA

SOCIÉTÉ

OUTILIA Sàrl
Avenue de Grandson 48
1400 Yverdon-les-Bains

RESTONS CONNECTÉS

LinkedIn

SERVICES

Formations IA

Coaching IA

© 2025 OUTILIA Sàrl

Protection des données