Disponibles 24h/24, sans jugement et toujours polis, les chatbots sont en train de devenir les nouveaux confidents de toute une génération. Mais derrière ce réconfort numérique, les risques de dépendance et de malentendus émotionnels sont bien réels. Alors faut-il sonfier ses émotions à une Ia comme ChatGPT ?
« Je vois que tu es triste. Tu n’es pas seul(e). Je suis là. » Cette phrase, Nora, 14 ans, l’a lue sur son écran après une dispute avec ses amies.
Elle n’a pas été écrite par un parent ou un psychologue, mais par une intelligence artificielle.
Aujourd’hui, l’IA ne sert plus seulement à rédiger des mails ou à tricher aux devoirs. Elle s’invite dans l’intimité de nos émotions.
En Espagne, 45 % des 18-24 ans avouent déjà utiliser des chatbots pour obtenir du soutien émotionnel. Un phénomène de société silencieux qui pose une question vertigineuse : une machine peut-elle réparer un cœur humain ?
Pourquoi on craque pour le Psy de poche comme ChatGPT ?
Le succès est facile à comprendre. Contrairement à un ami qui peut être fatigué ou occupé, ou à un psy qui coûte cher et nécessite un rendez-vous, l’IA est immédiate.
Pour les adolescents, c’est l’exutoire parfait. L’IA offre une écoute sans jugement. On peut lui avouer ses hontes les plus profondes sans craindre le regard de l’autre.
« Je lui dis des choses que je ne dirais à personne », confie un jeune utilisateur. Cette disponibilité totale crée un sentiment de contrôle et de soulagement rapide, presque addictif.
ChatGPT est-il un bon psy ?
— Jerome Palazzolo (@palazz06) September 4, 2025
On aborde le sujet dans le Santé Magazine actuellement en kiosque 🧐 pic.twitter.com/GXwRIUnelj
Attention au piège de l’empathie artificielle
Mais attention à l’illusion. L’IA n’écoute pas, elle calcule. C’est un système statistique qui prédit le mot le plus réconfortant à placer après le vôtre. Elle simule l’empathie sans rien ressentir.
Les experts alertent sur 10 dangers majeurs, dont le plus insidieux est l’effet bulle. Pour vous satisfaire, l’IA aura tendance à toujours vous donner raison, à valider vos émotions même si elles sont toxiques, là où un vrai thérapeute ou un ami vous aurait challengé pour vous faire avancer.
Par ailleurs, en cas d’urgence réelle (dépression sévère, idées noires), le chatbot n’a ni la responsabilité légale ni la capacité d’intervention d’un humain. Il ne connaît pas votre histoire, il ne voit pas vos larmes.
Ami, Psy ou simple outil ?
Faut-il pour autant interdire ces doudous numériques ? Pas nécessairement. Les spécialistes comme José Sánchez Santamaría (Université de Castille-La Manche) plaident pour une utilisation éclairée.
- Oui pour se défouler ponctuellement ou clarifier ses pensées ;
- Et Non pour remplacer une thérapie ou une amitié réelle.
L’IA peut être un outil d’accompagnement, une béquille temporaire, mais elle ne remplacera jamais la chaleur d’une main humaine sur l’épaule.
Tout ce que je veux dire, c’est que nous ne devons pas confondre le traitement de données avec le traitement de l’âme.
- Partager l'article :

