Et si les échanges quotidiens avec une IA révélaient un manque plus profond ? Une nouvelle étude d’OpenAI et du MIT Media Lab met en lumière un lien entre l’usage intensif de ChatGPT et la solitude grandissante de certains utilisateurs.
Passer beaucoup de temps à discuter avec une IA pourrait bien révéler un isolement. Cette étude suggère que les utilisateurs les plus assidus de ChatGPT tendent à se sentir plus seuls et dépendants. Ces résultats sont issus de deux recherches croisées qui explorent les liens entre usage intensif et relations sociales. Si l’IA offre une écoute constante, elle ne remplace pas pour autant la chaleur humaine.
Les chercheurs ont notamment observé que les utilisateurs engagés dans des discussions expressives sur le plan émotionnel ressentaient davantage de solitude. Il reste difficile de savoir si le chatbot renforce l’isolement ou s’il attire simplement ceux qui le ressentent déjà. L’étude pointe toutefois une tendance claire : ceux qui s’attachent émotionnellement à l’IA sont aussi ceux qui ont le moins de connexions sociales en dehors de l’écran.
Des résultats qui posent de questions sur l’impact émotionnel
Les chercheurs ont analysé près de 40 millions d’interactions, avant d’interroger plus de 4 000 utilisateurs pour affiner leur lecture. Une seconde étude a consisté à suivre 1 000 volontaires pendant quatre semaines. Tous devaient échanger au moins cinq minutes par jour avec ChatGPT. Puis, ils ont rempli un questionnaire mesurant solitude, engagement social et attachement émotionnel.
Les données révèlent que les chatbots vocaux, initialement perçus comme plus réconfortants que les interfaces textuelles, perdent cet effet apaisant au fil du temps. Fait marquant, les femmes ayant interagi avec une voix de genre opposé sur ChatGPT ont signalé des niveaux de solitude encore plus élevés. Au bout d’un mois, elles socialisaient moins que les hommes ayant suivi le même protocole.
Une technologie qui demande encore du recul et de la prudence
Les experts interrogés s’accordent à dire que ces outils ne doivent pas être diabolisés, mais encadrés. Pour le Dr Andrew Rogoyski, l’humanité avance à tâtons avec ces technologies émotionnellement engageantes. Il compare l’usage intensif des IA conversationnelles à de la « chirurgie cérébrale ouverte », tant leurs effets à long terme restent incertains. Selon lui, les conséquences pourraient dépasser celles des réseaux sociaux si des garde-fous ne sont pas établis.
Le Dr Theodore Cosco reconnaît lui aussi les risques, mais y voit également un potentiel de soutien. Les personnes isolées pourraient y trouver une forme de présence réconfortante, à condition d’utiliser ces outils avec lucidité. Enfin, la chercheuse Doris Dippold invite à s’interroger. « Est-ce l’outil qui enferme, ou bien le reflet d’un besoin mal comblé dans la société actuelle ? ». Autrement dit, l’IA ne fait-elle que souligner nos carences affectives déjà existantes ?
- Partager l'article :