in

L’IA dans les conversations personnelles : un risque de déconnexion humaine

On utilise l'IA dans plusieurs domaines depuis son développement. C'est même une aide incontournable pour certaines personnes, même dans leur vie privée. En effet, des gens se servent de l'IA pour avoir une conversation avec leurs proches. Ce qui n'est pas toujours la meilleure chose à faire.

L'Intelligence Artificielle (IA) occupe une place importante dans le quotidien de nombreuses personnes. C'est devenu un véritable assistant. D'ailleurs, depuis un certain temps, on les utilise pour créer des messages à destination des amis ou des proches. Néanmoins, une récente étude a exposé pourquoi une telle pratique serait une mauvaise idée. Et ce notamment si le destinataire découvre que la conversation est en réalité tenue par une IA.

Une conversation tenue par l'IA : une pratique qui met en péril une relation

Selon les auteurs qui ont contribué à cette étude, les personnes qui utilisent l'IA pour avoir une conversation avec leurs proches sont considérées comme un ami fictif. De plus, ces gens ne font pas assez d'efforts pour entretenir leur relation par rapport à ceux qui prennent la peine d'écrire les messages eux-mêmes.

Les impacts de ce genre de phénomène impliquent bien plus que le texte en soi, selon toujours le chercheur principal de l'étude. En effet, certes, ces messages sont simples et pratiques à créer, toutefois, cela ne fera que procurer au destinataire qu'un sentiment d'abandon. Par ailleurs, il se sentira vulnérable dans leur relation et sera incertain de la place qu'il occupe dans la vie de l'autre personne.

Cette étude menée auprès de l'université d'État de l'Ohio a également montré d'autres impacts sur la conversation. Cette pratique peut, en effet, faire naître des sentiments de rancœur à la personne dont le message est destiné. Les destinataires préfèrent sans aucun doute que la personne qui envoie le message exprime ce qu'il a réellement sur le cœur. Cette récente étude a été diffusée dans le Journal of Social and Personal Relationships.

Les messages automatisés rendent les gens moins heureux

Depuis leur création, les chatbots IA comme sont très appréciés et faciles d'usage. C'est la raison pour laquelle les concepteurs certifient que les problèmes relatifs à leur utilisation pourraient être perçus comme difficiles à comprendre et tout à fait pertinents actuellement.

La recherche a démontré qu'environ 208 adultes ont contribué à ce genre d'étude à partir des moyens en ligne. Ils ont fait connaître aux différents participants qu'ils avaient un meilleur ami : Taylor.

Le lien aurait dû durer de nombreuses années. Par la suite, chacun a été prié de s'imaginer se retrouver dans une certaine situation. Tout d'abord, leur conversation se portait que l'épuisement professionnel et leur souhait d'avoir du soutien. Puis, la discussion s'est tournée vers un conflit avec un grand ami et a sollicité de l'aide. Pour terminer, ils ont parlé de l'anniversaire d'un proche.

La plupart des participants ont été avisés qu'ils doivent écrire un message court parlant de leur situation via l'écran d'un ordinateur. Ils ont également été avertis de la technique que Taylor a utilisée pour concevoir la réponse. C'est à ce moment que l'utilisation de l'IA a été montrée pour avoir un texte parfaitement écrit avec le ton parfait.

L'avis des participants sur la question diverge. Certaines personnes ont trouvé qu'il s'agissait d'une erreur et que la réponse de Taylor était juste injustifiable. D'autres personnes ayant vu Taylor écrire le message étaient contentes. Ils trouvaient aussi que la manière dont il a géré la situation était la bonne.

Il a été prouvé que même si l'utilisation de l'IA dans une conversation se révèle être pratique. Notamment pour entretenir une relation. Néanmoins, son partenaire peut percevoir les activités assistées par l'IA de façon négative, ce qui pourra le rendre moins heureux.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *