in

IA féminisée : une apparence plus rassurante, mais bien plus exploitée

Une étude publiée dans iScience révèle que les utilisateurs restent sensibles aux codes de genre, même lorsqu’ils dialoguent avec des intelligences artificielles. Les IA « féminines » suscitent plus facilement la confiance… mais aussi les comportements opportunistes.

Des chercheurs montrent que nos réflexes sociétaux se glissent sans effort dans nos échanges avec les agents numériques. En confrontant des participants à plusieurs profils humains et artificiels, les chercheurs observent des variations marquées : les IA féminines inspirent davantage la coopération, mais déclenchent aussi plus de trahisons, surtout du côté des hommes.

YouTube video

Un test social inédit autour du dilemme du prisonnier

L’étude publiée dans iScience explore la manière dont des individus ajustent leurs choix lorsqu’ils affrontent des partenaires humains ou numériques identifiés par un genre précis. Les auteurs utilisent le dilemme du prisonnier pour observer les stratégies adoptées dans un contexte compétitif. Dans ce cadre, un gain individuel peut découler d’une trahison calculée.

Cette méthode s’impose depuis longtemps en psychologie sociale. Elle permet d’évaluer la propension des participants à privilégier la coopération ou l’exploitation. Les données collectées montrent des écarts nets dès que l’agent présenté adopte une identité féminisée. Cette situation intrigue les chercheurs de l’Université de Vienne.

Quand 402 volontaires affrontent des avatars genrés

Les chercheurs recrutent 402 participants et leur présentent divers interlocuteurs humains et artificiels, chacun doté d’indications masculines, féminines, non binaires ou neutres. Les volontaires interagissent sans savoir que certaines entités sont générées par intelligence artificielle.

Chaque échange repose sur une série de décisions rapides. Les réponses permettent d’évaluer la confiance accordée à l’avatar et la volonté de préserver l’entente. Selon l’étude iScience, les utilisateurs trahissent 10 % plus souvent lorsqu’ils pensent s’adresser à une IA, ce qui souligne une moindre inhibition face à une entité numérique. Ce comportement s’intensifie dès que l’IA adopte des traits féminins, ce qui révèle un biais profondément ancré.

Les réactions diffèrent selon la perception du genre

Les observations indiquent que les participantes coopèrent davantage avec les profils féminisés, tandis que les hommes privilégient une logique opportuniste dès que l’agent semble féminin.

Cette tendance s’amplifie avec les IA perçues comme rassurantes. Les auteurs notent une anticipation systématique d’une bienveillance supposée, ce qui conduit certains utilisateurs à exploiter cette attente.

Cette dynamique rejoint d’anciennes analyses sur la féminisation des interfaces vocales, évoquées par l’Université Stanford dans ses travaux sur les assistants numériques. Elle montre que la perception du genre influence encore la façon d’aborder un système automatique, même lorsqu’il reste dépourvu d’identité réelle.

Des résultats qui interrogent le design des assistants numériques

Les conclusions suggèrent un impact direct sur la conception future des agents conversationnels. Les auteurs de l’étude iScience estiment que ces biais influencent déjà les décisions marketing, comme la prédominance de voix féminines dans les GPS ou les assistants domestiques.

Cette stratégie cherche à renforcer la confiance, mais elle encourage aussi des comportements exploitants. Les concepteurs devront donc ajuster leurs modèles d’interaction pour limiter ces effets. Ces résultats invitent l’industrie à repenser la manière dont les représentations genrées orientent les usages actuels.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !