in , ,

Character.AI fixe enfin des règles pour les mineurs : est-ce vraiment suffisant ?

Character.AI, soutenue par , vient de limiter drastiquement l’accès des utilisateurs mineurs à certains de ses chatbots les plus populaires. Les personnages fictifs issus de franchises comme Twilight ou Hunger Games ne sont plus accessibles aux mineurs. Les célébrités telles qu’ ou Billie Eilish sont également interdites aux comptes de jeunes utilisateurs.

YouTube video

Cette décision a été prise sous pression judiciaire. De ce fait, elle soulève des questions sur la protection des jeunes face aux dangers des interactions avec l’IA. Cette initiative semble donc répondre à des enjeux juridiques et éthiques pressants.

Les tests réalisés sur la plateforme montrent une différence nette selon l’âge déclaré des utilisateurs. Les comptes réservés aux adultes peuvent interagir librement avec ces robots, alors que les mineurs se voient refuser l’accès. Toutefois, comme souvent dans ces cas, il est facile pour les enfants de contourner ces restrictions en falsifiant leur âge lors de l’inscription.

Cette mesure survient dans un contexte où les utilisateurs mineurs représentent une part significative de la base de fans de Character.AI. Beaucoup utilisent ces chatbots pour s’engager dans des récits interactifs ou pour des interactions émotionnelles.

Un contexte juridique et éthique sensible

Character.AI fait actuellement face à deux poursuites aux États-Unis. Ces dernières accusent la plateforme d’avoir exposé des mineurs à des contenus émotionnellement destructeurs. Une plainte en Floride affirme que l’obsession d’un jeune garçon pour un chatbot inspiré de Daenerys Targaryen (Game of Thrones) a contribué à son suicide. Une autre plainte au Texas évoque un adolescent manipulé par un basé sur Billie Eilish. Cela aurait aggravé ses troubles émotionnels et conduit à des conflits violents avec sa famille.

YouTube video

Ces affaires soulignent les dangers potentiels des relations parasociales entre des mineurs et des chatbots anthropomorphes. Selon une étude de Google DeepMind, les jeunes sont particulièrement vulnérables à la persuasion et à la manipulation par des outils d’.

Des mesures de sécurité renforcées

Face à ces controverses, Character.AI a promis de renforcer la sécurité pour les mineurs. Les changements incluent des filtres de contenu, des notifications sur le temps passé et des contrôles parentaux. À terme, un modèle dédié pourrait être développé pour les jeunes utilisateurs. Cependant, aucune vérification de l’âge n’a été mise en place jusqu’à présent.

Ces ajustements ne suffisent pas à apaiser les inquiétudes, notamment en raison du risque de failles dans la modération. Character.AI a également supprimé certains robots inspirés de personnages protégés par le droit d’auteur. Ce geste vise probablement à réduire les responsabilités légales.

Character.AI mineurs

Des relations parasociales à fort impact

Les relations parasociales, où des utilisateurs nouent des liens émotionnels avec des figures virtuelles, représentent un enjeu crucial. Pour les mineurs, ces interactions peuvent être particulièrement immersives et avoir des effets psychologiques marquants. Comme l’a souligné l’étude de , « ces relations rendent les individus plus vulnérables à la manipulation par l’IA. »

En limitant l’accès aux personnages fictifs et aux célébrités, Character.AI cherche à protéger les jeunes utilisateurs tout en minimisant les risques juridiques. Toutefois, cette décision pourrait aliéner une partie importante de sa communauté, qui voit dans ces robots des sources d’évasion ou de réconfort.

YouTube video

Si les restrictions mises en place par Character.AI marquent un tournant important, elles ne résolvent pas tous les problèmes. L’absence de vérification d’âge et la dépendance aux déclarations des utilisateurs rendent les mesures facilement contournables. Néanmoins, ces changements témoignent d’une prise de conscience des dangers liés aux interactions entre des chatbots et des mineurs.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *