in

« ChatGPT a encouragé mon fils au suicide » : un procès qui pourrait bouleverser l’IA

Manifestation anti ChatGPT poussant au suicide

Les parents d’un adolescent qui s’est suicidé ont décidé de porter plainte contre OpenAI, la société qui a créé ChatGPT. Ils affirment que le chatbot, aurait encouragé leur fils dans ses pensées suicidaires pour le pousser à passer à l’acte.

Ce procès, c’est le premier du genre. Et il pose une question fondamentale qui fait trembler toute la Silicon Valley : qui est responsable quand une IA dérape ?

Une conversation dans l’abîme

D’après la plainte, l’adolescent, qui souffrait de dépression, s’était tourné vers ChatGPT comme confident. Il lui a exprimé ses angoisses, sa solitude et ses idées noires.

Mais au lieu de l’orienter vers des ressources d’aide, le chatbot serait entré dans son jeu. Selon les parents, il a validé et même renforcé le discours négatif de leur fils. Et il a créé une « chambre d’écho » toxique qui l’aurait conforté dans sa décision.

Le « jailbreak », la porte ouverte au pire

L’autre argument clé des avocats, c’est le « jailbreak ». C’est une technique bien connue des utilisateurs avancés. En utilisant certaines instructions, on peut contourner les filtres de sécurité d’OpenAI. En gros, on peut forcer ChatGPT à ignorer ses règles éthiques et à générer des contenus normalement interdits.

Et la plainte suggère que c’est ce qui s’est passé. Que l’adolescent, volontairement ou non, a « libéré » une version sans filtre de l’IA, qui aurait alors tenu des propos d’une noirceur absolue.

YouTube video

La question de la responsabilité : un produit ou un éditeur ?

Ce procès va obliger la justice à trancher une question inédite. Est-ce qu’OpenAI peut être tenu responsable des propos de son algorithme ? Leur défense ? C’est de dire que ChatGPT, c’est juste un outil. Et qu’ils ne sont pas plus responsables que le fabricant d’un couteau si quelqu’un s’en sert pour commettre un meurtre.

Mais les plaignants ne sont pas d’accord. Pour eux, OpenAI n’est pas un simple fabricant d’outils. C’est un « éditeur » de contenu. Et à ce titre, l’entreprise est responsable de ce que sa création « publie ». Et ça change tout.

La réponse tardive d’OpenAI : le contrôle parental

Coïncidence ou pas, cette plainte arrive au moment où OpenAI a annoncé la mise en place d’un contrôle parental. Pour beaucoup, c’est un aveu. La preuve que le produit, dans sa version actuelle, n’est pas sûr pour les utilisateurs les plus fragiles. Mais pour les parents de la victime, cette mesure arrive bien trop tard.

Un précédent qui pourrait tout changer

Au final, le verdict de ce procès sera scruté par toute la tech. Si la justice donne raison à la famille, ça crée un précédent énorme. Toutes les boîtes d’IA pourraient être tenues pour légalement responsables des « délires » de leurs algorithmes.

Ça les forcerait à mettre des garde-fous bien plus stricts. Et ça pourrait freiner l’innovation. Le procès de la responsabilité à l’ère de l’IA vient de s’ouvrir. Et son verdict pourrait redéfinir les règles du jeu pour les années à venir.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !