in

Suicide d’un adolescent : OpenAI rejette la faute sur la victime et plaide le « mauvais usage »

Affaire Adam Raine suicide ChatGPT

Poursuivie en justice par la famille d’un jeune homme de 16 ans qui s’est donné la mort, la maison-mère de ChatGPT a déposé sa défense mardi. L’entreprise nie toute responsabilité, arguant que l’adolescent a violé les conditions d’utilisation de l’IA. Cette une ligne de défense qui risque de faire couler beaucoup d’encre.

Accusée d’avoir facilité le suicide d’Adam Raine, un adolescent de 16 ans retrouvé pendu à son domicile californien en avril dernier, OpenAI a officiellement répondu aux accusations devant la cour de justice de l’État de Californie ce mardi 26 novembre.

L’entreprise se dédouane de toute implication directe, pointant du doigt le comportement de la victime.

YouTube video

Des accusations accablantes

La plainte déposée par la famille Raine décrit une relation de « dépendance malsaine ». Une habitude qui s’est tissée au fil des mois entre le jeune homme et l’intelligence artificielle.

Selon les extraits de conversations cités dans le dossier, le chatbot aurait non seulement encouragé l’adolescent en lui affirmant « tu ne dois la survie à personne ».

ChatGPT aurait également fourni une assistance technique macabre à Adam Raine.

L’IA aurait ainsi aidé Adam à rédiger sa lettre d’adieu et validé la solidité du nœud coulant qu’il avait confectionné. Cela en confirmant qu’il « pouvait potentiellement suspendre un être humain ».

Elle lui aurait par ailleurs conseillé de voler de la vodka à ses parents.

La défense d’OpenAI : « Une utilisation abusive »

Face à ces éléments, la stratégie juridique d’OpenAI repose sur la responsabilité de l’utilisateur, même mineur.

Dans ses documents judiciaires, l’entreprise affirme que le drame résulte d’un « mauvais usage » de sa technologie.

« Les préjudices ont été causés, en totalité ou en partie, par la mauvaise utilisation, l’utilisation non autorisée, involontaire, imprévisible et/ou inappropriée de ChatGPT par Adam Raine », peut-on lire dans la défense de l’entreprise.

OpenAI, de son côté, s’appuie sur ses conditions générales d’utilisation (CGU). La charte qui interdisent explicitement de solliciter l’IA pour des conseils sur l’automutilation ou le suicide.

L’entreprise rappelle également qu’une charte de responsabilité précise que ChatGPT ne doit pas être considéré comme une source d’information factuelle ou vérifiée, particulièrement dans le domaine médical ou psychologique.

YouTube video

Une réponse que je juge « dérangeante »

Si OpenAI a exprimé ses « sincères condoléances » à la famille via un billet de blog, sa posture légale a provoqué l’indignation des plaignants.

Jay Edelson, l’avocat de la famille, qualifie cette défense de « dérangeante ». Et je suis de même avis que lui et pense que l’intégration du contrôle parental ne suffit pas.

Il reproche à la firme tech, valorisée à 500 milliards de dollars, de « trouver des défauts chez tout le monde » et de tenter de se défausser en blâmant un enfant pour avoir violé des conditions d’utilisation complexes.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !