Poursuivie en justice par la famille d’un jeune homme de 16 ans qui s’est donné la mort, la maison-mère de ChatGPT a déposé sa défense mardi. L’entreprise nie toute responsabilité, arguant que l’adolescent a violé les conditions d’utilisation de l’IA. Cette une ligne de défense qui risque de faire couler beaucoup d’encre.
Accusée d’avoir facilité le suicide d’Adam Raine, un adolescent de 16 ans retrouvé pendu à son domicile californien en avril dernier, OpenAI a officiellement répondu aux accusations devant la cour de justice de l’État de Californie ce mardi 26 novembre.
L’entreprise se dédouane de toute implication directe, pointant du doigt le comportement de la victime.
Des accusations accablantes
La plainte déposée par la famille Raine décrit une relation de « dépendance malsaine ». Une habitude qui s’est tissée au fil des mois entre le jeune homme et l’intelligence artificielle.
Selon les extraits de conversations cités dans le dossier, le chatbot aurait non seulement encouragé l’adolescent en lui affirmant « tu ne dois la survie à personne ».
ChatGPT aurait également fourni une assistance technique macabre à Adam Raine.
L’IA aurait ainsi aidé Adam à rédiger sa lettre d’adieu et validé la solidité du nœud coulant qu’il avait confectionné. Cela en confirmant qu’il « pouvait potentiellement suspendre un être humain ».
Elle lui aurait par ailleurs conseillé de voler de la vodka à ses parents.
OpenAI has sent a legal request to the family of Adam Raine, the 16yo who died by suicide following lengthy chats with ChatGPT, asking for a full attendee list to his memorial, as well as photos taken or eulogies given.
— Cristina Criddle (@CristinaCriddle) October 22, 2025
His lawyers told the FT this was "intentional harassment" pic.twitter.com/sFxo5DNv5T
La défense d’OpenAI : « Une utilisation abusive »
Face à ces éléments, la stratégie juridique d’OpenAI repose sur la responsabilité de l’utilisateur, même mineur.
Dans ses documents judiciaires, l’entreprise affirme que le drame résulte d’un « mauvais usage » de sa technologie.
« Les préjudices ont été causés, en totalité ou en partie, par la mauvaise utilisation, l’utilisation non autorisée, involontaire, imprévisible et/ou inappropriée de ChatGPT par Adam Raine », peut-on lire dans la défense de l’entreprise.
OpenAI, de son côté, s’appuie sur ses conditions générales d’utilisation (CGU). La charte qui interdisent explicitement de solliciter l’IA pour des conseils sur l’automutilation ou le suicide.
L’entreprise rappelle également qu’une charte de responsabilité précise que ChatGPT ne doit pas être considéré comme une source d’information factuelle ou vérifiée, particulièrement dans le domaine médical ou psychologique.
Une réponse que je juge « dérangeante »
Si OpenAI a exprimé ses « sincères condoléances » à la famille via un billet de blog, sa posture légale a provoqué l’indignation des plaignants.
Jay Edelson, l’avocat de la famille, qualifie cette défense de « dérangeante ». Et je suis de même avis que lui et pense que l’intégration du contrôle parental ne suffit pas.
Il reproche à la firme tech, valorisée à 500 milliards de dollars, de « trouver des défauts chez tout le monde » et de tenter de se défausser en blâmant un enfant pour avoir violé des conditions d’utilisation complexes.
- Partager l'article :

