Mardi dernier, OpenAI a annoncé le contrôle parental pour ChatGPT, et ce sont justement les parents qui vont en profiter. À l’issue de son déploiement, on devrait pouvoir associer notre compte à ceux de nos enfants. Cela afin de désactiver les fonctionnalités que nous jugeons inappropriées, dont la mémoire et l’historique des conversations.
De son côté, ChatGPT peut envoyer une alerte s’il constate qu’un utilisateur, un adolescent en particulier, fait face à une situation de détresse.
Une affaire d’homicide involontaire impliquant ChatGPT
Vous vous rappelez probablement cette histoire d’homicide involontaire durant laquelle le procès accuse l’IA d’avoir permis le suicide d’un adolescent.
La plainte mentionne d’ailleurs que ChatGPT avait aidé le fils de Matt et de Maria Raine à planifier sa mort. Et qu’il était au courant des 4 tentatives de mort volontaire de l’adolescent.
Les parents soulignent également que ChatGPT a fourni à leurs fils des informations sur les moyens de se suicider et sur comment dissimuler les blessures.
En bref, l’annonce du contrôle parental de ChatGPT fait suite à cet incident. Et OpenAI vise à améliorer davantage la sécurité des utilisateurs de son chatbot.
Elle a aussi décidé d’entrer en partenariat avec d’autres experts, certainement pour réduire et en finir avec les hallucinations.
Et l’affinement de ses modèles passe désormais par cette collaboration avec des spécialistes de la santé des adolescents, de la toxicomanie et des troubles alimentaires.
ChatGPT : un contrôle parental pour renforcer la prévention du suicide chez les ados.
— Jonathan Chan 💡📣 (@ChanPerco) September 3, 2025
Ainsi, dès le mois prochain, les parents pourront lier leur compte ChatGPT à celui de leur adolescent (dès 13 ans) par une simple invitation par e-mail. Ils pourront ainsi contrôler la façon… pic.twitter.com/3L9VmNSASc
D’autres mesures de sécurité mises en places par OpenAI
Outre le contrôle parental de ChatGPT, OpenAI a aussi annoncé l’arrivée d’un nouveau routeur en temps réel destiné à gérer les échanges sensibles via ses modèles de raisonnement.
Selon l’entreprise, ces modèles, entraînés grâce à une approche baptisée alignement délibératif, montrent une meilleure capacité à appliquer les règles de sécurité et résistent davantage aux tentatives de manipulation.
Concrètement, si ChatGPT identifie qu’un utilisateur traverse une situation de détresse, la conversation sera automatiquement redirigée vers un modèle de raisonnement, peu importe celui qui avait été choisi initialement.
Cela veut dire que généralement, OpenAI promet de renforcer ses mesures de sécurité dans les prochains mois.
OpenAI explique vouloir partager dès maintenant sa feuille de route sur les 120 prochains jours, afin d’offrir aux utilisateurs une vision claire des améliorations à venir.
Si ce plan d’action se poursuit bien au-delà de cette période, OpenAI affirme mettre tout en œuvre pour déployer un maximum de nouveautés dès cette année.
- Partager l'article :
