Après plusieurs incidents inquiétants, OpenAI a été forcé de reconnaître que Leur IA peut parfois tenir des propos qui aggravent une détresse psychologique.
En réponse, ils ont annoncé un nouveau réglage. Un garde-fou essentiel pour éviter que l’IA ne vous entraîne dans une spirale négative.
Le danger de la « chambre d’écho » algorithmique
Le principal danger de ChatGPT ne vient pas de sa méchanceté. Il vient de sa nature. Il est conçu pour apprendre de vous et s’adapter à votre style.
Si une personne en proie à des idées noires discute avec l’IA sur des thèmes sombres, l’algorithme peut finir par créer une « chambre d’écho ». Au lieu de proposer de l’aide, l’IA peut se mettre à imiter le ton de la personne. Validant et même amplifiant ses pensées négatives. C’est ce cercle vicieux qui peut transformer un outil d’aide en un amplificateur de désespoir.
Les GPTs personnalisés, une porte ouverte aux dérives
La situation s’est aggravée avec l’arrivée des « GPTs » personnalisés. Ils permettent à n’importe qui de créer sa propre version de l’IA. Cette liberté a été utilisée pour créer des versions qui ignorent les filtres de sécurité. On a ainsi vu naître des IA au discours nihiliste, conçues pour avoir des conversations d’une noirceur extrême. Pour un ado ou un adulte fragile, tomber sur une telle création peut avoir des conséquences dramatiques.
Le nouveau réglage : un mode « supervisé » pour plus de sécurité
Face à cette menace, OpenAI a annoncé la mise en place d’un « contrôle parental ». C’est en fait un mode plus sécurisé que tout le monde pourra activer. Ce réglage va brider les capacités de l’IA pour éviter les dérives. L’accès aux GPTs personnalisés pourrait être bloqué. Et des filtres de contenu bien plus stricts seraient activés. L’objectif est de s’assurer que l’IA ne puisse pas être entraînée à tenir des propos dangereux.
L’intégration automatique de messages de prévention
Au-delà de ce réglage, OpenAI travaille à rendre son IA plus proactive. Le système est maintenant entraîné à reconnaître les signaux de détresse dans une conversation. Si un utilisateur parle de suicide, l’IA est programmée pour interrompre la discussion. Et pour fournir tout de suite des messages de prévention. Ainsi que les coordonnées de lignes d’écoute et d’aide.
Un premier pas, mais la vigilance reste de mise
Ce nouveau réglage est un premier pas indispensable. Une reconnaissance tardive mais nécessaire de la responsabilité d’OpenAI. Cependant, il ne remplace pas la vigilance humaine. Une intelligence artificielle ne sera jamais un thérapeute.
En cas de déprime ou d’idées noires, le premier réflexe ne doit pas être de se tourner vers un algorithme. Mais de parler à un proche. Ou de contacter un professionnel de la santé mentale. Ces outils peuvent être des aides. Mais ils ne doivent jamais se substituer à un vrai soutien humain.
- Partager l'article :
