in ,

ChatGPT peut vous trahir, ne lui révélez jamais ces 3 types d’informations

manque de sécurité ChatGPT

On est des centaines de millions d’individus à utiliser quotidiennement ChatGPT. Il y a ceux qui utilisent le chatbot pour des raisons personnelles, et d’autres qui profitent de la performance de GPT-4o pour une meilleure productivité. Dans tous les cas, il existe certaines choses, certaines informations à ne jamais dire à ChatGPT. Cela puisque la sécurité de ChatGPT laisse toujours à désirer.

On le considère même comme un trou noir dans certains pays. Raison pour laquelle ChatGPT a été interdit en Italie en 2023, quelques mois après son lancement.

Parallèlement, OpenAI confirme que les données que l’on fournit à ChatGPT ne sont pas forcément protégées.

Cela dit, l’entreprise pourrait les utiliser pour former ses modèles d’intelligence artificielle. Ce qui veut dire qu’une tierce personne peut bel et bien y accéder sans votre consentement.

YouTube video

En bref, si vous faites partie de ceux qui ne peuvent pas se passer de ChatGPT, pour votre sécurité, tâchez de ne pas fournir ces 3 éléments que je vais citer :

Vos informations médicales sont confidentielles, ne les donnez pas à ChatGPT

Il est bien possible de demander à ChatGPT d’identifier une maladie en lui fournissant quelques symptômes. Mais je vous le déconseille vivement.

Et grâce à ses capacités, on peut facilement tomber dans le piège et demander à ChatGPT de se placer dans la peau d’un médecin pour lui demander des conseils.

Or, il se pourrait, et il le fera, que ChatGPT vous demande des informations médicales. Et c’est là qu’il faut rester prudent.

Je vous rappelle d’ailleurs que ChatGPT vient de bénéficier d’une mise à jour de mémoire. Ce qui veut dire qu’il va désormais se souvenir de chacune de nos discussions.

Et le plus grand problème, c’est que l’on ne sait pas ce que fera OpenAI des informations sensibles et personnelles qu’on lui fournit.

Ne partagez jamais vos identifiants et vos mots de passe à ChatGPT pour raison de sécurité

Les entreprises telles qu’OpenAI ont récemment commencé à déployer des agents IA qui peuvent agir en notre nom et prendre le contrôle de certaines tâches sur notre PC de manière autonome.

Certes, ils peuvent nous faire gagner beaucoup de temps. Mais le problème, c’est que cette capacité pourrait nous inciter à leur confier nos identifiants et nos mots de passe.

Jusqu’à aujourd’hui, il n’y a aucune certitude sur la sécurité des systèmes d’intelligence artificielle. De même pour le manque de clarté sur les méthodes de traitement des données qu’ils adoptent.

Il est donc fortement déconseillé de ne pas partager vos informations confidentielles avec ces technologies.

Évitez à tout prix de communiquer vos identifiants, noms d’utilisateur ou autres données d’accès à des systèmes d’IA.

Mais vous pouvez le faire si vous êtes sûr d’utiliser une solution spécifiquement conçue avec des garanties de sécurité robustes et vérifiables.

YouTube video

Cette erreur avec ChatGPT pourrait vous coûter votre emploi

Chacun d’entre nous, dans le domaine professionnel, a des responsabilités. Notamment celle de protéger les informations sensibles relatives à l’entreprise dans laquelle on travaille.

Certaines obligations de confidentialité sont même formellement établies par la loi. Notamment celles qui s’appliquent aux médecins, aux avocats ou aux comptables envers leurs clients.

D’autres existent de façon tacite. En particulier dans un environnement professionnel où de nombreux employés sont tenus à une obligation de réserve vis-à-vis de leur employeur.

Le fait de communiquer des documents internes comme des procès-verbaux de réunions, des mémos ou des informations relatives à des transactions peut en effet représenter une infraction à cette confidentialité.

Et bien que ChatGPT puisse apparaître comme un outil pratique pour condenser ou examiner des documents, il est vivement recommandé de ne pas y soumettre des contenus confidentiels.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *