Un modèle d’intelligence artificielle générative, récemment lancé par la start-up chinoise DeepSeek, est au cœur d’une controverse. Selon des experts japonais et américains, cette IA pourrait être utilisée pour générer des contenus dangereux, y compris du code malveillant. Des appels à renforcer les systèmes de sécurité des modèles IA se multiplient, face à des risques de dérives à grande échelle.
Une IA capable de générer du code pour le cybercrime
Le modèle concerné, DeepSeek R1, a été testé par Takashi Yoshikawa, expert en cybersécurité chez Mitsui Bussan Secure Directions, à Tokyo. En lui donnant des instructions précisesv, il a réussi à obtenir le code source d’un rançongiciel. Ce logiciel malveillant verrouille les données d’un utilisateur et exige une rançon. La réponse fournie contenait tout le code, bien que l’IA ait ajouté une note déconseillant l’usage criminel de ces informations.
Une absence de barrières sécuritaires jugée préoccupante
Contrairement à des modèles comme ChatGPT, qui refusent systématiquement ce type de requêtes, DeepSeek R1 a délivré ses réponses sans filtre technique efficace. Des experts, dont ceux de la société américaine Palo Alto Networks, ont confirmé cette faille. Ils ont montré que l’IA pouvait aussi expliquer comment voler des identifiants, ou fabriquer des armes artisanales, comme des cocktails Molotov. De plus, aucune compétence technique n’est nécessaire pour exécuter ces instructions.
Une sortie trop rapide au détriment de la sécurité
D’après les spécialistes interrogés, DeepSeek a probablement précipité le lancement de son modèle pour devancer la concurrence, au lieu de prioriser la sécurité. Le résultat : un outil puissant, mais facilement exploitable à mauvais escient. Cette situation inquiète les chercheurs, car plus le nombre de modèles non sécurisés augmente, plus les risques d’usage criminel se multiplient. L’industrie doit donc réagir collectivement face à ces dérives potentielles.
Une IA performante mais controversée en Chine
Le modèle R1 de DeepSeek reste reconnu pour ses performances, comparables à celles de ChatGPT. Certes, il est aussi beaucoup moins coûteux. Ce positionnement attire des utilisateurs soucieux de réduire leurs dépenses. Cependant, toutes les données générées ou saisies sont stockées en Chine. Ce qui pose de sérieuses questions de souveraineté et de confidentialité. De nombreuses entreprises et administrations japonaises interdisent désormais son usage professionnel.
Un modèle à utiliser avec prudence, selon les experts
Le professeur Kazuhiro Taira, spécialiste des médias numériques à l’Université JF Oberlin, recommande une vigilance renforcée. Selon lui, les utilisateurs doivent évaluer non seulement le coût et la performance, mais également les implications sécuritairesv et éthiques. Effectivement, même une IA très efficace peut devenir dangereuse sans garde-fous. Cette affaire relance le débat sur la nécessité urgente d’une régulation internationale de l’IA générative.
- Partager l'article :