Découvrez comment ce chercheur polonais avait réussi à créer un faux passeport en seulement 5 minutes avec ChatGPT-4o ! Est-ce que l’intelligence artificielle ne faciliterait pas les fraudes liées aux vérifications d’identité ?
Après que Borys Musielak, chercheur polonais spécialisé en IA, ait posté sur X comment il a réussi à générer une réplique exacte de son propre passeport avec ChatGPT-4o, l’étonnement était à son comble. En seulement 5 minutes, cet expert a réussi à recréer un faux vrai document avec l’IA, et qui peut tromper n’importe quel système automatisé dédié à la vérification d’identité (KYC). Qu’est-ce que cela signifie en matière de sécurité numérique ? Est-ce que cette découverte va nous plonger au cœur d’un vaste réseau de fraudes en ligne ? Essayons d’en comprendre davantage dans ce qui suit !
Une découverte fascinante mais qui fait froid dans le dos !
Photoshop est maintenant has-been pour les fraudeurs. La nouvelle version de ChatGPT, à savoir 4o, arrive à faire beaucoup mieux. Ce modèle d’IA arrive à reproduire une version conforme au passeport original sans qu’il ne contienne les erreurs habituelles. ChatGPT-4o arrive à reproduire avec exactitude et précision les détails les plus infimes d’un passeport.
Les fraudeurs ont maintenant l’arme ultime pour contourner les vérifications utilisées par des plateformes telles que Revolut ou Binance. Avec cette prouesse de l’IA générative, les systèmes de vérifications basés sur les images et les vidéos sont désormais obsolètes. Ces outils sont maintenant capables de faire des miracles en termes de falsification. Une avancée qui doit mettre la puce à l’oreille des autorités.
Est-ce que ChatGPT-4o va faciliter les fraudes à grande échelle ?
Alors que nous avons parlé dans cette rubrique les risques liés à l’IA générative, il faut croire que cette expérience ne va qu’amplifier les inquiétudes. Cela peut être une création de comptes pour fraude, des demandes de crédit illégitimes ou pire encore un vol d’identité à grande échelle. Face à cela, les experts appellent un renforcement urgent des processus de vérification plus robustes que ceux que nous connaissons actuellement.
Parmi les solutions proposées, la vérification des puces de documents officiels, des identités électriques ainsi que les portefeuilles d’identité numérique sécurisés restent les plus sures. Il faut noter que ces solutions cadrent parfaitement avec les réglementations européennes sur l’IA actuellement.
Une réaction de la part d’OpenAI sauf que…
Alors que le poste de Musielak est devenu viral, OpenAI a réagi immédiatement. Pour le coup, ChatGPT-4o a refusé les requêtes similaires. Raison invoquée : les règles de sécurité de l’entreprise contre la génération de documents frauduleux. Sauf que le mal est déjà fait, et on se demande si les hackers n’arriveront pas à contourner ces règles à l’avenir.
Qui plus est, cette faille nous montre que les outils d’IA dédiés au grand public peuvent être détournes facilement en quelques clics. Certes, des mesures seront prises par des entités telles que les banques, les assurances, les agences de voyage, les e-commerces et autres pour la vérification de l’identité de leurs clients. Toutefois, on se demande si cela sera suffisant pour nous protéger devant les fraudeurs qui détournent l’IA pour des fins malhonnêtes ? Une question qui mérite une réponse rapide face à la vitesse à laquelle l’IA évolue…
- Partager l'article :