Un jeune Chinois, connu sous le nom de famille Liu, a été victime d’une fraude. Il pensait être en couple avec une femme nommée Mme Jiao. Liu a envoyé 200 000 yuans, soit environ 26 307 euros, à cette « petite amie ».
Selon lui, l’argent était destiné à couvrir des factures médicales et des frais professionnels. Cependant, Liu ignorait que Mme Jiao n’était qu’une création numérique, générée par l’IA.
Les escrocs ont utilisé des technologies avancées pour fabriquer des contenus réalistes. Ils ont créé des photos, des vidéos et des rapports médicaux pour convaincre Liu de l’urgence de la situation. Ces éléments réalistes ont renforcé la crédibilité de l’arnaque. Liu a été manipulé pour croire qu’il aidait réellement sa « petite amie », qu’il n’avait jamais rencontrée en personne. Cette méthode sophistiquée a permis aux criminels de manipuler ses émotions et de lui soutirer d’importantes sommes d’argent.
Les « arnacœurs » se multiplient
Cette arnaque n’est qu’un exemple parmi d’autres. L’utilisation de l’IA pour créer des personnages fictifs à des fins frauduleuses devient de plus en plus courante. Les escrocs exploitent cette technologie pour générer des avatars numériques réalistes. Ces personnages trompent les victimes en leur faisant croire à des relations amoureuses, souvent avec des célébrités ou des figures militaires. Cela permet aux fraudeurs de manipuler les victimes et de les convaincre de transférer de l’argent.
Les escroqueries amoureuses liées à l’IA ne se limitent pas à la Chine. En janvier 2023, une Française de 53 ans a perdu 823 000 euros après avoir cru entretenir une relation avec Brad Pitt. Les escrocs ont utilisé des vidéos et des messages générés par IA pour la convaincre. Ils l’ont manipulée à tel point qu’elle a divorcé et transféré d’importantes sommes d’argent.
L’IA utilisée pour imiter des voix et extorquer des fonds
Les escrocs ne se contentent pas de messages texte et de vidéos. Ils vont jusqu’à imiter les voix des proches des victimes. En 2023, une mère de l’Arizona a signalé qu’un escroc avait utilisé l’IA pour imiter la voix de sa fille. L’objectif était de lui extorquer 1 million de dollars. Ces méthodes sophistiquées rendent ces arnaques encore plus difficiles à détecter et à prévenir.
Avec l’évolution continue de l’IA, les risques liés à son utilisation malveillante augmentent. Les escroqueries amoureuses basées sur l’IA deviennent un problème mondial. Il est essentiel pour les utilisateurs de rester vigilants face à ces nouvelles menaces.
- Partager l'article :