Un clonage de voix deepfake a permis un braquage de banque de 35 millions de dollars américains en 2020.
Les technologies de deepfake augmentent jour en jour, tout comme les menaces qui vont avec. Des enquêteurs de Dubaï ont rapporté qu’une voix clonée a permis de voler une somme énorme à une banque aux Émirats arabes unis en 2020.
Un braquage de banque réussi grâce à une voix deepfake
Le 15 janvier 2020, le directeur d’une banque anonyme des Émirats arabes unis a reçu un appel du directeur d’une entreprise qui lui était familier. L’objet de l’appel était une demande de transfert de 35 millions de dollars pour une acquisition. Le directeur de la banque a reçu des courriels du prétendu directeur et d’un avocat nommé Martin Zelner, chargé de coordonner les procédures. Le transfert a donc été effectué.
Cependant, lors d’une enquête menée par les E.A.U., il a été prouvé qu’il s’agissait en réalité d’une voix générée par la technologie de deepfake. Les fonds ont été transférés vers plusieurs comptes bancaires dans d’autres pays, dont deux aux États-Unis.
Ce braquage de banque est le deuxième coup de fraude orchestré par une voix deepfake. En 2019, des fraudeurs se seraient fait passer pour le PDG d’une entreprise d’énergie basée au Royaume-Uni pour voler une somme de 240 000 $.
Les menaces d’une technologie émergente
Les technologies de deepfake se développent à mesure que l’intelligence artificielle et le machine learning progressent. Par ailleurs, il existe des communautés légitimes pour les développeurs de clonage vocal, dont Discord Audio Fakes. Pour entraîner un modèle pour le deepfake, il faut des milliers d’échantillons de voix de la personne à cloner.
À la différence des clips vocaux pré-enregistrés, le clonage vocal par deepfake se fait en temps réel. Cela permet aux fraudeurs d’improviser un appel téléphonique. Autrement dit, il s’agit d’une technologie hautement avancée qui fait actuellement l’objet d’une attention particulière.
Mais le braquage de banque aux Émirats arabes unis montre à quel point la menace liée aux technologies de voix deepfake est énorme. Et ce risque de cybercriminalité ne concerne pas uniquement le clonage vocal, mais aussi les images, les vidéos, etc.
- Partager l'article :