dans

Les visages deepfakes sembleraient plus fiables que les images réelles

Deepfakes ou images réelles

Les humains auraient du mal à distinguer les visages deepfakes générées par des machines des images réelles.

La technologie de deepfake devient de plus en plus avancée et cette étude le confirme. Mais cela signifie également que les gens sont plus susceptibles de se tromper sur l’authenticité des informations qui passent sous leurs yeux.

Difficile de distinguer les visages deepfakes des images réelles

Selon une étude, il est difficile pour les humains de distinguer les images de visages humains générés par des machines des images réelles. Jusqu’à récemment, les visages deepfakes étaient facilement reconnaissables en raison de « la vallée de l’étrange ». Il s’agit de la sensation étrange provoquée par le regard des humains synthétiques ou des robots.

Mais les résultats de cette nouvelle étude montrent à quel point les technologies de deepfake ont évolué. Les chercheurs ont utilisé des réseaux antagonistes génératifs (GAN) pour générer des visages synthétiques. Par la suite, ils ont compilé 400 visages réels et 400 visages deepfakes.

Les juges humains ont été répartis en trois groupes. Le premier devait distinguer les vrais des faux et a obtenu une précision moyenne de 48,2 %. Le deuxième a reçu des instructions sur la manière de reconnaître les deepfake, et n’a obtenu qu’une précision de 59 %. Enfin, le dernier groupe devait évaluer la fiabilité d’une sélection d’images sur une échelle de un à sept. La moyenne attribuée aux visages deepfakes était de 4,82 contre 4,48 pour les images réelles. Autrement dit, les participants ont jugé que les visages synthétiques étaient plus dignes de confiance.

Des résultats préoccupants

Bien que les résultats aient penché pour les visages deepfakes, sur certaines images, la vallée de l’étrange est restée apparente. Néanmoins, la moyenne supérieure obtenue par les images synthétiques signifie que la technologie avance à grands pas. Par conséquent, l’utilisation des deepfake à des fins nuisibles, comme les campagnes de désinformation ou la pornographie deepfake, risque de devenir plus préoccupante. D’autant plus que les outils de création de deepfake sont désormais largement accessibles.

Certains acteurs technologiques pensent alors que le développement d’outils de détection des faux médias n’avance pas assez vite. D’autres craignent même que les scientifiques abandonnent l’idée de mettre en place des mesures contre les deepfakes. Pour les auteurs de l’étude, l’importance des risques devrait décourager le développement de cette technologie.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.