dans

L’authentification basée sur la preuve de vie faciale serait vulnérable au deepfake

Deepfake preuve de vie

Les API de preuve de vie faciale (FLV) peuvent facilement être trompées par les attaques deepfake.

Des chercheurs ont mis l’accent sur l’inefficacité de plus grands systèmes d’authentification face aux avancées technologiques du deepfake. L’étude suggère des points d’amélioration que les fournisseurs devraient prendre en considération.

Les API de preuve de vie faciale (FLV) contre le deepfake

La preuve de vie faciale ou FLV (Facial Liveness Verification) est une approche d’authentification biométrique utilisée dans plusieurs services. Elle consiste à lutter contre les attaques de clonage d’identité visuelle comme les images générées par ordinateur, l’utilisation de masques ou de vidéos préenregistrées.

Mais une nouvelle étude montre que les API de preuve de vie ne seraient pas infaillibles au deepfake. Les auteurs de l’étude notent même que certains n’incluent pas la détection des deepfakes dans leur système. Une raison probable pourrait être la croyance que les vidéos créées par une machine sont facilement reconnaissables. Cependant, une autre étude récente a prouvé que même les humains trouvent les deepfakes plus fiables que les images réelles.

En outre, l’évaluation des API FLV a également mis en évidence le fait que les systèmes d’authentification sont biaisés en faveur des hommes blancs.

Une évaluation et des recommandations

Dans le cadre de cette étude, les chercheurs ont ciblé six fournisseurs d’API FLV les plus représentatifs dont les identités n’ont pas été dévoilées. Pour le deepfake ou d’autres menaces, il existe généralement quatre vecteurs d’attaque d’un système de preuve de vie faciale. Le FLV basé sur l’image utilise une seule photo pour identifier l’utilisateur tandis que le FLV basé sur le silence exige que celui-ci télécharge un clip vidéo en lui-même. Le FLV basé sur l’action demande à l’utilisateur d’effectuer des actions données et le FLV basé sur la voix utilise la parole.

D’après les résultats de l’étude, certains API n’utilisaient pas la détection de cohérence. Par conséquent, il est facile pour les utilisateurs de déjouer ces systèmes en assemblant une voix et une vidéo deepfake. Les applications qui ont ajouté ce critère ont donc pu contourner ce problème. Par ailleurs, certains des fournisseurs séparent l’analyse du mouvement des lèvres et de l’audio.

Les chercheurs suggèrent une amélioration des API FLV en abandonnant avant tout l’authentification basée uniquement sur l’image. Ils recommandent également d’imposer l’assemblage de l’authentification basée sur la voix et de l’analyse des mouvements des lèvres. Enfin, la preuve de vie basée sur l’action devrait être exigée, selon eux.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.