Google marquera bientôt une avancée importante dans la lutte contre les manipulations d’images. Le géant de la technologie a récemment annoncé qu’il signalera les images générées ou modifiées par des outils d’intelligence artificielle (IA) dans ses résultats de recherche.
Google déploiera cette nouvelle fonctionnalité dans les prochains mois. L’objectif vise à renforcer la transparence et à augmenter la confiance des utilisateurs face à l’essor des contenus générés par IA.
Pour informer les utilisateurs, Google intégrera ces divulgations directement dans la fenêtre « À propos de cette image ». Vous trouverez déjà cette fenêtre dans Google Search, Google Lens et la fonction Cercle sur Android. Les utilisateurs verront si l’image provient d’une manipulation par IA. Google prévoit également d’étendre cette fonctionnalité à YouTube et à d’autres plateformes. Cela renforcera la transparence à travers l’écosystème complet de Google.
La norme C2PA pour identifier les images générées
Pour marquer les images comme générées par IA, Google s’appuiera sur la norme C2PA (Coalition for Content Provenance and Authenticity). Cette norme suit l’historique d’une image, en partant de son équipement d’origine jusqu’à ses logiciels de modification. Des entreprises comme Google, Amazon, Microsoft, OpenAI et Adobe soutiennent cette initiative.
L’adoption de la norme C2PA rencontre plusieurs obstacles. Actuellement, peu d’appareils photo et d’outils d’IA la prennent en charge. Par exemple, Leica et Sony figurent parmi les rares fabricants à l’avoir adoptée. De plus, certaines métadonnées peuvent s’altérer, s’effacer ou devenir illisibles. Cela limite encore l’efficacité du système. Certains des outils d’IA générative populaires, comme Flux, n’utilisent pas cette norme. Cela s’explique en partie par la réticence de certains créateurs à soutenir ces initiatives.
Les deepfakes se propagent rapidement
La décision de Google arrive à un moment crucial. Les deepfakes, ou contenus créés par IA pour tromper, connaissent une expansion rapide. Selon des estimations récentes, les escroqueries impliquant des images générées par IA ont augmenté de 245 % entre 2023 et 2024. Cela montre l’ampleur du problème. Deloitte prévoit que les pertes mondiales liées aux deepfakes atteindront 40 milliards de dollars d’ici 2027, contre 12,3 milliards en 2023. Ces chiffres soulignent l’importance de trouver des solutions robustes.
Les normes comme la C2PA ne se sont pas encore généralisées. Mais elles représentent un pas important pour limiter les dommages causés par les deepfakes. La majorité des gens craint d’être dupée par ces contenus trompeurs. L’idée que l’intelligence artificielle pourrait servir à diffuser de la propagande inquiète également beaucoup de personnes. Il devient donc essentiel de mettre en place rapidement des mesures de protection efficaces.
Google a pris la décision de signaler les images générées par IA, ce qui constitue un pas important dans la lutte contre la désinformation. Bien que perfectible, cette fonctionnalité aide à rétablir la confiance des utilisateurs dans les contenus en ligne. À mesure que l’intelligence artificielle continue de se développer, les entreprises technologiques doivent redoubler d’efforts pour empêcher la propagation de contenus malveillants.
- Partager l'article :