in ,

La montée en puissance des fausses images après l’ouragan Hélène

naufrage

L’ouragan Hélène a récemment frappé le sud-est des États-Unis et laissé une traînée de destruction. Pourtant, une autre vague a suivi, celle des fausses images générées par l’ (IA). Effectivement, plusieurs photos virales se sont rapidement diffusées sur les réseaux sociaux. Cela remet en question l’authenticité des images liées à cette catastrophe.

Des images virales remettant en cause la vérité

Après la catastrophe, des photos montrant une jeune fille secourue avec son chiot ont envahi internet. Ces images ont été émues par de nombreux internautes, mais elles n’étaient pas réelles. D’ailleurs, elles ont été créées par une IA en manipulant ainsi l’émotion du public. Ces photos, d’apparence convaincante, ont été partagées par des figures influentes, principalement de l’extrême droite. La fausse image a ainsi largement circulé et semé la confusion sur la véritable nature des événements.

D’ailleurs, des experts en d’images numériques ont rapidement décelé des incohérences dans ces clichés. Hany Farid, professeur à l’Université de Californie à Berkeley, a révélé des anomalies visuelles. Il a expliqué comment l’IA échoue souvent à maintenir des détails cohérents dans les images, notamment au niveau de la géométrie des objets. Cette découverte soulève des inquiétudes sur l’impact des technologies IA dans la diffusion d’informations.

Des figures influentes dans la diffusion des images

Les images ont été partagées par des personnalités influentes. Ce fait a amplifié leur diffusion. Des journalistes, des militants et des personnalités politiques ont tous relayé ces faux clichés en croyant sans doute en leur authenticité. Par exemple, Buzz Patterson, journaliste à RedState, a publié l’une des images sur X. Cette action a déclenché une vague de partages. Laura Loomer, une autre figure de l’extrême droite, a rapidement repartagé la photo et a touché des millions d’abonnés.

YouTube video

Ainsi, ces personnalités ont involontairement contribué à la propagation de la désinformation. La facilité avec laquelle ces images fausses ont circulé pose donc un problème crucial pour l’avenir de la véracité des informations visuelles, surtout dans des contextes aussi critiques que les catastrophes naturelles.

Les experts se mobilisent contre la désinformation

Face à cette montée de la désinformation, des outils spécialisés tentent de combattre le phénomène. Hive Moderation et TrueMedia.org sont deux plateformes qui ont rapidement identifié les images générées par IA. Ces outils utilisent des algorithmes destinés à détecter les manipulations. Cela offre ainsi une couche de protection contre les fausses nouvelles visuelles.

De plus, des journalistes comme Olga Robinson de la BBC ont analysé minutieusement les photos pour en démontrer les failles. Ces initiatives démontrent l’importance de rester vigilant face à l’essor des technologies capables de générer des fausses images.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *