dans

Apple floute les photos dénudées envoyés aux enfants à l’aide de l’IA

Apple s'appuie sur l'IA pour protéger les enfants

Dans le cadre de la protection des enfants, Apple relance sa fonctionnalité de floutage des photos dénudées basée sur l’IA.

Vous ne pouvez pas toujours contrôler qui communique avec vos enfants, mais vous pouvez déployer certaines mesures pour leur sécurité. Dans ce cadre, Apple a lancé une fonctionnalité pour les iPhone qui sera bientôt disponible dans plusieurs pays.

Apple protège les enfants avec l’appui de l’IA

L’année dernière, Apple a lancé une fonctionnalité appelée « sécurité des communications dans les messages » pour les iPhone. Celle-ci se destine principalement aux enfants, notamment de moins de 13 ans. Il s’agit d’un outil d’IA qui détecte et qui floute automatiquement les photos dénudées dans les messages.

La fonctionnalité n’est pas activée par défaut. Les parents doivent donc configurer l’appareil pour qu’il analyse les photos que leur enfant reçoit dans l’application Messages. De ce fait, l’utilisateur de l’iPhone n’est pas obligé de voir la photo qui lui est envoyée. Une autre option lui permet également de contacter un adulte s’il le souhaite.

Les États-Unis ont été les premiers à en bénéficier. Mais Apple déploiera bientôt cette fonctionnalité d’IA pour protéger les enfants au Royaume-Uni, en Australie, au Canada et en Nouvelle-Zélande.

Pour plus de sécurité

Le système fonctionne aussi dans le sens inverse. Autrement dit, si un enfant envoie une photo dénudée à son correspondant, l’IA l’avertira qu’il s’agit d’un contenu sensible et lui demandera de bien y réfléchir.

En annonçant l’initiative, Apple avait initialement prévu de notifier les parents si leurs enfants recevaient une photo à caractère sexuel. La compagnie a finalement abandonné l’idée en ajoutant à la place l’option qui permet de contacter un adulte (au choix).

Toujours dans le cadre de la protection des enfants, Apple a également présenté d’autres fonctionnalités d’IA sur Spotlight, Siri et Safari. Entre autres, elles visent à détecter les recherches de contenus liés à l’exploitation des enfants pour accélérer les interventions. Enfin, d’autres mesures de protection des jeunes utilisateurs d’iPhone sont encore attendues pour cette année.

Mais si les intentions d’Apple semblent louables, certains considèrent ces nouvelles fonctionnalités comme une technique de surveillance de masse, ce qui pourrait être plus dangereux pour les enfants

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.