Le Japon comptait sur une IA pour repérer les abus envers les enfants. Pourtant, après des résultats jugés peu fiables, les autorités ont préféré faire marche arrière.
Le mois dernier, l’Agence japonaise pour l’enfance et la famille a annoncé le report d’un outil d’IA. Ce programme était censé détecter automatiquement les cas de maltraitance sur mineurs. Finalement, il ne verra pas le jour, du moins pas sous sa forme initiale. En cause : un taux d’erreur trop élevé et des inquiétudes croissantes sur l’usage des données personnelles.
Plutôt que de repérer les familles à risque, l’outil servira désormais à soulager la paperasse des centres de protection. Ce changement de cap marque un revirement pour un projet initialement porté par l’Agence numérique japonaise. Celle-ci avait été créée en 2021 pour accélérer la transformation digitale de l’administration.
Des experts saluent la décision de faire marche arrière
Yoichiro Itakura, avocat à Tokyo, salue cette réévaluation. « C’est positif que l’Agence ait renoncé », déclare-t-il. Il rappelle que la base de données utilisée pour entraîner l’IA ne contenait que 5 000 cas, un chiffre trop faible pour un algorithme fiable. Pour lui, ce projet ambitieux reposait sur des bases fragiles, sans cadre juridique solide comme en Europe.
De son côté, Harumichi Yuasa, professeur de droit à l’Université Meiji, estime également que l’objectif était mal défini. « Le gouvernement semble s’être jeté sur l’IA en pensant qu’elle résoudrait tout », critique-t-il. Il rappelle que les citoyens pourraient s’opposer à l’exploitation de leurs données personnelles dans un contexte aussi sensible. Et que les parents déjà en difficulté risquent d’être stigmatisés sans raison.
Le rôle de l’Europe en toile de fond
Des avocats japonais spécialisés en droit numérique soulignent que l’outil aurait probablement été classé comme “à haut risque” dans le cadre de la législation européenne sur l’IA. Au Japon, ce type d’outil basé sur l’IA, qui influe sur des décisions critiques concernant la vie des enfants, devrait toujours être encadré par une supervision humaine obligatoire.
Daisuke Tatsuno et Aya Takahashi, du cabinet Baker & McKenzie, insistent sur un point : « Il existe des situations où l’IA ne doit pas être utilisée. » La législation européenne, plus avancée sur le sujet, impose déjà des obligations strictes en matière de transparence et de contrôle humain.
L’IA peut encore servir, mais avec prudence
Pour autant, les experts ne rejettent pas l’IA en bloc. Selon Yuasa, elle pourrait être utile pour automatiser certaines tâches dans les services sociaux. Il donne l’exemple des travailleurs sociaux qui prennent encore leurs notes à la main par crainte injustifiée des outils numériques.
Il ne s’agit donc pas d’abandonner l’innovation, mais d’adopter des outils réellement adaptés à leurs usages. Le Japon devra désormais mieux encadrer les ambitions technologiques pour qu’elles n’empiètent pas sur les droits fondamentaux.
- Partager l'article :