Après le déploiement de l’Apple Intelligence, une controverse a éclaté concernant la nouvelle fonction d’IA d’Apple qui propose des résumés d’articles de presse. L’organisation Reporters sans frontières demande donc le retrait de cette fonctionnalité suite à un incident. Pourquoi ? Tout simplement parce qu’Apple Intelligence a généré et diffusé une notification push comportant un résumé erroné d’un article de la BBC. Plus précisément, elle a mal interprété un article concernant Luigi Mangione, impliqué dans l’affaire du décès du PDG d’UnitedHealthcare, en indiquant de façon inexacte que celui-ci s’était suicidé par balle.
Selon les informations disponibles, la BBC a d’abord pris l’initiative de contacter Apple pour signaler et résoudre cette difficulté liée à sa nouvelle fonctionnalité.
Par conte, elle n’a pas précisé si l’entreprise californienne avait donné suite à sa démarche.
Dans ce contexte, Vincent Berthier, qui dirige le pôle Technologie et journalisme au sein de RSF, est intervenu publiquement mercredi dernier en demandant à Apple de faire preuve de responsabilité en retirant cette option de son service.
Aucun commentaire de la part d’Apple
Dans une déclaration officielle, Reporters sans frontières a pris position contre l’utilisation de l’intelligence artificielle dans le domaine de l’information grand public.
Elle souligne cependant que la nature probabiliste de ces technologies les rend intrinsèquement inadaptées à cet usage.
De son côté, la BBC a insisté sur l’importance de la confiance de son audience en précisant que cette exigence s’applique à l’ensemble de ses contenus journalistiques, y compris ses notifications.
Face à cette situation, Apple a gardé le silence, ne donnant pas suite aux sollicitations concernant cette affaire.
L’IA d’Apple Intelligence aurait déformé une information importante sur le Premier ministre israélien
Lors de son lancement au mois de juin 2024, Apple avait mis en avant les capacités de son nouvel outil d’IA à synthétiser du contenu sous différentes formes.
Ce qui a permis aux utilisateurs d’appareils Apple de recevoir leurs actualités de manière groupée via une notification unique.
Pourtant, depuis sa mise à disposition au grand public fin octobre, la fonctionnalité a connu plusieurs défaillances notables.
Outre l’incident de la BBC, elle a également mal interprété un article du New York Times concernant Benjamin Netanyahu.
En effet, alors que l’article traitait d’un mandat d’arrêt émis par la Cour pénale internationale à l’encontre du Premier ministre israélien, la notification générée par l’IA s’est limitée à afficher « Netanyahu arrêté ». Ce qui a déformé l’information d’origine de manière significative.
Un déséquilibre éditorial
La situation soulève une question fondamentale de contrôle éditorial. Je me demande d’ailleurs si les résumés générés par Apple Intelligence échappent à la supervision des médias qui ont choisi d’intégrer l’IA dans leur processus rédactionnel.
Quoi qu’il en soit, ce système représente un double risque. Non seulement la diffusion d’informations inexactes potentiellement préjudiciables, mais aussi l’atteinte à la réputation des organes de presse.
Or, c’est une problématique qui s’inscrit dans un contexte plus large de bouleversements que l’IA provoque dans le secteur des médias.
Depuis l’apparition de ChatGPT, il y a environ deux ans, de nombreuses entreprises technologiques majeures ont développé leurs propres modèles de langage.
Cette expansion a suscité des controverses, notamment concernant l’utilisation présumée de contenus journalistiques protégés pour l’entraînement de ces IA.
Pour y faire face, les médias adoptent différentes stratégies. Certains, comme le New York Times, optent pour la voie judiciaire, tandis que d’autres, à l’instar d’Axel Springer (propriétaire de Politico et Business Insider), explorent des partenariats.
- Partager l'article :