in ,

Accusée de désinformation, Apple suspend ses résumés d’actualité IA

Résumés actualité IA Apple supprimés

Suite un incident concernant son système d’, a décidé de retirer temporairement sa fonctionnalité de résumés d’actualité IA. La décision a été prise après que l’IA d’Appel a envoyé aux utilisateurs de faux titres et des news remplies d’erreurs. De qui a déclenché une réaction négative de la part des groupes qui défendent la liberté de presse.

Apple a donc pris la décision inhabituelle de suspendre temporairement sa fonction Apple Intelligence.

La mise à jour logicielle en version bêta de jeudi dernier, destinée aux développeurs, ne prendra alors plus en charge la fonctionnalité d’IA pour les contenus d’actualité et de divertissement sur l’iPhone.

Mais la modification sera étendue à l’ensemble des utilisateurs pendant que l’entreprise travaille à l’amélioration du système.

Quand est-ce que cette fonctionnalité sera réintégrée ? Certainement dans la prochaine mise à jour de l’iOS 18. Mais Apple n’a pas encore donné de date précise.

YouTube video

Appel à l’arrêt de la fonctionnalité IA de résumé d’actualité d’Apple

À titre d’information, la BBC a déjà interpellé Apple le mois dernier concernant sa Apple Intelligence.

À cette époque, la British Broadcasting Corporation demandait l’arrêt de la fonctionnalité après la génération d’informations erronées.

L’Apple Intelligence aurait publié une fausse information sur un prétendu suicide de Luigi Mangione, mis en cause dans l’affaire du décès du PDG d’United Healthcare.

Un autre incident impliquait également la fusion incorrecte de trois articles du New York Times. Celui-ci aboutissait à une annonce erronée concernant une supposée arrestation du Premier ministre israélien Benyamin Nétanyahou.

Au mois de décembre dernier, un porte-parole de la BBC a souligné l’urgence pour Apple de résoudre ces dysfonctionnements.

Dans sa déclaration, le porte-parole a insisté sur l’importance de l’exactitude des informations pour préserver la confiance du public.

Il a alors mentionné que les résumés générés par l’IA d’Apple ne reflétaient pas fidèlement les contenus originaux de la BBC.

L’IA d’Apple accusée de désinformer le public

Malgré les demandes de la BBC, l’IA d’Apple a encore généré une nouvelle erreur mercredi en produisant un résumé inexact d’une alerte du Washington Post.

Lapple Intelligence a créé de toutes pièces des informations concernant un prétendu licenciement de Pete Hegseth. Mais également sur les effets des politiques douanières de Trump sur l’inflation, et des supposées confirmations concernant Pam Bondi et Marco Rubio.

Pour Geoffrey Fowler, chroniqueur technologique du Post, maintenir cette fonctionnalité fait preuve de l’irresponsabilité d’Apple.

Les organisations de défense de la presse, quant à elles, ont aussi exprimé leurs inquiétudes

Reporters sans frontières, par exemple, a mis Apple en garde contre la menace que représentent ses résumés pour l’accès du public à une information fiable.

De son côté, le Syndicat national des journalistes, l’une des plus importantes organisations professionnelles du secteur, a souligné l’importance de ne pas mettre le public dans une position où il doit douter de la véracité des informations reçues.

Au final, les deux organisations ont toutes réclamé la suppression des résumés générés par l’IA d’Apple.

YouTube video

Erreurs et hallucinations, les plus grands défis des modèles d’IA

Les difficultés que rencontre Apple avec son IA s’inscrivent dans une problématique plus large. Et c’est commun à de nombreux développeurs confrontés à des technologies générant des informations inexactes. Et ses hallucinations fréquentes de en sont témoins.

Pourtant, selon Suresh Venkatasubramanian, professeur à l’Université Brown et co-auteur du projet de loi sur les droits de l’IA de la Maison-Blanche, les LLM sont conçus pour produire des réponses plausibles aux requêtes.

Selon lui, le système considère comme acceptable toute réponse qui paraît vraisemblable, qu’elle soit factuelle ou inventée, car il n’intègre pas de véritable notion de vérité.

Aujourd’hui encore, le problème d’hallucinations d’IA persiste, même deux ans après le lancement de ChatGPT.

Une récente étude menée conjointement par Cornell, l’Université de Washington et l’Université de Waterloo en juillet 2024 confirme que même les modèles d’IA les plus avancés continuent de présenter des risques significatifs de génération d’informations fictives.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *