in

Accusations diffamatoires et hallucinations : Google suspend l’accès public à son modèle Gemma

L’affaire secoue la Silicon Valley. L’IA Gemma de Google a généré de graves diffamations contre une sénatrice américaine. Pour éviter tout nouveau scandale, le géant californien a choisi de fermer ses portes au public.

Créée pour assister les développeurs, l’intelligence artificielle Gemma a rapidement conquis un public bien plus large via AI Studio. Mais la diffusion de fausses informations visant la sénatrice américaine Marsha Blackburn a précipité sa chute. Google vient d’en restreindre l’accès, invoquant des hallucinations aux conséquences trop lourdes.

YouTube video

Gemma, l’autre visage des IA génératives de Google

Créé pour la recherche et le développement, le modèle d’intelligence artificielle Gemma devait incarner la version « open » et responsable des technologies génératives de Google. Destiné d’abord aux chercheurs et aux développeurs, il a pourtant échappé à ce cadre restreint. En s’intégrant à AI Studio, l’outil s’est retrouvé entre les mains du grand public, une exposition prématurée qui a révélé ses failles.

Selon The Register et Yahoo News, plusieurs internautes ont posé au modèle des questions factuelles, un usage pour lequel il n’avait jamais été calibré. C’est dans ce contexte qu’ont surgi les premières hallucinations : des réponses inventées, formulées avec assurance, parfois appuyées sur de faux liens.

Comme le rappelle TechRadar, l’absence de vérification interne a transformé cet outil expérimental en symbole d’une IA mal encadrée. Pour Clubic, cette perte de contrôle a marqué un tournant dans la stratégie d’ouverture du géant californien.

La colère du Sénat américain et la réaction de Mountain View

Le 4 novembre 2025, l’affaire a pris une tournure politique. La sénatrice Marsha Blackburn a interpellé Sundar Pichai, PDG de Google, après avoir découvert une réponse de Gemma affirmant qu’elle avait été accusée de viol, citant un state trooper  fictif et des articles imaginaires.

La parlementaire a dénoncé un « acte de diffamation » plutôt qu’une simple erreur algorithmique. Markham Erickson, vice-président de Google, a reconnu que « des utilisateurs non développeurs ont utilisé Gemma pour des Q&A factuels », avant de rappeler que le modèle n’avait jamais été conçu pour cela. Cet épisode a mis en lumière la frontière fragile entre expérimentation technique et responsabilité morale lorsqu’une IA touche le public.

Une affaire qui ravive le débat sur les « hallucinations »

Dans le langage de l’intelligence artificielle, une hallucination désigne une réponse fausse présentée comme vraie. Cela reste l’un des défis majeurs des modèles génératifs.

L’affaire Gemma en est une illustration extrême, non seulement la réponse était mensongère, mais elle impliquait une figure politique. TechRadar précise que ces fabrications incluaient de faux liens et des sources inventées. Un degré de vraisemblance susceptible d’induire en erreur. Cette polémique souligne le danger d’un déploiement précipité et le besoin urgent de garde-fous renforcés.

Google ferme les accès de Gemma et revoit sa stratégie IA

Sous pression, Google a annoncé que Gemma n’est plus accessible au public via AI Studio. Seuls les développeurs pourront désormais l’utiliser via une API sécurisée. Cette décision, justifiée par la volonté de prévenir toute confusion, marque un repli stratégique.

Pour The Register, cette suspension traduit une remise en question de la gouvernance des IA chez Google. La firme veut renforcer ses protocoles internes et mieux contrôler la diffusion de ses modèles.

Cette crise pourrait faire école : elle rappelle qu’à l’ère des modèles génératifs, l’innovation sans contrôle devient un risque réputationnel majeur. Pour les entreprises et les institutions, l’épisode Gemma rappelle que la responsabilité, la vérification et la transparence sont désormais les fondations indispensables de toute technologie.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !