in

L’IA de Google Search déraille complètement alors faites attention quand vous l’utilisez

IA Google Search déraille complètement

De fausses réponses et des erreurs factuelles, c’est ce qui résume la toute nouvelle IA de Search. Alors ne vous attendez pas à trouver la réponse que vous cherchez ! Il se pourrait que le modèle soit complètement à côté de la plaque.

Ces derniers mois ont été marqués par le déraillement des grands modèles de langage, à commencer par .

Le porte-parole de Google s’exprime alors en espérant justifier les erreurs de leur IA. Et comme d’habitude, il a pu trouver les mots qui expliquent pourquoi le modèle a déraillé.

« Vous pouvez vous même constater que les aperçus de notre IA fournissent du contenu de très haute qualité. Elle propose également des liens pertinents qui permettent aux utilisateurs d’approfondir leurs recherches », a-t-il déclaré.

Or, nous avons nous même fait quelques tests et sans surprise, les erreurs sont fréquentes. À mon avis, il y a quelques améliorations à apporter au niveau de l’IA de Google Search.

Considérez alors cet article comme un mini-guide, un avant-goût de ce qui vous attend sur les aperçus de l’IA de Google Search.

YouTube video

Les blagues en tête de liste de Google Search, une IA incapable de distinguer humour et réalité, mais quel cauchemar …

L’aperçu de l’IA de Google s’est soldé par un échec particulièrement ironique comme nous l’avons remarqué lors de nos tests.

Est-ce que le modèle ne comprend pas l’humour ? Ou est-ce qu’il ne prend pas en compte des émotions que comprennent les sources ?

Nous nous posons également cette question ! Le moins que l’on puisse dire, c’est que l’IA de Google Search n’arrive pas encore à différencier les blagues et les faits.

Et c’est là que réside le problème parce qu’un utilisateur régulier ne prendra jamais ces genres de sources comme une référence.

Mais AI Overview les considère comme des contenus d’autorité, et il le place même en haut des SERPs.

YouTube video

Quand l’histoire se confond avec la fiction

Parallèlement, l’IA de Google Search peut parfois résumer précisément une source erronée sans remettre en question son contenu.

C’était le cas lorsque je l’ai interrogé sur le nombre de signataires esclavagistes de la Déclaration d’Indépendance.

Comme réponse, j’ai eu droit à des informations de l’Université de Washington à Saint-Louis affirmant qu’un tiers d’entre eux possédaient des esclaves.

Par contre, elle a ignoré les sources contradictoires comme le Chicago Sun-Times qui avance un chiffre plus proche des trois quarts.

N’étant pas experte en histoire, l’IA ne parvient alors pas à arbitrer entre ces versions divergentes remises en cause par certains historiens.

Dans d’autres cas, l’IA s’est basée sur des sources absolument non fiables comme de la fan fiction. 

On peut par exemple citer sa réponse imaginant un remake en 2022 de 2001: L’Odyssée de l’Espace par Spielberg et Lucas, tirée d’une page du site Idea Wiki de Fandom.

Si un utilisateur averti douterait d’une telle référence, un novice utilisant aveuglément l’aperçu d’IA pourrait ne pas réaliser la nature purement spéculative de ces informations.

C’est pourquoi j’insiste sur le fait de toujours vérifier les sources avant de prendre les réponses fournies par l’IA de Google Search.

Cela dit, vous savez maintenant comment vous y prendre. Si vous constatez d’autres anomalies, je vous invite vivement à les mettre en commentaire.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *