in

Google nous a menti avec Gemini ? Le secret derrière cette IA toute-puissante !

Sundar Pichai, CEO de Google, présentant Gemini
Image générée par l'IA

Est-ce que Gemini est vraiment l’IA ultra-puissante que Google veut nous faire croire ? Pourquoi quelques semaines après la sortie de son 2.0 Flash des voix commencent à s’élever ? Quels sont les risques de se confier dans toute son entièreté à un assistant d’IA ? Essayons d’en apprendre davantage dans ce qui suit !

Gemini c’est l’outil d’IA ultime de Google, et la perle de la Silicon Valley semble vanter fièrement ses mérites lors du dernier Google I/O. Sauf que dans la réalité, les utilisateurs : particuliers, développeurs et entreprises, découvrent un autre revers de cet outil. Derrière les promesses futuristes et miroitantes, Gemini reste un simple outil avec « d’énormes limites », tout comme ses cousins ChatGPT, Copilot et autres. Explication !

Google : un vendeur de rêve avec ces performances de Gemini ?

YouTube video

Lors de Google I/O, Sundar Pichai n’a pas lésiné sur les moyens pour mettre en avant les performances de Gemini. En plus de répondre à des requêtes complexes, cet assistant IA peut également faire vos courses en ligne, réserver vos billets d’avion et même travailler sur vos documents professionnels.

En gros, le géant de la Silicon Valley nous montre que c’est « l’outil parfait pour être au service de l’humanité ». Sauf que dans la réalité, Gemini fonctionne autrement et Google semble avoir menti sur ses performances !  

Tout comme la plupart des assistants IA actuels, Gemini se repose sur un modèle de langage grande taille ou LLM. Cela signifie qu’il n’a aucune compréhension de ce qu’il dit ou ce qu’il écrit. Il va tout simplement prédire les mots les plus utilisés en fonction des données utilisées lors de son entraînement.

Autrement dit, Gemini ne comprend pas ce que l’utilisateur lui dit, il devine tout simplement à partir des calculs et des probabilités. Cela est aussi le cas du fameux ChatGPT, devenu un indissociable dans le quotidien de beaucoup d’entre nous.

Si Google a menti sur Gemini, quel serait le risque de son utilisation ?

Google nous a vendu un rêve comme quoi Gemini serait l’assistant IA idéal, et cela semble être vrai. Et oui, vous pouvez presque tout faire avec cet outil d’IA. Sauf que si vous l’avez promu en tant qu’assistant juridique, moteur de recherche, développeur informatique voire même conseiller client, vous avez tout faux.

Ces usages dépassent largement les capacités réelles de Gemini et même des autres chatbots IA célèbres. Le pire dans toute cette histoire c’est que lorsqu’on pousse le bouchon un peu trop, l’assistant propose des résultats souvent infondés et absurdes.

Parmi les dérives les plus récents liés à l’usage de ces chatbots, on note la fois où Anthropic, l’entreprise derrière Claude, a présenté en justice une fausse citation juridique, purement inventé par son IA. Et comme on parle de justice, le tribunal californien a identifié de nombreuses fausses références dans un mémoire rédigé par un assistant IA.

Mensonges sur les politiques d’entreprise, échecs dans la gestion des tâches, bugs et failles de sécurité, autant des revers que l’on attribue aux assistants IA même les plus performants. Dans une étude qu’il vient de publier, le Columbia Journalism Review a informé les utilisateurs que huit moteurs de recherche IA qu’ils viennent de tester ont donné de fausses informations, et pas que. L’assurance à laquelle ces outils affirment leurs positions est troublante et déconcertante.

L’illusion de la fiabilité, le danger que représente ces assistants IA

Si je vous parle de ces soucis avec les assistants d’IA générative ce n’est surtout pas pour les diaboliser. L’arrivée de ces assistants nous a permis de reformuler rapidement des textes, de dénicher des idées lorsqu’on manque d’inspiration ou encore de trouver des solutions à des problèmes en codage sans y passer toute une nuit. Cependant, il faut toujours se rappeler que ces outils ne sont pas fiables à 100 %.

Même si les marges d’erreurs de ces outils sont assez fiables, il est conseillé de toujours rester sur ses gardes. Lorsque vous utilisez par exemple Gemini ou ChatGPT dans vos travaux de rédaction, ayez toujours le réflexe de vérifier le contenu. Cela est valable dans le codage, la traduction surtout le maniement des chiffres. En effet, face à la capacité de ces outils à enjoliver les réponses même si elles sont fausses, les vérifications restent les meilleurs moyens d’éviter de tomber dans les pièges.

Oui, vous pouvez utiliser l’IA générative dans vos tâches au quotidien, mais il faudrait l’utiliser avec vigilance tout en préservant notre esprit critique. Après tout, c’est ce qui nous diffère des machines !

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *