Les programmes d’intelligence artificielle (IA) pourraient ne pas être aussi infaillibles qu’ils le paraissent. Une nouvelle étude montre que, comme les humains, ils présentent des signes de déclin cognitif avec l’âge. Ces résultats soulèvent des questions cruciales sur leur fiabilité à long terme.
Des tests cognitifs révèlent des failles dans l’IA
Une équipe de chercheurs dirigée par le Dr Roy Dayan de l’Université hébraïque de Jérusalem a étudié les capacités cognitives des grands modèles linguistiques (LLM) d’IA, souvent utilisés dans des contextes médicaux. Ces IA ont été soumises au test d’évaluation cognitive de Montréal (MoCA), utilisé pour dépister des troubles tels que la démence précoce chez les humains.
Le test, noté sur 30 points, considère un score de 26 ou plus comme normal. ChatGPT 4o a atteint 26, le score le plus élevé, tandis que ChatGPT et Claude 3.5 ont obtenu 25. Gemini 1.0 a révélé une performance préoccupante, avec seulement 16 points. Les IA ont particulièrement échoué sur des tâches nécessitant des compétences visuospatiales et organisationnelles, comme relier des lettres et des chiffres dans un ordre croissant.
Un vieillissement accéléré pour les IA
Les chercheurs ont également observé que les chatbots plus anciens obtenaient de moins bons résultats, tout comme les patients humains âgés. Par exemple, Gemini 1.0 et sa version ultérieure, Gemini 1.5, présentaient une différence significative de six points au test MoCA, malgré un écart de moins d’un an entre leurs sorties. Cette baisse rapide rappelle des formes de démence à progression accélérée.
Ce déclin cognitif pourrait poser des problèmes majeurs dans des contextes médicaux, où l’IA est utilisée pour diagnostiquer et traiter des patients. « Ces résultats remettent en question l’idée que l’intelligence artificielle pourrait remplacer les médecins humains dans un avenir proche », notent d’ailleurs les chercheurs.
L’intelligence artificielle et ses limites humaines
Les déficiences des LLM reflètent certaines maladies humaines, comme l’atrophie corticale postérieure, une forme d’Alzheimer. Ainsi, les tâches nécessitant des fonctions exécutives visuelles ou un raisonnement abstrait restent un défi. Cependant, l’IA réussit mieux dans des tests d’analyse textuelle. D’ailleurs, cela suggère des forces spécifiques mais limitées.
Cette étude met en lumière la complexité croissante des modèles d’IA ainsi que la nécessité d’une surveillance attentive. « Si nous souhaitons utiliser l’IA en médecine, nous devons comprendre ses limites et ses failles », conclut l’équipe de recherche.
Bien que les IA comme ChatGPT 4o ou Gemini soient des outils prometteurs, leur capacité à remplacer des professionnels humains reste incertaine, surtout face aux défis du vieillissement technologique.
- Partager l'article :