Comme le modèle o1 d’OpenAI, les chercheurs avancent que l’intelligence artificielle aurait la capacité de s’entraîner sans données de formation. Tout comme nous qui pouvons apprendre de nouvelles choses en observant le monde extérieur qui nous entoure. Les systèmes d’IA actuels devront en effet pouvoir acquérir de nouvelles connaissances par la pensée. La question qui se pose est de savoir si les robots ou n’importe quel chatbot alimentés par intelligence artificielle disposent de cette capacité cognitive.
C’est avant tout grâce à cette technique qu’Einsten et Galilée ont pu créer respectivement la théorie de la relativité et les autres idées sur la gravité.
Pour les autres chercheurs, dont Tania Lombrozo, professeur de psychologie à l’université de Princeton, cette habileté n’est pas propre aux êtres humains.
Elle affirme cependant que les systèmes d’IA peuvent acquérir cette compétence et donc apprendre de nouvelles choses en adoptant la technique de l’apprentissage par la pensée.
Plus de raisonnement, moins de clarté
Le fonctionnement d’une expérience de pensée repose sur l’exploration d’un principe ou d’une théorie tout en imaginant ce qu’il ou elle pourra impliquer. Le résultat est donc purement théorique.
Celui de l’apprentissage par auto-explication relève de notre capacité à relier tout ce que l’on sait au sens que l’on va donner à une nouvelle information.
D’après la psychologue américaine, on peut illustrer l’apprentissage par la pensée de plusieurs manières.
Pour le cas des LLM, Lombrozo allègue que les modèles peuvent apporter les corrections nécessaires à leurs réponses en se basant sur les précédentes répliques.
La même approche est adoptée dans l’industrie du jeu vidéo, un domaine dans lequel les moteurs de simulation fournissent des données du monde réel pour qu’ensuite, les systèmes d’IA puissent s’en servir pour se former.
Cela dit, avec des assimilations, les modèles de langage auront la potentialité de fournir des réponses plus précises.
Lombrozo ajoute que les modèles de langage doivent être formés sur une très grande quantité de données pour fournir une réponse en langage naturel aux demandes des utilisateurs.
Par contre, si l’on décide de conditionner les modèles à atteindre un haut niveau de raisonnement, il se pourrait qu’il ne puisse pas répondre de manière claire à une demande directe.
C’est pourquoi, toujours selon Lombrozo, ChatGPT a tendance à corriger ses réponses sans qu’on le lui demande.
Est-ce que notre cerveau et l’IA peuvent partager les mêmes capacités de réflexion ?
Chez l’homme, nous avons plusieurs manières d’acquérir de nouvelles connaissances. Notamment la réflexion, la simulation mentale, le raisonnement et les explications d’une tierce personne.
C’est ce processus que l’on qualifie d’apprentissage par la pensée qui, généralement, se manifeste dans notre vie quotidienne et qui se lance souvent de manière insoupçonnée.
Prenons l’exemple d’un parent expliquant le fonctionnement d’une micro-onde à notre enfant. Cette situation apparemment anodine peut révéler des lacunes dans notre propre compréhension.
Alors, en cherchant à simplifier le concept pour le rendre accessible, nous sommes parfois confrontés à nos propres limites. Et c’est ce qui nous pousse à approfondir notre savoir.
Un autre exemple qui illustre l’apprentissage par la pensée : le réaménagement d’une pièce. Avant de déplacer les meubles physiquement, nous avons tendance à visualiser mentalement les différentes possibilités.
Ce processus de simulation mentale nous permet d’explorer de nombreuses configurations sans effort physique.
Et c’est grâce à ces exemples que l’on peut soulever des questions fascinantes sur les similitudes et les différences entre l’apprentissage humain et celui des intelligences artificielles.
Pourquoi nos cerveaux et les systèmes d’IA partagent-ils cette capacité d’apprentissage par la pensée ? Quel est son véritable intérêt ?
Les systèmes d’IA peuvent-ils vraiment réfléchir ou ce n’est qu’une projection du processus cognitif ?
Selon les chercheurs, dont Lombrozo, cette forme d’apprentissage pourrait être considérée comme une sorte d’apprentissage à la demande.
Lorsque nous assimilons une nouvelle information, nous ne savons pas toujours comment elle nous sera utile à l’avenir.va alors la stocker
Notre cerveau va alors la stocker jusqu’à ce qu’un contexte approprié la rende pertinente. Et c’est ainsi que l’on peut adapter nos connaissances à des situations inédites.
Cette étude soulève tout de même des interrogations sur la nature même de la réflexion des systèmes d’IA.
Ces derniers pensent-ils véritablement ou ne font-ils que simuler les résultats de processus cognitifs ? À vous de donner les réponses en commentaires !
- Partager l'article :