Les scientifiques veulent de plus en plus rapprocher l’IA de l’intelligence humaine. Pour ce faire, ils explorent plusieurs pistes. Une équipe de chercheurs a récemment mené une expérience originale. Ils ont notamment entraîné une IA à acquérir des compétences de langage en l’exposant au quotidien d’un bébé.
Une infime base de données pour un apprentissage inédit
Cette idée originale provient d’une équipe de chercheurs de l’Université de New York. Ils ont équipé un bébé australien qui s’appelle Sam d’une mini caméra frontale. Celle-ci enregistre les vidéos de son quotidien entre ses 6 mois et ses 2 ans.
Les séquences montrent les activités usuelles de Sam : jeux, lectures, repas, etc. Celles-ci s’accompagnent de 250 000 mots, associés aux images correspondant à ce que voit Sam au moment où ils sont prononcés. C’est cette correspondance mots/images que les chercheurs ont voulu reproduire par le machine learning.
Leur système, baptisé « Child’s View for Contrastive Learning Model » (CVCL), démarre de zéro. Pour l’entraîner, les chercheurs se sont basés sur les 60 heures d’enregistrement qu’ils ont pu obtenir. Ainsi, à la différence des grands modèles de langage actuels (LLM) comme GPT-4 d’OpenAI ou Gemini de Google, nourris avec de quantités massives de données, ils ont voulu tester une approche alternative pour l’apprentissage d’un réseau de neurones. Ils entraînent le système avec très peu de données.
Des performances prometteuses pour une IA apprenant du langage d’un bébé
Pour entrainer l’IA, les chercheurs ont utilisé deux modèles complémentaires. Le premier est dédié à analyser des images fixes issues des vidéos. Le second se concentre sur le texte, c’est-à-dire les mots prononcés par l’enfant. Puis, ils ont combiné les deux modules.
Par la suite, ils ont évalué les performances de leur intelligence artificielle en deux étapes. Dans un premier temps, le modèle a été confronté à des images et des mots qu’elle connaissait déjà, afin de mesurer sa capacité à les associer correctement. Le résultat est encourageant, avec un taux d’associations pertinentes d’environ 62 %.
L’IA a ensuite été testée sur des images absentes de sa base d’entraînement. Là encore, elle a su établir des liens justes entre les images et les mots. Cela démontre la capacité du modèle à généraliser les connaissances qu’il a acquises.
Vers une nouvelle méthode d’apprentissage de l’IA ?
Si les résultats obtenus sont encourageants, il serait prématuré d’en tirer des généralisations hâtives ou de conclure que toutes les IA pourraient apprendre de cette manière. L’expérience menée ne s’appuie en effet que sur les données d’un seul enfant, ce qui ne permet pas d’affirmer avec certitude que ces conclusions seraient transposables à d’autres situations.
Néanmoins, cette expérience ouvre des perspectives stimulantes. Elle démontre qu’il est envisageable de développer des compétences linguistiques chez une IA de manière similaire à l’apprentissage d’un enfant. Ce type de travaux pourrait influencer les techniques de conception de modèles d’IA.
- Partager l'article :