Une nouvelle entreprise, issue du MIT cette fois-ci, vient de dévoiler sa première série de modèles d’intelligence artificielle générative. Ces modèles, nommés LFM ou Liquid Foundation Models, se démarquent par leur structure qui est assez différente de celle de leurs concurrents. D’après l’entreprise, les performances de ces LFM seraient remarquables, rivalisant et parfois surpassant celles des grands modèles de langage les plus avancés actuellement sur le marché.
Liquid AI Inc. est une nouvelle entreprise technologique basée à Boston. Et c’est le fruit du travail d’un groupe de scientifiques du MIT.
Parmi ces fondateurs, il y a Ramin Hasani, Mathias Lechner, Alexander Amini et Daniela Rus.
Leur expertise les place à l’avant-garde dans le domaine des « réseaux neuronaux liquides ». Et le mois que l’on puisse dire, c’est la manière dont les LFM se différencient des modèles tels que GPT d’OpenAI ou Gemini de Google.
Liquid AI Inc. vise alors à développer des modèles d’IA à la fois performants et polyvalents. Donc des modèles qui s’adaptent aux besoins de toutes les organisations.
Mais va-t-elle réussir à relever le défi ? L’avenir nous le dira. En attendant, voici tout ce que vous devez avoir sur les LFM.
Une nouvelle génération de modèles moins gourmande en ressources
Liquid AI Inc. présente ses LFM comme une nouvelle génération de systèmes d’IA, axés sur la performance et l’efficacité.
Selon elle, ces modèles se distinguent par leur faible consommation de mémoire et offre une puissance de calcul importante.
Les LFM sont en effet basés sur des systèmes dynamiques. Ils trouvent également leur origine de l’algèbre linéaire numérique et du traitement du signal. Ce qui fait que les LFM peuvent traiter divers types de données séquentielles. Notamment le texte, l’audio, les images, la vidéo et les signaux.
Si l’on se base sur ces informations, on peut dire que les LFM sont des modèles multimodaux. Tout comme l’est actuellement GPT sous la version 4o.
Moins de neurones, mais plus d’efficacité
En décembre dernier, Liquid AI INC. a attiré l’attention des investisseurs et a réussi à obtenir un financement initial de plus de 37 millions de dollars.
Elle a alors révélé que ses LFM reposaient sur une architecture inovante appelée Liquid Neural Network ou LNN.
Et c’est au sein du laboratoire d’informatique et d’IA du MIT que cette technologie a été initialement conçue.
Les LNN, fondement de cette approche, s’appuient sur le principe des neurones artificiels, également décrits comme des nœuds transformant les données.
Contrairement aux modèles classiques d’apprentissage profond, les LNN peuvent traiter les tâches complexes avec un nombre limité de neurones.
Quelles performances attendre des trois modèles LFM une fois disponibles ?
Dans le cadre du déploiement des LFM, Liquid AI a lancé trois modèles. Le premier, c’est le LFM-1B, avec 1,3 milliard de paramètres. Celui-ci a été conçu pour répondre aux besoins des environnements à ressources limitées.
En second lieu, il y a le modèle LFM-3B qui est à 3,1 milliards de paramètres et qui est destiné aux applications en périphérie.
Le troisième et dernier modèle, le LFM-40B monte à plus de 40 milliards de paramètres. Ce qui fait de lui a solution idéale pour les cas d’utilisation complexes sur serveurs cloud.
D’après Liquid AI, chacun de ses modèles ont obtenu des résultats prometteurs dans les tests de référence d’IA.
Le LFM-3B par exemple, maintient une empreinte mémoire réduite lors des traitements à long terme.
Ce qui fait de lui le modèle le plus adapté pour les applications nécessitant le traitement de grandes quantités de données séquentielles. Notamment les chatbots et l’analyse de documents.
Toujours en matière de performance, les modèles LFM ont obtenu des scores impressionnants sur les benchmarks. En particulier pour les tests ARC-C et MMLU.
Mais ce ne sont que des chiffres. On attend toujours que les LFM soient disponibles avant de les tester et de voir ce qu’ils valent vraiment.
Quand est-ce que Liquid AI Inc. va déployer les LFM ?
Liquid AI Inc. va offrir un accès anticipé à ses modèles via plusieurs plateformes. À savoir Liquid Playground, Lambda (avec ses interfaces de chat et API), et Perplexity Labs.
L’entreprise vise avant tout de permettre aux organisations d’expérimenter l’intégration de ces modèles dans divers systèmes d’IA. Et donc d’évaluer leurs performances dans différents contextes de déploiement, incluant les appareils en périphérie et les installations sur site.
À l’heure actuelle, Liquid AI travaille encore sur l’optimisation des modèles LFM pour des matériels spécifiques produits par des fabricants tels que Nvidia, AMD, Apple, Qualcomm et Cerebras Computing.
Son objectif est d’améliorer encore et encore les performances de ses modèles lorsqu’ils seront disponibles au grand public.
- Partager l'article :