L’année dernière, Google DeepMind a lancé l’AlphaFold, son programme d’IA de repliement de protéines grâce auquel, elle a reçu le prix Nobel. Aujourd’hui, c’est autour d’OpenAI de se lancer dans la science en développant, elle aussi, un modèle d’ingénierie des protéines baptisé GPT-4b micro. Il s’agit d’ailleurs du tout premier programme du propriétaire de ChatGPT qui est axé sur la biologie. Et d’après les déclarations de Sam Altman de la semaine dernière, le projet a vu le jour depuis déjà un an en collaboration avec l’entreprise de recherche sur la longévité Retro Biosciences.
Pourtant, on ne parle pas d’un partenariat hasardeux. En 2023, OpenAI a déjà contribué au financement de Retro Biosciences à hauteur de 180 millions de dollars.
De son côté, Retro a pour principal objectif de prolonger notre durée de vie moyenne de 10 ans. Mais pour y arriver, elle doit étudier les facteurs Yamanaka.
Ce sont en effet des facteurs qui constituent un ensemble spécifique de protéines qui possèdent une capacité remarquable.
Autrement dit, lorsqu’ils sont introduits dans une cellule de peau humaine, ils peuvent la reprogrammer en cellule souche pluripotente.
GPT-4b micro booste les facteurs Yamanaka de 50 fois
Cette transformation est particulièrement significative, car elle confère à la cellule des caractéristiques de jeunesse et une plasticité exceptionnelle.
Or, les limites initiales de la reprogrammation cellulaire par les facteurs Yamanaka constituaient un défi majeur. Soit un taux de succès est inférieur à 1 % et un processus s’étend généralement sur plusieurs semaines.
Mais le programme d’OpenAI, baptisé GPT-4b micro, a spécifiquement été conçu pour optimiser l’agencement des facteurs protéiques.
Et les résultats préliminaires sont prometteurs. Les modifications suggérées par l’IA ont permis d’améliorer l’efficacité de deux facteurs Yamanaka par un facteur de plus de 50.
Par contre, les scientifiques ne veulent pas encore confirmer si ces résultats sont réels ou fictifs avant la sortie officielle de GPT-4b micro.
Here gpt-4o-mini is tested. We check how it perceives mathematics, humanity and justice.
— Gabriel Merlo (@gabmfrl) January 9, 2025
Surprisingly, gpt-4o-mini seems very well aligned since it doesn’t associate in 5 levels of depth any negative concepts with humanity. pic.twitter.com/xAjMmphLjz
GPT-4b micro vs AlphaFold
Pour le modèle GPT-4b micro, les chercheurs d’OpenAI ont développé une approche distincte d’AlphaFold de Google.
En effet, les facteurs de Yamanaka étant des protéines particulièrement flexibles et sans structure fixe, OpenAI a privilégié l’utilisation de ses modèles de langage plutôt que la prédiction de structure.
L’entraînement du modèle s’est alors basé sur des séquences protéiques issues de diverses espèces et sur les données d’interactions entre protéines.
Bien que substantiel, ce corpus d’entraînement reste modeste comparé à celui des chatbots d’OpenAI.
Ce qui fait de GPT-4b un modèle de langage spécialisé et relativement compact par rapport à l’AlphaFold de Google.
L’équipe de Retro a ensuite guidé le modèle pour proposer des modifications potentielles des facteurs de Yamanaka.
Leur méthode s’apparente au « few-shot learning ». Il s’agit alors d’un genre de chatbot qui apprend à partir d’exemples annotés avant de traiter un nouveau cas.
Malgré tout, la manipulation génétique en laboratoire se heurte encore aux limites pratiques du nombre de variations testables.
Une protéine typique offre un champ quasi infini de modifications possibles. Et chacun de ses nombreux acides aminés peut être remplacé par l’une des 20 variantes existantes.
Dans ses propositions, le modèle d’OpenAI suggère généralement de modifier environ un tiers des acides aminés qui composent ces protéines.
Le mystérieux lien entre Sam Altman et la recherche sur le vieillissement
D’après Vadim Gladyshev, spécialiste du vieillissement à Harvard et consultant pour Retro, il est capital d’améliorer les techniques de génération de cellules souches.
Il souligne que si certaines cellules, comme celles de la peau, se reprogramment aisément, d’autres types cellulaires résistent à ce processus.
Le défi s’intensifie notamment lors du passage à de nouvelles espèces, où les résultats sont souvent décevants.
Le fonctionnement interne du GPT-4b reste encore mystérieux. Mais c’est une situation courante avec les modèles d’IA.
„OpenAI’s new model, called GPT-4b micro, was trained to suggest ways to re-engineer the protein factors to increase their function. According to OpenAI, researchers used the model’s suggestions to change two of the Yamanaka factors to be more than 50 times as effective—at least… pic.twitter.com/7bKMU8kt2w
— Chubby♨️ (@kimmonismus) January 17, 2025
Betts-Lacroix, PDG de Retro Biosciences, établit un parallèle avec AlphaGo. Si sa victoire contre le champion de Go fut éclatante, comprendre les mécanismes sous-jacents prit du temps. Il estime d’ailleurs que nous commençons à peine à entrevoir le potentiel du GPT-4b.
Bien qu’OpenAI affirme que cette collaboration n’implique aucune transaction financière, elle soulève des questions sur les liens entre Altman et ses investissements.
En effet, Retro, dont il est le principal investisseur, pourrait bénéficier de ces travaux. Cette situation s’ajoute aux interrogations concernant les activités annexes du PDG d’OpenAI pour atteindre l’AGI.
Selon le Wall Street Journal, les investissements massifs d’Altman dans des startups technologiques constituent un réseau complexe d’intérêts potentiellement conflictuels. Certains de ces entreprises entretiennent d’ailleurs des relations commerciales avec OpenAI.
Pour Retro, l’association avec Altman, OpenAI et la recherche sur l’AGI pourrait renforcer son attractivité.
Ce qui va faciliter le recrutement et la levée de fonds. Mais Betts-Lacroix est resté évasif sur d’éventuelles levées de fonds en cours.
De son côté, OpenAI maintient qu’Altman n’a pas participé directement à ces travaux et que ses autres investissements n’influencent pas les décisions de l’entreprise.
- Partager l'article :