Mira Murati dévoile une technologie inédite ce lundi 11 mai 2026. Il s’agit d’un modèle d’interaction qui supprime les temps d’attente de l’IA durant la conversation. Comment Thinking Machines change notre façon de collaborer? Les détails.
La société Thinking Machines vient d’annoncer ce lundi 11 mai 2026 dernier le lancement des modèles d’interaction. Mira Murati, PDG de l’entreprise et une ancienne d’OpenAI vient de dévoiler la nouvelle. Cette technologie permet à l’humain et à la machine de collaborer efficacement. Ils discutent comme s’ils étaient des collègues. L’IA pense et agit comme un humain. Elle répond à la conversation en temps réel.
Pourquoi les modèles actuels sont-ils limités ?
Parce que les modèles classiques traitent les informations dans un fil unique. L’IA n’intervient dans les échanges qu’à la fin de la saisie de l’utilisateur. Elle ne perçoit rien pendant cette attente. Sa perception se fige durant la génération de la réponse. Cela crée un blocage et un temps de latence dans les échanges. Il se contente de partager des connaissances et des intentions. La collaboration ressemble à un échange d’e-mails lents. Thinking Machines veut supprimer cette barrière technique pour rendre l’IA plus interactive sur toutes les modalités.
We started Thinking Machines to advance human-AI collaboration, and this is our first bet on what that looks like. Most labs treat autonomy as the goal and interactivity as scaffolding around a turn-based core. We think the way we work with AI matters as much as how smart it is.…
— Mira Murati (@miramurati) May 11, 2026
Comment fonctionnent les nouveaux modèles d’interaction ?
Les modèles d’interaction analysent les données en temps réel à travers l’audio et la vidéo. Ils utilisent ensuite le mécanisme d’attention pour traiter la demande que ce soit un texte, une audio ou une vidéo. Avec l’appel de fonction et le RAG, l’IA exécute les tâches à l’aide d’outils externes. Elle ne se contente plus de prédire des séquences de mots. Elle agit comme des agents qui traitent des données techniques. Ce processus marque la transition d’un outil de commande vers un système de traitement du contexte spatial et l’intention de l’utilisateur.
Une technologie au service des besoins humains
L’objectif reste simple et ambitieux. L’IA doit rencontrer les humains sur leur terrain. Désormais, c’est la technologie qui s’ajuste aux comportements des humains. Thinking Machines a partagé des exemples concrets ce lundi. Le modèle écoute des histoires pour identifier des animaux. Il traduit la parole de manière instantanée et envoie des alertes à l’humain de sa posture. Ces outils placent les géants mondiaux de l’IA face à une concurrence sérieuse.
Quand le public pourra-t-il tester ces outils ?
Un aperçu de recherche limité sera disponible vers l’été 2026. Le lancement global est prévu pour la fin de l’année. Thinking Machines publiera des détails supplémentaires sur son site officiel. Le déploiement touchera le modèle TML-Interaction-Small qui compte 276 milliards de paramètres. Le système emploie une architecture dual-model et traite les signaux audio et vidéo par early fusion. Un temps de latence de 0.40 seconde seulement a été constaté lors des textes techniques. L’entreprise envisage de l’améliorer progressivement jusqu’à l’ouverture globale des serveurs.
- Partager l'article :