Début 2025, les promesses pleuvaient sur la Silicon Valley. Sam Altman, patron d’OpenAI, prédisait l’arrivée massive d’agents capables d’intégrer le marché du travail. Lors du forum de Davos en janvier, Kevin Weil jurait que l’IA allait enfin « agir dans le monde réel » pour nous. Un an plus tard, le constat est plus piquant : nos nouveaux collègues virtuels sont encore au stade de stagiaires très maladroits.
Le mirage d’une productivité automatisée à prix d’or
Les prévisions des génies de la tech en début d’année ne manquaient pas de panache. Contrairement à un simple chatbot, un agent autonome naviguerait seul dans le monde numérique pour accomplir des tâches complexes. Si le premier se contente de rédiger un mail, le second peut réserver un voyage de A à Z. Sur le papier, le potentiel financier est vertigineux.
Marc Benioff, le P-DG de Salesforce, n’a pas hésité à évoquer une révolution du travail numérique pesant plusieurs milliers de milliards de dollars. Selon lui, l’IA accomplirait déjà la moitié des tâches au sein de son entreprise.
Cet optimisme s’appuyait sur une réussite bien réelle : la programmation informatique. À la fin de l’année 2024, des outils comme Codex d’OpenAI impressionnaient les experts en modifiant des sites web via de simples commandes textuelles. Seulement voilà, coder dans l’environnement structuré et textuel d’un terminal informatique est une chose. Interagir avec le désordre du web grand public, rempli de menus déroulants et de publicités intrusives, en est une autre. Ce qui fonctionnait pour les ingénieurs a brutalement plafonné dès qu’il a fallu s’adresser au reste du monde.
La barrière technique : quand la souris résiste à l’algorithme
Pour devenir un véritable assistant, l’IA doit sortir de sa zone de confort textuelle pour apprendre à « cliquer ». C’est un défi technique colossal. Le New York Times révélait récemment que des startups créent des « sites miroirs » (des copies de Gmail ou de sites de compagnies aériennes) uniquement pour entraîner l’IA à déplacer un curseur comme un humain. Pourtant, les résultats de l’agent ChatGPT, lancé en juillet, restent poussifs.
Lors de certains tests, l’outil s’est retrouvé bloqué pendant près de quinze minutes sur un simple menu déroulant pour sélectionner un prix immobilier. « Même des actions basiques comme cliquer ou chercher peuvent prendre plusieurs secondes, voire des minutes », note une analyse critique citée par le New Yorker. Cette latence et cette fragilité transforment ce qui devait être un gain de temps en une source de frustration. Bref, l’efficacité fluide promise lors des conférences de presse de début d’année n’est pas encore atteinte.
Un manque de discernement et des erreurs critiques
Au-delà de la technique, c’est le « cerveau » de l’IA qui pose question. Comme le martèle Gary Marcus, expert reconnu du secteur, les modèles de langage actuels (LLM) n’ont aucune compréhension réelle du fonctionnement du monde. Ils ne font que prédire la suite logique d’une phrase. Résultat ? Les hallucinations persistent. Selon des benchmarks récents, même une technologie de pointe comme GPT-5 affiche un taux d’erreur d’environ 10 % dans les contextes complexes.
Pour un agent chargé de tâches multi-étapes, une erreur de 10 % à l’étape 3 peut faire dérailler l’ensemble du processus de manière catastrophique. Lors d’une démonstration officielle d’OpenAI, l’agent censé planifier un itinéraire entre les stades de baseball américains avait placé une étape en plein milieu du golfe du Mexique. Une erreur de géographie élémentaire que même un enfant éviterait. L’IA l’a pourtant validée avec une assurance totale. Peut-on alors confier sa carte bancaire à un outil qui confond la Floride avec l’océan ?
Vers une « décennie de l’agent » plutôt qu’une année
Face à ce mur de réalité, le discours a radicalement changé cet automne. Dans une note interne, Sam Altman a annoncé qu’OpenAI allait réduire la priorité accordée au développement des agents. La start-up projette de se concentrer à nouveau sur l’amélioration de son chatbot de base. L’idée d’une main-d’œuvre automatisée prête à l’emploi semble aujourd’hui bien précipitée.
Andrej Karpathy, figure historique du secteur, résume parfaitement ce sentiment de gueule de bois technologique : l’industrie a simplement « sur-prédit » la vitesse du progrès. Pour lui, 2025 n’était pas l’année de l’agent, mais tout au plus le début de la « décennie de l’agent ». Le passage de ChatGPT d’un outil de discussion à un véritable travailleur autonome ne sera pas un sprint, mais un marathon qui pourrait durer encore dix ans. L’humain garde donc, pour un bon moment encore, la main sur la souris.
- Partager l'article :

