L’éditeur cloud veut une IA sécurisée et contrôlée. Agentforce devient le cœur d’une stratégie plus rigoureuse et déterministe.
Salesforce adopte une posture plus encadrée face à l’essor des agents d’IA générative.
Après des défaillances constatées sur le terrain, l’entreprise recentre ses efforts sur une IA plus fiable. Elle mise désormais sur l’automatisation déterministe pour répondre aux exigences réelles des grandes entreprises.
Salesforce revoit ses ambitions en matière d’IA
Salesforce, leader mondial du logiciel d’entreprise, reconsidère sa dépendance aux grands modèles de langage (LLM). Depuis un an, plusieurs déploiements ont révélé les limites des agents IA, notamment en conditions réelles. D’ailleurs, un rapport interne évoque des cas où les modèles génératifs se comportaient de manière inattendue. Ceci affecte la fiabilité attendue en environnement professionnel. Cette situation a conduit l’entreprise à repenser son approche IA sur le long terme.
Une réponse technologique : Agentforce
Pour Salesforce, l’IA ne peut pas fonctionner de façon autonome sans cadre solide. Elle doit s’appuyer sur des données fiables, des règles métier précises et des processus bien définis. C’est pourquoi Agentforce devient la brique centrale de sa stratégie IA. Il s’agit d’une plateforme conçue pour fournir une intelligence automatisée, encadrée par des règles claires et des principes déterministes. L’ambition : offrir une IA d’entreprise fiable, prévisible et sécurisée.
L’automatisation déterministe devient prioritaire
Salesforce affirme désormais que l’automatisation ne doit jamais reposer uniquement sur des probabilités algorithmiques. Dans sa déclaration officielle, l’entreprise insiste sur la nécessité de connecter les modèles aux données métier réelles. Elle évoque l’importance d’un encadrement rigoureux, via la sécurité, la gouvernance et une logique opérationnelle testée. Cette posture marque une rupture avec la vision initialement plus ambitieuse voire risquée de l’IA générative généralisée.
L’IA doit respecter la logique métier
Selon Muralidhar Krishnaprasad, directeur technique d’Agentforce, la fiabilité repose sur une gestion structurée des tâches. Un agent IA chargé d’exécuter plusieurs instructions peut notamment en ignorer certaines s’il en reçoit trop. Ce type de défaillance, observé en test interne, nuit à l’expérience utilisateur. De plus, Salesforce surveille un phénomène appelé « dérive de l’IA », lorsque les agents perdent leur objectif initial si l’utilisateur dévie du sujet.
Un équilibre entre innovation et contrôle
Vers une IA au service des entreprises
Salesforce ne rejette pas les LLM, mais refuse qu’ils agissent seuls sans contrôle explicite. Ainsi, la mission d’Agentforce est d’exploiter les avantages des modèles génératifs tout en y intégrant des garde-fous métier robustes. Cette hybridation permet de combiner créativité algorithmique et exigences de fiabilité opérationnelle.
Une confiance à reconstruire
Les entreprises exigent des solutions IA stables, surtout dans des secteurs critiques comme la santé, la finance ou le support client. Salesforce veut donc rassurer ses clients en leur proposant une IA optimisée pour l’échelle et la précision, et non pour l’expérimentation. Cette approche pragmatique pourrait bien devenir la norme pour les grands éditeurs dans les mois à venir.
En repositionnant Agentforce au cœur de sa stratégie, Salesforce envoie un message clair à tout le secteur. La période d’enthousiasme incontrôlé autour des LLM touche à ses limites dans l’univers professionnel. Désormais, les grandes entreprises recherchent une IA plus encadrée, gouvernée et conforme aux attentes métiers. Ce virage vers la rigueur pourrait redéfinir les standards de l’IA d’entreprise pour les années à venir.
- Partager l'article :
