in

Red Hat AI 3 : passez de l’expérimentation à la vraie IA d’entreprise

Red Hat AI 3

L’éditeur open source Red Hat renforce sa position sur le marché de l’intelligence artificielle avec le lancement de Red Hat AI 3. Il s’agit d’une plateforme cloud-native pensée pour simplifier l’inférence à grande échelle et poser les bases d’une IA agentique plus performante.

Red Hat poursuit sa stratégie d’ouverture avec le lancement de Red Hat AI 3, une grande évolution de sa plateforme d’intelligence artificielle d’entreprise. Cette version met l’accent sur l’efficacité et la collaboration. Elle est conçue pour rationaliser les charges de travail et accélérer le passage de la preuve de concept à la production. Red Hat offre une solution unique pour les environnements hybrides et multi-cloud. L’objectif : faire de l’IA distribuée un standard industriel.

YouTube video

Red Hat AI 3 : une réponse à la complexité de l’IA en production

Alors que la majorité des entreprises peinent à transformer leurs projets d’IA en véritables leviers économiques, Red Hat AI 3 ambitionne de combler ce fossé. L’entreprise veut permettre aux DSI de passer du concept à la production sans rupture. Cela est rendu possible grâce à une architecture ouverte et à ses briques phares comme Red Hat Enterprise Linux AI, OpenShift AI et AI Inference Server.

La plateforme unifie la gestion des modèles et des environnements d’exécution. Elle fournit un socle stable pour exécuter les charges de travail. C’est valable sur site, dans le cloud ou à la périphérie du réseau. Selon Joe Fernandes, vice-président de la division AI Business Unit : « Avec Red Hat AI 3, nous aidons les organisations à déployer une IA de nouvelle génération en toute confiance, selon leurs propres conditions et sur n’importe quelle infrastructure. »

Red Hat AI 3

L’inférence distribuée : le moteur d’une IA d’entreprise scalable

Red Hat AI 3 s’appuie sur la nouvelle technologie d’inférence distribuée llm-d, pensée pour exploiter pleinement la puissance des environnements Kubernetes. Cette démarche est combinée au moteur vLLM et à des bibliothèques open source comme NIXL et DeepEP. Elle permet de répartir dynamiquement la charge d’exécution des grands modèles de langage sur plusieurs nœuds.

Résultat : des performances plus prévisibles et un coût d’inférence mieux maîtrisé. Dan McNamara (AMD) souligne : « Nous avons associé la puissance des processeurs EPYC et des GPU Instinct à l’ouverture de la pile ROCm pour transformer l’efficacité et l’évolutivité en impact commercial réel. » NVIDIA salue également cette démarche et la considère comme essentielle pour soutenir la prochaine génération d’IA générative et agentique.

Red Hat AI 3

Une IA unifiée, collaborative et souveraine

Au-delà de la performance, Red Hat AI 3 mise sur la collaboration entre les équipes d’ingénieurs et de développeurs grâce à trois briques : Model as a Service, AI Hub et Gen AI Studio. Ces outils facilitent la gestion, le partage et la personnalisation des modèles. Ils respectent également les exigences de souveraineté et de confidentialité. L’écosystème s’appuie sur Llama Stack et le protocole émergent MCP, qui uniformise la communication entre modèles et outils externes.

Pour Mariano Greco, PDG d’ARSAT, cela a permis à l’entreprise argentine de passer « de l’identification du besoin à la mise en production en seulement 45 jours ». Elle garantit ainsi une maîtrise totale des données. Avec cette nouvelle génération de plateforme, Red Hat transforme l’inférence en levier stratégique. L’entreprise réunit standards ouverts, orchestration Kubernetes et IA distribuée. Elle pose ainsi les fondations d’une IA réellement industrielle ouverte, agile et prête pour les agents de demain.

Article basé sur un communiqué de presse reçu par la rédaction.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !