in

Nvidia a 3 nouveaux concurrents : Cerebras, Graphcore et Tenstorrent

Concurrents Nvidia 2026

Pendant trois ans, le monde de la Tech a vécu sous une dictature bienveillante mais coûteuse : celle de Nvidia qui a aujourd’hui 3 nouveaux concurrents. Si vous vouliez faire de l’IA sérieusement, vous n’aviez pas le choix. Vous payiez ce que l’industrie appelait discrètement la « Taxe Jensen », du nom du PDG Jensen Huang. Vous achetiez des GPU H100, puis des Blackwell, vous attendiez patiemment six mois pour être livré, et vous remerciiez le fournisseur.

Avec une part de marché dépassant les 85 % entre 2023 et 2025, Nvidia n’avait pas de concurrents, seulement des clients captifs. 

Mais en ce début d’année 2026, la dynamique change brutalement. Le marché de l’intelligence artificielle est en pleine mutation

Nous quittons la phase pionnière de l’entraînement massif. Un ère où la puissance brute était reine, pour entrer dans l’ère de l’inférence industrielle? Une période où le coût, l’efficacité énergétique et la disponibilité priment sur tout le reste.

C’est dans cette faille stratégique que trois acteurs aux dents longues se sont engouffrés. Cerebras, Graphcore et Tenstorrent ne cherchent alors pas pas à copier Nvidia. Ils cherchent à réécrire les règles physiques et économiques du calcul. 

Voici ce que j’en pense de cette rébellion technologique.

La forteresse Nvidia assiégée par la réalité physique

Pour comprendre pourquoi le monopole s’effrite, il faut regarder au-delà de la hype. Les entreprises se heurtent aujourd’hui à un « mur de l’énergie »

Les Data Centers équipés exclusivement de solutions Nvidia consomment désormais autant d’électricité que des nations moyennes

Aligner des milliers de GPU n’est plus seulement une question de budget, c’est une impasse physique et environnementale pour de nombreux DSI.

YouTube video

De plus, la nature même du travail a changé. Entraîner un modèle comme GPT-5.1 coûte des milliards et nécessite les meilleures puces du monde. 

Mais le faire « tourner » au quotidien pour des millions d’utilisateurs est une tâche répétitive qui ne justifie pas toujours l’usage d’une « Rolls-Royce » comme le GPU Blackwell. 

Enfin, la question de la souveraineté est devenue critique. Aucun géant, de Microsoft à SoftBank, ne souhaite voir son destin technologique suspendu au bon vouloir d’un seul fournisseur californien.

Cerebras : quand la taille compte vraiment

Si Nvidia est une écurie de Formule 1, Cerebras a décidé de construire des fusées. Leur approche technique est l’une des plus radicales de l’histoire des semi-conducteurs. 

Au lieu de graver des centaines de petites puces sur une galette de silicium (wafer) pour ensuite les découper, Cerebras a fait le pari fou de garder le wafer entier.

Leur produit phare, le WSE-3, est une puce unique de la taille d’une assiette à pizza, contenant 4 000 milliards de transistors. 

Cette architecture monolithique résout le plus gros goulot d’étranglement de l’IA actuelle : la latence. 

Sur un cluster Nvidia classique, les données doivent voyager d’une puce à l’autre via des câbles, ce qui ralentit le traitement. 

Chez Cerebras, tout reste sur la même plaque de silicium, la mémoire étant physiquement collée aux cœurs de calcul.

Après une tentative d’introduction en bourse complexe, l’entreprise s’impose en 2026 comme la référence absolue pour les secteurs exigeant une vitesse quasi-instantanée, comme le trading haute fréquence, la recherche pharmaceutique ou la défense. 

Bien sûr, ils ne remplaceront pas Nvidia partout, mais sur le créneau de la performance extrême, ils sont intouchables.

YouTube video

Graphcore : le phénix renaît grâce à SoftBank

L’histoire de Graphcore est celle d’une résurrection spectaculaire. En 2024, cette pépite britannique était considérée comme cliniquement morte, brûlant ses liquidités sans réussir à imposer ses « IPU » (Intelligence Processing Units) face au rouleau compresseur Nvidia. C’était sans compter sur l’intervention de Masayoshi Son.

Le rachat de l’entreprise par SoftBank a tout changé. Intégré désormais au projet « Izana », Graphcore ne se bat plus avec les armes d’une startup, mais avec la puissance de feu d’un empire financier. 

Leur technologie IPU se distingue fondamentalement du GPU. Alors que le processeur graphique de Nvidia a été conçu pour l’image puis adapté à l’IA, l’IPU de Graphcore a été pensé nativement. Cela afin de gérer les structures de données complexes et « éparses » des réseaux de neurones.

Aujourd’hui, Graphcore vise une cible très précise : les supercalculateurs souverains. En couplant potentiellement ses puces avec l’architecture ARM (également propriété de SoftBank), l’entreprise offre une alternative crédible aux nations. Mais aussi aux grands groupes industriels qui cherchent à s’émanciper de la dépendance américaine, tout en bénéficiant d’une efficacité énergétique supérieure pour certaines tâches spécifiques.

Tenstorrent : le facteur « Jim Keller » et la révolution RISC-V

De tous les concurrents, Tenstorrent est sans doute celui qui inquiète le plus Nvidia sur le long terme. 

La raison tient en deux mots : Jim Keller. Ce nom est une légende dans la Silicon Valley. C’est l’homme qui a conçu la puce A4 d’Apple rendant l’iPhone fluide, l’architecture Zen qui a sauvé AMD de la faillite, et le cerveau de l’Autopilot de Tesla. Partout où il passe, une rupture technologique suit.

Son pari chez Tenstorrent est idéologique. Il oppose l’ouverture à la fermeture. Nvidia repose sur une architecture propriétaire (CUDA) et fermée. 

Tenstorrent, à l’inverse, mise tout sur le RISC-V, un standard ouvert comparable à ce que Linux est aux systèmes d’exploitation. 

Cette approche permet de casser les coûts de développement et de s’affranchir des royalties.

Mais l’innovation de Keller est aussi structurelle avec l’approche « Chiplet ». Au lieu de vendre une puce monolithique et coûteuse, Tenstorrent vend des « briques » technologiques (des chiplets) que les clients peuvent assembler comme des Lego. 

Un constructeur automobile peut assembler trois briques pour sa conduite autonome, tandis qu’un fournisseur de Cloud en assemblera une centaine pour ses serveurs.

Cette modularité offre un ratio performance/prix imbattable, positionnant Tenstorrent comme le potentiel « Intel » de l’ère IA : moins glamour que Nvidia, mais omniprésent dans les objets du quotidien.

YouTube video

La guerre invisible de la Supply Chain

Au-delà de la technologie, une guerre géopolitique se joue en coulisses. Le monopole de Nvidia repose sur une fragilité majeure : sa dépendance totale à TSMC

Toutes ses puces de pointe sont fabriquées par une seule entreprise sur l’île de Taïwan. C’est un goulot d’étranglement qui terrifie l’économie mondiale. Si la chaîne logistique de TSMC se grippe, Nvidia n’a plus rien à vendre.

C’est là un argument de vente massif pour les challengers. Tenstorrent, par exemple, s’est rapproché de Samsung Foundry pour diversifier sa production. 

En proposant des puces qui peuvent être fabriquées ailleurs qu’à Taïwan (par exemple aux États-Unis via Intel Foundry ou en Corée), ces concurrents offrent une sécurité d’approvisionnement que Nvidia ne peut garantir totalement aujourd’hui. 

Pour des géants comme Amazon ou Google, ne pas mettre tous ses œufs dans le même panier est devenu une priorité de sécurité nationale.

L’ère du Choix

L’ère du « Nvidia par défaut » est révolue. Nous entrons dans une phase de maturité du marché, caractérisée par la fragmentation et la spécialisation. 

Comme dans l’industrie automobile où coexistent les camions pour le transport lourd et les citadines pour la mobilité urbaine, l’IA a désormais ses puces spécialisées

Pour les décideurs technologiques, c’est la meilleure nouvelle de la décennie : la concurrence est de retour, et avec elle, la baisse des prix et la diversité de l’innovation.

FAQ : comprendre l’après-Nvidia

Faut-il vendre ses actions Nvidia en 2026 ? 

Pas nécessairement. Nvidia reste le standard « Premium » indétrônable pour l’entraînement des modèles les plus complexes. Leur part de marché va mécaniquement baisser vers les 65-70 %, mais la taille globale du marché augmente tellement vite que leur croissance reste assurée. Ils devront simplement partager le gâteau.

Le logiciel CUDA de Nvidia n’est-il pas une douve infranchissable ? 

C’était vrai hier, ça l’est moins aujourd’hui. L’arrivée de nouveaux frameworks logiciels comme PyTorch 2.0 ou OpenAI Triton permet désormais aux développeurs d’écrire du code capable de tourner sur n’importe quelle puce, qu’elle vienne de Nvidia, d’AMD ou de Tenstorrent. La barrière à la sortie s’abaisse.

Quelle est la différence concrète pour une entreprise ? 

C’est la fin du « taille unique ». Auparavant, vous achetiez du Nvidia pour tout faire. Demain, vous utiliserez Nvidia pour créer l’intelligence (entraînement), et vous utiliserez probablement du Tenstorrent ou du Groq pour l’utiliser au quotidien (inférence), réduisant ainsi drastiquement vos coûts d’opération.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !