Le marché des puces IA est l’une des batailles technologiques les plus importantes qui se déroulent en ce moment. Qui fabrique les puces qui alimentent l’IA détermine qui contrôle l’avenir de l’intelligence artificielle — et la concurrence s’intensifie.
La domination de NVIDIA
NVIDIA contrôle environ 80 à 90 % du marché des puces d’entraînement IA. Ses GPU — en particulier les séries H100 et les nouvelles séries B100/B200 — sont le matériel standard pour l’entraînement et l’exécution de grands modèles d’IA. Chaque grande entreprise d’IA (OpenAI, Google, Meta, Anthropic) s’appuie fortement sur le matériel de NVIDIA.
Pourquoi NVIDIA gagne : Ce n’est pas seulement le matériel — c’est l’écosystème logiciel. CUDA, la plateforme de programmation de NVIDIA, est la norme pour le calcul GPU depuis plus d’une décennie. Les bibliothèques, outils et connaissances des développeurs construits autour de CUDA créent des coûts de changement énormes. Même si un concurrent construit une meilleure puce, les développeurs devraient réécrire leur code pour l’utiliser.
La génération Blackwell. La dernière architecture Blackwell de NVIDIA (B100, B200, GB200) représente un saut significatif en termes de performance IA. Le « superchip » GB200 combine deux GPU B200 avec un CPU Grace, offrant d’importantes améliorations de performance tant pour l’entraînement que pour l’inférence.
Contraintes d’approvisionnement. La demande pour les puces IA de NVIDIA dépasse largement l’offre. Des clients majeurs passent des commandes d’une valeur de plusieurs milliards de dollars, et les délais d’attente peuvent s’étendre sur des mois. Ce déséquilibre entre l’offre et la demande a propulsé la capitalisation boursière de NVIDIA à plus de 3 billions de dollars.
Les challengers
AMD. Le MI300X d’AMD est l’alternative la plus crédible à l’H100 de NVIDIA. Il offre des performances compétitives et plus de mémoire (192 Go contre 80 Go), ce qui est important pour faire fonctionner de grands modèles. AMD gagne du terrain auprès des fournisseurs de cloud et des entreprises d’IA, mais son écosystème logiciel (ROCm) est encore moins mature que CUDA.
Google (TPUs). Google conçoit ses propres puces IA — les Tensor Processing Units (TPUs) — pour un usage interne et les clients de Google Cloud. Les TPUs sont optimisés pour les frameworks TensorFlow et JAX de Google et offrent d’excellentes performances pour des charges de travail spécifiques. Le dernier TPU v5p est compétitif avec les meilleures puces de NVIDIA pour l’entraînement de grands modèles.
Amazon (Trainium/Inferentia). Les puces IA personnalisées d’Amazon sont conçues pour les clients AWS. Trainium (pour l’entraînement) et Inferentia (pour l’inférence) offrent des avantages en termes de coûts par rapport aux GPU NVIDIA pour des charges de travail spécifiques. Amazon investit massivement pour rendre ces puces compétitives.
Intel. Les accélérateurs Gaudi d’Intel (acquis auprès de Habana Labs) se positionnent comme une alternative économique à NVIDIA. Intel développe également sa gamme de GPU (Ponte Vecchio, maintenant renommée) pour les charges de travail d’IA. Intel a du mal à gagner une part de marché significative mais reste un acteur.
Startups. Des entreprises comme Cerebras (puces à l’échelle de la plaquette), Groq (puces optimisées pour l’inférence), SambaNova et Graphcore construisent du matériel IA spécialisé. Ces startups proposent des architectures uniques qui peuvent surpasser NVIDIA pour des cas d’utilisation spécifiques, mais elles manquent d’un soutien écosystémique large.
Alternatives chinoises. Les puces Ascend de Huawei et d’autres fabricants chinois de puces IA développent des alternatives stimulées par les contrôles à l’exportation américains qui restreignent l’accès aux puces les plus avancées de NVIDIA. Ces puces sont moins puissantes que les meilleures de NVIDIA mais s’améliorent rapidement.
Le facteur des contrôles à l’exportation
Les contrôles à l’exportation américains sur les puces IA vers la Chine redéfinissent le marché mondial des puces IA :
Ce qui est restreint : Les États-Unis ont restreint les exportations de puces IA avancées (NVIDIA H100, A100, et équivalents) vers la Chine. Les restrictions sont basées sur des métriques de performance des puces et sont conçues pour limiter la capacité de la Chine à entraîner des modèles IA de pointe.
L’impact : Les entreprises chinoises d’IA sont contraintes d’utiliser des puces moins puissantes ou de développer des alternatives domestiques. Cela a accéléré l’investissement de la Chine dans le développement de puces domestiques mais a également ralenti certaines recherches en IA.
Les contournements : Certaines entreprises chinoises ont trouvé des moyens d’accéder à des puces restreintes par l’intermédiaire de pays tiers ou en utilisant des services cloud. Les États-Unis ont renforcé les restrictions pour combler ces échappatoires.
Les implications plus larges : Les contrôles à l’exportation fragmentent le marché mondial des puces IA en écosystèmes alignés sur les États-Unis et sur la Chine. Cette fragmentation pourrait ralentir le progrès mondial en IA et créer des normes technologiques incompatibles.
Le changement d’inférence
Alors que l’IA passe de l’entraînement (construction de modèles) à l’inférence (exécution de modèles), le marché des puces évolue :
Entraînement contre inférence : L’entraînement nécessite une puissance de calcul parallèle massive. L’inférence nécessite de l’efficacité — traiter des demandes individuelles rapidement et à moindre coût. Différentes architectures de puces sont optimales pour chacune.
Puces optimisées pour l’inférence : Des entreprises comme Groq, AWS (Inferentia), et d’autres construisent des puces spécifiquement optimisées pour l’inférence. Ces puces peuvent exécuter des modèles IA plus rapidement et moins cher que les GPU à usage général.
Inference sur le Edge : Exécuter des modèles IA sur des appareils (téléphones, voitures, dispositifs IoT) plutôt que dans des centres de données. Cela nécessite des puces petites et efficaces — un marché différent de celui des énormes GPU utilisés pour l’entraînement.
Mon avis
La domination de NVIDIA sur les puces IA est réelle mais pas permanente. La combinaison des prix élevés, des contraintes d’approvisionnement et de l’enfermement CUDA motive les clients et les concurrents à investir dans des alternatives.
Le résultat le plus probable : NVIDIA reste le leader pour l’entraînement des modèles de pointe, mais le marché de l’inférence devient plus compétitif à mesure que des puces spécialisées offrent un meilleur rapport qualité-prix pour des charges de travail spécifiques. AMD, Google et Amazon captureront une part de marché significative, notamment pour l’inférence.
La situation des contrôles à l’exportation ajoute une complexité géopolitique qui pourrait redéfinir le marché de manière imprévisible. Le marché des puces IA n’est pas seulement une compétition technologique — c’est une compétition géopolitique.
🕒 Published: