Le marché des puces d’IA est l’une des batailles technologiques les plus conséquentes qui se déroule en ce moment. Qui fabrique les puces qui alimentent l’IA détermine qui contrôle l’avenir de l’intelligence artificielle — et la concurrence s’intensifie.
La domination de NVIDIA
NVIDIA contrôle environ 80-90 % du marché des puces d’entraînement d’IA. Ses GPU — en particulier les séries H100 et les plus récentes B100/B200 — sont le matériel standard pour entraîner et exécuter de grands modèles d’IA. Chaque grande entreprise d’IA (OpenAI, Google, Meta, Anthropic) s’appuie fortement sur le matériel NVIDIA.
Pourquoi NVIDIA gagne : Ce n’est pas seulement le matériel — c’est l’écosystème logiciel. CUDA, la plateforme de programmation de NVIDIA, est la norme pour le calcul sur GPU depuis plus d’une décennie. Les bibliothèques, outils et connaissances des développeurs construits autour de CUDA créent d’énormes coûts de changement. Même si un concurrent construit une meilleure puce, les développeurs devraient réécrire leur code pour l’utiliser.
La génération Blackwell. La dernière architecture Blackwell de NVIDIA (B100, B200, GB200) représente un bond significatif en performance d’IA. Le « superchip » GB200 combine deux GPU B200 avec un CPU Grace, offrant des améliorations de performance massives tant pour l’entraînement que pour l’inférence.
Contraintes d’approvisionnement. La demande pour les puces d’IA de NVIDIA dépasse de loin l’offre. Des clients majeurs passent des commandes d’une valeur de milliards de dollars, et les temps d’attente peuvent s’étendre sur des mois. Ce déséquilibre entre l’offre et la demande a propulsé la capitalisation boursière de NVIDIA à plus de 3 trillions de dollars.
Les challengers
AMD. Le MI300X d’AMD est l’alternative la plus crédible au H100 de NVIDIA. Il offre une performance compétitive et plus de mémoire (192 Go contre 80 Go), ce qui est important pour exécuter de grands modèles. AMD gagne du terrain auprès des fournisseurs de cloud et des entreprises d’IA, mais son écosystème logiciel (ROCm) est encore moins mature que CUDA.
Google (TPUs). Google conçoit ses propres puces d’IA — Tensor Processing Units (TPUs) — pour un usage interne et pour ses clients Google Cloud. Les TPUs sont optimisés pour les frameworks TensorFlow et JAX de Google et offrent d’excellentes performances pour des charges de travail spécifiques. Le dernier TPU v5p est compétitif avec les meilleurs de NVIDIA pour l’entraînement de grands modèles.
Amazon (Trainium/Inferentia). Les puces d’IA personnalisées d’Amazon sont conçues pour les clients AWS. Trainium (pour l’entraînement) et Inferentia (pour l’inférence) offrent des avantages de coût par rapport aux GPU NVIDIA pour des charges de travail spécifiques. Amazon investit massivement pour rendre ces puces compétitives.
Intel. Les accélérateurs Gaudi d’Intel (acquis auprès de Habana Labs) sont positionnés comme une alternative économique à NVIDIA. Intel développe également sa propre ligne de GPU (Ponte Vecchio, désormais rebaptisée) pour les charges de travail d’IA. Intel a eu du mal à gagner une part de marché significative mais reste un acteur.
Startups. Des entreprises comme Cerebras (puces à échelle de wafer), Groq (puces optimisées pour l’inférence), SambaNova et Graphcore construisent du matériel d’IA spécialisé. Ces startups offrent des architectures uniques pouvant surpasser NVIDIA pour des cas d’utilisation spécifiques, mais manquent du soutien d’un large écosystème.
Alternatives chinoises. Les puces Ascend de Huawei et d’autres fabricants de puces d’IA chinois développent des alternatives en raison des contrôles à l’exportation américains qui restreignent l’accès aux puces les plus avancées de NVIDIA. Ces puces sont moins puissantes que les meilleures de NVIDIA mais s’améliorent rapidement.
Le facteur de contrôle à l’exportation
Les contrôles à l’exportation américains sur les puces d’IA vers la Chine redéfinissent le marché mondial des puces d’IA :
Ce qui est restreint : Les États-Unis ont restreint les exportations de puces d’IA avancées (NVIDIA H100, A100 et équivalents) vers la Chine. Les restrictions sont basées sur des métriques de performance des puces et visent à limiter la capacité de la Chine à entraîner des modèles d’IA de pointe.
L’impact : Les entreprises d’IA chinoises sont contraintes d’utiliser des puces moins puissantes ou de développer des alternatives domestiques. Cela a accéléré l’investissement de la Chine dans le développement de puces domestiques mais a également ralenti certaines recherches en IA.
Les solutions de contournement : Certaines entreprises chinoises ont trouvé des moyens d’accéder à des puces restreintes par des pays tiers ou en utilisant des services cloud. Les États-Unis ont renforcé les restrictions pour combler ces lacunes.
Les implications plus larges : Les contrôles à l’exportation fragmentent le marché mondial des puces d’IA en écosystèmes alignés sur les États-Unis et la Chine. Cette fragmentation pourrait ralentir le progrès mondial en IA et créer des normes technologiques incompatibles.
Le changement vers l’inférence
Alors que l’IA passe de l’entraînement (création de modèles) à l’inférence (exécution de modèles), le marché des puces évolue :
Entraînement vs. inférence : L’entraînement nécessite une puissance de calcul massive en parallèle. L’inférence nécessite de l’efficacité — traiter des demandes individuelles rapidement et à moindre coût. Différentes architectures de puces sont optimales pour chacune.
Puces optimisées pour l’inférence : Des entreprises comme Groq, AWS (Inferentia) et d’autres construisent des puces spécifiquement optimisées pour l’inférence. Ces puces peuvent exécuter des modèles d’IA plus rapidement et à moindre coût que les GPU destinés à un usage général.
Inférence sur edge : Exécuter des modèles d’IA sur des appareils (téléphones, voitures, appareils IoT) plutôt que dans des centres de données. Cela nécessite des puces petites et efficaces — un marché différent de celui des gros GPU utilisés pour l’entraînement.
Mon avis
La domination de NVIDIA dans les puces d’IA est réelle mais pas permanente. La combinaison de prix élevés, de contraintes d’approvisionnement et du verrouillage CUDA pousse les clients et les concurrents à investir dans des alternatives.
Le résultat le plus probable : NVIDIA reste le leader pour l’entraînement de modèles de pointe, mais le marché de l’inférence devient plus compétitif alors que des puces spécialisées offrent un meilleur rapport qualité-prix pour des charges de travail spécifiques. AMD, Google et Amazon capteront une part de marché significative, en particulier pour l’inférence.
La situation des contrôles à l’exportation ajoute une complexité géopolitique qui pourrait redéfinir le marché de manière imprévisible. Le marché des puces d’IA n’est pas seulement une compétition technologique — c’est aussi une compétition géopolitique.
🕒 Published: