Der Markt für KI-Chips ist einer der wichtigsten technologischen Kämpfe, die derzeit stattfinden. Wer die Chips herstellt, die die KI antreiben, bestimmt, wer die Zukunft der künstlichen Intelligenz kontrolliert — und der Wettbewerb wird intensiver.
NVIDIAs Dominanz
NVIDIA kontrolliert etwa 80 bis 90 % des Marktes für KI-Trainingschips. Ihre GPUs — insbesondere die Serien H100 und die neuen Serien B100/B200 — sind der Standard für das Training und die Ausführung großer KI-Modelle. Jedes große KI-Unternehmen (OpenAI, Google, Meta, Anthropic) verlässt sich stark auf die Hardware von NVIDIA.
Warum NVIDIA gewinnt: Es ist nicht nur die Hardware — es ist das Software-Ökosystem. CUDA, die Programmierplattform von NVIDIA, ist seit über einem Jahrzehnt der Standard für GPU-Computing. Die Bibliotheken, Werkzeuge und das Wissen der Entwickler, die rund um CUDA aufgebaut sind, schaffen enorme Wechselkosten. Selbst wenn ein Konkurrent einen besseren Chip baut, müssten die Entwickler ihren Code umschreiben, um ihn zu verwenden.
Die Blackwell-Generation. Die neueste Blackwell-Architektur von NVIDIA (B100, B200, GB200) stellt einen signifikanten Sprung in Bezug auf die KI-Leistung dar. Der „Superchip“ GB200 kombiniert zwei B200-GPUs mit einer Grace-CPU und bietet erhebliche Leistungsverbesserungen sowohl für das Training als auch für die Inferenz.
Lieferengpässe. Die Nachfrage nach den KI-Chips von NVIDIA übersteigt bei weitem das Angebot. Große Kunden geben Bestellungen im Wert von mehreren Milliarden Dollar auf, und die Wartezeiten können sich über Monate erstrecken. Dieses Ungleichgewicht zwischen Angebot und Nachfrage hat die Marktkapitalisierung von NVIDIA auf über 3 Billionen Dollar getrieben.
Die Herausforderer
AMD. Der MI300X von AMD ist die glaubwürdigste Alternative zum H100 von NVIDIA. Er bietet wettbewerbsfähige Leistungen und mehr Speicher (192 GB gegenüber 80 GB), was wichtig ist, um große Modelle zu betreiben. AMD gewinnt an Boden bei Cloud-Anbietern und KI-Unternehmen, aber sein Software-Ökosystem (ROCm) ist noch weniger ausgereift als CUDA.
Google (TPUs). Google entwirft seine eigenen KI-Chips — die Tensor Processing Units (TPUs) — für den internen Gebrauch und die Kunden von Google Cloud. Die TPUs sind für die TensorFlow- und JAX-Frameworks von Google optimiert und bieten hervorragende Leistungen für spezifische Workloads. Der neueste TPU v5p ist wettbewerbsfähig mit den besten Chips von NVIDIA für das Training großer Modelle.
Amazon (Trainium/Inferentia). Die maßgeschneiderten KI-Chips von Amazon sind für AWS-Kunden konzipiert. Trainium (für das Training) und Inferentia (für die Inferenz) bieten Kostenvorteile im Vergleich zu NVIDIA-GPUs für spezifische Workloads. Amazon investiert massiv, um diese Chips wettbewerbsfähig zu machen.
Intel. Die Gaudi-Beschleuniger von Intel (erworben von Habana Labs) positionieren sich als kostengünstige Alternative zu NVIDIA. Intel entwickelt auch seine GPU-Reihe (Ponte Vecchio, jetzt umbenannt) für KI-Workloads. Intel hat Schwierigkeiten, einen signifikanten Marktanteil zu gewinnen, bleibt aber ein Akteur.
Startups. Unternehmen wie Cerebras (Chip in Wafer-Größe), Groq (für Inferenz optimierte Chips), SambaNova und Graphcore bauen spezialisierte KI-Hardware. Diese Startups bieten einzigartige Architekturen, die NVIDIA in spezifischen Anwendungsfällen übertreffen können, aber sie haben nicht die breite Unterstützung eines Ökosystems.
Chinesische Alternativen. Die Ascend-Chips von Huawei und anderen chinesischen KI-Chipherstellern entwickeln Alternativen, die durch die amerikanischen Exportkontrollen angestoßen werden, die den Zugang zu den fortschrittlichsten Chips von NVIDIA einschränken. Diese Chips sind weniger leistungsstark als die besten von NVIDIA, verbessern sich jedoch schnell.
Der Faktor der Exportkontrollen
Die amerikanischen Exportkontrollen für KI-Chips nach China redefinieren den globalen Markt für KI-Chips:
Was eingeschränkt ist: Die USA haben die Ausfuhr fortschrittlicher KI-Chips (NVIDIA H100, A100 und Äquivalente) nach China eingeschränkt. Die Beschränkungen basieren auf Leistungsmetriken der Chips und sollen Chinas Fähigkeit einschränken, hochmoderne KI-Modelle zu trainieren.
Die Auswirkungen: Chinesische KI-Unternehmen sind gezwungen, weniger leistungsstarke Chips zu verwenden oder inländische Alternativen zu entwickeln. Dies hat die Investitionen Chinas in die Entwicklung inländischer Chips beschleunigt, aber auch einige KI-Forschungen verlangsamt.
Die Umgehungen: Einige chinesische Unternehmen haben Wege gefunden, auf eingeschränkte Chips über Drittländer oder durch die Nutzung von Cloud-Diensten zuzugreifen. Die USA haben die Beschränkungen verschärft, um diese Schlupflöcher zu schließen.
Die breiteren Implikationen: Die Exportkontrollen fragmentieren den globalen Markt für KI-Chips in Ökosysteme, die auf die USA und auf China ausgerichtet sind. Diese Fragmentierung könnte den globalen Fortschritt in der KI verlangsamen und inkompatible technologische Standards schaffen.
Der Wandel zur Inferenz
Während die KI vom Training (Modellbau) zur Inferenz (Modellausführung) übergeht, entwickelt sich der Markt für Chips:
Training gegen Inferenz: Das Training erfordert massive parallele Rechenleistung. Die Inferenz erfordert Effizienz — die Verarbeitung einzelner Anfragen schnell und kostengünstig. Verschiedene Chip-Architekturen sind für jede optimal.
Für die Inferenz optimierte Chips: Unternehmen wie Groq, AWS (Inferentia) und andere bauen speziell für die Inferenz optimierte Chips. Diese Chips können KI-Modelle schneller und günstiger ausführen als allgemeine GPUs.
Inference am Edge: Modelle der KI auf Geräten (Handys, Autos, IoT-Geräte) ausführen, anstatt in Rechenzentren. Dies erfordert kleine und effiziente Chips — ein anderer Markt als der für die riesigen GPUs, die für das Training verwendet werden.
Meine Meinung
Die Dominanz von NVIDIA im Bereich der KI-Chips ist real, aber nicht dauerhaft. Die Kombination aus hohen Preisen, Lieferengpässen und der CUDA-Einschränkung motiviert Kunden und Konkurrenten, in Alternativen zu investieren.
Das wahrscheinlichste Ergebnis: NVIDIA bleibt der Marktführer beim Training von Spitzentechnologien, aber der Markt für Inferenz wird wettbewerbsfähiger, da spezialisierte Chips ein besseres Preis-Leistungs-Verhältnis für spezifische Workloads bieten. AMD, Google und Amazon werden einen signifikanten Marktanteil gewinnen, insbesondere im Bereich der Inferenz.
Die Situation der Exportkontrollen fügt eine geopolitische Komplexität hinzu, die den Markt auf unvorhersehbare Weise redefinieren könnte. Der Markt für KI-Chips ist nicht nur ein technologischer Wettbewerb — es ist ein geopolitischer Wettbewerb.
🕒 Published: