Nvidia investiert 26 Milliarden Dollar in eigene KI-Modelle: Open-Weight-Strategie als Ökosystem-Lock

4 Min. Lesezeit
Artikel

Acht Tage nach dem Ausstieg bei OpenAI und Anthropic legt Nvidia die Karten auf den Tisch: 26 Milliarden Dollar für eigene Open-Weight-Modelle. Die Strategie dahinter zielt auf langfristige Hardware-Abhängigkeit.

Der kostenlose KI-Newsletter
Nvidia investiert 26 Milliarden Dollar in eigene KI-Modelle: Open-Weight-Strategie als Ökosystem-Lock

Der strategische Hintergrund wird sichtbar

Vor acht Tagen gab Nvidia bekannt, seine Investitionen in OpenAI und Anthropic zu beenden. Die offizielle Begründung lautete, ein geplanter Börsengang mache diese Beteiligungen problematisch. Bereits in unserer Analyse vom 5. März deuteten wir an, dass die tatsächlichen Gründe vermutlich woanders liegen dürften. Nvidia zieht sich nicht aus dem KI-Wettlauf zurück, sondern wählt einen anderen Ansatz.

Die Bestätigung liegt nun vor: Eine SEC-Einreichung zeigt, dass Nvidia plant, über fünf Jahre hinweg 24 Milliarden Euro in die Entwicklung eigener KI-Modelle zu investieren. Als Open-Weight-Modelle. Bryan Catanzaro, Vice President bei Nvidia, bestätigte dies am 11. März in einem Interview mit WIRED.

Nvidia verlässt den Tisch nicht. Das Unternehmen baut seinen eigenen.

Dimensionen der Investition

Zum Vergleich: Das Training von GPT-4 kostete etwa 3 Milliarden Euro. Mit 24 Milliarden über fünf Jahre verfügt Nvidia über die Mittel, mehrere Modelle auf Frontier-Niveau zu entwickeln. Dabei handelt es sich nicht um ein Nebenprojekt, sondern um eine industrielle Offensive.

Die Umsetzung hat bereits begonnen. Das erste Ergebnis trägt den Namen Nemotron 3 Super: 128 Milliarden Parameter, eine hybride Transformer-Mamba-Architektur und ein Score von 37 im Artificial Analysis Index. OpenAIs GPT-OSS, ihr Versuch eines offenen Modells, erreicht lediglich 33 Punkte. Ein Modell mit 550 Milliarden Parametern befindet sich bereits im Pre-Training.

Parallel dazu hat Nvidia NemoClaw gestartet, eine Open-Source-Plattform für den Aufbau von KI-Agenten im Unternehmenskontext. Die Botschaft ist eindeutig: Nvidia liefert nicht nur ein Modell, sondern eine vollständige Infrastruktur.

Die Mechanik von Open-Weight-Modellen

Eine genauere Betrachtung der technischen Struktur ist aufschlussreich. Der Begriff "Open-Weight" klingt zunächst großzügig: Die Modellgewichte werden veröffentlicht, sind downloadbar und modifizierbar. Entwickler können sie nutzen und darauf aufbauen. Allerdings bleiben die Trainingsdaten proprietär. Man erhält Zugang zum Ergebnis, nicht aber zur Methode seiner Reproduktion.

Entscheidend ist dabei, dass diese Modelle für Nvidia-GPUs optimiert sind. Für das CUDA-Ökosystem. Jeder Entwickler, der eine Anwendung auf Basis von Nemotron entwickelt, wird faktisch zum abhängigen Kunden von Nvidia-Hardware. Forbes fasst dies prägnant zusammen: "ensures 90% of AI research runs on CUDA".

Ein Vergleich mit Android verdeutlicht das Prinzip. Google stellte der Welt ein kostenloses mobiles Betriebssystem zur Verfügung. Zehn Jahre später läuft 95% des Nicht-Apple-Marktes auf Android, und jedes Android-Gerät speist Daten in Googles Infrastruktur. Open-Source unter der Kontrolle eines dominanten Akteurs funktioniert als strategisches Instrument zur Marktbindung.

Das strategische Vakuum im Markt offener Modelle

Die Wirksamkeit dieser Strategie ergibt sich aus dem Timing. Die Landschaft offener Modelle wird derzeit von chinesischen Entwicklungen dominiert: DeepSeek, Alibabas Qwen, MiniMax. Im westlichen Raum herrscht ein Defizit. Meta reduziert sein Engagement bei der Öffnung von Llama. OpenAI hat GPT-OSS veröffentlicht, das jedoch hinter den proprietären Modellen zurückbleibt. Anthropic bietet kein offenes Modell an.

Nvidia füllt ein Vakuum, das kein anderer westlicher Akteur adressiert. Für europäische und amerikanische Unternehmen, die offene Modelle nutzen möchten ohne chinesische Abhängigkeiten einzugehen, wird Nemotron zur naheliegenden Wahl. Die Verfügbarkeit einer Alternative in einer Mangelsituation reduziert die kritische Prüfung der langfristigen Bindungseffekte.

Vom Hardware-Lieferanten zum Modellentwickler

Nvidia wurde jahrelang über die Metapher des Goldrausches beschrieben: Während alle nach Gold suchen, verkauft Nvidia die Schaufeln. Diese Charakterisierung traf zu. Sie ist nicht mehr aktuell.

Mit 24 Milliarden auf dem Tisch vollzieht Nvidia einen Rollenwechsel. Das Unternehmen liefert nicht mehr nur die Hardware, auf der andere ihre Modelle trainieren, sondern trainiert eigene Modelle. Diese werden kostenlos verteilt, um sicherzustellen, dass die Abhängigkeit von der Hardware-Infrastruktur bestehen bleibt.

Allerdings sind Einschränkungen zu berücksichtigen. Nemotron 3 Super erreicht trotz guter Benchmark-Ergebnisse noch nicht das Niveau eines GPT-5.4 oder Claude Opus bei hochkomplexen Aufgaben. AMD entwickelt seine MI300-Chips weiter, Google verfügt über TPUs, Amazon arbeitet an Trainium. Konkurrenz existiert. Zudem handelt es sich bei den 24 Milliarden über fünf Jahre um einen Plan, nicht um ein abgeschlossenes Projekt.

Die strategische Richtung ist dennoch eindeutig. Innerhalb von acht Tagen hat Nvidia die Rolle des passiven KI-Investors aufgegeben und konkurriert nun direkt mit seinen ehemaligen Beteiligungsunternehmen. Dieser Strategiewechsel gehört zu den bedeutendsten der aktuellen Tech-Dekade. Die weitere Entwicklung dieser Konstellation verspricht erhebliche Dynamik.

Behandelte Themen:

WirtschaftNvidiaAnalyse

Häufig gestellte Fragen

Warum investiert Nvidia 24 Milliarden Euro in eigene KI-Modelle?
Nvidia vollzieht einen Strategiewechsel nach dem Ausstieg bei OpenAI und Anthropic. Statt in andere KI-Unternehmen zu investieren, entwickelt der GPU-Hersteller eigene Open-Weight-Modelle, um das Ökosystem zu kontrollieren und eine Abhängigkeit von seiner CUDA-Hardware zu etablieren.
Was ist ein Open-Weight-Modell?
Ein Open-Weight-Modell veröffentlicht die Modellgewichte (trainierte Parameter) als Download für Entwickler zur Anpassung und Nutzung. Im Unterschied zu vollständig quelloffenen Modellen bleiben jedoch die Trainingsdaten proprietär, wodurch eine unabhängige Reproduktion des Modells unmöglich wird.
Was ist Nvidias Nemotron 3 Super?
Nemotron 3 Super ist Nvidias erstes eigenes KI-Modell mit 128 Milliarden Parametern und einer hybriden Transformer-Mamba-Architektur. Im Artificial Analysis Index erreicht es einen Score von 37 und übertrifft damit OpenAIs GPT-OSS (33 Punkte).
Worin besteht die Lock-in-Strategie hinter Nvidias Open-Source-Ansatz?
Die Nemotron-Modelle sind für Nvidia-GPUs und CUDA optimiert. Jeder Entwickler, der diese Modelle nutzt, wird faktisch abhängig von Nvidia-Hardware. Das Prinzip ähnelt Android: ein kostenloses Produkt, das das Ökosystem kontrolliert und langfristige Umsätze sichert.
Welche Marktlücke schließt Nvidia bei offenen Modellen?
Die leistungsfähigsten offenen Modelle stammen derzeit aus China (DeepSeek, Qwen). Meta reduziert sein Engagement bei Llama, OpenAI und Anthropic bieten keine wirklich offenen Modelle. Nvidia ermöglicht westlichen Unternehmen eine Alternative zur Vermeidung chinesischer Abhängigkeiten.
Der kostenlose KI-Newsletter