Eine Milliarde gegen ChatGPT: Warum ein KI-Pionier den Kurs wechselt
Yann LeCun, Turing-Preisträger und Miterfinder des Deep Learning, hat eine Milliarde Dollar eingesammelt. Nicht um ChatGPT zu verbessern, sondern um es zu ersetzen.

Eine Milliarde Dollar. Mit dieser Summe startet Yann LeCun, einer der Gründerväter der künstlichen Intelligenz, sein neuestes Projekt – ein KI-System, das fundamental anders funktioniert als ChatGPT.
LeCuns Reputation in der KI-Forschung ist unbestritten. Der Turing-Preisträger gilt als Miterfinder des Deep Learning und leitete zwölf Jahre lang die KI-Forschung bei Meta. Als er Ende 2025 seinen Posten aufgab und mehr als eine Milliarde Dollar für sein Startup einsammelte, horchte die Technologiebranche auf.
Seine zentrale These: ChatGPT und vergleichbare Large Language Models markieren lediglich eine Etappe in der KI-Entwicklung, nicht deren Ziel. Die Milliarde soll diese Überzeugung in Technologie umsetzen.
Das Problem, das niemand sehen will
Large Language Models funktionieren als statistische Maschinen, die das nächstwahrscheinliche Wort in einer Sequenz vorhersagen. Diese Methode erzeugt bei ausreichender Skalierung durchaus den Eindruck von Intelligenz. Allerdings verstehen LLMs weder die gestellte Frage noch ihre eigene Antwort in einem tieferen Sinne. Eine ausführliche Analyse der LLM-Funktionsweise werden wir in einem separaten Artikel vorlegen.
Was LeCun stattdessen entwickelt
AMI Labs heißt das neue Unternehmen mit Hauptsitz in Paris sowie Niederlassungen in New York, Montreal und Singapur. Die Seed-Finanzierung von einer Milliarde Dollar stellt einen europäischen Rekord dar. Bereits die Investorenliste signalisiert die Tragweite des Projekts: NVIDIA, Samsung, Toyota, Jeff Bezos, Eric Schmidt (ehemals Google) und Bpifrance beteiligen sich.
LeCuns Ziel sind sogenannte Weltmodelle – KI-Systeme, die durch Beobachtung der Realität lernen, nicht durch Textverarbeitung. Diese Systeme sollen Kausalzusammenhänge, physikalische Gesetze und räumliche Objektbewegungen erfassen können.
Das technische Konzept trägt den Namen JEPA (Joint Embedding Predictive Architecture) und unterscheidet sich fundamental vom ChatGPT-Ansatz. Statt das nächste Wort vorherzusagen, erlernt JEPA abstrakte Repräsentationen der Wirklichkeit. Dabei zählen nicht pixelgenaue Details oder einzelne Wörter, sondern die zugrundeliegende Struktur: wie Dinge funktionieren, nicht wie sie aussehen.
In der Praxis würden diese Modelle aus Kameras, Sensoren und physikalischen Messdaten lernen. Die anvisierten Anwendungsgebiete umfassen Industrierobotik, Medizin und autonome Fahrzeuge – Bereiche, in denen LLM-Halluzinationen kein vernachlässigbares Ärgernis, sondern ein echtes Sicherheitsrisiko darstellen.
Eine Wette gegen den Konsens
Die Brisanz dieser Initiative liegt darin, dass LeCun nicht nur Kapital, sondern seine wissenschaftliche Reputation gegen den Branchenkonsens setzt.
OpenAI sammelte im vergangenen Monat 110 Milliarden Dollar ein – das Hundertfache von AMI Labs. Google, Microsoft, Meta und Amazon investieren massiv in LLMs. Die gesamte Industrie setzt darauf, dass größere und leistungsfähigere Modelle die verbleibenden Probleme lösen werden.
LeCun widerspricht dieser Annahme grundlegend. Er argumentiert, dass die Grenzen von LLMs keine behebbaren Fehler darstellen, sondern sich aus der Architektur selbst ergeben. Textvorhersage könne niemals zu echtem Weltverständnis führen – eine These, für deren Beweis er eine Dekade Arbeit zu investieren bereit ist.
Das Risiko ist erheblich. LLMs entwickeln sich rapide weiter. GPT-5 mit Vision-Capabilities zeigt bereits in vielen Fällen solides Schlussfolgern über Bilder. Sollten LLMs durch schiere Skalierung "gut genug" im Umgang mit der physischen Welt werden, verlöre LeCuns These an Überzeugungskraft.
Stagniert jedoch die LLM-Entwicklung, erweisen sich Halluzinationen als strukturelles Problem und widerstehen Robotik sowie Medizin weiterhin textbasierten Ansätzen, hätte LeCun der gesamten Branche einen Entwicklungsschritt vorausgedacht.
Der französische Faktor
Ein Detail verdient besondere Aufmerksamkeit, das anglophone Technologiemedien meist nur am Rande erwähnen: AMI Labs sitzt in Paris. Nicht in San Francisco, nicht in London.
LeCun ist Franzose und hat dies stets betont. Die Standortwahl ist dabei keineswegs symbolisch, sondern strategisch kalkuliert. Europa sucht aktiv nach Alternativen zu amerikanischen und chinesischen KI-Modellen. Die europäischen Regulierungsrahmen (DMA, AI Act, DSGVO) schaffen einen Markt, in dem technologische Souveränität keine politische Floskel bleibt, sondern konkrete Nachfrage generiert. Europäische Unternehmen, Regierungen und Gesundheitseinrichtungen wollen KI-Lösungen, deren Daten nicht über Microsoft- oder Google-Server laufen.
Nach Mistral AI, dem französischen LLM-Champion, etabliert sich mit AMI Labs ein zweiter französischer KI-Gigant. Allerdings mit noch größerem Anspruch: nicht auf ChatGPTs Terrain konkurrieren, sondern dieses überwinden.
Was das für Sie bedeutet
Für Anwender von ChatGPT, Claude oder Gemini ändert sich kurzfristig nichts. Diese Werkzeuge werden sich weiter verbessern. Reasoning-Modelle zeigen bereits deutlich bessere Leistung als noch vor einem Jahr. Der technische Fortschritt ist real und schnell.
LeCuns Initiative vermittelt jedoch eine wichtige Einsicht über diese Tools: Sie beherrschen Sprache. Nicht alles andere. Wenn ChatGPT eine perfekt formulierte Antwort liefert, sollte man sich bewusst machen, dass das System Wörter arrangiert, nicht über die Welt nachgedacht hat. Das bedeutet nicht zwangsläufig, dass die Antwort falsch ist. Es bedeutet jedoch, dass die vom System ausgestrahlte Sicherheit nicht seinem Verständnisgrad entspricht.
Einer der KI-Pioniere hat gerade eine Milliarde darauf gesetzt, dass die Zukunft nicht wie ChatGPT aussehen wird. Dass die nächste Revolution von KI-Systemen kommen wird, die die Welt beobachten, nicht solchen, die Texte verarbeiten. Diese Information lohnt sich zu berücksichtigen, wenn das nächste Mal behauptet wird, "die KI versteht jetzt alles".
Sie sagt Wörter voraus. Manchmal brillant. Aber die Welt zu verstehen ist etwas anderes. Und jemand hat gerade eine Milliarde investiert, um genau das zu entwickeln.



