Un milliard contre ChatGPT : pourquoi un des pères de l'IA change de cap
Yann LeCun, prix Turing et co-inventeur du deep learning, vient de lever un milliard de dollars. Pas pour améliorer ChatGPT. Pour le remplacer.

Un milliard de dollars.
C'est ce que vient de lever Yann LeCun, un des pères fondateurs de l'intelligence artificielle, pour construire une IA qui ne fonctionne pas comme ChatGPT.
LeCun n'est pas n'importe qui. Prix Turing (l'équivalent du Nobel en informatique), co-inventeur du deep learning, ancien directeur de la recherche IA chez Meta pendant douze ans. Quand il quitte son poste fin 2025 et lève plus d'un milliard pour sa startup, le monde de la tech fait silence et écoute.
Sa conviction : ChatGPT et ses semblables sont une étape, pas la destination. Et son argent est là pour le prouver.
Le problème que personne ne veut voir
Les LLM ne sont que des machines statistiques qui prédisent le mot suivant dans une phrase. Poussé à l'extrême, ce système donne l'illusion de l'intelligence. Mais un LLM ne comprend pas la question posée et ne comprend pas sa réponse. Nous prendrons le temps de détailler ce qu'est un LLM dans un article dédié.
Ce que LeCun construit à la place
AMI Labs, c'est le nom de la startup. Basée à Paris, avec des bureaux à New York, Montréal et Singapour. Un milliard de dollars dès le lancement, la plus grosse levée seed de l'histoire européenne. Rien que la liste des investisseurs est un signal : NVIDIA, Samsung, Toyota, Jeff Bezos, Eric Schmidt (ex-Google), et Bpifrance.
Ce que LeCun veut construire, ce sont des "modèles du monde". Des IA qui apprennent en observant la réalité, pas en lisant des textes. Des systèmes qui comprennent les relations de cause à effet, la physique, les objets qui se déplacent dans l'espace.
Le principe technique s'appelle JEPA (Joint Embedding Predictive Architecture), et il est radicalement différent de l'approche ChatGPT. Au lieu de prédire le prochain mot dans une phrase, JEPA apprend des représentations abstraites de la réalité. Ce qui compte, ce ne sont pas les détails pixel par pixel ou mot par mot. C'est la structure sous-jacente : comment les choses fonctionnent, pas à quoi elles ressemblent.
Concrètement, ces modèles apprendraient à partir de caméras, de capteurs, de données du monde physique. Les applications visées : robotique industrielle, santé, véhicules autonomes. Des domaines où les hallucinations d'un LLM ne sont pas un inconvénient mineur, mais un danger réel.
Un pari contre le consensus
Ce qui rend cette histoire fascinante, c'est que LeCun ne parie pas juste son argent. Il parie sa réputation contre le consensus de toute l'industrie.
OpenAI a levé 110 milliards de dollars le mois dernier. Cent fois plus que AMI Labs. Google, Microsoft, Meta, Amazon : tous misent massivement sur les LLM. Le monde entier parie que faire les modèles encore plus gros, encore plus puissants, résoudra les problèmes restants.
LeCun dit non. Il dit que les limites des LLM ne sont pas des bugs à corriger. Ce sont des conséquences de l'architecture elle-même. Prédire du texte ne mènera jamais à comprendre le monde. Et il est prêt à mettre une décennie de travail pour le démontrer.
C'est un pari risqué. Les LLM progressent vite. GPT-5 avec la vision raisonne déjà correctement sur des images dans beaucoup de cas. Si les LLM deviennent "assez bons" à raisonner sur le monde physique par la force brute du scaling, la thèse de LeCun s'affaiblit.
Mais si les LLM plafonnent, si les hallucinations restent un problème structurel, si la robotique et la santé continuent de résister à l'approche "tout en texte", alors LeCun aura eu raison avant tout le monde.
L'angle français
Il y a un détail que les médias tech anglophones mentionnent en passant mais qui mérite qu'on s'y attarde. AMI Labs est basée à Paris. Pas à San Francisco, pas à Londres. Paris.
LeCun est français. Il l'a toujours revendiqué. Et le choix de Paris n'est pas symbolique : c'est stratégique. L'Europe cherche activement des alternatives aux modèles d'IA américains et chinois. Les réglementations européennes (DMA, AI Act, RGPD) créent un cadre où la souveraineté technologique n'est pas un slogan, c'est une demande du marché. Les entreprises européennes, les gouvernements, les hôpitaux veulent des solutions IA qui ne transitent pas par les serveurs de Microsoft ou de Google.
Après Mistral AI (le champion français des LLM), AMI Labs devient le deuxième géant français de l'IA. Mais avec une ambition plus grande encore : pas rivaliser avec ChatGPT sur son terrain. Le dépasser.
Ce que ça change pour toi
Si tu utilises ChatGPT, Claude ou Gemini au quotidien, rien ne change à court terme. Ces outils vont continuer à s'améliorer. Les modèles de raisonnement sont déjà nettement meilleurs que ceux d'il y a un an. Le progrès est réel et rapide.
Mais l'histoire de LeCun t'apprend quelque chose d'important sur ces outils : ils sont bons en langage. Pas en tout. Quand ChatGPT te donne une réponse parfaitement formulée, rappelle-toi qu'il a assemblé des mots, pas raisonné sur le monde. Ça ne veut pas dire que la réponse est fausse. Ça veut dire que la confiance qu'il affiche n'est pas proportionnelle à sa compréhension.
Un des fondateurs de l'IA vient de parier un milliard que le futur ne ressemblera pas à ChatGPT. Que la prochaine révolution viendra d'IA qui observent le monde, pas qui lisent des textes. Ça vaut la peine de le savoir, la prochaine fois qu'on te dit que "l'IA comprend tout maintenant."
Elle prédit des mots. Parfois brillamment. Mais comprendre le monde, c'est autre chose. Et quelqu'un vient de mettre un milliard pour le construire.



