Nvidia lâche 26 milliards pour ses propres modèles IA : le piège open-source est en place
Huit jours après avoir coupé les ponts avec OpenAI et Anthropic, Nvidia révèle un plan à 26 milliards de dollars pour développer ses propres modèles IA open-weight. Derrière la générosité apparente, une stratégie de lock-in redoutable.

La vraie raison vient de tomber
Il y a 8 jours, Nvidia annonçait qu'il arrêtait d'investir dans OpenAI et Anthropic. La raison officielle ? Une future entrée en Bourse qui rendait ces participations gênantes. On t'avait dit, dans notre article du 5 mars, que la raison officieuse était probablement ailleurs. Que Nvidia ne lâchait pas la course à l'IA, mais changeait de couloir.
En fait, la vraie raison vient de tomber : un dépôt auprès de la SEC révèle que Nvidia prévoit d'investir 24 milliards d'euros sur cinq ans pour développer ses propres modèles d'intelligence artificielle. En open-weight. Confirmé par Bryan Catanzaro, vice-président de Nvidia, dans une interview à WIRED le 11 mars.
Nvidia ne quitte pas la table. Il construit la sienne.
24 milliards, pour quoi faire ?
Pour te donner une échelle : l'entraînement de GPT-4 a coûté environ 3 milliards d'euros. Avec 24 milliards sur cinq ans, Nvidia a les moyens de produire plusieurs modèles de niveau frontier. C'est pas un side project, c'est une offensive industrielle.
Et ça a déjà commencé. Le premier résultat s'appelle Nemotron 3 Super : 128 milliards de paramètres, une architecture hybride Transformer + Mamba, et un score de 37 sur l'Artificial Analysis Index. Pour comparaison, le GPT-OSS d'OpenAI, leur tentative de modèle ouvert, plafonne à 33. Un modèle de 550 milliards de paramètres est déjà en pré-entraînement.
En parallèle, Nvidia a lancé NemoClaw, une plateforme open-source pour construire des agents IA en entreprise. Le message est clair : on fournit pas juste un modèle, on fournit la cuisine complète.
Le piège en velours de l'open-weight
Maintenant, il faut regarder sous le capot. Parce que "open-weight", ça sonne généreux. Les poids du modèle sont publiés, téléchargeables, modifiables. N'importe quel développeur peut les récupérer et construire dessus. Sauf que les données d'entraînement, elles, restent propriétaires. C'est un coffre-fort dont on te donne la clé, mais pas la combinaison pour en fabriquer un autre.
Et surtout, ces modèles sont optimisés pour tourner sur des GPU Nvidia. Sur l'écosystème CUDA. Chaque développeur qui construit une application sur Nemotron devient, de fait, un client captif du hardware Nvidia. Forbes résume ça en une phrase : "ensures 90% of AI research runs on CUDA".
Si tu veux une analogie, pense à Android. Google a offert un système d'exploitation mobile gratuit au monde entier. Résultat : 10 ans plus tard, 95% du marché non-Apple tourne sur Android, et chaque téléphone Android est une pompe à données pour Google. L'open-source, quand il est piloté par un acteur dominant, c'est un filet qui ressemble à un cadeau.
Le vide que Nvidia remplit
Ce qui rend cette stratégie redoutable, c'est le timing. Regarde le paysage des modèles ouverts aujourd'hui : les meilleurs sont chinois. DeepSeek, Qwen d'Alibaba, MiniMax. Côté occidental, c'est le désert. Meta recule sur l'ouverture de Llama. OpenAI a sorti GPT-OSS, mais il est inférieur à leurs propres modèles propriétaires. Anthropic ? Aucun modèle ouvert. Zéro.
Nvidia s'engouffre dans un vide que personne d'autre ne comble. Pour les entreprises européennes et américaines qui veulent utiliser des modèles ouverts sans dépendre de la Chine, Nemotron devient le choix par défaut. C'est comme arriver avec une citerne d'eau dans un village en pleine sécheresse : personne va te demander le prix tout de suite.
Du vendeur de pelles au chercheur d'or
Pendant des années, on a décrit Nvidia avec la métaphore de la ruée vers l'or : pendant que tout le monde cherche des pépites, Nvidia vend les pelles. C'était vrai. Ça ne l'est plus.
Avec 24 milliards sur la table, Nvidia passe de l'autre côté. L'entreprise ne se contente plus de fournir le hardware sur lequel les autres entraînent leurs modèles. Elle entraîne les siens. Et elle les distribue gratuitement pour s'assurer que tout le monde reste dépendant de ses pelles.
Il faut quand même nuancer. Nemotron 3 Super, aussi bon soit-il sur les benchmarks, n'est pas encore au niveau d'un GPT-5.4 ou d'un Claude Opus sur les tâches les plus complexes. AMD pousse ses puces MI300, Google a ses TPU, Amazon développe Trainium. La concurrence existe. Et 24 milliards sur cinq ans, c'est un plan, pas un fait accompli.
Mais la direction est limpide. En huit jours, Nvidia a quitté le rôle d'investisseur passif dans l'IA pour devenir un concurrent direct de ses anciens protégés. Je pense qu'on assiste à un des pivots stratégiques les plus significatifs de la décennie tech. La suite de cette saga promet d'être mouvementée.



