Le PDG de Nvidia, Jensen Huang, annonce la production à grande échelle de la prochaine génération de puces
06/01/2026
Le PDG de Nvidia, Jensen Huang, a déclaré lundi que la prochaine génération de puces de l’entreprise est en « pleine production », affirmant qu’elles peuvent offrir cinq fois plus de puissance de calcul en intelligence artificielle que les puces précédentes du groupe pour alimenter chatbots et autres applications d’IA.
Lors d’un discours au Consumer Electronics Show de Las Vegas, le dirigeant de la société la plus valorisée au monde a dévoilé de nouveaux détails sur ses puces, attendues plus tard cette année et déjà en phase de test dans les laboratoires de Nvidia par des entreprises d’IA, selon des responsables du groupe interrogés par Reuters. Nvidia fait face à une concurrence croissante, aussi bien de la part de ses rivaux que de ses propres clients.
La plateforme Vera Rubin, composée de six puces Nvidia distinctes, devrait faire ses débuts cette année. Le serveur phare contiendra 72 unités graphiques de la marque et 36 nouveaux processeurs centraux. Jensen Huang a montré comment ces puces peuvent être reliées en « pods » de plus de 1 000 puces Rubin, ce qui permettrait d’améliorer par dix l’efficacité de la génération des « tokens » – l’unité fondamentale des systèmes d’IA.
Pour atteindre ces nouvelles performances, les puces Rubin utilisent toutefois un type de données propriétaires que Nvidia espère voir adopter par l’ensemble du secteur.
« C’est ainsi que nous avons pu réaliser un bond aussi spectaculaire en termes de performances, alors que nous n’avons augmenté le nombre de transistors que de 1,6 fois », a expliqué Jensen Huang.
Si Nvidia domine toujours le marché de l’entraînement des modèles d’IA, la société affronte une concurrence accrue – venant tant de ses rivaux historiques comme Advanced Micro Devices que de clients comme Google (filiale d’Alphabet) – pour fournir ces modèles à des centaines de millions d’utilisateurs de chatbots et autres technologies.
Une grande partie du discours de Huang s’est concentrée sur les performances des nouvelles puces pour ces usages, notamment avec l’ajout d’une nouvelle technologie de stockage baptisée « context memory storage », destinée à aider les chatbots à répondre plus rapidement aux questions longues et aux conversations complexes.
Nvidia a également présenté une nouvelle génération de commutateurs réseau intégrant une connexion inédite appelée co-packaged optics. Cette technologie, essentielle pour relier des milliers de machines en un seul ensemble, concurrence les offres de Broadcom et Cisco Systems.
Nvidia a indiqué que CoreWeave sera parmi les premiers à recevoir les nouveaux systèmes Vera Rubin, et s’attend à ce que Microsoft, Oracle, Amazon et Alphabet les adoptent également.
Parmi d’autres annonces, Jensen Huang a mis en avant un nouveau logiciel capable d’aider les voitures autonomes à décider du chemin à suivre – tout en laissant une trace exploitable par les ingénieurs. Nvidia avait présenté l’an dernier des recherches sur ce logiciel, baptisé Alpamayo, et Huang a précisé lundi qu’il serait déployé plus largement, avec les données ayant servi à son entraînement, afin que les constructeurs automobiles puissent l’évaluer.
« Non seulement nous open-sourçons les modèles, mais aussi les données utilisées pour les entraîner, car c’est la seule façon de garantir la confiance dans la génèse des modèles », a déclaré Huang sur scène à Las Vegas.
Le mois dernier, Nvidia a recruté des talents et acquis des technologies de puces de la start-up Groq, dont des cadres ayant aidé Google à concevoir ses propres puces d’IA. Si Google reste un client majeur de Nvidia, ses propres puces représentent désormais l’une des plus grandes menaces pour Nvidia, Google collaborant étroitement avec Meta Platforms et d’autres pour éroder la position dominante de Nvidia dans l’IA.
Lors d’une session de questions-réponses avec des analystes financiers après son intervention, Huang a estimé que l’accord avec Groq « n’affectera pas notre activité principale », mais pourrait donner lieu à de nouveaux produits enrichissant la gamme.
En parallèle, Nvidia tient à démontrer que ses dernières innovations surpassent des puces plus anciennes comme la H200, que le président américain Donald Trump a autorisées à l’exportation vers la Chine. Reuters a rapporté que cette puce, précurseur de l’actuelle « Blackwell » de Nvidia, est très demandée en Chine, ce qui inquiète les détracteurs de la Chine au sein de la classe politique américaine.
Jensen Huang a indiqué aux analystes que la demande pour les puces H200 reste forte en Chine, et la directrice financière Colette Kress a précisé que Nvidia a déposé des demandes de licences pour les expédier vers la Chine, mais attend toujours les autorisations des États-Unis et d’autres gouvernements pour pouvoir effectuer ces livraisons.



