{"id":55312,"date":"2026-03-24T10:01:11","date_gmt":"2026-03-24T02:01:11","guid":{"rendered":"https:\/\/ljdevice.com.tw\/?p=55312"},"modified":"2026-03-24T10:01:11","modified_gmt":"2026-03-24T02:01:11","slug":"1000-milliards-de-dollars-de-commandes-nvidia-explose-les-records-en-surfant-sur-la-vague-de-lia-agentique-grace-sa-nouvelle-architecture-desagregee","status":"publish","type":"post","link":"https:\/\/ljdevice.com.tw\/fr\/1000-milliards-de-dollars-de-commandes-nvidia-explose-les-records-en-surfant-sur-la-vague-de-lia-agentique-grace-sa-nouvelle-architecture-desagregee\/","title":{"rendered":"\u201c1000 milliards de dollars de commandes\u201d : Nvidia explose les records en surfant sur la vague de l\u2019IA agentique gr\u00e2ce \u00e0 sa nouvelle architecture d\u00e9sagr\u00e9g\u00e9e"},"content":{"rendered":"<p>Publi\u00e9 le 17 mars 2026<!--more--><\/p>\n<p>Qui pourra arr\u00eater la domination de Nvidia sur le march\u00e9 des centres de calcul pour l\u2019intelligence artificielle ? A priori personne, du moins dans les ann\u00e9es \u00e0 venir. Qu\u2019on parle de microarchitectures de puces, de racks, de la conception des syst\u00e8mes, des logiciels d\u2019orchestration, et m\u00eame de la gestion \u00e9nerg\u00e9tique des supercalculateurs, Nvidia fait toujours plus fort, plus grand, plus vite. Un tour de force.<\/p>\n<div class=\"b-lead-art__image-wrapper\"><img loading=\"lazy\" decoding=\"async\" class=\"c-image\" src=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/IN7VYBXFL5CTZI7ACUTKY3ZNOY.jpg?smart=true&amp;auth=07924256249d8b5a173fed71f28ce433f64ae8e516c27d0610d4b67fd4c6a4ac&amp;width=732&amp;height=488\" sizes=\"auto, (min-width: 480px) and (max-width: 768px) 732px, (min-width: 768px) 1080px, 540px\" srcset=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/IN7VYBXFL5CTZI7ACUTKY3ZNOY.jpg?smart=true&amp;auth=07924256249d8b5a173fed71f28ce433f64ae8e516c27d0610d4b67fd4c6a4ac&amp;width=540&amp;height=360 540w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/IN7VYBXFL5CTZI7ACUTKY3ZNOY.jpg?smart=true&amp;auth=07924256249d8b5a173fed71f28ce433f64ae8e516c27d0610d4b67fd4c6a4ac&amp;width=732&amp;height=488 732w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/IN7VYBXFL5CTZI7ACUTKY3ZNOY.jpg?smart=true&amp;auth=07924256249d8b5a173fed71f28ce433f64ae8e516c27d0610d4b67fd4c6a4ac&amp;width=1080&amp;height=720 1080w\" alt=\"Jensen Huang, CEO de Nvidia, \u00e0 la GTC 2026\" width=\"401\" height=\"267\" data-chromatic=\"ignore\" \/><\/p>\n<div class=\"c-media-item__copyright-wrap\"><span class=\"c-media-item__copyright\">Julien Bergounhoux<\/span><\/div>\n<\/div>\n<p><span class=\"c-media-item__caption\">Jensen Huang, le ma\u00eetre du monde (de l&#8217;IA)<\/span><\/p>\n<p class=\"c-paragraph\">L\u2019ann\u00e9e derni\u00e8re, Nvidia annon\u00e7ait 500 milliards de commandes enregistr\u00e9es jusqu\u2019en 2026. En cette ann\u00e9e qui marque le 20e anniversaire de CUDA, il revoit ce chiffre \u00e0 la hausse avec plus de 1000 milliards de dollars d\u2019engagements d\u2019ici \u00e0 fin 2027. Et tout ne va pas qu\u2019aux hyperscalers, avec 40% d\u2019autres acteurs. Si d\u2019aucun pinailleront sur les d\u00e9tails des rapports financiers de l\u2019entreprise, il est ind\u00e9niable qu\u2019elle surfe tout en haut de la vague de l\u2019intelligence artificielle.<\/p>\n<p class=\"c-paragraph\">Mais rester leader d\u2019un secteur qui \u00e9volue aussi vite que celui de l\u2019IA implique d\u2019anticiper les tendances et d\u00e9veloppements technologiques plusieurs ann\u00e9es \u00e0 l\u2019avance. C\u2019est pourquoi, en r\u00e9ponse au volume croissant de calcul d\u2019inf\u00e9rence que n\u00e9cessite l\u2019exploitation \u00e0 grande \u00e9chelle des grands mod\u00e8les de langage (par rapport \u00e0 l\u2019entra\u00eenement desdits mod\u00e8les qui \u00e9tait dominant ces derni\u00e8res ann\u00e9es), Nvidia lance des syst\u00e8mes \u201cultra premium\u201d \u00e0 l\u2019architecture compl\u00e8tement repens\u00e9e.<\/p>\n<figure class=\"c-media-item b-article-body__image\">\n<div class=\"b-article-body__image-wrapper\"><img loading=\"lazy\" decoding=\"async\" class=\"c-image\" src=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/E5NAY73G6JEH5ASP6BUQOAFJBM.jpg?auth=37be99c5a89cd038aef4f955ed37dcbaf453602f39c631c32671a1abefb8da7e&amp;width=800&amp;height=533\" srcset=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/E5NAY73G6JEH5ASP6BUQOAFJBM.jpg?auth=37be99c5a89cd038aef4f955ed37dcbaf453602f39c631c32671a1abefb8da7e&amp;width=274&amp;height=182 274w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/E5NAY73G6JEH5ASP6BUQOAFJBM.jpg?auth=37be99c5a89cd038aef4f955ed37dcbaf453602f39c631c32671a1abefb8da7e&amp;width=400&amp;height=266 400w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/E5NAY73G6JEH5ASP6BUQOAFJBM.jpg?auth=37be99c5a89cd038aef4f955ed37dcbaf453602f39c631c32671a1abefb8da7e&amp;width=768&amp;height=511 768w\" alt=\"Nvidia GTC 2026 : Revenues\" width=\"800\" height=\"533\" data-chromatic=\"ignore\" \/><\/div><figcaption class=\"c-media-item__fig-caption\"><span class=\"c-media-item__title\">Nvidia GTC 2026 : Revenues<\/span><\/figcaption><\/figure>\n<p class=\"c-paragraph\">Ils s\u2019appuient sur des racks d\u00e9di\u00e9s \u00e0 certains types de calcul, en plus du stockage et du r\u00e9seau, dont un rack de CPU Vera et un rack d\u2019acc\u00e9l\u00e9rateur Groq 3 pour l\u2019inf\u00e9rence. Nvidia parle d\u2019architecture d\u00e9sagr\u00e9g\u00e9e.<\/p>\n<h2 class=\"b-article-body__h2\">Un rack de CPU Vera pour r\u00e9pondre aux besoins de l\u2019agentique<\/h2>\n<p class=\"c-paragraph\">Le besoin en puissance de calcul a \u00e9t\u00e9 multipli\u00e9 par un million entre 2023 et 2025, d\u2019apr\u00e8s Jensen Huang, le patron de Nvidia. Et l\u2019essor des agents IA va causer une autre explosion des besoins en calcul, car ils agiront de fa\u00e7on autonome et interagiront entre eux.<\/p>\n<p class=\"c-paragraph\">Or, l\u2019agentique et l\u2019apprentissage par renforcement sollicitent fortement le CPU. Ca tombe bien car Nvidia met en avant son nouveau processeur Vera \u00e0 88 coeurs Olympus (con\u00e7us en interne sur base Arm), qui est accompagn\u00e9 de 1,5 To de m\u00e9moire LDDPR5X avec jusqu\u2019\u00e0 1,2 To\/s de bande passante. Il permet d\u2019apr\u00e8s lui 1,5 fois plus de performance par sandbox compar\u00e9 \u00e0 l\u2019architecture x86, 3 fois plus de bande passante m\u00e9moire par coeur, et 2 fois plus d\u2019efficacit\u00e9 \u00e9nerg\u00e9tique en single threading.<\/p>\n<figure class=\"c-media-item b-article-body__image\">\n<div class=\"b-article-body__image-wrapper\"><img loading=\"lazy\" decoding=\"async\" class=\"c-image\" src=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/YO6MKFUWJJC63I5N443GKD27SU.jpg?auth=20ce1dbb9f2abff0af5cb8db462b3422dbaaf6fe2a6b7a9552fb6e2afaa0d18e&amp;width=800&amp;height=533\" srcset=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/YO6MKFUWJJC63I5N443GKD27SU.jpg?auth=20ce1dbb9f2abff0af5cb8db462b3422dbaaf6fe2a6b7a9552fb6e2afaa0d18e&amp;width=274&amp;height=182 274w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/YO6MKFUWJJC63I5N443GKD27SU.jpg?auth=20ce1dbb9f2abff0af5cb8db462b3422dbaaf6fe2a6b7a9552fb6e2afaa0d18e&amp;width=400&amp;height=266 400w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/YO6MKFUWJJC63I5N443GKD27SU.jpg?auth=20ce1dbb9f2abff0af5cb8db462b3422dbaaf6fe2a6b7a9552fb6e2afaa0d18e&amp;width=768&amp;height=511 768w\" alt=\"Nvidia GTC 2026 - Vera CPU tray\" width=\"800\" height=\"533\" data-chromatic=\"ignore\" \/><span class=\"b-article-body__copyright\">Julien Bergounhoux<\/span><\/div><figcaption class=\"c-media-item__fig-caption\"><span class=\"c-media-item__title\">Nvidia GTC 2026 &#8211; Vera CPU tray<\/span><\/figcaption><\/figure>\n<p class=\"c-paragraph\">On connaissait d\u00e9j\u00e0 ce CPU car il doit fonctionner avec le GPU Rubin en formant une \u201csuper puce\u201d, notamment au sein des racks Vera Rubin NVL72 sur lesquels Nvidia avait mis l\u2019accent au CES 2026. La nouveaut\u00e9 c\u2019est que Nvidia le proposera aussi dans un rack CPU d\u00e9di\u00e9, qui contiendra 256 CPU Vera, jusqu\u2019\u00e0 400 To de LPDDR5X avec 300 To\/s de bande passante, et 64 DPU BlueField-4 pour g\u00e9rer les donn\u00e9es. De quoi g\u00e9rer 45 056 threads, rien que \u00e7a, \u00e9videmment avec refroidissement liquide.<\/p>\n<p class=\"c-paragraph\">Avec ce rack, Nvidia vante des performances doubl\u00e9es par rapport \u00e0 son pr\u00e9c\u00e9dent CPU Grace pour les calculs li\u00e9s \u00e0 l\u2019agentique. Il sera disponible aupr\u00e8s de ses partenaires habituels : Lenovo, HPE, Dell, Supermicro et de nombreux autres. Du c\u00f4t\u00e9 des op\u00e9rateurs de cloud, Meta, Oracle, CoreWeave et Alibaba se sont aussi d\u2019ores et d\u00e9j\u00e0 engag\u00e9s \u00e0 en d\u00e9ployer.<\/p>\n<h2 class=\"b-article-body__h2\">Un nouvel acc\u00e9l\u00e9rateur provenant de Groq<\/h2>\n<p class=\"c-paragraph\">Nvidia a aussi profit\u00e9 de la GTC 2026 pour annoncer le nouvel acc\u00e9l\u00e9rateur de Groq. Pr\u00e9sent\u00e9 comme Nvidia Groq 3, ce \u201cLanguage Processing Unit\u201d (LPU) fonctionnera en compl\u00e9ment des syst\u00e8mes Vera Rubin. Jensen Huang le d\u00e9crit comme\u00a0<a title=\"https:\/\/www.usine-digitale.fr\/intelligence-artificielle\/ces-2026-oubliez-blackwell-nvidia-annonce-des-performances-dinference-10-fois-superieures-pour-rubin.F45NTN7RHFFX3I4ZYLNONQ32VA.html\" href=\"https:\/\/www.usine-digitale.fr\/intelligence-artificielle\/ces-2026-oubliez-blackwell-nvidia-annonce-des-performances-dinference-10-fois-superieures-pour-rubin.F45NTN7RHFFX3I4ZYLNONQ32VA.html\" target=\"_blank\" rel=\"noopener\">une \u201csepti\u00e8me puce\u201d qui rejoint les six processeurs du syst\u00e8me Rubin NVL72<\/a>\u00a0: le CPU Vera, le GPU Rubin, le DPU Bluefield-4, et les solutions de connectivit\u00e9 NVLink 6, ConnectX-9 et Spectrum-6.<\/p>\n<figure class=\"c-media-item b-article-body__image\">\n<div class=\"b-article-body__image-wrapper\"><img loading=\"lazy\" decoding=\"async\" class=\"c-image\" src=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/K2D7J3RQGNEM7K6YTNQETD5QCM.jpg?auth=8d649a9d7eb189b514891bdb6abc6c9433214fd7a38b3f16e448b620b0305f95&amp;width=800&amp;height=559\" srcset=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/K2D7J3RQGNEM7K6YTNQETD5QCM.jpg?auth=8d649a9d7eb189b514891bdb6abc6c9433214fd7a38b3f16e448b620b0305f95&amp;width=274&amp;height=191 274w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/K2D7J3RQGNEM7K6YTNQETD5QCM.jpg?auth=8d649a9d7eb189b514891bdb6abc6c9433214fd7a38b3f16e448b620b0305f95&amp;width=400&amp;height=279 400w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/K2D7J3RQGNEM7K6YTNQETD5QCM.jpg?auth=8d649a9d7eb189b514891bdb6abc6c9433214fd7a38b3f16e448b620b0305f95&amp;width=768&amp;height=536 768w\" alt=\"Nvidia GTC 2026 keynote - Groq 3 vs Inference\" width=\"800\" height=\"559\" data-chromatic=\"ignore\" \/><\/div><figcaption class=\"c-media-item__fig-caption\"><span class=\"c-media-item__title\">Nvidia GTC 2026 keynote &#8211; Groq 3 vs Inference<\/span><\/figcaption><\/figure>\n<p class=\"c-paragraph\">Cette sortie fait suite \u00e0 l\u2019op\u00e9ration men\u00e9e fin d\u00e9cembre lors de laquelle<a title=\"https:\/\/www.usine-digitale.fr\/electronique\/nvidia-conclut-un-accord-avec-groq-specialise-dans-linference-ia-et-attire-plusieurs-membres-cles-de-son-equipe.HJFLFFJVPZETXPGPSF2TR7N7NM.html\" href=\"https:\/\/www.usine-digitale.fr\/electronique\/nvidia-conclut-un-accord-avec-groq-specialise-dans-linference-ia-et-attire-plusieurs-membres-cles-de-son-equipe.HJFLFFJVPZETXPGPSF2TR7N7NM.html\" target=\"_blank\" rel=\"noopener\">\u00a0Nvidia a achet\u00e9 les droits d\u2019utilisation de la technologie de Groq<\/a>\u00a0et recrut\u00e9 ses dirigeants, dont son fondateur Jonathan Ross. Ce type d\u2019op\u00e9ration s\u2019est impos\u00e9 ces derni\u00e8res ann\u00e9es comme alternative au rachat car il permet d\u2019\u00e9viter les contr\u00f4les r\u00e9glementaires. Il laisse derri\u00e8re une structure plus ou moins \u00e9vid\u00e9e. Il ne fait aucun doute aujourd\u2019hui que le futur de Groq passera par Nvidia.<\/p>\n<h2 class=\"b-article-body__h2\">L\u2019alliance redoutable de Groq 3 et Vera Rubin<\/h2>\n<p class=\"c-paragraph\">L\u2019acc\u00e9l\u00e9rateur Groq LP30 (son \u201cvrai\u201d nom) dispose de 500 Mo de SRAM, contre 230 Mo pour sa premi\u00e8re g\u00e9n\u00e9ration (la seconde n\u2019a jamais vu le jour). Rien \u00e0 voir avec les 288 Go de HBM4 d\u2019un GPU Rubin, mais la SRAM est sept fois plus rapide avec 150 To\/s de bande passante contre 22 To\/s.<\/p>\n<p class=\"c-paragraph\">Tout l\u2019int\u00e9r\u00eat des LPU r\u00e9side dans cette rapidit\u00e9 \u00e0 g\u00e9n\u00e9rer les premiers tokens, mais ils sont limit\u00e9s en mati\u00e8re de d\u00e9bit (1,2 PFLOPS en FP8 contre 50 PFLOPS en NVFP4 pour Rubin), ce qui les rend difficile utilisable pour g\u00e9rer de gros volumes. C\u2019est pourquoi la start-up n\u2019\u00e9tait pas capable de prendre de vraies parts de march\u00e9 \u00e0 Nvidia avec sa technologie, car faire tourner m\u00eame un LLM de taille moyenne n\u00e9cessitait un tr\u00e8s grand nombre de puces.<\/p>\n<figure class=\"c-media-item b-article-body__image\">\n<div class=\"b-article-body__image-wrapper\"><img loading=\"lazy\" decoding=\"async\" class=\"c-image\" src=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/VQ4TCXK2OFDBXNZCN4OHWRLCYQ.jpg?auth=5794842822d9383c89afb71f68de649e437466f88cb759e4479939e1210a491f&amp;width=800&amp;height=533\" srcset=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/VQ4TCXK2OFDBXNZCN4OHWRLCYQ.jpg?auth=5794842822d9383c89afb71f68de649e437466f88cb759e4479939e1210a491f&amp;width=274&amp;height=182 274w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/VQ4TCXK2OFDBXNZCN4OHWRLCYQ.jpg?auth=5794842822d9383c89afb71f68de649e437466f88cb759e4479939e1210a491f&amp;width=400&amp;height=266 400w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/VQ4TCXK2OFDBXNZCN4OHWRLCYQ.jpg?auth=5794842822d9383c89afb71f68de649e437466f88cb759e4479939e1210a491f&amp;width=768&amp;height=511 768w\" alt=\"Nvidia Groq 3 LPX\" width=\"800\" height=\"533\" data-chromatic=\"ignore\" \/><\/div><figcaption class=\"c-media-item__fig-caption\"><span class=\"c-media-item__title\">Nvidia Groq 3 LPX<\/span><\/figcaption><\/figure>\n<p class=\"c-paragraph\">Rubin, \u00e0 l\u2019inverse, a un grand d\u00e9bit de tokens mais avec une latence plus \u00e9lev\u00e9e. Combiner les deux offre un sc\u00e9nario id\u00e9al, et \u00e0 moindre co\u00fbt qu\u2019en ne s\u2019appuyant que sur une seule approche, selon Nvidia. Ses GPU AI repoussent en effet les limites de la fabrication de puces \u00e0 la fois en mati\u00e8re de taille (avec 336 milliards de transistors) et de complexit\u00e9, le tout en utilisant les derniers processus de gravure de TSMC. C\u2019est ce qui les rend si rares et co\u00fbteux.<\/p>\n<p class=\"c-paragraph\">Groq 3 de son c\u00f4t\u00e9 ne totalise \u201cque\u201d 98 milliards de transistors et n\u2019a pas la m\u00eame complexit\u00e9 de fabrication. Elle est d\u2019ailleurs produite par Samsung avec son processus LP4X, un autre avantage \u00e9tant donn\u00e9 les contraintes d\u2019approvisionnement de TSMC, producteur exclusif des GPU de Nvidia.<\/p>\n<h2 class=\"b-article-body__h2\">Un rack d\u2019acc\u00e9l\u00e9rateur Groq pour les usages \u201cultra premium\u201d<\/h2>\n<p class=\"c-paragraph\">Nvidia avait d\u00e9j\u00e0 annonc\u00e9 au CES que son rack Vera Rubin NVL72 fournirait des performances dix fois plus \u00e9lev\u00e9es que Blackwell pour l\u2019inf\u00e9rence. Celles-ci vont encore augmenter gr\u00e2ce \u00e0 l\u2019adjonction d\u2019un rack LPU d\u00e9di\u00e9. Baptis\u00e9 Nvidia Groq 3 LPX, il est constitu\u00e9 de 256 LPU, 128 Go de SRAM avec une bande passante m\u00e9moire de 40 petaoctets par seconde, et fournit une performance de 315 PFLOPS. Le tout est contr\u00f4l\u00e9 par un FPGA et reli\u00e9 aux autres parties du syst\u00e8me par Ethernet.<\/p>\n<figure class=\"c-media-item b-article-body__image\">\n<div class=\"b-article-body__image-wrapper\"><img loading=\"lazy\" decoding=\"async\" class=\"c-image\" src=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/QYPTJWJWIZFVDKU4WOP3KZ5NEU.jpg?auth=641431e1e5a010154b3af85a4a988229f6ddaee5809f13c9819c10dfa7c8cdf8&amp;width=800&amp;height=441\" srcset=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/QYPTJWJWIZFVDKU4WOP3KZ5NEU.jpg?auth=641431e1e5a010154b3af85a4a988229f6ddaee5809f13c9819c10dfa7c8cdf8&amp;width=274&amp;height=151 274w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/QYPTJWJWIZFVDKU4WOP3KZ5NEU.jpg?auth=641431e1e5a010154b3af85a4a988229f6ddaee5809f13c9819c10dfa7c8cdf8&amp;width=400&amp;height=220 400w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/QYPTJWJWIZFVDKU4WOP3KZ5NEU.jpg?auth=641431e1e5a010154b3af85a4a988229f6ddaee5809f13c9819c10dfa7c8cdf8&amp;width=768&amp;height=423 768w\" alt=\"Nvidia GTC 2026, performance ultra premium\" width=\"800\" height=\"441\" data-chromatic=\"ignore\" \/><\/div><figcaption class=\"c-media-item__fig-caption\"><span class=\"c-media-item__title\">Nvidia GTC 2026, performance ultra premium<\/span><\/figcaption><\/figure>\n<p class=\"c-paragraph\">Le rack LPX doit fonctionner en compl\u00e9ment du NVL72 pour fournir un d\u00e9bit 35 fois plus important pour un mod\u00e8le de type GPT avec 1000 milliards de param\u00e8tres et une fen\u00eatre contextuelle de 400 000 tokens. Nvidia pr\u00e9sente cette combinaison comme essentielle pour adresser les besoins les plus exigeants en mati\u00e8re d\u2019agentique \u00e0 grande \u00e9chelle, et il destine express\u00e9ment ces syst\u00e8mes \u201cultra premium\u201d aux d\u00e9veloppeurs de mod\u00e8les d\u2019IA. Comprendre OpenAI, Anthropic ou Meta, par exemple.<\/p>\n<p class=\"c-paragraph\">Ils peuvent fournir jusqu\u2019\u00e0 1000 tokens par seconde, mais cela a un co\u00fbt&#8230; de l\u2019ordre de 150 dollars par million de tokens. La commercialisation du rack Groq 3 LPX est pr\u00e9vue pour le second semestre 2026, comme pour le rack Vera.<\/p>\n<h2 class=\"b-article-body__h2\">Et Rubin CPX dans tout \u00e7a ?<\/h2>\n<p class=\"c-paragraph\">Il faut noter que Nvidia voulait d\u00e9j\u00e0 optimiser sa plateforme Vera Rubin pour l\u2019inf\u00e9rence l\u2019ann\u00e9e derni\u00e8re en y ajoutant un GPU d\u00e9di\u00e9, baptis\u00e9 Rubin CPX, pens\u00e9 pour augmenter le d\u00e9bit lors de la phase contextuelle de l\u2019inf\u00e9rence (le \u201cprefill\u201d), c\u2019est-\u00e0-dire lorsque le mod\u00e8le lit et encode les informations qu\u2019on lui a fournit en tokens (cr\u00e9ant le contexte) avant de produire un r\u00e9sultat.<\/p>\n<p class=\"c-paragraph\">Ce GPU sp\u00e9cial n\u2019est dot\u00e9 que de 128 Go de m\u00e9moire GDDR7, ce qui le rend beaucoup moins cher \u00e0 produire qu\u2019un Rubin classique. La bande passante de la GDDR7 est moins rapide que celle de la HBM4, mais cela suffit pour cette phase du calcul. Le GPU Rubin et ses 288 Go de HBM4 peut alors \u00eatre utilis\u00e9 pour la phase suivante : la g\u00e9n\u00e9ration des tokens de sortie \u00e0 partir du contexte.<\/p>\n<p class=\"c-paragraph\">L\u2019utilisation d\u2019agents pour des t\u00e2ches complexes n\u00e9cessite des contextes de plus en plus larges et qu\u2019il faut conserver en m\u00e9moire de plus en plus longtemps, et Rubin CPX a \u00e9t\u00e9 pens\u00e9 pour r\u00e9pondre \u00e0 cette probl\u00e9matique. Il est propos\u00e9 au sein du syst\u00e8me Rubin NVL144 CPX.<\/p>\n<p class=\"c-paragraph\">Les LPU de Groq viennent a priori compl\u00e9ter ce tableau, car ils acc\u00e9l\u00e8rent la phase de d\u00e9codage sur laquelle intervient les GPU Rubin standard, c\u2019est-\u00e0-dire la g\u00e9n\u00e9ration de tokens de sortie. Leur articulation potentielle avec Rubin CPX n\u2019a cependant pas \u00e9t\u00e9 \u00e9voqu\u00e9e lors de la keynote, et Ian Buck, VP of Hyperscale &amp; HPC, n\u2019a pas r\u00e9pondu \u00e0 la question lorsqu\u2019elle lui a \u00e9t\u00e9 pos\u00e9e lors d\u2019un briefing, indiquant seulement que Nvidia se concentre sur l\u2019int\u00e9gration des LPU Groq \u00e0 sa plateforme.<\/p>\n<h2 class=\"b-article-body__h2\">Disponibilit\u00e9 de Dynamo 1.0 et future compatibilit\u00e9 Groq<\/h2>\n<p class=\"c-paragraph\">Rubin CPX a-t-il \u00e9t\u00e9 r\u00e9l\u00e9gu\u00e9 au second plan pour prioriser l\u2019int\u00e9gration des LPU ou va-t-il \u00eatre tout simplement abandonn\u00e9 ? Difficile \u00e0 dire \u00e0 ce stade. Pour g\u00e9rer le d\u00e9coupage automatique des mod\u00e8les (sans qu\u2019ils aient \u00e0 \u00eatre compl\u00e8tement reconstruits pour cette approche), Nvidia a cr\u00e9\u00e9 un logiciel d\u2019orchestration appel\u00e9 Dynamo. Pr\u00e9sent\u00e9 \u00e0 l\u2019origine avec Rubin CPX, sa version 1.0 est d\u00e9sormais disponible en open source et sera mise \u00e0 profit pour g\u00e9rer l\u2019orchestration des t\u00e2ches entre les GPU Rubin et les LPU Groq.<\/p>\n<figure class=\"c-media-item b-article-body__image\">\n<div class=\"b-article-body__image-wrapper\"><img loading=\"lazy\" decoding=\"async\" class=\"c-image\" src=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/QK4BE63FSJABBLZRN45NYFY42M.jpg?auth=3fb7756d5c2c878cfd4847e857db63e2cc0d54a334e14976a33bfa700dcf7bed&amp;width=800&amp;height=533\" srcset=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/QK4BE63FSJABBLZRN45NYFY42M.jpg?auth=3fb7756d5c2c878cfd4847e857db63e2cc0d54a334e14976a33bfa700dcf7bed&amp;width=274&amp;height=182 274w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/QK4BE63FSJABBLZRN45NYFY42M.jpg?auth=3fb7756d5c2c878cfd4847e857db63e2cc0d54a334e14976a33bfa700dcf7bed&amp;width=400&amp;height=266 400w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/QK4BE63FSJABBLZRN45NYFY42M.jpg?auth=3fb7756d5c2c878cfd4847e857db63e2cc0d54a334e14976a33bfa700dcf7bed&amp;width=768&amp;height=511 768w\" alt=\"Nvidia GTC 2026 keynote - GPU et LPU\" width=\"800\" height=\"533\" data-chromatic=\"ignore\" \/><\/div><figcaption class=\"c-media-item__fig-caption\"><span class=\"c-media-item__title\">Nvidia GTC 2026 keynote &#8211; GPU et LPU<\/span><\/figcaption><\/figure>\n<h2 class=\"b-article-body__h2\">Un nouveau reference design pour les racks de stockage<\/h2>\n<p class=\"c-paragraph\">Deux derniers racks viennent compl\u00e9ter le tableau en plus de Vera, LPX et du NVL72. Le premier est d\u00e9di\u00e9 au stockage et se nomme BlueField-4 SPX. Nvidia ne le commercialisera pas directement, il s\u2019agit d\u2019un design de r\u00e9f\u00e9rence que ses partenaires fabriqueront (et peu importe les designs qu\u2019ils avaient envisag\u00e9s eux-m\u00eames). Ils sont tous au rendez-vous : NetApp, HPE, Hitachi Vantara, Nutanix, IBM, DDN, Vast, etc.<\/p>\n<p class=\"c-paragraph\">Nvidia promet quatre fois plus de performances par watt et la capacit\u00e9 de fournir cinq fois plus de tokens par seconde gr\u00e2ce \u00e0 ce syst\u00e8me, qui est aussi accompagn\u00e9 d\u2019un nouveau framework baptis\u00e9 Doca Memos. De quoi adresser un besoin en donn\u00e9es qui atteindra d\u2019apr\u00e8s lui 500 zettaoctets d\u2019ici 2029 (1 Zo est \u00e9gal \u00e0 un milliard de t\u00e9raoctets), avec des requ\u00eates \u00e0 6000 tokens par prompt. En attendant, il a convaincu la start-up fran\u00e7aise Mistral AI, qui en a vant\u00e9 les m\u00e9rites.<\/p>\n<p class=\"c-paragraph\">Pour la partie r\u00e9seau, Nvidia pr\u00e9sente un rack Ethernet Spectrum-6 SPX qui tire partie de ses innovations en mati\u00e8re de photonique. Clou du spectacle, la plateforme logicielle Nvidia DSX est cens\u00e9e permettre d\u2019installer 30% de serveurs en plus dans un m\u00eame centre de calcul (\u00e0 capacit\u00e9 \u00e9nerg\u00e9tique \u00e9quivalente) en optimisant les performances \u00e9nerg\u00e9tiques de fa\u00e7on dynamique gr\u00e2ce \u00e0 un jumeau num\u00e9rique qui op\u00e8re toute la structure. L\u00e0 encore, Nvidia est partenaire de pratiquement toute l\u2019industrie, qu\u2019il s\u2019agisse de Schneider Electric, Dassault Syst\u00e8mes, Siemens, Hitachi ou de dizaines d\u2019autres.<\/p>\n<h2 class=\"b-article-body__h2\">Nvidia voit toujours plus grand avec ses prochains syst\u00e8mes Feynman<\/h2>\n<p class=\"c-paragraph\">Pour terminer, Nvidia a teas\u00e9 ses prochaines puces, \u00e0 commencer par le GPU Rubin Ultra HBM4e, qui sera accompagn\u00e9 d\u2019une puce Groq LP35 g\u00e9rant la pr\u00e9cision NVFP4. Viendra ensuite l\u2019architecture Feynman, qui doit sortir en 2028.<\/p>\n<figure class=\"c-media-item b-article-body__image\">\n<div class=\"b-article-body__image-wrapper\"><img loading=\"lazy\" decoding=\"async\" class=\"c-image\" src=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/SUXG57EB35EPJE7YEAIH4NJFSA.jpg?auth=46ab7ffa04a7374b5d59e0c2a5e3cf40d0de8ecd731df936dc074d2cfe93b42c&amp;width=800&amp;height=533\" srcset=\"https:\/\/www.usine-digitale.fr\/resizer\/v2\/SUXG57EB35EPJE7YEAIH4NJFSA.jpg?auth=46ab7ffa04a7374b5d59e0c2a5e3cf40d0de8ecd731df936dc074d2cfe93b42c&amp;width=274&amp;height=182 274w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/SUXG57EB35EPJE7YEAIH4NJFSA.jpg?auth=46ab7ffa04a7374b5d59e0c2a5e3cf40d0de8ecd731df936dc074d2cfe93b42c&amp;width=400&amp;height=266 400w, https:\/\/www.usine-digitale.fr\/resizer\/v2\/SUXG57EB35EPJE7YEAIH4NJFSA.jpg?auth=46ab7ffa04a7374b5d59e0c2a5e3cf40d0de8ecd731df936dc074d2cfe93b42c&amp;width=768&amp;height=511 768w\" alt=\"Nvidia GTC 2026 keynote - Future roadmap\" width=\"800\" height=\"533\" data-chromatic=\"ignore\" \/><\/div><figcaption class=\"c-media-item__fig-caption\"><span class=\"c-media-item__title\">Nvidia GTC 2026 keynote &#8211; Future roadmap<\/span><\/figcaption><\/figure>\n<p class=\"c-paragraph\">Le GPU Feynman utilisera une technologie de die stacking et une m\u00e9moire HBM customis\u00e9e. La g\u00e9n\u00e9ration de CPU apr\u00e8s Vera s\u2019appellera Rosa, abbr\u00e9viation de Roseline. Rosa Feynman sera accompagn\u00e9 des Groq LP40, BlueField-5, NVLink-8 CPO, et de Spectrum-7 204T CPO et CX10.<\/p>\n<p class=\"c-paragraph\">Du c\u00f4t\u00e9 des racks, Oberon \u00e9voluera avec une version ETL256 en plus du NVL72, et la g\u00e9n\u00e9ration suivante, nomm\u00e9e Kyber, sera propos\u00e9e en NVL144 et NVL1152. Bon courage aux comp\u00e9titeurs.<\/p>\n<p>La source:<a href=\"https:\/\/www.usine-digitale.fr\/intelligence-artificielle\/ia-generative\/1000-milliards-de-dollars-de-commandes-nvidia-explose-les-records-en-surfant-sur-la-vague-de-lia-agentique-grace-a-sa-nouvelle-architecture-desagregee.EVRBKFGHCZGZ3HUKIXML3CHRPU.html\">\u201c1000 milliards de dollars de commandes\u201d : Nvidia explose les records en surfant sur la vague de l\u2019IA agentique gr\u00e2ce \u00e0 sa nouvelle architecture d\u00e9sagr\u00e9g\u00e9e<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Publi\u00e9 le 17 mars 2026<\/p>\n","protected":false},"author":7,"featured_media":54496,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[511],"tags":[],"class_list":["post-55312","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualites-industrielles"],"_links":{"self":[{"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/posts\/55312","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/comments?post=55312"}],"version-history":[{"count":1,"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/posts\/55312\/revisions"}],"predecessor-version":[{"id":55313,"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/posts\/55312\/revisions\/55313"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/media\/54496"}],"wp:attachment":[{"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/media?parent=55312"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/categories?post=55312"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ljdevice.com.tw\/fr\/wp-json\/wp\/v2\/tags?post=55312"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}