NVIDIA CEO、GTC 2026で「世界を驚かせる」隠し玉の登場を予告:Rubin、Feynman、それともAI SSDか?
2026年2月19日
2026年3月、カリフォルニア州サンノゼで開催されるNVIDIAの年次開発者会議「GTC(GPU Technology Conference)2026」。AI業界の年計はこの数日間に決まると言っても過言ではないこの重要イベントを前に、NVIDIAのCEOであるJensen Huang氏が、世界中の技術者と投資家の期待を極限まで高める発言を残した。
韓国経済新聞(The Korea Economic Daily)との単独インタビューにおいて、Huang氏は自信に満ちた表情でこう語った。「来月のGTCでは、世界が驚くようなチップを公開する予定だ」。さらに彼は続ける。「世界がこれまでに見たことのない新しいチップをいくつか準備している」と。
この発言は、単なるCEOのリップサービスとして片付けるにはあまりにも具体的であり、かつタイミングが絶妙だ。Huang氏は、SK hynixのエンジニアたちとの実務的な会合の直後にこのコメントを残しており、そこには次世代メモリ技術や物理的な限界を超えようとする両社の強烈な意志が垣間見える。
SK hynixとの密会が示唆する「メモリの壁」の突破
まず注目すべきは、この発言がSK hynixとの技術チームミーティングの直後になされたという文脈だ。現在のAIコンピューティングにおいて、最大のボトルネックはGPUの演算能力そのものではなく、データを供給する「メモリ帯域幅」にある。
NVIDIAとSK hynixは、次世代メモリ規格「HBM4」の実装において緊密な連携をとっている。Huang氏が「このようなチーム(NVIDIAとSK hynixのエンジニア)がいれば、不可能なことなどない」と語った背景には、従来のパッケージング技術の限界を超える何らかのブレークスルーがあったと推測できる。
もし「世界が驚くチップ」が、GPUダイの上に直接HBM4メモリを積層するような、かつてない3Dパッケージング技術を用いたものであるならば、それは単なる性能向上ではなく、半導体設計のパラダイムシフトを意味する。遅延(レイテンシ)の劇的な削減と消費電力の効率化は、兆パラメータ級の巨大言語モデル(LLM)の推論コストを劇的に下げる鍵となるからだ。
本命「Vera Rubin」か、それとも未知の「Feynman」か
GTC 2026で発表が確実視されているのは、現行のBlackwellアーキテクチャの後継となる「Vera Rubin」プラットフォームだ。RシリーズGPU(R100、R200など)は、すでにロードマップ上でその存在が知られており、2026年初頭のCESでも一部情報が公開されている。
しかし、Huang氏があえて「サプライズ」「世界が見たことのない」と強調したそのニュアンスは、既定路線のRubinアーキテクチャの正式発表以上の何かを予感させる。
シナリオ1:Vera Rubinの「隠された」真の姿
一つの可能性は、Vera Rubinアーキテクチャが、これまで公開されていた仕様を遥かに凌駕する「隠し機能」を持っているケースだ。例えば、CPUとGPUの統合をさらに進めた「スーパーチップ」構成において、共有メモリ空間の設計が根本的に刷新されている可能性がある。AMDのMIシリーズがメモリ容量で攻勢をかける中、NVIDIAがメモリ階層の概念そのものを変えるアプローチをとったとしても不思議ではない。
シナリオ2:2028年の未来「Feynman」の前倒し
より衝撃的なシナリオは、2028年頃の投入が計画されていた次々世代アーキテクチャ「Feynman」のプロトタイプ、あるいはそのコア技術の一部が前倒しで披露されることである。
Feynman世代では、電気信号の代わりに光を用いてデータ伝送を行う「シリコンフォトニクス」技術の導入が噂されている。もしGTC 2026のステージで、光インターコネクトを実装したチップが実際に動作する様子がデモされれば、それはムーアの法則の限界におびえる半導体業界にとって、まさに待ちに待った「サプライズ」となるだろう。
第三の可能性:計算機ではない「AI SSD」という伏兵
GPUやCPUといった演算プロセッサ以外の可能性も無視できない。Huang氏のSK hynixへの言及、そして最近の「AI SSD」に関する報道を組み合わせると、NVIDIAがストレージ分野に本格参入するというシナリオも浮上する。
従来のSSDは、AI学習や推論においてデータ供給の足かせとなることがあった。報道によれば、NVIDIAはSK hynixやキオクシアと提携し、1億IOPS(Input/Output Operations Per Second)を超える驚異的な速度を持つAI専用SSDを開発しているという。
もしNVIDIAが、GPUと直結し、CPUを介さずにデータをロードできる独自のストレージコントローラを内蔵したSSDを発表すれば、それはデータセンターのアーキテクチャを一変させる。計算機屋であるNVIDIAが「記憶」の領域まで垂直統合を進めることは、GoogleやAmazonといった独自チップを持つハイパースケーラーに対する強力な牽制球となる。
「技術はすべて限界にある」という言葉の重み
Huang氏はインタビューの中で、「すべての技術が限界にあるため、簡単なことは何もない」とも述べている。この言葉は、現在のAIブームが直面している物理的な壁の厚さを物語っている。
露光装置の限界、放熱の限界、消費電力の限界。これらに対し、NVIDIAは単一のチップ性能だけでなく、データセンター全体を一つのコンピュータとして扱う「データセンター・スケール・コンピューティング」で対抗してきた。今回の「サプライズ」も、単体のチップ性能というよりは、システム全体の効率を劇的に引き上げるための「ミッシングリンク(失われた環)」を埋めるピースである可能性が高い。
例えば、チップ間の接続技術であるNVLinkの次世代版が、もはやケーブルではなくシリコンレベルで統合される、あるいは液冷システム自体がチップ設計の一部として組み込まれるといった、ハードウェアとインフラの境界線を曖昧にする技術かもしれない。
AIバブル論を一蹴する「実需」への自信
市場の一部には、AI投資の過熱を懸念する「AIバブル論」が根強く存在する。しかし、Huang氏の姿勢は一貫して強気である。彼はSK hynixの会長に対し、AIチップの需要は依然として供給を上回っており、バブルの懸念はないと断言したと伝えられている。
「サプライズ」チップの投入は、この自信を裏付けるための決定的な証拠となる必要がある。つまり、単にベンチマークスコアが高いだけでなく、AIモデルのトレーニングコストを劇的に下げる、あるいはこれまで不可能だったリアルタイムの推論を可能にするなど、顧客(Google, Microsoft, Metaなど)にとっての明確なROI(投資対効果)を示す製品でなければならない。
競合他社が「NVIDIAの8割の性能を半額で」提供しようとする中、NVIDIAが目指すのは「他社には絶対に不可能な体験」を提供し続けることである。GTC 2026での発表は、その差が縮まるどころか、再び突き放されたことを世界に知らしめる場となるだろう。
結論なき進化の最前線で
3月16日、Jensen Huang氏が革ジャンを纏ってステージに立つとき、世界はその手に握られた小さなシリコン片に釘付けになるだろう。それがRubinの完成形であれ、Feynmanの片鱗であれ、あるいは我々の想像を超える全く新しいデバイスであれ、一つだけ確かなことがある。
それは、NVIDIAが「現状維持」を最も恐れている企業だということだ。王者でありながら、チャレンジャーのように技術の限界に挑み続ける姿勢。それこそが、同社を時価総額世界一の座に留めている原動力である。我々は来月、AIの歴史がまた1ページめくられる瞬間を目撃することになるだろう。
ソース:NVIDIA CEO、GTC 2026で「世界を驚かせる」隠し玉の登場を予告:Rubin、Feynman、それともAI SSDか? | XenoSpectrum



