注目銘柄
米NVIDIA、次世代AIプラットフォーム「Rubin」の量産とエコシステムを公表
米NVIDIAは1月5日、CES 2026開幕を前にラスベガスで開催したプレスイベントで、次世代AI向けプラットフォーム「Rubin」の量産開始と、2026年後半の提供に向けた製品エコシステムの全体像を明らかにした。RubinはGPU、CPU、ネットワーク、DPUを一体で設計したAIスーパーコンピュータ基盤で、学習から推論までの処理効率を抜本的に高める構成となる。
中核となるのはAI処理用のRubin GPUと新設計のVera CPUで、これに高速相互接続を担うNVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switchを組み合わせた6種の新チップ群だ。これらを緊密に連携させることで、従来世代と比べトークン当たりの推論コストを大幅に低減し、MoEなど大規模モデルの学習に必要なGPU台数も大きく削減できるとしている。
Rubin GPUには次世代HBM4メモリを採用し、メモリ帯域の制約を解消することで計算性能を最大限に引き出す設計とした。これにより、AIエージェントや高度な推論処理を支える大規模AIファクトリーの構築を容易にする狙いだ。
NVIDIAはすでにRubin関連製品を量産体制へ移行しており、主要クラウド事業者やデータセンター事業者が2026年後半から順次サービス提供を開始する見通しだ。AIインフラ需要の拡大が続く中、Rubinの投入は同社の市場支配力をさらに強固にする重要な一手となるだろう。
中核となるのはAI処理用のRubin GPUと新設計のVera CPUで、これに高速相互接続を担うNVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switchを組み合わせた6種の新チップ群だ。これらを緊密に連携させることで、従来世代と比べトークン当たりの推論コストを大幅に低減し、MoEなど大規模モデルの学習に必要なGPU台数も大きく削減できるとしている。
Rubin GPUには次世代HBM4メモリを採用し、メモリ帯域の制約を解消することで計算性能を最大限に引き出す設計とした。これにより、AIエージェントや高度な推論処理を支える大規模AIファクトリーの構築を容易にする狙いだ。
NVIDIAはすでにRubin関連製品を量産体制へ移行しており、主要クラウド事業者やデータセンター事業者が2026年後半から順次サービス提供を開始する見通しだ。AIインフラ需要の拡大が続く中、Rubinの投入は同社の市場支配力をさらに強固にする重要な一手となるだろう。
