アメリカ・ネバダ州ラスベガスで2026年1月6日から1月9日(米国時間)まで開催中の世界最大級のテクノロジー見本市「CES 2026」(International CES<Consumer Electronics Show>)において、NVIDIAはNVIDIA BlueField-4 データ プロセッサが、次世代 AI フロンティア向けの新たな AI ネイティブ ストレージ インフラである NVIDIA Inference Context Memory Storage Platform に搭載されることを明らかにした。
搭載の背景と期待される効果
AI モデルが数兆のパラメータと多段階推論にまで拡張されるにつれて、膨大な量のコンテキスト データが生成される。これはキーバリュー (KV) キャッシュで表され、精度、ユーザー体験、継続性にとって極めて重要だ。
ただしKV キャッシュをGPUに長期保存することはできない。マルチエージェント システムでのリアルタイム推論のボトルネックが発生する可能性があるからだ。
そのためAI ネイティブ アプリケーションには、このデータを保存および共有するための新たな種類のスケーラブルなインフラが必要になる。
NVIDIA Inference Context Memory Storage Platform は、GPUメモリ容量を拡張。ノード間での高速共有を可能にして、従来のストレージと比較で1秒あたりのトークン数を最大5倍に増強して、最大5倍の電力効率を実現するコンテキスト メモリのインフラを提供する。
NVIDIA Inference Context Memory Storage Platform では、KV キャッシュ容量を拡大し、ラックスケール AI システムのクラスター間でのコンテキスト共有を加速する。
マルチターン AI エージェント向けの永続的なコンテキストにより、応答性を向上させ、AI ファクトリのスループットを強化し、長コンテキストのマルチエージェント推論の効率的なスケーリングをサポートしていく。
NVIDIA BlueField-4 搭載プラットフォームの主な機能
・NVIDIA Rubin クラスターレベルの KV キャッシュ容量は、ロング コンテキスト、マルチターンのエージェント型推論に必要なスケールと効率を実現
・従来のストレージと比較して最大 5 倍の電力効率を実現
・NVIDIA DOCA フレームワークにより実現され、NVIDIA NIXL ライブラリおよび NVIDIA Dynamo ソフトウェアと緊密に統合された AI ノード間で KV キャッシュのスマートな高速共有により、1 秒あたりのトークン数を最大化し、最初のトークン生成までにかかる時間を短縮し、マルチターン応答性を向上
・NVIDIA BlueField-4 で管理されるハードウェア アクセラレーション対応の KV キャッシュ配置により、メタデータのオーバーヘッドを排除し、データ移動を削減し、また、GPU ノードからの安全で分離されたアクセスを保証
・NVIDIA Spectrum-X Ethernet により実現される効率的なデータ共有と検索が、AI ネイティブ KV キャッシュへの RDMA ベースのアクセスをサポートする高性能ネットワーク ファブリックとして機能
AIC、Cloudian、DDN、Dell Technologies、HPE、Hitachi Vantara、IBM、Nutanix、Pure Storage、Supermicro、VAST Data、WEKA などのストレージ イノベーターが、BlueField-4を搭載した次世代 AI ストレージ プラットフォームをいち早く構築。BlueField-4は2026年後半に提供が開始される予定だ。
■詳細はこちらから(CESにおけるNVIDIA Live)
関連情報
https://www.nvidia.com/ja-jp/
構成/清水眞希







DIME MAGAZINE












