人気のタグ
おすすめのサイト
企業ニュース
2018.03.29

半年で処理能力10倍!NVIDIAがディープラーニングプラットフォームの機能を強化

NVIDIAから同社のディープラーニング コンピューティング プラットフォームに対する、一連の重要な機能強化策が発表された。同社では、これによりディープラーニング ワークロードにおいて、6 か月前の前世代に比べ 10 倍のパフォーマンスを実現する、と説明している。

すべての主要クラウド サービス プロバイダーとサーバー メーカーに採用されている NVIDIA プラットフォームへの主な機能強化には、もっともパワフルなデータセンター GPU である NVIDIA Tesla V100 のメモリが 2 倍になったほか、革新的な最新 GPU インターコネクト ファブリックである NVIDIA NVSwitch が含まれる。NVSwitch によって、最大16基 Tesla V100 GPU を使って 1 秒間に 2.4 テラバイトという記録的な速度で同時通信が可能になるという。

他にも同社では、2ペタフロップスもの計算能力を提供できる初の単一サーバーである NVIDIA DGX-2 によって、ディープラーニング コンピューティングにおける重要なブレークスルーを打ち出した。 DGX-2は15ラックを占める300台のサーバーに匹敵するディープラーニング処理能力を備えつつ、サイズはその60分の1で、電力効率は18倍を達成している。

DGX-2

今回の発表についてVIDIAの創業者兼CEO であるジェンスン・フアン (Jensen Huang)氏は、次のように述べている。
「このディープラーニングの驚異的な機能強化は、今後さらに発表される機能のほんの一部でしかありません。これらの機能強化の多くは、またたく間に世界標準となった NVIDIA のディープラーニング プラットフォームに基づいています。当社はムーアの法則を大きく上回るペースでプラットフォームのパフォーマンスを劇的に向上させており、医療、輸送、科学探査、その他の数え切れない分野での変革を後押しするブレークスルーをもたらします」

Tesla V100 のメモリが2倍に

Tesla V100 GPU は、世界の先端を行く研究者に広く採用されている。そしてこのたび、メモリインテンシブなディープラーニング ワークロードやハイパフォーマンス コンピューティング ワークロードを処理できるよう、メモリが2倍になった。
32 GBのメモリが搭載された Tesla V100 GPU を使用すれば、データ サイエンティストは、より深くより大規模なディープラーニング モデルのトレーニングを、これまで以上に正確に実行することが可能になる。また、メモリに制約のある HPC アプリケーションでも、以前の 16GB版と比べてパフォーマンスを最大50% 向上させることができるという。

NVSwitch: 革新的なインターコネクト ファブリック

NVSwitch は、最高の PCIe スイッチの5倍の帯域幅を実現する。これにより、開発者はより多くのGPUが相互にハイパーコネクトされたシステムを構築して、従来のシステムの限界を破り、はるかに大規模なデータセットを実行できるようになる、と同社では説明している。また、ニューラルネットワークの並列トレーニングのモデル化など、より大規模で複雑なワークロードを扱えるようになるという。

NVSwitch は、NVIDIA が開発した初の高速インターコネクト テクノロジである NVIDIA NVLink によって提供されるイノベーションを拡張する。NVSwitch を使用すると、システム設計者は、NVLink ベースの GPU の任意のトポロジを柔軟に接続できる、より一層高度なシステムを構築することが可能になる。

NVSwitch

 

@DIMEのSNSアカウントをフォローしよう!

DIME最新号

最新号
2018年12月15日(土) 発売

DIME最新号の特別付録はCOMPLYの「高級イヤーチップ」!大特集は「<超保存版>2019年トレンド大予測」

人気のタグ

おすすめのサイト

ページトップへ