nvidia tesla v100 gpu アクセラレーター -...

2
ઌͷσʔληϯλʔGPU NVIDIA ® Tesla ® V100 AIɺ HPCάϥϑΟΫεॲཧΛߴԽ Δߴ࠷ͷσʔληϯλʔ GPU Ͱɻ ৽ͷNVIDIA Volta TM ΞʔΩςΫνϟʹΑΓɺ Tesla V1001جͰ 100CPUͷύϑΥʔϚϯεΛ شɺෆՄͱߟ ΒΕ՝ʹऔΓΉσʔλαΠΤϯςΟετɺ ڀݚɺΤϯ δχΞΛڧʹԉ·ɻ TESLA V100 | DATA SHEET | SEP17 NVIDIA TESLA V100 GPU ΞΫηϥϨʔλʔ HPCパフォーマンスが1年で1.5倍に C P U S y s t e m : 2X Xeon E5-2690v4 @ 2.6GHz on pre-production hardware c u F F T S e i s m i c ( R T M ) P h y s i c s ( Q U D A ) S T R E A M 0 1 . 0 X 2 . 0 X Tesla P100との性能比 | G P U S y s t e m : N V I D I A ® T e s l a ® P 1 0 0 o r V 1 0 0 | V 1 0 0 m e a s u r e d 8 X V 1 0 0 8 X P 1 0 0 8 X K 8 0 4 4時間 1 8時間 7 . 4時間 ディープラーニングの学習を1日で 学習完了までの所要時間 4 0 5 0 2 0 3 0 1 0 0 S e r v e r C on g : D u a l X e o n E 5 - 2 6 9 9 v 4 , 2 . 6 G H z | 8 x T e s l a K 8 0 , T e s l a P 1 0 0 o r T e s l a V 1 0 0 | V 1 0 0 p e r f o r m a n c e m e a s u r e d o n p r e - p r o d u c t i o n h a r d w a r e . | R e s N e t - 5 0 T r a i n i n g o n M i c r o s o f t C o g n i t i v e T o o l k i t f o r 9 0 E p o c hs w i t h 1 . 2 8M I m a g e N e t d a t a s e t W o r k l o a d : R e s N e t - 5 0 | C P U : 2 X X e o n E 5 - 2 6 9 0 v 4 @ 2 . 6 G H z | G P U : a d d 1 X N V I D I A ® T e s l a ® P 1 0 0 o r V 1 0 0 a t 1 5 0 W | V 1 0 0 m e a s u r e d o n p r e - p r o d u c t i o n h a r d w a r e . T e s l a V 1 0 0 T e s l a P 1 0 0 2 X C P U 0 2 0 X 4 0 X 1 0 X 3 0 X CPUサーバーとの性能比 ディープラーニングの推論処理が CPUサーバーの30倍高速 Tesla V100 PCle Tesla V100 SXM2 GPUΞʔΩςΫνϟ NVIDIA Volta NVIDIA TensorίΞ 640 NVIDIA CUDA ® ίΞ 5,120 ഒਫ਼ԋ 7 TFLOPS 7.5 TFLOPS ୯ਫ਼ԋ 14 TFLOPS 15 TFLOPS ߦԋ 112 TFLOPS 120 TFLOPS GPUϝϞϦ 16 GB HBM2 ϝϞϦଳҬ෯ 900 GB/sec ECC ରԠ GPUଓଳҬ* 32 GB/sec 300 GB/sec γεςϜଓ PCIe Gen3 NVIDIA NVLink ϑΥʔϜϑΝΫλ PCIe Full Height/Length SXM2 େফඅ 250 W 300 W ٫ ύογϒʢ٫ϑΝϯͳʣ ରԠܭAPI CUDA, DirectCompute, OpenCL , OpenACC

Upload: others

Post on 15-Jul-2020

14 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: NVIDIA TESLA V100 GPU アクセラレーター - …dl.it-sol.jpn.panasonic.com/data/its/nvidia/tesla_v100.pdfTitle NVIDIA TESLA V100 GPU アクセラレーター Author パナソニック

最先端のデータセンター向けGPUNVIDIA® Tesla® V100 はAI、HPCそしてグラフィクス処理を高速化する史上最高のデータセンター向け GPU です。最新のNVIDIA VoltaTM アーキテクチャにより、Tesla V100は1基で最大100CPU分のパフォーマンスを発揮し、かつては不可能と考えられていた課題に取り組むデータサイエンティスト、研究者、エンジニアを強力に支援します。

TESLA V100 | DATA ShEET | SEp17

NVIDIA TESLA V100 GPU アクセラレーター

HPCパフォーマンスが1年で1.5倍に

CPU System: 2X Xeon E5-2690v4 @ 2.6GHzon pre-production hardware

cuFFTSeismic(RTM)

Physics(QUDA)

STREAM0

1.0X

2.0X

Tesl

a P1

00との性能比

| GPU System: NVIDIA® Tesla® P100 or V100 | V100 measured

8X V100

8X P100

8X K8044時間

18時間

7.4時間

ディープラーニングの学習を1日で

学習完了までの所要時間40 5020 30100

Server Config: Dual Xeon E5-2699 v4, 2.6GHz | 8x Tesla K80, Tesla P100 or Tesla V100 | V100 performance measured on pre-production hardware. | ResNet-50 Training on Microsoft Cognitive Toolkit for 90 Epochs with 1.28M ImageNet dataset

Workload: ResNet-50 | CPU: 2X Xeon E5-2690v4 @ 2.6GHz | GPU: add 1X NVIDIA®

Tesla® P100 or V100 at 150W | V100 measured on pre-production hardware.

Tesla V100

Tesla P100

2X CPU

0 20X 40X10X 30X

CPUサーバーとの性能比

ディープラーニングの推論処理がCPUサーバーの30倍高速

仕様

Tesla V100PCle

Tesla V100SXM2

GPUアーキテクチャ NVIDIA VoltaNVIDIA Tensorコア 640NVIDIA CUDA® コア 5,120倍精度演算性能 7 TFLOPS 7.5 TFLOPS単精度演算性能 14 TFLOPS 15 TFLOPS行列演算性能 112 TFLOPS 120 TFLOPSGPUメモリ 16 GB HBM2 メモリ帯域幅 900 GB/secECC 対応GPU間接続帯域* 32 GB/sec 300 GB/secシステム接続 PCIe Gen3 NVIDIA NVLinkフォームファクタ PCIe Full

Height/Length SXM2

最大消費電力 250 W 300 W冷却方式 パッシブ(冷却ファンなし)対応計算API CUDA, DirectCompute,

OpenCL™, OpenACC

Page 2: NVIDIA TESLA V100 GPU アクセラレーター - …dl.it-sol.jpn.panasonic.com/data/its/nvidia/tesla_v100.pdfTitle NVIDIA TESLA V100 GPU アクセラレーター Author パナソニック

© 2017 NVIDIA Corporation. All rights reserved. NVIDIA, the NVIDIA logo, Tesla, NVIDIA GPU Boost, CUDA, and NVIDIA Volta are trademarks and/or registered trademarks of NVIDIA Corporation in the U.S. and other countries. OpenCL is a trademark of Apple Inc. used under license to the Khronos Group Inc. All other trademarks and copyrights are the property of their respective owners. JUL17

Tesla V100の詳細はこちら: www.nvidia.co.jp/v100

TESLA V100の新機軸

Tesla V100はディープラーニング、HPC、グラフィックスに向けたTeslaデータセンター コンピューティング プラットフォームのフラッグシップ製品です。Teslaプラットフォームは450以上のHPCアプリケーションと、全ての主要なディープラーニング フレームワークを高速化します。デスクトップからサーバー、そしてクラウドサービスまであらゆるところで利用でき、劇的なパフォーマンス向上とコスト削減の機会を提供します。

VOLTAアーキテクチャCUDAコアとTensorコアの組み合わせにより、Tesla V100搭載サーバーの性能はHPCやディープラーニング用途で100台のコモディティCPUサーバーに匹敵します。

TENSORコア新たな640個のTensorコアにより、Tesla V100は120 Tensor TeraFLOPSのディープラーニング性能を発揮。これは、NVIDIA Pascal™世代GPUとの比較で学習が12倍、推論は6倍のパフォーマンスです。

新世代のNVLINKTesla V100のNVIDIA NVLinkは前世代比で2倍のスループットを提供します。8基までのTesla V100を最大300GB/sで接続することで、単一サーバー上での最高性能を発揮できます。

HBM2900GB/sに向上した帯域幅と 95%向上したDRAM効率により、Tesla V100は STREAM 計測でPascalGPU比1.5倍のメモリ帯域幅を記録しています。

最大効率モード新たな「最大効率モード」によりデータセンターの電源容量はそのままに、ラックあたり計算性能を最大40%向上させられます。このモードのTesla V100は最大性能の80%を、 最大消費電力の半分で実現します。

プログラミング効率Tesla V100 はプログラムをシンプルにするために設計されました。新しい独立したスレッドスケジューリングにより同期の粒度を細かく設定可能で、 小さなジョブを複数同時に 処理する効率を高められます。

主要なディープラーニングフレームワーク 450以上のGPU対応アプリケーション

HPC HPCAMBERAMBER ANSYS FluentANSYS Fluent

HPC GAUSSIANGAUSSIAN HPC GROMACSGROMACS

HPC HPCLS-DYNALS-DYNA NAMDNAMD

HPC HPCOpenFOAMOpenFOAM Simulia AbaqusSimulia AbaqusHPC HPC Simulia AbaqusSimulia Abaqus

VASPVASPHPC HPC WRFWRF

C