NVIDIA? Tesla? V100/ V100S
產品亮點:NVIDIA Volta 架構通過在一個統一架構內搭配使用 NVIDIA? CUDA? 內核和 Tensor 內核,配備 NVIDIA? Tesla? V100 GPU的單臺服務器可以取代數百臺通用 CPU 服務器來處理傳統的 HPC 和深度學習。TENSOR CORE 技術NVIDIA? Tesla? V100 配有 640 個 Tensor 核心,可提供 125 萬億次級的深度學習性
產品亮點:NVIDIA Volta 架構通過在一個統一架構內搭配使用 NVIDIA? CUDA? 內核和 Tensor 內核,配備 NVIDIA? Tesla? V100 GPU的單臺服務器可以取代數百臺通用 CPU 服務器來處理傳統的 HPC 和深度學習。TENSOR CORE 技術NVIDIA? Tesla? V100 配有 640 個 Tensor 核心,可提供 125 萬億次級的深度學習性
產品亮點:
NVIDIA Volta 架構
通過在一個統一架構內搭配使用 NVIDIA? CUDA? 內核和 Tensor 內核,配備 NVIDIA? Tesla? V100 GPU的單臺服務器可以取代數百臺通用 CPU 服務器來處理傳統的 HPC 和深度學習。
TENSOR CORE 技術
NVIDIA? Tesla? V100 配有 640 個 Tensor 核心,可提供 125 萬億次級的深度學習性能。與 NVIDIA Pascal? GPU 相比,可為深度學習訓練提供 12 倍張量浮點運算能力;為深度學習推理提供 6 倍張量浮點運算能力。
新一代 NVLINK
NVIDIA? Tesla? V100 中采用的 NVIDIA? NVLink? 可提供 2 倍于上一代的吞吐量。8 塊 NVIDIA? Tesla? V100 加速器能以高達 300 GB/s 的速度互聯,從而發揮出單個服務器所能提供的高應用性能。
超強節能模式
全新的超大節能模式可允許數據中心在現有的功耗預算內,使每個機架提升高達40% 的計算能力。在此模式下,NVIDIA? Tesla? V100 以最大處理效率運行時,可提供高達 80% 的性能而只需一半的功耗。
HBM2 顯存
NVIDIA? Tesla? V100 將 900 GB/s 的改良版原始帶寬與高達 95%的 DRAM 利用效率相結合,在 STREAM 上測量時可提供高于 NVIDIA Pascal? GPU 1.5 倍的顯存帶寬。
可編程性
NVIDIA? Tesla? V100 的架構設計初衷即是為了簡化可編程性。其全新的獨立線程調度能力可實現細粒度同步,并能通過在瑣碎的工作之間共享資源進而提升 GPU 的利用率。
規格參數
V100 PCIE | V100 SXM2 | V100S PCIE | |
GPU 架構 | NVIDIA Volta | ||
NVIDIA Tensor 核心數量 | 640 | ||
NVIDIA CUDA ? 核心數量 | 5120 | ||
雙精度浮點運算性能 | 7 TFLOPS | 7.8 TFLOPS | 8.2 TFLOPS |
單精度浮點運算性能 | 14 TFLOPS | 15.7 TFLOPS | 16.4 TFLOPS |
Tensor 性能 | 112 TFLOPS | 125 TFLOPS | 130 TFLOPS |
GPU 顯存 | 32 GB 或 16 GB HBM2 | 32 GB HBM2 | |
顯存帶寬 | 900 GB/s | 1134 GB/s | |
糾錯碼 | 支持 | ||
互聯帶寬 | 32 GB/s | 300 GB/s | 32 GB/s |
系統接口 | PCIe 3.0 | NVIDIA NVLink ? | PCIe 3.0 |
外形尺寸 | PCIe 全高 / 全長 | SXM2 | PCIe 全高 / 全長 |
功耗 | 250 瓦 | 300 瓦 | 250 瓦 |
散熱解決方案 | 被動式 | ||
計算API | CUDA、DirectCompute、OpenCL ? 、OpenACC |
*數據來源NVIDIA官網