NVIDIA? Tesla? A30
產品亮點:NVIDIA AMPERE 架構無論是使用 MIG 技術將 A30 GPU 分割為較小的實例,還是使用 NVIDIA? NVLink? 連接多個GPU 以加速更大規模的工作負載,A30 均可輕松滿足多種規模的加速需求,從小型作業到大型多節點工作負載都無一例外。A30 功能全面,這意味著 IT 經理可借此在主流服務器上充分利用數據中心內的每個 GPU,晝夜不停歇。第三代 TENSOR CO
產品亮點:NVIDIA AMPERE 架構無論是使用 MIG 技術將 A30 GPU 分割為較小的實例,還是使用 NVIDIA? NVLink? 連接多個GPU 以加速更大規模的工作負載,A30 均可輕松滿足多種規模的加速需求,從小型作業到大型多節點工作負載都無一例外。A30 功能全面,這意味著 IT 經理可借此在主流服務器上充分利用數據中心內的每個 GPU,晝夜不停歇。第三代 TENSOR CO
產品亮點:
NVIDIA AMPERE 架構
無論是使用 MIG 技術將 A30 GPU 分割為較小的實例,還是使用 NVIDIA? NVLink? 連接多個GPU 以加速更大規模的工作負載,A30 均可輕松滿足多種規模的加速需求,從小型作業到大型多節點工作負載都無一例外。A30 功能全面,這意味著 IT 經理可借此在主流服務器上充分利用數據中心內的每個 GPU,晝夜不停歇。
第三代 TENSOR CORE 技術
NVIDIA A30 可提供 165 teraFLOPS (TFLOPS) 的 TF32 精度深度學習性能。相較于 NVIDIA T4 Tensor Core GPU,A30 可將 AI 訓練吞吐量提高 20 倍,并將推理性能提高 5 倍以上。A30 可在 HPC 方面提供 10.3 TFLOPS 的性能,比 NVIDIA V100 Tensor Core GPU 高出了近 30%。
新一代 NVLINK
A30 中采用的 NVIDIA NVLink 可提供兩倍于上一代的吞吐量。兩個 A30 PCIe GPU 可通過 NVLink 橋接器連接,以提供 330 TFLOPS 的深度學習性能。
多實例 GPU (MIG)
每個 A30 GPU 可分割多達四個GPU 實例,這些實例在硬件級別完全獨立,并各自擁有高帶寬顯存、緩存和計算核心。借助 MIG,開發者可為其所有應用實現驚人加速。IT 管理員可為每個作業提供符合其規模的 GPU 加速,進而優化利用率,并讓每個用戶和應用都能享受 GPU 加速性能。
HBM2 顯存
配合高達 24GB 的高帶寬顯存 (HBM2),A30 可提供933GB/s 的 GPU 顯存帶寬,適用于主流服務器中的多種 AI 和 HPC 工作負載。
結構化稀疏
AI 網絡擁有數百萬至數十億個參數。實現準確預測并非要使用所有參數,而且我們還可將某些參數轉換為零,以在無損準確性的前提下使模型變得“稀疏”。A30 中的 Tensor Core 可為稀疏模型提供高達兩倍的性能提升。稀疏功能不僅更易使 AI 推理受益,同時還能提升模型訓練的性能。
規格參數
FP64 | 5.2TF |
TF64 Tensor Core | 10.3 TF |
FP32 | 10.3 TF |
TF32 Tensor Core | 82 TF | 165 TF* |
BFLOAT16 Tensor Core | 165 TF | 330 TF* |
FP16 Tensor Core | 165 TF | 330 TF* |
INT8 Tensor Core | 330 TOPS | 661 TOPS* |
INT4 Tensor Core | 661 TOPS | 1321 TOPS* |
編碼/譯碼 | 1 optical flow accelerator (OFA) 1 JPEG decoder (NVJPEG) 4 Video decoders (NVDEC) |
GPU 內存 | 24GB HBM2 |
GPU 內存帶寬 | 933GB/s |
互聯技術 | PCIe 4.0: 64GB/s 第三代 NVIDIA ? NVLINK ? 200GB/s** |
尺寸規格 | 2 插槽 (FHFL) |
散熱設計功耗 (TDP) | 165W |
虛擬化 GPU 軟件支持 | NVIDIA AI Enterprise for VMware NVIDIA Virtual Compute Server |
*數據來源NVIDIA官網