NVIDIA? Tesla? A2
推理性能提升高達20倍部署AI推理技術的目的是通過智能,實時的體驗位消費者打造更便利的生活。與CPU服務器相比,搭載NVIDIA A2 Tensor Core 的邊緣和入門級服務器可提供高達 20 倍的推理性能,可立即將服務器升級到能處理現代AI的水平。在智能邊緣實現更高的 IVA 性能在智慧城市、制造和零售等智能邊緣用例中,搭載 NVIDIA A2 GPU 的服務器最高可將性能提升 1.3 倍。
推理性能提升高達20倍部署AI推理技術的目的是通過智能,實時的體驗位消費者打造更便利的生活。與CPU服務器相比,搭載NVIDIA A2 Tensor Core 的邊緣和入門級服務器可提供高達 20 倍的推理性能,可立即將服務器升級到能處理現代AI的水平。在智能邊緣實現更高的 IVA 性能在智慧城市、制造和零售等智能邊緣用例中,搭載 NVIDIA A2 GPU 的服務器最高可將性能提升 1.3 倍。
推理性能提升高達20倍
部署AI推理技術的目的是通過智能,實時的體驗位消費者打造更便利的生活。與CPU服務器相比,搭載NVIDIA A2 Tensor Core 的邊緣和入門級服務器可提供高達 20 倍的推理性能,可立即將服務器升級到能處理現代AI的水平。
在智能邊緣實現更高的 IVA 性能
在智慧城市、制造和零售等智能邊緣用例中,搭載 NVIDIA A2 GPU 的服務器最高可將性能提升 1.3 倍。與前幾代 GPU 相比,運行 IVA 工作負載的 NVIDIA A2 GPU 最高可將性價比和能效分別提升 1.6 倍和 10%,從而改善部署效率。
針對服務器進行優化
針對 5G 邊緣和工業環境這樣空間和散熱要求受限制的入門級服務器,NVIDIA A2 為其推理工作負載和部署進行了優化。A2 提供了在低功耗范圍內運行的半高外形,從 60 瓦到 40 瓦的 TDP,使其成為眾多服務器的理想選擇。
領先的跨云、數據中心和邊緣的 AI 推理性能
AI 推理繼續推動跨行業的突破性創新,包括消費互聯網、醫療保健和生命科學、金融服務、零售、制造和超級計算。A2 的小巧尺寸和低功耗與 NVIDIA A100 和 A30 Tensor Core GPU 相結合,可提供跨云、數據中心和邊緣的完整 AI 推理產品組合。A2 和 NVIDIA AI 推理產品組合可確保使用更少的服務器和更少的功率部署 AI 應用,從而已大幅降低的成本獲得更快的洞察力。
規格參數
NVIDIA A2 | |
FP32 峰值性能 | 4.5 TF |
TF32 Tensor Core | 9 TF | 18 TF1 |
BFLOAT16 Tensor Core | 18 TF | 36 TF1 |
FP16 Tensor Core 峰值性能 | 18 TF | 36 TF1 |
INT8 Tensor Core 峰值性能 | 36 TOPS | 72 TOPS1 |
INT4 Tensor Core 峰值性能 | 72 TOPS | 144 TOPS1 |
RT 核心數量 | 10 個 |
媒體引擎 | 1 個視頻編碼器 2 個視頻解碼器 (含 AV1 解碼) |
GPU 顯存 | 16GB GDDR6 |
GPU 顯存帶寬 | 200GB/s |
互聯技術 | PCIe 4.0 x8 |
外形規格 | 單插槽,半高 PCIe |
熱設計功耗 (TDP) | 40–60瓦 (可配置) |
虛擬化 GPU 軟件支持 | NVIDIA 虛擬 PC、NVIDIA 虛擬應用程序、NVIDIA RTX 虛擬化工作站、NVIDIA AI Enterprise 軟件套件和 NVIDIA 虛擬化運算服務器 |
* 數據來源英偉達官網