• A100 SXM4 | A100 PCIe | A100X PCIe
  • A100 SXM4 | A100 PCIe | A100X PCIe
  • A100 SXM4 | A100 PCIe | A100X PCIe

A100 SXM4 | A100 PCIe | A100X PCIe

A100 是 NVIDIA 資料中心的一部份,完整的解決方案包含硬體、網路、軟體、函式庫的建置組塊,以及 NGC™ 上的最佳化人工智慧模型和應用程式。其代表最強大的資料中心端對端人工智慧和高效能運算平台,讓研究人員能快速產出實際成果,並將解決方案大規模部署到生產環境中。
NVIDIA A100 Tensor 核心 GPU 為各種規模的作業提供前所未有的加速能力,可強化全球效能最高的彈性資料中心,支援人工智慧、資料分析和高效能運算。A100 採用 NVIDIA Ampere 架構,為 NVIDIA 資料中心平台的引擎。A100 提供的效能比前一代高 20 倍,還可以分割成 7 個 GPU 執行個體,根據不斷變化的需求進行動態調整。A100 提供 40 GB 和 80 GB 的記憶體版本,並在 80 GB 版本上首度推出全球最快速的記憶體頻寬,每秒超過 2 TB (TB/秒),可解決最大的模型和資料集。
A100 SXM4 A100 SXM4 A100 PCIe A100 PCIe A100X PCIe
GPU Architecture NVIDIA Ampere NVIDIA Ampere NVIDIA Ampere NVIDIA Ampere NVIDIA Ampere
GPU Memory 40 GB HBM2 80GB HBM2e 40GB HBM2 (EOL) 80GB HBM2e 80GB HBM2
Memory Bandwidth 1,555 GB/sec 2,039 GB/sec 1,555 GB/sec 1,940 GB/sec 2,039 GB/sec
NVIDIA CUDA® Cores  6,912 6,912 6,912 6,912 6,912
NVIDIA Tensor Cores  432 432 432 432 432
Network N/A N/A N/A N/A 100Gb Dual Port (Ethernet or IB)
Double-Precision  9.7 TFLOPS 9.7 TFLOPS 9.7 TFLOPS 9.7 TFLOPS 9.7 TFLOPS

Single-Precision 

FP32: 19.5 TFLOPS TF32: 156 TFLOPS FP32: 19.5 TFLOPS TF32: 156 TFLOPS FP32: 19.5 TFLOPS TF32: 156 TFLOPS FP32: 19.5 TFLOPS TF32: 156 TFLOPS FP32: 19.5 TFLOPS TF32: 156 TFLOPS
Tensor Performance N/A N/A N/A N/A N/A
INT8  624 TOPS 624 TOPS 624 TOPS 624 TOPS 624 TOPS
INT4 1,248 TOPS 1,248 TOPS 1,248 TOPS 1,248 TOPS 1,248 TOPS
Support MIG MAX: 7 MIGs @ 5GB each MAX: 7 MIGs @ 10GB each MAX: 7 MIGs @ 5GB each MAX: 7 MIGs @ 10GB each MAX: 7 MIGs @ 10GB each
Networking N/A N/A N/A N/A 100Gb Dual Port (Ethernet or IB)
Graphics Bus PCI Express 4.0 x 16 PCI Express 4.0 x 16 PCI Express 4.0 x 16 PCI Express 4.0 x 16 PCI Express 4.0 x 16
Form Factor SXM SXM Dual Slot Dual Slot Dual Slot
Max TDP Power 400W 400W 250W 300W 300W

Information

相關產品