| 尺寸規格 | H100 SXM | H100 PCIe(EOS) | H100 NVL2 |
|---|---|---|---|
| FP64 | 34 兆次浮點運算 | 26 兆次浮點運算 | 68 teraFLOPs |
| FP64 Tensor 核心 | 67 兆次浮點運算 | 51 兆次浮點運算 | 134 teraFLOPs |
| FP32 | 67 兆次浮點運算 | 51 兆次浮點運算 | 134 teraFLOPs |
| TF32 Tensor 核心 | 989 兆次浮點運算* | 756 兆次浮點運算* | 1,979 teraFLOPs1 |
| BFLOAT16 Tensor 核心 | 1,979 兆次浮點運算* | 1,513 兆次浮點運算* | 3,958 teraFLOPs1 |
| FP16 Tensor 核心 | 1,979 兆次浮點運算* | 1,513 兆次浮點運算* | 3,958 teraFLOPs1 |
| FP8 Tensor 核心 | 3,958 兆次浮點運算* | 3,026 兆次浮點運算* | 7,916 teraFLOPs1 |
| INT8 Tensor 核心 | 3,958 兆次運算* | 3,026 兆次運算* | 7,916 TOPS1 |
| GPU 記憶體 | 80 GB | 80 GB | 188GB |
| GPU 記憶體頻寬 | 每秒 3.35TB | 每秒 2TB | 7.8TB/s |
| 解碼器 |
7 NVDEC 7 JPEG |
7 NVDEC 7 JPEG |
14 NVDEC 14 JPEG |
| 最大散熱設計功耗 (TDP) | 高達 700W (可設定) | 300W 至 350W (可設定) |
2x 350-400W (可配置) |
| 多執行個體 GPU | 最多 7 個 10GB 的多執行個體 GPU |
最多支持 14 個12GB 的 MIG |
|
| 尺寸規格 | SXM |
PCIe 雙插槽氣冷 |
2x PCIe 雙插槽風冷設備 |
| 互連技術 | NVLink:每秒 900GB 第 5 代 PCIe:每秒 128GB | NVLink:每秒 600GB 第 5 代 PCIe:每秒 128GB |
NVLink: 600GB/s PCIe Gen5: 128GB/s |
| 伺服器選項 | NVIDIA HGX™ H100 合作夥伴與 NVIDIA 認證系統™,搭載 4 個 或 8 個 GPU NVIDIA DGX™ H100 搭載 8 個 GPU | 合作夥伴與 NVIDIA 認證系統™,搭載 1 到 8 個 GPU |
具有 2-4 對的合作夥伴和 NVIDIA 認證系統 |
| NVIDIA AI Enterprise | 附加元件 | 包含 | 附加 |