GPU架构: NVIDIA Ampere
核心:
CUDA Cores: 6,912 (与40GB版一致)
Tensor Cores: 432 (第三代,支持TF32、FP16、BF16、INT8、INT4等精度)
峰值性能:
FP64: 约 9.7 TFLOPS
FP64 Tensor Core: 约 19.5 TFLOPS
FP32: 约 19.5 TFLOPS
TF32 Tensor Core: 约 156 TFLOPS(无需代码修改即可获得数倍于FP32的AI性能)
FP16 Tensor Core: 约 312 TFLOPS (BF16类似)
INT8 Tensor Core: 约 624 TOPS
INT4 Tensor Core: 约 1,248 TOPS
显存容量: 80 GB HBM2e
显存带宽: 高达 2,039 GB/s (对比40GB版的1,555 GB/s,提升超过30%)
显存规格: 使用更高带宽的HBM2e芯片,在同等引脚数量下实现了容量和带宽的双重提升。
板卡形态: PCIe 4.0 x16
NVLink: 第三代NVLink,单卡不支持NVLink桥接。这与SXM4版本的A100(支持NVLink互联)有本质区别。定制版通常不会改变这个基础属性。
定制点可能在于:
散热方案: 可能采用更强力的涡轮风扇或优化的散热鳍片设计,以适应特定服务器的风道。
板卡尺寸: 可能对长度、厚度进行微调,以兼容特定机箱。
供电接口: 可能使用非标准的供电接口(如定制化的8pin或12pin),需要配套的电源线。
并行计算: 完整支持CUDA, CUDA-X。
AI加速: 支持MIG(多实例GPU)技术,可将一块物理A100分割为最多7个独立的GPU实例,为不同任务提供安全隔离的算力。
虚拟化: 支持NVIDIA vGPU软件,实现高效的GPU虚拟化共享。
在后台系统设置->内容设置中设置该内容
在后台系统设置->内容设置中设置该内容