产品概况
NVIDIA V100 Tensor Core GPU 概览
NVIDIA® V100 Tensor Core GPU 是深度学习、机器学习、高性能计算 (HPC) 和图形计算的强力加速器。V100 Tensor Core GPU 采用 NVIDIA Volta™ 架构,可在单个 GPU 中提供近 32 个 CPU 的性能,助力研究人员攻克以前无法应对的挑战。
V100 是 NVIDIA 数据中心平台在深度学习、HPC 和图形领域的强大产品。该平台可为 600 余款 HPC 应用和各大深度学习框架提供加速。此平台适用于桌面、服务器以及云服务,不仅能显著提升性能,还能节省成本。
规格参数
V100 PCIE | V100 SXM2 | V100S PCIE | |
GPU 架构 | NVIDIA Volta | ||
NVIDIA Tensor 核心数量 | 640 | ||
NVIDIA CUDA ® 核心数量 | 5120 | ||
双精度浮点运算性能 | 7 TFLOPS | 7.8 TFLOPS | 8.2 TFLOPS |
单精度浮点运算性能 | 14 TFLOPS | 15.7 TFLOPS | 16.4 TFLOPS |
Tensor 性能 | 112 TFLOPS | 125 TFLOPS | 130 TFLOPS |
GPU 显存 | 32 GB 或 16 GB HBM2 | 32 GB HBM2 | |
显存带宽 | 900 GB/s | 1134 GB/s | |
纠错码 | 支持 | ||
互联带宽 | 32 GB/s | 300 GB/s | 32 GB/s |
系统接口 | PCIe 3.0 | NVIDIA NVLink ™ | PCIe 3.0 |
外形尺寸 | PCIe 全高 / 全长 | SXM2 | PCIe 全高 / 全长 |
功耗 | 250 瓦 | 300 瓦 | 250 瓦 |
散热解决方案 | 被动式 | ||
计算API | CUDA、DirectCompute、OpenCL ™ 、OpenACC |
产品特点
NVIDIA Volta™ 架构
通过在一个统一架构内搭配使用 NVIDIA® CUDA® 内核和 Tensor 内核,配备 NVIDIA V100 Tensor Core GPU的单台服务器可以取代数百台通用 CPU 服务器来处理传统的 HPC 和深度学习。
TENSOR CORE 技术
NVIDIA V100 Tensor Core GPU 配有 640 个 Tensor 核心,可提供 125 万亿次级的深度学习性能。与 NVIDIA Pascal™ GPU 相比,可为深度学习训练提供 12 倍张量浮点运算能力;为深度学习推理提供 6 倍张量浮点运算能力。
新一代 NVLINK
NVIDIA V100 Tensor Core GPU 中采用的 NVIDIA® NVLink™ 可提供 2 倍于上一代的吞吐量。8 块 NVIDIA V100 Tensor Core GPU 加速器能以高达 300 GB/s 的速度互联,从而发挥出单个服务器所能提供的高应用性能。
超强节能模式
全新的超大节能模式可允许数据中心在现有的功耗预算内,使每个机架提升高达40% 的计算能力。在此模式下,NVIDIA V100 Tensor Core GPU 以最大处理效率运行时,可提供高达 80% 的性能而只需一半的功耗。
HBM2 显存
NVIDIA V100 Tensor Core GPU 将 900 GB/s 的改良版原始带宽与高达 95%的 DRAM 利用效率相结合,在 STREAM 上测量时可提供高于 NVIDIA Pascal™ GPU 1.5 倍的显存带宽。
可编程性
NVIDIA V100 Tensor Core GPU 的架构设计初衷即是为了简化可编程性。其全新的独立线程调度能力可实现细粒度同步,并能通过在琐碎的工作之间共享资源进而提升 GPU 的利用率。
在后台系统设置->内容设置中设置该内容
在后台系统设置->内容设置中设置该内容