欢迎光临 : 北京品立科技有限责任公司服务热线 :+86-400-127-3302
语言选择: 中文版 ∷  英文版

科学计算卡

  • Tesla A100
  • Tesla A100
  • Tesla A100
  • Tesla A100
Tesla A100Tesla A100Tesla A100Tesla A100

Tesla A100

NVIDIA® A100 Tensor Core GPU 可针对 AI、数据分析和 高性能计算 (HPC) 应用,在各个规模下实现出色加速,有效 助力全球高性能弹性数据中心。作为 NVIDIA 数据中心平台的 引擎,相较于前一代 NVIDIA Volta™,A100 可提供高达 20 倍 的性能。A100 支持高效扩展,也可划分为七个独立的 GPU 实例,多实例 GPU (MIG) 可提供统一平台,助力弹性数据中 心动态地适应不断变化的工作负载需求。 NVIDIA A100 Tensor Core 技术支持广泛的数学精度,可针对 每个工作负载提供单个加速器。最新一代 A10


NVIDIA A100

NVIDIA A100 Tensor核心GPU为各种规模的人工智能、资料分析和高效能运算(HPC)作业提供前所未有的加速能力,以解决全球最严苛的运算挑战。

GPU 架构 Ampere
存储器界面 5120-bit
存储器频宽 1.6TB/sec
GPU存储器 40GB HBM2
双精度效能 FP64 9.7 TFLOPS
FP64 Tensor 核心 19.5 TFLOPS
单精度效能 FP32 19.5 TFLOPS
FP32 Tensor 核心 156 TFLOPS | 312 TF*
半精度效能 FP16 Tensor 核心 312 TFLOPS | 624 TF*
整数效能 INT8 INT4
624 TOPS | 1248 TOPS* 1248 TOPS | 2496 TOPS*
错误更正码 支援
互连界面 NVIDIA NVLunk 600 GB/s**
PCIe Gen4 64GB/s
多实例GPU(MIG) 最高七个5GB不同容量的执行个体
最大功耗 250W
系统界面 PCIe 4.0
散热解决方案 被动散热座
运算APIs CUDA®, DirectCompute, OpenCL™, OpenACC®



NVIDIA AMPERE架构

A100可加速各种大小的工作量, 无论是使用多实例 GPU(MIG)将A100 GPU划分为较小的GPU应用个体,还是使用NVLink连接多个GPU来加速大规模工作负载,A100都可以轻松满足不同规模的加速需求,从最小的工作到最大的多节点工作负载。 A100的多功能性意味着IT经理可以全天候地最大化其资料中心中每个GPU的利用率。

新一代的 NVLINK技术

与上一代产品相比,A100中的NVIDIA NVLink的吞吐量提高了2倍。 与NVIDIA NVSwitch™结合使用时,可以以高达600 GB /秒的速度互连多达16个A100 GPU,进而在单个服务器上实现最高的应用程序性能。 NVLink可通过HGX A100服务器主板在A100 SXM GPU中使用,而透过NVLink Bridge在PCIe GPU中则可连结最多2个GPU。

第三代的Tensor 核心

A100可提供312 teraFLOPS(TFLOPS)的深度学习性能。 与NVIDIA Volta™GPU相比,用于深度学习训练有20倍Tensor FLOPS 的效能和用于深度学习推理有20倍Tensor TOPS的效能。

HBM2存储器

具备40 GB的高频宽存储器(HBM2),A100提供了1.6TB /秒的改进原始频宽,以及高达95%的动态随机存取存储器(DRAM)利用率。A100提供的存储器频宽是上一代产品的1.7倍。



NVIDIA A100
深度学习、HPC与资料分析旗舰首选

A100平台能为超过700种HPC应用项目及各种主要深度学习架构加速。 其使用范围从桌上型计算机到服务器,再至云端服务,能提供大幅提升效能与节省成本的机会。




上一个:NVIDIA RTX A6000下一个:Tesla A40