当前位置: > >

安培架构

安培架构

中文名 安培架构
英文名 Ampere架构
名词解释

Ampere架构是NVIDIA于 GTC 2020发布的GPU架构,NVIDIA Ampere 由540亿晶体管组成,是7nm芯片。

NVIDIA Tensor 核心技术最先运用在 NVIDIA Volta™ 架构上,不只大幅加速人工智能,也将训练时间从数周降至数小时,同时显著提升推论速度。NVIDIA Ampere 架构以这些创新技术为基础,采用全新精度标准 Tensor Float 32 (TF32) 与 64 位浮点 (FP64),以加速并简化人工智能应用,同时将 Tensor 核心效能拓展至高效能运算。

TF32 与 FP32 运作方式相同,无需更改任何程序代码即可将人工智能速度提升至最高 20 倍。透过 NVIDIA 自动混合精度,研究人员只要多加几行程序代码,就可以利用自动混合精度和 FP16 将效能提升 2 倍。而 NVIDIA Ampere 架构 Tensor 核心 GPU 中的 Tensor 核心透过支持 bfloat16、INT8 与 INT4,能为人工智能训练和推论创造极致多元的加速器。A100 和 A30 GPU 不只将强大的 Tensor 核心导入高效能运算,也支持完整矩阵运算、通过 IEEE 认证,并使用 FP64 精度。

每个人工智能与高效能运算应用都能受益于加速,但并非所有应用都需要使用 GPU 的完整效能。多实例 GPU (MIG) 是 A100 和 A30 GPU 支持的功能,可让工作负载共享 GPU。MIG 让每个 GPU 能分隔成多个 GPU 实例,各自在硬件中完全独立且受保护,且具备个别的高带宽内存、快取和运算核心。不论大小,开发人员可为所有应用提供突破性加速,并获得服务质量保障。IT 管理人员可为最佳利用率提供规模适中的 GPU 加速,并将横跨实体与虚拟环境的访问权限扩展给每个使用者和应用。

在跨多个 GPU 上扩充应用程序需要极快的数据移动速度NVIDIA Ampere 架构中的第三代 NVIDIA® NVLink® 可将 GPU 到 GPU 的直接带宽翻倍,达到每秒 600 GB (GB/秒),比第四代 PCIe 速度快近 10 倍。搭配最新一代 NVIDIA NVSwitch™ 使用时,服务器中的所有 GPU 都能透过 NVLink 全速相互交流,执行极高速的数据传输。


注:本名词内容引自百度百科


0
0

已收藏
去我的收藏夹