Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,955,720字

该文章投稿至Nemo社区   资讯  板块 复制链接


英伟达 A100 GPU 登陆亚马逊云服务,推理性能比 CPU 快 237 倍

发布于 2020/11/04 15:23 382浏览 0回复 774

IT之家 11 月 4 日消息 根据英伟达官方的消息,在 AWS 运行 NVIDIA GPU 十周年之际,AWS 发布了采用全新 A100 的 Amazon EC2 P4d 实例。

IT之家了解到,现在已全面上市的全新 AWS P4d 实例采用最新 NVIDIA A100 Tensor Core GPU。A100 计算卡采用了 7nm 工艺的 GA100 GPU,这款 GPU 拥有 6912 CUDA 核心和 432 张量核心。GPU 封装尺寸为 826mm2,集成了 540 亿个晶体管。

英伟达表示,全新的 P4d 实例,为机器学习训练和高性能计算应用提供 AWS 上性能与成本效益最高的 GPU 平台。与默认的 FP32 精度相比,全新实例将 FP16 机器学习模型的训练时间减少多达 3 倍,将 TF32 机器学习模型的训练的时间减少多达 6 倍。

这些实例还提供出色的推理性能。NVIDIA A100 GPU 在最近的 MLPerf Inference 基准测试中一骑绝尘,实现了比 CPU 快 237 倍的性能。

每个 P4d 实例均内置八个 NVIDIA A100 GPU,通过 AWS UltraClusters,客户可以利用 AWS 的 Elastic Fabric Adapter(EFA)和 Amazon FSx 提供的可扩展高性能存储,按需、可扩展地同时访问多达 4,000 多个 GPU。P4d 提供 400Gbps 网络,通过使用 NVLink、NVSwitch、NCCL 和 GPUDirect RDMA 等 NVIDIA 技术,进一步加速深度学习训练的工作负载。EFA 上的 NVIDIA GPUDirect RDMA 在服务器之间可通过 GPU 传输数据,无需通过 CPU 和系统内存,从而确保网络的低延迟。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/517/593.htm]

本文标签
 {{tag}}
点了个评