IT之家 3 月 19 日消息,英伟达在今天召开的 GTC 开发者大会上,推出了用于处理万亿参数 AI 模型的 DGX SuperPOD,为超大规模的生成式 AI 训练和推理工作负载提供稳定的性能输出。
IT之家从报道中获悉,全新的 DGX SuperPOD 采用全新的高效水冷机架式架构,搭载英伟达 DGX GB200 系统,在 FP4 精度下提供 11.5 exaflops 的人工智能超级计算能力和 240 terabytes 的快速内存,客户可通过增加机架进一步扩展。
每套 DGX GB200 系统拥有 36 个英伟达 GB200 加速卡,其中包括 36 个英伟达 Grace CPU 和 72 个英伟达 Blackwell GPU,通过第五代英伟达 NVLink 连接成一台超级计算机。
与英伟达™(NVIDIA®)H100 Tensor Core GPU 相比,GB200 加速卡在大型语言模型推理工作负载方面的性能最多可提升 30 倍。
DGX SuperPOD 包含 8 套及以上 DGX GB200 系统,通过英伟达 Quantum InfiniBand 连接,可扩展至数万片 GB200 加速卡。
英伟达目前为客户提供的默认配置包含 576 个 Blackwell GPU,通过 NVLink 连接 8 套 DGX GB200 系统。
英伟达公司创始人兼首席执行官黄仁勋表示:
英伟达 DGX 人工智能超级计算机是人工智能产业革命的工厂。全新的 DGX SuperPOD 结合了英伟达加速计算、网络和软件方面的最新进展,让每个公司、行业和国家都能完善和生成自己的人工智能。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/756/673.htm]