Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,773,809字

该文章投稿至Nemo社区   资讯  板块 复制链接


消息称英伟达中国特供 AI 芯片 H20 已开启预售:部分性能不如华为昇腾 910B,定价 1.2 万美元起

发布于 2024/02/03 20:14 214浏览 0回复 1,458

感谢IT之家网友 lemon_meta软媒新友1984342 的线索投递!

IT之家 2 月 3 日消息,据路透社,英伟达专为中国市场设计的 AI 芯片 H20 系列已经开始接受经销商的预购,定价几乎与国产的华为 Ascend 910B 一致,但在某些关键领域的 FP32 性能表现却不如华为产品,不过 H20 在互连速度方面似乎比 910B 更具优势。

报道称,英伟达最近几周将 H20 的中国渠道定价设定在 12000~15000 美元(IT之家备注:当前约 86280 ~ 10.8 万元人民币)之间。

同时,一些分销商开始对这款芯片进行大幅加价,部分渠道商的报价最高达到了约 11 万元。相较之下,华为昇腾 910B 约为 120,000 人民币左右。一位消息人士透露,某经销商正提供的一款搭载 8 颗  H20 的整机为 140 万元。相比之下,采用 8 颗 H800 芯片的服务器一年前也只有 200 万元左右。

消息人士补充说,经销商已告诉客户:H20 预计 2024 年第一季开始少量出货,而大量出货则需等到第二季度,这一点与之前的爆料吻合。

根据之前的爆料,H20 是英伟达为中国市场开发的三款 AI 芯片(HGX H20、L20 PCle 和 L2 PCle)中最强的一款,这三款芯片均基于英伟达 H100 修改而来,其算力要低于 H100 和 H800,不过在 LLM 推理场景中得益于新特性的加持可以比 H100 快 20% 以上。

作为参考,NVIDIA H100 Tensor Core GPU 采用全新 Hopper 架构,基于台积电 N4 工艺,集成了 800 亿个晶体管。与上一代产品相比,可为多专家 (MoE) 模型提供高 9 倍的训练速度。

它配备第四代 Tensor Core 和 Transformer 引擎(FP8 精度),还具有高度可扩展的 NVLink 互连技术(最多可连接达 256 个 H100 GPU,相较于上一代采用 HDR Quantum InfiniBand 网络,带宽高出 9 倍,带宽速度为 900GB/s)等功能。

值得一提的是,科大讯飞副总裁江涛此前指出,目前华为昇腾 910B 能力已经基本做到可对标英伟达 A100。

目前,华为昇腾社区已公开 Atlas 300T 产品有三个型号,分别对应昇腾 910A、910B、910 Pro B,最大 300W 功耗,前两者 AI 算力均为 256 TFLOPS,而 910 Pro B 可达 280 TFLOPS(FP16)。

作为对比,英伟达 A100 发布于 2020 年,采用双精度 Tensor Core,基于 Ampere 架构,功耗达到了 400W,FP32 浮点性能 19.5TFLOPS,FP16 Tensor Core 性能可达 312TFLOPS。

相关阅读:

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/748/797.htm]

本文标签
 {{tag}}
点了个评