IT之家 1 月 9 日消息,据路透社,英伟达计划于 2024 年第二季度开始量产中国特供的 AI 芯片,以遵守美国出口管制新规,其中最强的型号就是 H20。英伟达对此拒绝置评。
除了 HGX H20 之外,英伟达还计划推出另外两款符合美国限制的 PCIe 芯片 ——L20 和 L2,但具体信息不详。
消息人士透露,H20 原定于去年 11 月推出,但该计划由于“服务器制造商在集成该芯片时遇到了问题”而被推迟。其中一位知情人士表示,初期产能十分有限,英伟达需要首先满足主流客户的订单。
根据 SemiAnalysis 分析,H20、L20 和 L2 包含英伟达大部分用于 AI 工作的功能特性,但为了遵守新规则,这三款新品在算力方面有所削减;不过在 LLM 推理中依然要比 H100 快 20% 以上。
IT之家查询公开资料获悉,NVIDIA H100 Tensor Core GPU 采用全新 Hopper 架构,基于台积电 N4 工艺,集成了 800 亿个晶体管。与上一代产品相比,可为多专家 (MoE) 模型提供高 9 倍的训练速度。
它配备第四代 Tensor Core 和 Transformer 引擎(FP8 精度),还具有高度可扩展的 NVLink 互连技术(最多可连接达 256 个 H100 GPU,相较于上一代采用 HDR Quantum InfiniBand 网络,带宽高出 9 倍,带宽速度为 900GB/s)等功能。
相关阅读:
《消息称中国特供版英伟达 H20 AI 芯片推迟到明年一季度发布》
《采用 CoWoS 封装,消息称英伟达中国特供版 H20 在 LLM 推理中比 H100 更快》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/744/111.htm]