IT之家 7 月 3 日消息,台媒《工商时报》消息,英伟达 H200 上游芯片端于二季度下旬起进入量产期,预计在三季度以后开始大规模交付。
据IT之家此前报道,OpenAI 4 月在旧金山举办了一场研讨会,英伟达首席执行官黄仁勋亲自出席,共同宣布交付第一台 Nvidia DGX H200。
H200 作为 H100 的迭代升级产品,基于 Hopper 架构,首次采用了 HBM3e 高带宽内存技术,实现了更快的数据传输速度和更大的内存容量,对大型语言模型应用表现出显著优势。
根据英伟达官方发布的数据,在处理诸如 Meta 公司 Llama2 这样的复杂大语言模型时,H200 相较于 H100 在生成式 AI 输出响应速度上最高提升了 45%。
供应链指出,目前待出货的客户端订单仍多集中于 HGX 架构的 H100,H200 比重有限,因采用配货制,目前各家终端系统合作伙伴的出货主力 H100 GPU,到货时间最长仍可能达 20 周。
消息称 B100 将于明年上半年出货。英伟达 CEO 黄仁勋此前表示,从 B100 开始未来所有产品的散热技术都将由风冷转为液冷。英伟达 H200 GPU 的 TDP 为 700W,保守估计 B100 的 TDP 接近千瓦,传统风冷不能满足芯片工作过程中对于散热需求,散热技术将全面向液冷革新。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/779/397.htm]