IT之家 3 月 14 日消息,郭明錤今天发布投资简报,认为 2024 年 AI 服务器的关注焦点依然是 GB200 加速器,英伟达会刻意扩大 GB200 和 B100 / B200 之间的规格差距(主要体现在 NVlink 链路速度),从而推动用户采购 GB200 加速卡。
IT之家在此前的报道中曾引用了一张路线图,显示英伟达准备在 2024 年推出 Hopper GH200 GPU,然后在 2024 年至 2025 年之间的某个时间推出基于 Blackwell 的 GB200 GPU,最终在 2025 年后推出 GX200 GPU。
GB200 名称中的“B”代表 Blackwell,也就是英伟达下一代架构,涵盖数据中心和游戏产品。
郭明錤在投资简讯中写道:
若越多客户采用 Grace 架构,对 Nvidia 在 AI 领域的竞争优势越有利。然而,GH200 的出货低于预期,全球主要客户仅 Amazon 采用。故 Nvidia 对 GB200 寄予厚望,并刻意扩大 GB200 与 B100/200 的规格差距 (主要是 NVlink 相关与网络速度),以期透过方案区隔与差异化,提高客户采购 GB200 的意愿。
目前 GB200 的出货能见度不高,很难估算对大部分供应商的实际贡献。
客户采用 Grace 的顾虑在于:1) 持续建造 AI 算力的投资报酬率、与 2) 对 Nvidia 的议价力长期将进一步下降。上述顾虑为 GB200 出货能见度不高的主因之一。
GB200 的差异化策略能否成功仍需观察。若 GB200 的需求低于预期,Nvidia 可能会提前推出 B200 NVL72 (Miranda 平台),并调整 GB200 升级版 (1H26 量产) 的规格与方案策略。这对 Nvidia 而言可谓进可攻退可守,但供应链不见得可受惠于此弹性策略。
长期来看,鸿海 / 鸿佰的 AI 服务器业务有望受惠于与 Nvidia 合作关系更紧密。但需注意近期 Nvidia 已改变 GB200 开发策略并自行投入更多在系统开发,降低对鸿海 / 鸿佰的 GB200 开发依赖。这代表市场在短期内可能对鸿海 / 鸿佰在 GB200 的系统开发优势、订单能见度与毛利率过于乐观。
鸿佰取得 AI 服务器订单,是否会有利于鸿准? 从两者同属鸿海集团的角度看有可能,但从技术角度看不一定 (因为鸿佰的散热技术能力与经验显著优于鸿准)。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/755/640.htm]