Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  • 加入社区2,216天
  • 写了313,455,667字

该文章投稿至Nemo社区   资讯  板块 复制链接


美光:下一代 HBM4 内存计划 2026 年大规模生产,后续推出 HBM4E

发布于 2024/12/22 10:21 17浏览 0回复 907

感谢IT之家网友 华南吴彦祖 的线索投递!

IT之家 12 月 22 日消息,据外媒 Wccftech 今日报道,美光发布了其 HBM4 和 HBM4E 项目的最新进展。

具体来看,下一代 HBM4 内存采用 2048 位接口,计划在 2026 年开始大规模生产,而 HBM4E 将会在后续几年推出。

HBM4E 不仅会提供比 HBM4 更高的数据传输速度,还可根据需求定制基础芯片,这一变化有望推动整个行业的发展。

据了解,定制的逻辑芯片将由台积电使用先进工艺制造,能够集成更多的缓存和逻辑电路,从而提升内存的性能和功能。

美光总裁兼 CEO Sanjay Mehrotra 表示:“HBM4E 的推出将改变存储行业,它将提供定制逻辑基础芯片的选项,借助台积电先进的工艺,美光将能够为特定客户提供定制化解决方案。这项创新将推动美光财务表现的提升。”

美光表示,HBM4E 的开发进展顺利,已经与多家客户展开合作,预计不同客户将采用不同配置的基础芯片。

据IT之家了解,美光的 HBM4 将采用 1β 工艺(第五代 10nm 技术)生产的 DRAM,置于一个 2048 位接口的基础芯片上,数据传输速率约为 6.4GT/s,理论带宽高达每堆栈 1.64TB/s。

美光还透露,针对英伟达的 Blackwell 处理器,8-Hi HBM3E 设备的出货已全面展开,12-Hi HBM3E 堆栈正在进行测试,主要客户反馈良好。

Mehrotra 表示:“我们继续收到主要客户对美光 HBM3E 12-Hi 堆栈的积极反馈,尽管功耗比竞争对手的 HBM3E 8-Hi 低 20%,美光的产品依然提供 50% 更高的内存容量和行业领先的性能。”

12-Hi HBM3E 堆栈预计将用于 AMD 的 Instinct MI325X 和 MI355X 加速器,以及 Nvidia 的 Blackwell B300 系列计算 GPU,服务于 AI 和 HPC 应用。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/819/337.htm]

本文标签
 {{tag}}
点了个评