美光推出HBM3 Gen2:24GB容量,带宽超1.2TB/s,每瓦性能为前代产品2.5倍

美光宣布,推出业界首款带宽超过1.2TB/s、引脚速度超过9.2GB/s、8层垂直堆叠的24GB容量HBM3 Gen2,相比目前出货的HBM3解决方案提高了50%。

美光表示,HBM3 Gen2产品的每瓦性能是前几代产品的2.5倍,为人工智能(AI)数据中心的性能、容量和功率效率等关键指标创造了新的记录,可以减少GPT-4等大型语言模型的训练时间,并提供了卓越的总拥有成本(TCO)。美光HBM3 Gen2解决方案的基础是其1β(1-beta)工艺,在行业标准封装尺寸内将24GB DRAM芯片组成了8层垂直堆叠的立方体。

此外,美光还在准备12层垂直堆叠的单品36GB DRAM芯片,与现有的竞争解决方案相比,在给定的堆栈高度下,美光提供的容量增加了50%。美光在技术方面的进步,让能效提升成为可能,硅通孔(TSV)技术增加了一倍,金属密度增加了五倍,从而降低了热阻抗,以及节能的数据路径设计,因此能效得以提高。

根据美光公布的最新技术路线图,2026年的“HBMNext”将进一步提高容量,可达到36GB至64GB,带宽也会提升至超过1.5TB/s至2+TB/s。此外,美光明年也会带来GDDR7,容量为16Gb至24Gb,每个数据I/O接口的速率为32Gbps,与三星近期推出的首款GDDR7基本一致。

  • 版权声明:美光推出HBM3 Gen2:24GB容量,带宽超1.2TB/s,每瓦性能为前代产品2.5倍 内容由互联网用户自发贡献,该文观点仅代表作者本人。
  • 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
  • 如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系 删除。
  • 本文地址:https://www.jx027.com/article/666807.html

猜你喜欢

深度学习发展史和26个神经网络模型

深度学习发展史和26个神经网络模型

本文首先从4个方面(张量、生成模型、序列学习、深度强化学习)追踪深度学习几十年的发展史,然后再介绍主流的26个深度学习模型。1.深...

深度学习僧 2022年11月17日
华为新专利公开,谁再窥屏,我有证据

华为新专利公开,谁再窥屏,我有证据

随着通信技术的发展,尤其是诸如智能手机等终端的普及,终端的功能也日益增多,比如,用户可以通过终端实现与其他用户之间的数据交互、转...

SeenPat新专利 2022年11月17日