首页 > IT > 业界 美光宣布量产 HBM3e 内存,将应用于英伟达 H200 AI 芯片

美光宣布量产 HBM3e 内存,将应用于英伟达 H200 AI 芯片

感谢IT之家网友 华南吴彦祖 的线索投递! IT之家 2 月 26 日消息,美光科技今日宣布开始批量生产 HBM3E 高带宽内存,其 24GB 8H HBM3E 产品将供货给英伟达,并将应用于 NVIDIA H200 Tensor Core GPU(第二季度开始发货)。IT之家查询官方资料获悉, 美光 HBM3e 内存基于 1β 工艺,采用 TSV 封装、2.5D / 3D…

感谢IT之家网友 华南吴彦祖 的线索投递!

IT之家 2 月 26 日消息,美光科技今日宣布开始批量生产 HBM3E 高带宽内存,其 24GB 8H HBM3E 产品将供货给英伟达,并将应用于 NVIDIA H200 Tensor Core GPU(第二季度开始发货)。

IT之家查询官方资料获悉, 美光 HBM3e 内存基于 1β 工艺,采用 TSV 封装、2.5D / 3D 堆叠,可提供 1.2 TB / s 及更高的性能。

美光表示,与竞争对手的产品相比,其 HBM3E 解决方案有着以下三方面的优势:

卓越性能:美光 HBM3E 拥有超过 9.2 Gb / s 的针脚速率、超过 1.2 TB / s 的内存带宽,可满足人工智能加速器、超级计算机和数据中心的苛刻需求。

出色能效:与竞品相比,美光 HBM3E 功耗降低了约 30%,在提供最大吞吐量的前提下将功耗降至最低,有效改善数据中心运营支出指标。

无缝扩展: 美光 HBM3E 目前可提供 24GB 容量,可帮助数据中心轻松扩展其 AI 应用。无论是训练大规模神经网络还是加速推理任务都能提供必要的内存带宽。

美光科技执行副总裁兼首席商务官 Sumit Sadana 表示:“美光科技凭借这一 HBM3E 里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。”“人工智能工作负载严重依赖内存带宽和容量,美光处于有利位置,可以通过我们业界领先的 HBM3E 和 HBM4 路线图以及我们用于人工智能应用的完整 DRAM 和 NAND 解决方案组合来支持未来人工智能的显著增长。”。

HBM 是美光科技最赚钱的产品之一,部分原因在于其构造所涉及的技术复杂性。该公司此前曾表示,预计 2024 财年 HBM 收入将达到“数亿”美元,并在 2025 年继续增长。

美光还宣布将会在 3 月 18 日召开的全球人工智能大会上分享更多有关其行业领先的人工智能内存产品组合和路线图的信息。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

投诉水文 我要纠错
本文来自网络,不代表头条在线-头条新闻网立场。
上一篇集邦咨询:苹果 iPhone 16 Pro / Max 均配四重棱镜,支持 5x 光学变焦
下一篇 返回列表
头条新闻网

来源: IT之家

本文来源于IT之家。包含文章,图片,视频等资源归属于原作者所有。如有侵权请联系gridf@126.com处理。紧急处理联系电话:15144810328

为您推荐

评论列表()

    联系我们

    联系我们

    0898-88888888

    在线咨询: QQ交谈

    邮箱: email@wangzhan.com

    工作时间:周一至周五,9:00-17:30,节假日休息

    关注微信
    微信扫一扫关注我们

    微信扫一扫关注我们

    关注微博
    返回顶部