美光Micron推出HBM3E高带宽内存解决方案
近日,全球领先的存储解决方案提供商美光(Micron)宣布已开始量产其最新的HBM3E高带宽内存解决方案。这一消息引起了业界的广泛关注,尤其是在人工智能(AI)领域,HBM3E的推出将为AI应用的发展带来重大的推动。
根据美光Micron的宣布,英伟达(NVIDIA)的H200 Tensor Core GPU将采用美光8层堆叠的24GB容量HBM3E内存,并将于2024年第二季度开始出货。美光Micron HBM3E的引脚速率超过9.2Gb/s,提供超过1.2TB/s的内存带宽,相比竞品,其功耗更低约30%,这将使数据中心能够无缝扩展其人工智能应用,为用户提供更加高效和强大的计算性能。
此外,美光Micron还计划在2024年3月推出12层堆叠的36GB容量HBM3E,预计将提供超过1.2TB/s的性能。这将进一步满足不断增长的AI应用对内存容量和带宽的需求,为用户提供更大规模的计算能力和数据处理能力。
值得一提的是,美光Micron将赞助于3月18日开幕的英伟达GTC全球人工智能大会,并将在会议上分享更多前沿AI内存产品系列和路线图。这标志着美光在AI领域的持续投入和创新,为行业发展注入了新的动力和活力。