英伟达发布新 AI 硬件H200 NVL PCIe GPU 和 GB200 NVL4 超级芯片
11 月 19日,在 SC24 超算大会上,英伟达正式发布两款全新 AI 硬件:H200 NVL PCIe GPU 和 GB200 NVL4 超级芯片。这两款硬件专为满足下一代 AI 和高性能计算(HPC)需求而设计,分别瞄准低功耗环境和单服务器高性能解决方案。
H200 NVL PCIe GPU 是专为功耗受限环境设计的 AI 计算卡,采用双槽厚度设计,支持风冷,最高功耗从 H200 SXM 的 700W 降至 600W。尽管算力有所下降(如 INT8 Tensor Core 算力降低约 15.6%),但 HBM 内存容量和带宽仍与 H200 SXM 持平,分别为 141GB 和 4.8TB/s。
这款 GPU 支持双路或四路的 NVLink 桥接器互联,每 GPU 提供高达 900GB/s 的数据传输速度。相比上一代 H100 NVL,H200 NVL 在多项指标上实现了显著提升,其中,内存容量增加 1.5 倍;带宽提升 1.2 倍;AI 推理性能提高 1.7 倍;HPC 应用性能提升 30%。英伟达表示,H200 NVL 的设计特别适配现有企业级数据中心,其中约 70% 的机架功率不足 20kW,并依赖空气冷却。这款 GPU 为这些环境提供了更高效的 AI 计算解决方案。
另一款亮相的硬件是 GB200 NVL4 超级芯片,该模块集成了 2 个 Grace CPU 和 4 个 Blackwell GPU,并提供 1.3TB 的 HBM 内存池容量,相当于两组 GB200 Grace Blackwell 超级芯片的组合。其整体功耗达 5.4kW。
与上代 GH200 NVL4 系统(包含 4 个 Grace CPU 和 4 个 Hopper GPU)相比,GB200 NVL4 在性能上实现了大幅度提升,模拟性能提高 2.2 倍;AI 训练性能提升 1.8 倍;AI 推理性能增强 1.8 倍。GB200 NVL4 超级芯片专为单服务器部署设计,预计将于 2025 年下半年上市,进一步满足 AI 和 HPC 应用对算力密集型硬件的需求。