作为云计算、人工智能/机器学习、存储和5G/边缘的全方位IT解决方案供应商,Supermicro(超微)继续扩展其数据中心产品线,推出了采用液冷技术的NVIDIA HGX H100机架级解决方案。超微独家研发的先进液冷技术不仅能够缩短完整安装的时间,提高性能,降低运营成本,还能显著降低数据中心的PUE(电力使用效率)。相比于传统的空冷数据中心,使用超微液冷解决方案能够使数据中心的电力消耗节省高达40%。此外,与现有数据中心相比,直接冷却成本可减少高达86%。
“超微一直引领行业,为全球AI工作负载和现代化数据中心提供支持。”超微的总裁兼首席执行官梁崇任表示,”我们创新的GPU服务器采用了液冷技术,显著降低了数据中心的功耗需求。随着如今大规模AI模型的快速发展,优化TCO(总拥有成本)和TCE(总环境成本)对于数据中心运营商至关重要。我们在设计和构建高性能服务器机架方面具备成熟的专业知识。这些GPU系统从一开始就采用液冷技术进行机架级整合,提供卓越的性能、高效能和部署便利性,能够在短时间内满足客户的需求。”
具有最新超微产品系列的AI优化机架可以根据用户的独特需求,快速交付标准工程模板或进行定制化。超微继续提供行业最广泛的产品线,提供性能最强大的服务器和存储系统,以应对复杂的计算密集型项目。机架级整合解决方案使客户能够放心地将机架插入、连接到网络并更快地提高生产效率,而无需自行管理技术。
顶级液冷GPU服务器采用双路英特尔或AMD处理器以及八个或四个互连的NVIDIA HGX H100 Tensor Core GPU。使用液冷技术能够将数据中心的功耗降低高达40%,从而降低运营成本。此外,这两种系统在性能上明显超过了之前一代的配备NVIDIA HGX GPU的系统,通过更快的GPU-GPU互连速度和基于PCIe 5.0的网络和存储,为今天的大型转换器模型提供高达30倍的性能和效率。
超微目前提供的最先进的八个NVIDIA H100 SXM5 Tensor Core GPU服务器适用于当前规模最大的AI模型,其中包括:
SYS-821GE-TNHR -(双路第四代英特尔至强处理器,NVIDIA HGX H100 8个GPU,8U)
AS-8125GS-TNHR -(双路第四代AMD EPYC处理器,NVIDIA HGX H100 8个GPU,8U)
超微还设计了一系列可根据需要定制的GPU服务器,用于快速AI训练、大规模AI推理或与AI融合的HPC工作负载,包括配备四个NVIDIA H100 SXM5 Tensor Core GPU的系统。
SYS-421GU-TNXR -(双路第四代英特尔至强处理器,NVIDIA HGX H100 4个GPU,4U)
SYS-521GU-TNXR -(双路第四代英特尔至强处理器,NVIDIA HGX H100 4个GPU,5U)
超微的液冷机架级解决方案包括CDU(冷却液分配单元),可为当前最高TDP(热设计功耗)的处理器和GPU提供高达80kW的D2C(直接至芯片)冷却。冗余和可热插拔的电源和液冷泵确保服务器在电源或泵故障时仍能持续冷却。防漏连接器让客户对所有系统的液冷保持持续信心。
机架级设计和整合已成为系统供应商的关键服务。随着AI和HPC在组织中的重要性日益增加,从服务器级别到整个数据中心的配置都必须进行优化和配置以实现最佳性能。超微的系统和机架级专家与客户密切合作,探讨需求,并具备在全球范围内交付大量机架的知识和制造能力。