首页 > 最新资讯 > NVIDIA MGX 为系统制造商提供模块化架构
NVIDIA MGX 为系统制造商提供模块化架构

NVIDIA MGX 为系统制造商提供模块化架构

2023-06-07 20:19

#人工智能 #深度学习


QCT 和 Supermicro 率先使用这项支持 100 多种系统配置的服务器规范来加速 AIHPC、元宇宙工作负载

 

COMPUTEX—2023 年 5 月 29 日—为了满足全球数据中心多样化的加速计算需求,NVIDIA 今天在 COMPUTEX 发布了 NVIDIA MGX™ 服务器规范。该规范为系统制造商提供了一个模块化参考架构,以快速、经济高效地制造 100 多种服务器机型,适用于广泛的 AI、高性能计算和元宇宙应用。

ASRock Rack、ASUS、GIGABYTE、Pegatron、QCT 和 Supermicro 将采用 MGX,它可将开发成本削减四分之三,并将开发时间缩短三分之二至仅 6 个月。

NVIDIA GPU 产品副总裁 Kaustubh Sanghani 表示:“在构建满足特定业务和应用需求的数据中心时,企业正在寻求更多的加速计算选项。我们设计 MGX 是为了帮助各个机构可以自行开发企业 AI,同时节省他们大量时间和金钱。”

通过 MGX,制造商以一个为加速计算优化的服务器机箱作为基础系统架构入手,然后选择适合自己的 GPU、DPU 和 CPU。不同的设计可以满足特定的工作负载,如 HPC、数据科学、大型语言模型、边缘计算、图形和视频、企业 AI 以及设计与模拟。AI 训练和 5G 等多种任务可以在一台机器上处理,而且可以轻松地升级到未来多代硬件。MGX 还可以轻松集成到云和企业数据中心。

与行业领导厂商合作

 

QCT 和 Supermicro 将率先在8月份上市采用 MGX 设计的机型。Supermicro 今天发布的 ARS-221GL-NR 系统将采用 NVIDIA Grace™ CPU 超级芯片,而 QCT 今天宣布的 S74G-2U 系统将采用 NVIDIA GH200 Grace Hopper 超级芯片。

此外,软银公司计划在日本各地推出多个超大规模数据中心,并使用 MGX 在生成式 AI 和 5G 应用之间动态分配 GPU 资源。

软银公司总裁兼首席执行官 Junichi Miyakawa 表示:“随着生成式 AI 日益进入商业和消费者的生活方式中,以合适的成本构建合适的基础设施是网络运营商面临的最大挑战之一。我们期待 NVIDIA MGX 能够应对这些挑战,以满足多用途 AI、5G 以及更多依赖实时工作负载的需求。”

不同的设计满足不同的需求

 

数据中心越来越需要满足不断增长的算力需求并降低碳排放,以应对气候变化,同时还要降低成本。

由 NVIDIA 加速计算加速的服务器长期以来一直提供卓越的计算性能和能效。现在,MGX 模块化的设计使系统制造商能够更有效地满足每个客户独特的预算、供电、散热设计和机械要求。

多种规格尺寸提供最大的灵活性

 

MGX 提供不同的规格尺寸,并兼容当前和未来多代 NVIDIA 硬件,包括:

机箱:1U、2U、4U(风冷或液冷)

GPU:完整的 NVIDIA GPU产品组合,包括最新的 H100、L40、L4

CPU:NVIDIA Grace CPU 超级芯片、GH200 Grace Hopper 超级芯片、X86 CPU

网络产品:NVIDIA BlueField®-3 DPU、ConnectX®-7 网卡

MGX 与 NVIDIA HGX™ 的不同之处在于,它能够灵活地兼容多代 NVIDIA 产品,确保系统制造商能够重新利用现有设计,并轻松地采用下一代产品,而无需代价高昂的重新设计。相比之下,HGX 基于一个通过 NVLink® 连接的多 GPU 基板,为打造极致的 AI 和 HPC 系统而量身定制。

软件进一步驱动加速

 

除硬件外,MGX 还得到 NVIDIA 完整软件栈的支持,使开发人员和企业能够开发并加速 AI、HPC 和其他应用。其中包括 NVIDIA AI Enterprise,即 NVIDIA AI 平台的软件层,它涵盖 100 多个框架、预训练模型和开发工具,可为 AI 和数据科学加速,从而全面支持企业 AI 的开发和部署。

MGX 兼容开放计算项目(Open Compute Project)和电子工业联盟(Electronic Industries Alliance)的服务器机架,可快速集成到企业和云数据中心。

 

相关新闻