“Grace” CPU 采用高能效的 Arm 核心,针对训练巨型 AI 模型的系统,实现了10倍的性能提升
昨日,NVIDIA 发布其首款基于 Arm 架构的数据中心 CPU 处理器,在最复杂的 AI 和高性能计算工作负载下,可实现 10 倍于当今最快服务器的超高性能。
NVIDIA Grace™ CPU 是超过 10,000 个工程年的成果,专为满足全球最先进应用的计算要求而设计 —— 这些应用包括自然语言处理、推荐系统、AI 超级计算 —— 其所进行的海量数据分析需要超高速计算性能和大容量内存。这款产品将高能效 Arm CPU 核心与创新的低功耗内存子系统相结合,以高能效提供高性能。
NVIDIA 创始人兼首席执行官黄仁勋表示:“前沿的 AI 和数据科学正推动当今的计算机架构超越其极限,以处理规模难以想象的海量数据。NVIDIA 借助 Arm 授权的 IP 设计了 Grace,这是一款专为大规模 AI 和 HPC 设计的 CPU。与 GPU 和 DPU 一起, Grace 为我们提供了计算的第三种基础技术,以及为了推进 AI 发展重构数据中心的能力。NVIDIA 现在是一家拥有三种芯片的公司。”
Grace 是高度专业化的处理器,工作负载面向例如训练具有超过 1 万亿个参数的新一代 NLP 模型等。当与 NVIDIA GPU 紧密耦合时,搭载 Grace CPU 的系统速度比如今基于 NVIDIA DGX ™ 打造的最先进的系统(在 x86 CPU 上运行)快 10 倍。
在绝大多数数据中心由现有的 CPU 提供服务的同时,Grace(以美国计算机编程先驱 Grace Hopper 的名字命名)将为计算的细分市场提供服务。
瑞士国家超级计算机中心 (CSCS) 和美国能源部洛斯阿拉莫斯国家实验室 (Los Alamos National Laboratory) 率先宣布计划构建搭载 Grace 的超级计算机,以支持国家科学研究工作。
NVIDIA 推出 Grace 的背景是数据量和 AI 模型规模呈指数级增长。如今最大的AI 模型包含数十亿个参数,并且参数数量每两个半月就会翻一番。训练这些模型需要一个与 GPU 紧密耦合的新 CPU,以消除系统瓶颈。
NVIDIA 利用 Arm 数据中心架构极大的灵活性构建了 Grace。通过推出新的服务器级 CPU,NVIDIA 正在推进在 AI 和 HPC 领域中技术多样性的目标。在这些领域,更多选择是实现解决全球最迫切问题所需创新的关键。
Arm 首席执行官 Simon Segars 表示:“作为全球授权范围最广的处理器架构,Arm 每天正在以不可思议的新方式推动创新。NVIDIA 推出 Grace 数据中心 CPU 明确表明 Arm 的授权模式如何促进一项重要创新,这将进一步支持世界各地 AI 研究人员和科学家们非凡的工作。”
Grace 的首批使用者
推动科学和 AI 的极限发展
CSCS 和洛斯阿拉莫斯国家实验室计划将于 2023 年推出由慧与构建的、搭载Grace 的超级计算机。
CSCS 总监 Thomas Schulthess 教授表示:“利用 NVIDIA 全新的 Grace CPU,使得我们能将 AI 技术和传统的超级计算融合在一起,来解决计算科学领域一些最难的问题。我们很高兴能够向我们的瑞士和全球用户提供这款全新NVIDIA CPU,用于处理分析海量和复杂的科学数据集。”
洛斯阿拉莫斯国家实验室主任 Thom Mason 表示:“通过创新地平衡内存带宽和容量,新一代系统将重塑我们机构的计算策略。凭借 NVIDIA 全新 Grace CPU,我们可以在比以前更大的数据集上完成高逼真度 3D 仿真和分析,从而进行先进的科学研究工作。”
Grace 的强大性能基于第四代 NVIDIA NVLink® 互联技术,该技术在 Grace和 NVIDIA GPU 之间提供创纪录的 900 GB/s 连接速度,使总带宽比当今领先的服务器高 30 倍。
Grace 还将利用创新的 LPDDR5x 内存子系统,该子系统的带宽是 DDR4 内存的两倍,能效达 DDR4 的 10 倍。此外,新架构提供单一内存地址空间的缓存一致性,将系统和 HBM GPU 内存相结合,以简化可编程性。
Grace 将获得 NVIDIA HPC 软件开发套件以及全套 CUDA® 和 CUDA-X™ 库的支持,可以对 2,000 多个 GPU 应用程序加速,使得应对全球重大挑战的科学家和研究人员探索速度更快。