
NVIDIA 与合作伙伴在 MLPerf 中展示领先的 AI 性能和通用性
2022-06-30 19:17
NVIDIA AI 仍是唯一能够运行 MLPerf行业基准测试中所有测试的平台, A100 GPU 自发布以来连续两年一直保持着获胜次数最多的纪录。
根据今天发布的 MLPerf 基准测试结果, NVIDIA 及其合作伙伴占了所有参赛生态伙伴的 90%,并且继续提供了最佳的整体 AI 训练性能和提交了最多的测试项。
NVIDIA AI 平台覆盖了 MLPerf 训练 2.0 版本中的所有八项基准测试,突显了其领先的通用性。
除 NVIDIA 之外,无其它加速器运行过所有基准测试,这些基准测试代表了流行的 AI 用例,包括语音识别、自然语言处理、推荐系统、目标检测、图像分类等,而 NVIDIA 自 2018 年 12 月向作为行业标准 AI 基准测试的 MLPerf 提交首轮测试结果以来就一直如此。
领先的基准测试结果与可用性
在连续第四次 MLPerf 训练提交结果中,基于 NVIDIA Ampere 架构的 NVIDIA A100 Tensor Core GPU 依然表现出色。

各个提交者平台在每个网络的“最快训练时间”
Selene 是 NVIDIA 内部的一台 AI 超级计算机,它基于模块化的 NVIDIA DGX SuperPOD,并由 NVIDIA A100 GPU、软件堆栈和 NVIDIA InfiniBand 网络驱动,在八项大规模工作负载测试的四项中获得 “最快训练时间” 。

为了计算单芯片性能,该图表将每份提交结果归一化到每个提交者最常见的尺度,检测分数归一化到速度最快的竞争者,最快竞争者显示为 1 倍。
NVIDIA A100 还保持了单芯片性能上的领导地位,在八项测试中的六项测试中呈现了最快的速度。
共有 16 家合作伙伴使用 NVIDIA AI 平台提交了本轮结果,包括华硕、百度、中国科学院自动化研究所、戴尔科技、富士通、技嘉、新华三、慧与、浪潮、联想、宁畅和超微。
NVIDIA 的大多数 OEM 合作伙伴提交了使用 NVIDIA 认证系统得到的结果,这些服务器经过 NVIDIA 验证,能够为企业部署提供出色的性能、可管理性、安全性和可扩展性。
多种模型驱动实际 AI 应用
AI 应用可能需要理解用户说出的要求,对图像进行分类、提出建议并以语音信息的形式作出回应。

即使是上图简单的用例也需要将近 10个模型,这突出了运行每个基准的重要性
这些任务需要多种类型的 AI 模型按顺序工作,用户需要能够快速且灵活地设计、训练、部署和优化这些模型。
这也是为什么通用性(能够在 MLPerf 及其他版本中运行每个模型)以及领先的性能都是将现实世界的 AI 引入入生产的关键。
通过 AI 实现投资回报
对于客户而言,数据科学和工程团队是最宝贵的资源,他们的生产力决定了 AI 基础设施的投资回报。客户必须考虑昂贵的数据科学团队的成本,这通常在部署 AI 的总成本中占比很重,而部署 AI 基础设施本身的成本相对较少。
AI 研究人员的生产力取决于能否快速测试新的想法,这需要通用性来训练任何模型,以及大规模训练模型所能提供的速度。这就是为什么企业关注单位成本的整体生产力,以确定最佳的 AI 平台——更全面的视角,更准确地代表了部署 AI 的真实成本。
此外, AI 基础设施的利用率取决于可替换性,或在单一平台上加速从数据准备到训练再到推理的整个 AI 工作流程的能力。
凭借 NVIDIA AI,客户可以在整个 AI 流程中使用相同的基础设施,重新利用它来适配数据准备、训练和推理之间的不同需求,这极大地提高了利用率,实现了非常高的投资回报率。
随着研究人员发现新的 AI 突破口,支持最新模型创新是最大程度地延长 AI 基础设施使用寿命的关键。
NVIDIA AI 兼容并适用于每个模型、可以扩展到任何规模,并加速从数据准备到训练再到推理的端到端 AI 流程,能够实现最高的单位成本生产力。
今天的结果再次证明了 NVIDIA 在迄今为止所有 MLPerf 训练、推理和 HPC 评测中所展示的丰富而深厚的 AI 专业性。
3 年半内将性能提高 23 倍
自首次基于 A100 提交 MLPerf 基准测试以来的两年时间里,在 NVIDIA 软件堆栈持续优化的推动下, NVIDIA 平台的性能已提高了 6 倍。
自 MLPerf 问世以来,归功于跨 GPU、软件和大规模改进的全栈式创新, NVIDIA AI 平台在 3 年半时间里,在基准测试中实现了 23 倍的性能提升。正是这种对创新的持续追求,让客户确信他们现今投资的 AI 平台将持续服务 3 至 5 年,并将继续推进以适配最先进的技术。
此外, NVIDIA 于 3 月发布的 NVIDIA Hopper架构有望在未来的 MLPerf 基准测评中实现性能的另一巨大飞跃。
NVIDIA 如何做到这一点
软件创新持续释放 NVIDIA Ampere架构的更多性能。
例如,在提交结果中大量使用的 CUDA Graphs,该软件可以最大限度地减少跨多个加速器上运行作业的启动开销。NVIDIA 不同库的内核优化,如 cuDNN 和预处理库 DALI,解锁了额外的加速。NVIDIA 还实现了跨硬件、软件和网络的全栈改进,如 NVIDIA Magnum IO 和 SHARP,将部分 AI 功能卸载到网络中,以获得更好的性能,特别是在大规模的情况中。
NVIDIA 所使用的所有软件均可从 MLPerf 资源库中获取,所有人都可以获得 NVIDIA 的世界级领先成果。NVIDIA 不断地将这些优化集成到 NVIDIA 的 GPU 应用软件中心—— NGC 上提供的容器中,并通过 NVIDIA AI Enterprise 提供完全由 NVIDIA 支持,并经过优化的软件。
从 A100 GPU 两年前首次提交以来, NVIDIA AI 平台继续在 MLPerf 2.0 中提供最高的性能,仍是唯一能够提交所有基准测试的平台。NVIDIA 的下一代 Hopper 架构有望在未来的 MLPerf 评测中实现另一巨大飞跃。
NVIDIA 平台适用于任何规模的模型和框架,并具有可替代性以处理 AI 工作负载的每个部分。它可以在所有云端和主要的服务器制造商上使用。
<strong style="\'margin:" 0px;padding:="" 0px;color:="" rgb(51,="" 51,="" 51);font-family:="" mp-quote,="" -apple-system-font,="" blinkmacsystemfont,="" "helvetica="" neue",="" "pingfang="" sc",="" "hiragino="" sans="" gb",="" "microsoft="" yahei="" ui",="" yahei",="" arial,="" sans-serif;font-size:="" 17px;font-style:="" normal;font-variant-ligatures:="" normal;font-variant-caps:="" normal;letter-spacing:="" normal;orphans:="" 2;text-align:="" justify;text-indent:="" 0px;text-transform:="" none;white-space:="" normal;widows:="" 2;word-spacing:="" 0px;-webkit-text-stroke-width:="" 0px;text-decoration-thickness:="" initial;text-decoration-style:="" initial;text-decoration-color:="" initial;\'="">