NVIDIA黄仁勋宣布为Arm提供GPU加速 全方位扩展高性能计算领域
2019-11-19 17:28
火星、微软、海量数据成为SC19的主角,听黄仁勋详述图形、模拟和AI的未来发展前景
丹佛——SC19——2019年11月18日—— NVIDIA创始人兼首席执行官黄仁勋于11月18日发布了一个用于构建GPU加速Arm服务器的参考设计,将GPU加速对超级计算机的支持扩展到了一个快速增长的新平台。此举得到了业内的广泛支持。
今天,黄仁勋在丹佛2019全球超级计算大会(SC19)上发表演讲。在演讲中,他宣布微软已在Azure云计算平台上构建了NDv2超大型实例,这是全球最大的GPU加速的云端超级计算机 。
此外,他还发布了NVIDIA Magnum IO。该GPU加速I/O与存储软件套件可以解决AI、数据科学和高性能计算工作负载的数据传输瓶颈问题。
在两个小时的演讲中,除了发布上述内容之外,黄仁勋还谈到了目前业内的最新发展动态,详细描绘了高性能计算的广阔前景。
高性能计算领域的全方位扩展
作为全球超级计算行业中规模最大的活动,本届SC19大会的开幕式可谓是座无虚席。在开幕式上,黄仁勋向现场约1400名研究者和技术人员讲到:“高性能计算领域正在同时朝各个方向扩展。实际上,高性能计算已无处不在,比如超级计算中心、云和边缘等。”
推动高性能计算全方位扩展的因素包括:基于大量传感器阵列的高性能流式计算;使用边缘计算进行更复杂的筛选;在云端运行高性能计算;使用AI加速高性能计算等。
黄仁勋表示:“所有这一切都在发生巨变。”
此次黄仁勋演讲的一个重要环节,是在现场首次展示了全球最大的交互式立体可视化项目——与美国国家宇航局(NASA)一起模拟火星着陆。该模拟的内容是让一个体积大小约为一栋双层公寓、且正在以时速12000英里的速度飞行着的飞行器在七分钟内安全地停下,然后着陆。
根据黄仁勋的介绍,该模拟以随机存取的方式传输150 TB数据,该数据量相当于125,000张DVD的数据存储量之和。“为此,我们将在超级计算机旁配备一台超级计算分析仪器。”
扩展高性能计算领域
黄仁勋将计算科学家称为当今时代的达芬奇。在此次演讲的一开始,他就详细地介绍了加速计算是如何协助当今计算科学家工作的。
他解释道,第一批AI超级计算机已经推动了聚变能、引力波等多个领域的科学研究。
同时,加速计算还在帮助百万兆级系统解决一些全球范围内最具有挑战性的问题。
比如劳伦斯伯克利国家实验室(Lawrence Berkeley National Lab, LBNL)的极端天气模式识别研究;橡树岭国家实验室(Oak Ridge National Laboratory, ORNL)的阿片类药物成瘾基因组学研究;由劳伦斯伯克利国家实验室、西北太平洋国家实验室(Pacific Northwest National Lab, PNNL)和汉福德区布朗大学(Brown University)领导的核废料修复工程;以及橡树岭国家实验室和纽约州立大学石溪分校(State University of New York at Stony Brook, SBU)领导的癌症检测研究。
同时,AI的应用领域也在日益广泛。本月初,美国邮政署宣布将采用NVIDIA的端到端AI技术。作为全球最大的邮政服务机构,其每天要处理近5亿封邮件。
黄仁勋表示:“这正是流式AI计算机最擅长的应用场景”。
上月,黄仁勋宣布了NVIDIA正在与Ericsson、微软、Red Hat等公司合作,利用NVIDIA EGX 边缘超级计算平台为企业和5G电信网络边缘AI提供支持。
高性能计算的下一步将会是:使用大量软件定义传感器,将数据优先发送到可编程的边缘计算机;然后再将其中最相关的数据发送到超级计算机;最终由超级计算机从海量的实时数据中获取洞察。
与Arm携手:GPU加速让新兴高性能计算架构变得更快
今天的发布对于Arm社区来说,具有里程碑式的意义。如今,Arm处理器架构在智能手机和物联网设备中随处可见,早已成为了全球最流行的处理器架构。黄仁勋预测:如今Arm已拥有超过1000亿台计算设备;而在未来几年,该数字将超过1万亿台。
NVIDIA正在快速为这个蓬勃发展的生态带来各类高性能计算工具。
黄仁勋表示:“我们一直在与在座的各位业内人士合作。这个行业真是太棒了,大家都在争先恐后地成长。这将成为一个很棒的生态,几乎所有能在高性能计算中运行的工作都应该能够在任何CPU上运行。”他补充道,目前已有30个应用已经启动并开始运行。
黄仁勋表示,目前已有多家全球顶尖的超级计算中心开始测试GPU加速的Arm计算系统,其中包括美国的橡树岭国家实验室和桑迪亚国家实验室、英国布里斯托大学,以及日本的理化学研究所。
他还表示,NVIDIA的GPU加速的Arm服务器参考设计包括了硬件和软件基础模块,目前已经得到了高性能计算和Arm生态系统中主要成员的支持。
在Arm生态系统中,NVIDIA正在与Arm、Ampere、富士通和Marvell展开合作。NVIDIA还与HPE及其旗下的Cray公司合作。许多高性能计算软件公司已开始使用NVIDIA CUDA-X 库为Arm生态带来基于GPU的管理和监控工具。
今年早些时候,NVIDIA宣布为为Arm带来CUDA-X软件平台。在此之后,NVIDIA首次发布了该参考平台。根据此前的承诺,NVIDIA正在提供其Arm兼容软件开发套件的预览版本(可在此处下载)。该版本包含NVIDIA CUDA-X库和加速计算开发工具。
微软为Azure带来GPU超级计算机
黄仁勋在宣布已可以在Microsoft Azure上使用GPU超级计算机NDv2的时候表示:“这让全球每一位科学家都能拥有了一台超级计算机。”
黄仁勋宣布,现在已经可以在Microsoft Azure上使用GPU超级计算机NDv2了,这是全球最快的超级计算机之一,可以让高性能计算研究者和其他人员实时获得前所未有的GPU算力。
他说到:“现在你可以打开一个实例,选择一个……容器中的堆栈,在Azure上启动它,然后就可以进行科学研究了。这真是太棒了。”
Azure NDv2实例是专为处理要求苛刻的AI和高性能计算应用而构建,可扩展至多达800个由Mellanox InfiniBand互联的NVIDIA V100 Tensor Core GPU。
这是有史以来第一次,研究者和其他人员可以按自己的需要租用整台AI超级计算机,并且其功能与那些需要长达数月部署时间的大型本地超级计算机相匹配。
黄仁勋解释说,需要快速解决方案的AI研究者可以快速启动多个Azure NDv2实例,并在几个小时内完成复杂的会话式AI模型的训练。
例如,微软和NVIDIA的工程师已在该集群的预发布版本上进行了实验。他们使用64个NDv2实例,用约三小时完成了BERT会话式AI模型的训练。
Magnum IO软件
为了帮助AI研究者和数据科学家将数据移动时间从数小时缩短至几分钟,黄仁勋先生还发布了NVIDIA Magnum IO软件套件。
作为全球超级计算行业最重要的活动,2019全球超级计算大会的开幕式座无虚席。约1400名研究者和技术人员在现场聆听了NVIDIA的主题演讲。
Mangum IO将多服务器、多GPU计算节点的数据处理速度提高了多达20倍,解决了人们在执行财务分析、气候建模和其他复杂的高性能工作负载时所面临的瓶颈问题。
黄仁勋表示:“这个领域将充满创新,我们会投入大量的努力帮助大家将信息导入和导出系统。”
NVIDIA GPUDirect Storage 是Magnum IO的一项关键功能。它提供了一条连通GPU内存和存储的直接数据路径,使数据能够绕过CPU,在由GPU、存储和网络设备提供的“开放式高速公路”上快速传输。
Magnum IO是NVIDIA与众多网络和存储行业领导者密切合作的成果,其中包括:DataDirect Networks、Excelero、IBM、Mellanox和WekaIO。
丹佛——SC19——2019年11月18日—— NVIDIA创始人兼首席执行官黄仁勋于11月18日发布了一个用于构建GPU加速Arm服务器的参考设计,将GPU加速对超级计算机的支持扩展到了一个快速增长的新平台。此举得到了业内的广泛支持。
今天,黄仁勋在丹佛2019全球超级计算大会(SC19)上发表演讲。在演讲中,他宣布微软已在Azure云计算平台上构建了NDv2超大型实例,这是全球最大的GPU加速的云端超级计算机 。
此外,他还发布了NVIDIA Magnum IO。该GPU加速I/O与存储软件套件可以解决AI、数据科学和高性能计算工作负载的数据传输瓶颈问题。
在两个小时的演讲中,除了发布上述内容之外,黄仁勋还谈到了目前业内的最新发展动态,详细描绘了高性能计算的广阔前景。
高性能计算领域的全方位扩展
作为全球超级计算行业中规模最大的活动,本届SC19大会的开幕式可谓是座无虚席。在开幕式上,黄仁勋向现场约1400名研究者和技术人员讲到:“高性能计算领域正在同时朝各个方向扩展。实际上,高性能计算已无处不在,比如超级计算中心、云和边缘等。”
推动高性能计算全方位扩展的因素包括:基于大量传感器阵列的高性能流式计算;使用边缘计算进行更复杂的筛选;在云端运行高性能计算;使用AI加速高性能计算等。
黄仁勋表示:“所有这一切都在发生巨变。”
此次黄仁勋演讲的一个重要环节,是在现场首次展示了全球最大的交互式立体可视化项目——与美国国家宇航局(NASA)一起模拟火星着陆。该模拟的内容是让一个体积大小约为一栋双层公寓、且正在以时速12000英里的速度飞行着的飞行器在七分钟内安全地停下,然后着陆。
根据黄仁勋的介绍,该模拟以随机存取的方式传输150 TB数据,该数据量相当于125,000张DVD的数据存储量之和。“为此,我们将在超级计算机旁配备一台超级计算分析仪器。”
扩展高性能计算领域
黄仁勋将计算科学家称为当今时代的达芬奇。在此次演讲的一开始,他就详细地介绍了加速计算是如何协助当今计算科学家工作的。
他解释道,第一批AI超级计算机已经推动了聚变能、引力波等多个领域的科学研究。
同时,加速计算还在帮助百万兆级系统解决一些全球范围内最具有挑战性的问题。
比如劳伦斯伯克利国家实验室(Lawrence Berkeley National Lab, LBNL)的极端天气模式识别研究;橡树岭国家实验室(Oak Ridge National Laboratory, ORNL)的阿片类药物成瘾基因组学研究;由劳伦斯伯克利国家实验室、西北太平洋国家实验室(Pacific Northwest National Lab, PNNL)和汉福德区布朗大学(Brown University)领导的核废料修复工程;以及橡树岭国家实验室和纽约州立大学石溪分校(State University of New York at Stony Brook, SBU)领导的癌症检测研究。
同时,AI的应用领域也在日益广泛。本月初,美国邮政署宣布将采用NVIDIA的端到端AI技术。作为全球最大的邮政服务机构,其每天要处理近5亿封邮件。
黄仁勋表示:“这正是流式AI计算机最擅长的应用场景”。
上月,黄仁勋宣布了NVIDIA正在与Ericsson、微软、Red Hat等公司合作,利用NVIDIA EGX 边缘超级计算平台为企业和5G电信网络边缘AI提供支持。
高性能计算的下一步将会是:使用大量软件定义传感器,将数据优先发送到可编程的边缘计算机;然后再将其中最相关的数据发送到超级计算机;最终由超级计算机从海量的实时数据中获取洞察。
与Arm携手:GPU加速让新兴高性能计算架构变得更快
今天的发布对于Arm社区来说,具有里程碑式的意义。如今,Arm处理器架构在智能手机和物联网设备中随处可见,早已成为了全球最流行的处理器架构。黄仁勋预测:如今Arm已拥有超过1000亿台计算设备;而在未来几年,该数字将超过1万亿台。
NVIDIA正在快速为这个蓬勃发展的生态带来各类高性能计算工具。
黄仁勋表示:“我们一直在与在座的各位业内人士合作。这个行业真是太棒了,大家都在争先恐后地成长。这将成为一个很棒的生态,几乎所有能在高性能计算中运行的工作都应该能够在任何CPU上运行。”他补充道,目前已有30个应用已经启动并开始运行。
黄仁勋表示,目前已有多家全球顶尖的超级计算中心开始测试GPU加速的Arm计算系统,其中包括美国的橡树岭国家实验室和桑迪亚国家实验室、英国布里斯托大学,以及日本的理化学研究所。
他还表示,NVIDIA的GPU加速的Arm服务器参考设计包括了硬件和软件基础模块,目前已经得到了高性能计算和Arm生态系统中主要成员的支持。
在Arm生态系统中,NVIDIA正在与Arm、Ampere、富士通和Marvell展开合作。NVIDIA还与HPE及其旗下的Cray公司合作。许多高性能计算软件公司已开始使用NVIDIA CUDA-X 库为Arm生态带来基于GPU的管理和监控工具。
今年早些时候,NVIDIA宣布为为Arm带来CUDA-X软件平台。在此之后,NVIDIA首次发布了该参考平台。根据此前的承诺,NVIDIA正在提供其Arm兼容软件开发套件的预览版本(可在此处下载)。该版本包含NVIDIA CUDA-X库和加速计算开发工具。
微软为Azure带来GPU超级计算机
黄仁勋在宣布已可以在Microsoft Azure上使用GPU超级计算机NDv2的时候表示:“这让全球每一位科学家都能拥有了一台超级计算机。”
黄仁勋宣布,现在已经可以在Microsoft Azure上使用GPU超级计算机NDv2了,这是全球最快的超级计算机之一,可以让高性能计算研究者和其他人员实时获得前所未有的GPU算力。
他说到:“现在你可以打开一个实例,选择一个……容器中的堆栈,在Azure上启动它,然后就可以进行科学研究了。这真是太棒了。”
Azure NDv2实例是专为处理要求苛刻的AI和高性能计算应用而构建,可扩展至多达800个由Mellanox InfiniBand互联的NVIDIA V100 Tensor Core GPU。
这是有史以来第一次,研究者和其他人员可以按自己的需要租用整台AI超级计算机,并且其功能与那些需要长达数月部署时间的大型本地超级计算机相匹配。
黄仁勋解释说,需要快速解决方案的AI研究者可以快速启动多个Azure NDv2实例,并在几个小时内完成复杂的会话式AI模型的训练。
例如,微软和NVIDIA的工程师已在该集群的预发布版本上进行了实验。他们使用64个NDv2实例,用约三小时完成了BERT会话式AI模型的训练。
Magnum IO软件
为了帮助AI研究者和数据科学家将数据移动时间从数小时缩短至几分钟,黄仁勋先生还发布了NVIDIA Magnum IO软件套件。
作为全球超级计算行业最重要的活动,2019全球超级计算大会的开幕式座无虚席。约1400名研究者和技术人员在现场聆听了NVIDIA的主题演讲。
Mangum IO将多服务器、多GPU计算节点的数据处理速度提高了多达20倍,解决了人们在执行财务分析、气候建模和其他复杂的高性能工作负载时所面临的瓶颈问题。
黄仁勋表示:“这个领域将充满创新,我们会投入大量的努力帮助大家将信息导入和导出系统。”
NVIDIA GPUDirect Storage 是Magnum IO的一项关键功能。它提供了一条连通GPU内存和存储的直接数据路径,使数据能够绕过CPU,在由GPU、存储和网络设备提供的“开放式高速公路”上快速传输。
Magnum IO是NVIDIA与众多网络和存储行业领导者密切合作的成果,其中包括:DataDirect Networks、Excelero、IBM、Mellanox和WekaIO。