首页 > 最新资讯 > AWS Outposts为你的数据中心“派驻”GPU
AWS Outposts为你的数据中心“派驻”GPU

AWS Outposts为你的数据中心“派驻”GPU

2019-12-04 19:13

#人工智能 #深度学习


NVIDIA T4 GPU赋力混合AWS云,为AI、物联网和图形赋能

如今,在Amazon Web Services(AWS)上所能享受到的GPU加速优势,在你自己的数据中心中也同样可以享受到了。

由NVIDIA T4 Tensor Core GPU赋力的AWS Outposts(前哨站)于今日起,开始全面启用。借助于AWS Outposts,用户能够将基于云的Amazon EC2 G4实例带入到自己的数据中心当中,以满足各种AI和图形应用程序对于安全性和延迟的要求。

有了此全新产品,AI将不再只停留于项目研究阶段。

如今,绝大多数的公司仍然选择将数据保存在自己的防火墙内。因为在他们看来,这些数据是他们的核心知识产权。但是,对于深度学习来说,要想将其从研究开发阶段推进到生产应用阶段,企业所需的就不仅仅是他们的数据,还需要云服务所提供的灵活性和可拓展性。而这正是AWS Outposts借助于T4 GPU,能够为用户提供的功能中很大的一部分。

借助于此新产品,企业可以安全地在其数据中心中的大型数据池旁安装一个完全管理的机架式设备。

为整个企业提供AI加速

为了训练神经网络,从NVIDIA驱动程序到容器运行时,以及应用程序框架,每一层软件都需要优化。AWS服务,如Sagemaker、Elastic MapReduce和许多其他在定制化Amazon Machine Images上设计的服务,在开发模型的时候,都需要从训练大型数据集开始。随着引入NVIDIA驱动的AWS Outposts,如今这些服务也可以在企业数据中心中安全地运行。

Outposts中的GPU能够为深度学习、HPC,及其它GPU应用程序提供加速。而且,可以访问NGC中的软件——NGC是NVIDIA的GPU加速软件优化中心,其中储存了应用程序、框架、库,以及包含预训练模型的SDK。

对于AI推理工作,NVIDIA EGX边缘计算平台也可以在AWS Outposts上运行,并与AWS Elastic Kubernetes 服务协同工作。

在EGX之上,NVIDIA Metropolis应用程序框架为视觉 AI提供了专门用于智慧城市、智能零售、智慧物流、工业检测,以及其他AI和物联网用例的构建块。现在,通过AWS Outposts,用户可以便捷地使用NVIDIA Metropolis应用程序框架。

此外,NVIDIA Clara应用程序框架也经过微调,可以将AI带给医疗服务供应商——无论是用于医学成像、联邦学习还是AI辅助数据标记。

T4 GPU的Turing架构采用TensorRT,具有广泛的适用性,可以为业界众多的AI模型提供加速。其Tensor Core支持多精度计算,相比于CPU,其推理性能提高了40倍。

远程图形,本地托管

此外,该产品也为高端图形用户提供了选择。对于那些需要访问大型数据集和模型的远程设计师、艺术家和技术专业人员来说,现在他们可以同时享受到云的便利性与GPU的性能。

全球大部分的专业工作站都采用了NVIDIA Quadro技术为其提供动力。如今,借助于AWS Outposts中打包的T4 GPU,图形专业人员不仅可以在AWS公有云上享受到与NVIDIA Quadro工作站同等的性能优势,他们也同样可以在其内部云上享受到相同的性能优势。

无论是在本地工作还是在云中工作,Quadro用户都可以访问同一套由数百个图形密集型、GPU加速的第三方应用程序组成的应用程序组。

AWS Marketplace提供的Quadro虚拟工作站AMI包含了与物理工作站相同的Quadro驱动程序,支持数百个Quadro认证的应用程序,如Dassault Systèmes SOLIDWORKS和CATIA;Siemens NX;Autodesk AutoCAD和Maya;ESRI ArcGIS Pro;以及ANSYS Fluent、Mechanical和Discovery Live。

相关新闻