首页 > 最新资讯 > 阿里云GPU云服务器现已支持NVIDIA RAPIDS加速库
阿里云GPU云服务器现已支持NVIDIA RAPIDS加速库

阿里云GPU云服务器现已支持NVIDIA RAPIDS加速库

2019-05-25 09:00

#深度学习


阿里云nvidia.zhidx.com/tag/gpu.html" target="_blank" style="color:#01afec;">gpu云服务器现已支持nvidia rapids加速库,是国内第一家提供rapids加速库服务的公有云厂商。

 

rapids介绍

 

rapids,全称real-time acceleration platform for integrated data science,是nvidia针对数据科学和机器学习推出的一套开源gpu加速库,基于cuda-x ai打造,可加速数据准备、模型训练和图分析。

 

使用rapids加速库可以实现从数据准备、模型训练到预测整个端到端流程得到gpu的加速支持,大大提升任务的执行效率,在模型精度方面实现突破的同时降低基础架构tco。

 

cudnn已经成为gpu加速深度学习框架的标准加速库。rapids(如下图)提供的cudf、cuml和cugraph则提供了对数据准备、机器学习算法以及图分析的gpu加速库。

 

 

rapids支持轻量级大数据框架dask,使得任务可以获得多gpu、多节点的gpu加速支持。

 

rapids以数据准备为起点,引入新型 gpu 数据框架 (cudf),进而能实现并行化数据加载和数据操作,充分利用 nvidia gpu 上的大型高带宽显存。 cudf 为数据科学家提供了简单易用且基于 python 的工具集,可以替换其已十分熟悉的pandas 工具集。数据科学家无需从头学习 nvidia cuda 技术,只需要对现有代码做出极少量更改,便能够大幅提速数据准备,使其不再受限于 cpu 或 cpu 与内存之间的输入输出。

 

rapids 还引入了不断发展壮大的全新 gpu 加速 ml 算法(cuml) 库,当中包括 xgboost 等时下热门算法,以及 kalman、k-means、 knn、 dbscan、 pca、 tsvd、 ols 线性回归、kalman filtering 等算法。 ml 算法可产生大量数据传输,至今仍难以实现并行化。随着 gpu 加速的 ml 和 nvidia nvlink™ 以及nvswitch 架构陆续应用于服务器系统,模型训练现可轻松分布于多个 gpu 和多个节点(系统)之间,几乎不会产生延迟,且能避过 cpu 与内存之间的输入输出瓶颈。

 

支持实例

 

阿里云目前支持rapids的实例规格有gn6i(tesla t4(立即免费试用))、gn6v(tesla v100(立即免费试用))、gn5(tesla p100)和gn5i(tesla p4(立即免费试用))。

 

如何在gpu实例上使用rapids加速库

 

关于如何在阿里云gpu实例上基于ngc环境使用rapids加速库,请参考文档:《在gpu实例上使用rapids加速机器学习任务》(点击“阅读原文”,阅读文档)。

 

按照上述文档,可以运行一个单机的gpu加速的数据预处理+训练的xgboost demo,并对比gpu与cpu的训练时间。

 

用户也可以通过选择更多的数据量和gpu个数来验证多gpu的支持。

 

后续阿里云还会继续提供更多的rapids加速的最佳实践。

 

性能

 

按照上述文档示例,在gn6i实例(tesla t4)上,使用gpu加速的xgboost训练任务,可以获得20倍以上的加速:

 

 

相关新闻