超级公开课第13讲 | 不同行业如何选择深度学习服务器

超级公开课第13讲 | 不同行业如何选择深度学习服务器

时间:2018年10月10日 08:00
地点:智东西公开课小程序
人数:1000
活动内容
本文根据智东西公开课推出的超级公开课nvidia专场第13讲《案例解读:不同行业如何选择深度学习服务器》上的系统讲解整理而来,由nvidia npn合作伙伴负责人吴强、nvidia 高级系统架构师易成共同主讲。

本次讲解中nvidia npn合作伙伴负责人吴强从性能、可编程性、灵活性等方面对cpu、gpu、fpga、asic等不同类型的服务器进行了系统的比较分析,并给出了五条选择gpu服务器的基本原则:

1.考虑业务应用先选择gpu型号
2.考虑服务器的使用场景及数量(边缘/中心)
3.考虑客户自身的目标使用人群及it运维能力
4.考虑服务器配套软件的价值以及服务的价值
5.考虑整体gpu集群系统的成熟度及工程效率

nvidia 高级系统架构师易成则从计算性能、互联互通、可扩展性、适用场景等方面系统讲解了dgx-1、dgx-2dgx station以及如何利用vnidia ngc高效的使用dgx系统。

吴强:大家好,我是吴强,也是nvidia npn(nvidia partner network)合作伙伴负责人,主要负责帮助销售以及与合作伙伴的管理。今天分享的主题为《不同行业如何选择深度学习服务器》,主要从以下几个方面来进行:

1.不同类型ai服务器之比较分析
2.选择gpu服务器的基本原则
3.ai超级计算机dgx系统详解
4.ngc云平台使用方法和价值
5.dgx系统快速部署的最佳攻略
6.dgx系统各行业应用案例

其中第1、2、6条由我来为大家介绍,第3、4、5条由我的同事易成来介绍。

不同类型ai服务器之比较分析

首先看下不同类型ai服务器的比较,通过上面这张二维图中我们可以对不同架构的服务器进行简单的比较。从左上方到右下角依次是cpu、gpu、fpga、tpu、asic,从横轴来看,越往右性能(performance)越好。纵轴programmability/flexibility是指服务器的可编程性和灵活性, asic的性能最好,因为它是将算法固化在芯片上,算法是比较固定的,所以它的性能最好的,但是它的编程性和灵活性就相对比较弱。而cpu的灵活性和编程性最好,但性能最弱。总的来说,gpu的灵活性比cpu弱,但它的性能更好。往下依次是fpga、tpu以及asic。在实际选择时需要考虑到功耗、成本、性能、实时性等各方面因素,尤其是一些具有专用目的的处理器,如果算法已经固化并且很简单,可以考虑asic,因为asic性能好且功耗低。如果是在训练或者通用情况下,gpu则是更好的选择。

选择gpu服务器的基本原则

在介绍选择gpu服务器的基本原则之前,先来跟大家介绍下常见的gpu和gpu服务器。

常见的gpu,按总线接口类型,可以分为nv-link接口、传统总线接口以及传统pci-e总线三种。

nv-link接口类型的gpu典型代表是nvidia v100,采用 sxm2接口。在dgx-2上有sxm3的接口。nv-link总线标准的gpu服务器可以分为两类,一类是nvidia公司设计的dgx超级计算机,另一类是合作伙伴设计的nv-link接口的服务器。dgx超级计算机不仅仅提供硬件,还有相关的软件和服务。

传统总线接口的gpu,目前主流的有这几款产品,比如 pci-e接口的v100、 p40(p开头指的是上一代pascal架构)和p4,以及最新的图灵架构t4等。其中比较薄和只占一个槽位的p4和t4,通常用于inference,目前也已经有成熟的模型进行推理和识别。

传统pci-e总线的gpu服务器也分为两类,一类是oem服务器,比如曙光、浪潮、华为等其他国际品牌;另一类是非oem的服务器,也包括很多种类。选择服务器时除了分类,还要考虑性能指标,比如精度、显存类型、显存容量以及功耗等,同时也会有一些服务器是需要水冷、降噪或者对温度、移动性等等方面有特殊的要求,就需要特殊的服务器。

选择gpu服务器时首先要考虑业务需求来选择适合的gpu型号。在hpc高性能计算中还需要根据精度来选择,比如有的高性能计算需要双精度,这时如果使用p40或者p4就不合适,只能使用v100或者p100;同时也会对显存容量有要求,比如石油或石化勘探类的计算应用对显存要求比较高;还有些对总线标准有要求,因此选择gpu型号要先看业务需求。

gpu服务器人工智能领域的应用也比较多。在教学场景中,对gpu虚拟化的要求比较高。根据课堂人数,一个老师可能需要将gpu服务器虚拟出30甚至60个虚拟gpu,因此批量training对gpu要求比较高,通常用v100做gpu的训练。模型训练完之后需要进行推理,因此推理一般会使用p4或者t4,少部分情况也会用v100。

当gpu型号选定后,再考虑用什么样gpu的服务器。这时我们需要考虑以下几种情况:

第一、 在边缘服务器上需要根据量来选择t4或者p4等相应的服务器,同时也要考虑服务器的使用场景,比如火车站卡口、机场卡口或者公安卡口等;在中心端做inference时可能需要v100的服务器,需要考虑吞吐量以及使用场景、数量等。

第二、 需要考虑客户本身使用人群和it运维能力,对于bat这类大公司来说,他们自己的运营能力比较强,这时会选择通用的pci-e服务器;而对于一些it运维能力不那么强的客户,他们更关注数字以及数据标注等,我们称这类人为数据科学家,选择gpu服务器的标准也会有所不同。

第三、 需要考虑配套软件和服务的价值。

第四、 要考虑整体gpu集群系统的成熟程度以及工程效率,比如像dgx这种gpu一体化的超级计算机,它有非常成熟的从底端的操作系统驱动docker到其他部分都是固定且优化过的,这时效率就比较高。

ai超级计算机dgx系统详解

易成: 目前dgx产品主要包含dgx工作站(dgx station)、dgx-1服务器以及今年刚发布的dgx-2服务器三款产品。它们都是nvidia推出的软硬一体机产品,主要包括操作系统、相关软件以及配套的硬件。以往我们买服务器或工作站时,通常需要自己在服务器中安装操作系统并部署应用软件,而在dgx一体机上就不需要这个过程了,所有的软件出厂时就已经完成了安装配置,开机就可以使用,非常适合开发人员做深度学习或高性能计算的应用。

在介绍dgx超级计算机之前,先了解一下超级计算机的计算核心v100 gpu。在dgx中使用的是nvlink gpu,包含5120个cuda核心,640个tensorcore,双精度的计算能力达到7.8万亿次,深度学习的计算能力达到125万亿次。gpu之间可以通过nvlink进行互相访问,带宽可以达到300gb/s。而pci-e的gpu只能通过pci-e总线进行gpu之间的互相访问,带宽为32gb。因此相比较而言,nvlink版v100是目前性能最强的gpu。

与上一代gpu相比,v100 gpu采用最新的volta架构,采用sm流多处理器架构,首次引进了tensor core计算核心,这也是以前pascal架构所没有的,大大增强了gpu的深度学习计算性能。v100采用了新一代的nvlink 2.0技术,双向总带宽可以达到300gb/s,并且采用了新的hbm2显存,可以达到900gb/s的io带宽。v100引入了新的mps多进程服务技术,以提高gpu的利用率,还改进了smit的计算模型。

tensor core是v100非常重要的特性,支持混合精度计算,如上图所示的d=a*b+ c的混合矩阵乘加计算。在矩阵中,矩阵a和矩阵b要求是半精度的fp16类型,而加法矩阵c可以是半精度fp16或者是单精度fp32类型,左边的计算结果也可以是fp16或fp32类型。

dgx-1服务器主要用于数据中心的深度学习或者高性能计算应用,整机的计算峰值可以达到1000万亿次。我们都知道,深圳超算中心的计算能力大约是1200万亿次,也就是一台dgx-1的计算能力和一个超算中心的计算能力相当,之所以说适合于数据中心,是因为dgx-1服务器需要安装在机柜中,功耗达到3200瓦,噪音也比较大,因此只能放在数据中心的机房。

dgx-1配置了8块最新的nvlink v100 gpu,每块gpu是32gb显存,配置了大容量的内存,一共是512gb,可以将大量的数据读入内存。配置了7tb的ssd作为本地缓存,ssd配置的是raid 0模式,仅仅作为本地的缓存,可以实现高速存储的io性能。另外,dgx-1配置了4个100gb的网卡,并且可以选择infiniband或以太网模式,是为了配置gpu集群预留的网络接口,可以作为节点间通讯的计算网络或存储网络。

dgx-1服务器的内部网络拓朴架构中有8个gpu服务器,这8个gpu互联成一个立方体的拓朴架构,每一个顶点是一块gpu。另外,从图中可以看到还有nvlink、pci-e、qpi 三种互联通道,绿色的粗线条代表nvlink,紫色的细线条代表pci-e总线,黑色的线条代表qpi线。在做gpu并行计算时,gpu之间的通信可以选择两种方案:

第一、 gpu通过pci-e总线进行通信,这种通讯的方效率比较低的。
第二、 通过nvlink实现gpu之间直接通信,很显然这种方式的通讯效率会很高。

接下来为大家介绍下dgx-1服务器中gpu的计算速度和扩展性。图中柱状图表示计算速度,曲线代表扩展性,灰色的柱状图表示pcie的gpu计算性能,绿色的柱状图表示nvlink gpu的性能。上图展示的数据是以神经网络翻译训练为例,从计算速度的角度看,与pcie的gpu卡相比,gpu越多,nvlink gpu速度的优势越明显,8块nvlink gpu有20%的性能提升。从扩展性的角度看,8块nvlink gpu的加速比pcie gpu高20%左右。从图中可以看出,8块dgx-1的服务器和普通的pcie gpu服务器相比还是有比较大的性能优势,尤其是在深度学习框架或模型算法不支持集群计算的时候,使用dgx-1服务器会有比较大的优势。

nvidia dgx station是一个非常强大的工作站,可以达到480万亿次的计算能力,采用了最新的32gb v100 gpu。另一个特点是超静音设计,因为采用的是水冷模式而不是通常采用的风扇冷却方式,因此不需要机房,在办公室环境也可以使用,是特别为研发人员设计的个人超级计算机。

上图展示了dgx工作站的详细配置,包括gpu内存、ssd详细的配置情况等。可以看到,它的配置还是非常高的,完全满足开发研究人员做深度学习和高性能计算的需求。

最新发布的dgx-2服务器的计算能力是2000万亿次,是目前世界上性能最强的深度学习单机系统。

dgx-2的内部架构与dgx-1相比,在配置有比较大的提升,其中包括2个gpu主板,每个主板包括8块32gb v100 gpu和6个nvswitch,采用全线速互联的方式,任意两块gpu之间通信总带宽可以达到300gb每秒,系统配置最新的intel xeon cpu,配置1.5tb的主机内存,8个100gb的网卡,可以支持infiniband和以太网模式互相切换。这8个网卡主要用于做计算网络,另外还配置两个100gb的网络接口作为存储网络,也可以支持infiniband和以太网的切换模式。dgx-2配置30tb nvme ssds,和dgx-1一样,也是作为本地缓存使用。

从这张图我们可以看到dgx-2的内部结构,包括gpu主板以及其他配置。先来看下dgx-2中gpu互联的网络拓朴结构,dgx-2有两个gpu主板,每个主板包含8块gpu,6个nvswitch,这是因为每个gpu有六个nvlink通道,每个通道连接一个nvswitch。对于nvswitch,我们可以把它理解成18端口的nvlink交换机,因为每个nvswitch和八个gpu相连,一个gpu主板上所有nvswitch通过背板和另外一个主板上的gpu互联,这样就能实现所有gpu都达到全互联状态,任意两个gpu之间的带宽都可以达到300gb/s。每个nvswitch和8个gpu相连,有8个gpu nvlink接入,然后会有8个端口连出到背板上,因此一共占用了16个端口,还有两个端口剩余。

一台dgx-2服务器和两台dgx-1服务器相比,在相同数量gpu卡的情况下,在高性能计算深度学习应用中, dgx-2服务器相较dgx-1会有两倍以上的性能加速,之所以能超过两倍,是因为gpu数量增加两倍,而性能超过两倍是因为dgx-2 gpu之间的通讯效率比dgx-1要高,因此它的并行效率会更高。

ngc云平台使用方法和价值

dgx工作站和服务器都是软硬一体的计算平台,因此dgx不仅仅是一台硬件设备,还是一套完整的深度学习和高性能计算平台。dgx系统预装了nvidia优化的操作系统、driver、sdk以及nvidia docker引擎,也预装了各种深度学习框架和高性能计算的应用软件,并且所有的应用软件都会定期更新,一般每个月都会更新一次,这些更新都会发布在ngc云平台上。这里所说的应用都是以docker容器镜像的方式提供。docker容器是一个非常有用的工具,跟虚拟机有很多相似的地方,但是容器是一个效率更高更方便的工具。

ngc云平台上所提供的资源,包括深度学习的框架以及高性能计算资源,这些软件都是以容器镜像的方式提供。比如一些搞ai研究的研究员或者数据科学家经常会在网站或者论文上看到一些新的模型,并且想要验证一下效果。但这些模型需要的一些框架不一定是现在已经在用的,或者版本也不一定有。如果要下载一个最新的版本的框架,比如caffe框架来进行测试,自己手动去安装这些软件会非常麻烦,需要安装cudnn、opencv、python等这些软件,另外还可能会存在一些版本的冲突,可能在软件部署上就会浪费一两天甚至一周的时间。而如果我们可以从ngc上去下载一个caffe版本,就可以直接把我们的模型导入进去运行,这对于我们验证和测试环境的软件都是非常有用的,当然,对于生产环境,也可以自己去部署软件。

接下来介绍一下ngc资源的使用流程。首先,免费注册并登录ngc平台(ngc.nvidia.com),登录后需要获取账号和密码,点击右上角get api key进入一个新的页面。在这个页面上点击右上角的generate api key,这时候会弹出一个要确认的信息,我们点击confirm就可以生成图4所示的账号和密码。获得账号和密码后,就可以在dgx系统中进行登录。

图5是一个范例,输入用户名和密码,需要注意的是,输入密码时不要加入空格,显示登录成功后,就可以输入我们需要下载应用软件的一些下载命令,输入 “docker pull nvcr.io/nvidia/caffe:18.09-py3”命令,这些应用的下载都非常简单,按照这张图中的操作步骤就可以完成下载,使用也非常方便。

dgx系统快速上手的最佳攻略

那么如何用好dgx系统呢?首先要用好v100的混合精度计算性能,在前面我们已经介绍了tensor core,可以支持混合精度的计算,也就是上图左上角的混合精度矩阵的乘加计算。有很多用户反映,他们买了dgx-1后发现和相同数量gpu p100相比,性能也没有特别大的提升。后来发现他们用的是单精度做训练,也就是将p100上运行的代码直接拿到dgx-1上运行,而并没有做修改,这样一来还是单精度的训练,并不会自动使用混合精度。

为了用好v100的混合精度计算性能,我们需要在源代码上做一些小的修改。比如在做训练时,需要把有些权重副本、梯度或者激活值等变量改为半精度fp16,可以提高它的计算速度,还可以减小内存的占用。在更新权重时,我们把它强制转化为fp32的单精度,可以保证训练模型的精度不会下降,因此在采用了一些小的修改后,再去做一些训练的计算才会获得比较高的计算速度。

缩短数据读写的时间也是提高计算速度比较重要的一点。在训练时都需要从网络文件系统读写数据,通常延时会比较大,因此dgx-1会配置文件系统的缓存功能,将数据缓存到系统的本地,而这一点不需要用户考虑,系统会自动配置好。当然有些用户会自己把数据拷贝到本地,这也是一个不错的办法。另外,由于本地ssd配置为raid 0,它的可靠性比较低,因此不建议将重要数据长期存放在缓存里面,这将会很不安全。

在搭建gpu集群的时候,网络不一定是infiniband类型,经常会遇到40gb的以太网,这时我们可以将dgx-1的网络接口切换为以太网模式,这样就可以接入到40gb的以太网络环境中。

充分利用nvlink网络通信的功能也是用好dgx一个很重要的点。如果使用普通的mpi模式进行通信,gpu之间采用pcie,它的通信效率会比较低。为了采用nvlink通信,我们可以使用nccl库,在horovod软件中集成了nvidia nccl库,它是一个采用的如右边这张图的算法,这个算法是百度最先提出来的。

从左边图上我们可以看到普通的tensorflow并行和horovod相比,gpu卡越多性能差距越明显,因此我们建议,在做多gpu并行或者多节点并行时,使用nccl库作为通讯方式。另外,我们在ngc平台上提供的深度学习框架的资源中也已经集成了nccl库,因此建议大家尽量使用ngc中的深度学习框架资源。

nvidia dgx服务器和工作站是软硬一体的产品,而且软件和硬件都出自nvidia,可以给用户提供一个高性能、高可靠的系统,提供完善的软件和硬件服务,包括故障处理、性能调优、应用移植等。nvidia有强大的ai专家团队,也可以快速解决大家在使用过程中的问题,提供一些ai算法等层面的支持。这对大家节省时间、快速迭代、缩短产品研发周期也是非常有帮助的,这也是nvidia服务的优势。

dgx系统各行业应用案例

吴强:dgx在互联网行业的应用,比如美国社交网络公司facebook,去年采购了几百台dgx-1用于deep text和图像识别等。我们也知道,facebook可以识别很多用户的政治倾向等方面的信息,同时他们也有很大的能力去做更多各种各样的分析。

dgx在智慧城市领域的应用,中国第一台dgx-1是海康威视所采购的,海康威视是全世界最大的监控设备厂商,他们使用dgx训练神经网络,但在识别时会用到另外的边缘服务器,同时还不是通用的pcie卡,而是用tegra x2,多个tegra x2集成到一块卡中,并插在一个比较小的前端边缘服务器上。

dgx在初创公司的应用,face++在使用大量的dgx和传统的pcie服务器结合应用于在智能监控领域。商汤科技采用dgx用于人脸识别、车辆识别等。商汤科技在第一批dgx产生时就和nvidia有合作了。另外还有国内非常著名的手机厂商,他们也采用dgx用于数据分析或语音识别等。

dgx在教育科研行业的应用,以冷冻电镜为例,使用relion gpu版,可以帮他们缩短分析计算的时间和成本。而国外用的最多的是美国的橡树岭国家实验室,它和ibm公司合作使用dgx打造了超级计算机summit,总共有4608个节点,它的计算性能比神威·太湖之光还高一倍,其中nvidia v100的性能占据了95%的计算力。

dgx在制造业的应用,主要用在一些品质控制,比如原来有150多名检查员用眼睛去看那些产品的品质,要检查20-30分钟,如果使用dgx deeplearning的方式来取代人来做识别,可以在4分钟内完成150人接近半个小时的工作。人有时候是会疲劳的,对眼睛伤害也很大。另一方面,在机器人上不仅是dgx的应用,dgx主要负责训练,训练好的模型会用到机器人上。另外还有国内物流产业的小车等在室外做识别都会用到dgx。

dgx在医疗行业的应用,应用最多是医学影像识别。如上图所示,黄颜色是人类有经验的医师给出的诊断,浅颜色是机器进行了训练后得到诊断。比如上海长征医院,有的医生一天要看一百多个病人,将近200张片子,同时有的肺片ct是32线或者64线。在排查时,医生需要从肺的底端到顶端进行排查。尤其人到下午的时间,疲劳度各个方面都会受到比较大的影响,同时准确率也会受到一些影响。在有了机器诊断后,不仅可以降低医学影像师的工作量,对医生也有很大帮助。另外,机器可学习的种类更多,学习效率更高,因此诊断结果也会更精准。

dgx在癌症研究方面的应用,比如美国能源部下属的国家癌症研究中心有一个癌症登月计划的项目,采用了124台dgx-1,主要进行加速癌症治疗方案的研究、预测药物治疗效果和分析病人对药物的效果等。

dgx在金融行业的应用,目前几个主要的银行或者大保险公司都在使用gpu服务器,少部分已经开始使用dgx。主要用于快速处理数据,以增加对损失的评估准确率。

nvidia在汽车自动驾驶方面有很多的应用,我们公司也有自己的dgx集群,总共有660台dgx-1,其中160台用于自动驾驶领域。利用这个集群我们可以做很多的训练,比如车辆识别、人员识别、交通识别以及模拟。自从出现过一些自动驾驶事故后,nvidia就不再进行实际路况的测试,而是放到模拟环境下进行测试,在模拟情况下的学习效率也会更高。

dgx在电信行业的应用,主要用于移动边缘计算。边缘计算主要是在雾端,目的是在雾端、边缘端可以有相关的inference gpu服务器。所有物联网的设备比如红绿灯、探头、无人机vr头盔等都可以通过5g进行识别。换句话说,不再需要iot设备上的嵌入式gpu,因为5g会使网络成本变得很低,完全可以利用边缘服务器中的gpu来做inference,从而获取更好的结果。

订阅英伟达 NVIDIA 技术月刊
输入电子邮件,订阅 NVIDIA 加速计算或深度学习电子月刊
订阅