超级公开课第16讲 | NVIDIA新一代图灵架构GPU Tesla T4

超级公开课第16讲 | NVIDIA新一代图灵架构GPU Tesla T4

时间:2018年12月07日 08:00
地点:智东西公开课小程序
人数:1000
活动内容
人工智能深度学习已经渗入到社会的各行各业,也切切实实地影响着我们生活的方方面面,比如新闻内容或者电商网站的个性化推送、搜索引擎、语音输入法、手机相册中的照片自动分类功能等。所有的这些背后都是ai/dl技术在支持,而支持这些ai/dl技术的背后又是一个又一个的大型数据中心。如何在大型的数据中心中部署一套有效的解决方案,来高效、灵活、低成本的支持数以亿计的日请求呢?

2018年9月13日,nvidia推出首款基于新一代图灵架构打造的gpu——tesla t4(立即免费试用),采用多精度 turing tensor core和全新 rt core,用于机器学习和数据推理。

tesla t4配备16gb gddr6,带宽达到300gb/s。gpu中集成320个turing tensor core和2560个turing cuda core,支持4 种不同精度等级的各类 ai 工作负载。性能方面,tesla t4的fp32单精度浮点计算性能8.1tflops(每秒8.1万亿次),fp16/32半精度和单精度混合计算性能65tflops,int8、int4整数计算性能则是130tops、260tops。在此之前,nvidia曾推出过类似的 tesla p4 ,但tesla t4可在相同的功耗下,提供高达 12 倍的性能。

nvidia还提供了围绕 t4 的一系列技术,比如 tensorrt hyperscale (人工智能数据中心平台)、专门针对图灵架构优化的cuda 10。t4还支持 pytorch、tensorflow、mxnet、以及 caffee2 等主流的深度学习框架。

12月7日晚8点,智东西联合nvidia推出超级公开课nvidia专场第16讲,由nvidia 中国区hpc/dl 解决方案架构师程帅主讲,主题为《基于图灵架构的tesla t4如何让ai推理更高效》。

课程信息

主题:基于图灵架构的tesla t4如何让ai推理更高效
时间:12月7日
地点:「深度学习」社群、智东西公开课小程序

课程内容

主题:基于图灵架构的tesla t4如何让ai推理更高效
讲师:nvidia 中国区hpc/dl 解决方案架构师程帅
提纲
1.当前线上推理端的困境
2.新一代硬件推理平台t4 gpu架构剖析
3.线上自动优化工具tensorrt5特性介绍
4.tensorrt inference server如何提高线上推理服务部署效率

讲师介绍

程帅,nvidia 中国区hpc/dl 解决方案架构师,在hpc和dl领域有多年的架构方案经验,支持过国内多个大型hpc 数据中心以及多家大型csp中dl集群设计。

入群路径

本次课程我们将设置主讲群,讲师将亲自入群交流。希望进入主讲群与老师认识和交流的朋友,扫描海报上的二维码添加智东西公开课联络员“动动(zhidxzb)”为好友,添加时请备注“姓名-公司-职位或姓名-学校-专业”,申请进入主讲群。

社群规则

1、智东西社群坚持实名学习、交流和合作,入群后需要修改群昵称为:姓名-公司-所在领域,违者踢群;
2、禁止在群内广告和发送二维码等无关信息,违者踢群。

订阅英伟达 NVIDIA 技术月刊
输入电子邮件,订阅 NVIDIA 加速计算或深度学习电子月刊
订阅