DLI课程福利 | NVIDIA为金融及电信行业开发者提供免费DLI课程
2020-07-12 11:23
为帮助中国企业和企业IT人士抓住容器云技术革命浪潮带来的机遇,6月9日,由企业级社区twt和红帽联合策划组织,NVIDIA等厂商共创支持的“2020容器云职业技能大赛”正式启动。作为此次大赛的共创厂商,NVIDIA携手业界顶尖伙伴的技术专家们,为金融及电信行业开发者们提供了优质的学习平台,更特别推出单次价值30美金的深度学习学院(DLI)课程,免费领取。名额有限,先到先得!
NVIDIA 深度学习学院 (DLI) 提供 AI、加速计算和加速数据科学方面的实战培训。开发者、IT 专业人员、数据科学家和研究人员都可以报名学习 DLI 课程,在云端完全配置的GPU服务器上动手实践,以了解如何在工作中应用 AI,得到经过验证的实践经验,获取所需的AI技能,并有机会获取 NVIDIA 官方培训证书。迄今为止,全球已有超过 20 万人参加了 DLI 的培训。
针对容器云技术,专家团队推荐了以下课程,同时大家也可以尝试其他感兴趣的DLI课程(课程基本都配有GPU云实验环境):
01 如何在数据中心实现AI
预备知识: 基本的企业网络、存储和数据中心运营知识
相关技术:人工智能、机器学习、深度学习、GPU硬件和软件
课程时长:4 小时
语言: 英文
本课程为传统IT人员打造,将探索AI、GPU计算、NVIDIA AI软件体系结构,以及如何在数据中心实现和扩展AI工作负载。您将学习:
--- AI在多行业的应用场景,如医疗、自动驾驶和数据中心优化
--- AI基本概念,如机器学习、深度学习、推理和训练
--- GPU历史和架构,以及GPU和CPU的区别
--- NVIDIA AI软件架构,包括框架和容器库
--- 硬件和设施规划,包括服务器、网络、存储、管理、电源和散热
完成本课程后,您将了解AI如何改变社会,以及如何将GPU计算部署到数据中心以实现这种转型。
02 使用容器实现高性能计算
完全配置的GPU实验环境:包含
预备知识:熟练使用C / C ++编程,和专业的HPC应用开发经验
工具、技术和框架: Docker, Singularity, HPC Container Maker (HPCCM)
课程时长: 2 小时
语言: 英文
学习使用容器化环境开发高性能计算(HPC)应用程序,降低代码的复杂性和可移植性,从而提高开发效率。您将:
--- 探索构建和运行Docker和Singularity容器的基础知识
--- 使用HPC Container Maker(HPCCM)以编程方式为应用程序配置复杂的、可移植的裸机HPC环境
--- 应用先进的容器构建技术,如分层容器和多阶段构建
--- 利用MPI Bandwidth和MILC等现有HPC应用程序的嵌入式容器版本
完成本课程后,您将能够快速构建和使用Docker,Singularity容器和HPCCM,以便在您的HPC应用程序中实现可移植的裸机性能。
03 使用TensorRT优化和部署TensorFlow模型
完全配置的GPU实验环境:包含
预备知识: TensorFlow 和 Python 应用经验
工具、技术和框架: TensorFlow, Python, TensorRT (TF-TRT)
课程时长:2小时
语言: 中文
学习使用内置TensorRT库(TF-TRT)和Python在TensorFlow平台中生成高性能深度学习模型的基础知识。将探索:
--- 如何预处理分类模型,冻结图和权值以进行优化
--- 熟悉使用FP32、FP16和INT8进行图形优化和量化的基本原理
--- 使用TF-TRT API优化子图并选择最适合您的模型的优化参数
--- 在Python中设计和嵌入定制操作,以减少非支持层问题,并优化检测模型
完成本课程之后,您将了解如何利用TF-TRT来实现可部署的优化模型。
04 使用RAPIDS加速数据科学工作流
完全配置的GPU实验环境:包含
预备知识: 具有Pandas、NumPy和scikit-learn 高阶技能
课程时长:2小时
语言: 中文
通过开源RAPIDS项目,数据科学家可以用GPU对他们的数据科学和分析应用实现端到端的加速,突破传统的仅基于CPU工作流的技术限制,并可以实现巨大的性能提升。通过以下课程,学习如何用GPU加速数据科学应用程序:
--- 使用关键的RAPIDS库,如cuDF(支持GPU的Pandas数据帧)和cuML(GPU加速的机器学习算法)
--- 学习基于GPU加速创建的快速迭代周期的端到端数据科学的技术和方法
--- 了解CPU驱动和GPU驱动的数据科学之间的关键差异,包括API特性和重构的最佳实践
完成本课程后,您将能够重构现有的仅基于CPU的数据科学工作负载以实现在GPU上更快运行,并从零开始编写加速的数据科学工作流程。
除此之外,更有海量人工智能应用开发技能课程(课程基本都配有GPU云实验环境)可选,还在等什么?快来扫描下方二维码申请!
NVIDIA 深度学习学院 (DLI) 提供 AI、加速计算和加速数据科学方面的实战培训。开发者、IT 专业人员、数据科学家和研究人员都可以报名学习 DLI 课程,在云端完全配置的GPU服务器上动手实践,以了解如何在工作中应用 AI,得到经过验证的实践经验,获取所需的AI技能,并有机会获取 NVIDIA 官方培训证书。迄今为止,全球已有超过 20 万人参加了 DLI 的培训。
针对容器云技术,专家团队推荐了以下课程,同时大家也可以尝试其他感兴趣的DLI课程(课程基本都配有GPU云实验环境):
01 如何在数据中心实现AI
预备知识: 基本的企业网络、存储和数据中心运营知识
相关技术:人工智能、机器学习、深度学习、GPU硬件和软件
课程时长:4 小时
语言: 英文
本课程为传统IT人员打造,将探索AI、GPU计算、NVIDIA AI软件体系结构,以及如何在数据中心实现和扩展AI工作负载。您将学习:
--- AI在多行业的应用场景,如医疗、自动驾驶和数据中心优化
--- AI基本概念,如机器学习、深度学习、推理和训练
--- GPU历史和架构,以及GPU和CPU的区别
--- NVIDIA AI软件架构,包括框架和容器库
--- 硬件和设施规划,包括服务器、网络、存储、管理、电源和散热
完成本课程后,您将了解AI如何改变社会,以及如何将GPU计算部署到数据中心以实现这种转型。
02 使用容器实现高性能计算
完全配置的GPU实验环境:包含
预备知识:熟练使用C / C ++编程,和专业的HPC应用开发经验
工具、技术和框架: Docker, Singularity, HPC Container Maker (HPCCM)
课程时长: 2 小时
语言: 英文
学习使用容器化环境开发高性能计算(HPC)应用程序,降低代码的复杂性和可移植性,从而提高开发效率。您将:
--- 探索构建和运行Docker和Singularity容器的基础知识
--- 使用HPC Container Maker(HPCCM)以编程方式为应用程序配置复杂的、可移植的裸机HPC环境
--- 应用先进的容器构建技术,如分层容器和多阶段构建
--- 利用MPI Bandwidth和MILC等现有HPC应用程序的嵌入式容器版本
完成本课程后,您将能够快速构建和使用Docker,Singularity容器和HPCCM,以便在您的HPC应用程序中实现可移植的裸机性能。
03 使用TensorRT优化和部署TensorFlow模型
完全配置的GPU实验环境:包含
预备知识: TensorFlow 和 Python 应用经验
工具、技术和框架: TensorFlow, Python, TensorRT (TF-TRT)
课程时长:2小时
语言: 中文
学习使用内置TensorRT库(TF-TRT)和Python在TensorFlow平台中生成高性能深度学习模型的基础知识。将探索:
--- 如何预处理分类模型,冻结图和权值以进行优化
--- 熟悉使用FP32、FP16和INT8进行图形优化和量化的基本原理
--- 使用TF-TRT API优化子图并选择最适合您的模型的优化参数
--- 在Python中设计和嵌入定制操作,以减少非支持层问题,并优化检测模型
完成本课程之后,您将了解如何利用TF-TRT来实现可部署的优化模型。
04 使用RAPIDS加速数据科学工作流
完全配置的GPU实验环境:包含
预备知识: 具有Pandas、NumPy和scikit-learn 高阶技能
课程时长:2小时
语言: 中文
通过开源RAPIDS项目,数据科学家可以用GPU对他们的数据科学和分析应用实现端到端的加速,突破传统的仅基于CPU工作流的技术限制,并可以实现巨大的性能提升。通过以下课程,学习如何用GPU加速数据科学应用程序:
--- 使用关键的RAPIDS库,如cuDF(支持GPU的Pandas数据帧)和cuML(GPU加速的机器学习算法)
--- 学习基于GPU加速创建的快速迭代周期的端到端数据科学的技术和方法
--- 了解CPU驱动和GPU驱动的数据科学之间的关键差异,包括API特性和重构的最佳实践
完成本课程后,您将能够重构现有的仅基于CPU的数据科学工作负载以实现在GPU上更快运行,并从零开始编写加速的数据科学工作流程。
除此之外,更有海量人工智能应用开发技能课程(课程基本都配有GPU云实验环境)可选,还在等什么?快来扫描下方二维码申请!