TensorFlow 2.0现已上线,与TensorRT集成更紧密
2019-10-12 10:23
#TensorFlow #TensorRT 分享到微信 分享到微博
为帮助开发人员构建具有可扩展性的机器学习应用程序,Google发布了TensorFlow 2.0——这是用于训练深度学习模型的核心开源库之一。
使用此版本,开发人员可以在NVIDIA Volta和Turing GPU上使用混合精度以获得高达3倍的训练性能提升。
新版本的TensorFlow2.0与TensorRT更紧密地相集成,TensorRT是NVIDIA所推出的的高性能深度学习推理优化器,通常用于基于ResNet-50和BERT的应用程序。使用TensorRT和TensorFlow 2.0,开发人员可以在推理上实现高达7倍的加速。
此更新还包括一个经过改进的API,使TensorFlow变得更加易于使用;同时,当用户在Google Cloud上的NVIDIA T4 GPU上进行推理时,可以获得更高的性能表现。
“TensorFlow 2.0让开发机器应用程序变得更加容易,”TensorFlow团队表示,“TensorFlow 2.0将Keras紧密集成到TensorFlow中,默认情况下为贪婪执行(eager execution),并执行Pythonic函数,这使得Python开发人员对应用程序开发倍感熟悉。”
Tensorflow团队表示,对于多GPU应用,开发人员只需对Keras的Model.fit和自定义训练循环进行很少的代码更改,就可以使用分发策略API(Distribution Strategy API )分发训练。
如果您希望从TensorFlow 1.x迁移到2.0,TensorFlow团队已经发布了一个操作指南来帮助您如何迁移。
使用此版本,开发人员可以在NVIDIA Volta和Turing GPU上使用混合精度以获得高达3倍的训练性能提升。
新版本的TensorFlow2.0与TensorRT更紧密地相集成,TensorRT是NVIDIA所推出的的高性能深度学习推理优化器,通常用于基于ResNet-50和BERT的应用程序。使用TensorRT和TensorFlow 2.0,开发人员可以在推理上实现高达7倍的加速。
此更新还包括一个经过改进的API,使TensorFlow变得更加易于使用;同时,当用户在Google Cloud上的NVIDIA T4 GPU上进行推理时,可以获得更高的性能表现。
“TensorFlow 2.0让开发机器应用程序变得更加容易,”TensorFlow团队表示,“TensorFlow 2.0将Keras紧密集成到TensorFlow中,默认情况下为贪婪执行(eager execution),并执行Pythonic函数,这使得Python开发人员对应用程序开发倍感熟悉。”
Tensorflow团队表示,对于多GPU应用,开发人员只需对Keras的Model.fit和自定义训练循环进行很少的代码更改,就可以使用分发策略API(Distribution Strategy API )分发训练。
如果您希望从TensorFlow 1.x迁移到2.0,TensorFlow团队已经发布了一个操作指南来帮助您如何迁移。