NVIDIA AI 计算专区
首页
|
最新资讯
|
精彩活动
|
NVIDIA AI 大讲堂
|
白皮书下载
产品推荐
知识问答
登录
注册
使用TRT对TensorFlow模型进行加速,是否有C++版本的实例分析
NVIDIA高级系统架构师胡麟:
使用TensorRT对TensorFlow模型进行加速,我们是可以用uff parser的方式来做的,关于uff parser,您可以参考我们开源的TensorRT GitHub上的example进行参考。
登录查看完整答案
问题来源
使用TensorRT Inference Server加速深度学习模型的部署 | NVIDIA专场第30讲
分享至: