-
如果某个模型的请求执行完毕了,GPU显存会释放掉吗?
NVIDIA高级系统架构师胡麟: TensorRT Inference Server可以... 全文>
-
怎么去优化引擎,可以把网络变的更快
NVIDIA高级系统架构师胡麟: 我们建议使用TensorRT 去优化网络模型,经过优化... 全文>
-
如何保证大规模语音理解和合成的准确性和响应速度?
字节跳动智能语音方向工程负责人司徒文畅 首先分解下,先从准确性上去描述,然后再说响应速度... 全文>
-
您提到的语音合成声码器部分是完全自研的,有可能介绍下吗?或者这部分成果有发表相关论文可以查阅学习下吗?
字节跳动智能语音方向工程负责人司徒文畅: 暂时没有发表论文,还处于技术保密期... 全文>
-
使用TRT对TensorFlow模型进行加速,是否有C++版本的实例分析
NVIDIA高级系统架构师胡麟: 使用TensorRT对TensorFlow模型进行加速... 全文>
-
需要的环境,适合什么样的场景?
对于GPU有什么样的要求,并发和实时的问题,还是只是用GPU建模?
NVIDIA高级系统架构师胡麟: TensorRT Inference Server在标... 全文>
-
请问达到demo里的语音识别效果大概需要多少数据?
字节跳动智能语音方向工程负责人司徒文畅: 10wh+,但具体多少不方便透露... 全文>
-
请问训练服务器用什么型号显卡?
字节跳动智能语音方向工程负责人司徒文畅: V100,1080Ti 也有,但很少... 全文>