NVIDIA AI 计算专区
首页
|
最新资讯
|
精彩活动
|
NVIDIA AI 大讲堂
|
白皮书下载
产品推荐
知识问答
登录
注册
trtis中怎么测试我的模型最大性能?
NVIDIA高级系统架构师胡麟:
TensorRT Inference Server通过Prometheus metrics和Status API接口把性能数据都开放出来了,另外可以用perf_client实际测量跑的模型的性能。
登录查看完整答案
问题来源
使用TensorRT Inference Server加速深度学习模型的部署 | NVIDIA专场第30讲
分享至: