文件名称:
yolov4-triton-tensorrt:该存储库将YOLOv4作为优化的TensorRT引擎部署到Triton Inference Server-源码
开发工具:
文件大小: 365kb
下载次数: 0
上传时间: 2021-03-21
详细说明:使用TensorRT的Triton Inference Server上的YOLOv4
该存储库展示了如何将YOLOv4作为优化的引擎部署到 。
Triton Inference Server具有许多现成的优势,可用于模型部署,例如GRPC和HTTP接口,在多个GPU上自动调度,共享内存(甚至在GPU上),运行状况度量和内存资源管理。
TensorRT将通过融合层并为我们的特定硬件选择最快的层实现来自动优化模型的吞吐量和延迟。我们将使用TensorRT API从头开始生成网络,并将所有不支持的图层添加为插件。
构建TensorRT引擎
除了运行中的具有GPU支持的docker环境外,不需要运行此代码的依赖项。我们将在TensorRT NGC容器内运行所有编译,以避免必须本地安装TensorRT。
运行以下命令以获取带有我们的回购代码的可运行TensorRT容器:
cd yourwork
(系统自动生成,下载前可以参看下载内容)
下载文件列表
相关说明
- 本站资源为会员上传分享交流与学习,如有侵犯您的权益,请联系我们删除.
- 本站是交换下载平台,提供交流渠道,下载内容来自于网络,除下载问题外,其它问题请自行百度。
- 本站已设置防盗链,请勿用迅雷、QQ旋风等多线程下载软件下载资源,下载后用WinRAR最新版进行解压.
- 如果您发现内容无法下载,请稍后再次尝试;或者到消费记录里找到下载记录反馈给我们.
- 下载后发现下载的内容跟说明不相乎,请到消费记录里找到下载记录反馈给我们,经确认后退回积分.
- 如下载前有疑问,可以通过点击"提供者"的名字,查看对方的联系方式,联系对方咨询.