您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. python3.6 tensorrt替换包

  2. 由于tensorrt不支持python3.6,这个文件替换了相关pythonapi,支持python3.6安装和使用,但是可能不太稳定,暂时还没遇到bug
  3. 所属分类:深度学习

    • 发布日期:2018-12-29
    • 文件大小:1048576
    • 提供者:weixin_43842032
  1. TensorRT-Installation-Guide.pdf

  2. 如题,英伟达TX2开发板TensorRTan安装使用说明书
  3. 所属分类:深度学习

    • 发布日期:2019-07-24
    • 文件大小:1048576
    • 提供者:qq_29591593
  1. 带tensorRT的paddle1.70-gpu版本whl安装包

  2. 由于百度paddle官方提供的whl安装包没有包含tensorrt,需要自己从源码编译较为麻烦,这里我提供自己编译好的带tensorrt的whl安装包,大家可以不必编译而直接pip install 安装就行了。此版本为paddle1.70-gpu版本,并且带tensorRT,可以测试开启tensorrt后的加速效果
  3. 所属分类:深度学习

    • 发布日期:2020-04-21
    • 文件大小:170917888
    • 提供者:info_black_hole
  1. 带tensorrt的paddle1.70-gpu whl安装包

  2. 由于百度paddle官方提供的whl安装包没有包含tensorrt,需要自己从源码编译较为麻烦,这里我提供自己编译好的带tensorrt的whl安装包,大家可以不必编译而直接pip install 安装就行了。此版本为paddle1.70-gpu版本,并且带tensorRT,可以测试开启tensorrt后的加速效果
  3. 所属分类:深度学习

    • 发布日期:2020-04-21
    • 文件大小:177209344
    • 提供者:info_black_hole
  1. 基于NVIDIA jetson平台Torch安装教程 +Jetson-Inference使用

  2. 基于NVIDIA jetson平台Torch安装教程 +Jetson-Inference使用, 老实说,这是我最喜欢的一部分了,最近沉迷于寻找各种用于不同阶段的加速工具,jetson平台的TensorRT属于“推理阶段加速”,也是比较实用的一种加速,之后找个时间我会专门写一节总结,介绍各种加速工具给你,这里就不多说了。 这本书中关于使用TensorRT的部分比较坑,有很多东西我没有顺利安装。这里总结一下我最后成功方法。
  3. 所属分类:深度学习

    • 发布日期:2020-09-06
    • 文件大小:6144
    • 提供者:baidu_28109521
  1. TensorRT-7.0.0.11.Ubuntu-16.04.x86_64-gnu.cuda-10.0.cudnn7.6.tar.gz

  2. TensorRT7.0+ubuntu16.04+cuda10.0+cudnn7.6.5 tar.gz安装包
  3. 所属分类:深度学习

    • 发布日期:2020-12-07
    • 文件大小:744488960
    • 提供者:qq_37364639
  1. TensorRT安装

  2. TensorRT安装以及相关配置 看到很多tensorrt安装教程有一些问题,所以我安装完后写这篇记录并分享一下. 1.下载tar包 TensorRT官方API提供了四种安装方式,建议下载tar包进行安装。下载地址https://developer.nvidia.com/tensorrt 2. 安装TensorRT 2.1 解压 tar xzvf TensorRT-6.0.1.5..-gnu.cuda-10.1.cudnn7.x.tar.gz 2.2 添加环境变量 $ vim ~/.bashr
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38706294
  1. TensorRT安装

  2. TensorRT安装以及相关配置 看到很多tensorrt安装教程有一些问题,所以我安装完后写这篇记录并分享一下. 1.下载tar包 TensorRT官方API提供了四种安装方式,建议下载tar包进行安装。下载地址https://developer.nvidia.com/tensorrt 2. 安装TensorRT 2.1 解压 tar xzvf TensorRT-6.0.1.5..-gnu.cuda-10.1.cudnn7.x.tar.gz 2.2 添加环境变量 $ vim ~/.bashr
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38616809
  1. Pytorch2TensorRT:pytorch原始码解析生成tensorrt引擎-源码

  2. Atlab SDK团队推理库 运行环境 参考Dockerfile 安装 git clone --recursive https://github.com/huajianni666/Pytorch2TensorRT.git && cd Pytorch2TensorRT wget http://pq16f3soz.bkt.clouddn.com/Pytorch2Trt3rdparty.zip unzip Pytorch2Trt3rdparty.zip && rm Pytorch2Trt3rdpart
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:518144
    • 提供者:weixin_42140710
  1. yolov4-triton-tensorrt:该存储库将YOLOv4作为优化的TensorRT引擎部署到Triton Inference Server-源码

  2. 使用TensorRT的Triton Inference Server上的YOLOv4 该存储库展示了如何将YOLOv4作为优化的引擎部署到 。 Triton Inference Server具有许多现成的优势,可用于模型部署,例如GRPC和HTTP接口,在多个GPU上自动调度,共享内存(甚至在GPU上),运行状况度量和内存资源管理。 TensorRT将通过融合层并为我们的特定硬件选择最快的层实现来自动优化模型的吞吐量和延迟。我们将使用TensorRT API从头开始生成网络,并将所有不支持的
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:373760
    • 提供者:weixin_42123296
  1. volksdep:volksdep是一个开源工具箱,可通过TensorRT部署和加速PyTorch,ONNX和TensorFlow模型-源码

  2. 介绍 volksdep是一个开源工具箱,用于通过TensorRT部署和加速PyTorch,ONNX和TensorFlow模型。 特征 自动转换和加速volksdep可以使用TensorRT并仅需少量代码即可加速PyTorch,ONNX和TensorFlow模型。 吞吐量,延迟和指标的基准使用给定的模型,volksdep可以生成吞吐量,延迟和度量的基准。 执照 该项目是在下。 安装 要求 Linux Python 3.6或更高版本 TensorRT 7.1.0.16或更高版本 PyTorch 1
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:22528
    • 提供者:weixin_42131261
  1. tensorrt_inference-源码

  2. TensorRT模型从ONNX部署 安装依赖 参见 从Docker构建 docker build -t tensorrt_inference:0.1.0_rc . 支持的型号 楷模 框架 操作说明 火炬 从模型训练到TensorRT模型部署的示例 MXNet Gluon MXNet Gluon示例 MXNet符号 MXNet符号和面部识别示例 昂尼克斯 重写ONNX模型和人脸检测示例 凯拉斯 Keras到ONNX的示例 MXNet符号 MXNet符号和面部关键点检测示例 GluonCV
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:16777216
    • 提供者:weixin_42131790
  1. YOLOv3-Torch2TRT:将YOLOv3和YOLOv3-tiny(PyTorch版本)转换为TensorRT模型-源码

  2. YOLOv3-Torch2TRT 介绍 通过torch2trt Python API将YOLOv3和YOLOv3-tiny(PyTorch版本)转换为TensorRT模型。 安装 克隆仓库 git clone https://github.com/DocF/YOLOv3-Torch2TRT.git 下载预先训练的体重 $ cd weights/ $ bash download_weights.sh 要求 需要两个特殊的Python包: 张量 火炬2trt 由于YOLO中的升采样操作,根据to
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:5242880
    • 提供者:weixin_42102933
  1. centerX:此仓库基于detectron2和centernet实现-源码

  2. 该回购是基于实现和 什么是新的 支持数据扩充 支持 支持知识提要,师生,由我自己设计 支持其他LR_SCHEDULER 支持Optimizer ,而不是COCO中的收敛 我们提供了一些示例和脚本,用于在中将centerX转换为Caffe,ONNX和TensorRT格式 即将发生什么 [ :check_mark: ]支持简单推断 [ :check_mark: 对caffe,onnx,tensorRT的支持 支持重点 要求 Python> = 3.7 PyTorch> =
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:221184
    • 提供者:weixin_42116681
  1. CenterNet_TensorRT_CPP:计划通过TensorRT加速完成CenterNet的cpp预处理版本-源码

  2. CenterNet_TensorRT_CPP 更新 2020.2.20更新bbox 2020.2.19更新可以为DCNv2生成引擎,webcam_demo测试OK速度有点慢约500ms 介绍 计划完成CenterNet的基本TensorRT版本上JetsonNano工作 大部分主要代码来自 我更改了一些以在JetsonNano上运行的方法,仍然有许多地方需要改进。 仍在进行中...。 环境 带有CSI摄像头的Nvidia Jetson Nano TensorRT 5.1.2.6 Onnx模
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:4194304
    • 提供者:weixin_42164702
  1. ssds.pytorch:单发MultiBox检测器及其变体的存储库,通过pytorch,python3实现-源码

  2. ssds.pytorch 适用于pytorch,python3的Single Shot MultiBox Detector及其变体的存储库。 此存储库易于设置,并具有大量可视化方法。 我们希望此回购协议可以帮助人们更好地理解类似ssd的模型,并帮助人们轻松地训练和部署ssds模型。 当前,它包含以下功能: 多种SSD变体:ssd,fpn,bifpn,yolo等 多基础网络:resnet,regnet,mobilenet等。 可视化类似于ssd的模型的功能,以帮助用户了解模型的设计和性能。
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:1048576
    • 提供者:weixin_42106765
  1. ros_deep_learning_project-源码

  2. ROS / ROS2的深度学习节点 此存储库包含ROS / ROS2的深度学习推理节点和相机/视频流节点,并支持Jetson Nano / TX1 / TX2 / Xavier NX / AGX Xavier和TensorRT。 节点使用来自库和NVIDIA 教程的图像识别,对象检测和语义分割DNN,它们带有几个内置的预训练网络,用于分类,检测和分割,并能够加载自定义用户训练的模型。 摄像机/视频流节点支持以下输入/输出接口: MIPI CSI相机 V4L2相机 RTP / RTSP 影
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:84934656
    • 提供者:weixin_42121412
  1. iAI:保姆级深度学习从入门到放弃,٩◔̯◔۶-源码

  2. Ubuntu平台上的AI AI实验环境搭建和深度学习算法 安装环境其他平台环境类似 硬件: ROG MAXIMUS XII HERO (WI - FI) / NVIDIA GTX 2080TI / DDR4 64 G 3600 / SSD 2T / HDD 4 T 系统: Ubuntu - 16.04 - 64 bit / Ubuntu-18.04-64bit / Windows 10 Professional 软件: CUDA9. 0 - CUDA11. 2 /cuDNN/ TensorRT
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:356515840
    • 提供者:weixin_42160424
  1. ML-Model-CI:MLModelCI是一个完整的MLOps平台,用于管理,转换,分析和将模型作为云服务(MLaaS)进行部署-源码

  2. 机器学习模型CI •••••• 产品特点 管家为模型(服务)注册,删除,更新和选择提供了完善的管理。 Converter旨在将模型转换为序列化和优化的格式,以便可以将模型部署到云中。 支持Tensorflow SavedModel , ONNX , Torchscr ipt , TensorRT Profiler通过调用gRPC客户端和模型服务来模拟真实的服务行为,并提供有关生产环境中模型运行时性能(例如P99延迟和吞吐量)的详细报告。 分派器启动服务系统以容器化的方式加载模型,并将ML
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:1048576
    • 提供者:weixin_42109598
  1. vedadet:基于PyTorch的单级目标检测工具箱-源码

  2. 介绍 vedadet是基于PyTorch的单级目标检测器工具箱。 特征 模块化设计 我们根据口味和需求重新设计MMDetection。 具体来说,我们将检测器分解为四个部分:数据流水线,模型,后处理和条件,可轻松将PyTorch模型转换为TensorRT引擎并将其部署在NVIDIA设备上,例如Tesla V100,Jetson Nano和Jetson AGX Xavier等。 支持几种流行的单级检测器 该工具箱支持多种现成的单级检测器,例如RetinaNet,FCOS等。 对TensorRT
  3. 所属分类:其它

    • 发布日期:2021-04-01
    • 文件大小:1048576
    • 提供者:weixin_42133969