您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. yolov3.zip

  2. YOLO 仅仅使用卷积层,这种仅适用卷基层的网络我们称之为全卷积神经网络(Fully Convolutional Network)。YOLO 拥有 75 个卷积层,还有 skip connections 和 上采样 Upsampling 层。它使用步幅为 2 的卷积层对特征图进行下采样,而不是使用池化层,这有助于防止通常由池化导致的低级特征丢失。 作为 FCN,YOLO 对于输入图像的大小并没有要求。然而,在实践中,我们可能想要固定输入的大小,以防止后续一些问题的出现。这其中的一个重要原因是:
  3. 所属分类:深度学习

    • 发布日期:2019-10-08
    • 文件大小:229638144
    • 提供者:bageer707
  1. Pytorch上下采样函数--interpolate用法

  2. 主要介绍了Pytorch上下采样函数--interpolate用法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:59392
    • 提供者:weixin_38519681
  1. pytorch随机采样操作SubsetRandomSampler()

  2. 这篇文章记录一个采样器都随机地从原始的数据集中抽样数据。抽样数据采用permutation。 生成任意一个下标重排,从而利用下标来提取dataset中的数据的方法 需要的库 import torch 使用方法 这里以MNIST举例 train_dataset = dsets.MNIST(root='./data', #文件存放路径 train=True, #提取训练集 transform=transforms.ToTensor(),
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:74752
    • 提供者:weixin_38617196
  1. pytorch进行上采样的种类实例

  2. 1、其中再语义分割比较常用的上采样: 其实现方法为: def upconv2x2(in_channels, out_channels, mode='transpose'): if mode == 'transpose': # 这个上采用需要设置其输入通道,输出通道.其中kernel_size、stride # 大小要跟对应下采样设置的值一样大小。这样才可恢复到相同的wh。这里时反卷积操作。 return nn.ConvTranspose2d( in_channels,
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:41984
    • 提供者:weixin_38734200
  1. BossNAS:老板NAS-源码

  2. 老板NAS 该存储库包含PyTorch评估代码,再培训代码和我们的论文预训练模型: BossNAS:通过逐块智能自我监督神经体系结构搜索探索混合CNN变压器。 [ ] 训练与合奏引导的暹罗超网的插图。 具有灵活下采样位置的类似织物的混合CNN变压器搜索空间的图示。 我们的结果和训练有素的模型 以下是我们搜索的模型的摘要: 模型 MAdds 步进时间 前1名(%) 前5 (%) 网址 没有SE的BossNet-T0 3.4B 101毫秒 80.5 95.0 BossNet-T0
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:174080
    • 提供者:weixin_42132354
  1. RealSR:通过内核估计和噪声注入实现真实世界的超分辨率-源码

  2. RealSR 通过内核估计和噪声注入实现真实世界的超分辨率 纪小中,曹云,泰英,王成杰,李吉林和黄飞跃 腾讯优途实验室 我们的解决方案在两个赛道上均获得了CVPR NTIRE 2020真实世界超高分辨率挑战赛的冠军。 (官方PyTorch实施) 更新-2020年9月2日 培训代码可从 更新-2020年5月26日 添加模型。 提供了基于。在Windows / Linux / macos上测试您自己的图像。有关更多详细信息,请参见 用法./realsr-ncnn-vulkan -i in.jpg
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:14680064
    • 提供者:weixin_42160278
  1. NeuralCDE:“不规则时间序列的神经控制微分方程”的代码-源码

  2. 神经控制微分方程用于不规则时间序列[ , ] 基于对受控微分方程的深入理解的数学理论,我们演示了如何构建以下模型: 直接作用于不规则采样的部分观测的多元时间序列。 可能会进行记忆有效的伴随反向传播训练-即使是跨观测也是如此。 展示最先进的性能。 使用现有工具(尤其是PyTorch和库)可以轻松实现和评估它们。 图书馆 参见 。 例子 我们鼓励您看一下 ,它演示了如何使用该库来训练Neural CDE模型来预测螺旋的手征性。 有关如何处理可变长度输入,不规则采样或丢失数据的演示,另请参见 ,所
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:275456
    • 提供者:weixin_42116585
  1. PyTorch_YOLOv4:YOLOv4的PyTorch实现-源码

  2. YOLOv4 这是PyTorch实施这是基于 。 。 开发日志 扩张 2021-01-26设计蒙版的2021-01-26 。 2021-01-25设计旋转增强。 2021-01-23设计拼贴增强。 2021-01-22支持 , 。 2021-01-22支持 。 2021-01-19支持实例细分。 2021-01-17支持基于免锚的方法。 2021-01-14支持联合检测和分类。 2020-01-02年1 2020-01-02 -设计基于和的新模型。 2020-12-22支
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:1048576
    • 提供者:weixin_42128676
  1. deep-reinforcement-learning-atari-pong:强化学习DQN算法的PyTorch在OpenAI Atari Pong游戏中的应用-源码

  2. Atari Pong中的深度强化学习算法 概括 此应用程序的目标是找出深度Q学习(DQN)在OpenAI环境中对Pong的Atari 1600游戏有多准确和有效。 在DQN之上,测试了对相同算法的其他改进,包括多步DQN,Double DQN和Dueling DQN。 从下图可以看出,基本DQN仅需玩约110场游戏即可达到类似于人的准确性,而经过300场游戏即可达到极高的准确性。 此项目中考虑的DQN改进版本显示出效率和准确性方面的一些改进。 基本DQN:第1集与第216集 环保环境 Atar
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:1048576
    • 提供者:weixin_42125867
  1. PCT:Jittor实施PCT-源码

  2. PCT:点云变压器 这是PCT的Jittor实现:点云变压器。 论文链接: : 摘录 规则域的不规则和缺乏排序使设计用于点云处理的深度神经网络具有挑战性。 本文提出了一种用于点云学习的新颖框架Point Point Transformer(PCT)。 PCT基于Transformer,在自然语言处理方面取得了巨大的成功,并在图像处理方面显示出巨大的潜力。 它本质上是置换不变的,可以处理一系列点,使其非常适合点云学习。 为了更好地捕获点云中的本地上下文,我们在最远点采样和最近邻居搜索的支持下
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:330752
    • 提供者:weixin_42119866
  1. interpolate-tensoriterator:使用TensorIterator进行原型火炬插值-源码

  2. 使用TensorIterator进行原型火炬插值 FMassa的代码: : 目标 使用TensorIterator进行ND下采样/​​上采样,模式:线性,最近,三次 基准实现与原始pytorch的实现 改进以前的算法 第6步:回到基础知识(Francisco排名第5) 使用较旧的编译器(如gcc 5.4)测试代码 检查汇编代码 专业化技巧: : 探索C10_RESTRICT: ://en.wikipedia.org/wiki/Restrict 发展 点击这里了解详情docker
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:161792
    • 提供者:weixin_42115003
  1. 扩张:使用Pytorch进行扩张-源码

  2. 用Pytorch进行扩张 0.开发环境 1.解释实施 2. “通过膨胀卷积进行多尺度上下文聚合”的摘要 2.1。 目标 提高语义分割的性能 2.2。 直觉 前端模块:防止严重的中间下采样 上下文模块:响应多尺度分辨率图像 2.3。 评估指标 平均交集 2.4。 前端模块 DCNN:改良的VGG-16 删除最后2个合并和跨步层 对于每个被消融的合并层,所有后续层中的卷积都以2的倍数进行扩展 紧随两个消融池化层的最终层中的卷积被放大4倍 删除中间要素贴图的填充 2.5。 上下文模块 2.6。 PA
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:39936
    • 提供者:weixin_42165018
  1. mnasnet-pytorch:MNASNET的PyTorch实现-源码

  2. 训练自己的MNASNET 动机 我们试图从实现这个MNASNET网络从头开始-并未能实现与我们所用的方法所要求的精度。 嗯,可能这就是为什么在Cadene的存储库中,仅从TF NASNET移动版的原因? 好吧,很高兴知道ImageNet上的培训网络并不像听起来那样简单。 即使我们未能在MNASNET上达到75-76%的top1精度要求,我们仍然相信最有可能的是训练方法(?)。 根据我们在各种培训制度下的经验,这些网络似乎在最高精度上达到了35-40%的峰值。 同样,也许我们应该等待15-30个
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:299008
    • 提供者:weixin_42127754
  1. PyTorch CNN实战之MNIST手写数字识别示例

  2. 简介 卷积神经网络(Convolutional Neural Network, CNN)是深度学习技术中极具代表的网络结构之一,在图像处理领域取得了很大的成功,在国际标准的ImageNet数据集上,许多成功的模型都是基于CNN的。 卷积神经网络CNN的结构一般包含这几个层: 输入层:用于数据的输入 卷积层:使用卷积核进行特征提取和特征映射 激励层:由于卷积也是一种线性运算,因此需要增加非线性映射 池化层:进行下采样,对特征图稀疏处理,减少数据运算量。 全连接层:通常在CNN的
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:121856
    • 提供者:weixin_38699757
  1. Pytorch上下采样函数–interpolate用法

  2. 最近用到了上采样下采样操作,pytorch中使用interpolate可以很轻松的完成 def interpolate(input, size=None, scale_factor=None, mode='nearest', align_corners=None): r 根据给定 size 或 scale_factor,上采样或下采样输入数据input. 当前支持 temporal, spatial 和 volumetric 输入数据的上采样,其shape 分别为:3-D, 4-D
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:61440
    • 提供者:weixin_38731226