您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. AutoAugment Learning Augmentation Policies from Data

  2. AutoAugment Learning Augmentation Policies from Data.(CVPR)论文
  3. 所属分类:深度学习

    • 发布日期:2018-06-04
    • 文件大小:973824
    • 提供者:echo_lin
  1. deep learning state of the art(MIT深度学习各领域最新突破PPT)

  2. 这是MIT系列课程之一,有关深度学习最新进展的讲座。包括BERT、特斯拉自动驾驶仪硬件中的大规模神经网络、AdaNet、AutoAugment、BigGAN等12大类。 本文所介绍的内容是MIT系列课程之一,是有关深度学习最新进展的讲座。可以说,该课程的内容定义了这个领域的最前沿的技术。 课程提纲: BERT和自然语言处理 特斯拉自动驾驶仪硬件v2+:大规模神经网络 AdaNet:集成的AutoML AutoAugment:深度强化学习数据增强 用合成数据训练深度网络 使用Polygon-RN
  3. 所属分类:深度学习

    • 发布日期:2019-01-19
    • 文件大小:4194304
    • 提供者:hsh450633367hsh
  1. Python-FastAutoAugment的官方PyTorch实现

  2. Fast AutoAugment的官方PyTorch实现
  3. 所属分类:其它

    • 发布日期:2019-08-11
    • 文件大小:91136
    • 提供者:weixin_39840650
  1. Python-FastAutoAugment轻量版自动样本扩增

  2. A specially designed light version of Fast AutoAugment
  3. 所属分类:其它

    • 发布日期:2019-08-11
    • 文件大小:437248
    • 提供者:weixin_39840588
  1. models-master.zip

  2. tensorflow官方模型库,内含attention_ocr、autoaugment、deeplab、delf、lstm_object_detection、marco、vid2depth、adversarial_text、cvt_text、audioset、deep_speech 、efficient-hrl、pcl_rl、lfads、rebar
  3. 所属分类:深度学习

    • 发布日期:2020-12-31
    • 文件大小:32505856
    • 提供者:qq_45389690
  1. Fast-AutoAug-Torch-源码

  2. 快速自动火炬 使用搜索 。还实现了和以进行比较。 此示例和将在`` CVPR 2020上的教程中使用。 模型 增加 时代 加速器 重量 ResNet-50 基准线 120 76.48 ResNet-50 机管局 120 76.66 ResNet-50 快速AA 120 76.88 ResNet-50 兰德AA 120 76.79 ResNet-50 基准线 270 77.17 ResNet-50 机管局 270 77.78 ResNet-50 快速AA 270 77
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:18432
    • 提供者:weixin_42146888
  1. AutoAugment:非官方实施的ImageNet,CIFAR 10和SVHN增强策略,这些策略是AutoAugment使用枕头获得的-源码

  2. 自动增广-从数据中学习增广策略 由介绍了通过学习的ImageNet,CIFAR10和SVHN增强策略的非官方实现。 2018年7月13日更新:写了有关自动增强和双重转移学习的文章。 代码更新:现在可以通过“ policy = ImageNetPolicy(fillcolor =(0,0,0))”来指定应用平移,旋转和剪切后的填充颜色。 当前功能似乎运行良好。 我会在得知作者的更多详细信息后立即进行更新。 2018年6月18日更新:更改了数量级和功能的订单。 现在,更高的幅度始终会以更高的强度
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:6291456
    • 提供者:weixin_42101237
  1. 快速自动化:PyTorch中“快速自动化”的正式实施-源码

  2. 快速自动增格(在NeurIPS 2019上接受) 中的官方实施。 Fast AutoAugment使用基于密度匹配的更有效的搜索策略来学习增强策略。 快速自动增格将搜索时间缩短了几个数量级,同时保持了可比的性能。 结果 CIFAR-10 / 100 搜索: 3.5 GPU小时(比AutoAugment快1428倍) ,在简化的CIFAR-10上为WResNet-40x2 型号(CIFAR-10) 基准线 剪下 自动扩音 快速自动增强(转移/直接) Wide-ResNet-40-2
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:1012736
    • 提供者:weixin_42168745
  1. 无监督数据增强:无监督数据增强的非官方PyTorch实现-源码

  2. UDA:无监督数据增强 非非官方PyTorch实现。 需要对文本数据集进行实验。 任何请求请求将不胜感激。 SVHN,使用AutoAugment的Imagenet的增强策略无法公开获得。 我们使用策略。 大多数代码来自 。 介绍 去做。 跑 $ python train.py -c confs/wresnet28x2.yaml --unsupervised 实验 Cifar10(精简版4k数据集) 复制纸的结果 WResNet 28x2 纸 我们的融合(Top1错误) 我们最好的(To
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:41984
    • 提供者:weixin_42136837
  1. open-aff:注意特征融合的代码和训练有素的模型-源码

  2. 注意特征融合 用于“注意特征融合”的MXNet / Gluon代码 到目前为止,此仓库中有什么: ImageNet的代码,训练有素的模型和训练日志 PS: 如果您是我们提交的论文的审稿人,请注意,当前实现的准确性比本文中的准确性要高一些,因为它是一个带有很多技巧的新实现。 如果您是我的学位论文评估专家,发现论文与这个repo的数字有些出入,那是因为在论文提交后我又将代码重新实现一遍遍,添加了AutoAugment,Labelinging这些技巧,因此目前这个repo中的分类准确率会比论文中的数
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:404750336
    • 提供者:weixin_42180863