您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. caffe-cifar100数据集

  2. caffe默认支持cifar10,但是不支持cifar100数据集,本数据集将cifar100的python文件转换为caffe支持的lmdb文件
  3. 所属分类:深度学习

    • 发布日期:2018-12-26
    • 文件大小:168820736
    • 提供者:lulugay
  1. Python-pytorch中的基础预训练模型和数据集

  2. pytorch中的基础预训练模型和数据集 (MNIST, SVHN, CIFAR10, CIFAR100, STL10, AlexNet, VGG16, VGG19, ResNet, Inception, SqueezeNet)
  3. 所属分类:其它

    • 发布日期:2019-08-11
    • 文件大小:38912
    • 提供者:weixin_39840650
  1. cifar10_cifar100合集.zip

  2. python版本的cifar10/cifar100合集,可下载后解压到自定义路径下使用。原下载地址:http://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz,http://www.cs.toronto.edu/~kriz/cifar-100-python.tar.gz
  3. 所属分类:深度学习

    • 发布日期:2020-08-14
    • 文件大小:338690048
    • 提供者:oYeZhou
  1. cifar-100-python.zip

  2. cifar100数据集,为二进制文件;里面共有100类图像,每类各有500个训练图像和100个测试图像;还包含直接读取该二进制文件的py文件
  3. 所属分类:教育

    • 发布日期:2020-10-29
    • 文件大小:168820736
    • 提供者:caomin1hao
  1. 解决Keras自带数据集与预训练model下载太慢问题

  2. keras的数据集源码下载地址太慢。尝试过修改源码中的下载地址,直接报错。 从源码或者网络资源下好数据集,下载好以后放到目录  ~/.keras/datasets/    下面。 其中:cifar10需要改文件名为cifar-10-batches-py.tar.gz ,cifar100改为 cifar-100-python.tar.gz , mnist改为 mnist.npz 预训练models放到 ~/.keras/models/ 路径下面即可。 补充知识:Keras下载的数据集以及预训练模型
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:35840
    • 提供者:weixin_38694299
  1. cifar100-python

  2. cifar100数据集,python版本linux用
  3. 所属分类:深度学习

    • 发布日期:2021-03-21
    • 文件大小:147849216
    • 提供者:ForloveZED
  1. HyperNet:适用于ResNet的HyperNetworks的PyTorch实施(Ha等人,ICLR 2017)-源码

  2. 超网络 适用于ResNet的PyTorch实施(Ha等人,ICLR 2017)。该代码主要用于CIFAR-10和CIFAR-100,但是将其用于任何其他数据集都非常容易。将其用于不同深度的ResNet架构也非常容易。 我们使用pytorch闪电来控制整个管道。 怎么跑 python train.py --dataset {cifar10/cifar100} --gpus $num_gpu -j $num_workers --distributed_backend ddp 已过期。此回购协议已将H
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:6144
    • 提供者:weixin_42139042
  1. FixMatch-pytorch:“ FixMatch”的非官方Pytorch代码-源码

  2. FixMatch-pytorch 非官方pytorch代码 NeurIPS'20。此实现可以重现结果(CIFAR10和CIFAR100),这些结果已在本文中进行了报告。此外,它还包括具有半监督和完全监督方式的训练模型(请在下面的链接中下载)。 要求 python 3.6 pytorch 1.6.0 火炬视觉0.7.0 张量板2.3.0 枕头 结果:分类准确率(%) 除了本文中半监督学习的结果外,我们还附加了完全监督学习的额外结果(50000个标签,仅支持sup)+一致性正则化(50000个标
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:1048576
    • 提供者:weixin_42099942
  1. DDE_CIL-源码

  2. CVPR2021增量学习 该存储库用于论文“在班级增量学习中提取数据的因果效应”。 指示 依存关系 Python 3.6(推荐使用Anaconda3) 火炬0.4.0 入门 CIFAR100和ImageNet的数据放在cifar100-class-incremental/data和imagenet-class-incremental/data ,或者您可以建立到包含相应数据的目录的软链接 为utils_incremental cifar100-class-incremental和image
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:438272
    • 提供者:weixin_42127775
  1. consistency-adversarial:对抗性鲁棒性的一致性正则化-源码

  2. 对抗性鲁棒性的一致性正则化 , , , , 和进行的对抗性鲁棒一致性正则化的正式PyTorch实施。 1.依存关系 conda create -n con-adv python=3 conda activate con-adv conda install pytorch torchvision cudatoolkit=11.0 -c pytorch pip install git+https://github.com/fra31/auto-attack pip install adver
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:546816
    • 提供者:weixin_42160398
  1. tmp:tmp-源码

  2. 表彰 用法: python main_supcon . py - - batch_size 512 \ - - learning_rate 0.5 \ - - temp 0.5 \ - - cosine \ - - method SimCLR \ - - epochs 1000 \ \ - - model resnet50 \ - - dataset cifar10 \ - - imbalance_order ascent \ - - imbalanc
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:1048576
    • 提供者:weixin_42180863
  1. Variance_Reduced_Replica_Exchange_Stochastic_Gradient_MCMC:通过减少方差来加速副本交换(ICLR'21)-源码

  2. 方差减少的副本交换SGHMC 尽管在近凸问题中减小梯度方差具有优势,但理论与实践之间的自然差异是在非凸问题中是否应避免梯度噪声。 为了填补这一空白,我们仅关注于噪声能量估计量的方差减小以利用理论加速度,而不再考虑噪声梯度的方差减小,因此具有动量的随机梯度下降(M-SGD)的经验经验可以自然地进口。 要求 Python 2.7 或类似 麻木 CUDA 分类:批次大小为256的CIFAR100上的ResNet20 动量随机梯度下降(M-SGD),具有500个时期,批量为256个,学习率不断降低
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:581632
    • 提供者:weixin_42139252