您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pytorch-lr-dropout:PyTorch中的“学习率下降”-源码

  2. pytorch-lr辍学 该仓库包含Lin等人在论文“ ”中提出的学习率下降的PyTorch实现。 要使用本文的超参数在CIFAR-10上训练ResNet34模型,请执行 python main.py --lr=.1 --lr_dropout_rate=0.5 原始代码来自回购。 它使用记录指标。 此实现不添加标准辍学。 初步结果 香草方法来自pytorch-cifar :SGD的lr=.1, momentum=.9, weight_decay=5e-4, batch_size=128 。
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:73728
    • 提供者:weixin_42130889