点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 学习率
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
学习率衰减代码学习.zip
在训练神经网络时,使用学习率控制参数的更新速度.学习率较小时,会大大降低参数的更新速度;学习率较大时,会使搜索过程中发生震荡,导致参数在极优值附近徘徊. 为此,在训练过程中引入学习率衰减,使学习率随着训练的进行逐渐衰减。学习率衰减代码学习。
所属分类:
深度学习
发布日期:2020-04-30
文件大小:3072
提供者:
C_1_2_3
基于动态自适应学习率BP改进算法的合金收得率预测分析
基于动态自适应学习率BP改进算法的合金收得率预测分析,孙嘉阳,刘威,随着计算机科学和自动化技术的不断发展,利用计算机自动配料已成为了钢铁冶炼领域研究的一个热点问题,而合金收得率作为自动配料
所属分类:
其它
发布日期:2020-03-09
文件大小:844800
提供者:
weixin_38703277
pytorch 实现模型不同层设置不同的学习率方式
今天小编就为大家分享一篇pytorch 实现模型不同层设置不同的学习率方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:33792
提供者:
weixin_38682790
TensorFlow实现指数衰减学习率的方法
主要介绍了TensorFlow实现指数衰减学习率的方法,本文给大家介绍的非常详细,具有一定的参考借鉴价值,需要的朋友可以参考下
所属分类:
其它
发布日期:2020-09-18
文件大小:90112
提供者:
weixin_38730129
在pytorch中动态调整优化器的学习率方式
主要介绍了在pytorch中动态调整优化器的学习率方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-16
文件大小:60416
提供者:
weixin_38515270
pytorch实现查看当前学习率
主要介绍了pytorch实现查看当前学习率,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-16
文件大小:45056
提供者:
weixin_38545959
tensorflow 恢复指定层与不同层指定不同学习率的方法
今天小编就为大家分享一篇tensorflow 恢复指定层与不同层指定不同学习率的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-20
文件大小:37888
提供者:
weixin_38680492
pytorch实现查看当前学习率
在pytorch训练过程中可以通过下面这一句代码来打印当前学习率 print(net.optimizer.state_dict()[‘param_groups’][0][‘lr’]) 补充知识:Pytorch:代码实现不同层设置不同的学习率,选择性学习某些层参数 1,如何动态调整学习率 在使用pytorch进行模型训练时,经常需要随着训练的进行逐渐降低学习率,在pytorch中给出了非常方面的方法: 假设我们定义了一个优化器: import torch import torch.nn as
所属分类:
其它
发布日期:2020-12-17
文件大小:46080
提供者:
weixin_38507208
在pytorch中动态调整优化器的学习率方式
在深度学习中,经常需要动态调整学习率,以达到更好地训练效果,本文纪录在pytorch中的实现方法,其优化器实例为SGD优化器,其他如Adam优化器同样适用。 一般来说,在以SGD优化器作为基本优化器,然后根据epoch实现学习率指数下降,代码如下: step = [10,20,30,40] base_lr = 1e-4 sgd_opt = torch.optim.SGD(model.parameters(), lr=base_lr, nesterov=True, momentum=0.9) d
所属分类:
其它
发布日期:2020-12-17
文件大小:61440
提供者:
weixin_38747906
tensorflow 恢复指定层与不同层指定不同学习率的方法
如下所示: #tensorflow 中从ckpt文件中恢复指定的层或将指定的层不进行恢复: #tensorflow 中不同的layer指定不同的学习率 with tf.Graph().as_default(): #存放的是需要恢复的层参数 variables_to_restore = [] #存放的是需要训练的层参数名,这里是没恢复的需要进行重新训练,实际上恢复了的参数也可以训练 variables_to_train = [] for var in slim.get_mod
所属分类:
其它
发布日期:2020-12-25
文件大小:38912
提供者:
weixin_38575536
PyTorch学习笔记(四)调整学习率
Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. StepLR1.1 scheduler 常用的属性1.2 scheduler 常用的方法2. MultiStepLR3. ExponentialLR4. ReduceLROnPlateau5. LambdaLR 0. 写在前面 PyTorch 在 torch.optim.lr_scheduler 中
所属分类:
其它
发布日期:2020-12-21
文件大小:271360
提供者:
weixin_38526823
PyTorch学习笔记(四)调整学习率
Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. StepLR1.1 scheduler 常用的属性1.2 scheduler 常用的方法2. MultiStepLR3. ExponentialLR4. ReduceLROnPlateau5. LambdaLR 0. 写在前面 PyTorch 在 torch.optim.lr_scheduler 中
所属分类:
其它
发布日期:2020-12-21
文件大小:271360
提供者:
weixin_38692122
TensorFlow实现指数衰减学习率的方法
在TensorFlow中,tf.train.exponential_decay函数实现了指数衰减学习率,通过这个函数,可以先使用较大的学习率来快速得到一个比较优的解,然后随着迭代的继续逐步减小学习率,使得模型在训练后期更加稳定。 tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate, staircase, name)函数会指数级地减小学习率,它实现了以下代码的功能: #tf.train.ex
所属分类:
其它
发布日期:2020-12-20
文件大小:90112
提供者:
weixin_38722874
pytorch学习笔记(十五)————动量与学习率衰减
pytorch学习笔记(十五)————动量与学习率衰减目录动量学习率衰减 目录 动量 从形式上看, 动量算法引入了变量 z充当速度角色——它代表参数在参数空间移动的方向和速率。速度被设为负梯度的指数衰减平均。名称 动量(momentum),相当于引入动量前的梯度概念,指示着loss在参数空间下一步要下降的方向和大小。 其中wk+1w^{k+1}wk+1表示更新后权重;wkw^{k}wk表示更新前权重;zk+1z^{k+1}zk+1代表动量,,α表示学习率 从公式zk+1=βzk+▽f(wk)z
所属分类:
其它
发布日期:2021-01-06
文件大小:854016
提供者:
weixin_38679276
神经网络-学习率策略
神经网络-学习率策略
所属分类:
互联网
发布日期:2021-01-04
文件大小:286720
提供者:
ring__
学习率在自适应奖励学习中的作用
学习率在自适应奖励学习中的作用
所属分类:
其它
发布日期:2021-03-13
文件大小:1048576
提供者:
weixin_38711008
具有自适应学习率的深度卷积网络的人脸对齐
深度卷积网络已广泛用于人脸识别,而并不经常用于人脸对齐。 其最重要的原因之一是由于繁琐且费时的注释工作,缺少带有地标注释的训练图像。 为了克服这个问题,我们提出了一种新颖的数据扩充策略。 我们针对两个迭代过程设计了一种具有自适应学习率的创新训练算法,可帮助网络搜索最佳解决方案。 我们的卷积网络可以学习全局高级特征并直接预测面部标志的坐标。 广泛的评估表明,在复杂的遮挡,姿势,照明和表情变化的情况下,我们的方法优于最新方法。
所属分类:
其它
发布日期:2021-03-12
文件大小:655360
提供者:
weixin_38725450
Book-Recommendation-System:Book-Recommendation-System是一个基于隐语言模型的图书推荐系统。学习率的梯度下降法和亚当;根据隐语义模型的特性对图书标签进行聚类,最后使用隐式语义模型建成了一个图
图书推荐系统 图书推荐系统是一个基于隐语言模型的图书推荐系统。 数据集 MovieLens数据集: 图书交叉数据集: 主要内容 隐因子对模型的影响: 使用梯度下降法,对隐含语言模型的改进算法各算法的比较代码: _不同_推荐_模型_by_GD.ipynb 对隐语义模型的训练速度提出改进学习率的梯度下降法和亚当: 根据隐语义模型的特性对图书标签进行聚类,最后使用隐语义模型构建了一个图书推荐系统。 BSVD在图书推荐上的实现: 图书推荐系统web设计:推荐项目说明:
所属分类:
其它
发布日期:2021-03-11
文件大小:48234496
提供者:
weixin_42099906
pytorch-lr-dropout:PyTorch中的“学习率下降”-源码
pytorch-lr辍学 该仓库包含Lin等人在论文“ ”中提出的学习率下降的PyTorch实现。 要使用本文的超参数在CIFAR-10上训练ResNet34模型,请执行 python main.py --lr=.1 --lr_dropout_rate=0.5 原始代码来自回购。 它使用记录指标。 此实现不添加标准辍学。 初步结果 香草方法来自pytorch-cifar :SGD的lr=.1, momentum=.9, weight_decay=5e-4, batch_size=128 。
所属分类:
其它
发布日期:2021-03-10
文件大小:73728
提供者:
weixin_42130889
Learning-Rate-Dropout:Pytorch实现学习率下降-源码
学习率下降 Pytorch实现学习率下降。 论文链接: : 为Cifar10训练ResNet-34: 跑: python main.py --model=resnet --optim=adam_lrd --lr=0.001 --LRD_p=0.5 python main.py --model=resnet --optim=adam --lr=0.001 python main.py --model=resnet --optim=sgd_lrd --lr=0.1 --LRD_p=0.5
所属分类:
其它
发布日期:2021-03-09
文件大小:192512
提供者:
weixin_42166623
«
1
2
3
4
5
6
7
8
9
10
...
16
»