点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 动量梯度下降
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
matlab BP神经网络的动量梯度下降算法
用动量梯度下降算法训练BP网络 使用的主要函数如下: NEWFF——生成一个新的前向神经网络 TRAIN——对BP神经网络进行训练 SIM——对BP神经网络进行仿真
所属分类:
网络基础
发布日期:2009-05-09
文件大小:890
提供者:
ssshusong870713
bp神经网络实例 传递函数
BP神经网络结点及传递函数设置 例1 采用动量梯度下降算法训练 BP 网络。 训练样本定义如下: 输入矢量为 p =[-1 -2 3 1 -1 1 5 -3] 目标矢量为 t = [-1 -1 1 1]
所属分类:
网络基础
发布日期:2010-03-14
文件大小:3072
提供者:
jerseyc
bp神经网络实例:贝叶斯、梯度下降算法
采用动量梯度下降算法训练 BP 网络 采用贝叶斯正则化算法提高 BP 网络的推广能力 采用“提前停止”方法提高 BP 网络的推广能力
所属分类:
网络基础
发布日期:2010-07-09
文件大小:8192
提供者:
luorongfei_hotmail
采用动量梯度下降算法训练 BP 网络
采用动量梯度下降算法训练 BP 网络。 训练样本定义如下: 输入矢量为 p =[-1 -2 3 1 -1 1 5 -3] 目标矢量为 t = [-1 -1 1 1] 有注释
所属分类:
网络基础
发布日期:2010-12-29
文件大小:1024
提供者:
xiaoxiaofu2010
神经网络BP实例matlab源代码
例1:采用动量梯度下降算法训练 BP 网络。 例2:采用贝叶斯正则化算法提高 BP 网络的推广能力。在本例中,我们采用两种训练方法,即 L-M 优化算法(trainlm)和贝叶斯正
所属分类:
其它
发布日期:2012-11-02
文件大小:56320
提供者:
chengxuyuanhe
动量梯度下降算法训练 BP 网络 matlab代码
采用动量梯度下降算法训练 BP 网络 matlab代码
所属分类:
专业指导
发布日期:2013-12-16
文件大小:937
提供者:
nancylovejing
BP设计实例
BP神经网络的设计实例 MATLAB编程 例1 采用动量梯度下降算法训练 BP 网络 例2 采用贝叶斯正则化算法提高 BP 网络的推广能力
所属分类:
其它
发布日期:2014-12-18
文件大小:56320
提供者:
chenluna_0721
吴恩达深度学习第二课第二周作业
吴恩达深度学习第二课第二周作业,可用spyder直接运行
所属分类:
深度学习
发布日期:2018-08-15
文件大小:11264
提供者:
weixin_42604446
吴恩达深度学习课程第二课第二周编程作业
该文件包含吴恩达深度学习课程第二课第二周编程作业的完整库文件和源代码,实现了小批量梯度下降、动量梯度下降、adam算法等等。
所属分类:
深度学习
发布日期:2018-02-12
文件大小:15360
提供者:
pangyunsheng
深度学习优化算法大全
深度学习优化算法,3种梯度下降方法,多种梯度下降优化算法(动量法,Nesterov,Adagrad,Adadelta,RMSprop,Adam等优化器),算法可视化及优化器选择,优化SGD
所属分类:
深度学习
发布日期:2018-10-08
文件大小:1048576
提供者:
qq_21997625
梯度下降算法综述.docx
本文概括总结了梯度下降算法的内容,给出了详细的收敛性证明,复杂度分析以及随机梯度下降法,动量梯度下降法等经典的梯度下降算法,个人原创作品
所属分类:
机器学习
发布日期:2020-02-25
文件大小:58368
提供者:
cyanPhoenix
BP_momentum.zip
一阶梯度下降算法是学习BP神经网络的入门基础,而动量梯度下降法是一阶梯度下降算法的优化算法,理解其原理对于学习机器学习很重要。
所属分类:
机器学习
发布日期:2019-07-02
文件大小:49152
提供者:
zhouge000
基于神经网络的钢铁企业电厂煤汽比预测模型
以钢铁企业自备电厂锅炉煤汽比为研究对象,以灰色关联度分析为基础,从理论和数据两方面分析了影响煤汽比的主要因素及各因素对煤汽比影响程度的大小.结果表明,各因素对煤汽比的影响程度为排烟温度>热风温度>给水温度>空燃比>烟气含氧量.基于BP神经网络预测方法,建立了自备电厂锅炉煤汽比预测模型,此BP神经网络为5-12-1结构,隐含层和输出层分别用tansig,purelin函数传递,利用改进动量梯度下降优化算法traingdm训练网格.预测结果表明,该模型网络训练值与实际值较吻合
所属分类:
其它
发布日期:2020-06-17
文件大小:724992
提供者:
weixin_38750209
基于小波神经网络的数据中心KPI预测
时间序列预测是数据中心关键性能指标异常检测的重要环节。针对时间序列,利用小波基函数作为隐含层节点传递函数来构造小波神经网络进行预测;同时选取动量梯度下降法提高神经网络学习效率;再根据粒子群算法训练得到最优解作为神经网络参数初始值;最后使用MATLAB进行仿真,以较高准确性对关键性能指标时间序列进行了预测。
所属分类:
其它
发布日期:2020-10-15
文件大小:585728
提供者:
weixin_38539705
BP神经网络源码(python实现)
python代码实现,可以调整网络结构,适用分类与回归问题,包含随机梯度下降、动量梯度下降,RMSProp、Adam优化算法。
所属分类:
深度学习
发布日期:2020-12-03
文件大小:21504
提供者:
qq_38048756
BP神经网络源码.rar
python代码实现,可以调整网络结构,适用分类与回归问题,包含随机梯度下降、动量梯度下降,RMSProp、Adam优化算法。通过hyperopt优化调参,另外补充了一些测试demo
所属分类:
深度学习
发布日期:2020-12-07
文件大小:9437184
提供者:
qq_38048756
Keras SGD 随机梯度下降优化器参数设置方式
SGD 随机梯度下降 Keras 中包含了各式优化器供我们使用,但通常我会倾向于使用 SGD 验证模型能否快速收敛,然后调整不同的学习速率看看模型最后的性能,然后再尝试使用其他优化器。 Keras 中文文档中对 SGD 的描述如下: keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False) 随机梯度下降法,支持动量参数,支持学习衰减率,支持Nesterov动量 参数: lr:大或等于0的浮点数,学习率 mom
所属分类:
其它
发布日期:2020-12-17
文件大小:66560
提供者:
weixin_38545332
Pytorch——梯度下降的变化,数据预处理,权重初始化,防止过拟合
文章目录梯度下降的变化1. SGD随机梯度下降2. Momentum3. Adagrad4. RMSprop5. Adam数据预处理1. 中心化2. 标准化3. PCA主成分分析4. 白噪声权重初始化1. 随机初始化2. 稀疏初始化3. 初始化偏置(bias)4. 批标准化(Batch Noemalization)防止过拟合1. 正则化2. Dropout 梯度下降的变化 1. SGD随机梯度下降 每次使用一批(batch)数据进行梯度的计算,而不是计算全部的梯度 2. Momentum SGD
所属分类:
其它
发布日期:2021-01-06
文件大小:58368
提供者:
weixin_38728276
VisualTF:可视化tensorflow学习记录,通过可视化方式观察梯度下降以及权重,偏差等变化情况。数据挖掘入门,推荐系统入门numpy,matploytlib-源码
可视化TF numpy,matploytlib h(x)= w * x + b作为连续值w,b就是需要不断进行修正。一般都是通过梯度下降的方法将w,b进行修正。的速度一般的梯度下降方式有: 新元 最简单的方式,就是测试数据分批进行神经网络计算。 势头 传统的W参数更新为:W + =-学习率* dx动量则是加上一个惯性,即m = b1 * m学习率* dx W + = m 阿达格拉德 对学习率进行更新:v + = dx ^ 2 W + =-学习率* dx /√vv算是一种惩罚措施,逼迫朝着正
所属分类:
其它
发布日期:2021-03-11
文件大小:737280
提供者:
weixin_42108054
动手学深度学习(七) 梯度下降
梯度下降 (Boyd & Vandenberghe, 2004) %matplotlib inline import numpy as np import torch import time from torch import nn, optim import math import sys sys.path.append('/home/kesci/input') import d2lzh1981 as d2l 一维梯度下降 证明:沿梯度反方向移动自变量可以减小函数值 泰勒展开: 代入沿梯度
所属分类:
其它
发布日期:2021-01-20
文件大小:184320
提供者:
weixin_38598703
«
1
2
3
»