您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. BP神经网络原理及仿真实例

  2. 详细介绍了BP神经网络的原理,及各种数学推导过程,并且富有仿真实例,简洁易懂。值得学习
  3. 所属分类:网络基础

    • 发布日期:2009-05-26
    • 文件大小:194560
    • 提供者:caijingkun1234
  1. 神经网络bp算法ppt讲义

  2. 感知器神经网络内容包括基于BP算法的多层前馈网络模型 BP算法的实现,基本思想,推导过程,程序实现,BP学习算法的功能
  3. 所属分类:其它

  1. BP神经算法 ppt

  2. 主要介绍 bp神经网络算法基本思想 推导过程 程序实现
  3. 所属分类:其它

    • 发布日期:2010-05-06
    • 文件大小:287744
    • 提供者:wangqian871127
  1. 前向多层神经网络的设计

  2. 推导前向多层神经网络的学习算法,以及BP学习算法中几个值得注意的问题,设计网络学习过程的步骤
  3. 所属分类:制造

    • 发布日期:2011-03-22
    • 文件大小:367616
    • 提供者:yzxjtu2010
  1. BP神经网络实例与工具箱应用

  2. 人工神经网络简介,人工神经元模型,人工神经网络的主要学习算法,基本BP算法公式推导,基本BP算法的缺陷及改进,应用实例及过程
  3. 所属分类:其它

    • 发布日期:2012-05-09
    • 文件大小:978944
    • 提供者:cctv6909
  1. BP算法的相关搜集

  2. BP算法的详细推导过程,包括一个动态推到实现图
  3. 所属分类:C/C++

    • 发布日期:2014-05-20
    • 文件大小:386048
    • 提供者:u014221801
  1. BP神经网络参数更新推导过程

  2. 本pdf文档给出了BP神经网络权值参数更新过程的详细推导,对于神经网络初学者有很大的帮助。
  3. 所属分类:教育

    • 发布日期:2016-08-25
    • 文件大小:289792
    • 提供者:on_theway10
  1. 基于神经网络的BP分类算法实现(C语言)

  2. 参考周爱民教授机器学习公式推导过程及相关伪代码,使用简单易懂的语言将其编写出来,注释挺多,很适合编程新手。
  3. 所属分类:互联网

    • 发布日期:2016-09-19
    • 文件大小:6144
    • 提供者:zql324231
  1. BP神经网络代码

  2. gitchat资料。从零开始学习BP神经网络。 本文主要叙述了经典的全连接神经网络结构以及前向传播和反向传播的过程。通过本文的学习,读者应该可以独立推导全连接神经网络的传播过程,对算法的细节烂熟于心。另外,由于本文里的公式大部分是我自己推导的,所以可能会有瑕疵,希望读者不吝赐教。   虽然这篇文章实现的例子并没有什么实际应用场景,但是自己推导一下这些数学公式对理解神经网络内部的原理很有帮助,继这篇博客之后,我还计划写一个如何自己推导并实现卷积神经网络的教程,如果有人感兴趣,请继续关注我!
  3. 所属分类:深度学习

    • 发布日期:2017-10-22
    • 文件大小:3145728
    • 提供者:u014303046
  1. CNN_tutorial

  2. 详细讲解CNN基础知识,以及BP算法推导过程。以及CNN应用领域
  3. 所属分类:深度学习

  1. 关于BP算法推导过程与讨论

  2. :本文通过对多层神经网络模型的 BP算法的推导 讨论用 算法对网络进行优化后误差精度、 网络结构和学习次数之间的关系 最后指出 算法的不足之处, 提出加快学习过程的一些改进方 法和技巧。
  3. 所属分类:其它

    • 发布日期:2009-04-17
    • 文件大小:149504
    • 提供者:whorus1
  1. CNN算法中BP算法权重调整过程

  2. CNN算法中权重调整过程详细推导,文中详细的介绍了关于BP算法的推导过程,通俗易懂。
  3. 所属分类:机器学习

  1. 贺冰花-遗传算法优化BP神经网络---非线性函数拟合.docx

  2. 在工程应用中经常会遇到一些复杂的非线性系统,这些系统状态方程复杂,难以用数学方法准确建模。在这种情况下,可以建立BP神经网络表达这些非线性系统。BP神经网络是一种反向传递并且能够修正误差的多层映射函数,它通过对未知系统的输入输出参数进行学习之后,便可以联想记忆表达该系统。但是由于BP网络是在梯度法基础上推导出来的,要求目标函数连续可导,在进化学习的过程中熟练速度慢,容易陷入局部最优,找不到全局最优值。并且由于BP网络的权值和阀值在选择上是随机值,每次的初始值都不一样,造成每次训练学习预测的结果
  3. 所属分类:讲义

    • 发布日期:2019-06-06
    • 文件大小:635904
    • 提供者:xmtzljj
  1. 一种改进的BP神经网络算法及其应用-一种改进的BP神经网络算法及其应用.rar

  2. 一种改进的BP神经网络算法及其应用-一种改进的BP神经网络算法及其应用.rar 一种改进的BP神经网络算法及其应用 一种改进的BP神经网络算法及其应用 褚辉,赖惠成 摘要:BP算法是目前应用最为广泛的神经网络学习算法,但原始算法收敛速率慢,训练过程易陷入局部极小值以及隐层节 点数选择困难。针对这些问题提出了不少改进措施,文中提出了一种改进的BP神经网络算法,在BP算法基础上,从训练算 法着手,通过误差的变化趋势,动态调整权值以提高网络的收敛速率;通过数学推导,从理论上验证了该算法的有效性。用
  3. 所属分类:其它

    • 发布日期:2019-08-12
    • 文件大小:73728
    • 提供者:weixin_39840924
  1. BP算法推导及过程代码.7z

  2. 对BP神经网络原理的推导部分,较为详细,以及一个切实可行的应用BP神经网络算法的数学建模题目,有数据和源代码
  3. 所属分类:机器学习

    • 发布日期:2019-08-17
    • 文件大小:381952
    • 提供者:qq_40680151
  1. 哈工大模式识别讲义BP算法

  2. 哈工大模式识别讲义BP算法讲义,哈工大研究生课程资源(8) ∑(-)‘( 将(7)和(8)代入(6) ∑ C 定义δ ∑6,则可以得到平方误差关于隐含层神经元参数和的梯度: 0 (9) 输入层隐含层输出层 O○O wid 佟2隐含层神经元权值的学习 由公式(5)和(9),我们得到了平方误差函数E关于输出层和隐含层参数的梯度。注 意到输出层需要计算的主要是每个节点的δ=()(),某种程度上这可以看作是 输出节点上的误差;而隐含层个节点计算8=()∑。时需要用到所有输出层节 点的误差δ,这也可以看作
  3. 所属分类:讲义

    • 发布日期:2019-03-03
    • 文件大小:247808
    • 提供者:qq_27328663
  1. 神经网络参数更新公式推导(二).docx

  2. 从整个网络框架到每一层配置,详细推导了全连接深度神经网络权重矩阵(W)和偏置(B)递推公式,有助于理解BP反向传播算法和深度神经网络的参数优化过程,为设计新的深层网络打下基础。
  3. 所属分类:深度学习

    • 发布日期:2020-08-20
    • 文件大小:180224
    • 提供者:u013920434
  1. Python:客运量与货运量预测-BP神经网络

  2. 基于Python实现BP神经网络,参考资料会放在最后。 BP神经网络误差向量推导过程用到了微分链式求导 了解整个BP神经网络运行原理之后,就挺简单的 像一般神经网络一样,BP神经网络先进行FP传导即正向传导,案例中只设置了一层隐含层,所以参数层有两层:w1,b1;w2,b2;W参数矩阵的行列:行为输出层的神经元个数,列是输入层的神经元个数。 隐含层的结果:O1=sigmoid(a1)=sigmoid(w1.x.T+b1),隐含层使用了sigmoid激活函数 输出结果:O2=a2=W2*O1+b2
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:607232
    • 提供者:weixin_38509082
  1. 卷积神经网络反向传播理论推导

  2. 本文来自于csdn,本文首先简单介绍CNN的结构,并不作详细介绍.然后讲解反向传播理论。本文只要讲解CNN的反向传播,CNN的反向传播,其实并不是大多所说的和全连接的BP类似,CNN的全连接部分的BP是与它相同,但是CNN中卷积--池化、池化--卷积部分的BP是不一样的,仔细推导,还是有很多细节地方需要思考的,比如1、在前向传播的过程中,卷积层的输入,是通过卷积核与前一层的输出特征图卷积得来的,那么在反向传播的过程中该怎么处理?这个就与全连接神经网络不同了。2、由于在前向传播的时候,池化层会对前
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:1048576
    • 提供者:weixin_38674569
  1. 卷积神经网络反向传播理论推导

  2. 本文来自于csdn,本文首先简单介绍CNN的结构,并不作详细介绍.然后讲解反向传播理论。本文只要讲解CNN的反向传播,CNN的反向传播,其实并不是大多所说的和全连接的BP类似,CNN的全连接部分的BP是与它相同,但是CNN中卷积--池化、池化--卷积部分的BP是不一样的,仔细推导,还是有很多细节地方需要思考的,比如1、在前向传播的过程中,卷积层的输入,是通过卷积核与前一层的输出特征图卷积得来的,那么在反向传播的过程中该怎么处理?这个就与全连接神经网络不同了。2、由于在前向传播的时候,池化层会对前
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:1048576
    • 提供者:weixin_38696922
« 12 »