您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. BP神经网络的数据分类算法matlab源码

  2. 人工神经网络和遗传算法都是将生物学原理应用于计算机科学的仿生学理论成果。由于它们具有极强的解决问题的能力,近年来引起了众多学者的兴趣与参与,已成为学术界跨学科的热门专题之一。 在人工神经网络的实际应用中,约90%的人工神经网络模型都是采用BP网络或者是它的变化形式,它也是前馈网络的核心部分,BP网络广泛应用于函数逼近、模式识别/分类、数据压缩等。现已成为人工智能研究的重要领域之一。然而,由于BP算法是一种梯度下降搜索方法,因而不可避免地存在固有的不足,如收敛速度慢、易陷入误差函数的局部极小点,
  3. 所属分类:专业指导

    • 发布日期:2013-05-25
    • 文件大小:4096
    • 提供者:checkpaper
  1. 神经网络matlab代码

  2. 在机器学习和相关领域,人工神经网络(人工神经网络)的计算模型灵感来自动物的中枢神经系统(尤其是脑),并且被用于估计或可以依赖于大量的输入和一般的未知近似函数。人工神经网络通常呈现为相互连接的“神经元”,它可以从输入的计算值,并且能够机器学习以及模式识别由于它们的自适应性质的系统。
  3. 所属分类:其它

    • 发布日期:2017-11-05
    • 文件大小:3072
    • 提供者:yangming2466
  1. matlab开发-具有反向传播功能的神经网络近似示例

  2. matlab开发-具有反向传播功能的神经网络近似示例。反向传播神经网络-函数逼近实例
  3. 所属分类:其它

    • 发布日期:2019-08-23
    • 文件大小:2048
    • 提供者:weixin_38744435
  1. 神经网络(BP)_nonlinear近似(不使用matlab工具箱)

  2. matlab代码///用BP算法神经网洛近似函数:线性、非线性、单变量、多变量、自行调节隐藏层数量、自行设置函数、可修改激活函数(此里边用的是sigmoid函数)。
  3. 所属分类:机器学习

    • 发布日期:2020-04-28
    • 文件大小:2048
    • 提供者:c13756659910
  1. 液压支架顶梁可靠度近似计算方法

  2. 针对液压支架顶梁可靠度详细计算方法计算量大的问题,提出了基于神经网络模型的液压支架顶梁可靠度近似计算方法。采用误差反向传播算法作为权值学习算法,选用平方型函数作为误差函数建立了顶梁可靠度近似计算神经网络模型。以ZY18000/25/45D型液压支架的顶梁为例进行可靠度近似计算,结果表明,顶梁可靠度计算相对误差在6.3%以内。
  3. 所属分类:其它

    • 发布日期:2020-04-23
    • 文件大小:196608
    • 提供者:weixin_38546846
  1. 神经网络近似函数实验报告.pdf

  2. 通过本次实验,进一步了解神经网络的基本原理、神经网络的建立和神经网络的设计过程。提高有关控制系统的程序设计能力。熟悉Matlab语言以及在智能控制设计中的应用。
  3. 所属分类:讲义

    • 发布日期:2020-04-22
    • 文件大小:546816
    • 提供者:weixin_47285706
  1. 基于卷积神经网络的车牌照字符识别研究

  2. 基于卷积神经网络的车牌照字符识别研究310 第十二届全国图象图形学学术会议 以充分利用人的经验来获取模式特征以及神经网 来正确识别所有样本;Uc4层是网络的输出层即识 终分类能力来识别字符,特征提取必须能反应整 个字符的特征,才能达到较高的识别率;后者则 别层,显示网络最终的模式识别结果。 省去特征抽取,将整个字符直接作为神经网络的 差异提取层Uc的输出姐式(1)所示 输入。这种方式虽然在一定程度上增加了神经网 络结构的复杂度,但是网络的抗干扰性能和识别 n(n,)=max{(-)∑a()l(n
  3. 所属分类:机器学习

    • 发布日期:2019-04-19
    • 文件大小:274432
    • 提供者:suiyu_eran
  1. 基于LMD近似熵和PNN的轴承故障诊断

  2. 提出一种基于局部均值分解(LMD)近似熵和概率神经网络(PNN)的滚动轴承故障诊断方法。通过对信号LMD分解,非平稳信号能够转换成若干个平稳的乘积函数分量(PF)之和;轴承在发生不同故障时,产生频谱相异的信号,其近似熵不同,因此可通过提取原始信号的近似熵,来判别轴承的运行状态。实验表明,信号经过LMD分解得到若干PF分量,从中提取近似熵,组成N维特征向量,输入PNN模型,能够准确地判断故障类型;在小数据的情况下,相比于BP和RBF两种传统神经网络,PNN具有更优的故障分类能力。
  3. 所属分类:其它

    • 发布日期:2020-07-04
    • 文件大小:237568
    • 提供者:weixin_38615397
  1. 神经网络 matlab.zip

  2. 用于测试神经网络的代码 采用matlab作为仿真环境。 在网络模型与算法研究的基础上,利用人工神经网络组成实际的应用系统,例如,完成某种信号处理或模式识别的功能、构作专家系统、制成机器人、复杂系统控制等等。在机器学习和相关领域,人工神经网络(人工神经网络)的计算模型灵感来自动物的中枢神经系统(尤其是脑),并且被用于估计或可以依赖于大量的输入和一般的未知近似函数。人工神经网络通常呈现为相互连接的“神经元”,它可以从输入的计算值,并且能够机器学习以及模式识别由于它们的自适应性质的系统。
  3. 所属分类:嵌入式

    • 发布日期:2020-08-05
    • 文件大小:44032
    • 提供者:weixin_44493036
  1. 嵌入式系统/ARM技术中的RBF网络和贝叶斯分类器融合的人脸识别方法设计

  2. 引言    本文基于人脸图像分块和奇异值压缩,进行RBF 神经网络和贝叶斯分类器融合的设计。将人脸图像本身的灰度分布描述为矩阵,其奇异值特征具有转置不变性、旋转不变性、位移不变性、镜像不变性等诸多重要的性质,进行各种代数和矩阵变换后提取的代数特征是人脸的表征。由于整体图像的奇异值向量反映的是图像整体的统计特征,对细节的描述还不够深入,本文模拟人类识别人脸的模式,在图像分块和加权的基础上,突出待识别人脸的骨骼特征,近似于人类在识别人脸时自动剔除同一人脸的变化部位的差异能力  径向基函数(RBF)网
  3. 所属分类:其它

    • 发布日期:2020-10-21
    • 文件大小:260096
    • 提供者:weixin_38698174
  1. 通信与网络中的基于RBF网络的照明定量计算应用研究

  2. 1 引 言   在建筑电气设计中,照明计算往往是极其繁琐的,他不仅计算量大,而且常是枯燥的重复计算,需要查阅大量的数据表格,并对获得的数据进行修正。对于这些离散的数据表格,很多情况下工程设计人员找不到完全对应的数据,只能取相邻的数据,因此存在着较大的计算误差,这些因素使工程设计人员对光源定量计算感到困难。   观测数据处理、函数近似表示方法常用的有插值法、样条函数法、多项式拟合法,他们存在着精度不理想、设计复杂、计算困难或病态方程等问题。人工神经网络具有很强的自学、概括和推广能力,其中径向
  3. 所属分类:其它

    • 发布日期:2020-12-04
    • 文件大小:108544
    • 提供者:weixin_38689113
  1. 循环、卷积神经网络

  2. 循环、卷积神经网络 参考伯禹学习平台《动手学深度》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV 感谢伯禹平台给我们提供一次免费学习的机会!! 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:99328
    • 提供者:weixin_38689113
  1. Task03:过拟合、欠拟合及其解决方案/梯度消失、梯度爆炸/循环神经网络进阶

  2. 1 过拟合、欠拟合及其解决方案 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 模型选择 验证数据集
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:771072
    • 提供者:weixin_38722891
  1. Deep Learning_Task3_过拟合、欠拟合/梯度消失、梯度爆炸/循环神经网络进阶

  2. 一、过拟合、欠拟合及其解决方案 ·模型选择、过拟合和欠拟合 训练误差(training error):模型在训练数据集上表现出来的误差 泛化误差(generalization error):模型在任意一个测试样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似 计算训练误差和泛化误差可以使用损失函数,比如平方损失函数和交叉熵损失函数等 模型选择 验证数据集 在严格意义上,测试集只能在所有超参数和模型参数选定后使用一次,不可以使用测试数据选择模型,如调参;而由于无法通过训练误差估计泛化误差
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:331776
    • 提供者:weixin_38646914
  1. 机器人鲁棒神经网络的切换策略控制。

  2. 本文提出了一种鲁棒的神经网络控制方案,用于机器人操纵器的切换动力学模型。采用径向基函数(RBF)神经网络来近似机器人操纵器的未知功能,并设计补偿控制器来增强系统的鲁棒性。机器人的权重更新律是基于切换多重Lyapunov函数方法和周期性切换的。构建适合实际实施的法律。所提出的控制方案可以保证所得的闭环切换系统是渐近Lyapunov稳定的,并且可以很好地达到控制系统的跟踪误差性能。最后,给出了一个两链接机器人操纵器的仿真示例,以说明所提出的控制方法的有效性。
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:1048576
    • 提供者:weixin_38750861
  1. Feedforward-Neural-Network:前馈神经网络,用于近似连续函数。 网络使用给定的训练数据和参数进行训练。 网络使用给定的测试数据给出预测。 该文件不导入任何外部模块-源码

  2. 前馈神经网络 前馈神经网络,用于近似连续函数。 网络使用给定的训练数据和参数进行训练。 网络使用给定的测试数据给出预测。 该文件不导入任何外部模块。
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:15360
    • 提供者:weixin_42139252
  1. 具有离散和分布式时滞的中立型随机神经网络的时滞相关指数状态估计

  2. 本文考虑了具有离散和分布时滞的中立型随机神经网络的状态估计。 通过使用可用的输出测量,状态估计器可以近似神经元状态,并且在存在离散和分布延迟的情况下,状态误差的渐近性质是均方指数稳定的,并且几乎可以肯定是指数稳定的。 在激活函数和测量非线性的Lipschitz假设下,提出了依赖于延迟的线性矩阵不等式(LMI)准则,以通过构造适当的Lyapunov-Krasovskii函数来保证所需估计量的存在。 结果表明,状态估计量的存在条件和显式可以根据LMI的解进行参数化。 最后,通过两个数值例子证明了理论
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:559104
    • 提供者:weixin_38557757
  1. 测试-神经网络分类理论-源码

  2. 该项目的目标是测试两个条件概率函数特征-Hölder平滑度和小值界限-对神经网络分类性能的影响。 这在某种程度上也很独特,因为“性能”是指条件概率近似,而不是最可能的类别预测。 (这可能是因为在公开可用的数据集中很少显示0.8只狗和0.2只猫的图像。) 模拟 我们从某些指定分布中采样(多维)特征。 这种“分布”也可以是混合函数,也可以只是密度函数,在这种情况下,采样的实现更为棘手。 无论如何,这些功能充当某些特定功能的输入,每个输出类别一个。 对输出进行归一化,得出每个样本的条件概率向量。 这用
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:396288
    • 提供者:weixin_42136826
  1. 深度学习(三)————过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 目录 过拟合、欠拟合及其解决方案 训练误差和泛化误差 过拟合和欠拟合的概念 模型复杂度和误差之间的关系 解决过拟合的方案 梯度消失及梯度爆炸 循环神经网络进阶 GRU LSTM 深度神经网络 过拟合、欠拟合及其解决方案 训练误差和泛化误差        在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:408576
    • 提供者:weixin_38635092
  1. Task3: 过拟合、欠拟合;梯度消失,梯度爆炸;循环神经网络进阶

  2. 过拟合、欠拟合及解决方案知识点总结 区分两种误差 训练误差为训练数据集(training data)上的误差; 泛化误差为模型在任意一个测试数据样本上表现的误差的期望(常通过测试数据(test data)集上的误差来近似)。使用损失函数(loss function)来计算两种误差(e.g. 平方损失函数、交叉熵)。机器学习的要重视降低泛化误差。 选择模型 把训练数据集分为真正的训练集和预留的验证集(validation set)。通过验证集来选择模型。此方法的改进方法为K折交叉验证(K-fold
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:54272
    • 提供者:weixin_38672739
« 12 3 »