您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 神经网络 MATLAB神经网络应用设计

  2. 张德丰 (2010). "MATLAB神经网络应用设计." 只有代码 "目 录 前言 第1章 神经网络概述 1 1.1 神经网络的基本概念 1 1.1.1 生物神经元的结构与功能特点 1 1.1.2 人工神经元模型 1 1.1.3 神经网络的结构及工作方式 3 1.1.4 神经网络的学习 4 1.2 神经网络的发展和应用 7 1.2.1 神经网络的发展 7 1.2.2 神经网络的研究内容 8 1.2.3 神经网络的应用 8 1.3 神经网络的特点 8 1.4 MATLAB语言及入门 9 1.4
  3. 所属分类:网络基础

    • 发布日期:2010-12-02
    • 文件大小:19456
    • 提供者:qq112964734
  1. 小波神经网络参数初始化函数

  2. 小波神经网络参数初始化函数,根据小波分析理论初始化小波神经网络的参数,大大提高小波神经网络的收敛速度。
  3. 所属分类:C/C++

    • 发布日期:2012-11-06
    • 文件大小:1024
    • 提供者:yeshansi
  1. 机器学习——神经网络参数的反向传播.pdf

  2. 本人通过观看吴恩达机器学习视频所记录的笔记,比较潦草,有兴趣的可以看一看。 知识点概要: 1、代价函数 2、反向传播算法 3、理解反向传播 4、展开参数 5、梯度检测 6、随机初始化 7、总结
  3. 所属分类:机器学习

    • 发布日期:2020-03-30
    • 文件大小:11534336
    • 提供者:qq_42604176
  1. 基于遗传算法的BP神经网络优化算法.zip

  2. 有代码有报告有工具箱 理解遗传算法的基本思想和基本流程,应用 Sheffield 遗传算法工具箱和 Matlab 神经网 络工具箱,完成基于遗传算法的 BP 神经网络的初始权阈值的优化,分析算法中各种参数变 化对计算结果的影响,并比较未使用遗传算法、使用遗传算法这两种情况下的训练误差。 1、编写程序,附上程序清单和有关曲线。 2、总结实验所得主要结论。 3、简要回答思考题。
  3. 所属分类:机器学习

    • 发布日期:2020-03-06
    • 文件大小:3145728
    • 提供者:weixin_42353399
  1. 神经网络参数初始化对训练结果的影响分析

  2. 神经网络的参数主要是权重(weights):W, 和偏置项(bias):b。训练神经网络的时候需先给定一个初试值,才能够训练,然后一点点地更新,但是不同的初始化方法,训练的效果可能会截然不同。 这个代码就是研究不同神经网络参数初始化对训练结果的影响分析。具体可以看这篇博客:https://blog.csdn.net/weixin_42521239/article/details/103887798
  3. 所属分类:深度学习

    • 发布日期:2020-01-08
    • 文件大小:26624
    • 提供者:weixin_42521239
  1. 基于BP神经网络模型的国家脆弱性问题的求解

  2. 随着人类社会的进步和发展,环境对一个国家的影响不容小觑,其中气候变化对人类生活方式产生深远意义和影响,进而改变国家的脆弱性,本文基于人工智能理论构建了一个国家脆弱性评价模型并利用相关系数法讨论气候变化如何影响区域的不稳定性,发现气候变化对区域稳定性有着举足轻重的作用。问题重述 1.1问题背景 候变化通过对区域稳定性产生影响,进而改变国家的脆弱性,当它与薄弱的政府 治理和社会分裂相结合时,可以引发一系列的暴力恶性事件,通常沿着潜在的民族和政 治分歧发展。早在20世纪90年代,这一概念就已经为一些主
  3. 所属分类:其它

    • 发布日期:2019-03-15
    • 文件大小:1048576
    • 提供者:zrg_hzr_1
  1. 基于小波神经网络的CFG桩复合地基承载力预测

  2. 针对BP神经网络学习时间长、收敛速度慢等缺陷,借助小波分析理论,将母小波平移和伸缩构成的小波基作为神经网络的激励函数,通过指导网络的初始化和参数选取,使网络以较简单的拓扑结构实现函数逼近,利用网络训练建立起承载力与其影响因素之间的非线性关系。在相同结构和参数下,与BP神经网络进行分析对比。结果表明:利用小波变换对数据时频局域化分析的能力并结合人工神经网络的自学习功能,使得小波神经网络预测模型具有较强的逼近和容错能力,预测结果比传统的BP神经网络具有更快的收敛速度和更高的精度。
  3. 所属分类:其它

    • 发布日期:2020-06-16
    • 文件大小:404480
    • 提供者:weixin_38652636
  1. 记一次自己动手实现一个简单神经网络

  2. 记一次自己动手实现一个简单神经网络 之前一直调包,最近刷算法题,就突发奇想,想自己试一试实现一个简单的神经网络模型。 从简单的开始,先实现一个二分类模型,使用印第安人糖料病数据集,数据集合源码可直接在github获取:github 记一次自己动手实现一个简单神经网络参数初始化定义激活函数前向传播损失函数实现BP(Backward Propagation)算法训练和测试pytorch对比缺陷与不足 参数初始化 首先,初始化参数,这里直接使用用numpy的初始化数组,代码如下: # 参数初始化
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:77824
    • 提供者:weixin_38653691
  1. 记一次自己动手实现一个简单神经网络

  2. 记一次自己动手实现一个简单神经网络 之前一直调包,最近刷算法题,就突发奇想,想自己试一试实现一个简单的神经网络模型。 从简单的开始,先实现一个二分类模型,使用印第安人糖料病数据集,数据集合源码可直接在github获取:github 记一次自己动手实现一个简单神经网络参数初始化定义激活函数前向传播损失函数实现BP(Backward Propagation)算法训练和测试pytorch对比缺陷与不足 参数初始化 首先,初始化参数,这里直接使用用numpy的初始化数组,代码如下: # 参数初始化
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:77824
    • 提供者:weixin_38558186
  1. 《动手学——卷积神经网络进阶》笔记

  2. 深度卷积神经网络(AlexNet) LeNet: 在大的真实数据集上的表现并不尽如⼈意。 1.神经网络计算复杂。 2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。 两派特征提取的观点: 机器学习的特征提取:手工定义的特征提取函数 神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。 AlexNet 首次证明了学习到的特征可以超越⼿⼯设计的特征,从而⼀举打破计算机视觉研究的前状。 特征: 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:392192
    • 提供者:weixin_38752628
  1. Datawhale 组队学习打卡营 任务15:卷积神经网络进阶

  2. 目录 深度卷积神经网络(AlexNet) 1. AlexNet 2.载入数据集 3. 训练 使用重复元素的网络(VGG) 1. VGG11的简单实现 ⽹络中的⽹络(NiN) GoogLeNet 1. GoogLeNet模型 . . 深度卷积神经网络(AlexNet) LeNet: 在大的真实数据集上的表现并不尽如⼈意。 1.神经网络计算复杂。 2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。 机器学习的特征提取:手工定义的特征提取函数 神经网络的特征提取:通过学习得到数据的多级表征,并
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:372736
    • 提供者:weixin_38630853
  1. 卷积神经网络进阶

  2. 深度卷积神经网络(AlexNet) LeNet: 在大的真实数据集上的表现并不尽如⼈意。 神经网络计算复杂。 还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。 机器学习的特征提取:手工定义的特征提取函数 神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。 神经网络发展的限制:数据、硬件 AlexNet 首次证明了学习到的特征可以超越⼿⼯设计的特征,从而⼀举打破计算机视觉研究的前状。 特征: 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:37888
    • 提供者:weixin_38659648
  1. DL基于Pytorch Day5 卷积神经网络进阶

  2. 1.深度卷积神经网络(AlexNet) LeNet: 在大的真实数据集上的表现并不尽如⼈意。 1.神经网络计算复杂。 2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。 机器学习的特征提取:手工定义的特征提取函数 神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。 神经网络发展的限制:数据、硬件 AlexNet 首次证明了学习到的特征可以超越⼿⼯设计的特征,从而⼀举打破计算机视觉研究的前状。 特征: 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:330752
    • 提供者:weixin_38614952
  1. 5.6 深度卷积神经网络(AlexNet)

  2. 在LeNet提出后的将近20年里,神经网络一度被其他机器学习方法超越,如支持向量机。虽然LeNet可以在早期的小数据集上取得好的成绩,但是在更大的真实数据集上的表现并不尽如人意。 神经网络计算复杂。虽然20世纪90年代也有过一些针对神经网络的加速硬件,但并没有像之后GPU那样大量普及。因此,训练一个多通道、多层和有大量参数的卷积神经网络在当年很难完成。 当年研究者还没有大量深入研究参数初始化和非凸优化算法等诸多领域,导致复杂的神经网络的训练通常较困难。 我们在上一节看到,神经网络可以直接基于图像
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:117760
    • 提供者:weixin_38529123
  1. task03:循环神经网络进阶

  2. 门控循环神经网络 RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 GRU #参数初始化 num_inputs, num_hiddens, num_outputs = vocab_size, 256, vocab_size print('will use', device) def get_params(): def _one(shape): ts = torch.tensor(np.random.nor
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:344064
    • 提供者:weixin_38607026
  1. 单调2型模糊神经网络及其在热舒适性预测中的应用

  2. 本文研究了单调2型模糊神经网络(T2FNN),该方法可用于许多需要输入和输出之间具有单调性的识别和预测问题。首先介绍T2FNN参数的充分条件,以确保输入和输出之间的单调性。然后,建立了单调T2FNN的数据驱动设计模型。而且,在单调性约束下,提供了一种混合算法来优化单调T2FNN的参数。该混合算法利用约束最小二乘法和基于惩罚函数的梯度下降算法来实现合理的参数初始化和优化。最后,将其应用于热舒适指数预测,以验证单调T2FNN的有效性。还与其他方法进行了比较。
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:754688
    • 提供者:weixin_38741101
  1. fcBpNerualNetwork:全连接bp神经网络-源码

  2. 全连接神经网络 应用 手写数字识别0〜9 使用mnist训练集 训练集为50000张图片 测试集为10000张图片 达到的效果拟合度99.70%,测试集上准确率98.38% ,在训练了28个epoth获得 算法细节 使用反向传播算法计算梯度dw和db 采用L2正则化 采用随机梯度下降算法 min-batch大小为10 使用fmincg高级优化算法执行渐变下降的单次迭代 数据归一化 参数初始化 生成第l层的w和b,k为第l-1层的神经元个数 使用方差为1 / k的高斯分布生成w,方差为1的高斯分布
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:17408
    • 提供者:weixin_42117116
  1. 带神经网络的手写数字识别:实现神经网络的反向传播算法,并将其应用于手写数字识别的任务-源码

  2. 神经网络手写数字识别 吴安德(Andrew Ng)在Coursera上的机器学习课程中的编程作业4。 课程信息可以在这里找到。 该编程练习实现了神经网络的反向传播算法,并将其应用于手写数字识别的任务。 这套包括: ex4.mlx-逐步执行练习的MATLAB Live脚本 ex4.pdf-此练习的信息 ex4data1.mat-手写数字训练集 ex4weights.mat-练习4的神经网络参数 Submit.m-将您的解决方案发送到我们的服务器的提交脚本 displayData.m-帮助可
  3. 所属分类:其它

    • 发布日期:2021-03-01
    • 文件大小:7340032
    • 提供者:weixin_42126749
  1. 神经网络正则化技术:在本研究中,我们将使用平衡的EMNIST数据集探索可用于解决给定神经网络体系结构过拟合问题的不同正则化方法-源码

  2. 在平衡的EMNIST数据集上训练的简单神经网络体系结构上对正则化技术的评估 在这项研究中,我们将探索使用平衡的EMNIST数据集的不同正则化方法,这些方法可用于解决给定神经网络架构中的过拟合问题。 我们将首先通过更改网络的隐藏单元数(宽度)和隐藏层数(深度)来确定问题,以便了解过拟合对不同网络形状的影响。 随后,我们将进行不同的实验,以了解如何解决将固定的架构和超参数的基准模型添加Dropout,L1和L2正则化的初始问题。 这些实验都将与“基线模型”进行比较,以找到为基线模型提供最高准确度和最
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:5242880
    • 提供者:weixin_42101720
  1. 关于tensorflow的几种参数初始化方法小结

  2. 在tensorflow中,经常会遇到参数初始化问题,比如在训练自己的词向量时,需要对原始的embeddigs矩阵进行初始化,更一般的,在全连接神经网络中,每层的权值w也需要进行初始化。 tensorlfow中应该有一下几种初始化方法 1. tf.constant_initializer() 常数初始化 2. tf.ones_initializer() 全1初始化 3. tf.zeros_initializer() 全0初始化 4. tf.random_uniform_initializer()
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:51200
    • 提供者:weixin_38680664
« 12 3 4 5 6 »