您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. AUTOCAD里隐藏选取以外的层

  2. 在AUTOCAD中,可以将选取对象所在层以外的所有层隐藏,以方便编辑,就好像在UG里的反向隐藏层功能。在AUTOCAD里加载就可以运行。
  3. 所属分类:专业指导

    • 发布日期:2010-04-09
    • 文件大小:438
    • 提供者:UCSICON
  1. 图层操作 隐藏锁定

  2. 图层操作 一键图层隐藏 图层锁定 反向隐藏 反响锁定 冻结图层 一键打开全部图层
  3. 所属分类:VB

    • 发布日期:2011-12-20
    • 文件大小:24576
    • 提供者:woxing1987
  1. 反向传播算法讨论

  2. Coursera吴恩达机器学习课程,第5周介绍了神经网络的反向传播算法。由于介绍得比较简要,很多地方没有讲透(众:You can you up!),后来C站论坛里有几个网友开始争论其中的公式有点奇怪,究竟是讲错了还是另有原因(最后结论似乎应该是没讲错)。全程围观的耿先生记录了相关的一些要点。背景: 反向传播算法就是说好比你有一个神经网络,输入层 -> 隐藏层 -> 输出层酱紫。我们现在把所有系数初始化,把训练集里的 x 都代入到输入层,经过层层计算最后得到一组输出值。这时候我们就可
  3. 所属分类:机器学习

    • 发布日期:2017-10-07
    • 文件大小:1048576
    • 提供者:ulysses115
  1. Python实现的人工神经网络算法示例【基于反向传播算法】

  2. 本文实例讲述了Python实现的人工神经网络算法。分享给大家供大家参考,具体如下: 注意:本程序使用Python3编写,额外需要安装numpy工具包用于矩阵运算,未测试python2是否可以运行。 本程序实现了《机器学习》书中所述的反向传播算法训练人工神经网络,理论部分请参考我的读书笔记。 在本程序中,目标函数是由一个输入x和两个输出y组成, x是在范围【-3.14, 3.14】之间随机生成的实数,而两个y值分别对应 y1 = sin(x),y2 = 1。 随机生成一万份训练样例,经过网络的学习
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:62464
    • 提供者:weixin_38526208
  1. Python实现的三层BP神经网络算法示例

  2. 本文实例讲述了Python实现的三层BP神经网络算法。分享给大家供大家参考,具体如下: 这是一个非常漂亮的三层反向传播神经网络的python实现,下一步我准备试着将其修改为多层BP神经网络。 下面是运行演示函数的截图,你会发现预测的结果很惊人! 提示:运行演示函数的时候,可以尝试改变隐藏层的节点数,看节点数增加了,预测的精度会否提升 import math import random import string random.seed(0) # 生成区间[a, b)内的随机数 def ran
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:83968
    • 提供者:weixin_38713393
  1. 吴恩达深度学习第一课–第四周多层神经网络实现

  2. 文章目录声明前言引入相关依赖包初始化参数前向传播函数线性部分linear线性激活部分linear–>avtivation计算成本反向传播线性部分linear backward线性激活部分linear–>activation backward更新参数整合两层神经网络模型L层神经网络分析 声明 本文参考何宽、念师 前言 本次教程,将构建两个神经网络,一个是具有两个隐藏层的神经网络,一个是多隐藏层的神经网络。 一个神经网络的计算过程如下: 初始化网络参数 前向传播 计算一层的中线性求和的
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:342016
    • 提供者:weixin_38623009
  1. PyTorch | 从NumPy到PyTorch实现神经网络

  2. 用NumPy实现两层神经网络 一个全连接ReLU神经网络,一个隐藏层,没有bias。用来从x预测y,使用Square Loss。 这一实现完全使用NumPy来计算前向神经网络,loss,和反向传播算法。 N—样本数据的大小 DinD_{in}Din​—输入层向量大小 H—隐藏层向量大小 DoutD_{out}Dout​—输出层向量大小 forward pass h=xw1h = xw_1h=xw1​                      x=>N∗Din       w1=>
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:115712
    • 提供者:weixin_38724229
  1. 梯度消失与梯度爆炸

  2. 什么是梯度消失与梯度爆炸 层数比较多的神经网络模型在使用梯度下降法对误差进行反向传播时会出现梯度消失和梯度爆炸问题。梯度消失问题和梯度爆炸问题一般会随着网络层数的增加变得越来越明显。 例如,对于图所示的含有3个隐藏层的神经网络,梯度消失问题发生时,靠近输出层的hidden layer 3的权值更新相对正常,但是靠近输入层的hidden layer1的权值更新会变得很慢,导致靠近输入层的隐藏层权值几乎不变,扔接近于初始化的权值。这就导致hidden layer 1 相当于只是一个映射层,对所有的
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:304128
    • 提供者:weixin_38621082
  1. Assignment1-源码

  2. 1.型号 1.1反向传播(BP)神经网络模型 BP神经网络模型是由输入层,隐藏层和输出层组成的三层前馈网络。每层包含几个断开的神经元节点,相邻节点根据一定的权重相连。信息传输的方向是从输入层到隐藏层再到输出层。在输入层和隐藏层之间存在转移矩阵,在隐藏层和输出层之间存在转移矩阵。如果实际输出与预期输出之间的差不能满足要求的误差,则将误差值沿网络路径逐层反馈,并校正每一层的连接权重和阈值。 1.2人工蜂群算法的BP神经网络模型优化 人工蜂群(ABC)算法的灵感来自于蜂的智能行为。在ABC算法中,
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:5242880
    • 提供者:weixin_42137539
  1. 一种新颖的优化GA-Elman神经网络算法

  2. Elman神经网络具有良好的动态特性和强大的全局稳定性,被广泛用于处理非线性,动态和复杂的数据。 但是,作为对反向传播(BP)神经网络的优化,Elman模型不可避免地会继承其某些固有缺陷,从而影响识别精度和操作效率。 已经提出了许多改进来解决这些问题,但是事实证明很难平衡许多相关特征,例如存储空间,算法效率,识别精度等。而且,很难同时从临时解中获得永久解。 为了解决这个问题,可以将遗传算法(GA)引入Elman算法以优化连接权重和阈值,从而可以防止神经网络陷入局部最小值并提高训练速度和成功率。
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:722944
    • 提供者:weixin_38601103
  1. 用于区间神经网络的Extreem学习机

  2. 在必须考虑不确定性,不准确性或可变性的复杂问题中,间隔数据提供了一种有价值的方式来表示可用信息。 本文考虑的是区间神经网络的学习,其中输入和输出是具有区间成分的向量,权重是实数。 对于间隔神经网络,反向传播(BP)学习算法非常缓慢,就像通常的实值神经网络一样。 极限学习机(ELM)的学习速度比BP算法快。 本文将ELM应用于区间神经网络的学习,从而产生了区间极限学习机(IELM)。 对于常规前馈神经网络,ELM中有两个步骤。 第一步是随机生成连接输入层和隐藏层的权重,第二步是使用Moore-Pe
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:430080
    • 提供者:weixin_38603704
  1. MachineLearning:机器学习-源码

  2. 机器学习 使用各种数据集并对其进行观察来实现机器学习算法。 1.使用法线方程和梯度下降的线性回归 一种线性回归模型,可通过两个特征Math SAT和Verb SAT预测大学生的GPA。 a)使用正态方程法训练模型。 b)使用梯度下降法训练模型。 c)以不同的学习率alpha进行周围环境的比赛 2.使用手语数据进行逻辑回归 a)Sigmoid函数的实现b)参数初始化以及正向和反向计算c)梯度下降的隐含性和预测功能d)评估矩阵计算 3.支持向量机 使用迷你数据集,Q矩阵的计算和决策方程的求解方程的玩
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:31457280
    • 提供者:weixin_42122986
  1. Backpropagate:带有神经网络的AI-源码

  2. neural-network.js有一个小的神经网络类。 这是我进行反向传播的地方。 它只有一层隐藏层training data.txt是带有培训数据的文本文件index.html具有一个简单的GUI,用于使用训练数据来设置和训练神经网络
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:17408
    • 提供者:weixin_42134143
  1. 结合侧抑制机制的自动编码器训练新算法

  2. 深度学习是目前最热门的机器学习方法之一。针对深度学习中的自动编码器在训练时容易产生网络模型复杂度过高、输出矩阵不够稀疏、小样本训练过拟合等问题,提出一种结合侧抑制机制的自动编码器训练新算法。算法构建了用于隐藏层的侧抑制神经元筛选模型。首先设定抑制限寻找符合抑制条件的神经元,然后通过侧抑制函数对符合条件的神经元进行快速输出抑制,运用反向传播算法对模型进行优化,最终输出权重特征。实验结果表明,算法能够使隐藏层输出近似满足稀疏条件并学习得到更加鲁棒的特征,提高分类正确率的同时还能一定程度上抑制过拟合现
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:503808
    • 提供者:weixin_38663733
  1. 教你看懂各种神经网络

  2. 原图如下:虽然这些节点图不能显示各个模型的内部工作过程,但是这些节点图的汇总可以让我们在同一层面上对比不同神经网络的结构特点,从而对不同神经网络之间的关系有一个更为具象的理解。单层感知器是最简单的神经网络。它仅包含输入层和输出层,而输入层和输出层是直接相连的。相对于单层感知器,前馈神经网络包含输入层、隐藏层和输出层。这一类网络通常使用反向传播算法(Backpropagation)进行训练,由于网络具有隐藏神经元,理论上可以对输入和输出之间的关系进行建模。但实际上该网络的应用是很有限的,通常要将它
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:1048576
    • 提供者:weixin_38670391
  1. 用Python实现机器学习算法——简单的神经网络

  2. 本文来自于网络,文章详细介绍了使用Python实现机器学习算法的损失函数、反向传播过程等相关知识。在这一章节里,我们将实现一个简单的神经网络架构,将2维的输入向量映射成二进制输出值。我们的神经网络有2个输入神经元,含6个隐藏神经元隐藏层及1个输出神经元。我们将通过层之间的权重矩阵来表示神经网络结构。在下面的例子中,输入层和隐藏层之间的权重矩阵将被表示为W,隐藏层和输出层之间的权重矩阵为W。除了连接神经元的权重向量外,每个隐藏和输出的神经元都会有一个大小为1的偏置量。我们的训练集由m=750个样本
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:203776
    • 提供者:weixin_38669674
  1. 不确定多变量运动控制系统的PID型神经网络非线性自适应控制

  2. 混合局部递归神经网络用于创建不确定的多变量单输入/多输出系统的比例积分微分(PID)样的神经网络非线性自适应控制器。 它由一个在隐藏层中具有不超过三个神经节点的神经网络组成,并且在一个隐藏层中分别包含一个激活反馈和一个输出反馈。 这种特殊的结构使神经网络控制器的外部功能能够根据需要成为P,PI,PD或PID控制器。 选择直接测量的输出与系统的期望值之间的闭环误差作为控制器的输入。 只需要确定一组初始权重值即可稳定地运行受控闭环系统。 所提出的控制器可以基于稳定的学习速率,根据建模不确定性和外部干
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:260096
    • 提供者:weixin_38564085
  1. Digit-Recognition-ANN:在MNIST数据集上使用反向传播训练人工神经网络-源码

  2. 数字识别 在这个项目中,我们在MNIST数据集上使用反向传播算法在一层隐藏层上训练我们自己的ANN,这以后可以帮助我们的机器识别给定的数字。 有关数据集的更多信息 数据集的信息和文档可在以下网站找到:http: 初始化数据集 数据集由矩阵组成,其中每个图像均以1x784的形式表示 按照文件imageProjection.m中的代码投影/可视化图像 在Theory文件夹中的pdf文件中提供了下载数据集的链接 init()函数初始化数据集 我们建立一个更大的训练数据集,其中包含每个班级的图像,即,
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:51380224
    • 提供者:weixin_42131443
  1. 反向代理缓存的详细介绍

  2. 反向代理缓存的详细介绍  传统代理: 用户隐藏在代理服务器之后。代理服务器工作在应用层,它只转发它支持的协议的数据。     反向代理(Reverse Proxy): 这种机制是Web服务器隐藏在代理服务器之后,实现这种机制的服务器称作反向代理服务器(Reverse Proxy Server)。此时,Web服务器成为后端服务器,反向代理服务器称为前端服务器。     引入反向代理服务器的目的之一就是基于缓存的加速。我们可以将内容缓存在反向代理服务器上,所有缓存机制的实现仍然采用HTTP/1.1
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:71680
    • 提供者:weixin_38688969
  1. numpy实现神经网络反向传播算法的步骤

  2. 一、任务 实现一个4 层的全连接网络实现二分类任务,网络输入节点数为2,隐藏层的节点数设计为:25,50,25,输出层2 个节点,分别表示属于类别1 的概率和类别2 的概率,如图所示。我们并没有采用Softmax 函数将网络输出概率值之和进行约束,而是直接利用均方差误差函数计算与One-hot 编码的真实标签之间的误差,所有的网络激活函数全部采用Sigmoid 函数,这些设计都是为了能直接利用梯度推导公式。 二、数据集 通过scikit-learn 库提供的便捷工具生成2000 个线性不可
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:288768
    • 提供者:weixin_38722193
« 12 3 »