您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 神经网络实现简单的手写数字识别

  2. 使用74行python代码实现简单的手写数字识别神经网络。 输出值为10000个测试样本中识别正确的图像数量。
  3. 所属分类:Python

    • 发布日期:2017-08-18
    • 文件大小:16777216
    • 提供者:qq_31192383
  1. 卷积神经网络python

  2. 深度学习卷积神经网络,简单的实现卷积神经网络的架构 。简单通俗
  3. 所属分类:深度学习

    • 发布日期:2018-05-24
    • 文件大小:3145728
    • 提供者:weixin_42297063
  1. python神经网络实现程序+数据集.zip

  2. 一个最简单的神经网络的PY程序实现。有测试数据集和PY实现。
  3. 所属分类:深度学习

    • 发布日期:2019-07-03
    • 文件大小:1048576
    • 提供者:coral1001
  1. python实现简单神经网络算法

  2. 主要为大家详细介绍了python实现简单神经网络算法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:67584
    • 提供者:weixin_38624628
  1. Python实现简单多线程任务队列

  2. 最近我在用梯度下降算法绘制神经网络的数据时,遇到了一些算法性能的问题。梯度下降算法的代码如下(伪代码): def gradient_descent(): # the gradient descent code plotly.write(X, Y) 一般来说,当网络请求 plot.ly 绘图时会阻塞等待返回,于是也会影响到其他的梯度下降函数的执行速度。 一种解决办法是每调用一次 plotly.write 函数就开启一个新的线程,但是这种方法感觉不是很好。 我不想用一个像 cerely(
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:58368
    • 提供者:weixin_38514660
  1. python机器学习之神经网络实现

  2. 神经网络在机器学习中有很大的应用,甚至涉及到方方面面。本文主要是简单介绍一下神经网络的基本理论概念和推算。同时也会介绍一下神经网络在数据分类方面的应用。 首先,当我们建立一个回归和分类模型的时候,无论是用最小二乘法(OLS)还是最大似然值(MLE)都用来使得残差达到最小。因此我们在建立模型的时候,都会有一个loss function。 而在神经网络里也不例外,也有个类似的loss function。 对回归而言: 对分类而言: 然后同样方法,对于W开始求导,求导为零就可以求出极值来。 关于式
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:236544
    • 提供者:weixin_38556668
  1. 利用Pytorch实现简单的线性回归算法

  2. 最近听了张江老师的深度学习课程,用Pytorch实现神经网络预测,之前做Titanic生存率预测的时候稍微了解过Tensorflow,听说Tensorflow能做的Pyorch都可以做,而且更方便快捷,自己尝试了一下代码的逻辑确实比较简单。 Pytorch涉及的基本数据类型是tensor(张量)和Autograd(自动微分变量),对于这些概念我也是一知半解,tensor和向量,矩阵等概念都有交叉的部分,下次有时间好好补一下数学的基础知识,不过现阶段的任务主要是应用,学习掌握思维和方法即可,就不再
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:109568
    • 提供者:weixin_38708707
  1. 手推BP算法及python实现

  2. 画图和编辑公式实在是太麻烦了,我就写在纸上吧 一、BP推导 一个简单的神经网络: 正向传播: 1.输入层—->隐含层: 这里我们要把得到的值通过sigmoid激活一下: 2.隐含层—->输出层:同理 这样我们就得到了输出值out(o1)和out(o2),此时这两个输出值和我们预想的输出值肯定相差甚远(可以自己设定几个数试一试)那么我们就要进行反向传播来修正w以此来修正输出值。 反向传播: 1.我们所期望的数据和输出数据的误差: 2.隐含层—->输出层的权值更新: 以w
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:1048576
    • 提供者:weixin_38522253
  1. 基于python的BP神经网络及异或实现过程解析

  2. BP神经网络是最简单的神经网络模型了,三层能够模拟非线性函数效果。 难点: 如何确定初始化参数? 如何确定隐含层节点数量? 迭代多少次?如何更快收敛? 如何获得全局最优解? ''' neural networks created on 2019.9.24 author: vince ''' import math import logging import numpy import random import matplotlib.pyplot as plt ''' neu
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:224256
    • 提供者:weixin_38581455
  1. 用Python实现机器学习算法——简单的神经网络

  2. 本文来自于网络,文章详细介绍了使用Python实现机器学习算法的损失函数、反向传播过程等相关知识。在这一章节里,我们将实现一个简单的神经网络架构,将2维的输入向量映射成二进制输出值。我们的神经网络有2个输入神经元,含6个隐藏神经元隐藏层及1个输出神经元。我们将通过层之间的权重矩阵来表示神经网络结构。在下面的例子中,输入层和隐藏层之间的权重矩阵将被表示为W,隐藏层和输出层之间的权重矩阵为W。除了连接神经元的权重向量外,每个隐藏和输出的神经元都会有一个大小为1的偏置量。我们的训练集由m=750个样本
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:203776
    • 提供者:weixin_38669674
  1. python机器学习之神经网络实现

  2. 本文来自于个人博客,这篇文章主要为大家详细介绍了python机器学习之神经网络的实现方法。神经网络在机器学习中有很大的应用,甚至涉及到方方面面。本文主要是简单介绍一下神经网络的基本理论概念和推算。同时也会介绍一下神经网络在数据分类方面的应用。首先,当我们建立一个回归和分类模型的时候,无论是用最小二乘法(OLS)还是最大似然值(MLE)都用来使得残差达到最小。因此我们在建立模型的时候,都会有一个lossfunction。而在神经网络里也不例外,也有个类似的lossfunction。对回归而言:对分
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:233472
    • 提供者:weixin_38551046
  1. Python实现简单的神经网络

  2. 从零开始学习神经网络在说神经网络之前,我们讨论一下神经元(Neurons),它是神经网络的基本单元。神经元先获得输入,然后执行某些数学运算后,再产生一个输出。比如一个2输入神经元的例子:在这个神经元里,输入总共经历了3步数学运算,先将输入乘以权重(weight):最后经过激活函数(activationfunction)处理得到输出:激活函数的作用是将无限制的输入转换为可预测形式的输出。一种常用的激活函数是sigmoid函数:sigmoid函数的输出介于0和1,我们可以理解为它把(-∞,+∞)范围
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:388096
    • 提供者:weixin_38708707
  1. Nn-Learn-Lib:一个简单的神经网络库,旨在学习机器学习和AI的基础知识-源码

  2. Nn学习库 该项目 这个项目是一个小型图书馆,目的是提供基本的表示形式,并介绍使用python的神经网络的世界,而无需使用某种高级框架库。 该库希望为感兴趣的人们提供一种学习和理解神经网络如何以简单而友好的方式工作的方式。 这个库不是我们无法想象的,它代表了不同来源的代码,视频和书籍。 该库的大部分内容基于的工作。 ( 和( 。 开发了这个库。 注意事项 使用该库时要考虑的一些注意事项是: 找到的所有示例,代码和文档仅用于教育目的。 该库并非旨在用于复杂的问题解决或复杂的实现。 该库
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:288768
    • 提供者:weixin_42177768
  1. Neural_Network:使用Python实现简单的前馈神经网络算法-源码

  2. 使用Python实现简单的前馈神经网络算法。 工作正在进行中。
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:28672
    • 提供者:weixin_42117340
  1. 用Python实现机器学习算法——简单的神经网络

  2. 本文来自于网络,文章详细介绍了使用Python实现机器学习算法的损失函数、反向传播过程等相关知识。在这一章节里,我们将实现一个简单的神经网络架构,将2维的输入向量映射成二进制输出值。我们的神经网络有 2个输入神经元,含6个隐藏神经元隐藏层及1个输出神经元。我们将通过层之间的权重矩阵来表示神经网络结构。在下面的例子中,输入层和隐藏层之间的权重矩阵将被表示为W,隐藏层和输出层之间的权重矩阵为W。除了连接神经元的权重向量外,每个隐藏和输出的神经元都会有一个大小为 1
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:194560
    • 提供者:weixin_38703968
  1. python机器学习之神经网络实现

  2. 本文来自于个人博客,这篇文章主要为大家详细介绍了python机器学习之神经网络的实现方法。神经网络在机器学习中有很大的应用,甚至涉及到方方面面。本文主要是简单介绍一下神经网络的基本理论概念和推算。同时也会介绍一下神经网络在数据分类方面的应用。首先,当我们建立一个回归和分类模型的时候,无论是用最小二乘法(OLS)还是最大似然值(MLE)都用来使得残差达到最小。因此我们在建立模型的时候,都会有一个loss function。而在神经网络里也不例外,也有个类似的lossfunction。对回归而言:对
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:227328
    • 提供者:weixin_38746515
  1. Python实现简单的神经网络

  2. 从零开始学习神经网络 在说神经网络之前,我们讨论一下神经元(Neurons),它是神经网络的基本单元。神经元先获得输入,然后执行某些数学运算后,再产生一个输出。比如一个2输入神经元的例子: 在这个神经元里,输入总共经历了3步数学运算, 先将输入乘以权重(weight):最后经过激活函数(activationfunction)处理得到输出: 激活函数的作用是将无限
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:388096
    • 提供者:weixin_38582716
  1. 神经网络(BP)算法Python实现及应用

  2. 本文实例为大家分享了Python实现神经网络算法及应用的具体代码,供大家参考,具体内容如下 首先用Python实现简单地神经网络算法: import numpy as np # 定义tanh函数 def tanh(x): return np.tanh(x) # tanh函数的导数 def tan_deriv(x): return 1.0 - np.tanh(x) * np.tan(x) # sigmoid函数 def logistic(x): return 1 / (1 + np.
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:91136
    • 提供者:weixin_38748207
  1. python实现感知器

  2. 上篇博客转载了关于感知器的用法,遂这篇做个大概总结,并实现一个简单的感知器,也为了加深自己的理解。 感知器是最简单的神经网络,只有一层。感知器是模拟生物神经元行为的机器。感知器的模型如下: 给定一个n维的输入 ,其中w和b是参数,w为权重,每一个输入对应一个权值,b为偏置项,需要从数据中训练得到。 激活函数 感知器的激活函数可以有很多选择,比如我们可以选择下面这个阶跃函数f来作为激活函数: 输出为: 事实上感知器可以拟合任何线性函数,任何线性分类或线性回归的问题都可以用感知器来解决。但
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:97280
    • 提供者:weixin_38752830
  1. BP神经网络原理及Python实现代码

  2. 本文主要讲如何不依赖TenserFlow等高级API实现一个简单的神经网络来做分类,所有的代码都在下面;在构造的数据(通过程序构造)上做了验证,经过1个小时的训练分类的准确率可以达到97%。 完整的结构化代码见于:链接地址 先来说说原理 网络构造 上面是一个简单的三层网络;输入层包含节点X1 , X2;隐层包含H1,H2;输出层包含O1。 输入节点的数量要等于输入数据的变量数目。 隐层节点的数量通过经验来确定。 如果只是做分类,输出层一般一个节点就够了。 从输入到输出的过程 1.输入节点的输出
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:103424
    • 提供者:weixin_38663701
« 12 3 4 5 6 7 »