您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Mnist BP ANN

  2. 此代码文件为python脚本,结合numpy人工智能库,利用BP反向传播神经网络算法训练Mnist不同数字图片的数据集。
  3. 所属分类:机器学习

    • 发布日期:2017-09-26
    • 文件大小:3072
    • 提供者:u010170739
  1. numpy实现神经网络反向传播算法的步骤

  2. 主要介绍了numpy实现神经网络反向传播算法的步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:290816
    • 提供者:weixin_38672807
  1. Python实现的人工神经网络算法示例【基于反向传播算法】

  2. 本文实例讲述了Python实现的人工神经网络算法。分享给大家供大家参考,具体如下: 注意:本程序使用Python3编写,额外需要安装numpy工具包用于矩阵运算,未测试python2是否可以运行。 本程序实现了《机器学习》书中所述的反向传播算法训练人工神经网络,理论部分请参考我的读书笔记。 在本程序中,目标函数是由一个输入x和两个输出y组成, x是在范围【-3.14, 3.14】之间随机生成的实数,而两个y值分别对应 y1 = sin(x),y2 = 1。 随机生成一万份训练样例,经过网络的学习
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:62464
    • 提供者:weixin_38526208
  1. pytorch的梯度计算以及backward方法详解

  2. 基础知识 tensors: tensor在pytorch里面是一个n维数组。我们可以通过指定参数reuqires_grad=True来建立一个反向传播图,从而能够计算梯度。在pytorch中一般叫做dynamic computation graph(DCG)——即动态计算图。 import torch import numpy as np # 方式一 x = torch.randn(2,2, requires_grad=True) # 方式二 x = torch.autograd.Variab
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:96256
    • 提供者:weixin_38637272
  1. PyTorch的SoftMax交叉熵损失和梯度用法

  2. 在PyTorch中可以方便的验证SoftMax交叉熵损失和对输入梯度的计算 关于softmax_cross_entropy求导的过程,可以参考HERE 示例: # -*- coding: utf-8 -*- import torch import torch.autograd as autograd from torch.autograd import Variable import torch.nn.functional as F import torch.nn as nn import n
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:48128
    • 提供者:weixin_38636763
  1. python不使用框架编写神经网络实现手写数字识别

  2. 实验目的及要求 目的:不使用框架, 用python实现神经网络, 学习算法最好的方法就是实现它, 掌握反向传播算法的推导及代码实现,掌握Xavier初始化、Adam算法、数据归一化、batch-normalization、dropout等技术。 要求:实现给定结构和指定初始化和学习算法的网络,不能使用现成的机器学习库,可以使用numpy库,对比1. 有无归一化。2. 有无batch-normalization。3. 有无dropout。的损失曲线和混淆矩阵。 实验环境及采用技术 实验环境:win
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:436224
    • 提供者:weixin_38736529
  1. PyTorch | 从NumPy到PyTorch实现神经网络

  2. 用NumPy实现两层神经网络 一个全连接ReLU神经网络,一个隐藏层,没有bias。用来从x预测y,使用Square Loss。 这一实现完全使用NumPy来计算前向神经网络,loss,和反向传播算法。 N—样本数据的大小 DinD_{in}Din​—输入层向量大小 H—隐藏层向量大小 DoutD_{out}Dout​—输出层向量大小 forward pass h=xw1h = xw_1h=xw1​                      x=>N∗Din       w1=>
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:115712
    • 提供者:weixin_38724229
  1. Udacity-源码

  2. Udacity 单元1:Numpy 单元2:McCulloch Pitts Neuron 单元3:感知器神经元 单元4:sigmod神经元 单元5:前馈神经网络 模块6:通用类 模块7:多类分类 单元8:向量化 模块9:反向传播 模块10:优化算法 模块11:Pytorch基础知识 单元12:Pytorch深度神经网络 模块13:Pyorch DNN Cuda支持 模块14:Pyorch DNN Cuda支持:激活 模块15:Pytorch深度神经网络自动编码器 模块16:Pytorch:嵌入和
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:119537664
    • 提供者:weixin_42116650
  1. Loss-Functions-Package-Tensorflow-Keras-PyTorch-源码

  2. 损失功能包Tensorflow-Keras-PyTorch 该绳索实现了一些流行的Loass / Cost / Objective函数,可用于训练深度学习模型。 对于多类别分类或细分,有时我们使用损失函数来计算每个类别的平均损失,而不是从整个预测张量中计算损失。 此内核旨在作为基本代码的模板参考,因此所有示例都将计算整个张量上的损耗,但对于多类平均修改它,对您来说应该是微不足道的。 我已经在tensorflow keras和pytorch三个流行的库中提供了实现。 让我们开始吧。 这些函
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:11264
    • 提供者:weixin_42165973
  1. Deep_Neural_Networks_from_Scratch:Python类,用于定义,训练和评估用于分类和回归任务的模型对象。 使用NumPy实现-源码

  2. 使用NumPy从零开始的深度神经网络 该项目实现了Python类,以定义,训练和评估用于分类和回归任务的深度神经网络模型。 它使用具有各种激活功能,优化程序和正则化程序的反向传播算法来训练模型对象。 该项目是完全使用NumPy库从头开始构建的。 没有使用深度学习框架。 有关此项目的详细说明以及结果,请参见。 入门 先决条件 在本地系统上运行此项目需要安装以下软件包: 麻木 matplotlib 可以使用pip从Python软件包索引中安装它们,如下所示: pip install numpy
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:276480
    • 提供者:weixin_42131541
  1. NeuralNetworkLib:使用numpy的神经网络和统计数据python库-源码

  2. 目录 介绍 “智能和人工智能是通过基于数据模式进行预测的法律进行的数据压缩。” 神经网络是机器学习的一部分,而机器学习是AI的一部分,而AI是计算机科学的一部分。 当数据不可线性分离并且由很多参数组成时,神经网络变得很实用,例如对于图像识别来说是实用的,例如,其中至少每个灰度像素形成一个参数输入。 可用于分类(选择标签)或回归(选择数量)。 它们由多个节点层组成: 第一层接受参数输入,也称为输入层 最后一层进行预测,也称为输出层 称为深层之间的层是可选的。 一旦引入了深层,数据就变成了非
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:488448
    • 提供者:weixin_42138703
  1. python-neural-network:https的分叉-源码

  2. 使用numpy实现的MLP神经网络库 一般的 这是一个功能齐全的前馈神经网络库。 实现的功能有: 损失函数:交叉熵,均方误差 层:线性,S形,ReLU 具有正向和反向传播的网络 一个热编码标签的功能 混淆矩阵可视化器 有两个演示来演示库的功能: 虹膜数据集分类器 手写数字(mnist)分类器 代码中有很多注释来解释细节 需求 python 3.x 麻木 matplotlib 安装 要安装所需的依赖项: make install 。 演示(iris数据集) 要运行演示: python3
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:11534336
    • 提供者:weixin_42118011
  1. elasticdeform:N维图像(Python,SciPy,NumPy)的微分弹性变形-源码

  2. N维图像(Python,SciPy,NumPy,TensorFlow)的弹性变形 该库为N维图像实现了基于弹性网格的变形。 弹性变形方法在 Ronneberger,Fischer和Brox,“ U-Net:用于生物医学图像分割的卷积网络”( ) Çiçek等人,“ 3D U-Net:从稀疏注释中学习密集的体积分割”( ) 该过程将为每个栅格点生成一个具有随机位移的粗位移网格。 然后对该网格进行插值以计算输入图像中每个像素的位移。 然后,使用位移矢量和样条插值使输入图像变形。 除了正
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:122880
    • 提供者:weixin_42171208
  1. autograd:有效地计算numpy代码的派生-源码

  2. 注意:Autograd仍在维护,但不再积极开发。 主要开发人员(Dougal Maclaurin,David Duvenaud,Matt Johnson和Jamie Townsend)现在正在开发 ,Dougal和Matt则全职工作。 JAX将Autograd的新版本与jit编译等附加功能结合在一起。 自动毕业 Autograd可以自动区分本机Python和Numpy代码。 它可以处理Python功能的大部分子集,包括循环,if,递归和闭包,甚至可以接受派生类的派生类。 它支持反向模式微分(a
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:2097152
    • 提供者:weixin_42126677
  1. CNN-Numpy-Implementation:手动实现卷积神经网络,而无需使用诸如pytorch和tensorflow之类的现代库-源码

  2. CNN-Numpy-实施 手动实现卷积神经网络,而无需使用诸如pytorch和tensorflow之类的现代库。 换句话说,我从头开始构建了一个神经网络,其中涉及实现正向和反向传播。 我手动编写了反向传播代码,并使用numpy手动实现了每一层的偏导数。 我在这里使用的方程式示例可以在这里找到。 E.Bendersky(2016年10月28日)。 Softmax函数及其导数。 取自 我最完善,最成功的网络是跟踪多个功能的多元回归CNN。 它可以正确确定两个图像之间的形状数量差异以及是否存在反射
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:321912832
    • 提供者:weixin_42099936
  1. jax:Python + NumPy程序的可组合转换:区分,向量化,JIT到GPUTPU等-源码

  2. JAX:Autograd和XLA | | | | | 新闻: 什么是JAX? JAX是和结合,用于高性能机器学习研究。 通过其更新版本的 ,JAX可以自动区分本机Python和NumPy函数。 它可以通过循环,分支,递归和闭包来区分,并且可以采用派生类的派生类。 它支持通过反向模式区分(aka反向传播)以及正向模式区分,并且两者可以任意组合为任意顺序。 新功能是JAX使用在GPU和TPU上编译和运行您的NumPy程序。 默认情况下,编译是在后台进行的,而库调用会及时进行编译和执行。
  3. 所属分类:其它

    • 发布日期:2021-02-08
    • 文件大小:8388608
    • 提供者:weixin_42100129
  1. numpy从头开始实现神经网络

  2. 仅使用numpy从头开始实现神经网络,包括反向传播公式推导过程; numpy构建全连接层、卷积层、池化层、Flatten层;以及图像分类案例及精调网络案例等
  3. 所属分类:深度学习

    • 发布日期:2021-01-29
    • 文件大小:342016
    • 提供者:bruce__ray
  1. PyTorch: 梯度下降及反向传播的实例详解

  2. 线性模型 线性模型介绍 线性模型是很常见的机器学习模型,通常通过线性的公式来拟合训练数据集。训练集包括(x,y),x为特征,y为目标。如下图: 将真实值和预测值用于构建损失函数,训练的目标是最小化这个函数,从而更新w。当损失函数达到最小时(理想上,实际情况可能会陷入局部最优),此时的模型为最优模型,线性模型常见的的损失函数: 线性模型例子 下面通过一个例子可以观察不同权重(w)对模型损失函数的影响。 #author:yuquanle #data:2018.2.5 #Study of Lin
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:219136
    • 提供者:weixin_38719564
  1. pytorch中的自定义反向传播,求导实例

  2. pytorch中自定义backward()函数。在图像处理过程中,我们有时候会使用自己定义的算法处理图像,这些算法多是基于numpy或者scipy等包。 那么如何将自定义算法的梯度加入到pytorch的计算图中,能使用Loss.backward()操作自动求导并优化呢。下面的代码展示了这个功能` import torch import numpy as np from PIL import Image from torch.autograd import gradcheck class Bic
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:48128
    • 提供者:weixin_38564990
  1. numpy实现神经网络反向传播算法的步骤

  2. 一、任务 实现一个4 层的全连接网络实现二分类任务,网络输入节点数为2,隐藏层的节点数设计为:25,50,25,输出层2 个节点,分别表示属于类别1 的概率和类别2 的概率,如图所示。我们并没有采用Softmax 函数将网络输出概率值之和进行约束,而是直接利用均方差误差函数计算与One-hot 编码的真实标签之间的误差,所有的网络激活函数全部采用Sigmoid 函数,这些设计都是为了能直接利用梯度推导公式。 二、数据集 通过scikit-learn 库提供的便捷工具生成2000 个线性不可
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:288768
    • 提供者:weixin_38722193
« 12 »