您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. L1-L12.rar

  2. 2020 年参加伯禹教育pytorch培训资料 包括L12 Transformer.L11注意力机制和Seq2seq模型L10机器翻译L9循环神经网络进阶 L8梯度消失、梯度爆炸L7过拟合欠拟合及其解决方案L6循环神经网络L5语言模型与数据集L4文本预处理L3Softmax与分类模型L2多层感知机L1 线性回归 博文https://blog.csdn.net/xiuyu1860L1到L11所有jupyter noteobok 文件下载
  3. 所属分类:深度学习

    • 发布日期:2020-02-15
    • 文件大小:107520
    • 提供者:xiuyu1860
  1. 多层感知机 python pytorch

  2. 多层感知机的基本知识 深度学习主要关注多层模型。在这里,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的概念。
  3. 所属分类:机器学习

    • 发布日期:2020-02-13
    • 文件大小:6144
    • 提供者:qq_40441895
  1. AI之梯度消失、梯度爆炸以及Kaggle房价预测

  2. 梯度消失、梯度爆炸以及Kaggle房价预测梯度消失和梯度爆炸随机初始化模型参数PyTorch的默认随机初始化Xavier随机初始化考虑环境因素协变量偏移标签偏移概念偏移Kaggle 房价预测实战获取和读取数据集预处理数据训练模型对数均方根误差实现K折交叉验证模型选择预测并在Kaggle中提交结果 梯度消失和梯度爆炸   深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。   当神经网络的层数较多时,模型的数值稳定性容易变差。   假设一个层数为L的多层感知
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:296960
    • 提供者:weixin_38733875
  1. 【PyTorch学习笔记1】MNIST手写数字识别之MLP实现

  2. 在本笔记中,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的相关概念,并将其运用到最基础的MNIST数据集分类任务中,同时展示相关代码。本笔记主要从下面四个方面展开: 文章目录1 多层感知机(MLP)理论知识1.1 隐藏层1.2 激活函数1.3 多层感知机1.4 交叉熵(cross entropy)损失函数2. MNIST数据集简介3. 代码详解及结果展示4. 心得体会 1 多层感知机(MLP)理论知识 1.1 隐藏层 多层感知机在单层神经网络
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:263168
    • 提供者:weixin_38545485
  1. 简单多层感知机(MLP)–pyTorch实现

  2. 多层感知机(MLP,Multilayer Perceptron)也叫人工神经网络(ANN,Artificial Neural Network),除了输入输出层,它中间可以有多个隐层,最简单的MLP只含一个隐层,即三层的结构,如下图最简单的MLP: 上图模型pyTorch代码: import torch from torch.nn import functional as F x = torch.randn(1, 10) # 输入x的特征有10个 w = torch.randn(3, 10,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:103424
    • 提供者:weixin_38629206
  1. 动手学深度学习Pytorch版本学习笔记 Task4

  2. 1.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 主要步骤: 1. 数据预处理 2.分词 3.建立词典 Sequence to Sequence模型: 2.注意力机制与Seq2seq模型 a.点注意力机制与多层感知机注意力机制 b.引入注意力机制的Seq2seq模型:将注意机制添加到sequence to sequence
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:199680
    • 提供者:weixin_38717896
  1. pytorch学习二

  2. 动手学课程学习回顾: 2:nlp领域 机器翻译 数据预处理——分词——建立词典——载入数据集 encoder、decoder 注意力机制 输入:询问、键值对 softmax屏蔽 超二维矩阵乘法 点积注意力 多层感知机注意力 seq2seq模型 transformer cnn与rnn的区别 多头注意力基于位置的前馈网络 add and norm 位置编码 优化与估计 局部最小值,鞍点,梯度消失 凸性、jensen不等式 梯度下降 一维梯度下降、学习率、局部极小值、多维梯度下降、自适应方法(牛顿法)
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:34816
    • 提供者:weixin_38726007
  1. mnist分类:Pytorch,Scikit学习实现多种分类方法,包括逻辑回归(Logistic回归),多层感知机(MLP),支持向量机(SVM),K近邻(KNN),CNN,RNN,极简代码适合新手小白入门,附英文实验报告(ACM模板)-源

  2. mnist分类 使用多种方法完成MNIST分类任务 Python 3.6 火炬1.0 Scikit学习0.21 无需下载数据直接跑,代码自动下载 模型 逻辑回归Logistic回归 多层感知机 K近邻KNN 支持向量机 卷积神经网络 循环神经网络 实验报告 见mnistClassification.pdf 对应的latex原始码: :
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:1048576
    • 提供者:weixin_42109125
  1. 深度学习PyTorch版学习笔记与心得(二)

  2. 多层感知机     1.多层感知机的基本知识       多层感知机(MLP)是研究神经网络的一个非常重要的多层模型。       下图展示了一个多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。 表达公式:       具体来说,给定一个小批量样本X∈Rn×dX∈Rn×d,其批量大小为nn,输入个数为dd。假设多层感知机只有一个隐藏层,其中隐藏单元个数为hh。记隐藏层的输出(也称为隐藏层变量或隐藏变量)为HH,有H∈Rn×hH∈Rn×h。因为隐藏层和输出层均是全连接层,可以设隐
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:84992
    • 提供者:weixin_38572115
  1. 动手学深度学习Pytorch版本学习笔记 Task3

  2. 1.过拟合、欠拟合及其解决方案 过拟合:模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 欠拟合:模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。 解决过拟合的方法:权重衰减(L2 范数正则化)和丢弃法 2.梯度消失和梯度爆炸 a.梯度消失和梯度爆炸 假设一个层数为LL的多层感知机的第ll层H(l)H(l)的权重参数为W(l)W(l),输出层H(L)H(L)的权重参数为W
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:51200
    • 提供者:weixin_38694800
  1. 深度学习PyTorch实践打卡(二)

  2. ##一、典型的神经网络结构 (1)传统的多层感知机 (2)卷积神经网络,包括 a. AlexNet 真正让卷积神经网络走进大家视野的网络 b. VGG 用更小的卷积核,在相同的感受野下具有更深的网络结构 c. GoogleNet 不同size的卷积核的Ensemble d. ResNet e. DenseNet (3) 循环/递归神经网络 a. LSTM b. GRU 二、Seq2Seq模型 三、注意力机制 四、过拟合、欠拟合及其解决方案 (1)过拟合、欠拟合的概念 一类是模型无法得到较低的训练
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:40960
    • 提供者:weixin_38555019