您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 动手学深度学习PyTorch版 | (4)循环神经网络

  2. 文章目录一. 传统RNN二. GRUstep 1 : 载入数据集step 2 : 初始化参数step 3: GRUstep 4: 训练模型简洁实现GRU三. LSTMstep 1: 初始化参数step 2: LSTM 主函数step 3: 训练模型step 4: 简洁实现 一. 传统RNN RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) 二. GRU ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 重置⻔有助于捕捉时间序列⾥短期的依赖关系; 更新⻔有助于捕捉时间序列⾥
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:257024
    • 提供者:weixin_38728277
  1. 动手学深度学习PyTorch版 | (4)循环神经网络

  2. 文章目录一. 传统RNN二. GRUstep 1 : 载入数据集step 2 : 初始化参数step 3: GRUstep 4: 训练模型简洁实现GRU三. LSTMstep 1: 初始化参数step 2: LSTM 主函数step 3: 训练模型step 4: 简洁实现 一. 传统RNN RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) 二. GRU ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 重置⻔有助于捕捉时间序列⾥短期的依赖关系; 更新⻔有助于捕捉时间序列⾥
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:257024
    • 提供者:weixin_38644688
  1. 动手学深度学习02–task03

  2. 填充和步幅 我们介绍卷积层的两个超参数,即填充和步幅,它们可以对给定形状的输入和卷积核改变输出形状。 填充 填充(padding)是指在输入高和宽的两侧填充元素(通常是0元素),图2里我们在原输入高和宽的两侧分别添加了值为0的元素。 图2 在输入的高和宽两侧分别填充了0元素的二维互相关计算 如果原输入的高和宽是nhn_hnh​和nwn_wnw​,卷积核的高和宽是khk_hkh​和kwk_wkw​,在高的两侧一共填充php_hph​行,在宽的两侧一共填充pwp_wpw​列,则输出形状为: (nh
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:406528
    • 提供者:weixin_38685694
  1. [笔记2]动手学深度学习

  2. 资料来源:伯禹学习平台。 概念整理 K折交叉验证 由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validation)。在K折交叉验证中,我们把原始训练数据集分割成K个不重合的子数据集,然后我们做K次模型训练和验证。每一次,我们使用一个子数据集验证模型,并使用其他K-1个子数据集来训练模型。在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。 L2 范数正
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:759808
    • 提供者:weixin_38743054
  1. 动手学深度学习Task03-Task05

  2. 过拟合、欠拟合及其解决方案 过拟合和欠拟合 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 L2 范数正则化(regularization) L2 范数正则化在模型原损失函数基础上添加L2范数惩罚项,从而得到训练所需要最小化的函数。L2范数惩罚项指的是模型权重参数每个元素的平方和与一个正的常数的乘积。以线性回归中的线性回归损失函数为例 其中 w1,w
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:840704
    • 提供者:weixin_38685882
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:135168
    • 提供者:weixin_38630571
  1. 动手学深度学习-task2

  2. 一、深度学习中的一些常见问题及解决方案 (1)欠拟合 欠拟合即模型无法得到较低的训练误差,导致欠拟合的主要原因是模型复杂度不够,特征维度过少,导致拟合的函数无法满足训练集,误差较大。 (2)过拟合 过拟合即模型的训练误差远小于它在测试数据集上的误差,导致过拟合的主要原因是模型复杂度过高,特征维度过多,导致拟合的函数完美的经过训练集,但是对新数据的预测结果则较差。 (3)解决方案 1、应对欠拟合问题,即增加其特征维度,优化模型,提升复杂度即可。 2、应对过拟合问题,有两种常见的解决方案:权重衰减和
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:68608
    • 提供者:weixin_38677260
  1. 动手学深度学习Pytorch版本学习笔记 Task4

  2. 1.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 主要步骤: 1. 数据预处理 2.分词 3.建立词典 Sequence to Sequence模型: 2.注意力机制与Seq2seq模型 a.点注意力机制与多层感知机注意力机制 b.引入注意力机制的Seq2seq模型:将注意机制添加到sequence to sequence
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:199680
    • 提供者:weixin_38717896
  1. 《动手学深度学习》task3

  2. 1.过拟合、欠拟合及其解决方案 模型训练中经常出现的两类典型问题: 1.模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 2.模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,我们重点讨论两个因素:模型复杂度和训练数据集大小。 给定训练数据集,模型复杂度和误差之间的关系: 1.关于torch.cat()的用法 cat是concatn
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:211968
    • 提供者:weixin_38687928
  1. 动手学深度学习Pytorch版本学习笔记 Task 03

  2. 1.过拟合、欠拟合及其解决方案 1.1对于过拟合、欠拟合的理解 我们探究模型训练中经常出现的两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 1.2模型复杂度的影响 1.3训练数据集大小影响 影响欠
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:212992
    • 提供者:weixin_38750861
  1. 动手学深度学习(2)

  2. 动手学深度学习(2) 过拟合和欠拟合 接下来,我们将探究模型训练中经常出现的两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 卷积神经网络参数计算 Convolutional Neural Net
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:400384
    • 提供者:weixin_38678510
  1. 动手学深度学习之深度学习基础

  2. 动手学深度学习之深度学习基础 文章目录动手学深度学习之深度学习基础1、过拟合、欠拟合及其解决方案2、梯度消失、梯度爆炸3、循环神经网络进阶4、机器翻译及相关技术5、注意力机制与Seq2seq模型6、Transformer7、卷积神经网络基础8、LeNet9、卷积神经网络进阶 1、过拟合、欠拟合及其解决方案 训练误差(training error):模型在训练数据集上表现的误差 泛化误差(generalization error):模型在任意一个测试数据样本上表现出的误差的期望,常常通过测试数据集
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:68608
    • 提供者:weixin_38555229
  1. 动手学深度学习_4

  2. 动手学深度学习_41循环神经网络1.1 GRU1.2 LSTM1.3 深层RNN深度循环神经网络1.4 双向RNN双向循环神经网络2 机器翻译3 注意力机制与Seq2seq模型3.1注意力机制3.2 注意力机制框架3.3 点积注意力3.4 引入注意力机制的Seq2seq模型4 Transformer4.1多头注意力层4.2 位置编码4.3 解码器 1循环神经网络 1.1 GRU RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) Ht=ϕ(XtWxh+Ht−1Whh+bh) H_{t}
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:484352
    • 提供者:weixin_38655987
  1. 动手学深度学习实现DAY-2

  2. 节选自“ElitesAI·动手学深度学习PyTorch版” Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training err
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38586279
  1. Dive-into-DL-TensorFlow2.0:本项目将《动手学深度学习》(Dive into Deep Learning)原书中的MXNet实现替代TensorFlow 2.0实现,项目已获得李沐老师的认可-源码

  2. 将原书中MXNet代码实现转换TensorFlow2实现。通过的导师咨询李沐老师,这个项目的实施已得到李沐老师的同意。原书作者:阿斯顿·张,李沐,扎卡里C.立顿,亚历山大J.斯莫拉以及其他社区贡献者,GitHub地址: : 此书的,版本存在一些不同,本项目主要针对此书的中文版进行TensorFlow2转换。另外,本项目也参考了该书的中文版进行PyTorch替代的项目 ,在此表示感谢。 逐步更新到十章,持续更新中。。。 已项目被机器之心等多家公众号,受到并且李原作者沐的 简介 本仓库主要包含代
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:32505856
    • 提供者:weixin_42121412
  1. 动手学深度学习笔记2

  2. 模型过拟合与欠拟合 首先我们需要区分训练误差和泛化误差。一般来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 记录一下模型训练中经常出现的两类典型问题:一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting);另一类是模型的训练误差远小于它在测试数据集上的误差
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:129024
    • 提供者:weixin_38694343
  1. 动手学深度学习打卡之二。

  2. 第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28672
    • 提供者:weixin_38506835
  1. 动手学深度学习第二次打卡2/18

  2. task3 task4 and task5 1.过拟合、欠拟合及其解决方案 解决方法包括:验证数据集和交叉验证 权重衰减 L2 范数正则化(regularization) 例如在线性回归中加入带有l2范数惩罚项的损失函数。 当 λ 较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当 λ 设为0时,惩罚项完全不起作用。 2.(1)梯度消失、梯度爆炸以及Kaggle房价预测 当神经网络的层数较多时,模型的数值稳定性容易变差 (2)考虑环境因素 协变量偏移 标签偏移 概
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:152576
    • 提供者:weixin_38686542
  1. 动手学深度学习(四):机器翻译

  2. 机器翻译和注意力机制 机器翻译是指将一段文本从一种语言自动翻译到另一种语言。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。 步骤 1、读取和预处理 2、含注意力机制的编码器—解码器 我们将使用含注意力机制的编码器—解码器来将一段简短的法语翻译成英语。 (1)编码器 (2)注意力机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:371712
    • 提供者:weixin_38620734
  1. 《动手学深度学习》Task03-Task05

  2. 过拟合、欠拟合及其解决方案 训练误差:模型在训练数据集上表现出的误差。 泛化误差:模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似——机器学习模型应关注降低泛化误差。 损失函数 (1)平方损失函数 (2)交叉熵损失函数(CrossEntropy Loss)——度量两个概率分布间的差异性,在机器学习中表示为样本的真实分布和模型所预测的分布之间的差异,反复训练使预测分布接近真实分布。 交叉熵公式: 其中p为真实概率分布,q为预测概率分布。交叉熵在分类问题中常常与so
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:519168
    • 提供者:weixin_38699492
« 12 3 »