您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. L1-L12.rar

  2. 2020 年参加伯禹教育pytorch培训资料 包括L12 Transformer.L11注意力机制和Seq2seq模型L10机器翻译L9循环神经网络进阶 L8梯度消失、梯度爆炸L7过拟合欠拟合及其解决方案L6循环神经网络L5语言模型与数据集L4文本预处理L3Softmax与分类模型L2多层感知机L1 线性回归 博文https://blog.csdn.net/xiuyu1860L1到L11所有jupyter noteobok 文件下载
  3. 所属分类:深度学习

    • 发布日期:2020-02-15
    • 文件大小:107520
    • 提供者:xiuyu1860
  1. Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. Task03: 过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 目录 Task03: 过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 1、过拟合、欠拟合及其解决方案 1.1 训练误差和泛化误差 1.2 模型选择 1.3 过拟合和欠拟合 1.4 权重衰减 1.5 丢弃法 2、梯度消失、梯度爆炸 2.1 定义 2.2 随机初始化模型参数 2.3 考虑环境因素 3、循环神经网络进阶 3.1 门控循环单位(GRU) 3.2 长短期记忆(LSTM) 3.3 深度循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:711680
    • 提供者:weixin_38575536
  1. 动手学深度学习 Task03 过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 【一】过拟合、欠拟合及其解决方案 过拟合 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 欠拟合 当模型无法得到较低的训练误差时,我们将这一现象称作欠拟合(underfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里重点讨论两个因素: 模型复杂度和训练数据集大小。 1.模型复杂度 为了解释模型复杂度,我们以多项式函数拟合为例。给定一个由标量数据特征 x 和对应的标量标签 y 组成的训练数据集
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:271360
    • 提供者:weixin_38647517
  1. 【DL学习笔记】打卡02:Task03-05

  2. Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:70656
    • 提供者:weixin_38508497
  1. 《动手学——循环神经网络进阶、梯度消失、梯度爆炸以及Kaggle房价预测、过拟合、欠拟合及其解决方案》笔记

  2. 《动手学——循环神经网络进阶》笔记 GRU 时间步数较大或者较小时,循环神经网络梯度较容易出现梯度衰减/梯度爆炸。 虽然裁剪梯度可以应对梯度爆炸,但没法解决梯度衰减问题。 所以提出⻔控循环神经⽹络GRU,来捕捉时间序列中时间步距离较⼤的依赖关系 RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 RNN: Ht=ϕ(XtWxh+Ht−1Whh+bh) GRU: Rt=σ(XtWxr+Ht−1Whr+br) Zt=σ(XtWxz+Ht−
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:148480
    • 提供者:weixin_38617602
  1. Task03、Task04、Task05

  2. 本文意在于记录短期学习中同僚总结的知识点,主要学习平台在伯禹https://www.boyuai.com/elites/course/cZu18YmweLv10OeV Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:117760
    • 提供者:weixin_38571878
  1. 《动手学深度学习》第二次打卡-学习小队

  2. 一、学习任务: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 二、学习要点 2.1 过拟合、欠拟合及其解决方案 过拟合:太过贴近于训练数据的特征了,在训练集上表现非常优秀,近乎完美的预测/区分了所有的数据,但是在新的测试集上却表现平平 欠拟合:样本不够或者算法不精确,测试样本特性没有学到,不具泛化性,拿到新样本后
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:512000
    • 提供者:weixin_38613154
  1. 小结3:过拟合欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 文章目录过拟合、欠拟合及其解决方法过拟合问题(high variance)欠拟合问题(high bias)梯度消失及梯度爆炸循环网络进阶 过拟合、欠拟合及其解决方法 过拟合问题(high variance) 过拟合问题:是指模型太过复杂,对训练数据效果好,而对新样本泛化能力较弱。 (训练误差低 验证误差高) 产生过拟合的可能原因,可能为其中之一或者都有: 模型的复杂度过高。如网络太深,神经网络中;或者线性回归中模型的阶次 过多的变量特征 训练数据过少 如何解决过拟合: 降低模型复杂度 减少特征数
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:61440
    • 提供者:weixin_38598745
  1. 伯禹AI – task03 过拟合、欠拟合及其解决方案 -梯度消失与爆炸、循环神经网络进阶

  2. 在介绍以上概念之前要理解 训练集、测试集与验证集的区分:     从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训练数据选择模型。鉴于此,我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。例如,我们可以从给定的训练集中随机选取一小部分作为验证集,而将剩余部分作为真正的训练集。     训练误差(traini
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:260096
    • 提供者:weixin_38608189
  1. Task03:过拟合、欠拟合及其解决方案/梯度消失、梯度爆炸/循环神经网络进阶

  2. 1 过拟合、欠拟合及其解决方案 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 模型选择 验证数据集
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:771072
    • 提供者:weixin_38722891
  1. 过拟合欠拟合及其解决方案、梯度消失梯度爆炸、循环神经网络进阶

  2. 一、过拟合欠拟合及其解决方案 我们将探究模型训练中经常出现的两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 二、梯度消失梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:153600
    • 提供者:weixin_38637764
  1. 动手学 task03 过拟合、欠拟合及其解决方案+梯度消失、梯度爆炸+循环神经网络进阶

  2. 过拟合、欠拟合及其解决方案 过拟合和欠拟合 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 模型复杂度与过拟合、欠拟合的关系如下图: 训练数据集大小: 影响欠拟合和过拟合的另一个重要因素是训练数据集的大小。一般来
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:51200
    • 提供者:weixin_38749305
  1. 《动手学深度学习》Task03 :过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 一、模型选择、过拟合和欠拟合 模型选择 验证数据集 从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训练数据选择模型。鉴于此,我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。例如,我们可以从给定的训练集中随机选取一小部分作为验证集,而将剩余部分作为真正的训练集。 K折交叉验证 由于验证数据集不参与模型训练,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38743084
  1. 《动手学深度学习:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶》

  2. 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 简洁实现 def fit_and_plot_pytorch(wd): # 对权重参数衰减。权重名称一般是以weight结尾 net = nn.Linear(num_inputs, 1) nn.init.normal_(net.weight, mean=0, std=1) nn.init.normal_(net.bias, mean=0, std=1) optimizer_w = torc
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:25600
    • 提供者:weixin_38674616
  1. Deep Learning_Task3_过拟合、欠拟合/梯度消失、梯度爆炸/循环神经网络进阶

  2. 一、过拟合、欠拟合及其解决方案 ·模型选择、过拟合和欠拟合 训练误差(training error):模型在训练数据集上表现出来的误差 泛化误差(generalization error):模型在任意一个测试样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似 计算训练误差和泛化误差可以使用损失函数,比如平方损失函数和交叉熵损失函数等 模型选择 验证数据集 在严格意义上,测试集只能在所有超参数和模型参数选定后使用一次,不可以使用测试数据选择模型,如调参;而由于无法通过训练误差估计泛化误差
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:331776
    • 提供者:weixin_38646914
  1. 《动手学深度学习》Task03:过拟合、欠拟合及其解决方案+梯度消失、梯度爆炸+循环神经网络进阶

  2. 文章目录1 过拟合、欠拟合及其解决方案1.1 模型选择、过拟合和欠拟合1.2 过拟合和欠拟合1.3 权重衰减1.4 丢弃法2 梯度消失、梯度爆炸2.1 梯度消失和梯度爆炸2.2 考虑环境因素3 循环神经网络进阶3.1 GRU3.2 LSTM3.3 双向循环神经网络 文章目录 过拟合、欠拟合及其解决方案 梯度消失、梯度爆炸 循环神经网络进阶 1 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 1.1 模型选择、过拟合和欠拟合 1.1.1 训练误差和泛
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38663415
  1. pytorch实现task3——过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 过拟合、欠拟合及解决方案在之前自己已经使用较多较熟练,故跳过。 梯度消失、梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 当神经网络的层数较多时,模型的数值稳定性容易变差。 在神经网络中,通常需要随机初始化模型参数。随机初始化模型参数的方法有很多。在线性回归的简洁实现中,我们使用torch.nn.init.normal_()使模型net的权重参数采用正态分布的随机初始化方式。不过,PyTorch中nn.Module的模块参数都采取了较为合理的
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:74752
    • 提供者:weixin_38690739
  1. 《动手学深度学习》task3——过拟合、欠拟合及解决方案,梯度消失、梯度爆炸,循环神经网络进阶笔记

  2. 系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度学习》task2_1 文本预处理 《动手学深度学习》task2_2 语言模型 《动手学深度学习》task2_3 循环神经网络基础 《动手学深度学习》task3_1 过拟合、欠拟合及其解决方案 《动手学深度学习》task3_2 梯度消失、梯度爆炸 《动手学深度学习》task3_3 循环神经网络进阶 《
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:194560
    • 提供者:weixin_38584058
  1. 深度学习(三)————过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 目录 过拟合、欠拟合及其解决方案 训练误差和泛化误差 过拟合和欠拟合的概念 模型复杂度和误差之间的关系 解决过拟合的方案 梯度消失及梯度爆炸 循环神经网络进阶 GRU LSTM 深度神经网络 过拟合、欠拟合及其解决方案 训练误差和泛化误差        在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:408576
    • 提供者:weixin_38635092
  1. 深度学习d3:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 欠拟合和过拟合 训练误差和泛化误差 训练误差 :训练集上的误差 泛化误差 :测试集上的误差 训练误差的期望小于或等于泛化误差,因为一直在训练训练集。训练误差的降低不等于泛化误差的降低。但机器学习的真正目的是降低泛化误差。 模型选择 验证集 :可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。如从给定的训练集中选一些做验证集。 K折交叉验证 : 节省数据。把原始训练数据集分割成
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:24576
    • 提供者:weixin_38742520
« 12 »