您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 【DL学习笔记】打卡02:Task03-05

  2. Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:70656
    • 提供者:weixin_38508497
  1. 第二阶段学习笔记

  2. 过拟合、欠拟合及其解决方案 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:303104
    • 提供者:weixin_38592611
  1. 14天动手挑战深度学习Pytorch–task3、4、5笔记

  2. 一、过拟合以及欠拟合提出以及解决方案 1.欠拟合以及过拟合的概念 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 2.模型复杂度和训练数据集大小 3补充:在多项式函数拟合实验中用到的torch.cat()函数的用
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:142336
    • 提供者:weixin_38554186
  1. 《动手学深度学习》task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer笔记

  2. 系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度学习》task2_1 文本预处理 《动手学深度学习》task2_2 语言模型 《动手学深度学习》task2_3 循环神经网络基础 《动手学深度学习》task3_1 过拟合、欠拟合及其解决方案 《动手学深度学习》task3_2 梯度消失、梯度爆炸 《动手学深度学习》task3_3 循环神经网络进阶 《
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:78848
    • 提供者:weixin_38687968
  1. 深度学习—学习笔记(二)

  2. 模型选择、过拟合和欠拟合 1、训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。机器学习模型应关注降低泛化误差。 2、模型选择 验证数据集
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:103424
    • 提供者:weixin_38589314
  1. 动手学深度学习Pytorch版本学习笔记 Task 03

  2. 1.过拟合、欠拟合及其解决方案 1.1对于过拟合、欠拟合的理解 我们探究模型训练中经常出现的两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 1.2模型复杂度的影响 1.3训练数据集大小影响 影响欠
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:212992
    • 提供者:weixin_38750861
  1. 动手深度学习 笔记5

  2. 模型选择、欠拟合和过拟合 训练误差(training error):指模型在训练数据集上表现出的误差。 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 机器学习模型应关注降低泛化误差。 模型选择 1.验证数据集 我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。 2.K折交叉验证 把原始训练数据集分割成K个不重合的
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:44032
    • 提供者:weixin_38521831
  1. 深度学习笔记(3)

  2. 一、过拟合、欠拟合及其解决方案 1、训练误差和泛化误差 训练误差(training error):指模型在训练数据集上表现出的误差。 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 验证数据集:预留一部分在训练数据集和测试数据集以外的数据来进行
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:285696
    • 提供者:weixin_38640985
  1. 深度学习学习笔记(二)

  2. (一)过拟合欠拟合及其解决方案 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 验证数据集 从严格意义
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:659456
    • 提供者:weixin_38743119
  1. 【学习笔记】动手学深度学习 Task02

  2. (需要一定时间逐步补充以下内容,暂且用做打卡) 1. 模型选择、过拟合和欠拟合 训练误差和泛化误差 模型选择 验证数据集 K折交叉验证 过拟合和欠拟合 模型复杂度 权重衰减 L2 范数正则化 高维线性回归实验 2. 梯度消失、梯度爆炸 梯度消失 梯度爆炸 模型训练和预测 3. 卷积神经网络基础 二维卷积层 二维互相关运算 特征图与感受野 填充和步幅 多输入通道和多输出通道 卷积层与全连接层的对比 卷积、池化 4. 循环神经网络进阶 GRU LSTM 5. 机器翻译及相关技术 数据预处理 分词 建
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38697444
  1. Task03:过拟合、欠拟合及其解决方案学习笔记

  2. 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:108544
    • 提供者:weixin_38727199
  1. 动手学深度学习笔记二

  2. Task03 错题 一.过拟合、欠拟合及解决方法 二.梯度消失、梯度爆炸 可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象,这个现象是由于协变量时间发生了变化造成的。 三.循环神经网络进阶 实现深层循环神经网络需要修改的参数是?num_layers 3. GRU有重置门和更新门,没有遗忘门。重置门有助于捕捉时间序列里短期的依赖关系,更新门有助于捕捉时间序列⾥长期的依赖关系。参考视频1分20秒起关于GRU的原理讲解。 4. 每个循环单元中的记
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38694674
  1. 过拟合、欠拟合学习笔记

  2. 探究模型训练中经常出现的两类典型问题: 一类是欠拟合,另一类是过拟合. 1.欠拟合 模型无法得到较低的训练误差,将这一现象成为欠拟合. 2.过拟合 模型的训练误差远小于它在测试集上的误差,称这一现象为过拟合. 可能导致这两种拟合问题的因素有很多,比如模型复杂度和训练集大小. 模型复杂度 随着模型复杂度增加,训练误差波动降低,平均训练误差降低趋向于0,而测试误差波动上升,平均测试误差先降低后升高。这个现象说明训练误差不能代替测试误差来作为模型选择和评价的手段。随着模型复杂度变化,训练误差与测试误差
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:38912
    • 提供者:weixin_38726441
  1. 【动手学深度学习】Task03笔记汇总

  2. Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 过拟合、欠拟合及其解决方案 第一反应是训练数据集大小带来的影响,或许有很多研究怎么丰富数据集的文献吧,数据集大,那么复杂的模型就更好发挥作用。 1.过拟合常用的模型层面的应对方法: 权重衰减,也即L2-Norm Regularization。从公式和名字易见,该方法加入了对权重系数的2范数作为惩罚项从而学习到数值较小的参数。(那么自然而然会产生的问题就是:为什么不对偏置做正则化,这个可以去实验一下,应该会发现偏置没有
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:105472
    • 提供者:weixin_38735987
  1. [动手学深度学习PyTorch笔记三]

  2. 一 过拟合、欠拟合及其解决方案 欠拟合(underfitting): 一类是模型无法得到较低的训练误差,我们将这一现象称作 过拟合(overfitting):模型的训练误差远小于它在测试数据集上的误差,我们称该现象为。 在实践中,我们要尽可能同时应对欠拟合和过拟合。两个主要影响因素:模型复杂度和训练数据集大小。模型复杂度过低会导致欠拟合,过高则导致过拟合,训练数据集过小容易发生过拟合。因此需选取适当的模型复杂度和计算能力范围内可以承受的较大训练数据集。 解决方案 1 权重衰减 权重衰减等价于 L
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:60416
    • 提供者:weixin_38686860
  1. 深度学习笔记二(task03-05)

  2. 一.过拟合及欠拟合及其解决方案 训练误差和泛化误差 训练误差是指在训练数据集上表现出的误差,泛化误差指的是模型在任意一个测试数据样本上表现出来的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以用损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。在机器学习模型应关注降低泛化误差。 验证数据集 从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38748718
  1. DataWhale学习笔记过拟合、欠拟合及其解决方案

  2. 过拟合,欠拟合        在模型的评估和调整过程中,往往会遇到过拟合和欠拟合的问题,这也是及其学习中的经典问题,但在目前的任务中仍然会出现过拟合等问题,对于常用的解决方法,总结如下。        在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:119808
    • 提供者:weixin_38589795
  1. 动手学深度学习笔记3过拟合、欠拟合

  2. 一、欠拟合与过拟合 误差: 训练误差(training error):指模型在训练数据集上表现出的误差 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。机器学习模型应关注降低泛化误差。 Q:如何计算误差?A:引入损失函数(MSE、交叉熵损失)。 验证集:从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。因为不可以使用测试数据选择模型,如调参。所以引入验证集(从训练集中划分出部分验证集),即预
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:373760
    • 提供者:weixin_38713009
  1. 过拟合和欠拟合学习笔记

  2. 欠拟合 模型无法得到较低的训练误差(模型在训练数据集上表现出的误差),这一现象称作欠拟合(underfitting) 过拟合 过拟合得问题指的是模型在测试集上的结果不好,训练误差较低但是泛化误差依然较高,二者相差较大。 解决过拟合得问题通常可以通过增加数据量,另外还可以用正则化的方法。 正则化 L2范数正则化 通常指得是L2范数正则化,是在损失函数中再加一个正则项λ2n\frac{λ}{2n}2nλ​,其中超参数λ>0λ>0λ>0,损失函数如下 J(W,b)+λ2n∣w∣2J(
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:116736
    • 提供者:weixin_38562329
  1. 《动手学深度学习PyTorch版》打卡_Task3,过拟合,欠拟合,梯度消失,梯度爆炸

  2. 最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,对过拟合,欠拟合,梯度消失,梯度爆炸做下笔记。 过拟合和欠拟合 模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting) 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合 解决方法 权重衰减 权重衰减等价于 L2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。带有L2L2范数惩罚项的新损失函
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:116736
    • 提供者:weixin_38752897
« 12 »