您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Pytorch学习第二次打卡

  2. Pytorch学习第二次打卡 目录 文章目录Pytorch学习第二次打卡目录过拟合、欠拟合及其解决方案欠拟合过拟合解决方法梯度消失,梯度爆炸卷积神经网络卷积层池化层常见卷积网络 过拟合、欠拟合及其解决方案 欠拟合 模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 线性函数拟合,如图: 过拟合 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。训练样本不足,如下图: 给定训练数据集,模型复杂度和误差之间的关系:
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:101376
    • 提供者:weixin_38658568
  1. DataWhale组队学习打卡(二)

  2. 前言 记《手动学深度学习》组队学习第二次打卡 打卡内容 线性回归代码实现(基于Pytorch) 理论复习 线性回归理论部分可参考上一篇博客 线性回归模型从零开始的实现 借助jupyter运行代码,方便清晰展示各环节的输出情况。 1. 导入基础模块 In [ ]: # import packages and modules %matplotlib inline import torch from IPython import display from matplotlib import pyplo
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:75776
    • 提供者:weixin_38682406
  1. ElitesAI·动手学深度学习PyTorch版-第二次打卡task02

  2. 1、机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.1 数据预处理 将数据集清洗、转化为神经网络的输入minbatch. def preprocess_raw(text): text = text.replace('\u202f', ' ').replace('\xa0', ' ') out = '' for
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38532139
  1. ElitesAI·动手学深度学习PyTorch版-第二次打卡task03

  2. 1、卷积神经网络基础: 1.1 二维卷积操作: 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 其中。卷积核为2:heavy_m
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:945152
    • 提供者:weixin_38718262
  1. ElitesAI·动手学深度学习PyTorch版(第二次打卡)

  2. • Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸 知识点 1.训练误差(training error)和泛化误差(generalization error) 训练误差:训练数据集上表现出的误差 泛化误差:模型在测试数据样本上表现出的误差 验证误差:我们可以预留一部分在训练数据集和测试数据集以外的数据代入模型求得得误差。训练数据集和测试数据集以外的数据被称为验证数据集,简称验证集(validation set) 2.过拟合、欠拟合 欠拟合(underfitting):模型无法得到较
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:434176
    • 提供者:weixin_38523728
  1. 动手深度学习(Pytorch)之路—第二次打卡

  2. 引言 今天分享的内容有:首先聊聊深度学习中存在的过拟合、欠拟合现象,以及梯度消失、梯度爆炸等。其次,分享一个本人梳理的卷积神经网络、循环神经网络代码结构。 过拟合、欠拟合 模型的泛化能力是深度学习的一大问题,所谓泛化能力就是模型在训练数据集和测试数据集上的表现情况。泛化能力强的模型,在训练数据集和测试数据集上都具有良好的表现;泛化能力差的模型,往往在训练集上表现良好(或在训练数据集上表现也很差),同时,在测试数据集上的表现也同样差强人意。若泛化能力的模型主要分为两类:(1)如果在训练集表现差,在
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:318464
    • 提供者:weixin_38547421
  1. ElitesAI·动手学深度学习PyTorch版TASK3、4、5

  2. 第二次打卡 1.关于验证数据集的描述错误的是: 测试数据集可以用来调整模型参数 验证数据集可以用来调整模型参数 在数据不够多的时候,k折交叉验证是一种常用的验证方法 k折交叉验证将数据分为k份,每次选择一份用于验证模型,其余的用于训练模型 测试数据集不可以用来调整模型参数,如果使用测试数据集调整模型参数,可能在测试数据集上发生一定程度的过拟合,此时将不能用测试误差来近似泛化误差。 关于卷积神经网络,以下说法中错误的是: 因为全连接层的参数数量比卷积层多,所以全连接层可以更好地提取空间信息 使用形
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:56320
    • 提供者:weixin_38710566
  1. Datawhale&kesci&伯禹教育-深度学习-第二次打卡2梯度消失和爆炸

  2. 1. 深度学习模型中梯度会出现2种极端消失(vanishing)和爆炸(explosion) 产生的原因:模型太深。 2. 随机初始化模型参数的原因 避免同一层参数一样,经过有限次迭代依旧一样。 3. pytorch 的nn.module 已经默认经过合理初始化 4.几个偏移概念 (1)协变量偏移(x偏移): 训练一堆真实的猫狗图像,但是测试的是卡通猫狗。 (2)标签偏移(y偏移):测试出现了训练时没有出现的标签 (3)概念偏移(不常见):发生很缓慢 作者:炼丹法师SunFine
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:30720
    • 提供者:weixin_38597970