您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Datawhale从零开始数据挖掘第二次打卡

  2. Task2数据分析 参考资料 数据处理之二——数据探索性分析(EDA) 数据科学学习手札62 数据探索性分析(EDA) EDA (Exploratory Data Analysis),也就是对数据进行探索性的分析,从而为之后的数据预处理和特征工程提供必要的结论。 拿到数据之后,我们必须要明确以下几件事: 数据是如何产生的,又是如何储存的 数据是原始数据,还是经过人工处理的 数据有哪些业务背景组成的,数据字段有什么含义 数据字段是什么类型的,每个字段的分布是怎样的 训练集的数据和测试集的数据分布是
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:1048576
    • 提供者:weixin_38545332
  1. 《动手学》(第二次打卡)

  2. 一、过拟合、欠拟合及其解决方案   一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting);   另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 二、梯度消失、梯度爆炸   当我们将w初始化为一个较大的值时,例如>10的值,那么从输出层到输入层每一层都会有一个s
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:301056
    • 提供者:weixin_38562085
  1. Pytorch学习第二次打卡

  2. Pytorch学习第二次打卡 目录 文章目录Pytorch学习第二次打卡目录过拟合、欠拟合及其解决方案欠拟合过拟合解决方法梯度消失,梯度爆炸卷积神经网络卷积层池化层常见卷积网络 过拟合、欠拟合及其解决方案 欠拟合 模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 线性函数拟合,如图: 过拟合 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。训练样本不足,如下图: 给定训练数据集,模型复杂度和误差之间的关系:
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:101376
    • 提供者:weixin_38658568
  1. Datawhale&kesci&伯禹教育-深度学习-第二次打卡1 过拟合&欠拟合的解决方法

  2. 训练误差和泛化误差 训练误差: 在训练数据上表现得误差 泛化误差:在任意测试数据上表现的误差的期望 通过损失来衡量误差。例如,线性回归用平方损失函数,softma用的交叉熵回归。 模型的核心是降低泛化误差。 常见训练数据划分方法 1.留有一定比例的验证集 2. K折交叉验证 欠拟合(无法得到较低的误差)和过拟合(训练误差远小于测试误差) 产生的原因: 模型复杂度和训练数据 1.模型复杂度 2. 训练数据 一般来说训练数据随模型成正比例关系。 解决方法 : L2范数正则化 通过模型的计算误差来惩罚
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:113664
    • 提供者:weixin_38744557
  1. Learn_Dive-into-DL-PyTorch 第二次打卡

  2. 习题思考 1. 双向循环神经网络 双向循环神经网络结构示意图: 2. 关于Sequence to Sequence模型 Sequence to Sequence模型: 3. 卷积神经网络基础 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:240640
    • 提供者:weixin_38663415
  1. 第二次打卡笔记(待补充transformer部分)

  2. 文章目录第二次打卡笔记记在前面一点感叹另Task 3 过拟合/欠拟合;梯度消失/梯度爆炸;循环神经网络进阶FittingSolutionGradientSolutionTask 4 机器翻译;注意力机制;TransformerSequence to SequenceAttentionTask 5 卷积神经网络基础与进阶;LeNetConvolutionPadding and StepAbout Pouringdifference:similarity:Fully Connected LayerO
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:166912
    • 提供者:weixin_38606300
  1. DataWhale组队学习打卡(二)

  2. 前言 记《手动学深度学习》组队学习第二次打卡 打卡内容 线性回归代码实现(基于Pytorch) 理论复习 线性回归理论部分可参考上一篇博客 线性回归模型从零开始的实现 借助jupyter运行代码,方便清晰展示各环节的输出情况。 1. 导入基础模块 In [ ]: # import packages and modules %matplotlib inline import torch from IPython import display from matplotlib import pyplo
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:75776
    • 提供者:weixin_38682406
  1. 《动手学深度学习》第二次打卡-学习小队

  2. 一、学习任务: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 二、学习要点 2.1 过拟合、欠拟合及其解决方案 过拟合:太过贴近于训练数据的特征了,在训练集上表现非常优秀,近乎完美的预测/区分了所有的数据,但是在新的测试集上却表现平平 欠拟合:样本不够或者算法不精确,测试样本特性没有学到,不具泛化性,拿到新样本后
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:512000
    • 提供者:weixin_38613154
  1. 第二次打卡

  2. 过拟合、欠拟合及其解决方案 初始化模型参数 定义L2范数惩罚项 定义训练和测试 观察过拟合 使用权重衰减 梯度消失、梯度爆炸 获取和读取数据集 预处理数据 训练模型 K折交叉验证 模型选择 预测并在Kaggle中提交结果 循环神经网络进阶 GRU LSTM 深度循环神经网络 双向循环神经网络 机器翻译及相关技术 数据预处理 分词 建立词典 载入数据集 Encoder-Decoder 注意力机制与Seq2seq模型 注意力机制 点积注意力 多层感知机注意力 Transformer Transfor
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:33792
    • 提供者:weixin_38632046
  1. 第二次打卡学习心得

  2. 首先关于卷积神经网络的概念回顾 其中两个重要的概念:填充与步幅 关于卷积核的通道数: 个人理解为:与上一层的输出相适应,卷积核的通道数(channel)由上一层输出的特征图(feature maps)的个数决定 卷积神经网络的发展: LeNet就是典型的深层网络 AlexNet为第二阶段的发展 后来由牛津大学团队提出具有堆叠结构的VGG 衍生出了NiN 在宽度上进行了拓宽,由谷歌团队提出了Inception模块的网路GoogLeNet(纪念LeNet) 在深度上进行拓展,由何凯
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:750592
    • 提供者:weixin_38621082
  1. 伯禹学习第二次打卡

  2. seq2seq模型 定义 sequence to sequence模型是一类End-to-End的算法框架,也就是从序列到序列的转换模型框架。 应用场景 机器翻译 聊天机器人 文本摘要生成 图片描述生成 诗词生成 故事风格改写 代码补全 思路 seq2seq可以说是基于RNN提出的生成序列的模型,一般来说,对于基础的RNN我们可以输入一段序列数据得到一个输出结果,而seq2seq则可以输出一段序列结果。seq2seq分为encoder(编码)和decoder(解码)两个过程: 输出C称为语义向
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:132096
    • 提供者:weixin_38700779
  1. ElitesAI·动手学深度学习PyTorch版-第二次打卡task02

  2. 1、机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.1 数据预处理 将数据集清洗、转化为神经网络的输入minbatch. def preprocess_raw(text): text = text.replace('\u202f', ' ').replace('\xa0', ' ') out = '' for
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38532139
  1. 第二次打卡 错题总结

  2. 1.一个在冬季部署的物品推荐系统在夏季的物品推荐列表中出现了圣诞礼物,我们可以推断该系统没有考虑到: 协变量偏移 标签偏移 概念偏移 没有问题 答案:协变量偏移 解释:统计学家称这种协变量变化是因为问题的根源在于特征分布的变化(即协变量的变化)。数学上,我们可以说P(x)改变了,但P(y∣x)保持不变。尽管它的有用性并不局限于此,当我们认为x导致y时,协变量移位通常是正确的假设。 可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象,这个现象是
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:62464
    • 提供者:weixin_38660069
  1. ElitesAI·动手学深度学习PyTorch版-第二次打卡task03

  2. 1、卷积神经网络基础: 1.1 二维卷积操作: 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 其中。卷积核为2:heavy_m
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:945152
    • 提供者:weixin_38718262
  1. 《动手学深度学习》第二次打卡

  2. 1.过拟合欠拟合及其解决方案 1.1概念 欠拟合(underfitting):模型无法得到较低的训练误差; 过拟合(overfitting):模型的误差远小于它在测试数据上的误差。 给定训练集,模型复杂度和误差之间的关系为: 1.2多项式函数拟合实验 %matplotlib inline import torch import numpy as np import sys sys.path.append(/home/kesci/input) import d2lzh1981 as d2l pr
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:135168
    • 提供者:weixin_38699784
  1. ElitesAI·动手学深度学习PyTorch版(第二次打卡)

  2. • Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸 知识点 1.训练误差(training error)和泛化误差(generalization error) 训练误差:训练数据集上表现出的误差 泛化误差:模型在测试数据样本上表现出的误差 验证误差:我们可以预留一部分在训练数据集和测试数据集以外的数据代入模型求得得误差。训练数据集和测试数据集以外的数据被称为验证数据集,简称验证集(validation set) 2.过拟合、欠拟合 欠拟合(underfitting):模型无法得到较
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:434176
    • 提供者:weixin_38523728
  1. 动手学深度学习打卡之二。

  2. 第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28672
    • 提供者:weixin_38506835
  1. 动手学深度学习第二次打卡2/18

  2. task3 task4 and task5 1.过拟合、欠拟合及其解决方案 解决方法包括:验证数据集和交叉验证 权重衰减 L2 范数正则化(regularization) 例如在线性回归中加入带有l2范数惩罚项的损失函数。 当 λ 较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当 λ 设为0时,惩罚项完全不起作用。 2.(1)梯度消失、梯度爆炸以及Kaggle房价预测 当神经网络的层数较多时,模型的数值稳定性容易变差 (2)考虑环境因素 协变量偏移 标签偏移 概
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:152576
    • 提供者:weixin_38686542
  1. DataWhale 深度学习 第二次打卡

  2. 第二次打卡学习笔记 1.过拟合欠拟合及其解决方案 2.梯度消失与梯度爆炸 3.循环神经网络进阶 4.机器翻译及相关技术 5.注意力机制与Seq2seq模型 6.Transfomer 7.卷积神经网络基础 8.LeNet 9.卷积神经网络进阶 过拟合欠拟合及其解决方案 在解释过拟合和欠拟合现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:2097152
    • 提供者:weixin_38544781
  1. Datawhale&kesci&伯禹教育-深度学习-第二次打卡2梯度消失和爆炸

  2. 1. 深度学习模型中梯度会出现2种极端消失(vanishing)和爆炸(explosion) 产生的原因:模型太深。 2. 随机初始化模型参数的原因 避免同一层参数一样,经过有限次迭代依旧一样。 3. pytorch 的nn.module 已经默认经过合理初始化 4.几个偏移概念 (1)协变量偏移(x偏移): 训练一堆真实的猫狗图像,但是测试的是卡通猫狗。 (2)标签偏移(y偏移):测试出现了训练时没有出现的标签 (3)概念偏移(不常见):发生很缓慢 作者:炼丹法师SunFine
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:30720
    • 提供者:weixin_38597970
« 12 3 4 »