您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 【学习笔记】动手学深度学习task05

  2. 一、卷积神经网络基础 1.互相关运算 举例二维互相关运算如下: 输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。 卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 互相关运算与卷积运算:卷积层得名于卷积运算,但卷积层中用到的并非卷积
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:512000
    • 提供者:weixin_38732315
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:135168
    • 提供者:weixin_38630571
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记 Task 08:文本分类;数据增强;模型微调 微信昵称:WarmIce 文本分类 前面一堆数据处理和对双向循环神经网络的讲解可以忽略了,之前都讲过,咱也都详细聊过。 这里主要说一下情感分类在使用双向循环神经网络时的一个细节。我们可以根据双向循环网络得到t个时刻的双向的经过concat的隐藏状态,那么如何利用这t个信息进行二分类呢(假设只进行正面与反面的二分类)。给的例子中,只使用了第1个时刻的concat后的隐藏状态与第t
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:99328
    • 提供者:weixin_38706455
  1. 动手学深度学习-学习笔记(五)

  2. 本文的主要内容有::卷积神经网络基础;leNet;卷积神经网络进阶 一、卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:251904
    • 提供者:weixin_38706951
  1. DATAWHALE-动手学深度学习PyTorch 笔记记录2 attention mask

  2. 【Attention中mask pad的weight的做法】 在attention中,对attention score进行softmax时,需要考虑到query与pad计算得到的score应该忽略。我们在处理时可以先正常地用高维tensor形式将所有score计算出来,然后根据key的句长将pad所在位置的weight进行mask掉。 下面的代码实现了给定二维tensor X,根据X_len将X中指定位置替换为value值。 def SequenceMask(X, X_len,value=-1e
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:182272
    • 提供者:weixin_38523728
  1. 【学习笔记】动手学深度学习 Task02

  2. (需要一定时间逐步补充以下内容,暂且用做打卡) 1. 模型选择、过拟合和欠拟合 训练误差和泛化误差 模型选择 验证数据集 K折交叉验证 过拟合和欠拟合 模型复杂度 权重衰减 L2 范数正则化 高维线性回归实验 2. 梯度消失、梯度爆炸 梯度消失 梯度爆炸 模型训练和预测 3. 卷积神经网络基础 二维卷积层 二维互相关运算 特征图与感受野 填充和步幅 多输入通道和多输出通道 卷积层与全连接层的对比 卷积、池化 4. 循环神经网络进阶 GRU LSTM 5. 机器翻译及相关技术 数据预处理 分词 建
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38697444
  1. 动手学深度学习笔记二

  2. Task03 错题 一.过拟合、欠拟合及解决方法 二.梯度消失、梯度爆炸 可以理解为在夏季的物品推荐系统与冬季相比,时间或者说季节发生了变化,导致了夏季推荐圣诞礼物的不合理的现象,这个现象是由于协变量时间发生了变化造成的。 三.循环神经网络进阶 实现深层循环神经网络需要修改的参数是?num_layers 3. GRU有重置门和更新门,没有遗忘门。重置门有助于捕捉时间序列里短期的依赖关系,更新门有助于捕捉时间序列⾥长期的依赖关系。参考视频1分20秒起关于GRU的原理讲解。 4. 每个循环单元中的记
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38694674
  1. 动手学深度学习PyTorch版学习笔记2

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:328704
    • 提供者:weixin_38699757
  1. 动手学深度学习 Task4 笔记

  2. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 2.15-2.19 一、机器翻译及相关技术 定义: 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 分词 建立词典 载入数据集 二、注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:62464
    • 提供者:weixin_38516040
  1. 动手学深度学习 Task3 笔记

  2. 过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 2.15-2.19 一、过拟合、欠拟合及其解决方案 1、过拟合问题 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 产生过拟合的可能原因 模型复杂度过高 训练数据过少,特别是比模型参数数量(按元素计)更少 解决过拟合的方案 降低模型复杂度 增加训练数据 在计算资源允许的范围之内,我们通常希望训练数据集大一些 2、欠拟合问题 模型无法得到较低的训练误差,我们将这一现象称作欠拟合(unde
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38669832
  1. 笔记:动手学深度学习pytorch(卷积神经网络基础;leNet;卷积神经网络进阶)

  2. – 卷积神经网络基础 – 卷积层 – 1×\boldsymbol\times× 1 卷积层 形状为1×11 \times 11×1的卷积核,我们通常称这样的卷积运算为1×11 \times 11×1卷积,称包含这种卷积核的卷积层为1×11 \times 11×1卷积层。 1×11 \times 11×1卷积核可在不改变高宽的情况下,调整通道数。1×11 \times 11×1卷积核不识别高和宽维度上相邻元素构成的模式,其主要计算发生在通道维上。假设我们将通道维当作特征维,将高和宽维度上的元素当
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:818176
    • 提供者:weixin_38528180
  1. 《动手学深度学习》-小白笔记四

  2. 小白知识 二维互相关运算 输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。 图例:阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 代码实现:corr2d函数实现二维互相关运算,它接受输入数组X与核数组K,并输出数组Y。 import torch import t
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:207872
    • 提供者:weixin_38677472
  1. 动手学深度学习打卡之二。

  2. 第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28672
    • 提供者:weixin_38506835
  1. ElitesAI·动手学深度学习PyTorch版学习笔记-卷积神经网络基础;leNet;卷积神经网络进阶

  2. 宅家中看到Datawhale的学习号召,在大牛云集的群上找到了一个很佛系的小组,战战兢兢地开始了小白的深度学习之旅。感谢Datawhale、伯禹教育、和鲸科技,感谢课程制作者、组织者、各位助教以及其他志愿者! 1 卷积神经网络基础 1.1 二维卷积 本小节介绍了二维卷积,主要用于图像数据(刚好是二维的数据)处理。 二维卷积通过输入二维数据和二维核数据的运算(卷积),得到一个小于输入数据的二维输出数据,但是该输出数据依然部分保存了输入数据的信息。输出的二维数据可以看作输入数据的一个缩略图,也叫
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:51200
    • 提供者:weixin_38652196