您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pytorch动手深度学习的笔记[二]

  2. 一.循环神经网络 循环神经网络基于当前的输入与过去的输入序列,预测序列的下一个字符。它引入一个隐藏变量H,用Ht表示H在时间步t的值。Ht的计算基于Xt和Ht−1,可以认为Ht记录了到当前字符为止的序列信息,利用Ht对序列的下一个字符进行预测。 1.隐状态的引入 2.one-hot向量 3.初始化模型参数:隐藏层参数,输出层参数。 4.定义模型后裁剪梯度,定义预测函数,定义模型训练函数,使用困惑度评价模型。 二.循环神经网络进阶 GRU ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系。
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:83968
    • 提供者:weixin_38735570
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记 Task 08:文本分类;数据增强;模型微调 微信昵称:WarmIce 文本分类 前面一堆数据处理和对双向循环神经网络的讲解可以忽略了,之前都讲过,咱也都详细聊过。 这里主要说一下情感分类在使用双向循环神经网络时的一个细节。我们可以根据双向循环网络得到t个时刻的双向的经过concat的隐藏状态,那么如何利用这t个信息进行二分类呢(假设只进行正面与反面的二分类)。给的例子中,只使用了第1个时刻的concat后的隐藏状态与第t
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:99328
    • 提供者:weixin_38706455
  1. DATAWHALE-动手学深度学习PyTorch 笔记记录2 attention mask

  2. 【Attention中mask pad的weight的做法】 在attention中,对attention score进行softmax时,需要考虑到query与pad计算得到的score应该忽略。我们在处理时可以先正常地用高维tensor形式将所有score计算出来,然后根据key的句长将pad所在位置的weight进行mask掉。 下面的代码实现了给定二维tensor X,根据X_len将X中指定位置替换为value值。 def SequenceMask(X, X_len,value=-1e
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:182272
    • 提供者:weixin_38523728
  1. 动手学深度学习PyTorch版学习笔记2

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:328704
    • 提供者:weixin_38699757
  1. 笔记:动手学深度学习pytorch(卷积神经网络基础;leNet;卷积神经网络进阶)

  2. – 卷积神经网络基础 – 卷积层 – 1×\boldsymbol\times× 1 卷积层 形状为1×11 \times 11×1的卷积核,我们通常称这样的卷积运算为1×11 \times 11×1卷积,称包含这种卷积核的卷积层为1×11 \times 11×1卷积层。 1×11 \times 11×1卷积核可在不改变高宽的情况下,调整通道数。1×11 \times 11×1卷积核不识别高和宽维度上相邻元素构成的模式,其主要计算发生在通道维上。假设我们将通道维当作特征维,将高和宽维度上的元素当
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:818176
    • 提供者:weixin_38528180
  1. ElitesAI·动手学深度学习PyTorch版学习笔记-卷积神经网络基础;leNet;卷积神经网络进阶

  2. 宅家中看到Datawhale的学习号召,在大牛云集的群上找到了一个很佛系的小组,战战兢兢地开始了小白的深度学习之旅。感谢Datawhale、伯禹教育、和鲸科技,感谢课程制作者、组织者、各位助教以及其他志愿者! 1 卷积神经网络基础 1.1 二维卷积 本小节介绍了二维卷积,主要用于图像数据(刚好是二维的数据)处理。 二维卷积通过输入二维数据和二维核数据的运算(卷积),得到一个小于输入数据的二维输出数据,但是该输出数据依然部分保存了输入数据的信息。输出的二维数据可以看作输入数据的一个缩略图,也叫
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:51200
    • 提供者:weixin_38652196