您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 动手学深度学习-学习笔记(四)

  2. 本文的主要内容有:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer。 一、机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 字符在计算机里是以编码的形式存在,我们通常所用的空格是 \x20 ,是在标准ASCII可见字符 0x20~0x7e 范围内。 而 \xa0 属于 latin1 (ISO/IEC_88
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:770048
    • 提供者:weixin_38664556
  1. 《动手学深度学习》学习笔记

  2. 文本预处理 常见的四个步骤: 读入文本 分词 建立字典,将每个词映射到一个唯一的索引(index) 将文本从词的序列转换为索引的序列,方便输入模型 import collections import re def read_time_machine(): with open('/home/kesci/input/timemachine7163/timemachine.txt', 'r') as f: lines = [re.sub('[^a-z]+', ' ',
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:45056
    • 提供者:weixin_38508126
  1. 动手学深度学习(四)

  2. 机器翻译及相关技术; 注意力机制与Seq2seq模型; Transformer 一 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 首先,将数据集清洗、转化为神经网络的输入minbatch,分词,建立词典。# Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 二 注意力机制 在Do
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:618496
    • 提供者:weixin_38720997
  1. [动手学深度学习PyTorch笔记四]

  2. 一 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 首先进行数据预处理,将数据集清洗、转化为神经网络的输入的minbatch,包括分词、建立字典、载入数据集。 Encoder-Decoder 一种通用模型框架。Encoder:编码器,从输入到隐藏状态 Decoder:解码器,从隐藏状态到输出。 特点:输入输出的长度可以不相等。不
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:80896
    • 提供者:weixin_38673909
  1. 《动手学深度学习》-小白笔记四

  2. 小白知识 二维互相关运算 输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。 图例:阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 代码实现:corr2d函数实现二维互相关运算,它接受输入数组X与核数组K,并输出数组Y。 import torch import t
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:207872
    • 提供者:weixin_38677472
  1. 《动手学深度学习》卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础;leNet;卷积神经网络进阶卷积神经网络基础二位互相关运算二维卷积层互相关运算与卷积运算特征图与感受野填充和步幅填充:在输入的高宽两侧填充元素,通常填充0。步幅:卷积核在输入数组上每次滑动的行数列数。多输入通道和多输出通道1×11×11×1卷积层池化LeNetLeNet模型卷积神经网络进阶AlexNet使用重复元素的网络(VGG)网络中的网络(NIN)GoogleNet 卷积神经网络基础 介绍的是最常见的二维卷积层,常用于处理图像数据。 二位互相关运算 卷积核数组在输入数组上
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:516096
    • 提供者:weixin_38522636
  1. 动手学深度学习(四):机器翻译

  2. 机器翻译和注意力机制 机器翻译是指将一段文本从一种语言自动翻译到另一种语言。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。 步骤 1、读取和预处理 2、含注意力机制的编码器—解码器 我们将使用含注意力机制的编码器—解码器来将一段简短的法语翻译成英语。 (1)编码器 (2)注意力机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:371712
    • 提供者:weixin_38620734