您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 动手学深度学习-学习笔记(四)

  2. 本文的主要内容有:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer。 一、机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 字符在计算机里是以编码的形式存在,我们通常所用的空格是 \x20 ,是在标准ASCII可见字符 0x20~0x7e 范围内。 而 \xa0 属于 latin1 (ISO/IEC_88
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:770048
    • 提供者:weixin_38664556
  1. 动手学深度学习(四)

  2. 机器翻译及相关技术; 注意力机制与Seq2seq模型; Transformer 一 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 首先,将数据集清洗、转化为神经网络的输入minbatch,分词,建立词典。# Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 二 注意力机制 在Do
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:618496
    • 提供者:weixin_38720997
  1. [动手学深度学习PyTorch笔记四]

  2. 一 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 首先进行数据预处理,将数据集清洗、转化为神经网络的输入的minbatch,包括分词、建立字典、载入数据集。 Encoder-Decoder 一种通用模型框架。Encoder:编码器,从输入到隐藏状态 Decoder:解码器,从隐藏状态到输出。 特点:输入输出的长度可以不相等。不
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:80896
    • 提供者:weixin_38673909
  1. 动手学深度学习(四):机器翻译

  2. 机器翻译和注意力机制 机器翻译是指将一段文本从一种语言自动翻译到另一种语言。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。 步骤 1、读取和预处理 2、含注意力机制的编码器—解码器 我们将使用含注意力机制的编码器—解码器来将一段简短的法语翻译成英语。 (1)编码器 (2)注意力机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:371712
    • 提供者:weixin_38620734