您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. seq2seq模型和基于注意力机制的seq2seq模型

  2. 使用 seq2seq 模型和基于注意力机制的 seq2seq 模型(AttSeq2Seq)模型两种方法,实现 MNIST 数据集分类
  3. 所属分类:深度学习

    • 发布日期:2020-03-21
    • 文件大小:11534336
    • 提供者:m0_37602827
  1. Datawhale 组对学习打卡营 任务11: 注意力机制和Seq2seq模型

  2. 目录 注意力机制 Softmax屏蔽 点积注意力 测试 多层感知机注意力 测试 总结 引入注意力机制的Seq2seq模型 解码器 训练 训练和预测 import math import torch import torch.nn as nn import os def file_name_walk(file_dir): for root, dirs, files in os.walk(file_dir): # print(root, root) # 当前目录路径
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:380928
    • 提供者:weixin_38660579
  1. 《动手学深度学习》机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer机器翻译及其相关技术编码器和解码器编码器解码器束搜索贪婪搜索束搜索注意力机制与Seq2Seq模型计算背景变量Transformer 机器翻译及其相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 编码器和解码器 在翻译时,输入句子和输出句子往往不一样长,所以为了处理输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:271360
    • 提供者:weixin_38596485
  1. Seq2seq模型、机器翻译学习笔记

  2. Seq2seq模型 当输入和输出都是不定长序列时,可以使⽤编码器—解码器(encoder-decoder) 或者seq2seq模型。这两个模型本质上都⽤到了两个循环神经⽹络,分别叫做编码器和解码器。编码器⽤来分析输⼊序列,解码器⽤来⽣成输出序列。 图中描述了使⽤编码器—解码器将英语句⼦翻译成法语句⼦的⼀种⽅法。在训练数据集中,可以在每个句⼦后附上特殊符号“”(end of sequence)以表⽰序列的终⽌。编码器每个时间步的输⼊依次为英语句⼦中的单词、标点和特殊符号“”。图中使⽤了编码器在最
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:55296
    • 提供者:weixin_38550722
  1. 《动手学深度学习》Task04:机器翻译及相关技术+注意力机制与Seq2seq模型+Transformer

  2. 文章目录1 机器翻译及相关技术1.1 机器翻译基本原理1.2 Encoder-Decoder1.3 Sequence to Sequence模型1.4 Beam Search2 注意力机制与Seq2seq模型2.1 注意力机制2.2 注意力机制的计算函数介绍2.3 引入注意力机制的Seq2seq模型3 Transformer3.1 Transformer结构概念3.2 Transformer结构层剖析3.3 Transformer之Encoder+Decoder 1 机器翻译及相关技术 1.1
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:742400
    • 提供者:weixin_38667408
  1. Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer知识点总结

  2. 机器翻译 把一种语言自动翻译为另一种,输出的是单词序列(其长度可能与原序列不同) 步骤为:数据预处理 —> Seq2Seq模型构建 —> 损失函数 —> 测试 数据预处理: 读取数据。 处理编码问题,删除无效字符串 分词。把字符串转化为单词列表。 建立字典。把单词组成的列表转化为单词索引的列表 在tf、pytorch这类框架中要做padding操作,使一个batch数据长度相等 定义数据生成器。 Seq2Seq 6. 先用循环神经网络编码成一个向量再解码输出一个序列的元素。然
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:60416
    • 提供者:weixin_38682086
  1. 动手学DL|Task4 机器翻译及其技术+注意力机制与Seq2seq模型+Transformer

  2. 机器翻译及其技术 学习笔记 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence模型 模型: 训练 预测 具体结构 集束搜索 Beam Search 简单greedy search: 维特比算法:选择整体分数
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:472064
    • 提供者:weixin_38653664
  1. Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:55296
    • 提供者:weixin_38629920
  1. 机器翻译,注意力机制,seq2seq模型

  2. 机器翻译 数据预处理(小罗同学总结) 编码——解码 seq2seq模型 读取数据,处理数据中的编码问题,并将无效的字符串删除 分词,分词的目的就是将字符串转换成单词组成的列表。目前有很多现成的分词工具可以直接使用,也可以直接按照空格进行分词(不推荐,因为分词不是很准确) 建立词典,将单词组成的列表编程单词id组成的列表,这里会得到如下几样东西 去重后词典,及其中单词对应的索引列表 还可以得到给定索引找到其对应的单词的列表,以及给定单词得到对应索引的字典。 原始语料所有词对应的词典索引的列
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:263168
    • 提供者:weixin_38642285
  1. 深度学习(四)————机器翻译及相关技术、注意力机制与Seq2seq模型、Transformer

  2. 目录   机器翻译及相关技术 注意力机制与seq2seq模型 Transformer 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 机器翻译流程:数据预处理,主要模型:encode-decode,seq2seq 注意力机制与seq2seq模型 注意力机制:https://blog.csdn.net/mpk_no1/articl
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:191488
    • 提供者:weixin_38704565
  1. 《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1.读取数据 2.数据预处理 3.分词:将字符串变成单词组成的列表 4.建立词典:将单词组成的列表变成单词id组成的列表 5.Encoder-Decoder:
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38501045
  1. 深度学习入门-4(机器翻译,注意力机制和Seq2seq模型,Transformer)

  2. 深度学习入门-4(机器翻译,注意力机制和Seq2seq模型,Transformer)一、机器翻译1、机器翻译概念2、数据的处理3、机器翻译组成模块(1)Encoder-Decoder框架(编码器-解码器)(2)Sequence to Sequence模型(3)集束搜索(Beam Search)(ⅰ)简单贪心搜索(greedy search)(ⅱ)维特比算法(ⅲ)维特比算法二、注意力机制框架和Seq2seq模型1、注意力机制的引入2、注意力机制框架3、两个常用的注意力层(1)点积注意力(The d
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:533504
    • 提供者:weixin_38691006
  1. pytorch实现task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 其主要的步骤包括数据预处理、分词、建立词典、载入数据集、Encoder-decoder、seq2seq等。 注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:65536
    • 提供者:weixin_38705723
  1. seq2seq:这是带有Tensorflow 2的seq2seq模型结构-源码

  2. seq2seq 这是Tensorflow 2的seq2seq模型结构。 有三种模型架构,RNNSeq2Seq,RNNSeq2SeqWithAttention,TransformerSeq2Seq。 该存储库包含训练,评估,推断,转换为保存的模型格式脚本。 火车 例子 您可以通过运行以下脚本开始培训 $ python -m scr ipts.train \ --dataset-path " data/*.txt " \ --batch-size 2048 --dev-batch-size 20
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:398336
    • 提供者:weixin_42102220
  1. repairSStuBs:尝试使用代码更改检测SStuB并使用seq2seq模型进行修复-源码

  2. 使用代码更改检测简单的愚蠢错误(SStuB),并使用seq2seq模型进行修复 一些代码可与,该是对一个线性Java错误的简单修复的集合。 资料库描述 utils : 该软件包包含一些实用程序模块,用于修复和准备数据。 data_reader.py :加载json数据集并将SStuB属性放入Bug类。 它定义了一些有用的功能,例如生成要在其他模块中使用的GitHub URL。 关于数据集和其他资产的路径,还有一些配置变量: DATASET_ROOT = '../data' SRC_FILE
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:16777216
    • 提供者:weixin_42144554
  1. seq2seq:PyTorch中注意神经机器翻译的最小Seq2Seq模型-源码

  2. 迷你seq2seq 在PyTorch中注意神经机器翻译的最小Seq2Seq模型。 此实现重点在于以下功能: 用于其他项目的模块化结构 最少的代码可读性 充分利用批次和GPU。 此实现依赖于来最大程度地减少数据集管理和预处理部分。 型号说明 编码器:双向GRU 解码器:具有注意机制的GRU 注意: 要求 GPU和CUDA Python3 火炬 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:6144
    • 提供者:weixin_42131618
  1. 基于知识库的问答seq2seq模型

  2. 基于知识库的问答seq2seq模型
  3. 所属分类:深度学习

    • 发布日期:2021-01-24
    • 文件大小:4194304
    • 提供者:bruce__ray
  1. 《动手学习深度学习》之二:注意力机制和Seq2seq模型(打卡2.2)

  2. 2.注意力机制和Seq2seq模型 2.1.注意力机制 2.1.1.概念 2.1.2.框架 •不同的attetion layer的区别在于score函数的选择,在本节的其余部分,我们将讨论两个常用的注意层 Dot-product Attention 和 Multilayer Perceptron Attention;随后我们将实现一个引入attention的seq2seq模型并在英法翻译语料上进行训练与测试。 import math import torch import torch.nn
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:793600
    • 提供者:weixin_38732343
  1. 《动手学深度学习PyTorch版》打卡_Task4,机器翻译及相关技术,注意力机制与Seq2seq模型

  2. 最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,机器翻译及相关技术,注意力机制与Seq2seq模型做下笔记。 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 使用Encoder-Decoder框架: 实现一个Encoder类 class Encoder(nn.Module): def
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:307200
    • 提供者:weixin_38517212
  1. 《动手学深度学习——机器翻译及相关技术,注意力机制与seq2seq模型,Transformer》笔记

  2. 动手学深度学习:机器翻译及相关技术,注意力机制与seq2seq模型,Transformer 初次学习机器翻译相关,把课程的概念题都记录一下。 目录: 1、机器翻译及相关技术 2、注意力机制与seq2seq模型 3、Transformer 1、机器翻译以及相关技术 1、机器翻译以及相关技术 1、关于Sequence to Sequence模型说法错误的是: A 训练时decoder每个单元输出得到的单词作为下一个单元的输入单词。 B 预测时decoder每个单元输出得到的单词作为下一个单元的输入单
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:363520
    • 提供者:weixin_38659789
« 12 3 4 5 6 7 8 9 10 »