点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - seq2seq
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Seq2Seq 字符集模型的简单实现
Seq2Seq 包含encoder和decoder模型的简单实现 包括预料库。代码是python3.6+tensorflow1.10,可以直接运行。
所属分类:
深度学习
发布日期:2018-10-24
文件大小:63488
提供者:
qq_21161087
seq2seq模型和基于注意力机制的seq2seq模型
使用 seq2seq 模型和基于注意力机制的 seq2seq 模型(AttSeq2Seq)模型两种方法,实现 MNIST 数据集分类
所属分类:
深度学习
发布日期:2020-03-21
文件大小:11534336
提供者:
m0_37602827
seq2seq-translation.zip
使用Seq2Seq模型构建一个端到端地神经网络翻译,编码方式使用GRU神经网络,解码方式提供了两种,一种使用注意力加GRU,一种不使用注意力直接使用GRU。
所属分类:
深度学习
发布日期:2020-05-28
文件大小:2097152
提供者:
Elenstone
seq2seq实例代码.rar
tensorflow2.0之seq2seq+attention模型和实例
所属分类:
深度学习
发布日期:2020-07-25
文件大小:78643200
提供者:
weixin_43788143
seq2seq源码
seq2seq源码
所属分类:
Python
发布日期:2017-04-01
文件大小:260096
提供者:
yezhenxu1992
使用seq2seq生成对联的数据集
seq2seq对联生成的数据集,包含搜狗预训练数据,用于生成对联,相关代码上传github中,地址https://github.com/zhangzhiqiangccm/NLP-project
所属分类:
深度学习
发布日期:2020-08-29
文件大小:26214400
提供者:
qq_34523665
Datawhale 组对学习打卡营 任务11: 注意力机制和Seq2seq模型
目录 注意力机制 Softmax屏蔽 点积注意力 测试 多层感知机注意力 测试 总结 引入注意力机制的Seq2seq模型 解码器 训练 训练和预测 import math import torch import torch.nn as nn import os def file_name_walk(file_dir): for root, dirs, files in os.walk(file_dir): # print(root, root) # 当前目录路径
所属分类:
其它
发布日期:2021-01-07
文件大小:380928
提供者:
weixin_38660579
《动手学深度学习》机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer机器翻译及其相关技术编码器和解码器编码器解码器束搜索贪婪搜索束搜索注意力机制与Seq2Seq模型计算背景变量Transformer 机器翻译及其相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 编码器和解码器 在翻译时,输入句子和输出句子往往不一样长,所以为了处理输入
所属分类:
其它
发布日期:2021-01-07
文件大小:271360
提供者:
weixin_38596485
Seq2seq模型、机器翻译学习笔记
Seq2seq模型 当输入和输出都是不定长序列时,可以使⽤编码器—解码器(encoder-decoder) 或者seq2seq模型。这两个模型本质上都⽤到了两个循环神经⽹络,分别叫做编码器和解码器。编码器⽤来分析输⼊序列,解码器⽤来⽣成输出序列。 图中描述了使⽤编码器—解码器将英语句⼦翻译成法语句⼦的⼀种⽅法。在训练数据集中,可以在每个句⼦后附上特殊符号“”(end of sequence)以表⽰序列的终⽌。编码器每个时间步的输⼊依次为英语句⼦中的单词、标点和特殊符号“”。图中使⽤了编码器在最
所属分类:
其它
发布日期:2021-01-07
文件大小:55296
提供者:
weixin_38550722
《动手学深度学习》Task04:机器翻译及相关技术+注意力机制与Seq2seq模型+Transformer
文章目录1 机器翻译及相关技术1.1 机器翻译基本原理1.2 Encoder-Decoder1.3 Sequence to Sequence模型1.4 Beam Search2 注意力机制与Seq2seq模型2.1 注意力机制2.2 注意力机制的计算函数介绍2.3 引入注意力机制的Seq2seq模型3 Transformer3.1 Transformer结构概念3.2 Transformer结构层剖析3.3 Transformer之Encoder+Decoder 1 机器翻译及相关技术 1.1
所属分类:
其它
发布日期:2021-01-07
文件大小:742400
提供者:
weixin_38667408
Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer知识点总结
机器翻译 把一种语言自动翻译为另一种,输出的是单词序列(其长度可能与原序列不同) 步骤为:数据预处理 —> Seq2Seq模型构建 —> 损失函数 —> 测试 数据预处理: 读取数据。 处理编码问题,删除无效字符串 分词。把字符串转化为单词列表。 建立字典。把单词组成的列表转化为单词索引的列表 在tf、pytorch这类框架中要做padding操作,使一个batch数据长度相等 定义数据生成器。 Seq2Seq 6. 先用循环神经网络编码成一个向量再解码输出一个序列的元素。然
所属分类:
其它
发布日期:2021-01-07
文件大小:60416
提供者:
weixin_38682086
《动手学深度学习Pytorch版》Task4-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
机器翻译及相关技术 Task2中的循环神经网络部分,有实现预测歌词的功能。在那个任务中,训练数据的输入输出长度是固定的,而在机器翻译中,输出的长度是不固定的,所以不能直接用RNN来处理这种任务。 Encoder-Decoder框架是常用于机器翻译,对话系统这类场景的框架。 需要注意的是,在训练过程中Decoder的输入是真实的label,而预测时,输入是上一个ceil的预测值 机器翻译解码 通常用beam search。beam search是一种贪心算法,不是全局最优解。 注意力机制 在“
所属分类:
其它
发布日期:2021-01-07
文件大小:350208
提供者:
weixin_38653602
动手学DL|Task4 机器翻译及其技术+注意力机制与Seq2seq模型+Transformer
机器翻译及其技术 学习笔记 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence模型 模型: 训练 预测 具体结构 集束搜索 Beam Search 简单greedy search: 维特比算法:选择整体分数
所属分类:
其它
发布日期:2021-01-07
文件大小:472064
提供者:
weixin_38653664
Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
所属分类:
其它
发布日期:2021-01-07
文件大小:55296
提供者:
weixin_38629920
动手深度学习PyTorch(十)Seq2Seq、Attention
1. 编码器—解码器(seq2seq) 在自然语言处理的很多应用中,输入和输出都可以是不定长序列。以机器翻译为例,输入可以是一段不定长的英语文本序列,输出可以是一段不定长的法语文本序列,例如 英语输入:“They”、“are”、“watching”、“.” 法语输出:“Ils”、“regardent”、“.” 当输入和输出都是不定长序列时,我们可以使用编码器—解码器(encoder-decoder)[1] 或者seq2seq模型 [2]。这两个模型本质上都用到了两个循环神经网络,分别叫做编码器和
所属分类:
其它
发布日期:2021-01-07
文件大小:106496
提供者:
weixin_38708461
机器翻译,注意力机制,seq2seq模型
机器翻译 数据预处理(小罗同学总结) 编码——解码 seq2seq模型 读取数据,处理数据中的编码问题,并将无效的字符串删除 分词,分词的目的就是将字符串转换成单词组成的列表。目前有很多现成的分词工具可以直接使用,也可以直接按照空格进行分词(不推荐,因为分词不是很准确) 建立词典,将单词组成的列表编程单词id组成的列表,这里会得到如下几样东西 去重后词典,及其中单词对应的索引列表 还可以得到给定索引找到其对应的单词的列表,以及给定单词得到对应索引的字典。 原始语料所有词对应的词典索引的列
所属分类:
其它
发布日期:2021-01-06
文件大小:263168
提供者:
weixin_38642285
深度学习(四)————机器翻译及相关技术、注意力机制与Seq2seq模型、Transformer
目录 机器翻译及相关技术 注意力机制与seq2seq模型 Transformer 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 机器翻译流程:数据预处理,主要模型:encode-decode,seq2seq 注意力机制与seq2seq模型 注意力机制:https://blog.csdn.net/mpk_no1/articl
所属分类:
其它
发布日期:2021-01-06
文件大小:191488
提供者:
weixin_38704565
《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1.读取数据 2.数据预处理 3.分词:将字符串变成单词组成的列表 4.建立词典:将单词组成的列表变成单词id组成的列表 5.Encoder-Decoder:
所属分类:
其它
发布日期:2021-01-06
文件大小:1048576
提供者:
weixin_38501045
注意力机制和Seq2seq模型
Attention Mechanism 注意力机制借鉴了人类的注意力思维方式,以获得需要重点关注的目标区域 在 编码器—解码器(seq2seq) 中,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。解码器输入的语境向量(context vector)不同,每个位置都会计算各自的 attention 输出。 当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。
所属分类:
其它
发布日期:2021-01-06
文件大小:96256
提供者:
weixin_38713167
【NLP】Seq2Seq模型与实战(Tensoflow2.x、Keras)
文章目录一、从RNN到Seq2Seq1.1 Seq2Seq1.2 encoder-decoder结构01、encoder02、decoder1.3 模型训练二、 实战2.1超参数设置2.2数据的预处理2.3模型输入2.4模型构建2.5模型使用 一、从RNN到Seq2Seq 根据输出和输入序列不同数量rnn可以有多种不同的结构,不同结构自然就有不同的引用场合。如下图, one to one 结构,仅仅只是简单的给一个输入得到一个输出,此处并未体现序列的特征,例如图像分类场景。 one to ma
所属分类:
其它
发布日期:2021-01-06
文件大小:331776
提供者:
weixin_38612568
«
1
2
3
4
5
6
7
8
9
10
»