点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - seq2seq数据集
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
深度学习基础网络模型(mnist手写体识别数据集)
梯度下降纯手工实现 MLP CNN RNN SEQ2SEQ识别手写体MNIST数据集十分类问题代码详解.
所属分类:
深度学习
发布日期:2018-11-02
文件大小:11534336
提供者:
zhanghao3389
seq2seq模型和基于注意力机制的seq2seq模型
使用 seq2seq 模型和基于注意力机制的 seq2seq 模型(AttSeq2Seq)模型两种方法,实现 MNIST 数据集分类
所属分类:
深度学习
发布日期:2020-03-21
文件大小:11534336
提供者:
m0_37602827
NLP数据集movie_subtitles.txt
一种对话的数据集,是从电影对话中裁剪下来的。具体可应用在NLP领用,建议seq2seq模型,是做聊天机器人时使用的数据集,聊天机器人具体代码可私信我。
所属分类:
深度学习
发布日期:2020-03-19
文件大小:24117248
提供者:
m0_37929824
对联生成数据集及预处理代码
使用seq2seq模型与attention注意力机制生成对联,数据集中有预处理代码,其对应的工程代码github地址:https://github.com/zhangzhiqiangccm/NLP-project
所属分类:
深度学习
发布日期:2020-08-30
文件大小:22020096
提供者:
qq_34523665
使用seq2seq生成对联的数据集
seq2seq对联生成的数据集,包含搜狗预训练数据,用于生成对联,相关代码上传github中,地址https://github.com/zhangzhiqiangccm/NLP-project
所属分类:
深度学习
发布日期:2020-08-29
文件大小:26214400
提供者:
qq_34523665
《动手学深度学习》笔记 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch 分词 字符串—单词组成的列表 建立词典 单词组成的列表—单词id组成的列表 载入数据集 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequen
所属分类:
其它
发布日期:2021-01-07
文件大小:315392
提供者:
weixin_38739837
Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
所属分类:
其它
发布日期:2021-01-07
文件大小:55296
提供者:
weixin_38629920
过拟合欠拟合及其解决方案;梯度消失梯度爆炸;循环神经网络进阶;机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer;卷积神经网络基础;leNet;卷积神经网络进阶
1.过拟合欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting)。 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。 2.梯度消失梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 假设一个层数为LLL的多层感知机的第lll层H(l)\boldsymbol{H}^{(l)}H(l)的权重参数为W(l)\b
所属分类:
其它
发布日期:2021-01-06
文件大小:488448
提供者:
weixin_38500117
伯禹AI – task 04 机器翻译、注意力机制与seq2seq模型、Transformer架构
(一)机器翻译及其相关技术 1. 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理:将数据集清洗、转化为神经网络的输入minbatch 分词:字符串—单词组成的列表 建立字典:单词组成的列表—单词id组成的列表 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 2. Sequence 2
所属分类:
其它
发布日期:2021-01-06
文件大小:109568
提供者:
weixin_38639747
《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1.读取数据 2.数据预处理 3.分词:将字符串变成单词组成的列表 4.建立词典:将单词组成的列表变成单词id组成的列表 5.Encoder-Decoder:
所属分类:
其它
发布日期:2021-01-06
文件大小:1048576
提供者:
weixin_38501045
Task 04- 机器翻译-注意力机制-Seq2seq-Transformer
Task 04- 机器翻译-注意力机制-Seq2seq-Transformer 1 机器翻译(Machine Translation) 1.0 数据集形式 1.1 序列预处理 序列padding(保持序列的长度一致)–> valid length:序列未padding之前的长度 def pad(line, max_len, padding_token): if len(line) > max_len: return line[:max_len] re
所属分类:
其它
发布日期:2021-01-06
文件大小:533504
提供者:
weixin_38742124
Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer学习笔记
机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 import sys sys.path.append(’/home/kesci/input/d2l9528/’) import collections import d2l import zipfile from d2l.data.base import Vocab import t
所属分类:
其它
发布日期:2021-01-06
文件大小:93184
提供者:
weixin_38509504
pytorch实现task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 其主要的步骤包括数据预处理、分词、建立词典、载入数据集、Encoder-decoder、seq2seq等。 注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经
所属分类:
其它
发布日期:2021-01-06
文件大小:65536
提供者:
weixin_38705723
repairSStuBs:尝试使用代码更改检测SStuB并使用seq2seq模型进行修复-源码
使用代码更改检测简单的愚蠢错误(SStuB),并使用seq2seq模型进行修复 一些代码可与,该是对一个线性Java错误的简单修复的集合。 资料库描述 utils : 该软件包包含一些实用程序模块,用于修复和准备数据。 data_reader.py :加载json数据集并将SStuB属性放入Bug类。 它定义了一些有用的功能,例如生成要在其他模块中使用的GitHub URL。 关于数据集和其他资产的路径,还有一些配置变量: DATASET_ROOT = '../data' SRC_FILE
所属分类:
其它
发布日期:2021-03-06
文件大小:16777216
提供者:
weixin_42144554
seq2seq.pytorch:使用PyTorch进行序列到序列学习-源码
PyTorch中的Seq2Seq 这是用于在训练序列到序列模型的完整套件。 它由几个模型和代码组成,可以训练和推断使用它们。 使用此代码,您可以训练: 神经机器翻译(NMT)模型 语言模型 图像到字幕的生成 跳过思维的句子表示 和更多... 安装 git clone --recursive https://github.com/eladhoffer/seq2seq.pytorch cd seq2seq.pytorch; python setup.py develop 楷模 当前可用的模型:
所属分类:
其它
发布日期:2021-03-04
文件大小:1048576
提供者:
weixin_42128988
im2latex:图像到LaTeX(Seq2seq +带有光束搜索的注意力)-Tensorflow-源码
Im2Latex Seq2Seq模型,具有“注意力+光束搜索”功能,可将图像搜索到LaTeX,类似于和。 检查。 安装 在Linux上安装pdflatex(从latex到pdf)和ghostsript + (从pdf到png) make install-linux (大约需要10分钟,从源代码安装) 在Mac上,假设已经安装了LaTeX发行版,则应该安装pdflatex和ghostscr ipt,因此只需要安装magick。 你可以试试 make install-mac 入门 我们提供
所属分类:
其它
发布日期:2021-02-06
文件大小:3145728
提供者:
weixin_42122986
Seq2seqChatbots:围绕tensor2tensor的包装器,可以灵活地训练,交互和生成神经聊天机器人的数据-源码
Seq2seq聊天机器人· 围绕的包装器,可以灵活地训练,交互和生成神经聊天数据。 包含我的注释和有关神经对话建模的150多个最新出版物的摘要。 产品特点 :floppy_disk: 进行您自己的训练或使用预先训练的模型进行实验 :check_mark_button: 与tensor2tensor集成的4个不同的对话框数据集 :shuffle_tracks_button: 似乎不适用于tensor2tensor中设置的任何模型或超参数 :rocket: 对话框问题的可轻松扩展的基类 建立
所属分类:
其它
发布日期:2021-02-06
文件大小:20971520
提供者:
weixin_42131790
ChatGirl:ChatGirl是基于TensorFlow Seq2Seq模型的AI ChatBot。 ChatGirl一个基于TensorFlow Seq2Seq模型的聊天机器人。(包含预先过的twitter英文数据集,训练,运行,工具
中文文档: : 介绍 [正在开发中,它尚不能很好地运行。但是您可以训练并运行它。] ChatGirl是基于TensorFlow Seq2Seq模型的AI ChatBot。 TensorFlow新闻 TensorFlow CNN模型项目: : TensorFlow LSTM模型项目: : TensorFlow Seq2Seq模型项目: : 数据 Twitter数据集: 培养 您需要添加模型文件夹以保存模型。 Train_Model.py 跑 Run_model.py 工具 id
所属分类:
其它
发布日期:2021-02-06
文件大小:72351744
提供者:
weixin_42117032
seq2seq:PyTorch中注意神经机器翻译的最小Seq2Seq模型-源码
迷你seq2seq 在PyTorch中注意神经机器翻译的最小Seq2Seq模型。 此实现重点在于以下功能: 用于其他项目的模块化结构 最少的代码可读性 充分利用批次和GPU。 此实现依赖于来最大程度地减少数据集管理和预处理部分。 型号说明 编码器:双向GRU 解码器:具有注意机制的GRU 注意: 要求 GPU和CUDA Python3 火炬 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -
所属分类:
其它
发布日期:2021-02-04
文件大小:6144
提供者:
weixin_42131618
Seq2seq-Chatbot-for-Keras:此存储库包含一个新的基于seq2seq建模的chatbot生成模型-源码
适用于Keras的Seq2seq聊天机器人 该存储库包含一个基于seq2seq建模的聊天机器人的新生成模型。 有关该模型的更多详细信息,请参见论文第3节。 如果使用该存储库中的想法或代码片段进行发布,请引用本文。 这里可用的经过训练的模型使用了一个小型数据集,该数据集由约8000对上下文(直到当前点的对话的最后两个话语)和相应的响应组成。 数据是从在线英语课程的对话中收集的。 可以使用封闭域数据集对实际应用程序进行微调。 规范seq2seq模型在神经机器翻译中变得很流行,该任务对属于输入和输
所属分类:
其它
发布日期:2021-02-03
文件大小:159744
提供者:
weixin_42138780
«
1
2
3
»