您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 深度学习基础网络模型(mnist手写体识别数据集)

  2. 梯度下降纯手工实现 MLP CNN RNN SEQ2SEQ识别手写体MNIST数据集十分类问题代码详解.
  3. 所属分类:深度学习

    • 发布日期:2018-11-02
    • 文件大小:11534336
    • 提供者:zhanghao3389
  1. seq2seq模型和基于注意力机制的seq2seq模型

  2. 使用 seq2seq 模型和基于注意力机制的 seq2seq 模型(AttSeq2Seq)模型两种方法,实现 MNIST 数据集分类
  3. 所属分类:深度学习

    • 发布日期:2020-03-21
    • 文件大小:11534336
    • 提供者:m0_37602827
  1. NLP数据集movie_subtitles.txt

  2. 一种对话的数据集,是从电影对话中裁剪下来的。具体可应用在NLP领用,建议seq2seq模型,是做聊天机器人时使用的数据集,聊天机器人具体代码可私信我。
  3. 所属分类:深度学习

    • 发布日期:2020-03-19
    • 文件大小:24117248
    • 提供者:m0_37929824
  1. 对联生成数据集及预处理代码

  2. 使用seq2seq模型与attention注意力机制生成对联,数据集中有预处理代码,其对应的工程代码github地址:https://github.com/zhangzhiqiangccm/NLP-project
  3. 所属分类:深度学习

    • 发布日期:2020-08-30
    • 文件大小:22020096
    • 提供者:qq_34523665
  1. 使用seq2seq生成对联的数据集

  2. seq2seq对联生成的数据集,包含搜狗预训练数据,用于生成对联,相关代码上传github中,地址https://github.com/zhangzhiqiangccm/NLP-project
  3. 所属分类:深度学习

    • 发布日期:2020-08-29
    • 文件大小:26214400
    • 提供者:qq_34523665
  1. 《动手学深度学习》笔记 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch 分词 字符串—单词组成的列表 建立词典 单词组成的列表—单词id组成的列表 载入数据集 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequen
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:315392
    • 提供者:weixin_38739837
  1. Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:55296
    • 提供者:weixin_38629920
  1. 过拟合欠拟合及其解决方案;梯度消失梯度爆炸;循环神经网络进阶;机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer;卷积神经网络基础;leNet;卷积神经网络进阶

  2. 1.过拟合欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting)。 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。 2.梯度消失梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 假设一个层数为LLL的多层感知机的第lll层H(l)\boldsymbol{H}^{(l)}H(l)的权重参数为W(l)\b
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:488448
    • 提供者:weixin_38500117
  1. 伯禹AI – task 04 机器翻译、注意力机制与seq2seq模型、Transformer架构

  2. (一)机器翻译及其相关技术 1.  机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理:将数据集清洗、转化为神经网络的输入minbatch 分词:字符串—单词组成的列表 建立字典:单词组成的列表—单词id组成的列表 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 2.  Sequence 2
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:109568
    • 提供者:weixin_38639747
  1. 《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1.读取数据 2.数据预处理 3.分词:将字符串变成单词组成的列表 4.建立词典:将单词组成的列表变成单词id组成的列表 5.Encoder-Decoder:
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38501045
  1. Task 04- 机器翻译-注意力机制-Seq2seq-Transformer

  2. Task 04- 机器翻译-注意力机制-Seq2seq-Transformer 1 机器翻译(Machine Translation) 1.0 数据集形式 1.1 序列预处理 序列padding(保持序列的长度一致)–> valid length:序列未padding之前的长度 def pad(line, max_len, padding_token): if len(line) > max_len: return line[:max_len] re
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:533504
    • 提供者:weixin_38742124
  1. Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer学习笔记

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 import sys sys.path.append(’/home/kesci/input/d2l9528/’) import collections import d2l import zipfile from d2l.data.base import Vocab import t
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:93184
    • 提供者:weixin_38509504
  1. pytorch实现task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 其主要的步骤包括数据预处理、分词、建立词典、载入数据集、Encoder-decoder、seq2seq等。 注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:65536
    • 提供者:weixin_38705723
  1. repairSStuBs:尝试使用代码更改检测SStuB并使用seq2seq模型进行修复-源码

  2. 使用代码更改检测简单的愚蠢错误(SStuB),并使用seq2seq模型进行修复 一些代码可与,该是对一个线性Java错误的简单修复的集合。 资料库描述 utils : 该软件包包含一些实用程序模块,用于修复和准备数据。 data_reader.py :加载json数据集并将SStuB属性放入Bug类。 它定义了一些有用的功能,例如生成要在其他模块中使用的GitHub URL。 关于数据集和其他资产的路径,还有一些配置变量: DATASET_ROOT = '../data' SRC_FILE
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:16777216
    • 提供者:weixin_42144554
  1. seq2seq.pytorch:使用PyTorch进行序列到序列学习-源码

  2. PyTorch中的Seq2Seq 这是用于在训练序列到序列模型的完整套件。 它由几个模型和代码组成,可以训练和推断使用它们。 使用此代码,您可以训练: 神经机器翻译(NMT)模型 语言模型 图像到字幕的生成 跳过思维的句子表示 和更多... 安装 git clone --recursive https://github.com/eladhoffer/seq2seq.pytorch cd seq2seq.pytorch; python setup.py develop 楷模 当前可用的模型:
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:1048576
    • 提供者:weixin_42128988
  1. im2latex:图像到LaTeX(Seq2seq +带有光束搜索的注意力)-Tensorflow-源码

  2. Im2Latex Seq2Seq模型,具有“注意力+光束搜索”功能,可将图像搜索到LaTeX,类似于和。 检查。 安装 在Linux上安装pdflatex(从latex到pdf)和ghostsript + (从pdf到png) make install-linux (大约需要10分钟,从源代码安装) 在Mac上,假设已经安装了LaTeX发行版,则应该安装pdflatex和ghostscr ipt,因此只需要安装magick。 你可以试试 make install-mac 入门 我们提供
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:3145728
    • 提供者:weixin_42122986
  1. Seq2seqChatbots:围绕tensor2tensor的包装器,可以灵活地训练,交互和生成神经聊天机器人的数据-源码

  2. Seq2seq聊天机器人· 围绕的包装器,可以灵活地训练,交互和生成神经聊天数据。 包含我的注释和有关神经对话建模的150多个最新出版物的摘要。 产品特点 :floppy_disk: 进行您自己的训练或使用预先训练的模型进行实验 :check_mark_button: 与tensor2tensor集成的4个不同的对话框数据集 :shuffle_tracks_button: 似乎不适用于tensor2tensor中设置的任何模型或超参数 :rocket: 对话框问题的可轻松扩展的基类 建立
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:20971520
    • 提供者:weixin_42131790
  1. ChatGirl:ChatGirl是基于TensorFlow Seq2Seq模型的AI ChatBot。 ChatGirl一个基于TensorFlow Seq2Seq模型的聊天机器人。(包含预先过的twitter英文数据集,训练,运行,工具

  2. 中文文档: : 介绍 [正在开发中,它尚不能很好地运行。但是您可以训练并运行它。] ChatGirl是基于TensorFlow Seq2Seq模型的AI ChatBot。 TensorFlow新闻 TensorFlow CNN模型项目: : TensorFlow LSTM模型项目: : TensorFlow Seq2Seq模型项目: : 数据 Twitter数据集: 培养 您需要添加模型文件夹以保存模型。 Train_Model.py 跑 Run_model.py 工具 id
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:72351744
    • 提供者:weixin_42117032
  1. seq2seq:PyTorch中注意神经机器翻译的最小Seq2Seq模型-源码

  2. 迷你seq2seq 在PyTorch中注意神经机器翻译的最小Seq2Seq模型。 此实现重点在于以下功能: 用于其他项目的模块化结构 最少的代码可读性 充分利用批次和GPU。 此实现依赖于来最大程度地减少数据集管理和预处理部分。 型号说明 编码器:双向GRU 解码器:具有注意机制的GRU 注意: 要求 GPU和CUDA Python3 火炬 火炬文本 空间 麻木 智慧(可选) 通过这样做下载令牌生成器: python -m spacy download de python -
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:6144
    • 提供者:weixin_42131618
  1. Seq2seq-Chatbot-for-Keras:此存储库包含一个新的基于seq2seq建模的chatbot生成模型-源码

  2. 适用于Keras的Seq2seq聊天机器人 该存储库包含一个基于seq2seq建模的聊天机器人的新生成模型。 有关该模型的更多详细信息,请参见论文第3节。 如果使用该存储库中的想法或代码片段进行发布,请引用本文。 这里可用的经过训练的模型使用了一个小型数据集,该数据集由约8000对上下文(直到当前点的对话的最后两个话语)和相应的响应组成。 数据是从在线英语课程的对话中收集的。 可以使用封闭域数据集对实际应用程序进行微调。 规范seq2seq模型在神经机器翻译中变得很流行,该任务对属于输入和输
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:159744
    • 提供者:weixin_42138780
« 12 3 »