您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. RNN与LSTM详解ppt

  2. 本ppt详细介绍了LSTM和RNN的结构及公式推导,并对二者进行了比较
  3. 所属分类:讲义

    • 发布日期:2016-06-01
    • 文件大小:2097152
    • 提供者:dulingtingzi
  1. LSTM及其在语音识别中的应用

  2. 经过几十年的研究与发展,语音识别建立了以隐马尔可夫模型(Hidden Markov Models,HMM)为基础的框架。近几年,在HMM基础上深度神经网络(Deep Neural Network,DNN)的应用大幅度提升了语音识别系统的性能。DNN将每一帧语音及其前后的几帧语音拼接在一起作为网络的输入,从而利用语音序列中上下文的信息。DNN中每次输入的帧数是固定的,不同的窗长对最终的识别结果会有影响。递归神经网络(Recurrent neural network,RNN)通过递归来挖掘序列中的
  3. 所属分类:专业指导

    • 发布日期:2016-12-03
    • 文件大小:310272
    • 提供者:u014780546
  1. 神经网络LSTM 时间预测

  2. 详细的LSTM代码, 附带数据。 RNN全称循环神经网络(Recurrent Neural Networks),是用来处理序列数据的。在传统的神经网络模型中,从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多关于时间序列的问题却无能无力。
  3. 所属分类:算法与数据结构

    • 发布日期:2017-08-03
    • 文件大小:13312
    • 提供者:u011060119
  1. 递归神经网络RNN与LSTM

  2. 递归神经网络RNN与LSTM简介与算法推导。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
  3. 所属分类:算法与数据结构

    • 发布日期:2018-03-07
    • 文件大小:3145728
    • 提供者:weixin_41382967
  1. 基于LSTM RNN 模型预测EV事件的框架

  2. 这是一篇利用LSTM RNN 预测EV事件的论文,构建LSTM EV预测模型,并与常见的方法进行比较。
  3. 所属分类:深度学习

    • 发布日期:2018-03-09
    • 文件大小:1048576
    • 提供者:qq_31390999
  1. rnn,lstm与GRU详解

  2. 三种循环神经网络的介绍与比较,帮助大家对循环神经网络的理解
  3. 所属分类:深度学习

  1. 递归神经网络RNN与LSTM

  2. 递归神经网络RNN与LSTM简介与算法推导。
  3. 所属分类:算法与数据结构

  1. tensorflow与常见的深度学习模型.rar

  2. 1.tensorflow的基本语法教程 2.模型保存于读取 3.常见的深度学习网络模型CNN,RNN,VGG,LSTM等
  3. 所属分类:深度学习

    • 发布日期:2020-04-03
    • 文件大小:27262976
    • 提供者:qq_34014247
  1. LSTM及其在语音识别中的应用

  2. 经过几十年的研究与发展,语音识别建立了以隐马尔可夫模型(Hidden Markov Models,HMM)为基础的框架。近几年,在HMM基础上深度神经网络(Deep Neural Network,DNN)的应用大幅度提升了语音识别系统的性能。DNN将每一帧语音及其前后的几帧语音拼接在一起作为网络的输入,从而利用语音序列中上下文的信息。DNN中每次输入的帧数是固定的,不同的窗长对最终的识别结果会有影响。递归神经网络(Recurrent neural network,RNN)通过递归来挖掘序列中的上
  3. 所属分类:专业指导

    • 发布日期:2020-02-27
    • 文件大小:286720
    • 提供者:weixin_42329419
  1. LSTM及其在语音识别中的应用

  2. 经过几十年的研究与发展,语音识别建立了以隐马尔可夫模型(Hidden Markov Models,HMM)为基础的框架。近几年,在HMM基础上深度神经网络(Deep Neural Network,DNN)的应用大幅度提升了语音识别系统的性能。DNN将每一帧语音及其前后的几帧语音拼接在一起作为网络的输入,从而利用语音序列中上下文的信息。DNN中每次输入的帧数是固定的,不同的窗长对最终的识别结果会有影响。递归神经网络(Recurrent neural network,RNN)通过递归来挖掘序列中的上
  3. 所属分类:专业指导

    • 发布日期:2020-01-27
    • 文件大小:286720
    • 提供者:tld12
  1. 用RNN与LSTM网络原理进行唐诗生成.tar.gz

  2. 用LSTM写唐诗。使用tensorflow框架。代码是可以正常运行的代码,包含数据集。
  3. 所属分类:深度学习

    • 发布日期:2019-08-17
    • 文件大小:5242880
    • 提供者:wang263334857
  1. LSTM及其在语音识别中的应用

  2. 经过几十年的研究与发展,语音识别建立了以隐马尔可夫模型(Hidden Markov Models,HMM)为基础的框架。近几年,在HMM基础上深度神经网络(Deep Neural Network,DNN)的应用大幅度提升了语音识别系统的性能。DNN将每一帧语音及其前后的几帧语音拼接在一起作为网络的输入,从而利用语音序列中上下文的信息。DNN中每次输入的帧数是固定的,不同的窗长对最终的识别结果会有影响。递归神经网络(Recurrent neural network,RNN)通过递归来挖掘序列中的上
  3. 所属分类:专业指导

    • 发布日期:2020-07-20
    • 文件大小:286720
    • 提供者:lemonzx2008
  1. 深度学习理论与架构最新进展综述论文

  2. 本文章从深度神经网络(DNN)入手,对深度学习(DL)领域的研究进展进行了简要的综述。内容包括:卷积神经网络(CNN)、循环神经网络(RNN)、长时记忆(LSTM)和门控递归单元(GRU)、自动编码器(AE)、深度信念网络(DBN)、生成对抗性网络(GAN)和深度强化学习(DRL)。
  3. 所属分类:机器学习

    • 发布日期:2020-08-28
    • 文件大小:3145728
    • 提供者:syp_net
  1. Python中利用LSTM模型进行时间序列预测分析的实现

  2. 时间序列模型 时间序列预测分析就是利用过去一段时间内某事件时间的特征来预测未来一段时间内该事件的特征。这是一类相对比较复杂的预测建模问题,和回归分析模型的预测不同,时间序列模型是依赖于事件发生的先后顺序的,同样大小的值改变顺序后输入模型产生的结果是不同的。 举个栗子:根据过去两年某股票的每天的股价数据推测之后一周的股价变化;根据过去2年某店铺每周想消费人数预测下周来店消费的人数等等 RNN 和 LSTM 模型 时间序列模型最常用最强大的的工具就是递归神经网络(recurrent neural n
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:304128
    • 提供者:weixin_38519660
  1. Self-Attention与Transformer

  2. 1.由来 在Transformer之前,做翻译的时候,一般用基于RNN的Encoder-Decoder模型。从X翻译到Y。 但是这种方式是基于RNN模型,存在两个问题。 一是RNN存在梯度消失的问题。(LSTM/GRU只是缓解这个问题) 二是RNN 有时间上的方向性,不能用于并行操作。Transformer 摆脱了RNN这种问题。 2.Transformer 的整体框架 输入的x1,x2x_{1},x_{2}x1​,x2​,共同经过Self-attention机制后,在Self-atte
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:2097152
    • 提供者:weixin_38611388
  1. Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:55296
    • 提供者:weixin_38629920
  1. 深度学习之RNN、LSTM及正向反向传播原理

  2. 综述  RNN( Recurrent Neural Network 循环(递归)神经网络) 跟人的大脑记忆差不多。我们的任何决定,想法都是根据我们之前已经学到的东西产生的。RNN通过反向传播和记忆机制,能够处理任意长度的序列,在架构上比前馈神经网络更符合生物神经网络的结构,它的产生也正是为了解决这类问题而应用而生的。     RNN及改进的LSTM等深度学习模型都是基于神经网络而发展的起来的认知计算模型。从原理来看,它们都是源于认知语言学中的“顺序像似性”原理:文字符号与其上下文构成一个“像”,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:153600
    • 提供者:weixin_38610870
  1. rnn-code-formatting:使用经过适当格式化的代码训练的LSTM-RNN格式化源代码-Form source code

  2. RNN代码格式 该项目使您可以使用LSTM-RNN格式化源代码,该LSTM-RNN已经过正确格式化的代码训练。 在训练RNN之前,我们以简化的格式对源代码进行编码,以方便学习。 然后,RNN被送入未格式化的代码,如果预测与输入的下一个字符不匹配,我们认为存在格式化问题。 然后,我们探索RNN预测,直到找到与输入的下一个非空白字符匹配的非空白字符。 与标准格式工具相比,此方法具有一些不错的优点。 您无需配置任何内容。 该工具将自动了解您用于缩进的空格以及特殊字符之间的间距。 RNN和转换代码来
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:21504
    • 提供者:weixin_42108054
  1. sru:与RNN一样快地训练RNN(https:arxiv.orgabs1709.02755)-源码

  2. 关于 SRU是循环单元,其运行速度比cuDNN LSTM快10倍以上,而不会在许多任务上测试准确性。 在GTX 1070上测试的LSTM,conv2d和SRU的平均处理时间 例如,上图显示了32个样本的单个小批量处理时间。 与LSTM相比,SRU的速度提高了10到16倍,并且运行速度与使用conv2d进行的字级卷积一样快(或更快)。 有多个版本,请检查最新版本。 参考: 简单的递归单位可实现高度并行的重复 inproceedings{lei2018sru, title={Simple
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:346112
    • 提供者:weixin_42132325
  1. DeepLearning之LSTM模型输入参数:time_step, input_size, batch_size的理解

  2. 1. LSTM模型 输入参数理解 (Long Short-Term Memory) lstm是RNN模型的一种变种模式,增加了输入门,遗忘门,输出门。 LSTM也是在时间序列预测中的常用模型。 小白我也是从这个模型入门来开始机器学习的坑。 LSTM的基本概念与各个门的解释已经有博文写的非常详细:推荐博文:【译】理解LSTM(通俗易懂版) 这篇文章写的非常详细,生动,概念解释的非常清楚。我也是从这个博文里开始理解的。 2. 模型参数 模型的调参是模型训练中非常重要的一部分,调整参数前的重要一步就
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:411648
    • 提供者:weixin_38678796
« 12 3 4 »