点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - LSTM与RNN
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
RNN与LSTM详解ppt
本ppt详细介绍了LSTM和RNN的结构及公式推导,并对二者进行了比较
所属分类:
讲义
发布日期:2016-06-01
文件大小:2097152
提供者:
dulingtingzi
LSTM及其在语音识别中的应用
经过几十年的研究与发展,语音识别建立了以隐马尔可夫模型(Hidden Markov Models,HMM)为基础的框架。近几年,在HMM基础上深度神经网络(Deep Neural Network,DNN)的应用大幅度提升了语音识别系统的性能。DNN将每一帧语音及其前后的几帧语音拼接在一起作为网络的输入,从而利用语音序列中上下文的信息。DNN中每次输入的帧数是固定的,不同的窗长对最终的识别结果会有影响。递归神经网络(Recurrent neural network,RNN)通过递归来挖掘序列中的
所属分类:
专业指导
发布日期:2016-12-03
文件大小:310272
提供者:
u014780546
神经网络LSTM 时间预测
详细的LSTM代码, 附带数据。 RNN全称循环神经网络(Recurrent Neural Networks),是用来处理序列数据的。在传统的神经网络模型中,从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多关于时间序列的问题却无能无力。
所属分类:
算法与数据结构
发布日期:2017-08-03
文件大小:13312
提供者:
u011060119
递归神经网络RNN与LSTM
递归神经网络RNN与LSTM简介与算法推导。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
所属分类:
算法与数据结构
发布日期:2018-03-07
文件大小:3145728
提供者:
weixin_41382967
基于LSTM RNN 模型预测EV事件的框架
这是一篇利用LSTM RNN 预测EV事件的论文,构建LSTM EV预测模型,并与常见的方法进行比较。
所属分类:
深度学习
发布日期:2018-03-09
文件大小:1048576
提供者:
qq_31390999
rnn,lstm与GRU详解
三种循环神经网络的介绍与比较,帮助大家对循环神经网络的理解
所属分类:
深度学习
发布日期:2018-05-20
文件大小:2097152
提供者:
zhaokuanggan8710
递归神经网络RNN与LSTM
递归神经网络RNN与LSTM简介与算法推导。
所属分类:
算法与数据结构
发布日期:2020-05-03
文件大小:3145728
提供者:
zhangwanting0602
tensorflow与常见的深度学习模型.rar
1.tensorflow的基本语法教程 2.模型保存于读取 3.常见的深度学习网络模型CNN,RNN,VGG,LSTM等
所属分类:
深度学习
发布日期:2020-04-03
文件大小:27262976
提供者:
qq_34014247
LSTM及其在语音识别中的应用
经过几十年的研究与发展,语音识别建立了以隐马尔可夫模型(Hidden Markov Models,HMM)为基础的框架。近几年,在HMM基础上深度神经网络(Deep Neural Network,DNN)的应用大幅度提升了语音识别系统的性能。DNN将每一帧语音及其前后的几帧语音拼接在一起作为网络的输入,从而利用语音序列中上下文的信息。DNN中每次输入的帧数是固定的,不同的窗长对最终的识别结果会有影响。递归神经网络(Recurrent neural network,RNN)通过递归来挖掘序列中的上
所属分类:
专业指导
发布日期:2020-02-27
文件大小:286720
提供者:
weixin_42329419
LSTM及其在语音识别中的应用
经过几十年的研究与发展,语音识别建立了以隐马尔可夫模型(Hidden Markov Models,HMM)为基础的框架。近几年,在HMM基础上深度神经网络(Deep Neural Network,DNN)的应用大幅度提升了语音识别系统的性能。DNN将每一帧语音及其前后的几帧语音拼接在一起作为网络的输入,从而利用语音序列中上下文的信息。DNN中每次输入的帧数是固定的,不同的窗长对最终的识别结果会有影响。递归神经网络(Recurrent neural network,RNN)通过递归来挖掘序列中的上
所属分类:
专业指导
发布日期:2020-01-27
文件大小:286720
提供者:
tld12
用RNN与LSTM网络原理进行唐诗生成.tar.gz
用LSTM写唐诗。使用tensorflow框架。代码是可以正常运行的代码,包含数据集。
所属分类:
深度学习
发布日期:2019-08-17
文件大小:5242880
提供者:
wang263334857
LSTM及其在语音识别中的应用
经过几十年的研究与发展,语音识别建立了以隐马尔可夫模型(Hidden Markov Models,HMM)为基础的框架。近几年,在HMM基础上深度神经网络(Deep Neural Network,DNN)的应用大幅度提升了语音识别系统的性能。DNN将每一帧语音及其前后的几帧语音拼接在一起作为网络的输入,从而利用语音序列中上下文的信息。DNN中每次输入的帧数是固定的,不同的窗长对最终的识别结果会有影响。递归神经网络(Recurrent neural network,RNN)通过递归来挖掘序列中的上
所属分类:
专业指导
发布日期:2020-07-20
文件大小:286720
提供者:
lemonzx2008
深度学习理论与架构最新进展综述论文
本文章从深度神经网络(DNN)入手,对深度学习(DL)领域的研究进展进行了简要的综述。内容包括:卷积神经网络(CNN)、循环神经网络(RNN)、长时记忆(LSTM)和门控递归单元(GRU)、自动编码器(AE)、深度信念网络(DBN)、生成对抗性网络(GAN)和深度强化学习(DRL)。
所属分类:
机器学习
发布日期:2020-08-28
文件大小:3145728
提供者:
syp_net
Python中利用LSTM模型进行时间序列预测分析的实现
时间序列模型 时间序列预测分析就是利用过去一段时间内某事件时间的特征来预测未来一段时间内该事件的特征。这是一类相对比较复杂的预测建模问题,和回归分析模型的预测不同,时间序列模型是依赖于事件发生的先后顺序的,同样大小的值改变顺序后输入模型产生的结果是不同的。 举个栗子:根据过去两年某股票的每天的股价数据推测之后一周的股价变化;根据过去2年某店铺每周想消费人数预测下周来店消费的人数等等 RNN 和 LSTM 模型 时间序列模型最常用最强大的的工具就是递归神经网络(recurrent neural n
所属分类:
其它
发布日期:2020-12-31
文件大小:304128
提供者:
weixin_38519660
Self-Attention与Transformer
1.由来 在Transformer之前,做翻译的时候,一般用基于RNN的Encoder-Decoder模型。从X翻译到Y。 但是这种方式是基于RNN模型,存在两个问题。 一是RNN存在梯度消失的问题。(LSTM/GRU只是缓解这个问题) 二是RNN 有时间上的方向性,不能用于并行操作。Transformer 摆脱了RNN这种问题。 2.Transformer 的整体框架 输入的x1,x2x_{1},x_{2}x1,x2,共同经过Self-attention机制后,在Self-atte
所属分类:
其它
发布日期:2021-01-07
文件大小:2097152
提供者:
weixin_38611388
Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
所属分类:
其它
发布日期:2021-01-07
文件大小:55296
提供者:
weixin_38629920
深度学习之RNN、LSTM及正向反向传播原理
综述 RNN( Recurrent Neural Network 循环(递归)神经网络) 跟人的大脑记忆差不多。我们的任何决定,想法都是根据我们之前已经学到的东西产生的。RNN通过反向传播和记忆机制,能够处理任意长度的序列,在架构上比前馈神经网络更符合生物神经网络的结构,它的产生也正是为了解决这类问题而应用而生的。 RNN及改进的LSTM等深度学习模型都是基于神经网络而发展的起来的认知计算模型。从原理来看,它们都是源于认知语言学中的“顺序像似性”原理:文字符号与其上下文构成一个“像”,
所属分类:
其它
发布日期:2021-01-06
文件大小:153600
提供者:
weixin_38610870
rnn-code-formatting:使用经过适当格式化的代码训练的LSTM-RNN格式化源代码-Form source code
RNN代码格式 该项目使您可以使用LSTM-RNN格式化源代码,该LSTM-RNN已经过正确格式化的代码训练。 在训练RNN之前,我们以简化的格式对源代码进行编码,以方便学习。 然后,RNN被送入未格式化的代码,如果预测与输入的下一个字符不匹配,我们认为存在格式化问题。 然后,我们探索RNN预测,直到找到与输入的下一个非空白字符匹配的非空白字符。 与标准格式工具相比,此方法具有一些不错的优点。 您无需配置任何内容。 该工具将自动了解您用于缩进的空格以及特殊字符之间的间距。 RNN和转换代码来
所属分类:
其它
发布日期:2021-03-25
文件大小:21504
提供者:
weixin_42108054
sru:与RNN一样快地训练RNN(https:arxiv.orgabs1709.02755)-源码
关于 SRU是循环单元,其运行速度比cuDNN LSTM快10倍以上,而不会在许多任务上测试准确性。 在GTX 1070上测试的LSTM,conv2d和SRU的平均处理时间 例如,上图显示了32个样本的单个小批量处理时间。 与LSTM相比,SRU的速度提高了10到16倍,并且运行速度与使用conv2d进行的字级卷积一样快(或更快)。 有多个版本,请检查最新版本。 参考: 简单的递归单位可实现高度并行的重复 inproceedings{lei2018sru, title={Simple
所属分类:
其它
发布日期:2021-02-03
文件大小:346112
提供者:
weixin_42132325
DeepLearning之LSTM模型输入参数:time_step, input_size, batch_size的理解
1. LSTM模型 输入参数理解 (Long Short-Term Memory) lstm是RNN模型的一种变种模式,增加了输入门,遗忘门,输出门。 LSTM也是在时间序列预测中的常用模型。 小白我也是从这个模型入门来开始机器学习的坑。 LSTM的基本概念与各个门的解释已经有博文写的非常详细:推荐博文:【译】理解LSTM(通俗易懂版) 这篇文章写的非常详细,生动,概念解释的非常清楚。我也是从这个博文里开始理解的。 2. 模型参数 模型的调参是模型训练中非常重要的一部分,调整参数前的重要一步就
所属分类:
其它
发布日期:2021-01-20
文件大小:411648
提供者:
weixin_38678796
«
1
2
3
4
»