您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现

  2. batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现;运行无误,示例为mnist手写体识别
  3. 所属分类:Python

    • 发布日期:2017-04-19
    • 文件大小:808960
    • 提供者:xwd18280820053
  1. 深入理解LSTM

  2. 深入理解RNN和LSTM,对LSTM的解剖深刻,每一个公式意义说明详细。
  3. 所属分类:深度学习

    • 发布日期:2017-10-12
    • 文件大小:1048576
    • 提供者:ingwfj
  1. Udemy - Deep Learning Recurrent Neural Networks in Python

  2. https://www.udemy.com/deep-learning-recurrent-neural-networks-in-python/ Deep Learning: Recurrent Neural Networks in Python GRU, LSTM, + more modern deep learning, machine learning, and data science for sequences Created by Lazy Programmer Inc. Last
  3. 所属分类:机器学习

    • 发布日期:2017-10-29
    • 文件大小:48
    • 提供者:toshiya207
  1. rnn-tutorial-gru-lstm-master分词

  2. 人工智能深度学习,中文分词代码,准确无误。rnn-tutorial-gru-lstm-master分词
  3. 所属分类:深度学习

    • 发布日期:2018-03-12
    • 文件大小:32505856
    • 提供者:nicolepingz
  1. RNN变体——GRU网络论文原文

  2. GRU在LSTM网络的基础上减少一个门限,用更新门代替了遗忘门和输出门,其训练参数更少,效果更好。
  3. 所属分类:深度学习

    • 发布日期:2018-05-14
    • 文件大小:684032
    • 提供者:weixin_42207514
  1. GRU(Gated Recurrent)神经网络介绍及公式推导

  2. GRU(Gated Recurrent Unit)神经网络是LSTM 的一个变体,GRU 在保持了LSTM 的效果同时又使结构更加简单,是一种非常流行RNN 神经网络,它只有两个门了,分别为更新门t z 和重置门tr 。更新门控制前一时刻的状态信息被带入到当前状态中的程度,值越大前一时刻的状态信息带入越多。重置门控制忽略前一时刻的状态信息的程度,值越小说明忽略得越多。
  3. 所属分类:深度学习

    • 发布日期:2018-07-08
    • 文件大小:212992
    • 提供者:qq_38562705
  1. 基于PSO-Adam-GRU的煤矿瓦斯浓度预测模型

  2. 煤矿瓦斯浓度的精准预测是矿井瓦斯防治的关键。为了准确可靠地预测工作面瓦斯浓度,提出了一种基于门控循环单元方法的工作面瓦斯浓度预测模型。采用邻近均值法对数据缺失值和异常值进行补全,采用MinMaxScaler方法对实验数据进行归一化处理,为了提高模型精度和稳定性,采用粒子群算法和Adam算法对GRU超参数进行优化,从而构建了基于PSO-Adam-GRU的工作面瓦斯浓度预测模型。以崔家沟煤矿生产监测数据为样本数据进行模型训练,采用平均绝对误差、均方根误差、运行时间3种评价指标对预测模型性能进行评估,
  3. 所属分类:其它

    • 发布日期:2020-05-04
    • 文件大小:1048576
    • 提供者:weixin_38712279
  1. Pytorch实现LSTM和GRU示例

  2. 今天小编就为大家分享一篇Pytorch实现LSTM和GRU示例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:283648
    • 提供者:weixin_38569515
  1. Pytorch实现LSTM和GRU示例

  2. 为了解决传统RNN无法长时依赖问题,RNN的两个变体LSTM和GRU被引入。 LSTM Long Short Term Memory,称为长短期记忆网络,意思就是长的短时记忆,其解决的仍然是短时记忆问题,这种短时记忆比较长,能一定程度上解决长时依赖。 上图为LSTM的抽象结构,LSTM由3个门来控制,分别是输入门、遗忘门和输出门。输入门控制网络的输入,遗忘门控制着记忆单元,输出门控制着网络的输出。最为重要的就是遗忘门,可以决定哪些记忆被保留,由于遗忘门的作用,使得LSTM具有长时记忆的功能。对
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:284672
    • 提供者:weixin_38677244
  1. Python进行GRU和LSTM

  2. 加载包 import numpy as np import pandas as pd import math #Sequential多个网络层的线性堆叠;Dense隐含层 from keras.models import Sequential from keras.layers import Dense from keras.layers import LSTM from keras.layers import SimpleRNN from keras.layers import GRU fro
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:34816
    • 提供者:weixin_38711740
  1. lstm+ctc+cnn架构,进行不定长度验证码识别

  2. lstm+ctc+cnn架构,进行不定长度验证码识别,达到不分割字符而识别验证码内容的效果。验证码内容包含了大小字母以及数字,并增加点、线、颜色、位置、字体等干扰项。本项目对gru +ctc+cnn
  3. 所属分类:深度学习

    • 发布日期:2021-01-01
    • 文件大小:109051904
    • 提供者:bruce__ray
  1. 10.1 RNN,LSTM,.GRU递归神经网络学习笔记

  2. 文章目录概念LSTM RNN是用于处理大小可变的有序数据的一类模型 即使对固定输入输出的模型,RNN也非常有用 我们想对输入序列化处理,这里我们收到一个固定大小的输入,如一个图形,我们要做出分类决策,即图像中的数字分类,我们不是做单一的前向传播,而是观察图片的各种不同部分,然后在完成一组观察后做出最终决策。 概念 总体而言每个RNN都有这样一个小小的循环核心单元,它把x作为输出传入RNN,RNN有一个内部隐藏态(internal hidden state),内部隐藏态会在RNN每次读取新的输
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:993280
    • 提供者:weixin_38731226
  1. keras_ LSTM 层和 GRU 层

  2. 6.2.2 理解 LSTM 层和 GRU 层 参考: https://blog.csdn.net/qq_30614345/article/details/98714874 6.2.4 小结 现在你已经学会了以下内容。 ‰ 循环神经网络(RNN)的概念及其工作原理。 ‰ 长短期记忆(LSTM)是什么,为什么它在长序列上的效果要好于普通 RNN。 ‰ 如何使用 Keras 的 RNN 层来处理序列数据。 接下来,我们将介绍 RNN 几个更高级的功能,这可以帮你有效利用深度学习序列模型 6.2. 2 
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:101376
    • 提供者:weixin_38676851
  1. load-forecasting-algorithms:使用多种算法(线性回归,随机森林,支持向量机,BP神经网络,GRU,LSTM)进行电力系统负荷预测电力预测。通过一个简单的例子。各种算法(线性回归,随机森林,支持向量)机器,BP神经网

  2. 负荷预测算法 使用多种算法(线性回归,随机森林,支持向量机,BP神经网络,GRU,LSTM)进行电力系统负荷预测/电力预测。通过一个简单的例子。各种算法(线性回归,随机森林,支持向量机,BP神经网络,GRU,LSTM)用于电力系统负荷预测/电力预测。
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:749568
    • 提供者:weixin_42101384
  1. Bidirectional-stacked-RNN-with-LSTM-GRU-源码

  2. 具有LSTM GRU的双向堆叠RNN 在这里,我为Twitter情感分析数据集使用带有LSTM / GRU单元的双向堆叠RNN开发了情感分类器,。 为了开发模型,我尝试了堆叠RNN的数量,隐藏层的数量,像元类型,跳过连接,梯度修剪和丢失概率。 我使用亚当优化器和二进制交叉熵损失函数,并使用S形函数将预测对数转换为概率。 对于最佳模型,我发现: 计算每个类别的精度,召回率和F1。 绘制损耗与历时曲线和ROC曲线 我的解决方案是在PyTorch中实现的,并且该报告有据可查。 我还有一个笔记
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:90112
    • 提供者:weixin_42113456
  1. RecurrentLM:用于在具有RNN,GRU和LSTM层的PyTorch上训练,测试和采样自动回归递归语言模型的代码和脚本-源码

  2. 复发性LM 描述 用于在具有RNN,GRU和LSTM层的PyTorch上训练,测试和采样自动回归递归语言模型的代码和脚本。 买者自负 该存储库仅用于教育和展示目的。 内容按“原样”提供,没有任何默示保证,并且对因使用该内容而造成的损失不承担任何责任。 功能性 该代码提供3种功能:训练LM,评估LM和从LM采样序列。 单词级和字符级LM都可以训练。 训练可以在CPU或GPU中进行,测试和采样在CPU上进行。 训练 培训是使用train_lm.py脚本完成的。 运行python train_lm.p
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:16384
    • 提供者:weixin_42118770
  1. RNN-污染-预测:使用简单的递归神经网络,Python和Keras的LSTM和GRU预测下一个小时,一周和一个月的污染-源码

  2. RNN污染预测 使用简单的递归神经网络,Python和Keras的LSTM和GRU,预测北京市下一个小时,一周和一个月的污染。
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:239616
    • 提供者:weixin_42133899
  1. 股票价格预测-LSTM-TCN-GBDT:使用四种算法(LSTM,TCN,GRU,GBDT)进行股票价格的预测和预测结果的检验。有四种算法(LSTM,TCN,GRU,GBDT)用于预测股价并检验预测结果-源码

  2. 股票价格预测-LSTM-TCN-GBDT 使用四种算法(LSTM,TCN,GRU,GBDT)进行股票价格的预测和预测结果的检验。
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:485376
    • 提供者:weixin_42143092
  1. NER-LSTM-CRF:一个易于使用的命名实体识别(NER)工具包,在张量流中实现了Bi-LSTM + CRF模型-源码

  2. NER-LSTM-CRF 一个易于使用的命名实体识别(NER)工具包,在张量流中实现了LSTM + [CNN] + CRF模型。 该项目短期内不再维护,PyTorch版本: : 1.型号 Bi-LSTM / Bi-GRU + [CNN] + CRF,其中CNN层针对英文,捕获字符特征,通过参数use_char_feature控制self.nil_vars.add(self.feature_weight_dict [feature_name] .name)。 2.用法 2.1数据准备 训练数
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:398336
    • 提供者:weixin_42117224
  1. rnn笔记本:RNN(SimpleRNN,LSTM,GRU)Tensorflow2.0和Keras笔记本(车间材料)-源码

  2. rnn笔记本 RNN(SimpleRNN,LSTM,GRU)Tensorflow2.0和Keras笔记本(车间材料) 滑梯 视频 某些部分是可以自由地从我们的也可以购买一个完整的软件包,包括从波斯32个视频 笔记本电脑 RNN简介: 我们如何推断不同的序列长度? 加密货币预测 当我们使用return_sequences = True吗? 堆叠式RNN(深度RNN) 使用LSTM层 CNN + LSTM用于球运动分类 Keras中的TimeDistributed层是什么? 视频分
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:6291456
    • 提供者:weixin_42123237
« 12 3 4 5 »