您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 双向RNN原始论文

  2. 双向RNN原始论文
  3. 所属分类:深度学习

    • 发布日期:2017-08-07
    • 文件大小:186368
    • 提供者:app_12062011
  1. RNN-model及相关编程例子

  2. 内含有经常使用的rnn-cell,lstm-cell, gru-cell以及双向传播层的相关API介绍,还有一个jupyter notebook记录了相关的编程代码实现
  3. 所属分类:深度学习

    • 发布日期:2017-11-20
    • 文件大小:834560
    • 提供者:luffytom
  1. tensorflow 双向RNN

  2. 基于tensorflow1.8实现的单层静态双向RNN网络,以mnist手写体为测试用例
  3. 所属分类:深度学习

    • 发布日期:2018-07-10
    • 文件大小:3072
    • 提供者:ch2725
  1. 双向循环神经网络tensorflow代码

  2. 双向循环神经网络tensorflow代码,使用MNIST数据集,可直接运行
  3. 所属分类:深度学习

    • 发布日期:2018-01-14
    • 文件大小:4096
    • 提供者:qq_21564215
  1. 浅谈Tensorflow 动态双向RNN的输出问题

  2. 今天小编就为大家分享一篇浅谈Tensorflow 动态双向RNN的输出问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:69632
    • 提供者:weixin_38719564
  1. 双向RNN:bidirectional_dynamic_rnn()函数的使用详解

  2. 今天小编就为大家分享一篇双向RNN:bidirectional_dynamic_rnn()函数的使用详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:91136
    • 提供者:weixin_38557838
  1. 双向RNN:bidirectional_dynamic_rnn()函数的使用详解

  2. 双向RNN:bidirectional_dynamic_rnn()函数的使用详解 先说下为什么要使用到双向RNN,在读一篇文章的时候,上文提到的信息十分的重要,但这些信息是不足以捕捉文章信息的,下文隐含的信息同样会对该时刻的语义产生影响。 举一个不太恰当的例子,某次工作会议上,领导进行“简洁地”总结,他会在第一句告诉你:“下面,为了节约时间,我简单地说两点…”,(…此处略去五百字…),“首先,….”,(…此处略去一万字…),“碍于时间的关系,我要加快速度了,下面我简要说下第二点…”(…此处再次略
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:93184
    • 提供者:weixin_38722721
  1. 5-RNN-02_RNN基本api

  2. import tensorflow as tf tf.nn.rnn_cell # 定义rnn 细胞核相关的信息的 tf.nn.rnn_cell_impl # 定义rnn细胞核具体是如何实现的 tf.nn.dynamic_rnn() # 单向动态rnn。 tf.nn.bidirectional_dynamic_rnn() # 双向动态rnn tf.nn.static_rnn() # 单向静态rnn tf.nn.static_bidirectional_rnn()
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38675797
  1. pytorch自定义RNN.zip

  2. 使用pytorch框架自定义了一个LSTM结构,压缩文件包含两个文件,一个是modules.py是编写的自定义LSTM结构,IMDB.py文件是使用modules.py里自定义的LSTM结构搭建的网络模型。pytorch自定义多层双向LSTM结构的程序详解可以参考这篇博客:https://blog.csdn.net/kuan__/article/details/114652053
  3. 所属分类:电信

    • 发布日期:2021-03-11
    • 文件大小:3072
    • 提供者:kuan__
  1. Bidirectional-stacked-RNN-with-LSTM-GRU-源码

  2. 具有LSTM GRU的双向堆叠RNN 在这里,我为Twitter情感分析数据集使用带有LSTM / GRU单元的双向堆叠RNN开发了情感分类器,。 为了开发模型,我尝试了堆叠RNN的数量,隐藏层的数量,像元类型,跳过连接,梯度修剪和丢失概率。 我使用亚当优化器和二进制交叉熵损失函数,并使用S形函数将预测对数转换为概率。 对于最佳模型,我发现: 计算每个类别的精度,召回率和F1。 绘制损耗与历时曲线和ROC曲线 我的解决方案是在PyTorch中实现的,并且该报告有据可查。 我还有一个笔记
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:90112
    • 提供者:weixin_42113456
  1. DeepLearning-Lab:用于深度学习的代码实验室。 包括rnn,seq2seq,word2vec,交叉熵,双向rnn,卷积运算,池运算,InceptionV3,转移学习-源码

  2. 深度学习实验室 字符测试。 seq2seq测试。 word2vec测试。 交叉熵检验。 双向rnn测试。 图片上的卷积运算。 图片上的合并操作。 cnn可视化的颤抖。 InceptionV3模型。 转移学习。
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:18874368
    • 提供者:weixin_42143161
  1. 即将取代RNN结构的Transformer

  2. 本文来自于segmentfault,文章介绍了Transformer的整体结构、attention计算过程等相关内容。上图是经典的双向RNN模型,我们知道该模型是通过递归的方式运行,虽然适合对序列数据建模,但是缺点也很明显“它无法并行执行”也就无法利用GPU强大的并行能力(这里插句题外话,正因为GPU强大的并行能力,所以batch_size等于1和等于200运算时间基本差不多),再加上各种门控机制,运行速度很慢。一般而言,编码器输出编码向量C作为解码器输入,但是由于编码向量C中所有的编码器输入值
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:935936
    • 提供者:weixin_38502292
  1. 改进的粒子群算法与支持向量机相结合的碳纤维产量双向预测

  2. 本文基于支持向量机(SVM)和改进的粒子群优化(IPSO)算法(SVM-IPSO)创建了双向预测模型,以预测碳纤维的性能和生产参数。 在SVM中,选择对预测性能有重要影响的参数至关重要。 提出了IPSO对它们进行优化的方法,然后将SVM-IPSO模型应用于碳纤维产量的双向预测。 SVM的预测精度主要取决于其参数,因此利用IPSO来寻找SVM的最佳参数,以提高其预测能力。 受小区通信机制的启发,我们通过将全球最佳解决方案的信息纳入搜索策略来提出IPSO,以提高开发效率,并采用IPSO建立双向预测模
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:548864
    • 提供者:weixin_38581447
  1. 关系提取:tensorflow 2.0中基于RNN和CNN的关系提取模型-源码

  2. 最好在Markdown阅读器中查看此文件(例如 ) 概述 您将实现双向GRU以及用于关系提取的原始模型: GRU宽松地基于基于注意力的双向关系长期双向短期记忆网络的工作方法(Zhou等,2016)。 您将需要实现: 双向GRU 注意层 L2正则化 此外,您将设计自己的网络体系结构来解决此任务。 您可以自己想一想,也可以根据纸上已知的解决方案进行思考。 作业pdf中提供了更多详细信息。 安装 环境与过去的环境相同,减去了requirements.txt中的额外requirements.tx
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:19922944
    • 提供者:weixin_42129300
  1. 基于双向递归卷积神经网络的单目红外视频深度估计

  2. 考虑到红外视频的深度特征具有单帧图像的独特性和视频全局的连续性, 在单目红外视频深度估计问题上提出一种基于双向递归卷积神经网络(BrCNN)的深度估计方法。BrCNN在卷积神经网络(CNN)能够提取单帧图像特征的基础之上引入循环神经网络(RNN)传递序列信息机制, 使其既具有CNN良好的图像特征提取能力, 能够自动提取视频中每一帧图像的局部特征, 又具有RNN良好的序列特征提取能力, 能够自动提取视频中每一帧图像所包含的序列信息, 并向后递归传递这种信息。采用双向递归的视频序列信息传递机制来估计
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:8388608
    • 提供者:weixin_38673924
  1. HAR堆叠式残余比拟LSTM:使用带有TensorFlow的深度堆叠式残余双向LSTM细胞(RNN),我们进行人类活动识别(HAR)。 在2个不同的数据集中的6个类别或18个类别中对移动类型进行分类-源码

  2. HAR堆叠残留投标书LSTM 该项目基于,以教程形式提供。 它由使用TensorFlow的堆叠式残余双向LSTM细胞(RNN)组成的人类活动识别(HAR)组成。 它类似于“ ”中使用的体系结构,而没有注意力机制,而只有编码器部分。 实际上,我们在开始考虑将残余连接应用于LSTM时就开始进行编码-直到后来,我们才发现这种深层LSTM体系结构已经被使用。 在这里,我们将先前使用的数据集的准确性从91%提高到94%,并通过在另一个数据集上尝试我们的体系结构进一步推动了这一主题。 我们的神经网络
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:468992
    • 提供者:weixin_42127783
  1. keras-sentiment-analysis-web-api:基于烧瓶的Web API,用于使用Word Embedding,RNN和CNN进行基于keras的情感分析-源码

  2. keras情绪分析Web API 基于烧瓶的Web API,使用Word Embedding,RNN和CNN进行基于keras的情感分析 分类器的实现可以在找到 带字嵌入的一维CNN 具有分类交叉熵损失功能的多通道CNN 带字嵌入的一维CNN + LSTM 带手套字嵌入的前馈网络 具有二进制或类别交叉熵损失函数的LSTM 具有分类互熵损失函数的双向LSTM / GRU 用法 运行以下命令以安装keras,flask和其他依赖项模块: sudo pip install -r req
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:23068672
    • 提供者:weixin_42126749
  1. 即将取代RNN结构的Transformer

  2. 本文来自于segmentfault,文章介绍了Transformer的整体结构、attention计算过程等相关内容。上图是经典的双向RNN模型,我们知道该模型是通过递归的方式运行,虽然适合对序列数据建模,但是缺点也很明显“它无法并行执行”也就无法利用GPU强大的并行能力(这里插句题外话,正因为GPU强大的并行能力,所以batch_size等于1和等于200运算时间基本差不多),再加上各种门控机制,运行速度很慢。一般而言,编码器输出编码向量C作为解码器输入,但是由于编码向量C中所有的编码器输入值
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:935936
    • 提供者:weixin_38506798
  1. 浅谈Tensorflow 动态双向RNN的输出问题

  2. tf.nn.bidirectional_dynamic_rnn() 函数: def bidirectional_dynamic_rnn( cell_fw, # 前向RNN cell_bw, # 后向RNN inputs, # 输入 sequence_length=None,# 输入序列的实际长度(可选,默认为输入序列的最大长度) initial_state_fw=None, # 前向的初始化状态(可选) initial_state_bw=None, # 后向的初始化状态
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:71680
    • 提供者:weixin_38518638
  1. 基于双向RNN的私家车轨迹重构算法

  2. 在复杂的城市环境中,由于存在难以避免的GNSS定位信号中断现象以及车辆行驶过程中的误差累积,易造成所收集的车辆轨迹数据不准确和不完备,因此提出一种基于双向 RNN 的私家车轨迹重构算法,使用了GNSS-OBD轨迹采集设备收集车辆轨迹信息,利用多源数据融合实现双向加权轨迹重构。同时,在轨迹重构模型中引入神经算术逻辑单元(NALU),加强深度网络的外推能力并确保轨迹预测的精度,提高算法在应对城市复杂路段时轨迹重构的稳健性;选取了实际城市路段进行了测试实验,并和现有算法进行了对比分析。通过均方根误差(
  3. 所属分类:其它

    • 发布日期:2021-01-18
    • 文件大小:1048576
    • 提供者:weixin_38632006
« 12 3 »