您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. SRNN python代码实现

  2. 切片循环神经网络(Sliced recurrent neural networks,SRNN),在不改变循环单元的情况下,比RNN结构快135倍。
  3. 所属分类:深度学习

    • 发布日期:2018-08-27
    • 文件大小:6144
    • 提供者:zongjiongra6694
  1. 人机交互课程--深入学习网络介绍资料

  2. 深入学习网络介绍资料,包括三部分:CNN(卷积神经网络),RCNN(图像物体识别问题中的深度网络概述),SRNN(自然语言处理中文分词)。
  3. 所属分类:深度学习

    • 发布日期:2018-10-19
    • 文件大小:8388608
    • 提供者:qq_38836476
  1. SRNN完整源代码

  2. SRNN源码 完整版,需要学习的同学可以看一下 、
  3. 所属分类:深度学习

    • 发布日期:2018-10-24
    • 文件大小:3072
    • 提供者:sinat_21431775
  1. Translation:Sliced Recurrent Neural Networks论文翻译

  2. 循环神经网络在许多NLP任务中都取得了巨大的成功。但是,由于具有循环结构,因此它们很难并 行化,因此训练RNN需要很多时间。在本文中,我们介绍了切片循环神经网络(SRNN),可以通过将 序列分成许多子序列来并行化。 SRNN具有通过很少的额外参数通过多层获取高级信息的能力。我们证 明了使用线性激活函数时,标准RNN是SRNN的特例。在不更改循环单位的情况下,SRNN的速度是标 准RNN的136倍,当我们训练更长的序列时,甚至可以更快。在六个大型情感分析数据集上进行的实验表明,SRNN比标准RNN
  3. 所属分类:深度学习

    • 发布日期:2019-10-15
    • 文件大小:1048576
    • 提供者:weixin_42489523
  1. 具有时变时滞的静态递归神经网络的改进稳定性判据

  2. 本文研究具有时变时滞的静态递归神经网络(SRNN)的稳定性。 基于完整的延迟分解方法和二次分离框架,构造了一种新颖的Lyapunov-Krasovskii泛函。 通过采用倒凸技术考虑时变延迟与其变化间隔之间的关系,根据线性矩阵不等式(LMI)提出了一些改进的时延相关稳定性条件。 最后,通过数值例子说明了所提方法的优点和有效性。
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:524288
    • 提供者:weixin_38690079
  1. 时滞不确定的不确定切换递归神经网络的全局鲁棒周期的时变依赖准则

  2. 在本文中,我们将交换系统的一些概念引入到神经网络领域,并研究了具有时变结构不确定性和时变时滞的一大类交换递归神经网络(SRNN)。 通过考虑Leibniz-Newton公式中各项之间的关系,设计了一些依赖于时延的鲁棒周期性准则,以保证所有可容许参数不确定性的周期解的存在性,唯一性和全局渐近稳定性,因为使用了自由加权矩阵,表示这种关系,并通过线性矩阵不等式选择合适的关系,该标准不如文献报道的具有参数不确定性的延迟神经网络的标准保守。 给出了一些例子,表明所提出的标准是有效的,并且比以前的标准都有所
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:487424
    • 提供者:weixin_38677260
  1. 递归流量MSC-源码

  2. 递归流量MSC 该存储库包含以下实现: 转换STM RealNVP 辉光虚拟现实带有平滑,残留均值和超调的SRNN 分层SRNN(尚未包括) 有条件的发光SVG 基于SRNN的递归流网络,具有平滑,残差均值,梯度检查和超调以及Glow解码器-(视频生成) 一些示例可以在笔记本文件夹中找到。 数据 KTH 拜尔核磁共振有条件的Celeba数据生成的形状数据综合正弦数据两月数据
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:42991616
    • 提供者:weixin_42134144