您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. keras示例程序

  2. addition_rnn.py 执行序列学习以执行两个数字(作为字符串)的添加。 antirectifier.py 演示如何为Keras编写自定义图层。 babi_memnn.py 在bAbI数据集上训练一个内存网络以进行阅读理解。 babi_rnn.py 在bAbI数据集上训练一个双支循环网络,以便阅读理解。 cifar10_cnn.py 在CIFAR10小图像数据集上训练一个简单的深CNN。 conv_filter_visualization.py 通过输入空间中的渐变上升可视化 VGG1
  3. 所属分类:深度学习

    • 发布日期:2017-10-23
    • 文件大小:10485760
    • 提供者:manoerina0411
  1. RNNs_gradients_vanishing.ipynb

  2. 使用简单的循环神经网络理解RNN中的梯度消失问题,并比较relu和sigmoid的不同
  3. 所属分类:深度学习

    • 发布日期:2019-07-26
    • 文件大小:197632
    • 提供者:forlogen
  1. 简单理解LSTM长短期记忆网络

  2. LSTM(Long Short Term Memory,长短期记忆网络)介绍 介绍:LSTM,也就是长短期记忆网络,是一种 RNN 特殊的类型,可以学习长期依赖信息。要想较好理解LSTM请先查看之前写的RNN的简单理解文章。在传统RNN训练经常会出现无法解决长期依赖、梯度消失和梯度爆炸的问题,学习能力有限,在实际任务中的效果往往达不到预期效果。此时引入LSTM,LSTM是RNN的一种变体,是为了解决长期依赖问题而专门设计出来的,可以对有价值的信息进行长期记忆,减小了循环神经网络的学习难度。 应用
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:173056
    • 提供者:weixin_38685831
  1. 伯禹《动手学深度学习》打卡博客:Task03+Task04

  2. 量太大了,我先挑几个我感兴趣的学一下,漏下的等有空再补上了 文章目录一、循环神经网络二、GRU(gated recurrent unit)三、LSTM(长短期记忆) 一、循环神经网络 参考博客:零基础入门深度学习(5) – 循环神经网络 1.循环神经网络最大的用处就是处理序列的信息,即前面和后面的输入是有关系的,比如理解一句话的意思,以及处理视频 2.语言模型:给定一句话前面的成分,预测接下来最有可能的一个词是什么 3.下面是一个简单的RNN模型示意图,它由输入层、隐藏层和输出层组成 4.全
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:260096
    • 提供者:weixin_38659646
  1. 简单理解RNN循环神经网络

  2. 简单理解RNN循环神经网络RNN(Recurrent Neural Network)介绍图说RNN宏观结构图说RNN微观结构 RNN(Recurrent Neural Network)介绍 介绍: RNN,也就是循环神经网络,是用来建模序列化数据的一种主流的深度学习模型。传统的前馈神经网络处理的输入往往都是一个定长向量,较难应对变长的序列信息,就算把序列处理成定长的向量,模型也很难捕捉序列中的长距离依赖关系。而RNN中的每个神经元能够运用其内部变量保存之前输入的序列信息,将所有神经元串行就可以处
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:140288
    • 提供者:weixin_38601878
  1. DeepLearning:深度学习神经网络重建原始码-源码

  2. 深度学习 简述 第一部分 常见深度学习框架(Python API) TensorFlow 对(TensorFlow进一步封装) PyTorch(FaceBook) CNTK(微软) MXNet 胶子 见文件夹:框架 第二部分 前馈神经网络 感知器 一个单层神经网络 一个多层神经网络 使用激活函数 关于隐层和隐层神经元的实验 实现一个自动编码器 调整损失函数 测试不同的优化器 使用正则化技术提高泛化能力 添加Dropout以防止过拟合 见文件夹:前馈神经网络 第三部分 卷积神经网络 滤
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:33554432
    • 提供者:weixin_42127835