您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 递归神经网络RNN与LSTM

  2. 递归神经网络RNN与LSTM简介与算法推导。
  3. 所属分类:算法与数据结构

  1. 《动手学深度学习》pytorch版笔记2

  2. 《动手学深度学习》pytorch版笔记2 Task3 过拟合、欠拟合及其解决方案 这部分内容比较简单,写下问题吧,再挖几个坑 1.模型复杂度如何改变,三阶到一阶等 2.L2范数正则化为什么是权重衰减的一种方式? 梯度消失,梯度爆炸 1.初始化过程 2.标签偏移的概念 3.数据处理过程 循环神经网络进阶 GRU,LSTM中的门结构实现起来还挺复杂的,有空再自己实现一遍吧。另外深度循环神经网络貌似叫多层循环神经网络,印象中一般不会堆叠很多层,有空再研究一下吧 Task4 机器翻译及相关技术 机器翻
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:114688
    • 提供者:weixin_38686677
  1. 【学习笔记】动手学深度学习 Task02

  2. (需要一定时间逐步补充以下内容,暂且用做打卡) 1. 模型选择、过拟合和欠拟合 训练误差和泛化误差 模型选择 验证数据集 K折交叉验证 过拟合和欠拟合 模型复杂度 权重衰减 L2 范数正则化 高维线性回归实验 2. 梯度消失、梯度爆炸 梯度消失 梯度爆炸 模型训练和预测 3. 卷积神经网络基础 二维卷积层 二维互相关运算 特征图与感受野 填充和步幅 多输入通道和多输出通道 卷积层与全连接层的对比 卷积、池化 4. 循环神经网络进阶 GRU LSTM 5. 机器翻译及相关技术 数据预处理 分词 建
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38697444
  1. 深度学习相关知识

  2. 一.过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 方法1:L2 范数正则化 方法2:丢弃法 二.梯度消失、梯度爆炸 三.循环神经网络进阶 1.GRU 2.LSTM 长短期记忆
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38656142
  1. 详解卷积神经网络(CNN)在语音识别中的应用

  2. 总结目前语音识别的发展现状,dnn、rnn/lstm和cnn算是语音识别中几个比较主流的方向。2012年,微软邓力和俞栋老师将前馈神经网络FFDNN(FeedForwardDeepNeuralNetwork)引入到声学模型建模中,将FFDNN的输出层概率用于替换之前GMM-HMM中使用GMM计算的输出概率,引领了DNN-HMM混合系统的风潮。长短时记忆网络(LSTM,LongShortTermMemory)可以说是目前语音识别应用最广泛的一种结构,这种网络能够对语音的长时相关性进行建模,从而提高
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:406528
    • 提供者:weixin_38702726
  1. nlp中的实体关系抽取方法总结

  2. Q1:与联合抽取对比,Pipeline方法有哪些缺点?Q2:NER除了LSTM+CRF,还有哪些解码方式?如何解决嵌套实体问题?Q3:Pipeline中的关系分类有哪些常用方法?如何应用弱监督和预训练机制?怎么解决高复杂度问题、进行one-pass关系分类?Q4:什么是关系重叠问题?Q5:联合抽取难点在哪里?联合抽取总体上有哪些方法?各有哪些缺点?Q6:介绍基于共享参数的联合抽取方法?Q7:介绍基于联合解码的联合抽取方法?Q8:实体关系抽取的前沿技术和挑战有哪些?如何解决低资源和复杂样本下的实体
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:1048576
    • 提供者:weixin_38618819
  1. textgenrnn:只需几行代码,即可在任何文本数据集上轻松训练您自己的任意大小和复杂度的文本生成神经网络-源码

  2. 文本生成 只需几行代码,即可在任何文本数据集上轻松训练您自己的任意大小和复杂度的文本生成神经网络,或者使用预先训练的模型快速训练文本。 textgenrnn是上的顶部一个Python 3模块 / 用于创建 S,与许多凉爽特性: 一种现代的神经网络体系结构,利用诸如注意力加权和跳过嵌入的新技术来加快训练速度并提高模型质量。 训练并在字符级别或单词级别生成文本。 配置RNN大小,RNN层数以及是否使用双向RNN。 训练任何通用输入文本文件,包括大文件。 在GPU上训练模型,然后使用它们
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:9437184
    • 提供者:weixin_42099176
  1. 详解卷积神经网络(CNN)在语音识别中的应用

  2. 总结目前语音识别的发展现状,dnn、rnn/lstm和cnn算是语音识别中几个比较主流的方向。2012年,微软邓力和俞栋老师将前馈神经网络FFDNN(FeedForwardDeepNeuralNetwork)引入到声学模型建模中,将FFDNN的输出层概率用于替换之前GMM-HMM中使用GMM计算的输出概率,引领了DNN-HMM混合系统的风潮。长短时记忆网络(LSTM,LongShortTermMemory)可以说是目前语音识别应用最广泛的一种结构,这种网络能够对语音的长时相关性进行建模,从而提高
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:406528
    • 提供者:weixin_38730840
  1. nlp中的实体关系抽取方法总结

  2. Q1:与联合抽取对比,Pipeline方法有哪些缺点? Q2:NER除了LSTM+CRF,还有哪些解码方式?如何解决嵌套实体问题? Q3:Pipeline中的关系分类有哪些常用方法?如何应用弱监督和预训练机制?怎么解决高复杂度问题、进行one-pass关系分类? Q4:什么是关系重叠问题? Q5:联合抽取难点在哪里?联合抽取总体上有哪些方法?各有哪些缺点?
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:1048576
    • 提供者:weixin_38650150
  1. 深度学习(三)————过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 目录 过拟合、欠拟合及其解决方案 训练误差和泛化误差 过拟合和欠拟合的概念 模型复杂度和误差之间的关系 解决过拟合的方案 梯度消失及梯度爆炸 循环神经网络进阶 GRU LSTM 深度神经网络 过拟合、欠拟合及其解决方案 训练误差和泛化误差        在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:408576
    • 提供者:weixin_38635092