您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Deep Learning(深度学习)学习笔记整理系列pdf

  2. 原创作者是Zouxy,整个笔记在他博客上,为了方便大家保存阅读,我将其整理成了pdf文档,希望大家多多交流。 目录 一、概述 2 二、背景 5 三、人脑视觉机理 8 四、关于特征 10 4.1、特征表示的粒度 10 4.2、初级(浅层)特征表示 11 4.3、结构性特征表示 14 4.4、需要有多少个特征? 16 五、Deep Learning的基本思想 17 六、浅层学习(Shallow Learning)和深度学习(Deep Learning) 18 七、Deep learning与Neu
  3. 所属分类:其它

    • 发布日期:2015-09-09
    • 文件大小:1048576
    • 提供者:cdownload_zxl
  1. 深度学习笔记(一):基于numpy的深度神经网络程序总览

  2. 在看完了Andrew Ng教授的deeplearning.ai课程和李飞飞教授的cs231n课程后,总觉得应该写点笔记将学习过程记录下来,但内容不少,需要时间慢慢整理,故先将学习成果记录下来,是一段深度神经网络的程序,基于python科学计算库numpy的。还有一段代码是基于tensorflow的,在深度学习笔记(二):基于tensorflow的深度神经网络程序总览中在记录吧(目前未发布)。虽然tensorflow很是方便,但是总觉得封装太好,只看代码根本学习不到什么,用numpy写一遍深度神
  3. 所属分类:深度学习

  1. 深度学习笔记(二):基于tensorflow gpu版本的深度神经网络程序总览

  2. 在第一篇笔记深度学习笔记(一):基于numpy的深度神经网络程序总览 之后,又用tensorflow的gpu版本实现了一遍,果然封装很好,写起来很舒服,速度也快很多,100次epoch分分钟就结束了,效果和第一篇笔记中基于numpy的效果差不多,以下是代码,比基于numpy的代码少了一多半。
  3. 所属分类:深度学习

  1. pytorch动手深度学习的笔记[二]

  2. 一.循环神经网络 循环神经网络基于当前的输入与过去的输入序列,预测序列的下一个字符。它引入一个隐藏变量H,用Ht表示H在时间步t的值。Ht的计算基于Xt和Ht−1,可以认为Ht记录了到当前字符为止的序列信息,利用Ht对序列的下一个字符进行预测。 1.隐状态的引入 2.one-hot向量 3.初始化模型参数:隐藏层参数,输出层参数。 4.定义模型后裁剪梯度,定义预测函数,定义模型训练函数,使用困惑度评价模型。 二.循环神经网络进阶 GRU ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系。
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:83968
    • 提供者:weixin_38735570
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记 Task 08:文本分类;数据增强;模型微调 微信昵称:WarmIce 文本分类 前面一堆数据处理和对双向循环神经网络的讲解可以忽略了,之前都讲过,咱也都详细聊过。 这里主要说一下情感分类在使用双向循环神经网络时的一个细节。我们可以根据双向循环网络得到t个时刻的双向的经过concat的隐藏状态,那么如何利用这t个信息进行二分类呢(假设只进行正面与反面的二分类)。给的例子中,只使用了第1个时刻的concat后的隐藏状态与第t
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:99328
    • 提供者:weixin_38706455
  1. 动手学深度学习-学习笔记(五)

  2. 本文的主要内容有::卷积神经网络基础;leNet;卷积神经网络进阶 一、卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:251904
    • 提供者:weixin_38706951
  1. 深度学习—学习笔记(二)

  2. 模型选择、过拟合和欠拟合 1、训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。机器学习模型应关注降低泛化误差。 2、模型选择 验证数据集
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:103424
    • 提供者:weixin_38589314
  1. DATAWHALE-动手学深度学习PyTorch 笔记记录2 attention mask

  2. 【Attention中mask pad的weight的做法】 在attention中,对attention score进行softmax时,需要考虑到query与pad计算得到的score应该忽略。我们在处理时可以先正常地用高维tensor形式将所有score计算出来,然后根据key的句长将pad所在位置的weight进行mask掉。 下面的代码实现了给定二维tensor X,根据X_len将X中指定位置替换为value值。 def SequenceMask(X, X_len,value=-1e
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:182272
    • 提供者:weixin_38523728
  1. 深度学习学习笔记(二)

  2. (一)过拟合欠拟合及其解决方案 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 验证数据集 从严格意义
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:659456
    • 提供者:weixin_38743119
  1. 机器学习笔记1_机器学习基础

  2. # 机器学习笔记1_机器学习基础 人工智能,机器学习,深度学习的关系 关于数据 牢记:up_arrow:图 数据特征例子(帮助理解): 机器学习的基本任务 机器学习(或者说其中的监督学习)的基本任务可以分为: 分类任务 回归任务 分类任务: 分类任务的结果是几个类别,是非连续的。分类任务可以分为: 二分类 多分类 二分类 判断邮件是否为垃圾邮件 判断股票是涨还是跌 多分类 数字的识别 学生成绩的评级ABC 某些算法只能完成二分类,但可以将多分类任务转化为二分类。 回归任务(数据) 结果是一
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:375808
    • 提供者:weixin_38693192
  1. 动手学习深度学习_笔记5

  2. 5.1 卷积神经网络基础 主要是卷积层和池化层。 二维互相关运算的输入是一个二维输入数组和一个二维核数组,输出也是一个二维数组,其中核数组称为卷积核或过滤器。 def corr2d(X, K): H, W = X.shape h, w = K.shape Y = torch.zeros(H - h + 1, W - w + 1) for i in range(Y.shape[0]): for j in range(Y.shape[1]):
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:48128
    • 提供者:weixin_38655990
  1. 动手学深度学习 Task4 笔记

  2. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 2.15-2.19 一、机器翻译及相关技术 定义: 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 分词 建立词典 载入数据集 二、注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:62464
    • 提供者:weixin_38516040
  1. 动手学深度学习 Task3 笔记

  2. 过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 2.15-2.19 一、过拟合、欠拟合及其解决方案 1、过拟合问题 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 产生过拟合的可能原因 模型复杂度过高 训练数据过少,特别是比模型参数数量(按元素计)更少 解决过拟合的方案 降低模型复杂度 增加训练数据 在计算资源允许的范围之内,我们通常希望训练数据集大一些 2、欠拟合问题 模型无法得到较低的训练误差,我们将这一现象称作欠拟合(unde
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:43008
    • 提供者:weixin_38669832
  1. 深度学习笔记(二):DL资料汇总-附件资源

  2. 深度学习笔记(二):DL资料汇总-附件资源
  3. 所属分类:互联网

  1. 深度学习笔记(二):DL资料汇总-附件资源

  2. 深度学习笔记(二):DL资料汇总-附件资源
  3. 所属分类:互联网

  1. 深度学习笔记(二):DL资料汇总-附件资源

  2. 深度学习笔记(二):DL资料汇总-附件资源
  3. 所属分类:互联网

  1. 深度学习笔记(二):DL资料汇总-附件资源

  2. 深度学习笔记(二):DL资料汇总-附件资源
  3. 所属分类:互联网

  1. 动手学深度学习打卡之二。

  2. 第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28672
    • 提供者:weixin_38506835
  1. 深度学习入门笔记(二十):经典神经网络(LeNet-5、AlexNet和VGGNet)

  2. 专栏——深度学习入门笔记 声明 1)该文章整理自网上的大牛和机器学习专家无私奉献的资料,具体引用的资料请看参考文献。 2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应。如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除。 3)博主才疏学浅,文中如有不当之处,请各位指出,共同进步,谢谢。 4)此属于第一版本,若有错误,还需继续修正与增删。还望大家多多指点。大家都共享一点点,一起为祖国科研的推进添砖加瓦。 文章目录专栏——深度学习入门笔记声明深度学习入门笔记(二十):经
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:466944
    • 提供者:weixin_38629920
  1. ElitesAI·动手学深度学习PyTorch版学习笔记-卷积神经网络基础;leNet;卷积神经网络进阶

  2. 宅家中看到Datawhale的学习号召,在大牛云集的群上找到了一个很佛系的小组,战战兢兢地开始了小白的深度学习之旅。感谢Datawhale、伯禹教育、和鲸科技,感谢课程制作者、组织者、各位助教以及其他志愿者! 1 卷积神经网络基础 1.1 二维卷积 本小节介绍了二维卷积,主要用于图像数据(刚好是二维的数据)处理。 二维卷积通过输入二维数据和二维核数据的运算(卷积),得到一个小于输入数据的二维输出数据,但是该输出数据依然部分保存了输入数据的信息。输出的二维数据可以看作输入数据的一个缩略图,也叫
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:51200
    • 提供者:weixin_38652196
« 12 3 »