点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 深度学习学习笔记(二)
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Deep Learning(深度学习)学习笔记整理系列pdf
原创作者是Zouxy,整个笔记在他博客上,为了方便大家保存阅读,我将其整理成了pdf文档,希望大家多多交流。 目录 一、概述 2 二、背景 5 三、人脑视觉机理 8 四、关于特征 10 4.1、特征表示的粒度 10 4.2、初级(浅层)特征表示 11 4.3、结构性特征表示 14 4.4、需要有多少个特征? 16 五、Deep Learning的基本思想 17 六、浅层学习(Shallow Learning)和深度学习(Deep Learning) 18 七、Deep learning与Neu
所属分类:
其它
发布日期:2015-09-09
文件大小:1048576
提供者:
cdownload_zxl
深度学习笔记(一):基于numpy的深度神经网络程序总览
在看完了Andrew Ng教授的deeplearning.ai课程和李飞飞教授的cs231n课程后,总觉得应该写点笔记将学习过程记录下来,但内容不少,需要时间慢慢整理,故先将学习成果记录下来,是一段深度神经网络的程序,基于python科学计算库numpy的。还有一段代码是基于tensorflow的,在深度学习笔记(二):基于tensorflow的深度神经网络程序总览中在记录吧(目前未发布)。虽然tensorflow很是方便,但是总觉得封装太好,只看代码根本学习不到什么,用numpy写一遍深度神
所属分类:
深度学习
发布日期:2017-10-10
文件大小:12582912
提供者:
yangmingxiadongwei
深度学习笔记(二):基于tensorflow gpu版本的深度神经网络程序总览
在第一篇笔记深度学习笔记(一):基于numpy的深度神经网络程序总览 之后,又用tensorflow的gpu版本实现了一遍,果然封装很好,写起来很舒服,速度也快很多,100次epoch分分钟就结束了,效果和第一篇笔记中基于numpy的效果差不多,以下是代码,比基于numpy的代码少了一多半。
所属分类:
深度学习
发布日期:2017-10-11
文件大小:12582912
提供者:
yangmingxiadongwei
pytorch动手深度学习的笔记[二]
一.循环神经网络 循环神经网络基于当前的输入与过去的输入序列,预测序列的下一个字符。它引入一个隐藏变量H,用Ht表示H在时间步t的值。Ht的计算基于Xt和Ht−1,可以认为Ht记录了到当前字符为止的序列信息,利用Ht对序列的下一个字符进行预测。 1.隐状态的引入 2.one-hot向量 3.初始化模型参数:隐藏层参数,输出层参数。 4.定义模型后裁剪梯度,定义预测函数,定义模型训练函数,使用困惑度评价模型。 二.循环神经网络进阶 GRU ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系。
所属分类:
其它
发布日期:2021-01-07
文件大小:83968
提供者:
weixin_38735570
伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记
伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记 Task 08:文本分类;数据增强;模型微调 微信昵称:WarmIce 文本分类 前面一堆数据处理和对双向循环神经网络的讲解可以忽略了,之前都讲过,咱也都详细聊过。 这里主要说一下情感分类在使用双向循环神经网络时的一个细节。我们可以根据双向循环网络得到t个时刻的双向的经过concat的隐藏状态,那么如何利用这t个信息进行二分类呢(假设只进行正面与反面的二分类)。给的例子中,只使用了第1个时刻的concat后的隐藏状态与第t
所属分类:
其它
发布日期:2021-01-07
文件大小:99328
提供者:
weixin_38706455
动手学深度学习-学习笔记(五)
本文的主要内容有::卷积神经网络基础;leNet;卷积神经网络进阶 一、卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入
所属分类:
其它
发布日期:2021-01-06
文件大小:251904
提供者:
weixin_38706951
深度学习—学习笔记(二)
模型选择、过拟合和欠拟合 1、训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。机器学习模型应关注降低泛化误差。 2、模型选择 验证数据集
所属分类:
其它
发布日期:2021-01-06
文件大小:103424
提供者:
weixin_38589314
DATAWHALE-动手学深度学习PyTorch 笔记记录2 attention mask
【Attention中mask pad的weight的做法】 在attention中,对attention score进行softmax时,需要考虑到query与pad计算得到的score应该忽略。我们在处理时可以先正常地用高维tensor形式将所有score计算出来,然后根据key的句长将pad所在位置的weight进行mask掉。 下面的代码实现了给定二维tensor X,根据X_len将X中指定位置替换为value值。 def SequenceMask(X, X_len,value=-1e
所属分类:
其它
发布日期:2021-01-06
文件大小:182272
提供者:
weixin_38523728
深度学习学习笔记(二)
(一)过拟合欠拟合及其解决方案 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 验证数据集 从严格意义
所属分类:
其它
发布日期:2021-01-06
文件大小:659456
提供者:
weixin_38743119
机器学习笔记1_机器学习基础
# 机器学习笔记1_机器学习基础 人工智能,机器学习,深度学习的关系 关于数据 牢记:up_arrow:图 数据特征例子(帮助理解): 机器学习的基本任务 机器学习(或者说其中的监督学习)的基本任务可以分为: 分类任务 回归任务 分类任务: 分类任务的结果是几个类别,是非连续的。分类任务可以分为: 二分类 多分类 二分类 判断邮件是否为垃圾邮件 判断股票是涨还是跌 多分类 数字的识别 学生成绩的评级ABC 某些算法只能完成二分类,但可以将多分类任务转化为二分类。 回归任务(数据) 结果是一
所属分类:
其它
发布日期:2021-01-06
文件大小:375808
提供者:
weixin_38693192
动手学习深度学习_笔记5
5.1 卷积神经网络基础 主要是卷积层和池化层。 二维互相关运算的输入是一个二维输入数组和一个二维核数组,输出也是一个二维数组,其中核数组称为卷积核或过滤器。 def corr2d(X, K): H, W = X.shape h, w = K.shape Y = torch.zeros(H - h + 1, W - w + 1) for i in range(Y.shape[0]): for j in range(Y.shape[1]):
所属分类:
其它
发布日期:2021-01-06
文件大小:48128
提供者:
weixin_38655990
动手学深度学习 Task4 笔记
机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 2.15-2.19 一、机器翻译及相关技术 定义: 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 分词 建立词典 载入数据集 二、注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context
所属分类:
其它
发布日期:2021-01-06
文件大小:62464
提供者:
weixin_38516040
动手学深度学习 Task3 笔记
过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 2.15-2.19 一、过拟合、欠拟合及其解决方案 1、过拟合问题 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 产生过拟合的可能原因 模型复杂度过高 训练数据过少,特别是比模型参数数量(按元素计)更少 解决过拟合的方案 降低模型复杂度 增加训练数据 在计算资源允许的范围之内,我们通常希望训练数据集大一些 2、欠拟合问题 模型无法得到较低的训练误差,我们将这一现象称作欠拟合(unde
所属分类:
其它
发布日期:2021-01-06
文件大小:43008
提供者:
weixin_38669832
深度学习笔记(二):DL资料汇总-附件资源
深度学习笔记(二):DL资料汇总-附件资源
所属分类:
互联网
发布日期:2021-03-05
文件大小:106
提供者:
weixin_42183453
深度学习笔记(二):DL资料汇总-附件资源
深度学习笔记(二):DL资料汇总-附件资源
所属分类:
互联网
发布日期:2021-03-05
文件大小:106
提供者:
weixin_42187923
深度学习笔记(二):DL资料汇总-附件资源
深度学习笔记(二):DL资料汇总-附件资源
所属分类:
互联网
发布日期:2021-03-02
文件大小:23
提供者:
weixin_42205405
深度学习笔记(二):DL资料汇总-附件资源
深度学习笔记(二):DL资料汇总-附件资源
所属分类:
互联网
发布日期:2021-03-02
文件大小:23
提供者:
weixin_42197841
动手学深度学习打卡之二。
第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
所属分类:
其它
发布日期:2021-01-20
文件大小:28672
提供者:
weixin_38506835
深度学习入门笔记(二十):经典神经网络(LeNet-5、AlexNet和VGGNet)
专栏——深度学习入门笔记 声明 1)该文章整理自网上的大牛和机器学习专家无私奉献的资料,具体引用的资料请看参考文献。 2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应。如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除。 3)博主才疏学浅,文中如有不当之处,请各位指出,共同进步,谢谢。 4)此属于第一版本,若有错误,还需继续修正与增删。还望大家多多指点。大家都共享一点点,一起为祖国科研的推进添砖加瓦。 文章目录专栏——深度学习入门笔记声明深度学习入门笔记(二十):经
所属分类:
其它
发布日期:2021-01-20
文件大小:466944
提供者:
weixin_38629920
ElitesAI·动手学深度学习PyTorch版学习笔记-卷积神经网络基础;leNet;卷积神经网络进阶
宅家中看到Datawhale的学习号召,在大牛云集的群上找到了一个很佛系的小组,战战兢兢地开始了小白的深度学习之旅。感谢Datawhale、伯禹教育、和鲸科技,感谢课程制作者、组织者、各位助教以及其他志愿者! 1 卷积神经网络基础 1.1 二维卷积 本小节介绍了二维卷积,主要用于图像数据(刚好是二维的数据)处理。 二维卷积通过输入二维数据和二维核数据的运算(卷积),得到一个小于输入数据的二维输出数据,但是该输出数据依然部分保存了输入数据的信息。输出的二维数据可以看作输入数据的一个缩略图,也叫
所属分类:
其它
发布日期:2021-01-20
文件大小:51200
提供者:
weixin_38652196
«
1
2
3
»