点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 动手学习深度学习—task05
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
【学习笔记】动手学深度学习task05
一、卷积神经网络基础 1.互相关运算 举例二维互相关运算如下: 输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。 卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 互相关运算与卷积运算:卷积层得名于卷积运算,但卷积层中用到的并非卷积
所属分类:
其它
发布日期:2021-01-07
文件大小:512000
提供者:
weixin_38732315
动手学深度学习Task03-Task05
过拟合、欠拟合及其解决方案 过拟合和欠拟合 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 L2 范数正则化(regularization) L2 范数正则化在模型原损失函数基础上添加L2范数惩罚项,从而得到训练所需要最小化的函数。L2范数惩罚项指的是模型权重参数每个元素的平方和与一个正的常数的乘积。以线性回归中的线性回归损失函数为例 其中 w1,w
所属分类:
其它
发布日期:2021-01-07
文件大小:840704
提供者:
weixin_38685882
动手学深度学习Pytorch版本学习笔记 Task 05
1.卷积神经网络基础 卷积其实就是将许多部分的信息进行压缩,在过大维度矩阵的情况下,因为存在过多的信息 第一是为运算上带来了很多麻烦 第二是类似拿着显微镜看一幅画,难以捕捉其整体的信息。通过互相关运算将画拿远,慢慢感受他整体的信息。所以应该在卷积神经网络中把大矩阵缩小多少次,缩小到什么程度应该是个相当关键的问题。只有在能看清具体信息但又能把握整体信息的情况下,才能得到对图像更清楚地把握。 通过感受野这个概念能发现,经过互相关运算或者卷积运算之后的矩阵,应该每个位置都综合了之前感受野中的信息,所以
所属分类:
其它
发布日期:2021-01-07
文件大小:65536
提供者:
weixin_38696339
伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记
伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记 Task 05:卷积神经网络基础;LeNet;卷积神经网络进阶 微信昵称:WarmIce 昨天打了一天的《大革命》,真挺好玩的。不过讲道理,里面有的剧情有点为了“动作”而“动作”,颇没意思。但是Ubi的故事还是讲得一如既往得好。 言归正传,这3节课,前两节没什么意思,充其量复习了计算卷积层输出的特征图大小的公式: $ \mathbf{floor}((in_size + padding – kernel_size)/stri
所属分类:
其它
发布日期:2021-01-06
文件大小:49152
提供者:
weixin_38720653
动手学深度学习Pytorch版Task05
卷积神经网络基础 二维卷积层 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 二维卷积层 class Conv
所属分类:
其它
发布日期:2021-01-06
文件大小:198656
提供者:
weixin_38545485
《动手学深度学习》第二次打卡-学习小队
一、学习任务: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 二、学习要点 2.1 过拟合、欠拟合及其解决方案 过拟合:太过贴近于训练数据的特征了,在训练集上表现非常优秀,近乎完美的预测/区分了所有的数据,但是在新的测试集上却表现平平 欠拟合:样本不够或者算法不精确,测试样本特性没有学到,不具泛化性,拿到新样本后
所属分类:
其它
发布日期:2021-01-06
文件大小:512000
提供者:
weixin_38613154
ElitesAI·动手学深度学习PyTorch版Task05打卡
卷积神经网络 神经网络结构: 卷积神经网络是神经网络模型的改进版本,依旧是层级网络,只是层的功能和形式做了变化,如: 卷积神经网络的层级结构 • 数据输入层/ Input layer • 卷积计算层/ CONV layer • ReLU激励层 / ReLU layer • 池化层 / Pooling layer • 全连接层 / FC layer 卷积计算层 这一层就是卷积神经网络最重要的一个层次,也是“卷积神经网络”的名字来源。 在这个卷积层,有两个关键操作: • 局部关
所属分类:
其它
发布日期:2021-01-06
文件大小:721920
提供者:
weixin_38739919
动手学深度学习Task05
Task05 1.卷积神经网络基础 用一个边缘检测的例子来说明卷积过程: 给定的filter在输入图像上进行平移,每移动到一个位置上就把filter和input重合位置上的两个像素值相乘,再把该位置上所有的乘积加和,得到一个新的数值,作为输出output对应位置的一个像素,由此也可以得到维度计算公式如下: (nh,kh)×(nw,kw)=(nh-kh+1,nw-kw+1) 二维卷积层 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,
所属分类:
其它
发布日期:2021-01-06
文件大小:531456
提供者:
weixin_38707192
【动手学深度学习】Task05笔记汇总
Task05:卷积神经网络基础;leNet;卷积神经网络进阶 相比taks04,感觉这边比较能看得下去,就先看了。 卷积神经网络基础 1.卷积和池化的计算概念不难理解,本质还是矩阵运算,又在感叹之前老师在代数学里埋的种子。 2.二者最大的区别是,池化层好像没有自己学什么,只是数值的搬运工,然后在模型里的日常工作是降维。但卷积层应该是学到新东西了,适当设置步长也能代班降维。想到之前有个朋友还玩了卷积核的可视化,之前没懂她在干嘛,现在可能有点点懂了。池化层有参与模型的正向计算,同样也会参与反向传
所属分类:
其它
发布日期:2021-01-06
文件大小:270336
提供者:
weixin_38607908
动手学深度学习实现DAY-2
节选自“ElitesAI·动手学深度学习PyTorch版” Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training err
所属分类:
其它
发布日期:2021-01-06
文件大小:1048576
提供者:
weixin_38586279
【Pytorch】动手学深度学习(二)
学习安排如下: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) 梯度消失部分,主要是协变量偏移、标签偏移、概念偏移三个概念,第一次接触; 循环神经网络以及过拟合部分比较容易理解; Task04:机器翻译及
所属分类:
其它
发布日期:2021-01-06
文件大小:51200
提供者:
weixin_38717359
动手学深度学习Pytorch Task05
本节课内容,卷积神经网络基础、LeNet、卷积神经网络进阶 一、卷积神经网络基础 二维互相关运算:二维互相关运算的输入是一个二维输入数组和一个二维核数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。下图展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 二维卷积层:二维卷积层将输入和卷积核做互相关运算,并
所属分类:
其它
发布日期:2021-01-06
文件大小:393216
提供者:
weixin_38738977
DAY 2 动手学习深度学习
【任务安排】: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03: 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 梯度消失、梯度爆炸 梯度消失和梯度爆炸 考虑到环境因素的其他问题 Kaggle房价预测 循环神经网络进阶 深度卷积神经网络(AlexNet) 使
所属分类:
其它
发布日期:2021-01-20
文件大小:194560
提供者:
weixin_38520258
《动手学深度学习》Task05:卷积神经网络基础+LeNet+卷积神经网络进阶
文章目录1 卷积神经网络基础1.1 二维卷积层1.2 填充和步幅1.3 多输入通道和多输出通道1.4 卷积层与全连接层的对比1.4 池化2 LeNet2.1 LeNet 模型2.2 获取数据和训练模型3 卷积神经网络进阶3.1 深度卷积神经网络(AlexNet)3.2 使用重复元素的网络(VGG)3.3 网络中的网络(NiN)3.4 GoogLeNet 1 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 1.1 二维卷积层
所属分类:
其它
发布日期:2021-01-20
文件大小:666624
提供者:
weixin_38672800
动手学深度学习打卡之二。
第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
所属分类:
其它
发布日期:2021-01-20
文件大小:28672
提供者:
weixin_38506835
动手学习深度学习—task05
文章目录卷积神经网络基础特征图与感受野填充和步幅1×1卷积层卷积层与全连接层的对比池化层LeNetAlexNet创新VGG创新NiN创新GoogLeNet创新 卷积神经网络基础 特征图与感受野 二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征,也叫特征图(feature map)。影响元素x的前向计算的所有可能输入区域(可能大于输入的实际尺寸)叫做x的感受野(receptive field) 填充和步幅 填充 填充(padding)是指在输入高和宽的两侧填充元素(通常是0
所属分类:
其它
发布日期:2021-01-20
文件大小:505856
提供者:
weixin_38704565
《动手学深度学习》Task03-Task05
过拟合、欠拟合及其解决方案 训练误差:模型在训练数据集上表现出的误差。 泛化误差:模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似——机器学习模型应关注降低泛化误差。 损失函数 (1)平方损失函数 (2)交叉熵损失函数(CrossEntropy Loss)——度量两个概率分布间的差异性,在机器学习中表示为样本的真实分布和模型所预测的分布之间的差异,反复训练使预测分布接近真实分布。 交叉熵公式: 其中p为真实概率分布,q为预测概率分布。交叉熵在分类问题中常常与so
所属分类:
其它
发布日期:2021-01-20
文件大小:519168
提供者:
weixin_38699492