点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - Task05:卷积神经网络基础 LeNet
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
【DL学习笔记】打卡02:Task03-05
Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽
所属分类:
其它
发布日期:2021-01-07
文件大小:70656
提供者:
weixin_38508497
pytorch task05 卷积神经网络
pytorch task05 卷积神经网络 文章目录pytorch task05 卷积神经网络1.卷积神经网络基础1.1二维卷积层1.2填充和步幅1.3多输入通道和多输出通道1.4卷积层与全连接层的对比1.5池化2 经典模型LeNet-5AlexNetVGGGoogLeNet (Inception)ResNet退化问题残差网络的解决办法 1.卷积神经网络基础 1.1二维卷积层 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输
所属分类:
其它
发布日期:2021-01-07
文件大小:186368
提供者:
weixin_38706455
Task05:卷积神经网络基础;leNet;卷积神经网络进阶 学习笔记
卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
所属分类:
其它
发布日期:2021-01-07
文件大小:153600
提供者:
weixin_38628830
伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记
伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记 Task 05:卷积神经网络基础;LeNet;卷积神经网络进阶 微信昵称:WarmIce 昨天打了一天的《大革命》,真挺好玩的。不过讲道理,里面有的剧情有点为了“动作”而“动作”,颇没意思。但是Ubi的故事还是讲得一如既往得好。 言归正传,这3节课,前两节没什么意思,充其量复习了计算卷积层输出的特征图大小的公式: $ \mathbf{floor}((in_size + padding – kernel_size)/stri
所属分类:
其它
发布日期:2021-01-06
文件大小:49152
提供者:
weixin_38720653
Task03、Task04、Task05
本文意在于记录短期学习中同僚总结的知识点,主要学习平台在伯禹https://www.boyuai.com/elites/course/cZu18YmweLv10OeV Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进
所属分类:
其它
发布日期:2021-01-06
文件大小:117760
提供者:
weixin_38571878
《动手学深度学习》第二次打卡-学习小队
一、学习任务: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 二、学习要点 2.1 过拟合、欠拟合及其解决方案 过拟合:太过贴近于训练数据的特征了,在训练集上表现非常优秀,近乎完美的预测/区分了所有的数据,但是在新的测试集上却表现平平 欠拟合:样本不够或者算法不精确,测试样本特性没有学到,不具泛化性,拿到新样本后
所属分类:
其它
发布日期:2021-01-06
文件大小:512000
提供者:
weixin_38613154
【动手学深度学习】Task05笔记汇总
Task05:卷积神经网络基础;leNet;卷积神经网络进阶 相比taks04,感觉这边比较能看得下去,就先看了。 卷积神经网络基础 1.卷积和池化的计算概念不难理解,本质还是矩阵运算,又在感叹之前老师在代数学里埋的种子。 2.二者最大的区别是,池化层好像没有自己学什么,只是数值的搬运工,然后在模型里的日常工作是降维。但卷积层应该是学到新东西了,适当设置步长也能代班降维。想到之前有个朋友还玩了卷积核的可视化,之前没懂她在干嘛,现在可能有点点懂了。池化层有参与模型的正向计算,同样也会参与反向传
所属分类:
其它
发布日期:2021-01-06
文件大小:270336
提供者:
weixin_38607908
动手学深度学习实现DAY-2
节选自“ElitesAI·动手学深度学习PyTorch版” Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training err
所属分类:
其它
发布日期:2021-01-06
文件大小:1048576
提供者:
weixin_38586279
【Pytorch】动手学深度学习(二)
学习安排如下: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) 梯度消失部分,主要是协变量偏移、标签偏移、概念偏移三个概念,第一次接触; 循环神经网络以及过拟合部分比较容易理解; Task04:机器翻译及
所属分类:
其它
发布日期:2021-01-06
文件大小:51200
提供者:
weixin_38717359
动手学深度学习Pytorch Task05
本节课内容,卷积神经网络基础、LeNet、卷积神经网络进阶 一、卷积神经网络基础 二维互相关运算:二维互相关运算的输入是一个二维输入数组和一个二维核数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。下图展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 二维卷积层:二维卷积层将输入和卷积核做互相关运算,并
所属分类:
其它
发布日期:2021-01-06
文件大小:393216
提供者:
weixin_38738977
Task05:卷积神经网络基础+LeNet
卷积神经网络 感受野 LeNet架构 卷积层 互相关运算与卷积运算 卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。由于卷积层的核数组是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。 填充 步幅 多输入通道和多输出通道 卷积层的简洁实现 X = torch.rand(4, 2, 3, 5) print(X.shape) conv2d = nn.Conv2d(in_ch
所属分类:
其它
发布日期:2021-01-06
文件大小:1048576
提供者:
weixin_38720653
DAY 2 动手学习深度学习
【任务安排】: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03: 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 梯度消失、梯度爆炸 梯度消失和梯度爆炸 考虑到环境因素的其他问题 Kaggle房价预测 循环神经网络进阶 深度卷积神经网络(AlexNet) 使
所属分类:
其它
发布日期:2021-01-20
文件大小:194560
提供者:
weixin_38520258
《动手学深度学习》Task05:卷积神经网络基础+LeNet+卷积神经网络进阶
文章目录1 卷积神经网络基础1.1 二维卷积层1.2 填充和步幅1.3 多输入通道和多输出通道1.4 卷积层与全连接层的对比1.4 池化2 LeNet2.1 LeNet 模型2.2 获取数据和训练模型3 卷积神经网络进阶3.1 深度卷积神经网络(AlexNet)3.2 使用重复元素的网络(VGG)3.3 网络中的网络(NiN)3.4 GoogLeNet 1 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 1.1 二维卷积层
所属分类:
其它
发布日期:2021-01-20
文件大小:666624
提供者:
weixin_38672800
动手学深度学习打卡之二。
第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
所属分类:
其它
发布日期:2021-01-20
文件大小:28672
提供者:
weixin_38506835