点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 卷积神经网络nin
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Keras实现经典的卷积神经网络
Keras实现经典的卷积神经网络用于cifar10图像分类:NIN,VGG,ResNet,DenseNet,SeNet
所属分类:
深度学习
发布日期:2018-09-11
文件大小:1048576
提供者:
cbanyungong
深度学习(五)————卷积神经网络基础、leNet、卷积神经网络进阶
目录 卷积神经网络基础 二维互相关运算 填充 步幅 多输入通道和多输出通道¶ 卷积层与全连接层的对比 池化 LeNet 模型 深度卷积神经网络(AlexNet) AlexNet 使用重复元素的网络(VGG)¶ ⽹络中的⽹络(NiN) GoogLeNet 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义 我们介绍卷积层的两个超参数,即填充和步幅,它们可以对给定形状的输入和卷积核改变输出形状。 二维互相关运算 二维互相关(cros
所属分类:
其它
发布日期:2021-01-07
文件大小:899072
提供者:
weixin_38516706
Datawhale 组队学习打卡营 任务15:卷积神经网络进阶
目录 深度卷积神经网络(AlexNet) 1. AlexNet 2.载入数据集 3. 训练 使用重复元素的网络(VGG) 1. VGG11的简单实现 ⽹络中的⽹络(NiN) GoogLeNet 1. GoogLeNet模型 . . 深度卷积神经网络(AlexNet) LeNet: 在大的真实数据集上的表现并不尽如⼈意。 1.神经网络计算复杂。 2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。 机器学习的特征提取:手工定义的特征提取函数 神经网络的特征提取:通过学习得到数据的多级表征,并
所属分类:
其它
发布日期:2021-01-06
文件大小:372736
提供者:
weixin_38630853
第二次打卡学习心得
首先关于卷积神经网络的概念回顾 其中两个重要的概念:填充与步幅 关于卷积核的通道数: 个人理解为:与上一层的输出相适应,卷积核的通道数(channel)由上一层输出的特征图(feature maps)的个数决定 卷积神经网络的发展: LeNet就是典型的深层网络 AlexNet为第二阶段的发展 后来由牛津大学团队提出具有堆叠结构的VGG 衍生出了NiN 在宽度上进行了拓宽,由谷歌团队提出了Inception模块的网路GoogLeNet(纪念LeNet) 在深度上进行拓展,由何凯
所属分类:
其它
发布日期:2021-01-06
文件大小:750592
提供者:
weixin_38621082
卷积神经网络进阶(AlexNet、VGG、NiN、GoogleNet)
深度卷积神经网络AlexNet 重要的计算例题:通道数为3,宽高均为224的输入,经过一层输出通道数为96,卷积核大小为11,步长为4,无padding的卷积层后,得到的feature map的宽高为: (原始宽高 – kernel_size)/步长下取整 + 1 即 (224-11)/4下取整 +1 = 54 在特征提取方面,主要存在两种主流认知: 机器学习的特征提取:手工定义的特征提取函数 神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。 AlexNet 深
所属分类:
其它
发布日期:2021-01-06
文件大小:433152
提供者:
weixin_38698539
AlexNet、VGG11、NiN、GoogLeNet等网络的Pytorch实现
目录AlexNetAlexNet摘要AlexNet代码VGGVGG摘要VGG的优缺点代码NiNNiN摘要GoogLeNetGoogLeNet完整结构 AlexNet AlexNet摘要 由于受到计算机性能的影响,虽然LeNet在图像分类中取得了较好的成绩,但是并没有引起很多的关注。 知道2012年,Alex等人提出的AlexNet网络在ImageNet大赛上以远超第二名的成绩夺冠,卷积神经网络乃至深度学习重新引起了广泛的关注 AlexNet是在LeNet的基础上加深了网络的结构,学习更丰富更高维
所属分类:
其它
发布日期:2021-01-06
文件大小:373760
提供者:
weixin_38571544
cnn卷积神经网络论文.zip
cnn卷积神经网络的八篇最经典论文 AlexNet:NIPS-2012-imagenet-classification-with-deep-convolutional-neural-networks-Paper VGG:Very-Deep-Convolutional-Networks-for-Large-Scale-Image-Recognition NIN:network-in-network ResNet:Deep-Residual-Learning-for-Image-Recognitio
所属分类:
互联网
发布日期:2021-03-01
文件大小:14680064
提供者:
TFATS
《动手学深度学习》卷积神经网络基础;leNet;卷积神经网络进阶
卷积神经网络基础;leNet;卷积神经网络进阶卷积神经网络基础二位互相关运算二维卷积层互相关运算与卷积运算特征图与感受野填充和步幅填充:在输入的高宽两侧填充元素,通常填充0。步幅:卷积核在输入数组上每次滑动的行数列数。多输入通道和多输出通道1×11×11×1卷积层池化LeNetLeNet模型卷积神经网络进阶AlexNet使用重复元素的网络(VGG)网络中的网络(NIN)GoogleNet 卷积神经网络基础 介绍的是最常见的二维卷积层,常用于处理图像数据。 二位互相关运算 卷积核数组在输入数组上
所属分类:
其它
发布日期:2021-01-20
文件大小:516096
提供者:
weixin_38522636
《动手学深度学习Pytorch版》Task5-卷积神经网络
卷积神经网络基础 需要理解卷积神经网络的基础概念,主要是卷积层和池化层、填充、步幅、输入通道和输出通道的含义。 几个经典的模型 LeNet AlexNet VGG NiN GoogLeNet 1×1卷积核作用 放缩通道数:通过控制卷积核的数量达到通道数的放缩。 增加非线性:1×1卷积核的卷积过程相当于全连接层的计算过程,并且还加入了非线性激活函数,从而可以增加网络的非线性。 计算参数少 LeNet vs AlexNet 注:5*5 Conv(16),这里的16指的是输出的通道数 LeNet的图
所属分类:
其它
发布日期:2021-01-20
文件大小:219136
提供者:
weixin_38605967
Datawhale 《动手学深度学习》(二)
动手学深度学习(二)Day 3过拟合&欠拟合及其解决方案一些概念高维线性回归实验从零开始的实现丢弃法梯度消失&梯度爆炸一些理论Kaggle房价预测实战循环神经网络进阶代码实现Day 4机器翻译及相关技术定义代码实现注意力机制与Seq2seq模型注意力机制框架点积注意力多层感知机注意力Seq2seq模型Transformer结构代码实现Day 5卷积神经网络基础二维卷积层填充和步幅多输入通道和多输出通道简洁实现池化IeNet代码实现卷积神经网络进阶深度卷积神经网络(AlexNet)使用重复元素的网
所属分类:
其它
发布日期:2021-01-20
文件大小:1048576
提供者:
weixin_38693506
DAY 2 动手学习深度学习
【任务安排】: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03: 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 梯度消失、梯度爆炸 梯度消失和梯度爆炸 考虑到环境因素的其他问题 Kaggle房价预测 循环神经网络进阶 深度卷积神经网络(AlexNet) 使
所属分类:
其它
发布日期:2021-01-20
文件大小:194560
提供者:
weixin_38520258
《动手学深度学习》Task05:卷积神经网络基础+LeNet+卷积神经网络进阶
文章目录1 卷积神经网络基础1.1 二维卷积层1.2 填充和步幅1.3 多输入通道和多输出通道1.4 卷积层与全连接层的对比1.4 池化2 LeNet2.1 LeNet 模型2.2 获取数据和训练模型3 卷积神经网络进阶3.1 深度卷积神经网络(AlexNet)3.2 使用重复元素的网络(VGG)3.3 网络中的网络(NiN)3.4 GoogLeNet 1 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 1.1 二维卷积层
所属分类:
其它
发布日期:2021-01-20
文件大小:666624
提供者:
weixin_38672800
动手学习深度学习—task05
文章目录卷积神经网络基础特征图与感受野填充和步幅1×1卷积层卷积层与全连接层的对比池化层LeNetAlexNet创新VGG创新NiN创新GoogLeNet创新 卷积神经网络基础 特征图与感受野 二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征,也叫特征图(feature map)。影响元素x的前向计算的所有可能输入区域(可能大于输入的实际尺寸)叫做x的感受野(receptive field) 填充和步幅 填充 填充(padding)是指在输入高和宽的两侧填充元素(通常是0
所属分类:
其它
发布日期:2021-01-20
文件大小:505856
提供者:
weixin_38704565
《动手学习深度学习》之三:2.卷积神经网络(CNN)进阶-5种模型(打卡2.5)
卷积神经网络(CNN)进阶 2.LeNet、AlexNet、VGG、NiN、GooLeNet 5种模型 2.1.LeNet 2.1.1.全连接层和卷积层的比较: 使用全连接层的局限性: • 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 • 对于大尺寸的输入图像,使用全连接层容易导致模型过大。 使用卷积层的优势: • 卷积层保留输入形状。 • 卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。 2.1.2.LeNet 模型介绍
所属分类:
其它
发布日期:2021-01-20
文件大小:749568
提供者:
weixin_38648968