您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 四大经典CNN架构之一(ALexNet)

  2. 本资源详细解读了经典论文ImageNet Classification with Deep Convolutional Neural Networks,主要介绍ALexNet的架构、特点、计算流程
  3. 所属分类:深度学习

    • 发布日期:2017-12-21
    • 文件大小:4194304
    • 提供者:sir_chai
  1. 卷积神经网络

  2. 卷积神经网络的快速发展得益于LeNet-5、Alexnet、ZFNet、VGGNet、GoogleNet、ResNet等不同结构的设计出现。卷积神经网络的结构哟很多种,但是基本机构是相似的,主要包括:卷积层、池化层、激活函数、正则化、全连接层以及损失函数。
  3. 所属分类:讲义

    • 发布日期:2018-03-09
    • 文件大小:5242880
    • 提供者:dongairan
  1. 卷积神经网络的工作原理

  2. 详细解读了卷积神经网络是如何工作的,从CNN卷积层、激活层、池化层到全链接层,及多层CNN作用进行了通熟易懂的讲解
  3. 所属分类:深度学习

    • 发布日期:2018-03-14
    • 文件大小:3145728
    • 提供者:yxl564710062
  1. Tensorflow实现一个简单的CNN

  2. Tensorflow实现一个简单的CNN,含3层卷积池化层,2层全连接层,激活函数ReLU,采用dropout和softmax函数做分类器
  3. 所属分类:深度学习

    • 发布日期:2018-07-26
    • 文件大小:5242880
    • 提供者:jesmine_gu
  1. 反向算法推导-卷积神经网络

  2. 在今天这篇文章中,我们将详细为大家推导卷积神经网络的反向传播算法。对于卷积层,我们将按两条路线进行推导,分别是标准的卷积运算实现,以及将卷积转化成矩阵乘法的实现。在文章的最后一节,我们将介绍具体的工程实现,即卷积神经网络的卷积层,池化层,激活函数层,损失层怎样完成反向传播功能。
  3. 所属分类:机器学习

    • 发布日期:2018-08-13
    • 文件大小:595968
    • 提供者:sigai_csdn
  1. 卷积神经网络(CNN).pdf

  2. 卷积神经网络(CNN)的快速入门做的笔记,简洁可参考。 一、卷积神经网络(CNN) 二、LeNet(推进深度学习最早的卷积神经网络之一) 1、卷积操作 2、非线性简介(ReLU)(激活函数) 3、池化操作 4、全连接层 ...
  3. 所属分类:深度学习

    • 发布日期:2020-04-01
    • 文件大小:468992
    • 提供者:weixin_39079076
  1. 4-DCGAN实战.ipynb

  2. 一、DCGAN论文要点 通过跨步卷积层(例如:stride= 2)代替池化层(例如:最大池化层) 取消全连接层,用全局平均池化层代替(在判别器的最后一层) 所有层的输出都用BatchNormalization做归一化 生成器使用转置卷积层,激活函数使用ReLU函数,但最后一层输出层使用Tanh激活函数;判别器使用卷积层,激活函数使用LeakyReLU, the slope of the leak was set to 0.2 in all models. All weights were ini
  3. 所属分类:深度学习

    • 发布日期:2020-07-20
    • 文件大小:605184
    • 提供者:qq_41845478
  1. PyTorch学习笔记(三)定义各种卷积池化线性激活层

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 卷积与转置卷积1.1 卷积层1.2 转置卷积层2. 池化与去池化2.1 池化层2.2 去池化层3. 线性连接4. 激活函数4.1 sigmoid4.2 tanh4.3 ReLU4.4 ReLU 的修改版们 0. 写在前面 本文记录一下使用 PyTorch 建立神经网络模型中各种层的定义方法,包括卷积
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:486400
    • 提供者:weixin_38706100
  1. 《动手学深度学习》卷积神经网络LeNet

  2. 使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大。 使用卷积层的优势: 卷积层保留输入形状。 卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。 LeNet结构 卷积层块里的基本单位是卷积层后接平均池化层:卷积层用来识别图像里的空间模式,如线条和物体局部,之后的平均池化层则用来降低卷积层对位置的敏感性。 卷积层块由两个这样的基本单位重复堆叠构成。在卷积层块中,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:112640
    • 提供者:weixin_38582719
  1. 一文让你彻底了解卷积神经网络

  2. 本文来自csdn,文章先来卷积神经网络和全连接神经网络对比,接着让我们直观理解卷积,卷积计算流程,结合案例进行相关的介绍。卷积神经网络(ConvolutionalNeuralNetwork,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。它包括卷积层(convolutionallayer)和池化层(poolinglayer)。对比:卷积神经网络、全连接神经网络左图:全连接神经网络(平面),组成:输入层、激活函数、全连接层右图:卷积神经网络
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:1048576
    • 提供者:weixin_38744526
  1. 卷积神经网络之前向传播算法

  2. 首先我们来看看卷积神经网络(CNN)的基本结构。如上图所示,可以看出最左边的图片就是我们的输入层,计算机理解为输入若干个矩阵。接着是卷积层(ConvolutionLayer),卷积层是CNN所特有的,卷积层使用的激活函数是ReLU,之前在DNN之中介绍过ReLU的激活函数,形式如ReLU=max(0,x)。卷积层后面的是池化层,池化层也是CNN所特有的,池化层没有激活函数。卷积层+池化层的组合可以在CNN隐藏层中出现多次,实际使用中根据模型需要而定。同时我们也可以灵活使用卷积层+卷积层,或者卷积
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:567296
    • 提供者:weixin_38697753
  1. 结合最小噪声分离变换和卷积神经网络的高分辨影像分类方法

  2. 针对传统浅层机器学习方法应用于高分辨影像分类时存在的问题, 提出了结合最小噪声分离变换和卷积神经网络的高分辨率影像分类方法。采用最小噪声分离分析非监督训练初始化卷积神经网络, 为提高训练速度, 使用线性修正函数作为神经网络的激活函数; 利用概率最大化采样原则减少池化过程中影像特征的缺失, 并将下采样后影像特征输入Softmax分类器进行分类。采用所提分类方法对典型地区的影像进行分类实验, 并与支持向量机和人工神经网络分类方法的分类结果进行对比。结果表明, 所提分类方法的分类精度明显高于另两种分类
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:5242880
    • 提供者:weixin_38659646
  1. MeshCNN:PyTorch中用于3D网格的卷积神经网络-源码

  2. PyTorch中的MeshCNN SIGGRAPH 2019 MeshCNN是用于3D三角形网格的通用深度神经网络,可用于诸如3D形状分类或分割之类的任务。 该框架包括直接应用于网格边缘的卷积,池化和解池层。 该代码由和在支持下编写。 入门 安装 克隆此仓库: git clone https://github.com/ranahanocka/MeshCNN.git cd MeshCNN 安装依赖项: 1.2版。 可选: 用于训练图。 通过新的conda环境conda env crea
  3. 所属分类:其它

    • 发布日期:2021-01-28
    • 文件大小:3145728
    • 提供者:weixin_38701156
  1. 卷积神经网络之前向传播算法

  2. 首先我们来看看卷积神经网络(CNN)的基本结构。如上图所示,可以看出最左边的图片就是我们的输入层,计算机理解为输入若干个矩阵。接着是卷积层(Convolution Layer),卷积层是CNN所特有的,卷积层使用的激活函数是ReLU,之前在DNN之中介绍过ReLU的激活函数,形式如ReLU=max(0,x) 。卷积层后面的是池化层,池化层也是CNN所特有的,池化层没有激活函数。 卷积层+池化层的组合可以在CNN隐藏层中
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:567296
    • 提供者:weixin_38569109
  1. 《动手学深度学习Pytorch版》Task5-卷积神经网络

  2. 卷积神经网络基础 需要理解卷积神经网络的基础概念,主要是卷积层和池化层、填充、步幅、输入通道和输出通道的含义。 几个经典的模型 LeNet AlexNet VGG NiN GoogLeNet 1×1卷积核作用 放缩通道数:通过控制卷积核的数量达到通道数的放缩。 增加非线性:1×1卷积核的卷积过程相当于全连接层的计算过程,并且还加入了非线性激活函数,从而可以增加网络的非线性。 计算参数少 LeNet vs AlexNet 注:5*5 Conv(16),这里的16指的是输出的通道数 LeNet的图
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:219136
    • 提供者:weixin_38605967
  1. 经典卷积神经网络模型—AlexNet,VGG,GoogLeNet

  2. AlexNet 特征 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。 将sigmoid激活函数改成了更加简单的ReLU激活函数。 用Dropout来控制全连接层的模型复杂度。 引入数据增强,如翻转、裁剪和颜色变化,从而进一步扩大数据集来缓解过拟合 第一个卷积层 输入的图片大小为:2242243(或者是2272273) 第一个卷积层为:111196即尺寸为1111,有96个卷积核,步长为4,卷积层后跟ReLU,因此输出的尺寸为 224/4=56,去掉边缘为55,因此其输出的每
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:297984
    • 提供者:weixin_38742409
  1. MachineLearning学习——0220——深度学习之卷积神经网络、自编码器

  2. 参考:https://github.com/apachecn/vt-cs4624-pyml-zh/blob/master/docs/22.md https://github.com/apachecn/vt-cs4624-pyml-zh/blob/master/docs/23.md 由于之前有了解CNN,该文章将跳过大部分细节,仅供本人记录学习过程用 卷积神经网络Convolutional Neural Network 介绍:与多层感知机的结构很相似:输入层,一些隐藏层,输出层,这些层多由卷积层、
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:135168
    • 提供者:weixin_38652870
  1. Tensorflow 进行MNIST手写字体识别中权重初始化问题

  2. 在对卷积层及池化层进行权重初始化时, 激活函数为 sigmoid 时: def weight_variable(shape): inital = tf.truncated_normal(shape) return tf.Variable(inital) 权重初始化为截断正态分布,默认参数如下: def truncated_normal(shape, mean=0.0, stddev=1.0,
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:30720
    • 提供者:weixin_38680764
  1. 基于卷积神经网络的高压电缆局部放电模式识别

  2. 由高压电缆不同类型缺陷诱发的局部放电(PD)的识别难度较大,尤其是某些相似度较高的电缆绝缘缺陷类型难以区分。提出了一种基于卷积神经网络(CNN)的高压电缆PD模式识别方法,研究了不同网络层数、不同激活函数以及不同池化方式对识别效果的影响,并与传统的支持向量机(SVM)和反向传播神经网络(BPNN)算法进行了对比。结果表明,相比SVM和BPNN, CNN的总体识别精度分别提高了3.71%和4.06%,且能较好地识别具有高相似度的电缆缺陷类型。
  3. 所属分类:其它

    • 发布日期:2021-01-13
    • 文件大小:2097152
    • 提供者:weixin_38674409
  1. SoftPool:近似指数最大池的代码-源码

  2. 使用SoftPool完善激活下采样 抽象的 卷积神经网络(CNN)使用合并来减小激活图的大小。这个过程对于局部实现空间不变性和增加后续卷积的接收场至关重要。池操作应最大程度地减少激活图中的信息丢失。同时,应限制计算和内存开销。为了满足这些要求,我们提出了SoftPool:一种快速有效的方法,可以对指数加权的激活求和。与一系列其他合并方法相比,SoftPool在下采样的激活图中保留了更多信息。更精细的下采样可导致更好的分类准确性。在ImageNet1K上,对于一系列流行的CNN架构,用SoftPo
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:110100480
    • 提供者:weixin_42097914
« 12 3 »