您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 信号卷积和信号相乘转化的验证

  2. 信号卷积和信号相乘转化的验证 二维信号(一维信号)通过matlab函数conv2(conv)卷积结果,用来验证两个新信号相乘的结果。
  3. 所属分类:其它

    • 发布日期:2013-10-10
    • 文件大小:1024
    • 提供者:anan1205
  1. 卷积计算实现

  2. 信号卷积的计算公式为 可通过图形变换的方法来计算两个信号的卷积。 用图解法求解卷积的步骤是:翻转、滑动、相乘、积分。
  3. 所属分类:3G/移动开发

    • 发布日期:2014-10-31
    • 文件大小:302080
    • 提供者:fan_lan_lan08
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:135168
    • 提供者:weixin_38630571
  1. 卷积神经网络和机器翻译笔记

  2. 卷积神经网络基础笔记 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:556032
    • 提供者:weixin_38742421
  1. pytorch实现task5——卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础 卷积神经网络包括卷积层和池化层。 二维卷积层 最常见的是二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:61440
    • 提供者:weixin_38666300
  1. Task05:卷积神经网络基础;leNet;卷积神经网络进阶 学习笔记

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:153600
    • 提供者:weixin_38628830
  1. 卷积神经网络笔记

  2. 一、二维卷积层(用于处理图像数据) 1.二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与 该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。 2.二维卷积层 二维卷积层将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。卷积层的模型参数包括卷积核和标量偏置。 3.互
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:48128
    • 提供者:weixin_38567813
  1. 卷积神经网络基础与经典模型-Task4

  2. 1. 卷积神经网络基础 从本节讲解才知道,卷积神经网络中的Conv2d函数中,实现的滤波器与图像element-wise相乘并累加其实是互相关运算,二维互相关的解释如下: 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:156672
    • 提供者:weixin_38727579
  1. 《动手学——卷积神经网络基础》笔记

  2. 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:138240
    • 提供者:weixin_38530211
  1. 深度学习8-卷积神经网络基础

  2. 卷积神经网络基础二维卷积层互相关运算与卷积运算特征图与感受野卷积层的两个超参数多输入通道和多输出通道卷积层与全连接层的对比卷积层的实现池化 主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。最常见的是二维卷积层,常用于处理图像数据。 二维卷积层 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:135168
    • 提供者:weixin_38555350
  1. task05–卷积神经网络

  2. 卷积神经网络 卷积神经网络中,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 (一)卷积的运算 卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 图1 二维互相关运算 (二)、特征图与感受野 二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征,也叫特征图(feature
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:133120
    • 提供者:weixin_38611812
  1. 卷积神经网络小记

  2. 卷积神经网络 基本概念 主要包括卷积层、池化层、填充、步幅、输入通道与输出通道。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38693084
  1. task05卷积神经网络基础

  2. 卷积神经网络基础¶ 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:83968
    • 提供者:weixin_38731226
  1. 伯禹 动手学深度学习 打卡06之卷积神经网络基础

  2. 卷积神经网络基础 二维卷积层 本文介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关计算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:336896
    • 提供者:weixin_38720322
  1. pytorch-卷积神经网络基础

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:154624
    • 提供者:weixin_38750406
  1. deeplearning_class5:卷积神经网络

  2. 1 二维卷积层 卷积神经网络中最常见的是二维卷积层,常用与图像处理。 1.1 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:54272
    • 提供者:weixin_38621150
  1. DataWhale组队打卡学习营task05-1 卷积神经网络基础

  2. 卷积神经网络基础 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:373760
    • 提供者:weixin_38696339
  1. 《动手学深度学习》Task04 :卷积神经网络基础;leNet;卷积神经网络进阶

  2. Task04 :卷积神经网络基础;leNet;卷积神经网络进阶 1.卷积神经网络基础 下面是一些卷积神经网络的基本概念: 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:885760
    • 提供者:weixin_38567813
  1. 深度学习——卷积神经网络

  2. 卷积神经网络 文章目录卷积神经网络一、卷积神经网络基础1.基础知识2.卷积层的简洁实现3.池化二、LeNet三、常见的一些卷积神经网络1.AlexNet2.VGG3.NiN4.GoogLeNet   一、卷积神经网络基础 1.基础知识 二维互相关(cross-correlation)运算:输入一个二维数组和核数组(卷积核或过滤器),卷积核在输入数组上滑动,在每个位置上与输入子数组按元素相乘并求和,取得一个输出的二维数组。如图中所示:19=0×0+1×1+3×2+4×3,25=1×0+2×1+4×
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:242688
    • 提供者:weixin_38660918
  1. DL基于Pytorch Day5 卷积神经网络基础

  2. 1.二维卷积层 二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 下面我们用co
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:125952
    • 提供者:weixin_38686187
« 12 3 »