您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. java对象池化技术

  2. java对象池化技术 java对象池化技术 java对象池化技术
  3. 所属分类:Java

    • 发布日期:2010-08-17
    • 文件大小:70656
    • 提供者:Endell
  1. 双线性池化(Bilinear pooling)tensorflow版

  2. 双线性池化(Bilinear pooling)tensorflow版,可以用于细粒度分类
  3. 所属分类:深度学习

    • 发布日期:2018-08-23
    • 文件大小:86016
    • 提供者:december_boy
  1. 图卷积神经网络中的池化综述.pdf

  2. 图卷积神经网络(GCNNs)是深度学习技术在图结构数据问题上的一种强大的扩展。我们对GCNNs的几种池方法进行了实证评估,并将这些图池化方法与三种不同架构(GCN、TAGCN和GraphSAGE)进行了组合。我们证实,图池化,特别是DiffPool,提高了流行的图分类数据集的分类精度,并发现,平均而言,TAGCN达到了可比或更好的精度比GCN和GraphSAGE,特别是对数据集较大和稀疏的图结构。
  3. 所属分类:机器学习

    • 发布日期:2020-04-08
    • 文件大小:330752
    • 提供者:syp_net
  1. 深度学习入门课程---池化层(Pooling)原理视频教程.mp4

  2. 深度学习入门课程---池化层(Pooling)原理视频教程,希望能够学习者提供帮助,实现对池化层(Pooling)原理基础知识的掌握与理解,为后续学习做好铺垫,实现池化层(Pooling)原理的灵活运用
  3. 所属分类:深度学习

    • 发布日期:2020-02-07
    • 文件大小:11534336
    • 提供者:zsb8888
  1. PyTorch的自适应池化Adaptive Pooling实例

  2. 今天小编就为大家分享一篇PyTorch的自适应池化Adaptive Pooling实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:72704
    • 提供者:weixin_38642636
  1. 对Pytorch中Tensor的各种池化操作解析

  2. 今天小编就为大家一篇对Pytorch中Tensor的各种池化操作解析,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:30720
    • 提供者:weixin_38635166
  1. pytorch torch.nn.AdaptiveAvgPool2d()自适应平均池化函数详解

  2. 今天小编就为大家分享一篇pytorch torch.nn.AdaptiveAvgPool2d()自适应平均池化函数详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:32768
    • 提供者:weixin_38731239
  1. pytorch中的卷积和池化计算方式详解

  2. 今天小编就为大家分享一篇pytorch中的卷积和池化计算方式详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:111616
    • 提供者:weixin_38548717
  1. TensorFlow tf.nn.max_pool实现池化操作方式

  2. 今天小编就为大家分享一篇TensorFlow tf.nn.max_pool实现池化操作方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:56320
    • 提供者:weixin_38571603
  1. 浅谈pytorch池化maxpool2D注意事项

  2. 今天小编就为大家分享一篇浅谈pytorch池化maxpool2D注意事项,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:30720
    • 提供者:weixin_38712899
  1. keras中的卷积层&池化层的用法

  2. 主要介绍了keras中的卷积层&池化层的用法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:55296
    • 提供者:weixin_38603259
  1. Python 字符串池化的前提

  2. 主要介绍了Python 字符串池化的前提,文中示例代码非常详细,帮助大家更好的理解和学习,感兴趣的朋友可以了解下
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:54272
    • 提供者:weixin_38736760
  1. 浅谈tensorflow1.0 池化层(pooling)和全连接层(dense)

  2. 本篇文章主要介绍了浅谈tensorflow1.0 池化层(pooling)和全连接层(dense),小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:49152
    • 提供者:weixin_38588592
  1. 浅谈tensorflow1.0 池化层(pooling)和全连接层(dense)

  2. 池化层定义在tensorflow/python/layers/pooling.py. 有最大值池化和均值池化。 1、tf.layers.max_pooling2d max_pooling2d( inputs, pool_size, strides, padding='valid', data_format='channels_last', name=None ) inputs: 进行池化的数据。 pool_size: 池化的核大小(pool_height, p
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:47104
    • 提供者:weixin_38633897
  1. TensorFlow tf.nn.max_pool实现池化操作方式

  2. max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似 有些地方可以从卷积去参考【TensorFlow】 tf.nn.conv2d实现卷积的方式 tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积很类似: 第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape 第
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:58368
    • 提供者:weixin_38654382
  1. PyTorch的自适应池化Adaptive Pooling实例

  2. 简介 自适应池化Adaptive Pooling是PyTorch含有的一种池化层,在PyTorch的中有六种形式: 自适应最大池化Adaptive Max Pooling: torch.nn.AdaptiveMaxPool1d(output_size) torch.nn.AdaptiveMaxPool2d(output_size) torch.nn.AdaptiveMaxPool3d(output_size) 自适应平均池化Adaptive Average Pooling: torch.nn.A
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:73728
    • 提供者:weixin_38518376
  1. PyTorch学习笔记(三)定义各种卷积池化线性激活层

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 卷积与转置卷积1.1 卷积层1.2 转置卷积层2. 池化与去池化2.1 池化层2.2 去池化层3. 线性连接4. 激活函数4.1 sigmoid4.2 tanh4.3 ReLU4.4 ReLU 的修改版们 0. 写在前面 本文记录一下使用 PyTorch 建立神经网络模型中各种层的定义方法,包括卷积
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:486400
    • 提供者:weixin_38706100
  1. 浅谈pytorch池化maxpool2D注意事项

  2. 注意: 在搭建网络的时候用carpool2D的时候,让高度和宽度方向不同池化时, 用如下: nn.MaxPool2d(kernel_size=2, stride=(2, 1), padding=(0, 1)) 千万不要用: nn.MaxPool2d(kernel_size=2, stride=(2, 1), padding=(0, 0)), 这样在用交叉熵做损失函数的时候,有时候会出现loss为nan的情况,检查的时候发现,某些样本的提取出来的feature全为nan。 以上这篇浅谈pyto
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:34816
    • 提供者:weixin_38608688
  1. 5.4 池化层

  2. 回忆一下,在“二维卷积层”一节里介绍的图像物体边缘检测应用中,我们构造卷积核从而精确地找到了像素变化的位置。设任意二维数组X的i行j列的元素为X[i, j]。如果我们构造的卷积核输出Y[i, j]=1,那么说明输入中X[i, j]和X[i, j+1]数值不一样。这可能意味着物体边缘通过这两个元素之间。但实际图像里,我们感兴趣的物体不会总出现在固定位置:即使我们连续拍摄同一个物体也极有可能出现像素位置上的偏移。这会导致同一个边缘对应的输出可能出现在卷积输出Y中的不同位置,进而对后面的模式识别造成不
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:76800
    • 提供者:weixin_38741101
  1. 卷积神经网络的意义(卷积层和池化层的意义,工业中与机理的融合等)

  2. 卷积神经网络有卷积层和池化层。包含多个卷积层和池化层。 卷积层有滤波器的作用。多层卷积层可描述为各级滤波器。获取不同粒度的信息 池化层也称为欠采样或下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的容错性。 传统神经网络特征提取和分类/回归等是分离的,也就是分别做参数的优化,这对整体优化不利。深度学习中,特征提取等和后续应用融合在一起,可以取得更好的性能。 卷积层和池化层都是可以构造的,如果应用到工业,是否可以根据工业特性(所谓工业的机理模型等)构造深度学习?这样能实现机
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:28672
    • 提供者:weixin_38749863
« 12 3 4 5 6 7 8 9 10 ... 50 »