点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 池化
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
java对象池化技术
java对象池化技术 java对象池化技术 java对象池化技术
所属分类:
Java
发布日期:2010-08-17
文件大小:70656
提供者:
Endell
双线性池化(Bilinear pooling)tensorflow版
双线性池化(Bilinear pooling)tensorflow版,可以用于细粒度分类
所属分类:
深度学习
发布日期:2018-08-23
文件大小:86016
提供者:
december_boy
图卷积神经网络中的池化综述.pdf
图卷积神经网络(GCNNs)是深度学习技术在图结构数据问题上的一种强大的扩展。我们对GCNNs的几种池方法进行了实证评估,并将这些图池化方法与三种不同架构(GCN、TAGCN和GraphSAGE)进行了组合。我们证实,图池化,特别是DiffPool,提高了流行的图分类数据集的分类精度,并发现,平均而言,TAGCN达到了可比或更好的精度比GCN和GraphSAGE,特别是对数据集较大和稀疏的图结构。
所属分类:
机器学习
发布日期:2020-04-08
文件大小:330752
提供者:
syp_net
深度学习入门课程---池化层(Pooling)原理视频教程.mp4
深度学习入门课程---池化层(Pooling)原理视频教程,希望能够学习者提供帮助,实现对池化层(Pooling)原理基础知识的掌握与理解,为后续学习做好铺垫,实现池化层(Pooling)原理的灵活运用
所属分类:
深度学习
发布日期:2020-02-07
文件大小:11534336
提供者:
zsb8888
PyTorch的自适应池化Adaptive Pooling实例
今天小编就为大家分享一篇PyTorch的自适应池化Adaptive Pooling实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:72704
提供者:
weixin_38642636
对Pytorch中Tensor的各种池化操作解析
今天小编就为大家一篇对Pytorch中Tensor的各种池化操作解析,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:30720
提供者:
weixin_38635166
pytorch torch.nn.AdaptiveAvgPool2d()自适应平均池化函数详解
今天小编就为大家分享一篇pytorch torch.nn.AdaptiveAvgPool2d()自适应平均池化函数详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:32768
提供者:
weixin_38731239
pytorch中的卷积和池化计算方式详解
今天小编就为大家分享一篇pytorch中的卷积和池化计算方式详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:111616
提供者:
weixin_38548717
TensorFlow tf.nn.max_pool实现池化操作方式
今天小编就为大家分享一篇TensorFlow tf.nn.max_pool实现池化操作方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:56320
提供者:
weixin_38571603
浅谈pytorch池化maxpool2D注意事项
今天小编就为大家分享一篇浅谈pytorch池化maxpool2D注意事项,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-17
文件大小:30720
提供者:
weixin_38712899
keras中的卷积层&池化层的用法
主要介绍了keras中的卷积层&池化层的用法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-16
文件大小:55296
提供者:
weixin_38603259
Python 字符串池化的前提
主要介绍了Python 字符串池化的前提,文中示例代码非常详细,帮助大家更好的理解和学习,感兴趣的朋友可以了解下
所属分类:
其它
发布日期:2020-09-16
文件大小:54272
提供者:
weixin_38736760
浅谈tensorflow1.0 池化层(pooling)和全连接层(dense)
本篇文章主要介绍了浅谈tensorflow1.0 池化层(pooling)和全连接层(dense),小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-20
文件大小:49152
提供者:
weixin_38588592
浅谈tensorflow1.0 池化层(pooling)和全连接层(dense)
池化层定义在tensorflow/python/layers/pooling.py. 有最大值池化和均值池化。 1、tf.layers.max_pooling2d max_pooling2d( inputs, pool_size, strides, padding='valid', data_format='channels_last', name=None ) inputs: 进行池化的数据。 pool_size: 池化的核大小(pool_height, p
所属分类:
其它
发布日期:2020-12-23
文件大小:47104
提供者:
weixin_38633897
TensorFlow tf.nn.max_pool实现池化操作方式
max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似 有些地方可以从卷积去参考【TensorFlow】 tf.nn.conv2d实现卷积的方式 tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积很类似: 第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape 第
所属分类:
其它
发布日期:2020-12-23
文件大小:58368
提供者:
weixin_38654382
PyTorch的自适应池化Adaptive Pooling实例
简介 自适应池化Adaptive Pooling是PyTorch含有的一种池化层,在PyTorch的中有六种形式: 自适应最大池化Adaptive Max Pooling: torch.nn.AdaptiveMaxPool1d(output_size) torch.nn.AdaptiveMaxPool2d(output_size) torch.nn.AdaptiveMaxPool3d(output_size) 自适应平均池化Adaptive Average Pooling: torch.nn.A
所属分类:
其它
发布日期:2020-12-23
文件大小:73728
提供者:
weixin_38518376
PyTorch学习笔记(三)定义各种卷积池化线性激活层
Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 卷积与转置卷积1.1 卷积层1.2 转置卷积层2. 池化与去池化2.1 池化层2.2 去池化层3. 线性连接4. 激活函数4.1 sigmoid4.2 tanh4.3 ReLU4.4 ReLU 的修改版们 0. 写在前面 本文记录一下使用 PyTorch 建立神经网络模型中各种层的定义方法,包括卷积
所属分类:
其它
发布日期:2020-12-21
文件大小:486400
提供者:
weixin_38706100
浅谈pytorch池化maxpool2D注意事项
注意: 在搭建网络的时候用carpool2D的时候,让高度和宽度方向不同池化时, 用如下: nn.MaxPool2d(kernel_size=2, stride=(2, 1), padding=(0, 1)) 千万不要用: nn.MaxPool2d(kernel_size=2, stride=(2, 1), padding=(0, 0)), 这样在用交叉熵做损失函数的时候,有时候会出现loss为nan的情况,检查的时候发现,某些样本的提取出来的feature全为nan。 以上这篇浅谈pyto
所属分类:
其它
发布日期:2020-12-20
文件大小:34816
提供者:
weixin_38608688
5.4 池化层
回忆一下,在“二维卷积层”一节里介绍的图像物体边缘检测应用中,我们构造卷积核从而精确地找到了像素变化的位置。设任意二维数组X的i行j列的元素为X[i, j]。如果我们构造的卷积核输出Y[i, j]=1,那么说明输入中X[i, j]和X[i, j+1]数值不一样。这可能意味着物体边缘通过这两个元素之间。但实际图像里,我们感兴趣的物体不会总出现在固定位置:即使我们连续拍摄同一个物体也极有可能出现像素位置上的偏移。这会导致同一个边缘对应的输出可能出现在卷积输出Y中的不同位置,进而对后面的模式识别造成不
所属分类:
其它
发布日期:2021-01-07
文件大小:76800
提供者:
weixin_38741101
卷积神经网络的意义(卷积层和池化层的意义,工业中与机理的融合等)
卷积神经网络有卷积层和池化层。包含多个卷积层和池化层。 卷积层有滤波器的作用。多层卷积层可描述为各级滤波器。获取不同粒度的信息 池化层也称为欠采样或下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的容错性。 传统神经网络特征提取和分类/回归等是分离的,也就是分别做参数的优化,这对整体优化不利。深度学习中,特征提取等和后续应用融合在一起,可以取得更好的性能。 卷积层和池化层都是可以构造的,如果应用到工业,是否可以根据工业特性(所谓工业的机理模型等)构造深度学习?这样能实现机
所属分类:
其它
发布日期:2021-01-07
文件大小:28672
提供者:
weixin_38749863
«
1
2
3
4
5
6
7
8
9
10
...
50
»