点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - relu激活函数
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Tensorflow实现AlexNet
Tensorflow实现AlexNet,但是做了点修改,将最后一层的relu激活函数改成了sigmoid函数,主要是为了实现深度哈希
所属分类:
深度学习
发布日期:2017-12-28
文件大小:4096
提供者:
sweetyit
MNIST手写字识别+ReLU激活函数+规则化
MNIST手写字识别 ReLU激活函数 规则化 识别率最高可达到97.5
所属分类:
机器学习
发布日期:2018-03-18
文件大小:16777216
提供者:
hoho1151191150
DCGAN-tensorflow-master程序
1、DCGAN的简单总结 稳定的深度卷积GAN 架构指南: 所有的pooling层使用步幅卷积(判别网络)和微步幅度卷积(生成网络)进行替换。 在生成网络和判别网络上使用批处理规范化。 对于更深的架构移除全连接隐藏层。 在生成网络的所有层上使用RelU激活函数,除了输出层使用Tanh激活函数。 在判别网络的所有层上使用LeakyReLU激活函数。
所属分类:
Python
发布日期:2018-06-13
文件大小:39845888
提供者:
qq_42450900
理解神经网络的激活函数
激活函数在神经网络中具有重要的地位,对于常用的函数如sigmoid,tanh,ReLU,不少读者都已经非常熟悉。但是你是否曾想过这几个问题: 为什么需要激活函数? 什么样的函数可以做激活函数? 什么样的函数是好的激活函数? 在这篇文章中,SIGAI将和大家一起讨论这几个问题,以加深对激活函数的理解,如果对本文的观点持有不同的意见,欢迎向我们的公众号发消息一起讨论。
所属分类:
机器学习
发布日期:2018-06-26
文件大小:553984
提供者:
sigai_csdn
神经网络激活函数matlab
神经网络最全激活函数,包括sigmoid,tanh,ReLU,ELU,PReLU,softplus,liner等激活函数,应有尽有
所属分类:
深度学习
发布日期:2018-09-09
文件大小:1024
提供者:
qq_36264912
matlab手动实现BP网络,不调用工具箱(内附手写数字识别包含数据集)显示loss函数
神经元节点的个数,隐藏层的个数,都是可以调节的,Optimer优化器有SGD,mSGD,nSGD,AdaGrad,RMSProp,nRMSProp,Adam,激活函数有relu和sigmoid
所属分类:
深度学习
发布日期:2019-04-27
文件大小:14680064
提供者:
weixin_40225128
conv_relu_40000.weights
将yolov2中的leaky-relu激活函数换成relu函数之后,重新对网络进行训练,得到的权值。在VOC2012上进行验证,准确率为68.85 % 。
所属分类:
深度学习
发布日期:2019-06-09
文件大小:114294784
提供者:
crazyeden
MNISTMatlab程序_BP.zip
MNIST手写字识别,BP神经网络CNN程序,ReLU激活函数,均方误差代价函数,L2规则化, Matlab源代码,可直接运行,最高可达精度98.34%。
所属分类:
深度学习
发布日期:2020-04-17
文件大小:22020096
提供者:
weixin_39946884
pytorch方法测试——激活函数(ReLU)详解
今天小编就为大家分享一篇pytorch方法测试——激活函数(ReLU)详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:29696
提供者:
weixin_38551837
Keras 中Leaky ReLU等高级激活函数的用法
主要介绍了Keras 中Leaky ReLU等高级激活函数的用法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-16
文件大小:98304
提供者:
weixin_38729685
神经网络中各种激活函数的Python实现
本资源主要是可视化各种激活函数:Relu,sigmoid ,swish,mish等,只需要依赖numpy,不需要安装pytorch,只是一个简单的demo
所属分类:
Linux
发布日期:2020-11-22
文件大小:5120
提供者:
weixin_38907330
Keras 中Leaky ReLU等高级激活函数的用法
在用Keras来实现CNN等一系列网络时,我们经常用ReLU作为激活函数,一般写法如下: from keras import layers from keras import models model = models.Sequential() model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1))) model.add(layers.MaxPooling2D((2, 2))) model.
所属分类:
其它
发布日期:2020-12-17
文件大小:99328
提供者:
weixin_38522253
python 深度学习中的4种激活函数
这篇文章用来整理一下入门深度学习过程中接触到的四种激活函数,下面会从公式、代码以及图像三个方面介绍这几种激活函数,首先来明确一下是哪四种: Sigmoid函数 Tahn函数 ReLu函数 SoftMax函数 激活函数的作用 下面图像A是一个线性可分问题,也就是说对于两类点(蓝点和绿点),你通过一条直线就可以实现完全分类。 当然图像A是最理想、也是最简单的一种二分类问题,但是现实中往往存在一些非常复杂的线性不可分问题,比如图像B,你是找不到任何一条直线可以将图像B中蓝点和绿点完
所属分类:
其它
发布日期:2020-12-16
文件大小:137216
提供者:
weixin_38502510
pytorch方法测试——激活函数(ReLU)详解
测试代码: import torch import torch.nn as nn #inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出 m = nn.ReLU(inplace=True) input = torch.randn(7) print("输入处理前图片:") print(input) output = m(input) print("ReLU输出:") print(output) print("输出的尺度:") print(output.size()
所属分类:
其它
发布日期:2020-12-23
文件大小:33792
提供者:
weixin_38646706
PyTorch学习笔记(三)定义各种卷积池化线性激活层
Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 卷积与转置卷积1.1 卷积层1.2 转置卷积层2. 池化与去池化2.1 池化层2.2 去池化层3. 线性连接4. 激活函数4.1 sigmoid4.2 tanh4.3 ReLU4.4 ReLU 的修改版们 0. 写在前面 本文记录一下使用 PyTorch 建立神经网络模型中各种层的定义方法,包括卷积
所属分类:
其它
发布日期:2020-12-21
文件大小:486400
提供者:
weixin_38706100
tensorflow自定义激活函数实例
前言:因为研究工作的需要,要更改激活函数以适应自己的网络模型,但是单纯的函数替换会训练导致不能收敛。这里还有些不清楚为什么,希望有人可以给出解释。查了一些博客,发现了解决之道。下面将解决过程贴出来供大家指正。 1.背景 之前听某位老师提到说tensorflow可以在不给梯度函数的基础上做梯度下降,所以尝试了替换。我的例子时将ReLU改为平方。即原来的激活函数是 现在换成 单纯替换激活函数并不能较好的效果,在我的实验中,迭代到一定批次,准确率就会下降,最终降为10%左右保持稳定。而事实上,这中
所属分类:
其它
发布日期:2020-12-20
文件大小:67584
提供者:
weixin_38702047
ReLU激活函数杂谈
在实现多层感知机代码实现中使用了ReLU激活函数: ReLU(x)=max(x,0)ReLU(x)=max(x,0)ReLU(x)=max(x,0) 形状大概是这样的 这里根据几个问题来进行回答解释 为什么要使用激活函数呢? 简单来说激活函数的作用就是将仿射函数进行非线性化,可以拟合出更多的情况。更详细的解答可以参考知乎激活函数的解释 ReLU函数的梯度问题 首先谈一下sigimoid函数的梯度,通常不选用它是因为sigmoid函数可能有梯度消失的情况,原因可以看它的梯度函数图 可以看到蓝色
所属分类:
其它
发布日期:2021-01-06
文件大小:60416
提供者:
weixin_38733333
Neural-Network:mnist.pkl数据集的源码,并做了一些改进:反向传播由循环计算转换矢量化计算来大大提高速度; Sigmoid,cos,tanh等多个激活函数,同时也可以选择二次代价函数或交叉熵代价函数-源码
神经网络 编译环境:python3 由数据集mnist.pkl的源码修改而来 中间层的激活函数可以选为Sigmoid,cos,tanh,ReLU,输出层的激活函数为softmax代价函数可以选为二次代价函数和交叉熵代价函数 最后保存权重w和重置b
所属分类:
其它
发布日期:2021-03-24
文件大小:16777216
提供者:
weixin_42117150
二次激活函数:深度学习最终项目-源码
ECE472(深度学习)最终项目 二次神经元作为深度神经网络中的激活功能 安德鲁·洛伯(Andrew Lorber)和马克·科斯科夫斯基(Mark Koszykowski) 摘要:我们的深度学习最终项目基于Yaparla Ganesh和Rhishi Pratap Singh在使用二次神经元进行模式分类的研究中进行的一项实验研究。 他们的论文讨论了使用二次(QUAD)神经元来构建二次神经网络,这与多层感知器(MLP)模型中熟悉的线性神经元相反。 本文展示了其二次神经元作为二次激活函数的用途。 在
所属分类:
其它
发布日期:2021-02-15
文件大小:1048576
提供者:
weixin_42172204
激活函数(ReLU、sigmoid、tanh)的简单理解
ReLU函数 ReLU(rectified linear unit)函数提供了⼀个很简单的⾮线性变换。给定元素 ,该函数定义为: 可以看出,ReLU函数只保留正数元素,并将负数元素清零。函数图像如下图: 显然,当输⼊为负数时,ReLU函数的导数为0;当输⼊为正数时,ReLU函数的导数为1。尽管输⼊为0 时ReLU函数不可导,但是我们可以取此处的导数为0。绘制ReLU函数的导数图像: sigmoid函数 sigmoid函数可以将元素的值变换到0和1之间,函数定义: sigmoid函数在早期
所属分类:
其它
发布日期:2021-01-20
文件大小:148480
提供者:
weixin_38622125
«
1
2
3
4
»