您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Tensorflow实现AlexNet

  2. Tensorflow实现AlexNet,但是做了点修改,将最后一层的relu激活函数改成了sigmoid函数,主要是为了实现深度哈希
  3. 所属分类:深度学习

    • 发布日期:2017-12-28
    • 文件大小:4096
    • 提供者:sweetyit
  1. MNIST手写字识别+ReLU激活函数+规则化

  2. MNIST手写字识别 ReLU激活函数 规则化 识别率最高可达到97.5
  3. 所属分类:机器学习

    • 发布日期:2018-03-18
    • 文件大小:16777216
    • 提供者:hoho1151191150
  1. DCGAN-tensorflow-master程序

  2. 1、DCGAN的简单总结 稳定的深度卷积GAN 架构指南: 所有的pooling层使用步幅卷积(判别网络)和微步幅度卷积(生成网络)进行替换。 在生成网络和判别网络上使用批处理规范化。 对于更深的架构移除全连接隐藏层。 在生成网络的所有层上使用RelU激活函数,除了输出层使用Tanh激活函数。 在判别网络的所有层上使用LeakyReLU激活函数。
  3. 所属分类:Python

    • 发布日期:2018-06-13
    • 文件大小:39845888
    • 提供者:qq_42450900
  1. 理解神经网络的激活函数

  2. 激活函数在神经网络中具有重要的地位,对于常用的函数如sigmoid,tanh,ReLU,不少读者都已经非常熟悉。但是你是否曾想过这几个问题: 为什么需要激活函数? 什么样的函数可以做激活函数? 什么样的函数是好的激活函数? 在这篇文章中,SIGAI将和大家一起讨论这几个问题,以加深对激活函数的理解,如果对本文的观点持有不同的意见,欢迎向我们的公众号发消息一起讨论。
  3. 所属分类:机器学习

    • 发布日期:2018-06-26
    • 文件大小:553984
    • 提供者:sigai_csdn
  1. 神经网络激活函数matlab

  2. 神经网络最全激活函数,包括sigmoid,tanh,ReLU,ELU,PReLU,softplus,liner等激活函数,应有尽有
  3. 所属分类:深度学习

    • 发布日期:2018-09-09
    • 文件大小:1024
    • 提供者:qq_36264912
  1. matlab手动实现BP网络,不调用工具箱(内附手写数字识别包含数据集)显示loss函数

  2. 神经元节点的个数,隐藏层的个数,都是可以调节的,Optimer优化器有SGD,mSGD,nSGD,AdaGrad,RMSProp,nRMSProp,Adam,激活函数有relu和sigmoid
  3. 所属分类:深度学习

    • 发布日期:2019-04-27
    • 文件大小:14680064
    • 提供者:weixin_40225128
  1. conv_relu_40000.weights

  2. 将yolov2中的leaky-relu激活函数换成relu函数之后,重新对网络进行训练,得到的权值。在VOC2012上进行验证,准确率为68.85 % 。
  3. 所属分类:深度学习

    • 发布日期:2019-06-09
    • 文件大小:114294784
    • 提供者:crazyeden
  1. MNISTMatlab程序_BP.zip

  2. MNIST手写字识别,BP神经网络CNN程序,ReLU激活函数,均方误差代价函数,L2规则化, Matlab源代码,可直接运行,最高可达精度98.34%。
  3. 所属分类:深度学习

    • 发布日期:2020-04-17
    • 文件大小:22020096
    • 提供者:weixin_39946884
  1. pytorch方法测试——激活函数(ReLU)详解

  2. 今天小编就为大家分享一篇pytorch方法测试——激活函数(ReLU)详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:29696
    • 提供者:weixin_38551837
  1. Keras 中Leaky ReLU等高级激活函数的用法

  2. 主要介绍了Keras 中Leaky ReLU等高级激活函数的用法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:98304
    • 提供者:weixin_38729685
  1. 神经网络中各种激活函数的Python实现

  2. 本资源主要是可视化各种激活函数:Relu,sigmoid ,swish,mish等,只需要依赖numpy,不需要安装pytorch,只是一个简单的demo
  3. 所属分类:Linux

    • 发布日期:2020-11-22
    • 文件大小:5120
    • 提供者:weixin_38907330
  1. Keras 中Leaky ReLU等高级激活函数的用法

  2. 在用Keras来实现CNN等一系列网络时,我们经常用ReLU作为激活函数,一般写法如下: from keras import layers from keras import models model = models.Sequential() model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1))) model.add(layers.MaxPooling2D((2, 2))) model.
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:99328
    • 提供者:weixin_38522253
  1. python 深度学习中的4种激活函数

  2. 这篇文章用来整理一下入门深度学习过程中接触到的四种激活函数,下面会从公式、代码以及图像三个方面介绍这几种激活函数,首先来明确一下是哪四种: Sigmoid函数 Tahn函数 ReLu函数 SoftMax函数 激活函数的作用 下面图像A是一个线性可分问题,也就是说对于两类点(蓝点和绿点),你通过一条直线就可以实现完全分类。 当然图像A是最理想、也是最简单的一种二分类问题,但是现实中往往存在一些非常复杂的线性不可分问题,比如图像B,你是找不到任何一条直线可以将图像B中蓝点和绿点完
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:137216
    • 提供者:weixin_38502510
  1. pytorch方法测试——激活函数(ReLU)详解

  2. 测试代码: import torch import torch.nn as nn #inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出 m = nn.ReLU(inplace=True) input = torch.randn(7) print("输入处理前图片:") print(input) output = m(input) print("ReLU输出:") print(output) print("输出的尺度:") print(output.size()
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:33792
    • 提供者:weixin_38646706
  1. PyTorch学习笔记(三)定义各种卷积池化线性激活层

  2. Environment OS: macOS Mojave Python version: 3.7 PyTorch version: 1.4.0 IDE: PyCharm 文章目录0. 写在前面1. 卷积与转置卷积1.1 卷积层1.2 转置卷积层2. 池化与去池化2.1 池化层2.2 去池化层3. 线性连接4. 激活函数4.1 sigmoid4.2 tanh4.3 ReLU4.4 ReLU 的修改版们 0. 写在前面 本文记录一下使用 PyTorch 建立神经网络模型中各种层的定义方法,包括卷积
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:486400
    • 提供者:weixin_38706100
  1. tensorflow自定义激活函数实例

  2. 前言:因为研究工作的需要,要更改激活函数以适应自己的网络模型,但是单纯的函数替换会训练导致不能收敛。这里还有些不清楚为什么,希望有人可以给出解释。查了一些博客,发现了解决之道。下面将解决过程贴出来供大家指正。 1.背景 之前听某位老师提到说tensorflow可以在不给梯度函数的基础上做梯度下降,所以尝试了替换。我的例子时将ReLU改为平方。即原来的激活函数是 现在换成 单纯替换激活函数并不能较好的效果,在我的实验中,迭代到一定批次,准确率就会下降,最终降为10%左右保持稳定。而事实上,这中
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:67584
    • 提供者:weixin_38702047
  1. ReLU激活函数杂谈

  2. 在实现多层感知机代码实现中使用了ReLU激活函数: ReLU(x)=max(x,0)ReLU(x)=max(x,0)ReLU(x)=max(x,0) 形状大概是这样的 这里根据几个问题来进行回答解释 为什么要使用激活函数呢? 简单来说激活函数的作用就是将仿射函数进行非线性化,可以拟合出更多的情况。更详细的解答可以参考知乎激活函数的解释 ReLU函数的梯度问题 首先谈一下sigimoid函数的梯度,通常不选用它是因为sigmoid函数可能有梯度消失的情况,原因可以看它的梯度函数图 可以看到蓝色
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:60416
    • 提供者:weixin_38733333
  1. Neural-Network:mnist.pkl数据集的源码,并做了一些改进:反向传播由循环计算转换矢量化计算来大大提高速度; Sigmoid,cos,tanh等多个激活函数,同时也可以选择二次代价函数或交叉熵代价函数-源码

  2. 神经网络 编译环境:python3 由数据集mnist.pkl的源码修改而来 中间层的激活函数可以选为Sigmoid,cos,tanh,ReLU,输出层的激活函数为softmax代价函数可以选为二次代价函数和交叉熵代价函数 最后保存权重w和重置b
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:16777216
    • 提供者:weixin_42117150
  1. 二次激活函数:深度学习最终项目-源码

  2. ECE472(深度学习)最终项目 二次神经元作为深度神经网络中的激活功能 安德鲁·洛伯(Andrew Lorber)和马克·科斯科夫斯基(Mark Koszykowski) 摘要:我们的深度学习最终项目基于Yaparla Ganesh和Rhishi Pratap Singh在使用二次神经元进行模式分类的研究中进行的一项实验研究。 他们的论文讨论了使用二次(QUAD)神经元来构建二次神经网络,这与多层感知器(MLP)模型中熟悉的线性神经元相反。 本文展示了其二次神经元作为二次激活函数的用途。 在
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:1048576
    • 提供者:weixin_42172204
  1. 激活函数(ReLU、sigmoid、tanh)的简单理解

  2. ReLU函数 ReLU(rectified linear unit)函数提供了⼀个很简单的⾮线性变换。给定元素 ,该函数定义为: 可以看出,ReLU函数只保留正数元素,并将负数元素清零。函数图像如下图: 显然,当输⼊为负数时,ReLU函数的导数为0;当输⼊为正数时,ReLU函数的导数为1。尽管输⼊为0 时ReLU函数不可导,但是我们可以取此处的导数为0。绘制ReLU函数的导数图像: sigmoid函数 sigmoid函数可以将元素的值变换到0和1之间,函数定义: sigmoid函数在早期
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:148480
    • 提供者:weixin_38622125
« 12 3 4 »