您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Tensorflow实现一个简单的CNN

  2. Tensorflow实现一个简单的CNN,含3层卷积池化层,2层全连接层,激活函数ReLU,采用dropout和softmax函数做分类器
  3. 所属分类:深度学习

    • 发布日期:2018-07-26
    • 文件大小:5242880
    • 提供者:jesmine_gu
  1. tensorflow操作mnist数据集源代码

  2. 包括mnist数据集文件,输入数据的python代码,深度分类mnist代码,softmax函数代码以及整合的内含详细代码解释的mnist_with_summaries代码
  3. 所属分类:深度学习

    • 发布日期:2018-12-10
    • 文件大小:13631488
    • 提供者:qq_38293329
  1. AI学习知识点.xmind

  2. *AI学习知识点* 1. 基础知识 概率论 微积分与逼近论 极限、微分、积分的基本概念 利用逼近的思想理解微积分,利用积分的方式理解概率论 概率论的基础 古典模型 常见的概率分布 大数定理和中心极限定理 协方差和相关系数 最大似然估计和最大后验估计 凸优化 凸优化的基本概念 凸函数 凸集 凸优化问题的标准形式 线性代数及矩阵 线性空间及线性变化 矩阵的基本概念 状态转移矩阵 特征
  3. 所属分类:Python

    • 发布日期:2019-07-15
    • 文件大小:240640
    • 提供者:lingfeian
  1. TensorFlow实现多层感知机.py

  2. 本代码是在TensorFlow实现softmax regression模型之后的优化,增加了一层隐含层来提高拟合度,并使用dropout减轻过拟合、自适应学习速率的Adagrad,以及可以解决梯度弥散的激活函数ReLU。 本代码按照《TensorFlow实战》码的,但是准确率并没有书上说的那么好,目前还不知道什么原因,希望大家提出建议,谢谢!
  3. 所属分类:深度学习

    • 发布日期:2020-03-30
    • 文件大小:2048
    • 提供者:weixin_46656964
  1. Keras中文文档.pdf

  2. Keras官方文档PDF版,带书签,一共307页,完整版,目前最好的版本!欢迎下载!model train on batch(x batch, y batch) 只需一行代码就能评估模型性能: loss and metrics modelevaluate(x test, y test, batch size=128) 或者对新的数据生成预测: classes =model predictx test, batch size=128) 构建一个问答系统,一个图像分类模型,一个神经图灵机,或者其他的
  3. 所属分类:深度学习

    • 发布日期:2019-09-03
    • 文件大小:12582912
    • 提供者:dzgybd
  1. 关于tensorflow softmax函数用法解析

  2. 主要介绍了关于tensorflow softmax函数用法解析,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:57344
    • 提供者:weixin_38524472
  1. 关于tensorflow softmax函数用法解析

  2. 如下所示: def softmax(logits, axis=None, name=None, dim=None): """Computes softmax activations. This function performs the equivalent of softmax = tf.exp(logits) / tf.reduce_sum(tf.exp(logits), axis) Args: logits: A non-empty `Tensor`. Must be one
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:59392
    • 提供者:weixin_38677044
  1. TensorFlow打印tensor值的实现方法

  2. 最近一直在用TF做CNN的图像分类,当softmax层得到预测结果后,我希望能够看到预测结果,以便和标签之间进行比较。特此补上,以便自己记忆。 我现在通过softmax层得到变量train_logits,如果我直接执行print(train_logits)时,得到的结果如下(因为我是134类分类,所以结果是(1,134)维): 这貌似什么都看不出来。 其实tensorflow提供输出中间值方法方便debug。 这个函数就是[tf.Print]。 tf.Print( input_, data,
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:77824
    • 提供者:weixin_38727567
  1. tensorflow实现softma识别MNIST

  2. 识别MNIST已经成了深度学习的hello world,所以每次例程基本都会用到这个数据集,这个数据集在tensorflow内部用着很好的封装,因此可以方便地使用。 这次我们用tensorflow搭建一个softmax多分类器,和之前搭建线性回归差不多,第一步是通过确定变量建立图模型,然后确定误差函数,最后调用优化器优化。 误差函数与线性回归不同,这里因为是多分类问题,所以使用了交叉熵。 另外,有一点值得注意的是,这里构建模型时我试图想拆分多个函数,但是后来发现这样做难度很大,因为图是在规定变量
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:47104
    • 提供者:weixin_38517122
  1. Tensorflow学习实战之多层神经网络mnist手写识别

  2. Tensorflow学习实战之多层神经网络mnist手写识别数据准备构建模型训练模型评估结果可视化显示输出错误预测 激活函数: sigmod函数为s型 relu为修正线性单元函数 tanh双曲正切 这里使用的relu激活函数,输出使用softmax多分类,中间使用了3层隐藏层,优化器使用AdamOptimizer,损失函数定义loss_function=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=forward,la
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:475136
    • 提供者:weixin_38611527
  1. 深度学习入门笔记(一)

  2. 单个神经元网络 简化表示 正向传播:W*X+B=y W,B为参数,X为样本值,y为预测值,Y为标签值 反向传播:根据差值标签值Y-预测值y,对W和B进行相应的调整。 循环往复进行 softmax分类算法 得出分别为y1,y2,y3的概率 tensorflow代码:tf.nn.softmax(logits,name=None) 损失函数(即标注中差值的计算) 均值平方差 适用范围:输入为实数,*的值 tensorflow代码: MSE=tf.reduce_mean(tf.square(input
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:225280
    • 提供者:weixin_38664159
  1. tf API:网络构建模块tf.nn,tf.layers, tf.contrib

  2. 在使用tensorflow构建神经网络时,经常看到tf.nn,tf.layers,tf.contrib这三个模块,它们有很多函数的功能是相同的,部分可以混用,这就导致使用者很容易被迷惑,本文在此做一下笔记以理清思路。 tf.nn:用于原始神经网络(NN)操作的包装程序,属于基础操作,常见包括卷积(conv、conv_transpose、dilation2D、separable_conv)、池化(avg_pool,max_pool)、归一化(batch_normalization)、部分loss(
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:93184
    • 提供者:weixin_38637580
  1. nanonn:神经网络的纳米框架-源码

  2. 纳诺 NanoNN是用于神经网络的纳米框架。 或者,如果您愿意,可以使用不同的编程语言来收集玩具神经网络的实现。 它绝不是Tensorflow或PyTorch的替代品,但您可能会发现此项目对业余项目,嵌入式系统和教学目的很有用。 没有什么比可以玩的玩具代码更好的教了。 特征 顺序前馈神经网络。 完全连接的密集层。 各种激活函数:S型,SoftMax,ReLU,漏泄的ReLU和线性,可选偏差,可定制的成本函数。 可以从外部(即从训练有素的Tensorflow模型)导入每层的权重和偏差。
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:437248
    • 提供者:weixin_42168902
  1. CNN-Numpy-Implementation:手动实现卷积神经网络,而无需使用诸如pytorch和tensorflow之类的现代库-源码

  2. CNN-Numpy-实施 手动实现卷积神经网络,而无需使用诸如pytorch和tensorflow之类的现代库。 换句话说,我从头开始构建了一个神经网络,其中涉及实现正向和反向传播。 我手动编写了反向传播代码,并使用numpy手动实现了每一层的偏导数。 我在这里使用的方程式示例可以在这里找到。 E.Bendersky(2016年10月28日)。 Softmax函数及其导数。 取自 我最完善,最成功的网络是跟踪多个功能的多元回归CNN。 它可以正确确定两个图像之间的形状数量差异以及是否存在反射
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:321912832
    • 提供者:weixin_42099936
  1. deeplearning-models:深度学习模型的实现-源码

  2. 深度学习模型 该存储库是使用DeepLearning.ai Specialization的Knowlegde实现的模型的集合。 演算法 深度神经网络 使用Numpy向量化实现。 使用Xavier初始化网络权重。 激活功能: 隐藏层:泄漏的ReLU 输出层:S形 包括使用梯度下降或Adam优化进行的brackpropagation。 后者使用迷你批处理。 TensorFlow深层神经网络 用TensorFlow 1实施 Xavier初始化用于网络权重,Adam优化和迷你批处理。 激活功能
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:21504
    • 提供者:weixin_42138788
  1. Relation_Extraction:使用深度学习(CNN)进行关系提取-源码

  2. 关系提取 卷积神经网络的关系分类 该代码是使用tensorflow的论文的实现。 ##算法 我几乎遵循了上面提到的论文中使用的技术,只调整了一些参数,例如字向量的尺寸,位置向量,优化函数等。 基本体系结构是卷积层,最大池和最终softamx层。 我们总是可以在输入层和最终的softmax层之间添加/删除conv和max-pool层的数目。 我只使用了1个转换和1个最大池。 ##文件 text_cnn.py-这是一个实现模型体系结构的类。 因此,它接受输入,包含所有层,例如conv2d (卷
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:1048576
    • 提供者:weixin_42098251
  1. TextClassification-Keras:在Keras中实现的文本分类模型,包括:FastText,TextCNN,TextRNN,TextBiRNN,TextAttBiRNN,HAN,RCNN,RCNNVariant等-源码

  2. TextClassification-Keras 这个代码库实现了一个各种深学习模型使用Keras框架,其中包括文本分类:FastText,TextCNN,TextRNN,TextBiRNN,TextAttBiRNN,韩,RCNN,RCNNVariant等除了模型实现,简化应用程序包括在内。 指导 环境 Python 3.7 NumPy 1.17.2 Tensorflow 2.0.1 用法 所有代码都位于目录/model ,每种模型都有对应的目录,其中放置了模型和应用程序。 例如,Fas
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:1048576
    • 提供者:weixin_42123191
  1. Python3初学者的机器学习:为机器学习的入门者提供多种基于实例的sklearn,TensorFlow以及自编函数(AnFany)的ML算法程序-源码

  2. Python3初学者机器学习 为机器学习的入门者提供多种基于实例的sklearn,TensorFlow以及自编函数(AnFany)的ML算法程序。只要数据格式和示例的中的一样,程序可灵活调用。 入门篇 线性回归(Linear Regression) 实例: 逻辑回归(Logistic Regression) 实例: Softmax回归(Softmax回归) 实例: Kmeans ++群集(K均值++聚类) 实例: 初级篇 理论推导 实例 北京市Pm2.5预测 成年人收入分类和Mnist手写数字识
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:30408704
    • 提供者:weixin_42138703
  1. TensorFlow实现MLP多层感知机模型

  2. 一、多层感知机简介 Softmax回归可以算是多分类问题logistic回归,它和神经网络的最大区别是没有隐含层。理论上只要隐含节点足够多,即时只有一个隐含层的神经网络也可以拟合任意函数,同时隐含层越多,越容易拟合复杂结构。为了拟合复杂函数需要的隐含节点的数目,基本上随着隐含层的数量增多呈指数下降的趋势,也就是说层数越多,神经网络所需要的隐含节点可以越少。层数越深,概念越抽象,需要背诵的知识点就越少。在实际应用中,深层神经网络会遇到许多困难,如过拟合、参数调试、梯度弥散等。 过拟合是机器学习中的
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:90112
    • 提供者:weixin_38716590
  1. tensorflow 分类损失函数使用小记

  2. 多分类损失函数 label.shape:[batch_size]; pred.shape: [batch_size, num_classes] 使用 tf.keras.losses.sparse_categorical_crossentropy(y_true, y_pred, from_logits=False, axis=-1) – y_true 真实值, y_pred 预测值 – from_logits,我的理解是,如果预测结果经过了softmax(单次预测结果满足和为1)就使用设为`F
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:37888
    • 提供者:weixin_38699613
« 12 »