您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. c++版神经网络实现

  2. c++版神经网络的实现,内部实现了矩阵运算,前向传播,反向传播的基本逻辑,使用的是交叉熵损失函数,二分类问题,数据集是64*64*3的猫的图片,已被展成12288向量存于txt文件中,由于数据量大训练时间可能较长
  3. 所属分类:深度学习

    • 发布日期:2018-06-19
    • 文件大小:10485760
    • 提供者:android_chunhui
  1. 统计学习方法_李航

  2. 统计学习是计算机及其应用领域的一门重要的学科。本书全面系统地介绍了统计学习的主要方法,特别是监督学习方法,包括感知机、k近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、em算法、隐马尔可夫模型和条件随机场等。除第1章概论和最后一章总结外,每章介绍一种方法。叙述从具体问题或实例入手,由浅入深,阐明思路,给出必要的数学推导,便于读者掌握统计学习方法的实质,学会运用。为满足读者进一步学习的需要,书中还介绍了一些相关研究,给出了少量习题,列出了主要参考文献。 《统计学习方法
  3. 所属分类:机器学习

  1. 理解交叉熵

  2. 问题:1、交叉熵CH(p,q)公式的p和q分别是随机变量X的两种分布吗?能这样描述吗:p和q是随机变量X的两个样本集。p和q的正确描述应该是怎样的?CH(p,q)就是Venn图里的I(X;Y)吗?交叉熵的值越大或越小说明了什么问题? 2、把交叉熵用在deep learning中的多分类损失函数时,为什么预测值和真实值(预测值和真实值相当于同一个随机变量的两种分布?)的交叉熵能够反映“判断模型对真实概率分布估计的准确程度”? 3、上图中tensorflow里交叉熵的实现:cross_ent =
  3. 所属分类:机器学习

    • 发布日期:2019-03-10
    • 文件大小:207872
    • 提供者:bitterchange
  1. pytorch实现softmax多重分类

  2. 代码清晰的说明使用pytorch实现多重分类, 有十个分类标签,用到的思路就是贝叶斯朴素分类器的思想,多分类问题参照BCELoss的函数表达式可变成loss(yhat, y) = -y*log(yhat),Torch.nn.EntropyLoss()交叉熵损失:包含softmax,log处理loss计算和非线性激活
  3. 所属分类:深度学习

    • 发布日期:2020-07-10
    • 文件大小:6144
    • 提供者:curse12
  1. 基于MSELoss()与CrossEntropyLoss()的区别详解

  2. 基于pytorch来讲 MSELoss()多用于回归问题,也可以用于one_hotted编码形式, CrossEntropyLoss()名字为交叉熵损失函数,不用于one_hotted编码形式 MSELoss()要求batch_x与batch_y的tensor都是FloatTensor类型 CrossEntropyLoss()要求batch_x为Float,batch_y为LongTensor类型 (1)CrossEntropyLoss() 举例说明: 比如二分类问题,最后一层输出的为2个值,比
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:68608
    • 提供者:weixin_38589812
  1. softmax及python实现过程解析

  2. 相对于自适应神经网络、感知器,softmax巧妙低使用简单的方法来实现多分类问题。 功能上,完成从N维向量到M维向量的映射 输出的结果范围是[0, 1],对于一个sample的结果所有输出总和等于1 输出结果,可以隐含地表达该类别的概率 softmax的损失函数是采用了多分类问题中常见的交叉熵,注意经常有2个表达的形式 经典的交叉熵形式:L=-sum(y_right * log(y_pred)), 具体 简单版本是: L = -Log(y_pred),具体 这两个版本在求导过
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:89088
    • 提供者:weixin_38752907
  1. 【Pytorch】BCELoss和BCEWithLogitsLoss损失函数详解

  2. 在Pytorch中,BCELoss和BCEWithLogitsLoss是一组常用的二元交叉熵损失函数,常用于二分类问题,其区别在于前者的输入为已进行sigmoid处理过的值,而后者为sigmoid函数11+exp⁡(−x)\frac{1}{1+\exp(-x)}1+exp(−x)1​中的xxx。 下面为一个简单的示例: import torch import torch.nn as nn predicts = torch.tensor([[0.4,0.7,1.2,0.3], [1.1,0.6,0
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:36864
    • 提供者:weixin_38513794
  1. 交叉熵损失函数原理详解

  2. 交叉熵损失函数原理详解 之前在代码中经常看见交叉熵损失函数(CrossEntropy Loss),只知道它是分类问题中经常使用的一种损失函数,对于其内部的原理总是模模糊糊,而且一般使用交叉熵作为损失函数时,在模型的输出层总会接一个softmax函数,至于为什么要怎么做也是不懂,所以专门花了一些时间打算从原理入手,搞懂它,故在此写一篇博客进行总结,以便以后翻阅。 交叉熵简介 交叉熵是信息论中的一个重要概念,主要用于度量两个概率分布间的差异性,要理解交叉熵,需要先了解下面几个概念。 信息量 信息奠基
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:183296
    • 提供者:weixin_38581308
  1. 分类问题损失函数 – 交叉熵

  2. 参考链接:https://zhuanlan.zhihu.com/p/61944055 信息熵: 表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望。熵越大,随机变量或系统的不确定性就越大。公式如下: 相对熵: 又称KL散度,用于衡量对于同一个随机变量x的两个分布p(x)和q(x)之间的差异。在机器学习中,p(x)从常用于描述样本的真实分布,而q(x)常用于表示预测的分布。KL散度值越小表示两个分布越接近。 公式如下: 交叉熵(cross entropy): 将KL散度公式进行变
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:124928
    • 提供者:weixin_38681218
  1. 肺癌手术后死亡率预测器:用于预测肺癌患者手术后预期寿命的二进制分类神经网络-源码

  2. 肺癌手术后死亡率预测因子 动机 基于医学数据的诊断膀胱炎存在的多元二元分类算法。 该数据是由医学专家创建的,用于测试专家系统的数据集,该系统将对两种泌尿系统疾病进行推定诊断。[1] 考虑到数据集的多变量性质[2],使用pandas cat.codes类对分类特征进行了一种热编码。 所有功能也通过sklearn的StandardScaler类进行了标准化。 神经网络拓扑和结果摘要 针对该分类问题,利用了二进制交叉熵损失函数和Adam优化器。 在大约70个时代之后,二元分类器在膀胱炎诊断中的准
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:1024
    • 提供者:weixin_42103587
  1. 人脸表情识别技术-源码

  2. 人脸表情识别技术 面部表情识别分为以下任务: 任务1:简介和概述介绍项目的数据和概述。 查看在该项目结束时将要构建的最终产品的演示。 Rhyme介面简介。 从NumPy,Matplotlib和Keras导入基本模块和辅助函数。 任务2:浏览数据集显示Emotion FER数据集中每种表达类型的一些图像。 检查训练数据中的班级不平衡问题。 任务3:生成训练和验证批次通过实时数据增强生成张量图像数据的批次。 指定训练和验证图像目录的路径,并生成一批扩充数据。 任务4:创建卷积神经网络(CNN
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:16777216
    • 提供者:weixin_42138788
  1. 防止模型过拟合的标签平滑技术

  2. 1.softmax交叉熵损失的数学公式 设存在一个三分类问题,样本经模型最后的FC层的输出向量(即logits)为 则3个类别的预测概率依次为 假设样本的概率分布为 此时,交叉熵损失函数为 2.softmax交叉熵损失的计算实例 import numpy as np def softmax(x): exp_x = np.exp(x) softmax_x = exp_x / np.sum(exp_x) return softmax_x def loss(y, y_p
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:45056
    • 提供者:weixin_38733382
  1. 《动手学深度学习》Task03-Task05

  2. 过拟合、欠拟合及其解决方案 训练误差:模型在训练数据集上表现出的误差。 泛化误差:模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似——机器学习模型应关注降低泛化误差。 损失函数 (1)平方损失函数 (2)交叉熵损失函数(CrossEntropy Loss)——度量两个概率分布间的差异性,在机器学习中表示为样本的真实分布和模型所预测的分布之间的差异,反复训练使预测分布接近真实分布。 交叉熵公式: 其中p为真实概率分布,q为预测概率分布。交叉熵在分类问题中常常与so
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:519168
    • 提供者:weixin_38699492
  1. [Machine Learning] 交叉熵损失函数 v.s. 平方损失函数(CrossEntropy Loss v.s. Square Loss)

  2. 思考 我们会发现,在机器学习实战中,做分类问题的时候经常会使用一种损失函数(Loss Function)——交叉熵损失函数(CrossEntropy Loss)。但是,为什么在做分类问题时要用交叉熵损失函数而不用我们经常使用的平方损失函数呢? 这时候就应该想一下,损失函数需要做什么?怎样的损失函数才是最合适的? 一般而言,我们都希望损失函数能够做到,当我们预测的值跟目标值越远时,在更新参数的时候,应该减去一个更大的值,做到更快速的下降,并且不容易遇到陷入局部最优、鞍点以及平坦区域等问题。具体可看
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:87040
    • 提供者:weixin_38720256