您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. L0、L1、L2正则化介绍

  2. L0、L1、L2正则化介绍
  3. 所属分类:机器学习

    • 发布日期:2017-06-01
    • 文件大小:135168
    • 提供者:m0_38135319
  1. 逻辑回归L2正则化预测模型

  2. 该代码是主要基于tensorflow框架下的逻辑回归模型,使用经典的梯度下降算法来最小化误差,加了L2正则化以减小过拟合。主要是针对没有测试集的数据,利用五折交叉验证并重复十次来计算AUC值,以评估模型。
  3. 所属分类:机器学习

    • 发布日期:2018-11-06
    • 文件大小:4096
    • 提供者:qq_40050778
  1. 正则化_过拟合.docx

  2. 该文档包含了过拟合产生的原因,解决方法,以及为什么引入正则化,L1和L2的区别、L1为什么产生稀疏矩阵等等,欢迎下载
  3. 所属分类:机器学习

    • 发布日期:2019-05-24
    • 文件大小:114688
    • 提供者:qq_24729325
  1. TensorFlow keras卷积神经网络 添加L2正则化方式

  2. 主要介绍了TensorFlow keras卷积神经网络 添加L2正则化方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:74752
    • 提供者:weixin_38681736
  1. tensorflow使用L2 regularization正则化修正overfitting过拟合方式

  2. 主要介绍了tensorflow使用L2 regularization正则化修正overfitting过拟合方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:226304
    • 提供者:weixin_38522106
  1. tensorflow使用L2 regularization正则化修正overfitting过拟合方式

  2. L2正则化原理: 过拟合的原理:在loss下降,进行拟合的过程中(斜线),不同的batch数据样本造成红色曲线的波动大,图中低点也就是过拟合,得到的红线点低于真实的黑线,也就是泛化更差。 可见,要想减小过拟合,减小这个波动,减少w的数值就能办到。 L2正则化训练的原理:在Loss中加入(乘以系数λ的)参数w的平方和,这样训练过程中就会抑制w的值,w的(绝对)值小,模型复杂度低,曲线平滑,过拟合程度低(奥卡姆剃刀),参考公式如下图: (正则化是不阻碍你去拟合曲线的,并不是所有参数都会被无脑抑制
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:100352
    • 提供者:weixin_38712899
  1. tensorflow使用L2 regularization正则化修正overfitting过拟合方式

  2. L2正则化原理: 过拟合的原理:在loss下降,进行拟合的过程中(斜线),不同的batch数据样本造成红色曲线的波动大,图中低点也就是过拟合,得到的红线点低于真实的黑线,也就是泛化更差。 可见,要想减小过拟合,减小这个波动,减少w的数值就能办到。 L2正则化训练的原理:在Loss中加入(乘以系数λ的)参数w的平方和,这样训练过程中就会抑制w的值,w的(绝对)值小,模型复杂度低,曲线平滑,过拟合程度低(奥卡姆剃刀),参考公式如下图: (正则化是不阻碍你去拟合曲线的,并不是所有参数都会被无脑抑制
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:100352
    • 提供者:weixin_38556822
  1. 为什么正则化能够解决过拟合问题?

  2. 为什么正则化能够解决过拟合问题一. 正则化的解释二. 拉格朗日乘数法三. 正则化是怎么解决过拟合问题的1. 引出范数1.1 L_0范数1.2 L_1范数1.3 L_2范数2. L_2范式正则项如何解决过拟合问题2.1 公式推导2.2 图像推导[^2]2.2.1 L1正则化2.2.2 L2正则化四. 结论 如果觉得不想看前两大点,可以直接看第三点公式推导或图像观察,个人觉得特别好理解。 一. 正则化的解释 为防止模型过拟合,提高模型的泛化能力,通常会在损失函数的后面添加一个正则化项。 L1正则
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:264192
    • 提供者:weixin_38604395
  1. 通信辐射源个体识别中的基于l2正则化的最大相关熵方法

  2. 通信辐射源个体识别中的基于l2正则化的最大相关熵方法
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:534528
    • 提供者:weixin_38500664
  1. 基于正则化的与说话人相关的本机矩阵估计的说话人自适应

  2. 在有足够的适应性数据时,基于本机的说话人适应优于传统的最大似然线性回归(MLLR)和本征语音方法。 然而,当仅提供几秒钟的适配数据时,它会遭受严重的过度拟合。 在本文中,研究了各种正则化方法以获得更健壮的依赖于说话者的本征电话矩阵估计。 逐元素的l1范数正则化(称为套索)鼓励本征电话矩阵稀疏,从而减少了有效自由参数的数量并提高了泛化能力。 平方的l2范数正则化促进估计矩阵向零方向逐元素收缩,从而减轻了过度拟合的情况。 按列的非平方l2范数正则化(称为组套索)在列级别上像套索一样起作用,从而鼓励了
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:287744
    • 提供者:weixin_38623080
  1. L1-L2空间层析成像的空间自适应正则化方法

  2. L1-L2空间层析成像的空间自适应正则化方法
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:618496
    • 提供者:weixin_38732343
  1. 具有l2,1-范数正则化的随机傅立叶极限学习机

  2. 具有l2,1-范数正则化的随机傅立叶极限学习机
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:728064
    • 提供者:weixin_38622427
  1. 借助向量离群值正则化重新审视L2,1-范数鲁棒性

  2. 借助向量离群值正则化重新审视L2,1-范数鲁棒性
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:2097152
    • 提供者:weixin_38645373
  1. 通过具有L2,1正则化的加权非负矩阵分解实现多个不完整视图聚类

  2. 随着技术的进步,数据通常具有多种形式或来自多种来源。 多视图聚类为从此类数据生成聚类提供了一种自然的方式。 尽管多视图聚类已经成功地应用于许多应用程序中,但是大多数以前的方法都假定每个视图的完整性(即,每个实例都出现在所有视图中)。 但是,在现实世界的应用程序中,通常有许多视图可供学习,但没有一个是完整的。 所有视图的不完整和可用视图的数量使得难以集成所有不完整的视图并获得更好的群集解决方案。 在本文中,我们提出了MIC(多不完整视图聚类)算法,该算法基于具有L2,1正则化的加权非负矩阵分解。
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:475136
    • 提供者:weixin_38718413
  1. 使用Sigma-Pi-Sigma神经网络的带有L2正则化器的在线反向传播算法收敛分析的宽松条件。

  2. 使用Sigma-Pi-Sigma神经网络的带有L2正则化器的在线反向传播算法收敛分析的宽松条件。
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:790528
    • 提供者:weixin_38691970
  1. 具有广义正则化与遗忘机制的在线贯序超限学习机

  2. 针对非平稳时间序列预测问题, 提出一种具有广义正则化与遗忘机制的在线贯序超限学习机算法. 该算法以增量学习新样本的方式实现在线学习, 以遗忘旧的失效样本的方式增强对非平稳系统的动态跟踪能力, 并通过引入一种广义的l2 正则化使其具有持续的正则化功能,从而保证算法的持续稳定性. 仿真实例表明,所提出算法具有较同类算法更好的稳定性和更小的预测误差,适用于具有动态变化特性的非平稳时间序列在线建模与预测.
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:494592
    • 提供者:weixin_38575421
  1. L1正则化Logistic回归在财务预警中的应用

  2. 线性模型和广义线性模型已广泛地用于社会经济、生产实践和科学研究中的数据分析和数据挖掘等领域,如公司财务预警,引入L1范数惩罚技术的模型在估计模型系数的同时能实现变量选择的功能.本文将L1范数正则化Logistic回归模型用于上市公司财务危机预报,结合沪深股市制造业ST公司和正常公司的T-2年财务数据开展实证研究,对比Logistic回归和L2正则化Logistic回归模型进行对比分析.实验结果表明L1正则化Logistic回归模型的有效性,其在保证模型预测精度的同时提高模型的解释性. 更多还原
  3. 所属分类:其它

    • 发布日期:2021-03-01
    • 文件大小:262144
    • 提供者:weixin_38609247
  1. 房屋价格预测:采用L2正则化的线性回归-源码

  2. 房屋价格预测 内容 客观的: 使用L2正则化构建线性回归,该线性回归可用于基于一组功能来预测房屋的价格。 深入了解学习率和正则化超参数对模型性能的影响。 数据: 该数据集由2014年5月至2015年5月之间售出房屋的历史数据组成,其中有两个数据文件:培训(10,000个示例)和开发(5597个示例) 该数据集由23个特征(包括虚拟对象)组成。 最后一个是预测目标。 变量说明数据类型 虚拟[数字]:1 id [数字]:房屋符号 date [string]:日期房屋已售出。 分为3类:每月
  3. 所属分类:其它

    • 发布日期:2021-02-28
    • 文件大小:7340032
    • 提供者:weixin_42118011
  1. 使用保留细节的正则化去除混合脉冲和高斯噪声

  2. 多年来,提出了许多方法分别用于恢复因脉冲噪声或高斯噪声。 然而,由于两者的独特性类型的降解过程,没有太多的工作要做有效去除图像中的混合噪点,这是一个普遍存在的问题在实践中发现。 为了缓解此问题,我们提出了一种两阶段方法基于脉冲检测器和保留细节的正则化。 我们使用检测器来识别脉冲噪声,然后恢复并同时平滑剩余的高斯噪声关于正则化框架。 可以自适应模拟的新颖错误规范正则化过程中使用传统的l1和l2规范。 这适应性使我们的方法能够普遍删除各种程度的脉冲噪声和混合噪声,同时保持精细图像细节很好。 已经进行
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:693248
    • 提供者:weixin_38531210
  1. 神经网络正则化技术:在本研究中,我们将使用平衡的EMNIST数据集探索可用于解决给定神经网络体系结构过拟合问题的不同正则化方法-源码

  2. 在平衡的EMNIST数据集上训练的简单神经网络体系结构上对正则化技术的评估 在这项研究中,我们将探索使用平衡的EMNIST数据集的不同正则化方法,这些方法可用于解决给定神经网络架构中的过拟合问题。 我们将首先通过更改网络的隐藏单元数(宽度)和隐藏层数(深度)来确定问题,以便了解过拟合对不同网络形状的影响。 随后,我们将进行不同的实验,以了解如何解决将固定的架构和超参数的基准模型添加Dropout,L1和L2正则化的初始问题。 这些实验都将与“基线模型”进行比较,以找到为基线模型提供最高准确度和最
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:5242880
    • 提供者:weixin_42101720
« 12 3 4 5 6 7 »