您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Boosting方法在混合模型选择中的应用

  2. Boosting方法在混合模型选择中的应用,是一片有深度的对于Boosting算法的介绍
  3. 所属分类:其它

    • 发布日期:2009-08-31
    • 文件大小:1048576
    • 提供者:sunnyshinning
  1. 改进的AdaBoost分类器在视频中的体育场景检测

  2. 摘要:提出了一种使用改进的AdaBoost分类器来检测体育场景的方法。将电视新闻中的体育场景分为三类:草地运动,冰雪运动和人造场地运动。针对这几种不同的体育场景,提取颜色直方图、边缘方向直方图和共生矩阵纹理等3种低层视觉特征,然后用改进的可自动选择特征boosting方法为每一类体育场景分别建立AdaBoost分类器。该文提出的方法应用在国际视频处理评测TRECVID2003中的“体 育场景”语义特征抽取任务上,取得了很好的效果。
  3. 所属分类:专业指导

    • 发布日期:2010-06-17
    • 文件大小:115712
    • 提供者:zpp100
  1. 集成学习(Bagging ,Boosting ,AdaBoost) PPT

  2. 集成学习Bagging ,Boosting等介绍的PPT。集成方法是构建一种对单个分类器进行集成的学习算法,将各分类器的分类结果以一定的方式集成起来实现对新数据点进行分类,其中单个分类器是独立的且不要求分类精度很高。通过这种方式,大大提高了集成系统的性能。
  3. 所属分类:专业指导

  1. 基于Boosting算法的人脸识别方法研究

  2. 在Boosting算法 中,我们将分类任务划分成多个子分类器,每个子分类器专注于一些难分类的样 本,然后组合这些子分类器形成一个强的分类器。
  3. 所属分类:其它

    • 发布日期:2008-08-28
    • 文件大小:2097152
    • 提供者:mayongfeifei
  1. BOOSTING分类器

  2. Boosting, 也称为增强学习或提升法 , 是一种重要的集成学习技术 , 能够将预测精度仅比随 机猜度略高的弱学习器增强为预测精度高的强学习器 , 这在直接构造强学习器非常困难的 情况下 , 为学习算法的设计提供了一种有效的新思路和新方法 . 作为一种元算法框架 , Boosting 几乎可以应用于所有目前流行的机器学习算法以进一步加强原算法的预测精度 , 应用十分广泛 , 产生了极大的影响 . 而 AdaBoost 正是其中最成功的代表 , 被评为数据挖掘 十大算法之一
  3. 所属分类:专业指导

    • 发布日期:2015-03-20
    • 文件大小:515072
    • 提供者:yinghuochong819
  1. Boosting方法的理论研究

  2. Boosting方法的理论研究,CCF优博论文,值得拥有
  3. 所属分类:教育

    • 发布日期:2015-11-03
    • 文件大小:1048576
    • 提供者:u010933359
  1. online boosting and vision

  2. 本文系统地分析了整个人脸检测算法的核心单元——人脸检测器,自上而下将其划分成为三个功能相对独立的层次:检测器结构、强分类器和弱分类器。本文进一步在各个功能层次上提出了一系列行之有效的新方法.
  3. 所属分类:其它

    • 发布日期:2009-04-23
    • 文件大小:1030144
    • 提供者:conquerorjia
  1. XGBoost导读和实战--原理解析及源码、实战指导

  2. Scalable, Portable and Distributed Gradient Boosting (GBDT, GBRT or GBM) Library, for Python, R, Java, Scala, C++ and more. Runs on single machine, Hadoop, Spark, Flink and DataFlow 可扩展、移植、分布式的Gradient Boosting (GBDT, GBRT or GBM)库,适用于Python, R, Jav
  3. 所属分类:机器学习

    • 发布日期:2018-06-24
    • 文件大小:894976
    • 提供者:wustjk124
  1. Boosting方法-从AdaBoost到LightGBM

  2. Boosting方法-从AdaBoost到LightGBM,涵盖了adaboost xgboost lightgbm等经典boosting方法的原理详细介绍
  3. 所属分类:机器学习

    • 发布日期:2019-05-04
    • 文件大小:3145728
    • 提供者:cswingman
  1. 总结:Bootstrap(自助法),Bagging,Boosting(提升) - 简书.pdf

  2. 关于机器学习方面的集成算法,包括boosting和bagging,里面讲解详细,值得下载2019/4/27 总结: Bootstrap(白助法), Bagging, Boosting(提升)-简书 assiier 1 -9 Decition boundary Classifier 2 Decislon boundary 2 Classifier 3 o Decision boundary 3 ▲△▲ △6▲ Feature 1 Feature 1 Featur (∑ g Feature Ense
  3. 所属分类:机器学习

    • 发布日期:2019-10-13
    • 文件大小:2097152
    • 提供者:qq_15141977
  1. 基于Boosting-PLS回归的页岩总含气量预测方法

  2. 提出Boosting-PLS回归算法进行页岩总含气量的预测。提取最能反映含气性的密度、中子、铀、钍等测井信息,通过模型自动学习训练样本中输出曲线响应值与总含气量的响应关系,利用所得响应关系建立总含气量预测模型。
  3. 所属分类:其它

    • 发布日期:2020-06-12
    • 文件大小:210944
    • 提供者:weixin_38608379
  1. KaggleM5 Forecasting:传统预测方法与机器学习预测方法对比

  2. 本文的出发点在于比较传统预测方法和机器学习预测方法。 本文使用的数据集来自 kaggle:M5 Forecasting — Accuracy。 该数据集包含有 California、Texas、Wisconsin 三个州的产品类别、部门、仓储信息等。基于这些数据,需要预测接下来 28 天的每日销售量。 涉及到的方法有: 单指数平滑法 双指数平滑法 三指数平滑法 ARIMA SARIMA SARIMAX Light Gradient Boosting Random Forest Linear Re
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:529408
    • 提供者:weixin_38545117
  1. Ensemble-Methods----Boosting-using-Python:合奏方法-使用Python进行增强-源码

  2. 集成方法----使用Python进行增强 合奏方法-使用Python数据集进行增强:Pima-indians-diabetes.data
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:10240
    • 提供者:weixin_42181686
  1. 基于TLD 3D鱼追踪和XGBoost的水质监测方法

  2. 针对水质监测问题,提出了一种基于TLD(Tracking-Learning Detection)框架和XGBoost(eXtreme Gradient Boosting)的生物水质监测方法。 首先,在顶级域名(TLD)的框架下,设计了一个独立的跟踪系统; TLD基于视频捕获鱼的3D坐标信息,并通过处理鱼体的坐标信息来计算可以反映水质变化的鱼运动参数的行为。 通过数据处理,坐标信息的数据将更加突出。 基于特征参数的所有已建立的XGBoost水质监测模型的集成; 利用该模型对未知水质下的鱼类行为参数
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:3145728
    • 提供者:weixin_38660624
  1. 集成学习之bagging、boosting及AdaBoost的实现

  2. 前面博客分享,我们已经讲解了不少分类算法,有knn、决策树、朴素贝叶斯、逻辑回归、svm。我们知道,当坐重要决定时,大家可能都会考虑吸取多个专家而不是一个人的意见。机器学习处理问题时同样如此。集成学习(ensemblelearning)通过构建并结合多个学习器来完成学习任务,有时被称为多分类器学习系统、基于委员会的学习等。下图显示出集成学习的一般结构:先产生一组“个体学习器”,再用某种策略将它们结合起来。我们前面已经分享了五种不同的分类算法,我们可以将其用不同的分类器组合起来,这种组合结果则被称
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:352256
    • 提供者:weixin_38699784
  1. 8种用Python实现线性回归的方法

  2. 抛开涉及大量数统的模型分析和检验不说,你真的就能熟练应用线性回归了么?未必!时至今日,深度学习早已成为数据科学的新宠。即便往前推10年,SVM、boosting等算法也能在准确率上完爆线性回归。一方面,线性回归所能够模拟的关系其实远不止线性关系。线性回归中的“线性”指的是系数的线性,而通过对特征的非线性变换,以及广义线性模型的推广,输出和特征之间的函数关系可以是高度非线性的。另一方面,也是更为重要的一点,线性模型的易解释性使得它在物理学、经济学、商学等领域中占据了难以取代的地位。由于机器学习库s
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:297984
    • 提供者:weixin_38616505
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是:①弱分类器模型的形式②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集成(homogenousensembles)方法;而今天我将主要对一种目前在kaggl
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:474112
    • 提供者:weixin_38553478
  1. 集成学习总结&Stacking方法详解

  2. 本文来自于csdn,文章主要介绍了集成学习的几种方法和其相应的应用等相关内容。集成学习主要分为bagging,boosting和stacking方法。本文主要是介绍stacking方法及其应用。但是在总结之前还是先回顾一下继承学习。这部分主要转自网络。给定一个大小为n的训练集D,Bagging算法从中均匀、有放回地选出m个大小为n'的子集Di,作为新的训练集。在这m个训练集上使用分类、回归等算法,则可得到m个模型,再通过取平均值、取多数票等方法综合产生预测结果,即可得到Bagging的结果。加入
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:156672
    • 提供者:weixin_38612527
  1. 基于统计分析Boosting的复杂场景目标识别方法研究

  2. 基于统计分析Boosting的复杂场景目标识别方法研究
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:1030144
    • 提供者:weixin_38625559
  1. 一种有效的改进的提升方法,用于解决分类问题

  2. 在Adaboost算法的基础上,提出了一种改进的Boosting方法来解决分类问题。 此方法将示例的类标签预测为分类器集合的加权多数投票。 每个分类器是通过将给定的弱学习者应用于子样本(大小小于原始训练集的子样本)而获得的,该子样本是根据原始训练集上保持的概率分布从原始训练集中得出的。 在Adaboost中提出的重新加权方案中引入了一个参数,以更新分配给训练示例的概率,从而使算法比Adaboost更加准确。 在UCI资料库中可获得的合成数据集和一些实际数据集上的实验结果表明,该方法提高了Adab
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:704512
    • 提供者:weixin_38599712
« 12 3 4 5 »