您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. boosting学习算法的课件

  2. boosting学习算法的课件,适合入门者.
  3. 所属分类:其它

    • 发布日期:2010-09-07
    • 文件大小:197632
    • 提供者:liupengpeng2006
  1. 集成学习(Bagging ,Boosting ,AdaBoost) PPT

  2. 集成学习Bagging ,Boosting等介绍的PPT。集成方法是构建一种对单个分类器进行集成的学习算法,将各分类器的分类结果以一定的方式集成起来实现对新数据点进行分类,其中单个分类器是独立的且不要求分类精度很高。通过这种方式,大大提高了集成系统的性能。
  3. 所属分类:专业指导

  1. 一种新的不平衡数据学习算法PCBoost

  2. 不平衡数据学习资料,利用重采样和boosting技术分析不平衡数据
  3. 所属分类:专业指导

    • 发布日期:2014-01-30
    • 文件大小:526336
    • 提供者:lijun05
  1. 基于实例和特征的迁移学习算法研究

  2. Boosting for Transfer Learning作者的硕士学位论文,可以作为Boosting for Transfer Learning的补充材料学习,当中有很详细的公式推导,以及参数设计的理论支撑。是学习Transfer Learning的好资料。
  3. 所属分类:专业指导

    • 发布日期:2014-09-23
    • 文件大小:3145728
    • 提供者:linzhineng44
  1. BOOSTING分类器

  2. Boosting, 也称为增强学习或提升法 , 是一种重要的集成学习技术 , 能够将预测精度仅比随 机猜度略高的弱学习器增强为预测精度高的强学习器 , 这在直接构造强学习器非常困难的 情况下 , 为学习算法的设计提供了一种有效的新思路和新方法 . 作为一种元算法框架 , Boosting 几乎可以应用于所有目前流行的机器学习算法以进一步加强原算法的预测精度 , 应用十分广泛 , 产生了极大的影响 . 而 AdaBoost 正是其中最成功的代表 , 被评为数据挖掘 十大算法之一
  3. 所属分类:专业指导

    • 发布日期:2015-03-20
    • 文件大小:515072
    • 提供者:yinghuochong819
  1. 机器学习面试必会算法集合

  2. 机器学习面试必会算法集合,xgboost调参,boosting,LR,梯度下降,过拟合问题,HMM算法,FFM算法,SVD算法,SVM算法,决策树算法,随机森林算法等等
  3. 所属分类:机器学习

    • 发布日期:2018-05-14
    • 文件大小:11534336
    • 提供者:caibing12
  1. 大话Adaboost算法

  2. AdaBoost算法是一种集成学习(ensemble learning)方法。集成学习是机器学习中的一类方法,它对多个机器学习模型进行组合形成一个精度更高的模型,参与组合的模型称为弱学习器(weak learner)。在预测时使用这些弱学习器模型联合起来进行预测;训练时需要用训练样本集依次训练出这些弱学习器。典型的集成学习算法是随机森林和boosting算法,而AdaBoost算法是boosting算法的一种实现版本。
  3. 所属分类:机器学习

    • 发布日期:2018-06-26
    • 文件大小:428032
    • 提供者:sigai_csdn
  1. 集成学习boosting系列算法简述

  2. 集成学习boosting系列算法简述,主要是笔者自己在学习这块相关理论时的一些总结。
  3. 所属分类:机器学习

    • 发布日期:2018-11-05
    • 文件大小:14680064
    • 提供者:weixin_43609776
  1. 总结:Bootstrap(自助法),Bagging,Boosting(提升) - 简书.pdf

  2. 关于机器学习方面的集成算法,包括boosting和bagging,里面讲解详细,值得下载2019/4/27 总结: Bootstrap(白助法), Bagging, Boosting(提升)-简书 assiier 1 -9 Decition boundary Classifier 2 Decislon boundary 2 Classifier 3 o Decision boundary 3 ▲△▲ △6▲ Feature 1 Feature 1 Featur (∑ g Feature Ense
  3. 所属分类:机器学习

    • 发布日期:2019-10-13
    • 文件大小:2097152
    • 提供者:qq_15141977
  1. 经典机器学习算法优缺点比较.docx

  2. 决策树,朴素贝叶斯,Logistic回归,KNN,Libsvm/liblinear,boosting,GDBT(MART)迭代决策树等优缺点比较
  3. 所属分类:教育

    • 发布日期:2020-07-28
    • 文件大小:13312
    • 提供者:zjh123zjh123
  1. 机器学习 算法基础 七 XGBoost

  2. XGBoost is an optimized distributed gradient boosting library designed to be highly efficient, flexible and portable. It implements machine learning algorithms under the Gradient Boosting framework. XGBoost provides a parallel tree boosting (also kno
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:290816
    • 提供者:weixin_38650508
  1. 集成学习算法

  2. 集成学习算法集成学习的基本原理BaggingBoosting随机森林 集成学习的基本原理 Bagging Boosting 随机森林 随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。该分类器最早由Leo Breiman和Adele Cutler提出,并被注册成了商标。 随机森林相对于Bagging,既对样本做随机,又对变量做随机。 随机森林的优点: 1)对于很多种资料,它可以产生高准确度的分类器; 2)它可以处理大量的输入变数; 3)它可以在决定类别时,评估变数的重要性; 4)
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:356352
    • 提供者:weixin_38653085
  1. Markov-Miml:基于Markov链的多实例多标签学习算法

  2. 本文的主要目的是提出一种高效,新颖的基于马尔可夫链的多实例多标签(Markov-Miml)学习算法,以评估与多个实例的对象相关的一组标签的重要性。 该算法计算标签的等级以指示一组标签对对象的重要性。 我们的方法是利用实例和对象标签之间的关系。 对象的类标签的等级取决于(i)该对象的实例袋与其他对象的实例袋之间的亲和度度量,以及(ii)相似对象的类标签的等级。 一个对象,其中包含一袋实例,这些实例与具有特定等级标签的高等级的其他对象的实例袋高度相似,该对象将获得该等级标签的高等级。 对基准数据的实
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:913408
    • 提供者:weixin_38695159
  1. 机器学习算法Boosting

  2. 本文来自于标点符网站,本文将详细介绍机器学习中的两大类:监督学习和非监督学习,以及最主要的三种集成学习框架,希望对您的学习有所帮助。机器学习通常会被分为2大类:监督学习和非监督学习。在监督学习中,训练数据由输入和期望的输出组成,然后对非训练数据进行预测输出,也就是找出输入x与输出y之间的函数关系F:y=F(x)。根据输出的精确特性又可以分为分类和回归。分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测。定性输出称为分类,或者说是离散变量预测。举个例子:预测明天的气温是多少
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:829440
    • 提供者:weixin_38653040
  1. R数据分析之AdaBoost算法

  2. Boosting算法是简单有效、易使用的建模方法。AdaBoost(自适应提升算法)通常被称作世界上现成的最好分类器。Boosting算法使用其他的弱学习算法建立多个模型,对数据集中对结果影响较大的对象增加权重,一系列的模型被创建,然后调整那些影响分类的模型的对象权重值,实际上,模型的权重值从一个模型到另一个模型震荡。最后的模型由一系列的模型组合而成,每个模型的输出都根据相应的成绩被赋予权重值。我们注意到,如果数据失效或者弱分类器过于复杂都会导致boosting失败。Boosting有些类似于随
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:375808
    • 提供者:weixin_38705014
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是:①弱分类器模型的形式②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集成(homogenousensembles)方法;而今天我将主要对一种目前在kaggl
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:474112
    • 提供者:weixin_38553478
  1. basicMLpy:实现简单有效的机器学习算法和技术的软件包-源码

  2. 基本MLpy basicMLpy是一个实现简单机器学习算法的软件包。 它目前包含七个模块,这些模块实施了多种机器学习技术以进行监督学习。 basicMLpy.regression模块包含以下功能: 线性回归 岭回归 basicMLpy.classification模块包含以下功能: 通过IRLS(迭代加权最小二乘)算法进行多类分类 basicMLpy.nearest_neighbors模块包含以下功能: K最近邻算法的实现,可以同时满足分类和回归问题 basicMLpy.model_se
  3. 所属分类:其它

    • 发布日期:2021-02-19
    • 文件大小:15360
    • 提供者:weixin_42100032
  1. MLDemo:此仓库是所有与机器学习相关的项目代码及其研究生级别的博客文章-源码

  2. HEXO个人博客地址: 机器学习练手代码 描述:主要包括机器学习的基础算法的实现,相关竞赛代码,论文和项目复现代码。 1毫升 1.1决策树相关算法 - 本篇博客记录的是使用python实现两个决策树相关的算法模型-ID3,C4.5。其中训练模型使用的数据集是成人。 本篇博客主要记录的是基于CART决策树实现的随机森林算法,主要是从以下四个方面介绍:CART决策树的重构思想;集成学习中的包容思想;基于CART决策树的随机森林代码实现; (其中不易过拟合并不是说随机森林不会过拟合) 本篇博客主要记录
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:68157440
    • 提供者:weixin_42166623
  1. 机器学习算法Boosting

  2. 本文来自于标点符网站,本文将详细介绍机器学习中的两大类:监督学习和非监督学习,以及最主要的三种集成学习框架,希望对您的学习有所帮助。机器学习通常会被分为2大类:监督学习和非监督学习。在监督学习中,训练数据由输入和期望的输出组成,然后对非训练数据进行预测输出,也就是找出输入x与输出y之间的函数关系F:y =F(x)。根据输出的精确特性又可以分为分类和回归。分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测。 定性输出称为分类,或者说是离散变量预测。
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:827392
    • 提供者:weixin_38614268
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。 集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是: ①弱分类器模型的形式 ②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:473088
    • 提供者:weixin_38638596
« 12 3 4 5 »