您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Boosting原理及应用

  2. 关于机器学习中boosting算法的详细介绍,适合入门级的同学
  3. 所属分类:其它

    • 发布日期:2009-10-16
    • 文件大小:769024
    • 提供者:azaaza1111
  1. 机器学习数学基础

  2. 大纲 • 涵盖由浅入深的一系列机器学习技术 • 将会学到: o PCA, MDS, K-mean, 基于频谱的聚类方法,贝叶斯分类,boosting, logistic回归,决策树,EM算法,隐马尔可夫模型,卡尔曼滤波…… • 讲述算法、理论、应用背后的故事 • 将会既有趣又辛苦 大纲 • 涵盖由浅入深的一系列机器学习技术 • 将会学到: o PCA, MDS, K-mean, 基于频谱的聚类方法,贝叶斯分类,boosting, logistic回归,决策树,EM算法,隐马尔可夫模型,卡尔曼滤
  3. 所属分类:专业指导

    • 发布日期:2013-06-13
    • 文件大小:3145728
    • 提供者:u011055553
  1. The Boosting Approach to Machine Learning An Overview

  2. 机器学习:Ada boost算法简介,推倒,应用
  3. 所属分类:互联网

    • 发布日期:2013-10-27
    • 文件大小:192512
    • 提供者:u012259202
  1. A Short Introduction to Boosting

  2. 机器学习:Ada boost算法简介,推倒,应用
  3. 所属分类:互联网

    • 发布日期:2013-10-27
    • 文件大小:115712
    • 提供者:u012259202
  1. 一种新的不平衡数据学习算法PCBoost

  2. 不平衡数据学习资料,利用重采样和boosting技术分析不平衡数据
  3. 所属分类:专业指导

    • 发布日期:2014-01-30
    • 文件大小:526336
    • 提供者:lijun05
  1. c++,线性代数,图像处理,机器学习,函数库

  2. 高质量,高度优化,可读性强,自己实现的,非常全面的c++函数库,适用于线性代数,图像处理,里面实现了向量,矩阵运算。图像卷积。线性回归,kmeans算法,svd分解,omp算法,还有boosting分类器等等。
  3. 所属分类:C++

    • 发布日期:2014-11-24
    • 文件大小:71680
    • 提供者:solarforward
  1. BAT机器学习面试1000题系列

  2. BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 4
  3. 所属分类:机器学习

    • 发布日期:2018-03-07
    • 文件大小:10485760
    • 提供者:qq_38873863
  1. 机器学习面试必会算法集合

  2. 机器学习面试必会算法集合,xgboost调参,boosting,LR,梯度下降,过拟合问题,HMM算法,FFM算法,SVD算法,SVM算法,决策树算法,随机森林算法等等
  3. 所属分类:机器学习

    • 发布日期:2018-05-14
    • 文件大小:11534336
    • 提供者:caibing12
  1. 第八课:机器学习模型用于评分卡模型-GBDT

  2. 梯度提升决策树(Gradient Boosting Decision Tree,GBDT)算法是近年来被提及比较多的一个算法,这主要得益于其算法的性能,以及该算法在各类数据挖掘以及机器学习比赛中的卓越表现,有很多人对GBDT算法进行了开源代码的开发,比较火的是陈天奇的XGBoost和微软的LightGBM
  3. 所属分类:机器学习

    • 发布日期:2018-09-05
    • 文件大小:1048576
    • 提供者:quantbaby
  1. 经典机器学习算法优缺点比较.docx

  2. 决策树,朴素贝叶斯,Logistic回归,KNN,Libsvm/liblinear,boosting,GDBT(MART)迭代决策树等优缺点比较
  3. 所属分类:教育

    • 发布日期:2020-07-28
    • 文件大小:13312
    • 提供者:zjh123zjh123
  1. 机器学习 算法基础 七 XGBoost

  2. XGBoost is an optimized distributed gradient boosting library designed to be highly efficient, flexible and portable. It implements machine learning algorithms under the Gradient Boosting framework. XGBoost provides a parallel tree boosting (also kno
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:290816
    • 提供者:weixin_38650508
  1. 机器学习中的算法:决策树模型组合之GBDT

  2. 本文来自于csdn,本文从informationgain和决策树两个方面介绍了机器学习的算法,希望对您的学习有帮助。决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等。但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的。模型组合(比如说有Boosting,Bagging等)与决策树相关的算法比较多,这些算法最终的结果是生成N(可能会有几百
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:188416
    • 提供者:weixin_38582909
  1. 机器学习算法Boosting

  2. 本文来自于标点符网站,本文将详细介绍机器学习中的两大类:监督学习和非监督学习,以及最主要的三种集成学习框架,希望对您的学习有所帮助。机器学习通常会被分为2大类:监督学习和非监督学习。在监督学习中,训练数据由输入和期望的输出组成,然后对非训练数据进行预测输出,也就是找出输入x与输出y之间的函数关系F:y=F(x)。根据输出的精确特性又可以分为分类和回归。分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测。定性输出称为分类,或者说是离散变量预测。举个例子:预测明天的气温是多少
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:829440
    • 提供者:weixin_38653040
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是:①弱分类器模型的形式②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集成(homogenousensembles)方法;而今天我将主要对一种目前在kaggl
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:474112
    • 提供者:weixin_38553478
  1. basicMLpy:实现简单有效的机器学习算法和技术的软件包-源码

  2. 基本MLpy basicMLpy是一个实现简单机器学习算法的软件包。 它目前包含七个模块,这些模块实施了多种机器学习技术以进行监督学习。 basicMLpy.regression模块包含以下功能: 线性回归 岭回归 basicMLpy.classification模块包含以下功能: 通过IRLS(迭代加权最小二乘)算法进行多类分类 basicMLpy.nearest_neighbors模块包含以下功能: K最近邻算法的实现,可以同时满足分类和回归问题 basicMLpy.model_se
  3. 所属分类:其它

    • 发布日期:2021-02-19
    • 文件大小:15360
    • 提供者:weixin_42100032
  1. MLDemo:此仓库是所有与机器学习相关的项目代码及其研究生级别的博客文章-源码

  2. HEXO个人博客地址: 机器学习练手代码 描述:主要包括机器学习的基础算法的实现,相关竞赛代码,论文和项目复现代码。 1毫升 1.1决策树相关算法 - 本篇博客记录的是使用python实现两个决策树相关的算法模型-ID3,C4.5。其中训练模型使用的数据集是成人。 本篇博客主要记录的是基于CART决策树实现的随机森林算法,主要是从以下四个方面介绍:CART决策树的重构思想;集成学习中的包容思想;基于CART决策树的随机森林代码实现; (其中不易过拟合并不是说随机森林不会过拟合) 本篇博客主要记录
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:68157440
    • 提供者:weixin_42166623
  1. LightGBM:基于决策树算法的快速,分布式,高性能梯度提升(GBT,GBDT,GBRT,GBM或MART)框架,用于排名,分类和许多其他机器学习任务-源码

  2. 渐变光机 LightGBM是使用基于树的学习算法的梯度增强框架。 它被设计为分布式且高效的,具有以下优点: 训练速度更快,效率更高。 降低内存使用率。 更好的准确性。 支持并行和GPU学习。 能够处理大规模数据。 有关更多详细信息,请参阅。 受益于这些优势,LightGBM被广泛用于许多机器学习竞赛的中。 在公共数据集上进行的表明,LightGBM可以在效率和准确性上均优于现有的Boosting框架,并且显着降低了内存消耗。 此外, 表明,LightGBM可通过使用多台机器进行
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:7340032
    • 提供者:weixin_42104366
  1. 机器学习中的算法:决策树模型组合之GBDT

  2. 本文来自于csdn,本文从information gain和决策树两个方面介绍了机器学习的算法,希望对您的学习有帮助。决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等。但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的。模型组合(比如说有Boosting,Bagging等)与决策树相关的算法比较多,这些算法最终的结果是生成N(可能会有几
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:188416
    • 提供者:weixin_38628183
  1. 机器学习算法Boosting

  2. 本文来自于标点符网站,本文将详细介绍机器学习中的两大类:监督学习和非监督学习,以及最主要的三种集成学习框架,希望对您的学习有所帮助。机器学习通常会被分为2大类:监督学习和非监督学习。在监督学习中,训练数据由输入和期望的输出组成,然后对非训练数据进行预测输出,也就是找出输入x与输出y之间的函数关系F:y =F(x)。根据输出的精确特性又可以分为分类和回归。分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测。 定性输出称为分类,或者说是离散变量预测。
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:827392
    • 提供者:weixin_38614268
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。 集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是: ①弱分类器模型的形式 ②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:473088
    • 提供者:weixin_38638596
« 12 3 »