点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 最小gini纯度
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
决策树的训练过程
决策树的训练过程
所属分类:
C
发布日期:2014-09-28
文件大小:29696
提供者:
nongfu_spring
Xgboost与Gbdt的区别
GBDT以CART作为基分类器,CART以gini指数选择特征,gini指数越小,纯度越高。离散特征会依次将每个取值作为分割点计算gini系数,连续特征会依次将连续两个值的中间值作为分割点,将数据分割为S1和S2两部分,并计算该分割点的gini增益为S1和S2方差之和,随后选取gini增益最小的值作为分割点,并当做离线特征计算该特征的gini系数,最后取gini指数最小的作为最优特征与最优切分点。Xgboost还支持线性分类器,相当于带L1和L2正则化项的LR。 GBDT在优化时只用到一阶导数
所属分类:
其它
发布日期:2021-01-07
文件大小:54272
提供者:
weixin_38725902
决策树
决策树的分类 信息增益 信息增益 = 分类前后的信息熵之差 信息增益越高,就越应优先选择该属性进行分类 通过信息增益来进行分类,会优先选择类别多的属性进行划分 信息增益率 为了解决信息增益会优先选择类别多的属性进行划分的问题,使用信息增益率。 但是没啥用 基尼系数 基尼值 从数据集D中随机抽取两个样本,其类别标记不一致的概率。故,Gini(D)值越小,数据集D的纯度越高。 基尼系数 选择使划分后基尼系数最小的属性作为最优化分属性。 不同的决策树类型 信息增益 – ID3 决策树 会偏
所属分类:
其它
发布日期:2021-01-06
文件大小:95232
提供者:
weixin_38618819