您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. AdaboostOnMNIST:这是Adaboost算法的实现,它使用两个不同的弱学习器从头开始实施:决策树分类器和梯度提升分类器。 Adaboost在MNIST上运行以告知奇数和偶数。 经过scikit Learn模型的adaboost测

  2. AdaboostOnMNIST 这是使用两个不同的弱学习者从头开始实现Adaboost算法的方法:决策树分类器和梯度提升分类器。 Adaboost在MNIST上运行以告知奇数和偶数。 经过scikit Learn模型的adaboost测试,并获得了更高的分数。 最小的训练误差为%1.8,在7次迭代中进行了梯度增强。 函数调用为adaboost(X_train,Y_train,inversions_t,Classifier_type),有两种类型的分类器,“ Gradient_Boost”和“
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:2048
    • 提供者:weixin_42122986