您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 菊安酱的机器学习第1期-k-近邻算法(直播).pdf

  2. k-近邻算法的课件。来自于菊安酱的机器学习实战12期的免费教程。内涵python源码。菊安酱的直播间: 我们已经知道k近邻算法的工作原理,根据特征比较,然后提取样本集中特征最相似数据(最近邻)的分类标签。 那么如何进行比较呢?比如表1中新出的电影,我们该如何判断他所属的电影类别呢?如图2所示。 电影分类 120 爱情片(1,101) 爱情片(12,97) 80 爱情片(5,89) 水弊 60 ?(24,67) 动作片(112,9 20 动作片(1158) 动作片(108,5) 0 20 60 8
  3. 所属分类:讲义

    • 发布日期:2019-07-27
    • 文件大小:867328
    • 提供者:qiu1440528444
  1. 机器学习算法基础学习总结

  2. 机器学习算法基础学习总结2.基本算法 2.1 Logistic回归 优点:计算代价不高,易于理解和实现。 缺点:容易欠拟合,分类精度可能不高 适用数据类型:数值型和标称型数据。 类别:分类算法。 试用场景:解决二分类问题。 简述: Logistic回归算法基于 Sigmoid函数,或者说 Sigmoid就是逻辑回归函数。 Sigmoid函数定义如下:1/(1-exp(-z))。函数值域范围(0,1)。可以用来做分 类器。 Sigmoid函数的函数曲线如下: 逻辑凹归模型分解如下:(1)首先将不同
  3. 所属分类:机器学习

    • 发布日期:2019-07-02
    • 文件大小:312320
    • 提供者:abacaba
  1. 机器学习代码实战——数值计算

  2. 文章目录1.上溢和下溢2.优化方法 1.上溢和下溢 下溢(Underflow):当接近零的数被四舍五入为零时发生下溢。 上溢(Overflow):当大量级的数被近似为 ∞ 或 −∞ 时发生上溢。 必须对上溢和下溢进行数值稳定的一个例子是 softmax 函数。softmax 函数经常用于预测与范畴分布相关联的概率,定义为: import numpy as np x = np.array([1e7, 1e8, 2e5, 2e7]) y = np.exp(x) / sum(np.exp(x)) p
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:108544
    • 提供者:weixin_38708707