您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 机器学习算法基础学习总结

  2. 机器学习算法基础学习总结2.基本算法 2.1 Logistic回归 优点:计算代价不高,易于理解和实现。 缺点:容易欠拟合,分类精度可能不高 适用数据类型:数值型和标称型数据。 类别:分类算法。 试用场景:解决二分类问题。 简述: Logistic回归算法基于 Sigmoid函数,或者说 Sigmoid就是逻辑回归函数。 Sigmoid函数定义如下:1/(1-exp(-z))。函数值域范围(0,1)。可以用来做分 类器。 Sigmoid函数的函数曲线如下: 逻辑凹归模型分解如下:(1)首先将不同
  3. 所属分类:机器学习

    • 发布日期:2019-07-02
    • 文件大小:312320
    • 提供者:abacaba
  1. 数学基础 | (6) 机器学习中的几个熵

  2. 原文地址 目录 1. 信息量 2. 信息熵 3. 相对熵(KL散度/KL divergence) 4. 交叉熵 5. 几个熵之间的关系 6. JS散度 7. Wasserstein距离 8. 总结 1. 信息量 事件发生的概率越小,信息量越大。 假设X是一个离散型随机变量,取值集合为 则定义事件的信息量为: 2. 信息熵 信息量的期望就是熵,假设事件X有n种可能,发生的概率为,那么该事件的熵H(X)为: 如果发生的事件只有两种可能性,那么熵的计算转化为下列式子: 3. 相对熵(KL散度/K
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:438272
    • 提供者:weixin_38744435