您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 机器学习算法笔记

  2. 本文总结博客中关于机器学习十大算法的详细过程,进行汇总,包括广义线性模型、softmax 回归 、逻辑回归、梯度下降法、Logistic 回归与牛顿迭代法、两种梯度下降法、相对熵(KL 散度)、K-Means 聚类算法 、朴素贝叶斯分类、决策树之 ID3 算法 、决策树之 C4.5 算法、 决策树之 CART 算法、随机森林、K-D 树、KNN 算法、BFGS 算法、L-BFGS 算法、文本特征属性选择。 十九、矩阵求导解最小二乘问题 二十、局部加权回归 二十一、最小二乘的概率解释
  3. 所属分类:机器学习

    • 发布日期:2018-11-21
    • 文件大小:1048576
    • 提供者:u013940210
  1. Deeplearning深度学习笔记v5.6_吴恩达.zip

  2. 一直以为机器学习的重点在于设计精巧、神秘的算法来模拟人类解决问题。学了这门课程才明白如何根据实际问题优化、调整模型更为重要。事实上,机器学习所使用的核心算法几十年来都没变过。 什么是机器学习呢?以二类分类监督学习为例,假设我们已经有了一堆训练数据,每个训练样本可以看作n维空间里的一个点,那么机器学习的目标就是利用统计算法算出一个将这个n维空间分成两个部分(也就是把空间切成两半)的分界面,使得相同类别的训练数据在同一个部分里(在分界面的同侧)。而所用的统计算法无非是数学最优化理论的那些算法,梯度
  3. 所属分类:深度学习

    • 发布日期:2019-05-24
    • 文件大小:23068672
    • 提供者:qq_23094611
  1. 手写单线性回归算法和机器学习sklearn构建的单线性回归算法

  2. 通过自定义构建预测函数,损失函数,梯度下降优化器,从而实现简易的手写单线性回归算法,通过可视化进行展示。与之相对应的是通过sklearn学习库构建的单线性回归算法。简易入门,新手可看。
  3. 所属分类:机器学习

    • 发布日期:2019-07-26
    • 文件大小:2048
    • 提供者:qq_26682115
  1. 逻辑回归算法.md

  2. 机器学习之逻辑回归原理,重要参数penalty & C,调用sklearn库实现,梯度下降推导。
  3. 所属分类:机器学习

    • 发布日期:2019-10-18
    • 文件大小:18432
    • 提供者:aijiankeji
  1. task1_Linear_regression.ipynb

  2. 机器学习之线性回归,及相关算法优化, 模型建立:线性回归原理、线性回归模型 学习策略:线性回归损失函数、代价函数、目标函数 算法求解:梯度下降法、牛顿法、拟牛顿法等 线性回归的评估指标 sklearn参数详解
  3. 所属分类:互联网

    • 发布日期:2020-04-20
    • 文件大小:199680
    • 提供者:qq_36427942
  1. 简单入门循环神经网络RNN.docx

  2. 本文将介绍经典的网络之循环神经网络(RNN, Recurrent Neural Networks),这一网络也是时序数据的首选网络。当涉及某些顺序机器学习任务时,RNN可以达到很高的精度,没有其他算法可以与之一较高下。这是由于传统的神经网络只是具有一种短期记忆,而RNN具有有限的短期记忆的优势。然而,第一代RNNs网络并没有引起人们着重的注意,这是由于研究人员在利用反向传播和梯度下降算法过程中遭受到了严重的梯度消失问题,阻碍了RNN几十年的发展。最后,于90年代后期出现了重大突破,导致更加准确的
  3. 所属分类:深度学习

    • 发布日期:2019-08-09
    • 文件大小:370688
    • 提供者:m0_37792821
  1. 逻辑回归.zip

  2. 机器学习中的逻辑回归实验,有一组学生高考成绩及录取情况数据集,训练一个逻辑回归模型,使之可以对一组成绩进行分类,判断这组成绩是否能被学校录取。通过两种方法(牛顿法和梯度下降法)分别优化逻辑回归模型中的theta值,并依据所得的theta值绘制决策边界,利用所得的回归模型进行预测。
  3. 所属分类:机器学习

    • 发布日期:2019-07-14
    • 文件大小:3072
    • 提供者:qq_37665301
  1. python机器学习之神经网络(一)

  2. python有专门的神经网络库,但为了加深印象,我自己在numpy库的基础上,自己编写了一个简单的神经网络程序,是基于Rosenblatt感知器的,这个感知器建立在一个线性神经元之上,神经元模型的求和节点计算作用于突触输入的线性组合,同时结合外部作用的偏置,对若干个突触的输入求和后进行调节。为了便于观察,这里的数据采用二维数据。 目标函数是训练结果的误差的平方和,由于目标函数是一个二次函数,只存在一个全局极小值,所以采用梯度下降法的策略寻找目标函数的最小值。 代码如下: import n
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:60416
    • 提供者:weixin_38589774
  1. python实现机器学习之元线性回归

  2. 一、理论知识准备 1.确定假设函数 如:y=2x+7 其中,(x,y)是一组数据,设共有m个 2.误差cost 用平方误差代价函数 3.减小误差(用梯度下降) 二、程序实现步骤 1.初始化数据 x、y:样本 learning rate:学习率 循环次数loopNum:梯度下降次数 2.梯度下降 循环(循环loopNum次): (1)算偏导(需要一个for循环遍历所有数据) (2)利用梯度下降数学式子 三、程序代码 import numpy as np
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:97280
    • 提供者:weixin_38606897
  1. TensorFlow学习笔记(一)之逻辑斯地回归模型及Cifar-10分类的实现

  2. 目录 环境 介绍 机器学习步骤 深度学习、机器学习、人工智能三者的关系 神经网络 二分类逻辑斯地回归模型 多分类逻辑斯地回归模型 目标函数(损失函数) 主要类型 举例 神经网络训练 训练目标 梯度下降算法 TensorFlow实现 计算图模型 命令式编程 声明式编程 二者的对比 数据处理 下载数据 准备工作 读取数据 查看数据 数据读取及预处理整体代码 构建模型 构建计算图 构建模型整体代码 初始化及运行模型 整体代码 注意事项 参考资料 环境 python 3.6 + TensorFlow 1
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:523264
    • 提供者:weixin_38501751
  1. 机器学习 之 梯度下降

  2. 梯度下降 梯度下降算法是一种最为常用的解决优化问题的方法,该方法每次下降的方向均为当前位置的负梯度方向,以此保证下降速度最快,从而使损失函数迅速达到最小化。 为了简化问题, 首先假设 m=1 , 对 J(θ) 求 θj 的偏导数: 考虑整个 θ , 以及全部 xi for i in range(m) python实现 import numpy as np import matplotlib.pyplot as plt data = np.loadtxt('linear_regressio
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:115712
    • 提供者:weixin_38600017
  1. 机器学习实战:TensorFlow构建线性回归模型

  2. 在本章中,开始使用简单模型:线性回归来探索 TensorFlow 编程。基于这个例子,我将介绍一些代码基础知识,以及,如何调用学习过程中的各种重要组件,如函数函数或算法梯度下降。 变量之间的关系模型 线性回归是一种用于衡量变量之间关系的统计技术。它的有趣之处在于实现它的算法在概念上不复杂,并且还可以适应各种各样的情况。由于这些原因,我发现用线性回归的例子开始深入研究 TensorFlow 很有意思。 请记住,在两个变量(简单回归)和两个以上变量(多元回归)的情况下,线性回归拟合因变量和自变量之间
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:68608
    • 提供者:weixin_38520258
  1. 机器学习数学基础之微积分与概率论

  2. 机器学习数学基础之微积分与概率论1. 导数与梯度下降1.1 方向导数1.2 在机器学习的应用2. 基本概率论2.1 条件概率2.2 全概率公式2.3 贝叶斯公式2.4 随机变量2.5 期望2.6 方差3. 分布3.1 伯努利分布3.2 二项分布3.3 高斯分布3.4 泊松分布 (本文为学习总结笔记,如有雷同请无视) 1. 导数与梯度下降 1.1 方向导数 梯度下降法会引起局部最优值的可能。 1.2 在机器学习的应用 1、初始化一个w值 2、传入数据集,进行对w的调整 3、最后输出一个最优的w,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:412672
    • 提供者:weixin_38656395
  1. 机器学习之梯度下降法

  2. 1.基本概念 梯度下降法(Gradient descent)是一个一阶最优化算法。 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点;这个过程则被称为梯度上升法。 2.几种梯度下降方法(针对线性回归算法) 2.1 批量梯度下降法 1.批量梯度下降法的特点及原理 运算量大:批量梯度下降法中的每一项计算:,要计算所有样本(共 m 个); 批量梯度下降法的梯度是损
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:214016
    • 提供者:weixin_38698149
  1. 300Days__MachineLearningDeepLearning:我正在分享我的300DaysOfData机器学习和深度学习之旅-源码

  2. 机器学习和深度学习300天数据之旅 书籍和资源 1. 2.机器学习综合指南 3.使用Scikit Learn,Keras和TensorFlow进行机器学习 4. 5. 6. 7. 调查报告 1. 项目和笔记本 1. 第1天的300DaysOfData! 梯度下降和交叉验证:梯度下降是一种迭代方法,用于逼近最小化可微损失函数的参数。 交叉验证是一种重采样过程,用于评估有限数据样本上的机器学习模型,该样本具有一个将数据分为若干组的参数。 今天,在我的机器学习和深度学习之旅中,我简要阅读了一些基本
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:9437184
    • 提供者:weixin_42162978
  1. 深度学习的局限性和未来

  2. 本文于51cto,介绍了深度学习的几何学视角,局限性,拟人化机器学习模型的风险,局部泛化与极限泛化等知识。深度学习最令人惊讶之处就在于它十分简单。十年前,没有人指望由梯度下降方法训练的简单参数模型就可以在机器感知问题上获得惊人的结果。现在,事实证明,你只需要一个有足够多参数的模型,并且在足够大的数据集上使用梯度下降进行训练。深度学习最令人惊讶之处就在于它十分简单。十年前,没有人指望由梯度下降方法训练的简单参数模型就可以在机器感知问题上获得惊人的结果。现在,事实证明,你只需要一个有足够多参数的模型
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:449536
    • 提供者:weixin_38515573
  1. 可视化具有简单功能的梯度优化器-源码

  2. 使用简单功能可视化梯度优化器 目的 梯度下降是我们用于机器学习的优化的基本原理之一。 但是,希望了解更多有关该领域的初学者会遇到通用图或仅与抽象意义相关的等高线图。 像这样的图形可以初步了解什么是梯度下降及其作用,但是比有趣的图片还缺乏深度。 大多数机器学习模型的高维性使得初学者很难形象化。 本笔记本的目的是提供一个更具体的示例,以使人们对梯度优化器的工作方式以及每个行为都具有更强的直觉。 希望用户可以从此笔记本中获得更多的见解。 使用笔记本 运行整个笔记本会生成上面GIF中显示的图,用户可以与
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:4194304
    • 提供者:weixin_42113754
  1. 深度学习的局限性和未来

  2. 本文于51cto,介绍了深度学习的几何学视角,局限性,拟人化机器学习模型的风险,局部泛化与极限泛化等知识。深度学习最令人惊讶之处就在于它十分简单。十年前,没有人指望由梯度下降方法训练的简单参数模型就可以在机器感知问题上获得惊人的结果。现在,事实证明,你只需要一个有足够多参数的模型,并且在足够大的数据集上使用梯度下降进行训练。深度学习最令人惊讶之处就在于它十分简单。十年前,没有人指望由梯度下降方法训练的简单参数模型就可以在机器感知问题上获得惊人的结果。现在,事实证明,你只需要一个有足够多参数的模型
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:449536
    • 提供者:weixin_38565631
  1. 优化算法之梯度下降(Gradient Descent)

  2. 一、梯度下降法 重申,机器学习三要素是:模型,学习准则,优化算法。这里讨论一下梯度下降法。 通常为了充分利用凸优化中的一些高效成熟的优化方法,像:共轭梯度、拟牛顿法等,所以呢很多的机器学习算法倾向于选择合适的模型和损失函数来构造一个凸函数作为优化的目标。但是呢,也有一些模型(例如神经网络)的优化目标是非凸的,以至于只能找到其局部最优解。 机器学习中,常用的优化算法就是梯度下降法,首先初始化参数θ0\theta_0θ0​,然后按照下列公式进行参数的更新: θt+1=θt−α∂R(θ)∂θ(式1)
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:167936
    • 提供者:weixin_38733281