您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 正规方程的另一种解释

  2. 在矩阵应用中的正规方程的解释。文档为PDF格式。
  3. 所属分类:网络基础

    • 发布日期:2011-08-05
    • 文件大小:243712
    • 提供者:milk2235
  1. 机器学习小组知识点2:最小均方算法(LMS)

  2. 机器学习;最小均方误差算法LMS;随机梯度;梯度下降;有监督学习;线性回归;正规方程与梯度下降的比较;正规方程
  3. 所属分类:讲义

    • 发布日期:2016-10-16
    • 文件大小:489472
    • 提供者:eric2016_lv
  1. 单片机C语言最小二乘法曲线拟合

  2. 基于最小二乘法的曲线拟合,大致思路为根据曲线的阶数以及原数据的组数,建立正规方程组,然后解正规方程计算出a0~an每个系数的值。
  3. 所属分类:C

    • 发布日期:2017-10-19
    • 文件大小:2048
    • 提供者:jojoisthebad
  1. C语言编写最小二乘法

  2. c语言编程,给出最小二乘法的原理,关于不等精度测量二元线性最小二乘法处理的正规方程解
  3. 所属分类:C

    • 发布日期:2009-04-23
    • 文件大小:129024
    • 提供者:u011308301
  1. 实战(python)线性回归

  2. 利用正规方程矩阵求导进行最小二乘,求得最佳拟合直线。
  3. 所属分类:机器学习

    • 发布日期:2018-05-05
    • 文件大小:103424
    • 提供者:z_feng12489
  1. 线性回归正规方程sklearn实现

  2. Python代码包含了Advertising.csv数据包 ###线性回归#### # 读取数据 data = pd.read_csv('Advertising.csv', index_col=0) #前五条数据 data.head() #后五条数据 data.tail() # 画散点图 import seaborn as sns import matplotlib
  3. 所属分类:机器学习

    • 发布日期:2018-10-07
    • 文件大小:3072
    • 提供者:qq_33912144
  1. 正规方程回归算法Python实现

  2. 正规方程回归算法Python实现 原始数据 假设关系为 y=3+x+2z ==== y=a+bx+cz 。。。 canshu=(bianliang.T*bianliang).I*bianliang.T*y #.T转置,.I逆矩阵,*矩阵相乘
  3. 所属分类:机器学习

    • 发布日期:2018-10-07
    • 文件大小:490
    • 提供者:qq_33912144
  1. De Rham–Gabadadze–Tolley巨大引力中黑弦的准正规模式

  2. 通过研究准正态模态(QNMs),研究了标量摄动对de Rham–Gabadadze–Tolley(dRGT)引力中性黑弦的影响。 由于黑弦和黑洞背景下的磁场运动方程之间的相似性,可以使用类似的数值和分析技术来探索QNM的行为。 我们使用渐近迭代方法(AIM)和WKB方法来数值计算宇宙常数为正的黑弦背景中标量摄动的QNM。 此类QNM的高动量行为可以通过一阶WKB方法以极高的精度进行分析近似。 对于事件视界非常接近宇宙视界的近乎极端的黑弦,Pöschl–Teller技术为QNM提供了准确的解析公式
  3. 所属分类:其它

    • 发布日期:2020-04-17
    • 文件大小:846848
    • 提供者:weixin_38621630
  1. 机器学习——多变量线性回归.pdf

  2. 本人通过观看吴恩达机器学习视频所记录的笔记,比较潦草,有兴趣的可以看一看。 知识点概要: 1、多元梯度下降法 2、特征与多项式回归 3、正规方程 4、正规方程在矩阵不可逆的情况下的解法 5、编程技巧
  3. 所属分类:机器学习

    • 发布日期:2020-03-28
    • 文件大小:4194304
    • 提供者:qq_42604176
  1. 围绕典型的Bardeen黑洞的重力扰动的准正规模式

  2. 在本文中,研究了典型的Bardeen黑洞被精子包围的拟扰动的准正规模式。 考虑到被典型包围的Bardeen时空的度量,我们使用Regge-Wheeler规导出了引力摄动的摄动方程。 三阶Wentzel-Kramers-Brillouin(WKB)逼近方法用于评估准法向频率。 明确地讲,黑洞势和准正态Mo的行为
  3. 所属分类:其它

    • 发布日期:2020-03-22
    • 文件大小:573440
    • 提供者:weixin_38722164
  1. MATLAB_多元线性回归模型_梯度下降与正规方程对比.zip

  2. ------------:)----------采用MATLAB语言编程,基于梯度下降法实现多元线性回归模型,并与正规方程计算结果进行对比。
  3. 所属分类:算法与数据结构

    • 发布日期:2020-03-03
    • 文件大小:30408704
    • 提供者:Roysean
  1. 四元数正规矩阵的几个定理

  2. 四元数正规矩阵的几个定理,邹黎敏,陈香萍,利用四元数正规矩阵可对角划的性质,得到了四元数正规矩阵的一些性质及判定准则。同时获得了四元数正规矩阵弱直积,矩阵方程,特
  3. 所属分类:其它

    • 发布日期:2020-02-23
    • 文件大小:267264
    • 提供者:weixin_38693967
  1. A comparative study of augmented CGLS method for linear discrete ill-posed problems

  2. 求解线性离散不适定问题的扩充 CGLS 方法比较研究,王培,荆燕飞,针对右端向量包含有错误数据的不适定问题离散化后的线性系统,本文研究了求解正规方程的扩充共轭梯度方法(CGLS)。进而通过同时扩充�
  3. 所属分类:其它

    • 发布日期:2019-12-28
    • 文件大小:273408
    • 提供者:weixin_38715019
  1. 线性最小二乘问题

  2. 求解线性最小二乘法的三种常用方法:正规方程、QR分解、SVD分解
  3. 所属分类:C/C++

    • 发布日期:2013-08-16
    • 文件大小:472064
    • 提供者:u011712286
  1. python实现简单的单变量线性回归方法

  2. 线性回归是机器学习中的基础算法之一,属于监督学习中的回归问题,算法的关键在于如何最小化代价函数,通常使用梯度下降或者正规方程(最小二乘法),在这里对算法原理不过多赘述,建议看吴恩达发布在斯坦福大学上的课程进行入门学习。 这里主要使用python的sklearn实现一个简单的单变量线性回归。 sklearn对机器学习方法封装的十分好,基本使用fit,predict,score,来训练,预测,评价模型, 一个简单的事例如下: from pandas import DataFrame from pa
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:54272
    • 提供者:weixin_38564003
  1. 机器学习-线性模型-普通最小二乘法-正规方程推导

  2. 线性模型 – 普通最小二乘法 广义线性模型 目标值 y 是输入变量 x 的线性组合 如果 y^\hat{y}y^​ 是预测值,那么有: y^(w,x)=w0+w1x1+…+wpxp\hat{y}(w, x) = w_0 + w_1 x_1 + … + w_p x_py^​(w,x)=w0​+w1​x1​+…+wp​xp​ 在sklearn中,定义向量 w=(w1,…,wp)w = (w_1, …, w_p)w=(w1​,…,wp​) 为系数(斜率) coef_ ,定义 w0w_0w0​ 为截距
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:52224
    • 提供者:weixin_38653040
  1. 机器学习入门(七):多项式回归, PolynomialFeatures详解

  2. 文章目录前言PolynomialFeatures详细探讨如何实现多项式回归代码实现:正规方程验证 前言 在机器学习入门(六)中,已经通过pipeline快速实现了多项式回归。代码如下: PolyRegr = Pipeline([ ('poly',PolynomialFeatures(degree=2)), ('clf',LinearRegression()) ]) PolyRegr.fit(X, y) 这个方式省略了很多步骤,并且也无法得知Pol
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:141312
    • 提供者:weixin_38663151
  1. 【图解例说机器学习】模型选择:偏差与方差 (Bias vs. Variance)

  2. 机器学习的过程大致分为三步:1)模型假设,比如我们假设模型是线性回归,还是多项式回归,以及其阶数的选择;2)误差函数定义,比如我们假设误差函数是均方误差,还是交叉熵;3)参数求解,比如使用正规方程,还是梯度下降等。 这篇文章主要讨论模型的选择问题,下面以多项式回归为例进行说明 一个例子:多项式回归中的阶数选择 在前面的文章【图解例说机器学习】线性回归中,我们定义了广义的线性回归模型,其表达式为: y^=ω0+∑j=1Mωjϕj(x)=ω0+wTϕ(x)(1) \hat y=\omega_0+\s
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:140288
    • 提供者:weixin_38701640
  1. 【机器学习笔记】第3章:多变量线性回归

  2. 文章目录第3章:多变量线性回归3.1 多功能 Multiple features3.2 多元梯度下降法 Gradient descent for multiple variables3.3 多元梯度下降法演练I-特征缩放 Gradient descent in practice I:Feature Scaling3.4 多元梯度下降法演练II-学习率 Gradient descent in practice II:Learning rate3.5 特征和多项式回归 Features and po
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:709632
    • 提供者:weixin_38518885
  1. 梯度下降原理及代码实现,以及正规方程解法+二者的比较

  2. 梯度下降法是机器学习算法更新模型参数的常用的方法之一。 相关概念 梯度 : 表示某一函数在一点处变化率最快的方向向量(可理解为这点的导数/偏导数) 样本 : 实际观测到的数据集,包括输入和输出(本文的样本数量用 m 表述,元素下标 i 表示) 特征 : 样本的输入(本文的特征数量用 n 表示,元素下标 j 表示) 假设函数 : 用来拟合样本的函数,记为 $ h_θ(X) (θ 为参数向量, X 为特征向量)$ 代价函数 : 用于评估模型拟合的程度,训练的目标是最小化代价函数,记为 J(θ)J(θ
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:70656
    • 提供者:weixin_38672800
« 12 »