您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 工程优化算法python实现

  2. 自己使用python实现的部分工程优化算法,包括梯度下降,共轭梯度,牛顿迭代,拟牛顿法等多种优化算法
  3. 所属分类:Python

    • 发布日期:2016-10-09
    • 文件大小:11264
    • 提供者:u013395544
  1. Probabilistic Matrix Factorization概率矩阵分解Python源代码

  2. 基于MovieLens数据集,采用随机梯度下降算法优化最小化能量函数的概率矩阵分解Python源代码,自己做实验的源代码Probabilistic Matrix Factorization
  3. 所属分类:Python

    • 发布日期:2017-01-12
    • 文件大小:766976
    • 提供者:u010412858
  1. 机器学习的优化程序库,用Python实现了梯度下降、LBFGS、rmsprop、adadelta 等算法。

  2. 机器学习的优化程序库,用Python实现了梯度下降、LBFGS、rmsprop、adadelta 等算法。
  3. 所属分类:Python

    • 发布日期:2017-05-18
    • 文件大小:99328
    • 提供者:tang6457
  1. 机器学习——梯度下降python实现

  2. 机器学习中经典的优化算法,让loss快速达到更小,本代码在minist数据集测试分类算法,取得很好的结果。
  3. 所属分类:机器学习

    • 发布日期:2018-09-10
    • 文件大小:11534336
    • 提供者:hunzhangzui9837
  1. 手写logistic回归算法和sklearn构建的logistic回归算法

  2. 自定义预测函数,激活函数,梯度下降优化器,单纯用python实现logistic回归算法,再与sklearn构建模型做的一个比对。
  3. 所属分类:机器学习

    • 发布日期:2019-07-29
    • 文件大小:1024
    • 提供者:qq_26682115
  1. 梯度下降法原理与python实现.docx

  2. 梯度下降法原理与python实现
  3. 所属分类:讲义

    • 发布日期:2019-07-03
    • 文件大小:1048576
    • 提供者:qq_30780661
  1. 三种优化算法实现根据两门成绩判断学生能否录取的logistic应用

  2. 用三种优化方法实现logistic回归的应用,根据学生的两门成绩,判断是否能录取。采用梯度下降法(GD),随机梯度下降法(SGD)和牛顿法(Newton)三种优化方法,绘制动态迭代图,可以动态观察决策结果以及损失函数的收敛过程。数据集和三种算法的代码均打包在一起,采用Jupyter Notebook编写(python)。
  3. 所属分类:Python

    • 发布日期:2020-07-01
    • 文件大小:12288
    • 提供者:ldm_666
  1. matlab+python优化算法.rar

  2. matlab+python优化算法,包括蚁群算法、牛顿法、共轭梯度法、梯度下降法、蒙特卡洛法、粒子群算法、模拟退火算法,可以正常运行
  3. 所属分类:教育

    • 发布日期:2020-07-08
    • 文件大小:16777216
    • 提供者:qq_45957970
  1. 梯度下降法介绍及利用Python实现的方法示例

  2. 梯度下降算法是一个很基本的算法,在机器学习和优化中有着非常重要的作用,下面这篇文章主要给大家介绍了关于利用Python实现梯度下降法的相关资料,对大家具有一定的参考学习价值,需要的朋友们下面来一起看看吧。
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:295936
    • 提供者:weixin_38517904
  1. python实现梯度下降算法

  2. 梯度下降(Gradient Descent)算法是机器学习中使用非常广泛的优化算法。当前流行的机器学习库或者深度学习库都会包括梯度下降算法的不同变种实现。 本文主要以线性回归算法损失函数求极小值来说明如何使用梯度下降算法并给出python实现。若有不正确的地方,希望读者能指出。  梯度下降 梯度下降原理:将函数比作一座山,我们站在某个山坡上,往四周看,从哪个方向向下走一小步,能够下降的最快。 在线性回归算法中,损失函数为 在求极小值时,在数据量很小的时候,可以使用矩阵求逆的方式求最优的θ值。
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:259072
    • 提供者:weixin_38648037
  1. Python实现简单遗传算法(SGA)

  2. 本文用Python3完整实现了简单遗传算法(SGA) Simple Genetic Alogrithm是模拟生物进化过程而提出的一种优化算法。SGA采用随机导向搜索全局最优解或者说近似全局最优解。传统的爬山算法(例如梯度下降,牛顿法)一次只优化一个解,并且对于多峰的目标函数很容易陷入局部最优解,而SGA算法一次优化一个种群(即一次优化多个解),SGA比传统的爬山算法更容易收敛到全局最优解或者近似全局最优解。 SGA基本流程如下: 1、对问题的解进行二进制编码。编码涉及精度的问题,在本例中精度
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:137216
    • 提供者:weixin_38672962
  1. 机器学习 之 梯度下降

  2. 梯度下降 梯度下降算法是一种最为常用的解决优化问题的方法,该方法每次下降的方向均为当前位置的负梯度方向,以此保证下降速度最快,从而使损失函数迅速达到最小化。 为了简化问题, 首先假设 m=1 , 对 J(θ) 求 θj 的偏导数: 考虑整个 θ , 以及全部 xi for i in range(m) python实现 import numpy as np import matplotlib.pyplot as plt data = np.loadtxt('linear_regressio
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:115712
    • 提供者:weixin_38600017
  1. 最优化算法python实现篇(4)——无约束多维极值(梯度下降法)

  2. 最优化算法python实现篇(4)——无约束多维极值(梯度下降法)摘要算法简介注意事项算法适用性python实现实例运行结果算法过程可视化 摘要 本文介绍了多维无约束极值优化算法中的梯度下降法,通过python进行实现,并可视化展示了算法过程。 算法简介 给定初始点,沿着负梯度方向(函数值下降最快的方向)按一定步长(机器学习中也叫学习率)进行搜索,直到满足算法终止条件,则停止搜索。 注意事项 学习率不能太小,也不能太大,可以多尝试一些值。当然每次沿着负梯度方向搜索时,总会存在一个步长使得该次搜索
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:197632
    • 提供者:weixin_38742647
  1. optimizers:实现在测试功能上运行的各种优化程序以进行优化-源码

  2. 优化器 使用Python和数值库的各种优化算法的实现。 该存储库可作为本文中使用的可视化和评估的来源。 任务清单 动量的随机梯度下降( ) AdaGrad( ) AdaDelta( D.Zeiler ) RMSProp( ) 亚当(亚当( ) NAdam(多扎特( )) AMSGrad( ) 实作 在查看每种算法的完整源代码。 1.具有动量的随机梯度下降 def step ( self , x , y ): g_t = self . func . df ( x ,
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:171966464
    • 提供者:weixin_42121905
  1. 梯度下降:使用python实现梯度下降。 我在BYU数学专业的python编码实验室Math 495R中完成了这个项目-源码

  2. 描述 该项目实现了两种不同的一维优化方法,牛顿法和梯度下降法。 牛顿法 牛顿法是一种求根算法,可以对实值函数的根(或零)连续产生更好的近似值。 在该项目中,我对输入函数的一阶导数实施牛顿方法,以识别输入函数的潜在最小和最大值。 牛顿法由下面的函数递归定义。 梯度下降 当二阶导数为正数时,牛顿法效果很好,但是当二阶导数为负数时,牛顿法有时无法收敛。 梯度下降是一种更有效的优化算法,它朝最大减小方向迈进,直到收敛到最小。 步长基于学习率,该学习率是使用从python包scipy导入的一维优化函数找
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:3072
    • 提供者:weixin_42146086
  1. ML-algorithms-from-scratch:机器学习算法中的一些从头开始在python中实现-源码

  2. 从零开始的ML算法 在python中从头实现的一些机器学习算法: 'Least_squared_stat'-通过计算斜率和y截距值,将最小二乘法作为一种统计过程来实现,以找到一组数据点的最佳拟合线 'Least_squared_normal_equation'-使用称为法线方程的代数方程式实现最小二乘法 'Gradient_descent'-计算3种最流行的优化算法版本:批量梯度下降,随机梯度下降和小批量梯度下降
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:132096
    • 提供者:weixin_42165490
  1. Python工作坊中的机器学习:我的研讨会使用python语言实现不同算法的机器学习-源码

  2. Python工作坊中的机器学习 我的机器学习研讨会使用python语言实现不同算法(伊朗大不里士大学,2017年)。 内容 第1部分:使用现有软件包进行机器学习(第1至5周) 第01周和第02周: Numpy和Matplotlib软件包简介 第03周和第04周:使用Scikit Learn进行监督学习 第05周:使用Scikit Learn进行无监督学习 第2部分:实现我们的机器学习算法和模型(第5周至第10周) 第六周:线性分类 第07周:实现损耗功能(Softmax损耗和SVM损耗)
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:37748736
    • 提供者:weixin_42131633
  1. python实现共轭梯度法

  2. 共轭梯度法是介于最速下降法与牛顿法之间的一个方法,它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺点,又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一。 在各种优化算法中,共轭梯度法是非常重要的一种。其优点是所需存储量小,具有步收敛性,稳定性高,而且不需要任何外来参数。 算法步骤: import random import numpy as np import matplotlib.pypl
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:157696
    • 提供者:weixin_38650379
  1. python回归分析总结–线性模型及岭回归

  2. 1、回归分析概括 目标值(因变量)是连续型数据,通过某种函数关系找到因变量和自变量之间的关系,进而预测目标。 常见的回归:线性回归、岭回归、非线性回归 回归拟合目标:计算自变量与因变量关系的函数参数 通过不断拟合缩小预测值与真实值的差距:最终使得这个差距(误差项)成为一组均值为0,方差为1的随机数。 2、损失函数 3、优化算法 使得损失函数值达到最小的方法。 方法: 正规方程 梯度下降 4、python的API 4.1.1 statsmodels.formula.api.OLS():普通最
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:205824
    • 提供者:weixin_38592455
  1. Python-梯度下降法(最速下降法)求解多元函数

  2. 梯度下降法的计算过程就是沿梯度下降的方向求解极小值。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降法是最常采用的方法之一。 多元函数的图像显示 方程为z=x1 ^2 + 2 * x2 ^2 – 4 * x1- 2 * x1 * x2 import numpy as np import matplotlib.pyplot as plt import matplotlib as mpl %matplotlib inline import math from mpl_toolkits.m
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:129024
    • 提供者:weixin_38734506
« 12 »