您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 鲸鱼优化算法WOA实现函数极值寻优python.rar

  2. python版本的鲸鱼优化算法WOA实现函数极小值寻优,直接运行woa_main.py即可,fitness用的是sphere函数 需要的可以改成其他函数极值寻优
  3. 所属分类:机器学习

    • 发布日期:2020-04-12
    • 文件大小:1048576
    • 提供者:qq_41043389
  1. 基于α-β剪枝python实现五子棋人机对战pygame

  2. 制作一个五子棋小游戏,实现人机对战,其中电脑在进行极大值极小值搜索时需要运用α-β剪枝算法。五子棋小游戏的核心是电脑端走步的选取,使用的方法是极大极小值搜索,并且题目要求使用α-β剪枝来提高搜索效率;除此,在极大极小值搜索中,需要实现获取下一步可能走的点位以及设计评估函数,评估函数对于电脑能否“智能”地下棋十分关键。 程序整体需要实现先后手的选取,胜负的判断以及显示棋局和相应信息。 运行所需环境:PyCharm 2019.2 语言:python 使用方法: ①点击执行exe后默认玩家为
  3. 所属分类:Python

    • 发布日期:2020-02-22
    • 文件大小:15360
    • 提供者:cumina
  1. 菊安酱的机器学习第1期-k-近邻算法(直播).pdf

  2. k-近邻算法的课件。来自于菊安酱的机器学习实战12期的免费教程。内涵python源码。菊安酱的直播间: 我们已经知道k近邻算法的工作原理,根据特征比较,然后提取样本集中特征最相似数据(最近邻)的分类标签。 那么如何进行比较呢?比如表1中新出的电影,我们该如何判断他所属的电影类别呢?如图2所示。 电影分类 120 爱情片(1,101) 爱情片(12,97) 80 爱情片(5,89) 水弊 60 ?(24,67) 动作片(112,9 20 动作片(1158) 动作片(108,5) 0 20 60 8
  3. 所属分类:讲义

    • 发布日期:2019-07-27
    • 文件大小:867328
    • 提供者:qiu1440528444
  1. python实现函数极小值

  2. 今天小编就为大家分享一篇python实现函数极小值,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:40960
    • 提供者:weixin_38608378
  1. python实现梯度下降算法

  2. 梯度下降(Gradient Descent)算法是机器学习中使用非常广泛的优化算法。当前流行的机器学习库或者深度学习库都会包括梯度下降算法的不同变种实现。 本文主要以线性回归算法损失函数求极小值来说明如何使用梯度下降算法并给出python实现。若有不正确的地方,希望读者能指出。  梯度下降 梯度下降原理:将函数比作一座山,我们站在某个山坡上,往四周看,从哪个方向向下走一小步,能够下降的最快。 在线性回归算法中,损失函数为 在求极小值时,在数据量很小的时候,可以使用矩阵求逆的方式求最优的θ值。
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:259072
    • 提供者:weixin_38648037
  1. python实现随机梯度下降法

  2. 看这篇文章前强烈建议你看看上一篇python实现梯度下降法: 一、为什么要提出随机梯度下降算法 注意看梯度下降法权值的更新方式(推导过程在上一篇文章中有)  也就是说每次更新权值都需要遍历整个数据集(注意那个求和符号),当数据量小的时候,我们还能够接受这种算法,一旦数据量过大,那么使用该方法会使得收敛过程极度缓慢,并且当存在多个局部极小值时,无法保证搜索到全局最优解。为了解决这样的问题,引入了梯度下降法的进阶形式:随机梯度下降法。 二、核心思想 对于权值的更新不再通过遍历全部的数据集,而是选择
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:70656
    • 提供者:weixin_38618094
  1. python+numpy+matplotalib实现梯度下降法

  2. 这个阶段一直在做和梯度一类算法相关的东西,索性在这儿做个汇总, 一、算法论述 梯度下降法(gradient  descent)别名最速下降法(曾经我以为这是两个不同的算法-.-),是用来求解无约束最优化问题的一种常用算法。下面以求解线性回归为题来叙述: 设:一般的线性回归方程(拟合函数)为:(其中的值为1)    则这一组向量参数选择的好与坏就需要一个机制来评估,据此我们提出了其损失函数为(选择均方误差): 我们现在的目的就是使得损失函数取得最小值,即目标函数为: 如果的值取到了0,意味着我
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:219136
    • 提供者:weixin_38694006
  1. TensorFlow 多元函数的极值实例

  2. flyfish python实现 设函数 的某个邻域内有定义,对于该邻域内异于的点,如果都适合不等式 则称函数在点有极大值。 如果都适合不等式 则称函数在点有极小值. 极大值、极小值统称为极值。使函数取得极值的点称为极值点。 有极小值的例子 函数 在点(0,0)处有极小值。因为对于点 (0,0)的任一邻域内异于(0,0)的点,函数值都为正,而在点(0,0)处的函数值为零。从几何上看这是显然的,因为点(0,0,0)是开口朝上的椭圆抛物面 的顶点。 代码 from matplotlib
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:97280
    • 提供者:weixin_38522552
  1. python实现函数极小值

  2. 这里用到的是scipy.optimize的fmin和fminbound import numpy as np from matplotlib import pyplot as plt from scipy.optimize import fmin,fminbound def f(x): return x**2+10*np.sin(x)+1 x=np.linspace(-10,10,num=500) min1=fmin(f,3)#求3附近的极小值 min2=fmin(f,0)#求0附近的极小
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:41984
    • 提供者:weixin_38690275
  1. 用Python实现最速下降法求极值的方法

  2. 对于一个多元函数,用最速下降法(又称梯度下降法)求其极小值的迭代格式为 其中为负梯度方向,即最速下降方向,αkαk为搜索步长。 一般情况下,最优步长αkαk的确定要用到线性搜索技术,比如精确线性搜索,但是更常用的是不精确线性搜索,主要是Goldstein不精确线性搜索和Wolfe法线性搜索。 为了调用的方便,编写一个Python文件,里面存放线性搜索的子函数,命名为linesearch.py,这里先只编写了Goldstein线性搜索的函数,关于Goldstein原则,可以参看最优化课本。 线性
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:164864
    • 提供者:weixin_38609002
  1. 使用Python实现牛顿法求极值

  2. 对于一个多元函数 用牛顿法求其极小值的迭代格式为 其中 为函数 的梯度向量, 为函数 的Hesse(Hessian)矩阵。 上述牛顿法不是全局收敛的。为此可以引入阻尼牛顿法(又称带步长的牛顿法)。 我们知道,求极值的一般迭代格式为 其中 为搜索步长, 为搜索方向(注意所有的迭代格式都是先计算搜索方向,再计算搜索步长,如同瞎子下山一样,先找到哪个方向可行下降,再决定下几步)。 取下降方向 即得阻尼牛顿法,只不过搜索步长 不确定,需要用线性搜索技术确定一个较优的值,比如精确线性搜
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:117760
    • 提供者:weixin_38623442