您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 粒子群优化算法源码下载

  2. 求解最优化问题一直是遗传算法的经典应用领域,但是对于不同的最优化问题,遗传算法往往要重新设计“交叉”、“变异”算子,甚至要开发新的进化操作;另外遗传算法不容易理解、操作复杂、大多数情况下效率比较低。所以,寻求新的解决最优问题的算法一直是研究热点。对约束优化问题的求解,已有许多算法被提出。传统的方法有梯度映射法、梯度下降法、惩罚函数法、障碍函数法等,但是单纯使用这些方法不是效率很低就是适用范围有限。而进化计算由于其求解过程不依赖于目标函数的解析性质,同时又能以较大的概率收敛于全局最优解,所以用进
  3. 所属分类:其它

    • 发布日期:2012-12-30
    • 文件大小:86
    • 提供者:checkpaper
  1. 随机梯度下降法python实现

  2. m = 100000 x = np.random.normal(size = m) X = x.reshape(-1, 1) y = 4.0 * x + 3.0 + np.random.normal(0 ,3, size = m) 。。。
  3. 所属分类:机器学习

    • 发布日期:2018-10-07
    • 文件大小:951
    • 提供者:qq_33912144
  1. sklearn0.19中文文档

  2. sklearn0.19中文文档 PDF格式高清。 .1. 广义线性模型 1.1.1. 普通最小二乘法 1.1.1.1. 普通最小二乘法复杂度 1.1.2. 岭回归 1.1.2.1. 岭回归的复杂度 1.1.2.2. 设置正则化参数:广义交叉验证 1.1.3. Lasso 1.1.3.1. 设置正则化参数 1.1.3.1.1. 使用交叉验证 1.1.3.1.2. 基于信息标准的模型选择 1.1.3.1.3. 与 SVM 的正则化参数的比较 1.1.4. 多任务 Lasso 1.1.5. 弹性网络
  3. 所属分类:机器学习

    • 发布日期:2018-10-30
    • 文件大小:14680064
    • 提供者:hardpen2013
  1. 统计学习方法_李航

  2. 统计学习是计算机及其应用领域的一门重要的学科。本书全面系统地介绍了统计学习的主要方法,特别是监督学习方法,包括感知机、k近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、em算法、隐马尔可夫模型和条件随机场等。除第1章概论和最后一章总结外,每章介绍一种方法。叙述从具体问题或实例入手,由浅入深,阐明思路,给出必要的数学推导,便于读者掌握统计学习方法的实质,学会运用。为满足读者进一步学习的需要,书中还介绍了一些相关研究,给出了少量习题,列出了主要参考文献。 《统计学习方法
  3. 所属分类:机器学习

  1. 短期负荷预测

  2. 为了克服BP的这些缺陷,本人对算法做了一些改进确定连接权修正值的计算过程,实际上是优化计算的梯度下降法。当能量公式对应的误差曲面为窄长型时,这种算法在谷的两壁跳来跳去,影响了网络的收敛速度,对算法最普通的改进方法是增加附加动量项。利用附加动量项可以起到平滑梯度方向的剧烈变化,增加算法的稳定性。在具体计算中,学习率η越大,学习速度会越快,但过大时会引起震荡效应;而动量因子α取得过大可能导致发散,过小则收敛速度过慢。并为了解决BP易于陷于极小值现象,用人工遗传算法来优化BP网络的初始权值。遗传算法
  3. 所属分类:其它

    • 发布日期:2019-04-23
    • 文件大小:131072
    • 提供者:lzm1059
  1. 轻量级大规模机器学习算法库Fregata.zip

  2. Fregata 是一个基于 Apache Spark 的轻量级、超快速、大规模的机器学习库,并在 Scala 中提供了高级 API。特性更准确:对于各种问题,Fregata 可以实现比 MLLib 更高的精度。更快速:对于广义线性模型,Fregata 在绝大部分数据上都能够扫描一遍数据即收敛。对于 10 亿 X 10 亿的数据集,Fregata 可以在 1 分钟内用内存缓存训练广义线性模型,或在没有内存缓存的情况下训练 10 分钟。通常,Fregata 比 MLLib 快 10-100 倍。算
  3. 所属分类:其它

    • 发布日期:2019-07-19
    • 文件大小:156672
    • 提供者:weixin_39840914
  1. scikit-learn-0.21.3-中文文档.pdf

  2. scikit-learn 是基于 Python 语言的机器学习工具 简单高效的数据挖掘和数据分析工具 可供大家在各种环境中重复使用 建立在 NumPy ,SciPy 和 matplotlib 上 开源,可商业使用 - BSD许可证1.监督学习 1广义线性模型 °1.1.1普通最小二乘法 1.1.2岭回归 1.1.3LaSs0 o1.1.4多任务 Lasso 115弹性网络 o116多任务弹性网络 1.1.7最小角回归 1.1. 8 LARS Lasso 1.19正交匹配追踪法(OMP 1.1.1
  3. 所属分类:机器学习

    • 发布日期:2019-08-24
    • 文件大小:41943040
    • 提供者:h394266861
  1. 实例详解机器学习如何解决问题

  2. 随着大数据时代的到来,机器学习成为解决问题的一种重要且关键的工具。不管是工业界还 是学术界,机器学习都是一个炙手可热的方向,但是学术界和工业界对机器学习的研究各有 侧重,学术界侧重于对机器学习理论的研究,工业界侧重于如何用机器学习来解决实际问 题。我们结合美团在机器学习上的实践,进行一个实战(InAction)系列的介绍(带“机器 学习InAction系列”标签的文章),介绍机器学习在解决工业界问题的实战中所需的基本技 术、经验和技巧。本文主要结合实际问题,概要地介绍机器学习解决实际问题的整个流
  3. 所属分类:机器学习

    • 发布日期:2019-07-02
    • 文件大小:1048576
    • 提供者:abacaba
  1. 小批量梯度下降实现BP神经网络.rar

  2. 用小批量梯度下降法实现函数逼近,Matlab自编程,可以看到逼近过程和误差下降过程,可以通过修改step实现批量梯度和随机梯度下降。
  3. 所属分类:其它

    • 发布日期:2020-06-10
    • 文件大小:5120
    • 提供者:caojianfa969
  1. svm编程随机梯度下降法来实现一个版本的软边距支持向量机

  2. SVM编程(内含数据集) 您需要使用课程中介绍的随机梯度下降法来实现一个版本的软边距支持向量机。您将在给定的数据集(从课程网站下载)上运行代码,然后对测试数据集进行预测。衡量你得分的标准是你在测试数据集上的准确性。(提示:由于测试数据集中没有给定的标签,因此需要从训练集中创建验证数据集以优化参数)。
  3. 所属分类:机器学习

    • 发布日期:2020-06-22
    • 文件大小:526336
    • 提供者:cheng_hai_yan
  1. 三种优化算法实现根据两门成绩判断学生能否录取的logistic应用

  2. 用三种优化方法实现logistic回归的应用,根据学生的两门成绩,判断是否能录取。采用梯度下降法(GD),随机梯度下降法(SGD)和牛顿法(Newton)三种优化方法,绘制动态迭代图,可以动态观察决策结果以及损失函数的收敛过程。数据集和三种算法的代码均打包在一起,采用Jupyter Notebook编写(python)。
  3. 所属分类:Python

    • 发布日期:2020-07-01
    • 文件大小:12288
    • 提供者:ldm_666
  1. python实现随机梯度下降法

  2. 主要为大家详细介绍了python实现随机梯度下降法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:70656
    • 提供者:weixin_38701156
  1. python实现随机梯度下降法

  2. 看这篇文章前强烈建议你看看上一篇python实现梯度下降法: 一、为什么要提出随机梯度下降算法 注意看梯度下降法权值的更新方式(推导过程在上一篇文章中有)  也就是说每次更新权值都需要遍历整个数据集(注意那个求和符号),当数据量小的时候,我们还能够接受这种算法,一旦数据量过大,那么使用该方法会使得收敛过程极度缓慢,并且当存在多个局部极小值时,无法保证搜索到全局最优解。为了解决这样的问题,引入了梯度下降法的进阶形式:随机梯度下降法。 二、核心思想 对于权值的更新不再通过遍历全部的数据集,而是选择
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:70656
    • 提供者:weixin_38618094
  1. Python实现简单遗传算法(SGA)

  2. 本文用Python3完整实现了简单遗传算法(SGA) Simple Genetic Alogrithm是模拟生物进化过程而提出的一种优化算法。SGA采用随机导向搜索全局最优解或者说近似全局最优解。传统的爬山算法(例如梯度下降,牛顿法)一次只优化一个解,并且对于多峰的目标函数很容易陷入局部最优解,而SGA算法一次优化一个种群(即一次优化多个解),SGA比传统的爬山算法更容易收敛到全局最优解或者近似全局最优解。 SGA基本流程如下: 1、对问题的解进行二进制编码。编码涉及精度的问题,在本例中精度
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:137216
    • 提供者:weixin_38672962
  1. OptimizationForMachineLearning:机器学习优化中的项目R代码-源码

  2. 机器学习优化 机器学习优化中的项目R代码 R中没有ML库用于该硬件。 作业1实施并可视化梯度下降和随机梯度下降。 作业2绘制一些功能,并注释是否凸出。对先前的作业问题实施牛顿法。 作业3在数据集上实现并可视化逻辑回归。 作业4在数据集上实施和可视化SVM。 最终项目预测COVID数据的死亡率。
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:9437184
    • 提供者:weixin_42131342
  1. from_scratch:从头开始实现的ML示例-源码

  2. 从头开始 从头开始实施的ML /优化示例。 该代码库旨在在ML和优化常用功能背后建立直觉。 现在,该代码库包含以下示例: KMeans聚类 主成分分析(PCA):刮擦法使用幂迭代来计算奇异值和特征向量 线性回归:对多个自变量进行线性回归。 通过求解法线方程,梯度下降和随机(小批量)梯度下降确定的参数估计值 使用最速下降法和共轭梯度法求解线性方程组Ax = b 逻辑回归
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:126976
    • 提供者:weixin_42137723
  1. 机器学习:Python机器学习在图像处理和算法实现中的应用,包括期望最大化,因子分析,高斯混合模型,OPTICS,DBSCAN,随机森林,决策树,支持向量机,主成分分析,K最近邻,K Means,朴素贝叶斯混合模型,高斯判别分析,牛顿法,梯

  2. 机器学习 介绍 机器学习是如此别致,每个程序员甚至非程序员都开始学习。 经过几个月的在线课程,每个人都成为了自称为数据科学家。 管理人员寄予厚望,并部署数据科学家来进行机器学习。 很快,人们遇到了死胡同,在虹膜数据集范围之外的事情运行得并不顺利! 如果您去过我的其他存储库,例如或,您一定已经看到我猛烈抨击机器学习的鲁ck应用。 停止销售AI蛇油! 不要误会我的意思。 我不是对机器学习持怀疑态度的人。 我看到了机器学习的巨大潜力,但是我对目前对人工智能的高估持怀疑态度,而坦率地说,人工智能已经不在
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:2097152
    • 提供者:weixin_42105570
  1. NeuralNetwork.NET:受TensorFlow启发的神经网络库,它是在C#7.3中为.NET Standard 2.0从零开始构建的,并通过cuDNN支持GPU-源码

  2. 它是什么? NeuralNetwork.NET是一个.NET Standard 2.0库,它实现了具有可自定义层的顺序图和计算图神经网络,并使用C#从头开始构建。 它提供了一些简单的API,这些API设计用于快速原型设计,以使用随机梯度下降法定义和训练模型,以及保存/加载网络模型及其元数据等的方法。 该库还公开了具有更高级功能的CUDA加速层,这些功能利用GPU和cuDNN工具包极大地提高了训练或使用神经网络时的性能。 免责声明:此库按原样提供,不再被积极维护。 NeuralNetwork.
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:11534336
    • 提供者:weixin_42126274
  1. 机器学习-P3 梯度下降

  2. 文章目录1,介绍基本原理关于参数eta并不是所有函数都有唯一的极值点2,代码实现会用到的库原材料简单地梯度下降3,简单地封装一下关于参数4,线性回归的梯度下降法 1,介绍 基本原理 梯度下降 不是一个机器学习的算法 是一个基于搜索的最优化方法 作用:最小化一个损失函数 梯度上升法:最大化一个效用函数 (不管在最低点哪一侧都会是,都会是下降的) 关于参数eta 并不是所有函数都有唯一的极值点 解决方法: 多次运行,随机化初始点 梯度下降法的初始值也是一个超参数 2,代码实现 会用到的库
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:495616
    • 提供者:weixin_38591291
  1. modern-algorithm-ideas:我对有趣算法思想的个人实现-源码

  2. 现代算法思想 只是一些众所周知的算法思想及其我的实现。 最小计数草图数据结构:一种概率数据结构,用作数据流中事件的频率表。 它使用哈希函数将事件映射到频率,但与哈希表不同的是,它仅使用子线性空间,但会因冲突而过度计算某些事件。 局部最小优化算法: 岭回归的梯度下降:梯度下降是一阶迭代优化算法,用于找到可微函数或某种平滑函数的局部最小值。 想法是在当前点沿梯度的相反方向重复执行步骤,因为这是最陡下降的方向。 用于岭回归的随机梯度下降法:随机梯度下降法与梯度下降法具有相同的思想,但SGD会在
  3. 所属分类:其它

    • 发布日期:2021-03-29
    • 文件大小:11264
    • 提供者:weixin_42118160
« 12 »