您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Q学习sarsa学习代码包

  2. 从各种网站在下载到的Q学习算法集成包,有matlab示例,有C示例,有Java示例,有C++示例。总有一个算法是你需要模拟和借鉴的,需要研究强化学习或增强学习算法的人不容错过。。。真心话,要不是我需要下载别的资源需要积分,不会无私奉献。。。我的强化学习就是在这里面修改实现的,需要的顶起来。。
  3. 所属分类:C/C++

    • 发布日期:2013-05-17
    • 文件大小:266240
    • 提供者:sysuywc
  1. Q学习sarsa学习 java

  2. Q学习算法sarsa学习算法的Java示例。
  3. 所属分类:Java

    • 发布日期:2014-12-04
    • 文件大小:4096
    • 提供者:drovi
  1. 强化学习 Dyna-H算法代码

  2. sarsa,q-learning
  3. 所属分类:其它

    • 发布日期:2017-04-03
    • 文件大小:8192
    • 提供者:hona1022
  1. matlab强化学习平衡杆代码

  2. matlab中平衡杆问题的强化学习代码,包含Q学习、Sarsa学习的实现。
  3. 所属分类:机器学习

    • 发布日期:2018-04-24
    • 文件大小:9216
    • 提供者:u011271459
  1. 强化学习matlab山地车问题代码

  2. matlab强化学习中山地车问题的代码实现,包括Q学习、Sarsa学习、Sarsa(lambda)等
  3. 所属分类:机器学习

    • 发布日期:2018-04-24
    • 文件大小:30720
    • 提供者:u011271459
  1. 基于TensorFlow的项目实例

  2. 实例包括: CNN、图像相关:包含图像分类、目标检测、人脸识别、风格迁移,同时包含GAN、cGAN、CycleGAN等和GAN相关的内容 RNN、序列相关:文本生成、序列分类、训练词嵌入、时间序列预测、机器翻译等等。 强化学习:主要复现一些基础的算法,如Q Learning、SARSA、Deep Q Learning等。
  3. 所属分类:深度学习

    • 发布日期:2018-05-29
    • 文件大小:159383552
    • 提供者:flyingzerozero
  1. 19. 强化学习SARSA 算法.zip

  2. 通过与 Q Learning 对比学习 SARSA 算法,采用python语言代码实现
  3. 所属分类:Python

    • 发布日期:2019-05-08
    • 文件大小:3072
    • 提供者:weixin_43471818
  1. 用强化学习玩飞翔小鸟-播放Flappy Bird的AI程序.zip

  2. 该AI程序实现了多个AI代理来播放Flappy Bird。该计划应用强化学习技术,包括SARSA,Q学习和函数逼近。经过10,000次迭代的训练后,特工经常获得1400+的高分,最高游戏得分2069 该项目需要以下框架: Pygame:https://www.pygame.org PyGame学习环境:https://github.com/ntasfi/PyGame-Learning-Environment OpenAI体育馆:https ://gym.openai.com Gy-pl
  3. 所属分类:其它

    • 发布日期:2020-03-27
    • 文件大小:23552
    • 提供者:weixin_38747087
  1. Matlab强化学习_网格迷宫问题_SarsaLambda算法

  2. MATLAB强化学习代码包,用于解决多步决策模型(网格迷宫问题)的Sarsa-λ算法 "I thought what I'd do was I'd pretend I was one of those deaf-mutes, or should I?"
  3. 所属分类:机器学习

    • 发布日期:2020-01-19
    • 文件大小:2048
    • 提供者:weixin_43723517
  1. Matlab强化学习_网格迷宫问题_Sarsa算法

  2. MATLAB强化学习代码包,用于解决多步决策模型(网格迷宫问题)的Sarsa算法。 编程与算法的详细说明可参看我的专栏:https://blog.csdn.net/weixin_43723517/category_9676083.html "I thought what I'd do was I'd pretend I was one of those deaf-mutes, or should I?"
  3. 所属分类:机器学习

    • 发布日期:2020-01-19
    • 文件大小:2048
    • 提供者:weixin_43723517
  1. dueldqn.pdf

  2. 关于duelingdqn的原始论文,适合初学者对深度强化学习duelingdqn的认识和了解Dueling Network Architectures for Deep Reinforcement Learning et al.(2016). The results of Schaul et al.(2016) are the 2.1. Deep Q-networks current published state-of-the-art The value functions as descri
  3. 所属分类:讲义

    • 发布日期:2019-09-02
    • 文件大小:688128
    • 提供者:m0_37384317
  1. 强化学习笔记(4)无模型控制Model-Free Control(On-policy learning, off-policy learning, GLIE, Sarsa, Q-learning)

  2. 文章目录Introduction概念On-Policy learningOff-Policy learningMonte-Carlo Control问题1:使用行为价值函数代替状态价值函数贪婪策略基于行为价值函数的更新:问题2:使用贪婪算法的局限性例解决方案:ϵ−greedy\epsilon-greedyϵ−greedyGLIE定理:GLIE Monte-Carlo Control定理TD ControlSarsa​算法描述定理缺点:Sarsa(λ)Sarsa(\lambda)Sarsa(λ)n
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:519168
    • 提供者:weixin_38503233
  1. RL2020_Building-a-Complete-RL-System_Demonstration:爱丁堡大学强化学习课程“构建完整的RL系统”讲座的演示代码-源码

  2. 演示代码“构建完整的RL系统”讲座 介绍 此代码演示了我们对确定性FrozenLake任务的SARSA实现,并作为“构建完整的Rl系统”讲座的附加信息。 该讲座是爱丁堡大学一部分。 依存关系 要运行python代码,您将需要可以使用以下命令安装的 pip install gym 进一步的依赖关系是和 ,可以通过以下方式安装 pip install matplotlib pip install numpy Jupyter笔记本 我们强烈建议您在自己的时间阅读本演示的jupyter笔记本文件! 这
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:2097152
    • 提供者:weixin_42159267
  1. 基于Sarsa(λ)的实时交通灯协调控制模型

  2. 由于道路上数量众多的车辆的交通需求,经常会出现交通问题。 最大化交通流量和最小化平均等待时间是智能交通控制的目标。 每个路口都希望获得更大的交通流量。 在此过程中,路口形成协调政策以及对相邻路口的约束,以最大化其自身利益。 良好的交通信号定时策略有助于解决该问题。 但是,由于有太多因素会影响交通控制模型,因此很难找到最佳解决方案。 交通信号灯控制器无法从过去的经验中学习,导致他们无法适应交通流量的动态变化。 考虑到实际交通环境的动态特性,可以采用基于强化学习算法的交通控制方法来获得最优的调度策略
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:1019904
    • 提供者:weixin_38735790
  1. rl代码:强化学习代码段-源码

  2. 强化学习代码段 如何运行 安装要求 pip install -r requirements.txt 运行代码 cd value-based/tabular # test sarsa code python -m sarsa # if running in terminal without display, use blow command xvfb-run -a -s " -screen 0 1400x900x24 " python -m raw_dqn 1. 1.1 1.2 2.基于策略
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:99614720
    • 提供者:weixin_42097668
  1. 强化学习:SARSA,SARSA-Lambda的实现以及函数逼近来解决一系列开放式AI Gym环境-源码

  2. 项目概况: 该项目使用强化学习来解决出租车和山地车Open AI体育馆的问题。 对于出租车,可以在( )上详细探讨目标。 对于山地车,可以在( )上详细探讨目标。 为了解决出租车问题,我实现了SARSA和SARSA Lambda算法。 对于山地车问题,我将SARSA Lambda与函数逼近合并(使用傅立叶基础函数)。 运行说明: python3 taxi_sarsa.py 将执行SARSA学习算法,并将q值和策略保存到.npy文件。 。 注意:先前的学习序列中的存储库中已经包含一组
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:100352
    • 提供者:weixin_42119358
  1. Q学习山车v0-源码

  2. 带Q学习和SARSA的MountainCar-v0 该项目包含用于培训代理商以解决。 Q-Learning和SARSA 山地车环境 环境是二维的,由两座山丘之间的汽车组成。 汽车的目标是到达右侧山顶的旗帜。 丘陵太陡峭,以至于仅通过向同一方向移动就无法缩放汽车,它必须后退并第四次建立足够的动力才能向上行驶。 观察空间: 这是两个确定环境当前状态的变量。 赛车在赛道上的位置,从-1.2到0.6 轿厢速度,从-0.07到0.07。 左为负,右为正。 动作: 汽车可以采取以下三种不同的动作之
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:288768
    • 提供者:weixin_42109178
  1. 求解部分可观测马氏决策过程的强化学习算法

  2. 针对部分可观测马氏决策过程(POMDP) 中, 由于感知混淆现象的存在, 利用Sarsa 等算法得到的无记忆策 略可能发生振荡的现象, 研究了一种基于记忆的强化学习算法——CPnSarsa (K) 学习算法来解决该问题. 它通过重新 定义状态,A gent 结合观测历史来识别混淆状态. 将CPnSarsa (K) 算法应用到一些典型的POMDP, 最后得到的是最 优或近似最优策略. 与以往算法相比, 该算法的收敛速度有了很大提高.
  3. 所属分类:其它

    • 发布日期:2021-01-15
    • 文件大小:347136
    • 提供者:weixin_38642285
  1. 连续状态自适应离散化基于K-均值聚类的强化学习方法

  2. 使用聚类算法对连续状态空间进行自适应离散化,得到了基于K-均值聚类的强化学习方法.该方法的学习过程分为两部分:对连续状态空间进行自适应离散化的状态空间学习,使用K-均值聚类算法;寻找最优策略的策略学习,使用替代合适迹Sarsa学习算法.对连续状态的强化学习基准问题进行仿真实验,结果表明该方法能实现对连续状态空间的自适应离散化,并最终学习到最优策略.与基于CMAC 网络的强化学习方法进行比较,结果表明该方法具有节省存储空间和缩短计算时间的优点.
  3. 所属分类:其它

    • 发布日期:2021-01-15
    • 文件大小:223232
    • 提供者:weixin_38748055
  1. DRL:深度强化学习-源码

  2. 深度强化学习 概述。 强化学习[] [] []。 基于价值的学习[] []。 基于策略的学习[] []。 演员批评方法[] []。 AlphaGo [] []。 TD学习。 Sarsa [] []。 Q学习[] []。 多步TD目标[] []。 基于价值的学习的高级主题。 体验重播(ER)和优先级ER [] []。 高估,目标网络和双重DQN [] []。 决斗网络[] []。 具有基线的策略梯度。 具有基线的政策梯度[] []。 带有基线的REINFORCE [
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:18874368
    • 提供者:weixin_42138780
« 12 »