您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. RLSimpleBaselines:强化学习算法的简单PyTorch实现-源码

  2. 强化学习简单基准 “简单基准”旨在作为受OpenAI Spinning Up启发的信息技术学习的教育资源。 简单基准是PyTorch的实现。 表格方法 状态 动态编程 :check_mark: 蒙特卡洛 :check_mark: 时间差异 :check_mark: 函数Approheavy_check_markimators 状态 dqn :check_mark: 加强 :check_mark: a2c :check_mark: ddpg :check_mar
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:621568
    • 提供者:weixin_42103587
  1. EasyRL:EasyRL-源码

  2. EasyRL 概述 近年来,我们目睹了强化学习(RL)的许多令人瞩目的进步,包括AlphaGo,OpenAI Five等。对于实际应用,我们已经成功地将RL应用到了许多电子商务场景中,例如基于会话的学习进行排名,与有监督的学习范式相比,RL的交互性提高了其应用的门槛,因为从业者必须 实现复杂的学习算法,而不是简单地从TensorFlow(TF)/ PyTorch中选择一种损失,模型和优化器 当考虑分布式设置时,处理数据(状态,动作,奖励等)和模型参数的通信 此仓库以独立和分布式模式提供了许多广泛
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:724992
    • 提供者:weixin_42139252
  1. dqn_agent:dqn大脑和记忆供私人使用-源码

  2. dqn_agent dqn大脑和记忆供私人使用
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:519168
    • 提供者:weixin_42116650
  1. 2048-Gym:该项目旨在使用强化学习算法来玩2048游戏-源码

  2. 2048健身房 该存储库是一个有关使用DQN(Q-Learning)玩2048游戏并使用加速和加速环境的。使用的算法来自“ ,环境是自定义的 env。该环境包含两种类型的电路板表示形式:二进制和无二进制。第一个使用幂二矩阵来表示电路板的每个图块。相反,没有二进制文件使用原始矩阵板。 该模型使用两种不同类型的神经网络:CNN(卷积神经网络),MLP(多层感知器)。使用CNN作为特征提取器比使用MLP更好。可能是因为CNN可以提取空间特征。结果,代理在1000个已玩游戏的10%中获得2048个图块。
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:59768832
    • 提供者:weixin_42097208
  1. my_PDQN:我的纸张Parameterized-DQN代码-源码

  2. my_PDQN:我的纸张Parameterized-DQN代码
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:5120
    • 提供者:weixin_42099116
  1. AlphaSnake-Zero:基于AlphaGo Zero的算法的增强型学习AI,可以玩同步策略游戏《战栗》-源码

  2. 介绍 有关算法的详细说明,请检查。 抽象的 最近,有关强化学习的研究很多。 Q学习或DQN试图解决单人与环境的问题,而AlphaGo等其他方法则尝试双人游戏。在这个项目中,我们尝试找到一种算法来生成在多主体同步策略游戏中表现良好的主体。尽管此项目特定于称为Battlesnake的游戏,但我们使用的方法和算法不限于此。数学适用于具有有限状态和动作空间的任何同步游戏。 要求: 的Python 3.7.6 NumPy 1.18.1 TensorFlow 2.1.0 指示: 转到“代码”文件夹并运行
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:1048576
    • 提供者:weixin_42123191
  1. pfrl:PFRL-源码

  2. PFRL PFRL是一个深度强化学习库,它使用在Python中实现了各种最新的深度强化算法。 安装 PFRL已通过Python 3.7.7进行了测试。有关其他要求,请参见 。 PFRL可以通过PyPI安装: pip install pfrl 也可以从源代码安装: python setup.py install 有关的更多信息,请参阅安装。 入门 您可以先尝试《 ,或查看适用于Atari 2600和Open AI Gym的。 有关更多信息,您可以参考。 演算法 算法 离散动作 连续动作
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:4194304
    • 提供者:weixin_42128963
  1. leedeeprl-notes:李宏毅《深度强化学习》笔记,在线阅读地址:https-源码

  2. 李宏毅深度强化学习笔记(LeeDeepRL-注意事项) 李宏幽默老师的《深度强化学习》是强化学习领域经典的中文视频之一。李老师幽默风趣的上课风格让晦涩难懂的强化学习理论变得轻松易懂,他会通过很多有趣的例子例证解强化学习理论。某些老师经常会用玩Atari游戏的例子解释解解强化学习算法。如此,为了课程的补充,我们整理了周博磊老师的《强化学习纲要》,李科浇老师的《百度强化学习》。以及多个强化学习的经典资料作为补充。对于想入门强化学习又想看中文讲解的人来说绝对是非常推荐的。 使用说明 第4章到第11章为
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:141557760
    • 提供者:weixin_42175776
  1. Reinforcement_Learning-源码

  2. 补强_学习 该存储库包含我在各种深度强化学习算法的实现方面的工作。 这些包括我的项目和Ioannis Karamouzas博士在CS8810深度强化学习课程中的作业。 Pytorch在Open-AI中在lunarlander-env上实现进化策略算法。 在Open-AI中的frogger-env上实现Deep Q Network(DQN)算法。 代理试图通过单向交通穿越高速公路。 代理的操作集由上下移动的2个操作组成。 Open-AI中关于frogger2-env的Double DQN算法
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:1024
    • 提供者:weixin_42151305
  1. GameAISDK:基于图像的游戏AI自动化框架-源码

  2. AI SDK平台 AI SDK平台是一个基于游戏图像来开发游戏AI的开源工具包。工具包主要完成了UI检测,游戏内部元素识别,AI算法(DQN,IM)等功能。可以基于这个工具包完成游戏自动化测试。目前已支持的游戏类型有跑酷类,吃鸡类,射击类,MOBA类等。 工具包主要包括AI SDK,AI Client,SDKTool(配置文件工具)这几部分。 SDKTool帮助我们生成跟特定游戏相关的AI SDK所需要的配置文件。如游戏运行过程中,整个流程中需要动作交互的UI,需要识别的游戏元素等。 AI S
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:184549376
    • 提供者:weixin_42146888
  1. GITHUB-STURCURED:网址-源码

  2. 交易算法(新台币进度) 回归+库存用例 随机森林+种群用例 DQN +库存用例 MARL +股票用例 RL和MARL算法 表示法:PL =火炬闪电 补强-PL DQN-PL A2C(A3C) PPO DDPG SAC I2A MADDPG(多代理) TD3 AlphaGo Mu 马尔... 欢迎使用GitHub Pages-Arseni 您可以使用的来维护和预览Markdown文件中网站的内容。 每当您提交到该存储库时,GitHub Pages都将运行从Markdown文
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:1024
    • 提供者:weixin_42134094
  1. DQN-toys:在建筑游戏特工上使用深度强化学习的玩具模型-源码

  2. DQN玩具 用于在构建游戏代理上使用深度强化学习的玩具模型。
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:16384
    • 提供者:weixin_42099302
  1. SAC:软演员评论家的实施-源码

  2. 软演员评论家(SAC) Descllione dell'algoritmo 软演员评论家深度强化学习DQN(Deep Q Learning)的非政策派生,也可以从以下方面进行分类: La Q函数视图的神经网络输入(输入:(stato,azione),输出:valore) 非因果关系的公司 L'agente conosce lo stato in cui si trova(communque una descrizione parziale dello stato attuale) L'a
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:1048576
    • 提供者:weixin_42178688
  1. DQN-源码

  2. DQN和DUEN DQN算法的实现 这两种算法都是在开放式健身房的更严寒的环境中执行的。 在FROGGER-v0环境中实施DQN,在FROGGER-v1环境中实施DQN
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:31744
    • 提供者:weixin_42121272
  1. deep-reinforcement-learning-atari-pong:强化学习DQN算法的PyTorch在OpenAI Atari Pong游戏中的应用-源码

  2. Atari Pong中的深度强化学习算法 概括 此应用程序的目标是找出深度Q学习(DQN)在OpenAI环境中对Pong的Atari 1600游戏有多准确和有效。 在DQN之上,测试了对相同算法的其他改进,包括多步DQN,Double DQN和Dueling DQN。 从下图可以看出,基本DQN仅需玩约110场游戏即可达到类似于人的准确性,而经过300场游戏即可达到极高的准确性。 此项目中考虑的DQN改进版本显示出效率和准确性方面的一些改进。 基本DQN:第1集与第216集 环保环境 Atar
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:1048576
    • 提供者:weixin_42125867
  1. Missile-control-with-DQN-源码

  2. 海防环境的导弹目标选择任务 流程介绍:敌方舰艇以固定阵型排列,我方18枚导弹依次选择攻击目标并以直线轨迹攻击,攻击过程中若进入防御舰艇的防御长度内则有一定几率被拦截,舰艇被攻击一定次数后死亡,同样的,可以根据任务需求,通过改变不同类型的舰艇艇的价值来调整导弹攻击的侧重点,综上,需要合理选择攻击目标和攻击并以预期的伤害最大化 状态空间定义为18个导弹的目标选择,初始化为[-1] * 18,每进行一个步骤填进去一个动作(攻击目标)动作空间定义为可以选择的舰艇数量,如果有7个舰艇则动作空格〜[0,6]
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:83886080
    • 提供者:weixin_42121905
  1. DQN-Pytorch:在Pytorch中实现DQN-源码

  2. DQN-Pytorch 在Pytorch中实现DQN
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:6144
    • 提供者:weixin_42116672
  1. CDP-ReinforcementTrading-:使用强化学习算法创建交易机器人-DQN-源码

  2. CD Projekt RED-强化交易 使用DQN创建RL交易机器人。
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:274432
    • 提供者:weixin_42109545
  1. 编译器gym-dqn-源码

  2. 编译器gym-dqn
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:6144
    • 提供者:weixin_42104947
  1. Cartpole-dqn-源码

  2. Cartpole-dqn
  3. 所属分类:其它

    • 发布日期:2021-02-08
    • 文件大小:3072
    • 提供者:weixin_42123456
« 12 3 4 5 »