您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Python 强化学习 DQN Flappy Bird

  2. Playing Flappy Bird Using Deep Reinforcement Learning (Based on Deep Q Learning DQN)
  3. 所属分类:机器学习

    • 发布日期:2018-09-25
    • 文件大小:12582912
    • 提供者:asd136912
  1. 深度强化学习 DQN系列论文

  2. 深度强化学习系列论文,包括最基础的DQN,DQN模型改进,DQN算法改进,分层DRL,基于策略梯度的深度强化学习等等,论文基本源自顶会
  3. 所属分类:深度学习

    • 发布日期:2020-01-31
    • 文件大小:72351744
    • 提供者:weixin_43333326
  1. 1.dqn.ipynb

  2. 关于dqn的例子,适合初学者对深度强化学习dqn的认识和了解
  3. 所属分类:讲义

    • 发布日期:2019-09-02
    • 文件大小:111616
    • 提供者:m0_37384317
  1. DQN实现走迷宫(tkinter编写环境)

  2. Python实现走迷宫,迷宫环境可视化,代码参考莫烦python,可以直接运行,DQN网络使用tensorflow搭建,代码注释非常全,基本每一句都有,而且可以使用tensorboard查看日志,需要将log_out参数设置为true
  3. 所属分类:机器学习

    • 发布日期:2020-07-30
    • 文件大小:14336
    • 提供者:cherreggy
  1. 详细分析莫烦DQN代码

  2. 详细分析莫烦DQN代码 Python入门,莫烦是很好的选择,快去b站搜视频吧! 作为一只渣渣白,去看了莫烦的强化学习入门, 现在来回忆总结下DQN,作为笔记记录下来。 主要是对代码做了详细注释 DQN有两个网络,一个eval网络,一个target网络,两个网络结构相同,只是target网络的参数在一段时间后会被eval网络更新。 maze_env.py是环境文件,建立的是一个陷阱游戏的环境,就不用细分析了。 RL_brain.py是建立网络结构的文件: 在类DeepQNetwork中,有五个函数
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:81920
    • 提供者:weixin_38696590
  1. dqn_agent:dqn大脑和记忆供私人使用-源码

  2. dqn_agent dqn大脑和记忆供私人使用
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:519168
    • 提供者:weixin_42116650
  1. my_PDQN:我的纸张Parameterized-DQN代码-源码

  2. my_PDQN:我的纸张Parameterized-DQN代码
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:5120
    • 提供者:weixin_42099116
  1. DQN-toys:在建筑游戏特工上使用深度强化学习的玩具模型-源码

  2. DQN玩具 用于在构建游戏代理上使用深度强化学习的玩具模型。
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:16384
    • 提供者:weixin_42099302
  1. DQN-源码

  2. DQN和DUEN DQN算法的实现 这两种算法都是在开放式健身房的更严寒的环境中执行的。 在FROGGER-v0环境中实施DQN,在FROGGER-v1环境中实施DQN
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:31744
    • 提供者:weixin_42121272
  1. deep-reinforcement-learning-atari-pong:强化学习DQN算法的PyTorch在OpenAI Atari Pong游戏中的应用-源码

  2. Atari Pong中的深度强化学习算法 概括 此应用程序的目标是找出深度Q学习(DQN)在OpenAI环境中对Pong的Atari 1600游戏有多准确和有效。 在DQN之上,测试了对相同算法的其他改进,包括多步DQN,Double DQN和Dueling DQN。 从下图可以看出,基本DQN仅需玩约110场游戏即可达到类似于人的准确性,而经过300场游戏即可达到极高的准确性。 此项目中考虑的DQN改进版本显示出效率和准确性方面的一些改进。 基本DQN:第1集与第216集 环保环境 Atar
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:1048576
    • 提供者:weixin_42125867
  1. Missile-control-with-DQN-源码

  2. 海防环境的导弹目标选择任务 流程介绍:敌方舰艇以固定阵型排列,我方18枚导弹依次选择攻击目标并以直线轨迹攻击,攻击过程中若进入防御舰艇的防御长度内则有一定几率被拦截,舰艇被攻击一定次数后死亡,同样的,可以根据任务需求,通过改变不同类型的舰艇艇的价值来调整导弹攻击的侧重点,综上,需要合理选择攻击目标和攻击并以预期的伤害最大化 状态空间定义为18个导弹的目标选择,初始化为[-1] * 18,每进行一个步骤填进去一个动作(攻击目标)动作空间定义为可以选择的舰艇数量,如果有7个舰艇则动作空格〜[0,6]
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:83886080
    • 提供者:weixin_42121905
  1. TicTacToe:井字游戏,旨在用于通过强化学习(DQN)训练深度神经网络。 它也可以由2个人玩,并具有硬编码的AI,该AI永不松动,如果您不对其进行完美的游戏,则将获胜。-源码

  2. 深度Q学习井字游戏 该程序实现了一个PyGame TicTacToe,该游戏可以由两个人玩,一个人对一个算法AI,一个人对一个通过对付算法AI训练的神经网络。 训练算法使用Deep Mind的DQN建议: 重播经验记忆已实现,上限为250,000次 每轮训练都使用来自重播记忆库的大量随机经验 使用辅助神经网络来计算未来的Q值,然后每10场游戏用主网络的权重对其进行更新。 有关更多信息: :
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:3145728
    • 提供者:weixin_42181693
  1. DQN实战-附件资源

  2. DQN实战-附件资源
  3. 所属分类:互联网

  1. DQN实战-附件资源

  2. DQN实战-附件资源
  3. 所属分类:互联网

  1. DQN-Pytorch:在Pytorch中实现DQN-源码

  2. DQN-Pytorch 在Pytorch中实现DQN
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:6144
    • 提供者:weixin_42116672
  1. CDP-ReinforcementTrading-:使用强化学习算法创建交易机器人-DQN-源码

  2. CD Projekt RED-强化交易 使用DQN创建RL交易机器人。
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:274432
    • 提供者:weixin_42109545
  1. 编译器gym-dqn-源码

  2. 编译器gym-dqn
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:6144
    • 提供者:weixin_42104947
  1. Breakout-RL:使用带有CNN的DQN解决OpenAI Gym Env突破-源码

  2. Breakout-RL:使用带有CNN的DQN解决OpenAI Gym Env突破
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:5120
    • 提供者:weixin_42165712
  1. dqn:深度神经网络-源码

  2. dqn 深层神经网络
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:7168
    • 提供者:weixin_42098104
  1. DQN-Pong-From-Pixels-源码

  2. DQN-Pong-From-Pixels
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:90112
    • 提供者:weixin_42133680
« 12 3 4 5 6 7 8 9 10 »