您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ai-traineree:用于(深度)强化学习的PyTorch代理和工具-源码

  2. 实习生 目的是建立一个深度强化学习方法的动物园,并展示它们在某些环境中的应用。 在文档中阅读更多信息: 。 为什么要另选一个? 主要原因是执行哲学。 我们坚信,代理应该出现在环境中,而不是相反。 大多数流行的实现都将环境实例传递给代理,就像代理是焦点一样。 这可能会简化某些算法的实现,但并不代表世界。 代理想要控制环境,但这并不意味着他们可以/应该。 那,然后使用PyTorch代替Tensorflow或JAX。 快速开始 要开始培训RL代理,您需要三件事:代理,环境和跑步者。 假设您要
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:142336
    • 提供者:weixin_42174098
  1. DRL_OpenAI-CartPole-v0:OpenAI CartPole-v0基于DeepRL的解决方案-源码

  2. 基于OpenAI CartPole-v0 DeepRL的解决方案 使用深度Q网络(DQN),决斗DQN和决斗双DQN(D3QN) 软件/要求 Python IDE 皮查姆 深度学习库 Tensorflow + Keras 显卡 GeForce MX 250 口译员 Python 3.8 Python环境 水蟒 配套 requirements.txt 要设置Pycharm + Anaconda + GPU,请在查阅设置文件要导入所需的包 ,请在项目环境终端中输入以下说明: OpenAI
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:9437184
    • 提供者:weixin_42099987
  1. Cartpole-dqn-源码

  2. Cartpole-dqn
  3. 所属分类:其它

    • 发布日期:2021-02-08
    • 文件大小:3072
    • 提供者:weixin_42123456
  1. tensorflow-tutorial-samples:TensorFlow2教程TensorFlow 2.0教程入门教程实战案例-源码

  2. TensorFlow 2.0教程入门教程实战案例 用最白话的语言,讲解机器学习,神经网络与深度学习样本基于TensorFlow 1.4和TensorFlow 2.0实现 相关链接 , , , OpenAI体育馆 介绍了策略梯度算法(策略梯度)来玩CartPole-v0 介绍了DQN(深度Q学习)来玩MountainCar-v0游戏 Q-Table用神经网络来代替。 介绍了使用Q-Learning(创建Q-Table)来玩MountainCar-v0游戏 将连续的状态离散化。 介绍了使用纯
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:23068672
    • 提供者:weixin_42139460
  1. pytorch-rl:使用pytorch和visdom进行深度强化学习-源码

  2. 深度强化学习 火炬与视觉 训练有素的特工的样本测试(突破时使用DQN,乒乓球上使用A3C,CartPole上使用DoubleDQN,InvertedPendulum(MuJoCo)上使用连续A3C): 在Pong上训练A3C代理时具有16个学习者过程的示例在线绘图示例: 在CartPole上训练DQN代理时的示例日志记录(我们目前使用WARNING作为日志记录级别来摆脱来自visdom的INFO打印输出): [WARNING ] (MainProcess) [WARNING ] (Mai
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:12582912
    • 提供者:weixin_42174176
  1. minimalRL:用最少的代码行实现基本的RL算法! (基于火炬)-源码

  2. 最小RL 用最少的代码行实现基本的RL算法! (基于PyTorch) 每种算法都在一个文件中完成。 每个文件的长度最多为100〜150行代码。 即使没有GPU,也可以在30秒内训练每种算法。 Env固定为“ CartPole-v1”。 您可以只关注实现。 演算法 (67行) (98行) (112行,包括重放内存和目标网络) (119条线,包括GAE) (145行,包括OU噪声和软目标更新) (129条线) (149条线) (188条线) (171行)已添加
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:18432
    • 提供者:weixin_42121725
  1. drqn:探索DRQN +行动先验+基于状态的专家+基于历史的熵减少专家-源码

  2. 从修改。 PyTorch CartPole示例 用pytorch编写的简单Cartpole示例。 为什么选择卡特波尔? Cartpole是一个非常简单的问题,在许多情况下收敛速度非常快。 因此,您可以在计算机上运行此示例(也许只需要1〜2分钟)。 彩虹 DQN 双 决斗 多步骤 PER(优先体验重播) Nosiy-Net 分布的(C51) 彩虹 PG(政策梯度) 加固 演员评论家 优势演员评论家 GAE(广义优势估计) TNPG TRPO PPO-单
  3. 所属分类:其它

    • 发布日期:2021-04-01
    • 文件大小:355328
    • 提供者:weixin_42176612
  1. jax-rl:使用Jax和Gym实施强化学习算法(DQN)-源码

  2. 用Jax实现的深度强化学习算法 使用Jax实施深度强化学习。 在OpenAI健身房CartPole环境中进行测试。 演算法 DQN- 具有目标网络的DQN- 用法 # Install deps pip install -r requirements.text 训练模式 # Using launch scr ipt, by default set up to run multiple seeds ./launch.sh # Using python python3 run.py --age
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:602112
    • 提供者:weixin_42126399