您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ai-traineree:用于(深度)强化学习的PyTorch代理和工具-源码

  2. 实习生 目的是建立一个深度强化学习方法的动物园,并展示它们在某些环境中的应用。 在文档中阅读更多信息: 。 为什么要另选一个? 主要原因是执行哲学。 我们坚信,代理应该出现在环境中,而不是相反。 大多数流行的实现都将环境实例传递给代理,就像代理是焦点一样。 这可能会简化某些算法的实现,但并不代表世界。 代理想要控制环境,但这并不意味着他们可以/应该。 那,然后使用PyTorch代替Tensorflow或JAX。 快速开始 要开始培训RL代理,您需要三件事:代理,环境和跑步者。 假设您要
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:142336
    • 提供者:weixin_42174098
  1. MineRL-Project-源码

  2. MineRL项目-Minecraft中的深度强化学习 我们测试了DQN和PPO算法。 该代理的目标是在视频游戏环境中导航。 给定摄像机数据作为输入,座席必须走到指定位置。 动作很简单:向前,向后,向左,向右,平移等。 QLearning 针对MineRLNavigateDense-v0环境的深度Q学习。 用法 要测试预训练的网络:运行test.py 训练新网络:运行train.py 依存关系 经过以下培训和测试: Python 3.6 PyTorch 1.0 NumPy 1.15.3 gy
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:3145728
    • 提供者:weixin_42105570
  1. DQN-Pytorch:在Pytorch中实现DQN-源码

  2. DQN-Pytorch 在Pytorch中实现DQN
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:6144
    • 提供者:weixin_42116672
  1. DeepReinforcementLearning:深度RL实施。 在pytorch中实现的DQN,SAC,DDPG,TD3,PPO和VPG。 经过测试的环境:LunarLander-v2和Pendulum-v0-源码

  2. 使用Pytorch实现的深度RL算法 算法列表: 关于深入探讨 实验结果: 算法 离散环境:LunarLander-v2 连续环境:Pendulum-v0 DQN -- VPG -- DDPG -- TD3 -- SAC -- PPO -- 用法: 只需直接运行文件/算法。 在我学习算法时,它们之间没有通用的结构。 不同的算法来自不同的来源。 资源: 未来的项目: 如果有时间,我将为使用RL的电梯添加一个简单的程序。 更好的图形
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:400384
    • 提供者:weixin_42099070
  1. 机器学习:我在PyTorch,Keras,Tensorflow,scikit学习和Python中进行机器学习的项目-源码

  2. 机器学习 我的项目,Kaggle竞赛和一些流行的机器学习算法的实现。 我还列出了我在ML / DL / AI领域策划的研究论文清单。 指数: 内容: 专案 以下是我在机器学习领域完成的项目: 名称 描述 实现不同的强化学习算法,例如DQN,Double-DQN,Dualling-DQN,蒙特卡洛,时间差等。 能够在基于Unity ML-Agents的Banana Collector环境中获得最大回报的Deep-Q Learning代理 深度确定性策略梯度学习代理,能够在基于Unity ML
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:22020096
    • 提供者:weixin_42099633
  1. minimalRL:用最少的代码行实现基本的RL算法! (基于火炬)-源码

  2. 最小RL 用最少的代码行实现基本的RL算法! (基于PyTorch) 每种算法都在一个文件中完成。 每个文件的长度最多为100〜150行代码。 即使没有GPU,也可以在30秒内训练每种算法。 Env固定为“ CartPole-v1”。 您可以只关注实现。 演算法 (67行) (98行) (112行,包括重放内存和目标网络) (119条线,包括GAE) (145行,包括OU噪声和软目标更新) (129条线) (149条线) (188条线) (171行)已添加
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:18432
    • 提供者:weixin_42121725
  1. DeepRL_PyTorch:用于研究的深度强化学习代码。 当前,仅存在算法代码:DQN,C51,QR-DQN,IQN和QUOTA-源码

  2. 深度强化学习代码 当前,这里只有用于分布增强学习的代码。 C51,QR-DQN和IQN的代码与略有。 QUOTA是基于算法作者同的工作而实现的。 我最近注意到,我的DQN代码可能无法获得理想的性能,而其他代码却运行良好。 如果有人可以指出我的代码中的错误,我将不胜感激。 随时进行聊天-如果您想讨论任何事情,请给我发送电子邮件。 依赖关系: pytorch(> = 1.0.0) 体育馆(= 0.10.9) 麻木 matplotlib 用法: 为了运行我的代码,您需要在主目录下创建
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:33792
    • 提供者:weixin_42131352
  1. torchrl:强化学习算法的Pytorch实现(软演员评论员(SAC)DDPG TD3 DQN A2C PPO TRPO)-源码

  2. 火炬RL RL方法的Pytorch实现 支持具有连续和离散动作空间的环境。 支持具有1d和3d观察空间的环境。 支持多进程环境 要求 一般要求 火炬1.7 健身房(0.10.9) Mujoco(1.50.1) 列表(用于日志) tensorboardX(日志文件输出) 张量板要求 Tensorflow:启动tensorboard或读取tf记录中的日志 安装 使用use environment.yml创建虚拟环境 conda create -f environment.ym
  3. 所属分类:其它

    • 发布日期:2021-02-01
    • 文件大小:174080
    • 提供者:weixin_42123191
  1. 带有火炬的深度增强学习:DQN,AC,ACER,A2C,A3C,PG,DDPG,TRPO,PPO,SAC,TD3和PyTorch实施...-源码

  2. 状态:活动(在活动开发中,可能会发生重大更改) 该存储库将实现经典且最新的深度强化学习算法。 该存储库的目的是为人们提供清晰的pytorch代码,以供他们学习深度强化学习算法。 将来,将添加更多最先进的算法,并且还将保留现有代码。 要求 python = 0.10 火炬> = 0.4 请注意,tensorflow不支持python3.7 安装 pip install -r requirements.txt 如果失败: 安装健身房 pip install gym 安装pytorc
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:5242880
    • 提供者:weixin_42131443
  1. 强化学习算法:此存储库包含大多数基于pytorch实现的经典深度强化学习算法,包括-DQN,DDQN,Dualling Network,DDPG,SAC,A2C,PPO,TRPO。 (更多算法仍在进行中)-源码

  2. 深度强化学习算法 该存储库将使用PyTorch实现经典的深度强化学习算法。 该存储库的目的是为人们提供清晰的代码,以供他们学习深度强化学习算法。 将来,将添加更多算法,并且还将保留现有代码。 当前实施 深度Q学习网络(DQN) 基本DQN 双Q网络 决斗网络架构 深度确定性策略梯度(DDPG) 优势演员评判(A2C) 信任区域策略梯度(TRPO) 近端政策优化(PPO) 使用克罗内克因素信任区域(ACKTR)的演员评论家 软演员评论(SAC) 更新信息 :triangu
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:3145728
    • 提供者:weixin_42117150