点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - DQN-Pytorch:在Pytorch中实现DQN-源码
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
ai-traineree:用于(深度)强化学习的PyTorch代理和工具-源码
实习生 目的是建立一个深度强化学习方法的动物园,并展示它们在某些环境中的应用。 在文档中阅读更多信息: 。 为什么要另选一个? 主要原因是执行哲学。 我们坚信,代理应该出现在环境中,而不是相反。 大多数流行的实现都将环境实例传递给代理,就像代理是焦点一样。 这可能会简化某些算法的实现,但并不代表世界。 代理想要控制环境,但这并不意味着他们可以/应该。 那,然后使用PyTorch代替Tensorflow或JAX。 快速开始 要开始培训RL代理,您需要三件事:代理,环境和跑步者。 假设您要
所属分类:
其它
发布日期:2021-03-11
文件大小:142336
提供者:
weixin_42174098
MineRL-Project-源码
MineRL项目-Minecraft中的深度强化学习 我们测试了DQN和PPO算法。 该代理的目标是在视频游戏环境中导航。 给定摄像机数据作为输入,座席必须走到指定位置。 动作很简单:向前,向后,向左,向右,平移等。 QLearning 针对MineRLNavigateDense-v0环境的深度Q学习。 用法 要测试预训练的网络:运行test.py 训练新网络:运行train.py 依存关系 经过以下培训和测试: Python 3.6 PyTorch 1.0 NumPy 1.15.3 gy
所属分类:
其它
发布日期:2021-03-05
文件大小:3145728
提供者:
weixin_42105570
DQN-Pytorch:在Pytorch中实现DQN-源码
DQN-Pytorch 在Pytorch中实现DQN
所属分类:
其它
发布日期:2021-03-02
文件大小:6144
提供者:
weixin_42116672
DeepReinforcementLearning:深度RL实施。 在pytorch中实现的DQN,SAC,DDPG,TD3,PPO和VPG。 经过测试的环境:LunarLander-v2和Pendulum-v0-源码
使用Pytorch实现的深度RL算法 算法列表: 关于深入探讨 实验结果: 算法 离散环境:LunarLander-v2 连续环境:Pendulum-v0 DQN -- VPG -- DDPG -- TD3 -- SAC -- PPO -- 用法: 只需直接运行文件/算法。 在我学习算法时,它们之间没有通用的结构。 不同的算法来自不同的来源。 资源: 未来的项目: 如果有时间,我将为使用RL的电梯添加一个简单的程序。 更好的图形
所属分类:
其它
发布日期:2021-02-13
文件大小:400384
提供者:
weixin_42099070
机器学习:我在PyTorch,Keras,Tensorflow,scikit学习和Python中进行机器学习的项目-源码
机器学习 我的项目,Kaggle竞赛和一些流行的机器学习算法的实现。 我还列出了我在ML / DL / AI领域策划的研究论文清单。 指数: 内容: 专案 以下是我在机器学习领域完成的项目: 名称 描述 实现不同的强化学习算法,例如DQN,Double-DQN,Dualling-DQN,蒙特卡洛,时间差等。 能够在基于Unity ML-Agents的Banana Collector环境中获得最大回报的Deep-Q Learning代理 深度确定性策略梯度学习代理,能够在基于Unity ML
所属分类:
其它
发布日期:2021-02-05
文件大小:22020096
提供者:
weixin_42099633
minimalRL:用最少的代码行实现基本的RL算法! (基于火炬)-源码
最小RL 用最少的代码行实现基本的RL算法! (基于PyTorch) 每种算法都在一个文件中完成。 每个文件的长度最多为100〜150行代码。 即使没有GPU,也可以在30秒内训练每种算法。 Env固定为“ CartPole-v1”。 您可以只关注实现。 演算法 (67行) (98行) (112行,包括重放内存和目标网络) (119条线,包括GAE) (145行,包括OU噪声和软目标更新) (129条线) (149条线) (188条线) (171行)已添加
所属分类:
其它
发布日期:2021-02-03
文件大小:18432
提供者:
weixin_42121725
DeepRL_PyTorch:用于研究的深度强化学习代码。 当前,仅存在算法代码:DQN,C51,QR-DQN,IQN和QUOTA-源码
深度强化学习代码 当前,这里只有用于分布增强学习的代码。 C51,QR-DQN和IQN的代码与略有。 QUOTA是基于算法作者同的工作而实现的。 我最近注意到,我的DQN代码可能无法获得理想的性能,而其他代码却运行良好。 如果有人可以指出我的代码中的错误,我将不胜感激。 随时进行聊天-如果您想讨论任何事情,请给我发送电子邮件。 依赖关系: pytorch(> = 1.0.0) 体育馆(= 0.10.9) 麻木 matplotlib 用法: 为了运行我的代码,您需要在主目录下创建
所属分类:
其它
发布日期:2021-02-02
文件大小:33792
提供者:
weixin_42131352
torchrl:强化学习算法的Pytorch实现(软演员评论员(SAC)DDPG TD3 DQN A2C PPO TRPO)-源码
火炬RL RL方法的Pytorch实现 支持具有连续和离散动作空间的环境。 支持具有1d和3d观察空间的环境。 支持多进程环境 要求 一般要求 火炬1.7 健身房(0.10.9) Mujoco(1.50.1) 列表(用于日志) tensorboardX(日志文件输出) 张量板要求 Tensorflow:启动tensorboard或读取tf记录中的日志 安装 使用use environment.yml创建虚拟环境 conda create -f environment.ym
所属分类:
其它
发布日期:2021-02-01
文件大小:174080
提供者:
weixin_42123191
带有火炬的深度增强学习:DQN,AC,ACER,A2C,A3C,PG,DDPG,TRPO,PPO,SAC,TD3和PyTorch实施...-源码
状态:活动(在活动开发中,可能会发生重大更改) 该存储库将实现经典且最新的深度强化学习算法。 该存储库的目的是为人们提供清晰的pytorch代码,以供他们学习深度强化学习算法。 将来,将添加更多最先进的算法,并且还将保留现有代码。 要求 python = 0.10 火炬> = 0.4 请注意,tensorflow不支持python3.7 安装 pip install -r requirements.txt 如果失败: 安装健身房 pip install gym 安装pytorc
所属分类:
其它
发布日期:2021-01-30
文件大小:5242880
提供者:
weixin_42131443
强化学习算法:此存储库包含大多数基于pytorch实现的经典深度强化学习算法,包括-DQN,DDQN,Dualling Network,DDPG,SAC,A2C,PPO,TRPO。 (更多算法仍在进行中)-源码
深度强化学习算法 该存储库将使用PyTorch实现经典的深度强化学习算法。 该存储库的目的是为人们提供清晰的代码,以供他们学习深度强化学习算法。 将来,将添加更多算法,并且还将保留现有代码。 当前实施 深度Q学习网络(DQN) 基本DQN 双Q网络 决斗网络架构 深度确定性策略梯度(DDPG) 优势演员评判(A2C) 信任区域策略梯度(TRPO) 近端政策优化(PPO) 使用克罗内克因素信任区域(ACKTR)的演员评论家 软演员评论(SAC) 更新信息 :triangu
所属分类:
其它
发布日期:2021-01-30
文件大小:3145728
提供者:
weixin_42117150