点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - Cartpole-dqn-源码
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
ai-traineree:用于(深度)强化学习的PyTorch代理和工具-源码
实习生 目的是建立一个深度强化学习方法的动物园,并展示它们在某些环境中的应用。 在文档中阅读更多信息: 。 为什么要另选一个? 主要原因是执行哲学。 我们坚信,代理应该出现在环境中,而不是相反。 大多数流行的实现都将环境实例传递给代理,就像代理是焦点一样。 这可能会简化某些算法的实现,但并不代表世界。 代理想要控制环境,但这并不意味着他们可以/应该。 那,然后使用PyTorch代替Tensorflow或JAX。 快速开始 要开始培训RL代理,您需要三件事:代理,环境和跑步者。 假设您要
所属分类:
其它
发布日期:2021-03-11
文件大小:142336
提供者:
weixin_42174098
DRL_OpenAI-CartPole-v0:OpenAI CartPole-v0基于DeepRL的解决方案-源码
基于OpenAI CartPole-v0 DeepRL的解决方案 使用深度Q网络(DQN),决斗DQN和决斗双DQN(D3QN) 软件/要求 Python IDE 皮查姆 深度学习库 Tensorflow + Keras 显卡 GeForce MX 250 口译员 Python 3.8 Python环境 水蟒 配套 requirements.txt 要设置Pycharm + Anaconda + GPU,请在查阅设置文件要导入所需的包 ,请在项目环境终端中输入以下说明: OpenAI
所属分类:
其它
发布日期:2021-02-26
文件大小:9437184
提供者:
weixin_42099987
Cartpole-dqn-源码
Cartpole-dqn
所属分类:
其它
发布日期:2021-02-08
文件大小:3072
提供者:
weixin_42123456
tensorflow-tutorial-samples:TensorFlow2教程TensorFlow 2.0教程入门教程实战案例-源码
TensorFlow 2.0教程入门教程实战案例 用最白话的语言,讲解机器学习,神经网络与深度学习样本基于TensorFlow 1.4和TensorFlow 2.0实现 相关链接 , , , OpenAI体育馆 介绍了策略梯度算法(策略梯度)来玩CartPole-v0 介绍了DQN(深度Q学习)来玩MountainCar-v0游戏 Q-Table用神经网络来代替。 介绍了使用Q-Learning(创建Q-Table)来玩MountainCar-v0游戏 将连续的状态离散化。 介绍了使用纯
所属分类:
其它
发布日期:2021-02-06
文件大小:23068672
提供者:
weixin_42139460
pytorch-rl:使用pytorch和visdom进行深度强化学习-源码
深度强化学习 火炬与视觉 训练有素的特工的样本测试(突破时使用DQN,乒乓球上使用A3C,CartPole上使用DoubleDQN,InvertedPendulum(MuJoCo)上使用连续A3C): 在Pong上训练A3C代理时具有16个学习者过程的示例在线绘图示例: 在CartPole上训练DQN代理时的示例日志记录(我们目前使用WARNING作为日志记录级别来摆脱来自visdom的INFO打印输出): [WARNING ] (MainProcess) [WARNING ] (Mai
所属分类:
其它
发布日期:2021-02-04
文件大小:12582912
提供者:
weixin_42174176
minimalRL:用最少的代码行实现基本的RL算法! (基于火炬)-源码
最小RL 用最少的代码行实现基本的RL算法! (基于PyTorch) 每种算法都在一个文件中完成。 每个文件的长度最多为100〜150行代码。 即使没有GPU,也可以在30秒内训练每种算法。 Env固定为“ CartPole-v1”。 您可以只关注实现。 演算法 (67行) (98行) (112行,包括重放内存和目标网络) (119条线,包括GAE) (145行,包括OU噪声和软目标更新) (129条线) (149条线) (188条线) (171行)已添加
所属分类:
其它
发布日期:2021-02-03
文件大小:18432
提供者:
weixin_42121725
drqn:探索DRQN +行动先验+基于状态的专家+基于历史的熵减少专家-源码
从修改。 PyTorch CartPole示例 用pytorch编写的简单Cartpole示例。 为什么选择卡特波尔? Cartpole是一个非常简单的问题,在许多情况下收敛速度非常快。 因此,您可以在计算机上运行此示例(也许只需要1〜2分钟)。 彩虹 DQN 双 决斗 多步骤 PER(优先体验重播) Nosiy-Net 分布的(C51) 彩虹 PG(政策梯度) 加固 演员评论家 优势演员评论家 GAE(广义优势估计) TNPG TRPO PPO-单
所属分类:
其它
发布日期:2021-04-01
文件大小:355328
提供者:
weixin_42176612
jax-rl:使用Jax和Gym实施强化学习算法(DQN)-源码
用Jax实现的深度强化学习算法 使用Jax实施深度强化学习。 在OpenAI健身房CartPole环境中进行测试。 演算法 DQN- 具有目标网络的DQN- 用法 # Install deps pip install -r requirements.text 训练模式 # Using launch scr ipt, by default set up to run multiple seeds ./launch.sh # Using python python3 run.py --age
所属分类:
其它
发布日期:2021-03-30
文件大小:602112
提供者:
weixin_42126399