点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - RL算法
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
含噪径向模糊图像的复原算法研究
[附件中程序使用的详细说明]摄像平台高速靠近目标时,会使成像产生从中心到边缘呈放射状径向模糊的问题,影响对目标的探测、识别与跟踪。针对这一典型的空间变化运动模糊情形,根据实际的目标离散成像过程,推导出 径向模糊图像在极坐标系中的数学模型。并在分析极坐标图像纹理信息几何特征的基础上,基于非局部正则化理论提出改进的Richardson-Lucy 算法,有效解决了模糊系数存在测量误差时,含噪径向模糊图像的复原问题。实验结果表明:提出的图像复原算法能很好地抑制噪声与环状振铃效应,在主观视觉与客观评价方
所属分类:
教育
发布日期:2011-05-14
文件大小:8388608
提供者:
maomaoyuspring
richardson-luck 迭代盲复原算法-MATLAB
算法流程:读入一副清晰图像,类高斯函数滤波后后生成模糊图像.利用模糊图像估计PSF初值,再启动RL算法进行非对称估计PSF与真实图像.算法采用FFT实现了卷积和相关运算,比MATLAB提供的卷积运算速度提高10以上.如果运行中有什么问题,请联系我.13571351120.
所属分类:
其它
发布日期:2015-12-20
文件大小:1024
提供者:
ilovecv
jijuanji5.mRL算法对模糊图像复原的matlab程序
RL算法对模糊图像复原的matlab程序,代码matlab,没有详细的讲解,程序并不难
所属分类:
其它
发布日期:2019-10-14
文件大小:627
提供者:
banyuanxiudaoban
mbpo_pytorch:基于模型的强化学习算法MBPO的pytorch复制-源码
概述 这是pytorch中基于模型的RL算法MBPO的重新实现,如下文所述:。 该代码基于的使用张量流集成模型重现了结果,但使用pytorch集成模型却表现出明显的性能下降。 这段代码使用pytorch重新实现了集成动力学模型,并缩小了差距。 转载结果 比较是在两个任务上完成的,而其他任务没有经过测试。 但是在经过测试的两个任务上,与官方的tensorflow代码相比,pytorch实现获得了类似的性能。 依存关系 MuJoCo 1.5和MuJoCo 2.0 用法 python main_mb
所属分类:
其它
发布日期:2021-03-25
文件大小:176128
提供者:
weixin_42168830
genrl:一个PyTorch强化学习库,用于可推广和可再现的算法实现,旨在改善RL中的可访问性-源码
GenRL是一个PyTorch强化学习库,以可重现,可推广的算法实现为中心,并提高了强化学习的可访问性 GenRL的当前版本为v0.0.2。期待重大变化 强化学习研究的发展比以往任何时候都快。为了跟上不断增长的趋势并确保RL研究保持可重复性,GenRL旨在通过提供以下主要功能来帮助更快地进行纸张复制和基准测试: PyTorch-first :模块化,可扩展和惯用的Python 教程和示例:从基本RL到SOTA Deep RL算法的20多个教程(包括说明)! 统一培训师和日志记录课程:代码可重用
所属分类:
其它
发布日期:2021-03-20
文件大小:405504
提供者:
weixin_42162216
emorl:研究emo和rl算法-源码
emorl:研究emo和rl算法
所属分类:
其它
发布日期:2021-03-16
文件大小:2097152
提供者:
weixin_42131405
distributedRL:分布式增强学习算法轻松原型制作的框架-源码
分布式RL distributedRL是一个框架,用于使用Pytorch , Ray和ZeroMQ (及更多)对变形强化学习进行原型制作。 您可以利用结构组件在单台机器上轻松分发您的强化学习算法。 当前,可以使用Ape-X DQN的实现。 IMPALA和SEED计划实施。 如果您有任何疑问,请随时与我们联系(哥伦比亚大学教育学院的cjy2129)或提出问题! 关于一些选择的注释 ApeXLearner和ApeXWorker被实现为抽象类(分别继承common.abstract.Learne
所属分类:
其它
发布日期:2021-03-08
文件大小:22528
提供者:
weixin_42128676
DeepRL:一些深度RL算法的实现-源码
DeepRL 一些深度RL算法的实现 要求 python <= 3.6 火炬== 1.0 火炬视觉 张量流== 1.15.2 张量板 健身房 相关论文
所属分类:
其它
发布日期:2021-03-07
文件大小:3145728
提供者:
weixin_42120997
DRLib:DRLib:一个简洁的深度强化学习库,将HER和PER集成为几乎不符合政策的RL算法-源码
DRLib:简洁的深度强化学习库,几乎将所有非政策性RL算法与HER和PER集成在一起。 简洁的深度强化学习库,几乎将所有非政策性RL算法与HER和PER集成在一起。 该库是基于的代码编写的,可以使用tensorflow或pytorch来实现。 与旋转相比,多进程和实验性网格包装已被删除,易于应用。 另外,我们库中的代码很方便用pycharm调试〜 项目特点: tf1和pytorch两个版本的算法,前者快,另外新,任君选择; 在spinup的基础上,封装了DDPG,TD3,SAC等主流强化算
所属分类:
其它
发布日期:2021-03-04
文件大小:143360
提供者:
weixin_42116794
awesome-rl:精选强化学习资源-源码
很棒的强化学习 专门用于强化学习的精选资源列表。 我们还有其他主题的页面: ,, : , 我们正在寻找更多的贡献者和维护者! 贡献 请随时 目录 代号 理查德·萨顿和安德鲁·巴托的《强化学习:入门》中的示例和练习代码 强化学习控制问题的仿真代码 (用于RL的标准接口)和 -基于Python的增强学习,人工智能和神经网络 -用于教育和研究的基于价值函数的强化学习框架 用于python强化学习中问题的机器学习框架 基于Java的强化学习框架 实现Q学习和其他RL算法的平台 贝叶斯强化学习库和工
所属分类:
其它
发布日期:2021-02-25
文件大小:11264
提供者:
weixin_42116805
强化学习算法:一些流行的RL算法的实现-源码
安装 首先在requirements.txt安装需求,然后运行pip install -e .
所属分类:
其它
发布日期:2021-02-22
文件大小:954368
提供者:
weixin_42170064
DeepReinforcementLearning:深度RL实施。 在pytorch中实现的DQN,SAC,DDPG,TD3,PPO和VPG。 经过测试的环境:LunarLander-v2和Pendulum-v0-源码
使用Pytorch实现的深度RL算法 算法列表: 关于深入探讨 实验结果: 算法 离散环境:LunarLander-v2 连续环境:Pendulum-v0 DQN -- VPG -- DDPG -- TD3 -- SAC -- PPO -- 用法: 只需直接运行文件/算法。 在我学习算法时,它们之间没有通用的结构。 不同的算法来自不同的来源。 资源: 未来的项目: 如果有时间,我将为使用RL的电梯添加一个简单的程序。 更好的图形
所属分类:
其它
发布日期:2021-02-13
文件大小:400384
提供者:
weixin_42099070
RL_算法-源码
RL_算法 此回购包括用于学习目的的不同RL算法。 环境 可以在[Pendulum] 找到演示中的钟摆环境。
所属分类:
其它
发布日期:2021-02-12
文件大小:156672
提供者:
weixin_42104778
教练:英特尔AI实验室的强化学习教练可轻松进行最新的强化学习算法实验-源码
教练 Coach是一个python强化学习框架,其中包含许多最新算法的实现。 它公开了一组易于使用的API,用于试验新的RL算法,并允许简单集成新环境来解决。 基本的RL组件(算法,环境,神经网络体系结构,探索策略等)已很好地分离,因此扩展和重用现有组件非常容易。 培训代理以解决环境就像运行一样容易: coach -p CartPole_DQN -r (初始版本) (当前版本) 目录 基准测试 建立研究项目或基于已发布算法的解决方案时的主要挑战之一是,获得一个具体可靠的基准,
所属分类:
其它
发布日期:2021-02-05
文件大小:42991616
提供者:
weixin_42137032
POMDP:基于部分可观察的马尔可夫决策过程实现RL算法-源码
POMDP:基于部分可观察的马尔可夫决策过程实现RL算法
所属分类:
其它
发布日期:2021-02-03
文件大小:168960
提供者:
weixin_42131785
reinforce-js:[INACTIVE]各种机器学习求解器的集合。 该库是一种面向对象的方法(与Typescript结合使用),并尝试提供简化的接口,这些接口使使用算法非常简单-源码
强化js 征集志愿者:由于时间紧缺,我急切地寻求自愿帮助。 如果您对建立加固代理人感兴趣(即使您是新手),并愿意进一步发展此教育项目,请与我联系:)议程上有一些要点,我仍然希望看到实现使该项目成为用于抽象教育目的的漂亮图书馆。 不活跃:由于缺乏时间和帮助 reinforce-js –各种简单的强化学习求解器的集合。 该库仅用于教育目的。 该库是一种面向对象的方法,它试图提供简化的接口,这些接口使使用算法变得非常容易(使用烘焙)。 此外,它是Andrej Karpathy的强化学习库的扩展,该
所属分类:
其它
发布日期:2021-02-03
文件大小:40960
提供者:
weixin_42157166
minimalRL:用最少的代码行实现基本的RL算法! (基于火炬)-源码
最小RL 用最少的代码行实现基本的RL算法! (基于PyTorch) 每种算法都在一个文件中完成。 每个文件的长度最多为100〜150行代码。 即使没有GPU,也可以在30秒内训练每种算法。 Env固定为“ CartPole-v1”。 您可以只关注实现。 演算法 (67行) (98行) (112行,包括重放内存和目标网络) (119条线,包括GAE) (145行,包括OU噪声和软目标更新) (129条线) (149条线) (188条线) (171行)已添加
所属分类:
其它
发布日期:2021-02-03
文件大小:18432
提供者:
weixin_42121725
imitation_learning:PyTorch实现的一些强化学习算法:优势演员评论(A2C),近距离策略优化(PPO),V-MPO,行为克隆(BC)。 将添加更多算法-源码
模仿学习 此仓库包含一些强化学习算法的简单PyTorch实现: 优势演员评论家(A2C) 的同步变体 近端策略优化(PPO)-最受欢迎的RL算法 , ,, 策略上最大后验策略优化(V-MPO)-DeepMind在其上次工作中使用的算法 (尚不起作用...) 行为克隆(BC)-一种将某些专家行为克隆到新策略中的简单技术 每种算法都支持向量/图像/字典观察空间和离散/连续动作空间。 为什么回购被称为“模仿学习”? 当我开始这个项目并进行回购时,我认为模仿学习将是我的主要重点,并且无模型方法
所属分类:
其它
发布日期:2021-02-02
文件大小:11534336
提供者:
weixin_42128015
ReinforcementLearning:RL算法从基础到最新-源码
强化学习 RL算法从基础到最新 请访问“以获取有关我的项目列表和在线出版物的更多信息。
所属分类:
其它
发布日期:2021-03-31
文件大小:573440
提供者:
weixin_42121272
simrl:PyTorch中RL算法的简单实现-源码
Simrl PyTorch中RL算法的简单实现。 支持的算法 PPO TRPO DDPG DQN A3C SAC
所属分类:
其它
发布日期:2021-03-30
文件大小:18432
提供者:
weixin_42126399
«
1
2
3
4
5
6
7
8
»