您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 37篇经过消化云计算论文打包下载

  2. 37篇经过消化云计算论文打包下载 [日期:2010-02-20] 来源:中国云计算 作者:龚传 [字体:大 中 小] 下列论文归类: 1、云计算设施管理 监测 2,34 负载均衡 33,35 数据管理 32 能耗管理 29 安全管理 25 2、云计算平台实例 虚拟机 27,31 存储平台 5,6,12,13,14,19,22,26 计算平台 平台测评 1 云平台集成 10 3、云计算理论模型 描述模型 4 选择模型 20 编程模型 7,9,18,24,36 4、云计算应用研究 商业应用 科学应
  3. 所属分类:项目管理

    • 发布日期:2015-12-06
    • 文件大小:9437184
    • 提供者:funny0610
  1. Python基于正则表达式实现计算器功能

  2. 计算表达式:1 – 2 * ( (60-30 +(-40/5) * (9-2*5/3 + 7 /3*99/4*2998 +10 * 568/14 )) – (-4*3)/ (16-3*2) )的结果。 解题思路: 第1步:创建一个函数search_bracket_exp,通过re.rearch找到括号里面的表达式,传入到第二个函数用于表达式计算。返回一个新的表达式。express.replace(括号中的内容,第2步回的结果) 第2步:创建一个函数get_no_bracket_expre
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:39936
    • 提供者:weixin_38599231
  1. AI_Dresses_Itself:这是Sirtube Raval在YouTube上发布的“可以自己打扮的AI”的代码-源码

  2. 概述 这是Siraj Raval在YouTube上录制的视频的代码。这是研究人员在视频中使用的“信任区域策略优化”算法的实现。但是,他们没有公开其完整代码。因此,这是应用于游戏环境的技术。有人可以将其用作重新创建代码的起点。同时-嗨,研究人员:)继续发布它,社区对此表示赞赏。 TRPO的PyTorch实施 除非您出于某些特定原因需要TRPO,否则请尝试此实现(又名TRPO的更新更好的变体)。 这是的PyTorch实现。 这是大多数代码从移植而来的代码。与,该实现方式使用精确的Hessian向量
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:8192
    • 提供者:weixin_42139871
  1. drl_p2_continuous-control-源码

  2. drl_p2_continuous-control 该存储库的内容表示“ Udacity深度强化学习”课程的项目2。 在此项目中,我们正在解决由控制双关节手臂的运动组成的触手环境。 通过在此双关节臂上执行操作,我们可以了解最佳控制策略。 为了执行此训练,我们使用深度确定性策略梯度(DDPG)算法。 我们在多主体情况下解决该算法,目标是使用20个主体,至少连续100次情节维持+30的奖励。 可以通过打开笔记本的Continuous_Control.ipynb并运行所有单元格来运行代码。 多代
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:482304
    • 提供者:weixin_42128315
  1. reacher.nvim-源码

  2. ip
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:25600
    • 提供者:weixin_42131541
  1. domain_checks:使用未绑定的DNS解析器执行DNS记录检查和主机连接检查-源码

  2. 先决条件 注意:说明基于Ubuntu Linux环境。 在Mac OS上,该过程应类似。 Unbound有一个可以下载的Windows安装程序。 下载Unbound DNS Resolver:https://www.nlnetlabs.nl/projects/unbound/about/ 解压/解压缩下载的tarball。 设置并编译解析器:https://www.nlnetlabs.nl/documentation/unbound/howto-setup/ domain_checks
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:25600
    • 提供者:weixin_42117267
  1. SnappyDB:Android的键值数据库-源码

  2. 快照数据库 SnappyDB是Android的键值数据库,如果您想使用NoSQL方法,它可以替代SQLite 。 它允许您存储和获取基本类型,还可以以类型安全的方式存储和可序列化的对象或数组。 SnappyDB在读/写操作方面可以胜过SQLite 。 SnappyDB基于并使用snappy算法,在冗余内容上可以实现良好的压缩率 查看演示应用 用法 try { DB snappydb = DBFactory . open(context); // create or open an
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:9437184
    • 提供者:weixin_42144554
  1. DDPG连续控制-源码

  2. Unity带有RL的Reacher环境解决方案 介绍 该项目是用于解决Unity v0.4环境的深度确定性策略梯度强化学习算法的实现。 环境细节 在这种环境下,双臂可以移动到目标位置。 对于代理人的手在目标位置中的每一步,将提供+0.1的奖励。 因此,代理的目标是将其在目标位置的位置保持尽可能多的时间步长。 观察空间由33个变量组成,分别对应于手臂的位置,旋转,速度和角速度。 每个动作是一个带有四个数字的向量,对应于适用于两个关节的扭矩。 动作向量中的每个条目都应为-1和1之间的数字。 该
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:1048576
    • 提供者:weixin_42153801
  1. udacity-reacher:Udacity深度强化学习纳米学位课程的连续控制项目,学生在其中训练Unity Reacher手臂-源码

  2. 持续控制项目 在Udacity深度强化学习纳米学位计划中,持续控制是学生自己建立的第二个主要项目。 该项目将使用任何基于策略的技术来构建和训练代理,以控制Unity ML代理环境中的Reacher两关节机器人手臂。 目的是以这样一种方式移动手臂,使其终点始终位于环境移动目标的附近。 目标是在平行于基台的平面中以圆形图案随机移动的球体。 它可以顺时针或逆时针移动,并改变其速度。 有时它基本上是静止的。 这不是一个偶然的任务,因此我们将轨迹长度任意限制为一定数量的时间步长,并将其称为情节。 主体
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:988160
    • 提供者:weixin_42118701
  1. udacity_deep_reinforcement_learning_project2-源码

  2. 总览 该存储库包含我为Udacity的纳米计划“深度强化学习”于2020年末开始的“ Project 2”提交内容。 它提供了解决“ Reacher”环境的学习代理的实现: 项目详情 在“ Reacher”环境中,代理是一个双臂,试图将目标尽可能长时间地定位在目标位置。 状态空间有33个维度,其中包含手臂的位置,旋转,速度和角速度。 利用此状态信息,代理必须通过选择手臂关节的动作来最大化总回报。 在每个时间步长,这四个可用动作对应于与代理手臂的两个关节相关的扭矩。 每个转矩作用与[-1,1]范
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:1048576
    • 提供者:weixin_42157567
  1. 机器学习:我在PyTorch,Keras,Tensorflow,scikit学习和Python中进行机器学习的项目-源码

  2. 机器学习 我的项目,Kaggle竞赛和一些流行的机器学习算法的实现。 我还列出了我在ML / DL / AI领域策划的研究论文清单。 指数: 内容: 专案 以下是我在机器学习领域完成的项目: 名称 描述 实现不同的强化学习算法,例如DQN,Double-DQN,Dualling-DQN,蒙特卡洛,时间差等。 能够在基于Unity ML-Agents的Banana Collector环境中获得最大回报的Deep-Q Learning代理 深度确定性策略梯度学习代理,能够在基于Unity ML
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:22020096
    • 提供者:weixin_42099633
  1. Continuous-Control:项目二-源码

  2. 连续控制 项目2:训练深度确定性策略梯度-DDPG代理将双臂移动到目标位置。 1.环境 在这个项目中,我使用了从Unity ML-Agents工具箱改编而来的Reacher Unity环境。 此环境由Udacity提供。 与Unity环境不同,这里仅由一个双关节臂组成,而不是在Reacher Unity环境中由十个臂组成。 下面显示了一个未经训练的行动人员,其中绿色区域是目标: 1.1状态空间 状态空间具有33个尺寸,分别对应于手臂的位置,旋转,速度和角速度。 1.2行动空间 每个动作是一个带有
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:732160
    • 提供者:weixin_42134051