您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 游戏步长算法的浅见希望对你有所帮助

  2. 游戏步长算法当然国产游戏大多做的不好。大多数根本不去认真做人物行走的播放程序,简单一帧帧播放动画,并随意移动小人在地图上的位置了事。   防止滑步又可以随意改变人物移动速度的方法是这样的:   将走路的程序用步长和步速两个量来控制。步长必须定死,按做出来的图片中小人一组动画下来,移动的像素为准。   步速是任意的,可以用游戏每帧或每 1/100 秒,人物移动的像素数来表示(可以是小数,比如每帧刷新移动 1.2 个像素)。   简化讲解,我以横版水平移动走路举例:(斜视角可以类推)   假设步长
  3. 所属分类:其它

    • 发布日期:2011-04-26
    • 文件大小:2048
    • 提供者:liukaighfj
  1. Checkers:使用alpha-beta修剪的Checkers AI代理。 它还具有总时间和步长限制-源码

  2. 跳棋AI 介绍 它使用8x8方格游戏板。 在创建游戏代理的尝试中,使用了树遍历方法。 Checkers是一个1vs1零和游戏。 Minimax算法最适合此类游戏。 ⍺-β修剪用于改善性能。 评估功能 我们所有的评估功能都可以分为两个部分-游戏中的主要部分(开局-中间游戏)和结束部分。 在第一部分中,我们尝试达到某个最佳阶段(不一定是游戏结束)。 开放式中间游戏评估功能 具体来说: 我们将董事会分成两半。 对手的一半棋盘值= 7 棋盘中棋手的一半= 5 国王的价值= 10 结束评估功能 对
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:4096
    • 提供者:weixin_42113456
  1. slimevolleygym:用于单人和多人强化学习的简单OpenAI Gym环境-源码

  2. 史莱姆排球体育馆环境 史莱姆排球是由一位不知名的作家在2000年代初期创建的游戏。 “游戏的物理原理有点'狡猾',但其简单的游戏玩法却立即使人上瘾。” SlimeVolleyGym是一个简单的健身房环境,用于测试单人和多人强化学习算法。 游戏非常简单:代理人的目标是使球着陆在对手方的地面上,从而使对手丧生。每个特工从五个生命开始。当任何一个特工失去全部五个生命时,或者经过3000个时间步长后,情节结束。座席失去对手时会获得+1的奖励,而失去生命则会获得-1的奖励。 该环境基于我于创建Java
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:6291456
    • 提供者:weixin_42162216
  1. Sorting_Algorithm_Visualizer-源码

  2. 排序算法可视化工具 描述 除了康威的生活游戏外,算法可视化器也是我一直想要创建的东西。 对于这个项目,我决定创建/可视化五个最常见的排序算法(气泡排序,插入排序,合并排序,快速排序和选择排序)。 在这五种排序算法中,合并排序和快速排序是最难于可视化的(它们对于gui不能定期绘制太快)。 为了解决此问题,为每种类型创建了一个新线程,这些线程内部存在延迟。 这些新线程及其延迟使绘制两种排序算法的步骤变得可见。 我在这个项目中玩得很开心,很高兴最终使用我学到的排序算法,即使这只是一个用于可视化所述
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:3145728
    • 提供者:weixin_42151036
  1. CuriosityDriven-PPO:通过引导功能松散的好奇心驱动探索-源码

  2. 通过引导功能来放松好奇心驱动的探索 七月7,2018 描述 此回购是对OpenAI的论文《一个松散的重述。 该算法训练一种策略,使游戏完全摆脱内部预测错误产生的奖励。 该过程可以可视化为策略和试图预测环境未来状态的模型(称为前向动力学模型)之间的决斗。 该政策是通过培训的,除了将环境奖励替换为前向动力学模型的误差外。 更具体地说,用于PPO的奖励是前向动力学模型的预测的平方误差。 前向动力学模型的预测目标是环境中下一个状态的低维表示。 这称为内在奖励。 前向动力学模型越不准确,给定时间步长的奖
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:128000
    • 提供者:weixin_42128015