您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. CuriosityDriven-PPO:通过引导功能松散的好奇心驱动探索-源码

  2. 通过引导功能来放松好奇心驱动的探索 七月7,2018 描述 此回购是对OpenAI的论文《一个松散的重述。 该算法训练一种策略,使游戏完全摆脱内部预测错误产生的奖励。 该过程可以可视化为策略和试图预测环境未来状态的模型(称为前向动力学模型)之间的决斗。 该政策是通过培训的,除了将环境奖励替换为前向动力学模型的误差外。 更具体地说,用于PPO的奖励是前向动力学模型的预测的平方误差。 前向动力学模型的预测目标是环境中下一个状态的低维表示。 这称为内在奖励。 前向动力学模型越不准确,给定时间步长的奖
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:128000
    • 提供者:weixin_42128015