maze:用强化学习解决迷宫-源码

上传者: 42107165 | 上传时间: 2021-11-04 16:12:04 | 文件大小: 27KB | 文件类型: -
迷宫 当我回顾我在上所做的一些工作时,我开始了这个小。 该项目将相同的强化学习 (RL) 概念应用于迷宫学习,因为求解器试图找到从迷宫左上角到右下角的最短路径。 虽然其他算法在解决静态迷宫时会快得多(例如,蛮力方法会更快),但这种解决算法以其如何存储其状态和适应不断变化的环境的能力而著称。 求解器的“知识”由与位置决策对相关联的值表示。 对于迷宫中的每个位置,求解器可以进行一次或多次移动以在迷宫中前进。 每次移动后,求解器都会获得奖励(或在这种情况下为惩罚-稍后会更多)。 然后,考虑到奖励以及从新位置开始的最佳移动,求解器通过更新其位置决策值来评估其最后一个决策。 例如,假设我们有一个位于位置1的求解器,并且有两个可能的移动距离:移动a和b 。 假设经过一些学习,求解器更新了这些移动的相对值,使得a的值为 -1, b的值为 2。(注意:这些值仅意味着b是比a更好的选择。一个可能还会考

文件下载

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明