matlab代码做游戏-DeepRL-Nanodegree-Project3-CollaborationAndCompetition:Udac

上传者: 38628953 | 上传时间: 2021-10-13 18:29:55 | 文件大小: 2.26MB | 文件类型: -
matlab代码做游戏DeepRL-Nanodegree-Project3(合作与竞争) 在此项目中,我们将使用多代理深度确定性策略梯度(MADDPG)算法来训练两个代理打网球! 环境说明 设置:两人游戏,代理人控制球拍在球网上弹跳。 目标:特工必须互相反弹,同时不得摔落或将球送出界外。 代理:环境包含两个链接到一个名为TennisBrain的单个Brain的代理。 训练后,您可以将另一个名为MyBrain的Brain附加到其中一个代理上,以与您训练有素的模型对战。 座席奖励功能(独立): 球网命中时+0.1向探员。 -0.1致使球撞到地面或越界击球的探员。 大脑:一个具有以下观察/动作空间的大脑。 向量观察空间:8个变量,分别对应于球和球拍的位置和速度。 矢量动作空间:(连续)大小为2,对应于朝向网或远离网的运动并跳跃。 视觉观察:无。 重置参数:一个,对应于球的大小。 基准平均奖励:2.5 下载说明 如果您想在计算机上尝试此算法,请按照以下说明进行操作。 首先,您至少需要在系统上安装Python 3.6。 您还将需要这些库来帮助运行代码。 一旦安装了Python,就可以使用终端上的

文件下载

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明