Multi-Agent-DRL:多主体深度强化学习研究-源码

上传者: 42124497 | 上传时间: 2021-09-29 15:57:31 | 文件大小: 1.53MB | 文件类型: ZIP
公用池资源系统中的深度多主体强化学习 中的论文中的实验源代码。 该论文已被接受并发表在IEEE CEC 2019上。 介绍 在复杂的社会生态系统中,具有不同目标的多个代理机构采取的行动会影响系统的长期动态。 共同资产池是此类系统的子集,在这些系统中,财产权通常定义不清,先验性未知,因此造成了社会困境,这是众所周知的公地悲剧反映出来的。 在本文中,我们研究了在公共资源池系统的多主体设置中进行深度强化学习的功效。 我们使用了系统的抽象数学模型,表示为部分可观察到的一般和马尔可夫博弈。 在第一组实验中,独立主体使用具有离散动作空间的深度Q网络来指导决策。 但是,明显的缺点是显而易见的。 因此,在第二组实验中,具有连续状态和动作空间的深度确定性策略梯度学习模型指导了主体学习。 仿真结果表明,使用第二种深度学习模型时,代理商在可持续性和经济目标方面的表现均明显更好。 尽管代理商没有完全的预见力或对他

文件下载

资源详情

[{"title":"( 29 个子文件 1.53MB ) Multi-Agent-DRL:多主体深度强化学习研究-源码","children":[{"title":"Multi-Agent-DRL-master","children":[{"title":"res","children":[{"title":"MultiDQN-models.png <span style='color:#111;'> 17.29KB </span>","children":null,"spread":false},{"title":"MultiDDPG-models.png <span style='color:#111;'> 23.42KB </span>","children":null,"spread":false},{"title":"CRPg.jpg <span style='color:#111;'> 107.55KB </span>","children":null,"spread":false},{"title":"Multi-agent-interaction.png <span style='color:#111;'> 21.05KB </span>","children":null,"spread":false}],"spread":true},{"title":"run_demo.sh <span style='color:#111;'> 272B </span>","children":null,"spread":false},{"title":"Dockerfile <span style='color:#111;'> 303B </span>","children":null,"spread":false},{"title":"src","children":[{"title":"helper.py <span style='color:#111;'> 1.23KB </span>","children":null,"spread":false},{"title":"test_dqn.sh <span style='color:#111;'> 217B </span>","children":null,"spread":false},{"title":"agent.py <span style='color:#111;'> 1.84KB </span>","children":null,"spread":false},{"title":"config","children":[{"title":"config.json <span style='color:#111;'> 2.33KB </span>","children":null,"spread":false}],"spread":true},{"title":"train_ddpg.sh <span style='color:#111;'> 192B </span>","children":null,"spread":false},{"title":"analysis.ipynb <span style='color:#111;'> 1.88MB </span>","children":null,"spread":false},{"title":"model","children":[{"title":"drqn_agent.py <span style='color:#111;'> 11.56KB </span>","children":null,"spread":false},{"title":"ddpg.py <span style='color:#111;'> 8.44KB </span>","children":null,"spread":false},{"title":"dqn.py <span style='color:#111;'> 8.42KB </span>","children":null,"spread":false},{"title":"__init__.py <span style='color:#111;'> 126B </span>","children":null,"spread":false},{"title":"base_model.py <span style='color:#111;'> 1.79KB </span>","children":null,"spread":false},{"title":"model_factory.py <span style='color:#111;'> 750B </span>","children":null,"spread":false},{"title":"rdpg_agent.py <span style='color:#111;'> 11.66KB </span>","children":null,"spread":false}],"spread":true},{"title":"test_ddpg.sh <span style='color:#111;'> 219B </span>","children":null,"spread":false},{"title":"train_dqn.sh <span style='color:#111;'> 203B </span>","children":null,"spread":false},{"title":"train_drqn.sh <span style='color:#111;'> 204B </span>","children":null,"spread":false},{"title":"cpr_game.py <span style='color:#111;'> 1.96KB </span>","children":null,"spread":false},{"title":"main_loop.py <span style='color:#111;'> 4.97KB </span>","children":null,"spread":false},{"title":"step_counter.py <span style='color:#111;'> 170B </span>","children":null,"spread":false}],"spread":false},{"title":"requirements.txt <span style='color:#111;'> 542B </span>","children":null,"spread":false},{"title":".gitignore <span style='color:#111;'> 100B </span>","children":null,"spread":false},{"title":".dockerignore <span style='color:#111;'> 123B </span>","children":null,"spread":false},{"title":"README.md <span style='color:#111;'> 3.65KB </span>","children":null,"spread":false}],"spread":true}],"spread":true}]

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明