多代理深确定性策略梯度 多主体深度确定性策略梯度(MADDPG)算法的Pytorch实现 这是我在论文中提出的算法的实现:“针对混合合作竞争环境的多主体Actor评论家”。 您可以在这里找到本文: : 您将需要安装多代理粒子环境(MAPE),可以在这里找到: : 确保创建具有MAPE依赖项的虚拟环境,因为它们有些过时了。 我还建议使用PyTorch 1.4.0版运行此程序,因为最新版本(1.8)似乎与我在计算批评者损失时使用的就地操作存在问题。 将主存储库克隆到与MAPE相同的目录中可能是最容易的,因为主文件需要该软件包中的make_env函数。 可以在以下位置找到本教程的视频: :
1
程序使用说明: 1、首先运行Dong2015IEEECST.m 2、再运行Dong2015IEEECST1.slx 3、最后运行PLOT_Dong.m
2021-04-11 21:51:48 1.34MB matlab
1
一本分布式的matlab程序实现英文原版书籍
2021-03-24 09:23:10 3.57MB Cooperative Control
1
在本文中,我们考虑了具有主动领导者和可变互连拓扑的多主体共识问题。 主动领导者的动力以线性系统的一般形式给出。 考虑了代理之间具有通信延迟的交换互连拓扑。 为每个代理设计一个基于邻居的估计器,以获得动态领导者的不可测量的状态变量,然后开发分布式反馈控制律以达成共识。 反馈参数是通过求解Riccati方程获得的。 通过构造一个公共Lyapunov函数,可以建立一些充分的条件,以保证每个代理可以通过假设互连拓扑是无方向的和已连接的来跟踪活动的领导者。 我们还指出,一些结果可以推广到一类定向交互拓扑。 此外,针对具有可变互连拓扑和受干扰环境中的通信延迟的多智能体系统,获得了输入状态稳定性(ISS)。
2021-03-16 09:18:02 269KB multi-agent system; consensus; leader-following;
1
awesome-game-ai:多智能体强化学习的Awesome Game AI资料
2021-02-01 14:37:52 6KB awesome reinforcement-learning ai multi-agent
1
multi-agent system 课件, 内容全部为英语,且都是和实际联合起来的知识,比如博弈论。
2020-01-03 11:38:08 29.99MB multi-agent systems
1
Multi-Agent Machine Learning A Reinforcement Approach
2019-12-21 22:03:43 9.67MB Reinforcemen 机器学习
1
学习多智能体建模的论文,可供研究智能体建模应用等参考。。
2019-12-21 21:03:13 8.31MB CAS Multi-agent
1
vicsek模型的matlab仿真,有动态作图的展示。研究速度一致性对多智能体协同的影响。
2019-12-21 20:40:10 5KB vicsek multi-agent
1
本书详细介绍了多智能体控制的发展,接着介绍了一阶和二阶系统的leader-follower控制,合围控制。离散系统的协同控制也有详细介绍。
2019-12-21 20:37:02 5.26MB 多智能体 时滞 最优
1