本代码在matlab里编写,将多智能体思想和粒子群算法结合起来形成基于多智能体的粒子群算法,并将其运用在IEEE40节点店里负荷分配问题上,取得不错的效果
2021-06-22 14:52:03 140KB multi-agent pso matlab 多智能体
1
花了五个月时间的成果,可以很好的运行在eclipse上,每个智能体之间相互通信,实现微电网的经济调度,并通过MATLAB的绘图工具将仿真结果展现
2021-06-22 10:06:18 58KB JADE JAVA 微电网 多智能体
1
two_prisoners.py
2021-06-18 09:11:01 24KB 多智能体 强化学习 囚徒困境
1
研究二阶多智能体系统的一致性问题.为了减少智能体之间的信息通信量,给出一种改进的事件触发控制方法, 在该方法下,每个智能体仅在自身事件触发时刻执行控制任务.利用模型转化、线性矩阵不等式方法和Lyapunov稳定性理论给出系统达到一致性的充分条件,同时,理论计算结果表明,系统在所提出的方法下不存在Zeno现象.仿真实例验证了理论分析的有效性.
1
2021doublecolumn.pdf
2021-06-09 14:01:53 985KB 多智能体
1
研究了基于离散时间模型的多智能体领航跟随编队控制算法。在该算法中,通过引入基于邻居的局部控制律以及基于邻居的状态估计规则设计了一种新型控制器,在该控制器中通过简单地设定跟随者和领航者之间的相对坐标即可方便地实现任意形状编队,同时该文引入了坐标旋转公式——用于实现整个队形能够随着领航者的运动方向的变化做相应旋转,且文中分别给出了固定拓扑和切换拓扑时系统稳定编队的充分条件。最后分别通过Matlab仿真和在Amigobot机器人平台上做实验来验证该算法的正确性及实际可行性。
1
MATLAB强化学习实战(八) 训练多个智能体执行协作任务 代码
2021-05-25 21:01:46 486KB matlab 多智能体强化学习
1
强化学习 作为我的论文的最后部分,“协作多智能体学习的方法和实现”,涉及从单一智能体到多智能体的RL研究,以及协作和协作多智能体学习的最新技术。的算法和实现,在MATLAB中完成了某些RL方法的实现。 论文论文也被上传,其中包含参考文献。 单人强化学习 动态编程 蒙特卡洛方法 时差学习 线性函数逼近 深度Q网络 具有线性函数逼近的策略梯度 多智能体强化学习 集中式Q学习 滞后Q学习 多代理演员批评
2021-05-22 13:16:32 4.39MB MATLAB
1
超级好的关于多智能体一致性研究的书籍,北大教授写作,是一本很好的书籍。
2021-05-13 21:06:57 3.98MB 多智能体 一致性
1
扑克RL 扑克游戏中的多智能体深度强化学习框架。 背景 解决不完善的信息游戏的研究主要围绕直到最近才遍历整个游戏树的方法(例如,请参见 , , )。 神经虚拟自我播放(NFSP) ,后悔策略梯度(RPG) ,深反事实后悔最小化(Deep CFR) 和单深CFR 等新算法最近将深(强化)使用常规方法(例如CFR和虚拟游戏)进行学习,以仅在访问游戏状态的一小部分时即可了解近似的纳什均衡。 PokerRL框架 PokerRL算法的组成部分 您的算法由相互交互的工作人员(绿色)组成。 训练运行的参数通过TrainingProfile的实例( .../rl/base_cls/Training
2021-05-12 11:04:25 325KB framework research reinforcement-learning poker
1