7.1 Agent概述 7.2 Agent的理论模型 7.3 Agent的结构 7.4 Agent通信 7.5 Multi-Agent系统 7.6 移动Agent 7.7 面向Agent的程序设计
2021-06-29 15:39:39 561KB Agent\Multi-Agent
1
A survey of multi-agent formation control.pdf
2021-06-22 18:01:21 745KB 控制
1
本代码在matlab里编写,将多智能体思想和粒子群算法结合起来形成基于多智能体的粒子群算法,并将其运用在IEEE40节点店里负荷分配问题上,取得不错的效果
2021-06-22 14:52:03 140KB multi-agent pso matlab 多智能体
1
Formation Control of Multi-Agent Systems: A Graph Rigidity Approach一书配套程序,亲测可用
2021-06-21 15:43:23 30.66MB Formation Contro matlab
1
AA-SIPP(米) 描述 AA-SIPP(m)是一种路径规划算法,可为2D环境中以网格表示的一组智能体建立无碰撞轨迹。 它是优先计划者,即,为所有代理分配唯一的优先级,并使用AA-SIPP(任意角度SIPP)算法根据强加的顺序对路径进行逐一计划。 后者建立在SIPP计划程序的基础上,SIPP计划程序专门针对单个代理在静态和动态障碍(在此情况下为其他代理)中移动的路径查找而设计。 一个人可以选择禁用任何角度的移动并仅计划2 ^ k(k = 1,2,3,4,5)个移动,即k = 2-仅基本方向移动,k = 3-基本方向和对角线移动等。 在(x,y,\ theta)配置空间中进行规划。 考虑了代理的标题,平移和旋转速度,大小。 代理被认为是预定义半径的开放磁盘。 可以指定每个代理的半径,并且可以是任何正实数,例如,某些代理可以大于网格。 它们也可以更小。 “开放磁盘”表示当半径为r_1的代
2021-06-12 22:46:27 75.93MB pathfinding multi-agent sipp mapf
1
超级好的关于多智能体一致性研究的书籍,北大教授写作,是一本很好的书籍。
2021-05-13 21:06:57 3.98MB 多智能体 一致性
1
为促进居民用户柔性负荷高效参与需求响应,帮助 用户从被动角色转变为主动角色,实现需求侧最大效益。本文在智能电网环境下,根据用电设备的特性,以概率论 的角度对家电设备状态进行描述定义,基于异步深度强化 学习(asynchronous deep reinforcement learning,ADRL)进 行家庭能源管理系统调度的在线优化。学习过程采用异步 优势演员-评判家(asynchronous advantage actor-critic, A3C)方法,联合用户历史用电设备运行状态的概率分布, 通过多智能体利用CPU 多线程功能同时执行多个动作的 决策。该方法在包括光伏发电、电动汽车和居民住宅电器 设备信息的某高维数据库上进行仿真验证。最后通过不同 住宅情境下的优化决策效果对比分析可知,所提在线能耗 调度策略可用于向电力用户提供实时反馈,以实现用户用 电经济性目标。
1
多代理深确定性策略梯度 多主体深度确定性策略梯度(MADDPG)算法的Pytorch实现 这是我在论文中提出的算法的实现:“针对混合合作竞争环境的多主体Actor评论家”。 您可以在这里找到本文: : 您将需要安装多代理粒子环境(MAPE),可以在这里找到: : 确保创建具有MAPE依赖项的虚拟环境,因为它们有些过时了。 我还建议使用PyTorch 1.4.0版运行此程序,因为最新版本(1.8)似乎与我在计算批评者损失时使用的就地操作存在问题。 将主存储库克隆到与MAPE相同的目录中可能是最容易的,因为主文件需要该软件包中的make_env函数。 可以在以下位置找到本教程的视频: :
1
程序使用说明: 1、首先运行Dong2015IEEECST.m 2、再运行Dong2015IEEECST1.slx 3、最后运行PLOT_Dong.m
2021-04-11 21:51:48 1.34MB matlab
1
一本分布式的matlab程序实现英文原版书籍
2021-03-24 09:23:10 3.57MB Cooperative Control
1