多主体强化学习(MARL) 使用rllab通过量化在不同环境中执行的多个代理的随机梯度来开发强化学习。 实验室 rllab是用于开发和评估强化学习算法的框架。 它包括各种各样的连续控制任务以及以下算法的实现: rllab与完全兼容。 有关说明和示例,请参见。 rllab仅正式支持Python 3.5+。 对于坐在Python 2上的rllab的旧快照,请使用。 rllab支持在EC2集群上运行强化学习实验以及用于可视化结果的工具。 有关详细信息,请参见。 主要模块使用作为基础框架,并且我们在下支持TensorFlow。 文献资料 在线提供了文档: https : //rllab.readthedocs.org/en/latest/ 。 引用rllab 如果您使用rllab进行学术研究,强烈建议您引用以下文章: 严端,陈曦,赖因·豪特霍夫特,约翰·舒尔曼,彼得·阿比尔。 “对
2022-03-18 18:31:48 10.24MB Python
1
多主体路径规划 该代码包含我在法国国家计算机科学研究院@Inria担任机器学习实习生六个月的工作。 我工作的主要思想是开发一种由Graph Neural Networks支持并与Deep Reinforcement Learning算法融合的机器学习模型,以构建可推广到不同网络拓扑结构的多主体路径规划算法,同时保持快速的通信和有效的收敛。 我们使用CoppeliaSim作为模拟器来查看算法在移动机器人上的性能。 所有代码都是用Python3编写的,并且我们使用Ros2-Interface与CoppeliaSim进行通信。 先决条件 在使用main.py代码之前,请确保已安装以下组件: NumPy 大熊猫 ROS2 科佩利亚·西姆(CoppeliaSim) ROS2-接口 CoppeliaSim中的仿真 我们在CoppeliaSim的两个bubblerob上测试了我们的算法,但
2022-03-11 10:10:33 825KB Python
1
matlab心线代码多代理导航 多个代理的导航。 该项目是本文的一个实施。 它是用Matlab编写的。 目标 该项目的目标是在给定n个代理的情况下,每个代理的当前位置,目标位置和K个最近邻的当前速度为每个代理找到合适的速度(线性和角度),以实现零碰撞。 代码文件 VOR_RUN_V01.m类型(主要),项目的主要文件创建并执行每个方案,计算步骤执行时间以及是否发生任何冲突。 变量ΕΧ(第33行)选择方案,nx是代理总数。 RobotClass.m类型(类),该类的每个对象代表一个代理,其中包含诸如速度当前位置或大小之类的信息。 Square.m类型(类),该类的每个对象都代表一个正方形障碍 Cone.m类型(类),每个对象代表一个圆锥体RVO_AB。 execute_one_step.m类型(函数),这是我们实现调用所有适当函数的“心脏”,以便为所有代理更新速度dt一步。 rand_cir.m类型(函数),返回一个圆内的N个均匀采样点。 circle_sampling.m类型(独立程序),用于调试以证明圆的随机均匀采样正确工作。 cone_test.m类型(独立程序),用于调试目的,以
2022-02-28 20:57:50 5.92MB 系统开源
1
Bipartite consensus of general linear multi-agent systems
2022-02-25 10:34:38 207KB 研究论文
1
随着货物运输系统中能耗的Swift增加,应认真考虑能源和环境问题。 通过调整货运量,向更加节能,合理的方向发展货运结构,以达到降低能耗的目的。 考虑到货运调整系统本身的特点,本文介绍了一种基于多主体的模型,该模型是根据需求响应从政府主体,运输公司主体和货物所有者主体分别构建的。 通过Netlogo进行的实验证明,货运在调节货物运输系统的能耗方面发挥了积极作用,并提出了节能建议和政策。
2022-02-19 11:09:20 815KB Demand response Multi-agent modeling
1
Consensus control of nonlinear leader-follower multi-agent systems with actuating disturbances
2022-01-15 19:20:32 699KB 研究论文
1
% 本文参照文献:Flocking for Multi-Agent Dynamic Systems:Algorithms and Theory clear; close all; clc; %% Parameters 初始化参数 num_agents = 100; t_gap=1; % 迭代间隔 queue_gap=15; % 队形间隔 queue_vy=12; queue_vx=13; queue_r=40; r_c=20; % 交互范围(半径) k=1.2; % 晶格的ratio d=r_c/k; % 晶格的scale(表示两两智能体之间的距离(论文中公式5)) v_0=2; % 初始速度 v_limit=0; % 最大速度 efs = 1; % sigma-norms parameter h=0.4; % 设置bump function的分割点(公式10) d_o = r_c; r_c_sigma = sigma_norm(r_c,efs); % r_c的σ范数 d_sigma = sigma_norm(d,efs); % d的σ范数 map_width = 400; % width of a squre map map_res = 0.5; % width of a grid to play obstacles pixel c1=0.2;c2=0.5;c3=0.2;c4=0.1;c5=10;c6=0.01; x = zeros(num_agents,2); % current position x_1 = zeros(num_agents,2); % previous position v_1 = zeros(num_agents,2); % previous velocity x_r0= zeros(num_agents,2); % x_r0:用来存储指定的队形信息 v_r_1st_point=300; path_num = zeros(1000,2,num_agents); v_r=[1,0];
2022-01-01 09:02:22 9KB Flocking Multi-Agent
matlab kinect 代码使用分布式估计和基于视觉的导航对多个机器人进行基于视觉的分布式群控制 布拉德利大学高级项目。 基于视觉的多机器人编队跟踪。 该项目包含用于实现和模拟多智能体目标跟踪机器人的 Simulink 代码和 matlab 代码。 工作已完成。 代码旨在在 QBot2 上实现,该 QBot2 具有基于深度/RGB 的 kinect 相机。 该设计将采用基于视觉的方法来定位和包围移动目标。 请查看我们的网站了解更多详情。 元 安东尼·勒
2021-12-23 19:20:00 91.09MB 系统开源
1
多智能体深度强化学习TensorFlow代码实现,有环境和演示实例
2021-12-10 16:12:12 9.55MB 强化学习 多智能体
1
multi-agent-path-finding
2021-12-09 13:53:22 36KB Python
1