状态:存档(代码按原样提供,预计不会更新) 多代理深度确定性策略梯度(MADDPG) 这是用于实现论文中提出的MADDPG算法的代码: 。 它被配置为与一起运行。 注意:自原始论文以来,此代码库已进行了重组,结果可能与论文中所报告的有所不同。 更新:可以在找到策略集合和策略估计的原始实现。 该代码按原样提供。 安装 要安装,请cd进入根目录,然后键入pip install -e . 已知依赖项:Python(3.5.4),OpenAI Gym(0.10.5),tensorflow(1.8.0),numpy(1.14.5) 案例研究:多代理粒子环境 我们在这里演示如何将代码与结合使用。 按照README文件的说明下载并安装MPE代码。 确保已将multiagent-particle-envs添加到您的PYTHONPATH (例如, ~/.bashrc或~/.bash_profile
2021-06-01 11:07:21 16KB paper 附件源码 文章源码
1
马迪克-凯拉斯 在Keras中实现多代理深度确定性策略梯度(MADDPG)算法
2021-05-09 23:13:45 7.86MB Python
1
多代理深确定性策略梯度 多主体深度确定性策略梯度(MADDPG)算法的Pytorch实现 这是我在论文中提出的算法的实现:“针对混合合作竞争环境的多主体Actor评论家”。 您可以在这里找到本文: : 您将需要安装多代理粒子环境(MAPE),可以在这里找到: : 确保创建具有MAPE依赖项的虚拟环境,因为它们有些过时了。 我还建议使用PyTorch 1.4.0版运行此程序,因为最新版本(1.8)似乎与我在计算批评者损失时使用的就地操作存在问题。 将主存储库克隆到与MAPE相同的目录中可能是最容易的,因为主文件需要该软件包中的make_env函数。 可以在以下位置找到本教程的视频: :
1
一种基于MADDPG的AGV动态避障方法,周能,刘晓平,深度增强学习将深度学习的感知能力和增强学习的决策能力相结合,在智能控制,机器人控制及预测分析等领域有广泛应用空间。本文将
2019-12-21 21:40:17 330KB 自动控制技术
1