MPE-多主体强化学习算法 MPE 这是使用OpenAI Multi-Agent RL的简单验证实验代码。 该环境总结了许多基准,并最初为算法做准备。 由于环境设置简单, MPE似乎是验证我们新的Multi-Agent RL算法并与其他基准进行比较的良好玩具实验环境。 我为您编写了一些著名的多主体RL算法,以便您可以更改较少的代码来实现自己的算法并验证实验结果。 笔记: 如果要成功运行此MPE环境,则必须确保已下载 。 但是,我已经将基准的文件推送到项目中,如果您发现从OpenAI下载的基准有任何问题,则可以使用我的文件。 要求 Python> = 3.6.0 PyTorch == 1.2.0 OpenAI体育馆== 0.10.5 演算法 待办事项清单 评估和渲染 数字与比较 上传训练模型.pt 致谢 我一直以硕士生的身份学习。 我的代码和对算法的理解可能存在一些问
2021-11-23 10:03:43 3.62MB Python
1
多尺度排列熵和多尺度样本熵,写论文时使用过,供参考……
2021-08-26 15:49:14 2KB 多尺度排列熵 多尺度样本熵 MPE MSE
1
%计算多尺度置换熵(MPE) % 输入:X:时间序列; % m:排列熵的顺序% t:置换熵的延迟时间, % Scale:比例因子 % 输出: % MPE:多尺度置换熵 %Ref: G Ouyang, J Li, X Liu, X Li, Dynamic Characteristics of Absence EEG Recordings with Multiscale Permutation %% Entropy Analysis, Epilepsy Research, doi: 10.1016/j.epplepsyres.2012.11.003 % G Ouyang, C Dang, X Li, 使用多尺度排列熵对 EEG 数据进行复杂性分析,% % 认知神经动力学进展 (II),2011,第 741-745 页
2021-08-11 14:59:10 1KB matlab
1
RL-MPE 用DDPG/MADDPG/DQN/MADDPG+advantage实验 OpenAI开源的MPE环境 OpenAI MPE: OpenAI MADDPG: 自己加入了DQN,与Maddpg+advantage算法。但效果不如Maddpg。另,在游戏中设置了“吃掉消失”的现象。但训练策略与游戏得分有较大的关系,增加“吃掉消失”与“输赢”评判之后,训练效果不佳。
2021-06-17 18:12:37 52KB Python
1