深度强化学习指南(与Keras和OpenAi体育馆一起使用) 使用Keras和OpenAi体育馆进行深度强化学习策略梯度方法的分步教程。 在这个简短的项目中,我们将使用强化学习算法(策略梯度方法-REINFORCE)训练神经网络玩Pong游戏。 如果要运行它,则只需克隆存储库,然后打开钢筋_learning_pong_keras_policy_gradients.ipynb ,然后阅读并运行笔记本 我们训练了一个简单的200个隐藏的神经元网络和一个卷积模型。 简单网络的示例播放: 简单网络玩游戏的视频( ): 卷积网络玩游戏的视频( ): 考虑到有限的时间和出于学习目的,我并不是要寻找一个受过良好训练的代理,但我希望这个项目可以帮助人们熟悉rl算法和keras的基本过程。 上面的视频花了3天时间让代理在慢速的计算机上学习。 为了获得生产结果,需要更多的培训和调整,这不是我
2021-12-12 21:46:08 9.8MB tutorial reinforcement-learning ai guide
1
Policy Gradient algorithms (REINFORCE, NPG, TRPO, PPO)
2021-11-30 17:04:35 132.72MB Python开发-机器学习
1
DRL-2018 该存储库的功能是2018年夏季深度强化学习研究项目的工作(由Keith Ross教授建议,由纽约大学上海分校院长本科研究基金资助)。 在此项目中,我们尝试将“策略梯度”方法(香草策略梯度(aka REINFORCE),Actor-Critic和PPO)与“进化策略”相结合,以设计出一种提高样本效率的混合算法。 在MuJoCo基准上评估了所提出算法的性能。 参考: 加强:罗纳德·J·威廉姆斯。 用于连接符增强学习的简单统计梯度跟踪算法。 机器学习,8(3-4):229–256,1992年。 影评人:理查德·萨顿(Richard S Sutton),大卫·麦卡莱斯特(David A McAllester),萨特德·辛格(Satinder P Singh)和伊谢·曼苏(Yishay Mansour)。 通过函数逼近进行强化学习的策略梯度方法。 在《神经信息处理系统的进步
2021-11-29 19:50:58 15KB Python
1
seqGAN PyTorch实现的“ SeqGAN:具有策略梯度的序列生成对抗网络”。 (于兰涛等)。 该代码经过高度简化,注释和(希望)易于理解。 实施的策略梯度也比原始工作( )简单得多,并且不涉及推广-整个句子使用单一奖励(受的示例启发) )。 使用的体系结构与原始工作中的体系结构不同。 具体而言,将循环双向GRU网络用作鉴别器。 该代码按论文中所述对合成数据进行实验。 我们鼓励您对代码作为问题的工作方式提出任何疑问。 要运行代码: python main.py main.py应该是您进入代码的入口。 技巧与观察 在这种情况下,以下黑客(从借来)似乎有效: 培训鉴别器
1
#3.3_进化策略+梯度下降=Natural_ES_(机器学习_进化算法_Evolutionary_Algorithm_教程教学
2021-09-01 21:00:10 19.31MB 学习资源
本课程为强化学习与控制,由清华大学开设,长聘教授李升波主讲,共十一讲,本讲为第七讲,主要介绍直接型RL的策略梯度法,包括各类Policy Gradient, 以及如何从优化的观点看待RL等。
1
pytorch-ddpg, 利用PyTorch实现深度确定策略梯度( DDPG )的实现 在 PyTorch 上的深度确定策略渐变概述这是使用 PyTorch 实现的深度确定策略渐变的实现。 utilities缓冲缓冲区和随机进程等实用程序的一部分来自 keras-rl 。 Contributes非常受欢迎。依赖项p
2021-07-09 15:20:48 1.84MB 开源
1
司机批评家 OpenAI Gym的CarRacing-v0环境解决方案。它使用DDPG算法(深度确定性策略梯度)。 快速开始 依存关系: 健身房0.18.0 Tensorflow 2.4.0 Matplotlib 3.3.4 当前版本的CarRacing-v0存在内存错误。为了解决这个问题,我们需要从Gym GitHub手动下载最新的“ car_racing.py”脚本。 正在运行的应用程序: 执行“ main_loop.py”以训练新模型。按空格键观看进度 可以通过运行“ evaluate_loop.py”来检查最佳解决方案。 解决方案 DDPG由4个网络组成: 演员-玩游戏 评论家-评估演员 目标演员和目标评论家-产生学习目标值 参考: : 它旨在创建一个基类,它将成为每个连续动作任务的基础。通过继承基类,可以轻松实现更复杂的解决方案。 CarRacing-v0是一种计算机视
2021-06-07 16:17:47 377KB Python
1
马迪克-凯拉斯 在Keras中实现多代理深度确定性策略梯度(MADDPG)算法
2021-05-09 23:13:45 7.86MB Python
1
多代理深确定性策略梯度 多主体深度确定性策略梯度(MADDPG)算法的Pytorch实现 这是我在论文中提出的算法的实现:“针对混合合作竞争环境的多主体Actor评论家”。 您可以在这里找到本文: : 您将需要安装多代理粒子环境(MAPE),可以在这里找到: : 确保创建具有MAPE依赖项的虚拟环境,因为它们有些过时了。 我还建议使用PyTorch 1.4.0版运行此程序,因为最新版本(1.8)似乎与我在计算批评者损失时使用的就地操作存在问题。 将主存储库克隆到与MAPE相同的目录中可能是最容易的,因为主文件需要该软件包中的make_env函数。 可以在以下位置找到本教程的视频: :
1