PyRL-Pytorch中的强化学习框架 PyRL是深度强化学习研究的框架。 在PyTorch中实现了以下算法: (在制品) (WIP) (在制品) 该项目仍在积极开发中。 特征 模块化架构 在PyTorch中实现 可读代码 安装 git clone https://github.com/chaovven/pyrl.git pip3 install -r requirements.txt 我强烈建议使用conda环境进行实验。 其中一些示例使用MuJoCo物理模拟器。 有关设置MuJoCo的说明,请参见。 进行实验 示例1: TD3 python3 main.py --alg=td3 with env=InvertedPendulum-v2 默认参数存储在config/default.yaml ,其中所有实验都共享这些参数。 TD3的参数存储在文件config/algs
1
turtlebot3强化学习避障,包括DQN, DDPG,PPO,SAC。 转载地址 https://github.com/Crawford-fang/ROS_pytorch_RL/tree/main/DQN 我就用过DQN,里面有很多需要修改的地方。主要是包括路径的代码,改成自己的路径。还有神经网络输入数量有错,需要和雷达接收到的数据维度一致。还有存储空间有错,大小应该为两倍输入数据的大小加上奖励数据和动作数据的大小。代码可用于其他环境和雷达小车
2022-03-10 20:34:34 358KB ROS DQN 深度强化学习 避障
1
DoubleDQN_turtlebot2 基于ROS的TurtleBot 2机器人的双重DQN实现 这是Turtlebot 2机器人上Double DQN算法的实现。 Python解释器:Python 3.6 ROS版本:ROS Melodic凉亭:凉亭9您还需要安装openai_ros ROS软件包( ),以访问基于开放AI的环境和用于训练机器人的命令。 您可以按照ROS的本教程进行设置: ://wiki.ros.org/openai_ros/TurtleBot2 with openai_ros安装在TurtleBot机器人顶部的激光扫描仪用于训练机器人,并且也可以扩展它仅对相机图像进行了微小的更改,但是,我不会在此代码中显示出来。 下面是您将需要的python软件包列表(通过conda列表生成),我建议使用这些库创建一个Conda环境,以实现平稳运行。 _libgcc
2022-03-03 21:33:05 1KB
1
Playing Flappy Bird Using Deep Reinforcement Learning (Based on Deep Q Learning DQN)
2022-03-01 20:37:09 12.23MB 强化学习 DQN Flappy Bird
1
Breakout-RL:使用带有CNN的DQN解决OpenAI Gym Env突破
2022-02-24 16:30:50 5KB JupyterNotebook
1
强化学习是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益。其灵感来源于心理学中的行为主义理论,即有机体如何在环境给予的奖励或惩罚的刺激下,逐步形成对刺激的预期,产生能获得最大利益的习惯性行为。 在强化学习的世界里, 算法称之为Agent, 它与环境发生交互,Agent从环境中获取状态(state),并决定自己要做出的动作(action).环境会根据自身的逻辑给Agent予以奖励(reward)。奖励有正向和反向之分。比如在游戏中,每击中一个敌人就是正向的奖励,掉血或者游戏结束就是反向的奖励。 课程内容】 强化学习简介 强化学习基本概念 马尔科夫决策过程 Bellman方程 值迭代求解 代码实战求解过程 QLearning基本原理 QLearning迭代计算实例 QLearning迭代效果 求解流程详解 DeepQnetwork原理 DQN网络细节 DQN网络参数配置 搭建DQN网络模型 DQN卷积操作定义 数据预处理 实验阶段数据存储 实现训练模块 Debug解读训练代码 完整代码流程分析 DQN效果演示
1
基于Tensorflow实现的深度强化学习算法(Dueling DQN),python3.0及以上,依赖库:Gym、Numpy、Tensorflow
2022-02-24 10:30:12 5KB Deep Reinfor
1
DRQN-张量流 使用Tensorflow,openai / gym和openai / retro进行深度递归Q学习 该存储库包含用于在 Atari和环境上训练DQN或DRQN的代码。 请注意,到目前为止,在Retro环境中的训练都是完全实验性的,必须包装这些环境以将动作空间减少到每个游戏所有动作的更合理的子空间。 当前实现的包装仅对SEGA Sonic环境有意义。 安装 您可以通过发出以下命令来安装所有依赖项: pip install -r requirements.txt 这将在没有GPU支持的情况下安装Tensorflow。 但是,我强烈建议使用带有GPU支持的Tensorflow,否则培训将花费很长时间。 有关此主题的更多信息,请参见 。 为了运行复古环境,您必须收集要玩的游戏的rom并将其导入: : 跑步 您可以通过以下方式开始培训: python main.py --
2022-02-24 09:40:53 63.17MB tensorflow retro openai-gym dqn
1
DQN找最短路径算法,MATLAB实现,含界面,可运行!
2022-02-14 14:15:36 8KB matlab 算法 开发语言
多通道深度Q网络 该存储库包括用于参数化动作空间MDP的几种强化学习算法: P-DQN MP-DQN SP-DQN PA-DDPG 豪 Q-PAMDP 多遍深层Q网络(MP-DQN)通过使用几次遍历(并行批处理)将动作参数输入分配到Q网络来解决P-DQN的过度参数化问题。 拆分深度Q网络(SP-DQN)是一种慢得多的解决方案,它使用具有/不具有共享特征提取层的多个Q网络。 还为P-DQN提供了加权索引的动作参数损失函数。 依存关系 Python 3.5+(已通过3.5和3.6测试) pytorch 0.4.1(1.0+应该可以,但是会慢一些) 体育馆0.10.5 麻木 点击 域 提供了实验脚本,可通过参数化操作在以下域上运行每种算法: 平台( ) 机器人足球进球( ) 半场进攻( ) 上述OpenAI Gym环境的最简单安装方法如下: pip in
2022-02-14 10:19:51 63KB 系统开源
1