自我监督预测的好奇心驱动探索 在ICML 2017中 , , ,加州大学伯克利分校 这是我们基于ICLS 基于张量流的实现,该。 当来自环境的外部奖励稀疏时,想法是用内在的基于好奇心的动机(ICM)来培训代理商。 令人惊讶的是,即使环境中没有可用的奖励,您也可以使用ICM,在这种情况下,代理仅出于好奇而学会探索:“没有奖励的RL”。 如果您发现这项工作对您的研究有用,请引用: @inproceedings{pathakICMl17curiosity, Author = {Pathak, Deepak and Agrawal, Pulkit and Ef
2022-05-30 14:48:41 2.04MB mario deep-neural-networks deep-learning tensorflow
1
Richard Sutton and Andrew Barto 的经典书籍《Reinforcement Learning- an introduction》。阅读本书是学习强化学习之路上不可避免的一环。而本书是经过两次修改2018年的最新版本。同时推荐youtube上面Alpha Go项目组David Silver的教学视屏,搭配学习,效果更佳哦~
2022-05-29 15:50:05 12.2MB 强化学习 电子书 Reinforce Le
1
python本科毕业设计《基于深度强化学习的云工作流调度》。关键词:有向无环图,工作流,深度强化学习,图神经网络; 蒙特卡洛树搜索python本科毕业设计《基于深度强化学习的云工作流调度》。关键词:有向无环图,工作流,深度强化学习,图神经网络; 蒙特卡洛树搜索python本科毕业设计《基于深度强化学习的云工作流调度》。关键词:有向无环图,工作流,深度强化学习,图神经网络; 蒙特卡洛树搜索python本科毕业设计《基于深度强化学习的云工作流调度》。关键词:有向无环图,工作流,深度强化学习,图神经网络; 蒙特卡洛树搜索python本科毕业设计《基于深度强化学习的云工作流调度》。关键词:有向无环图,工作流,深度强化学习,图神经网络; 蒙特卡洛树搜索python本科毕业设计《基于深度强化学习的云工作流调度》。关键词:有向无环图,工作流,深度强化学习,图神经网络; 蒙特卡洛树搜索python本科毕业设计《基于深度强化学习的云工作流调度》。关键词:有向无环图,工作流,深度强化学习,图神经网络; 蒙特卡洛树搜索python本科毕业设计《基于深度强化学习的云工作流调度》。关键词:有向无环图,工作流,深
用MATLAB语言实现Q-learning算法应用于迷宫最短路径问题
2022-05-26 16:35:02 3KB Q-learning 强化学习实例
1
基于matlab的强化学习QLearning路径规划性能仿真 +程序操作视频 输出训练曲线,以及小车行驶路径,避障过程。 注意事项(仿真图预览可参考博主博客里面"同名文章内容"。): 使用matlab2022a或者高版本仿真,运行文件夹中的tops.m。运行时注意matlab左侧的当前文件夹窗口必须是当前工程所在路径。 具体操作观看提供的程序操作视频跟着操作。
2022-05-26 12:05:58 2.51MB matlab 强化学习 QLearning 路径规划
基于Qlearning强化学习的机器人路线规划仿真,带GUI界面,可设置障碍物 +GUI界面+程序操作视频 注意事项(仿真图预览可参考博主博客里面"同名文章内容"。): 使用matlab2022a或者高版本仿真。运行时注意matlab左侧的当前文件夹窗口必须是当前工程所在路径。 具体操作观看提供的程序操作视频跟着操作。
2022-05-26 12:05:56 6.02MB 源码软件 Qlearning 强化学习 路线规划
pytorch-a2c-ppo-acktr请使用本自述文件中的超级参数。 使用其他超级参数,可能无法正常工作(毕竟是RL)! 这是Advantage Actor Critic(A2C)的PyTorch实现,同步pytorch-a2c-ppo-acktr请使用本自述文件中的超级参数。 使用其他超级参数,可能无法正常工作(毕竟是RL)! 这是Advantage Actor Critic(A2C)的PyTorch实现,这是A3C近端策略优化PPO的同步确定性版本,用于使用Kronecker因子近似ACKTR生成的对抗模仿学习GAIL进行深度强化学习的可扩展信任区域方法另请参阅OpenAI帖子:A2C / ACKTR和PPO获得更多信息
2022-05-26 11:38:01 8.53MB Python Deep Learning
1
人工智能-项目实践-自适应学习-使用强化学习来实现旋转门算法参数的自适应 使用强化学习来实现旋转门算法参数的自适应
在被动式Biped机器人的研究中,避免跌倒一直是研究的重要方向。 在本文中,我们提出了深度确定性策略梯度(DDPG)来控制Biped机器人在斜坡上的稳定行走。 为了提高DDPG的训练速度,本文中使用的DDPG通过并行参与者和优先体验重放(PER)进行了改进。 在模拟中,我们控制导致Biped机器人跌倒的不同初始状态。 控制后,两足动物机器人可以稳定行走,这表明DDPG可以有效地控制两足动物机器人的跌倒。
2022-05-24 10:29:06 907KB 研究论文
1
DRL从游戏到自动驾驶 驾驶策略智能化建模 面向无人车运营的持续改进 系统框架 模型和预监督 主算法效果优化 探索策略演进 探索策略优化 案例演示 大集合效果
2022-05-23 11:20:53 7.08MB 自动驾驶 游戏 人工智能 机器学习
1