深度强化学习,Deep Reinforcement Learning by Sergey Levine,172页英文文档。
2022-08-04 00:05:25 10.34MB 强化学习 Levine
1
SIGGRAPH 2018论文随附的介绍代码:“ DeepMimic:基于实例的角色导向的深度强化学习(基于物理的角色技能)”。 该框架使用强化学习来训练模拟人形动物,以模仿SIGGRAPH 2018论文随附的变量介绍代码:“ DeepMimic:基于实例的角色技能指导深度强化学习”。 该框架使用强化学习来训练模拟人形生物,以模仿来自运动捕捉数据的各种运动技能。 项目页面:https://xbpeng.github.io/projects/DeepMimic/index.html依赖项sudo apt安装libgl1-mesa-dev libx11-dev libxrandr-dev libxi-dev sudo apt安装mesa-utils sudo apt安装clang sudo apt安装cmake C ++:
2022-07-26 19:15:01 369.39MB C/C++ Machine Learning
1
最新版强化学习教材,内容包括单智能体和多智能体。
1
基于Pytorch实现的DQN算法,环境是基于CartPole-v0的。在这个程序中,复现了整个DQN算法,并且程序中的参数是调整过的,直接运行。 DQN算法的大体框架是传统强化学习中的Q-Learning,只不过是Q-learning的深度学习版本。DQN的改进主要有三个: 1. DQN的行为值函数利用神经网络逼近; 2. DQN维护一个回放缓冲区,将每次从环境中采样得到的四元组数据存储到回放缓冲区中,训练 Q 网络的时候再从回放缓冲区中随机采样若干数据来进行训练; 3. DQN使用目标网络,使得算法的训练更加稳定。
2022-07-14 12:08:28 8KB DQN 强化学习 CartPole Pytorch
1
普通的 DQN 算法通常会导致对值的过高估计,通过神经网络估算的Q值本身在某些时候会产生正向或负向的误差,在 DQN 的更新方式下神经网络会将正向误差累积。对于动作空间较大的任务,DQN 中的过高估计问题会非常严重,造成 DQN 无法有效工作的后果。 为了解决这一问题,Double DQN 算法提出利用两个独立训练的神经网络估算值函数,将训练网络作为 Double DQN 算法中的第一套神经网络来选取动作,将目标网络作为第二套神经网络计算值,极大的缓解了DQN过估计的问题。 这个程序完整实现了DoubleDQN算法,并且在Pendulum-v0环境上验证了过估计问题,可以从实验结果中看出,DoubleDQN确实缓解了DQN的过估计问题。
2022-07-14 12:08:28 11KB 强化学习 过估计 DQN DoubleDQN
1
CS285 Deep Reinforcement Learning 2021 Lecture Slides UCL的深度强化学习课程的PPT
2022-07-13 21:07:30 2.67MB 深度强化学习
1
CS285 Deep Reinforcement Learning 2021 Lecture Slides UCL的深度强化学习课程的PPT
2022-07-11 09:12:53 4.3MB 深度强化学习
1
强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题
2022-07-07 20:14:30 7.09MB 强化学习 深度学习 DQN Q学习
1
源码-使用研究移动边缘计算,任务卸载的人员
2022-07-06 17:04:49 24.01MB 深度强化学习
1
1. 内含语料数据集 2. 内含训练源码预测源码 3. 内含预训练模型 4. 内含环境搭建教程