深度模仿学习的语用观察 模仿学习算法(使用PPO ): 美国广播公司 AIRL 公元前 钻头 童话 盖尔 GMMIL nn-PUGAIL PWIL 红色 python main.py --imitation [AIRL|BC|DRIL|FAIRL|GAIL|GMMIL|PUGAIL|RED] 选项包括: 仅状态模仿学习: --state-only 吸收状态指示器 --absorbing R1梯度正则化 :-- --r1-reg-coeff 1 (默认值) 结果 PPO 火车 测试 航空 火车 测试 公元前 火车 测试 钻头 火车 测试 公平 火车 测试 盖尔 火车 测试 吉米 火车 测试 nn-PUGAIL 火车 测试 红色的 火车 测试 致谢 @ikostrikov ( https://github.com/ikostrikov
1
模仿学习基准实施 该项目旨在提供模仿学习算法的清晰实现。 目前,我们已经实现了行为克隆, (带有综合示例),和。 安装: 安装PyPI版本 pip install imitation 安装最新的提交 git clone http://github.com/HumanCompatibleAI/imitation cd imitation pip install -e . 可选的Mujoco依赖性: 请按照说明在安装 。 CLI快速入门: 我们提供了几个CLI脚本作为imitation实现的算法的前端。 这些使用进行配置和复制。 从examples / quickstart.sh中: # Train PPO agent on cartpole and collect expert demonstrations. Tensorboard logs saved in `quickstar
1
行业分类-化学冶金-面向跨场景的机器人视觉模仿学习方法及系统.zip
模仿学习的目的是从人类专家的演示或人工创造的代理中提取知识,以复制他们的行为。它已经成功在视频游戏、自动驾驶、机器人模拟和物体操纵等领域得到了证明。然而,这种复制过程可能会有问题,比如性能高度依赖于演示质量,并且大多数经过训练的代理在特定于任务的环境中只能表现良好。
2021-07-03 09:13:32 488KB 模仿学习
1
深度增强学习算法的PyTorch实现(策略梯度/生成对抗模仿学习)
2020-04-13 03:17:09 5.41MB Python开发-机器学习
1