DQN 迷宫 神经网络 全部代码 https://blog.csdn.net/qq_26696715/article/details/116705652
2021-05-17 20:06:15 7.79MB DQN 迷宫 神经网络
使用强化学习玩flappy-bird,里面带有详细的安装教程
2021-05-13 20:02:48 11.27MB DQN
1
这是用DQN来走迷宫的一个代码,可以看出DQN的完整用法。
2021-05-11 09:49:37 17KB DQN 简易迷宫
1
详细分析莫烦DQN代码 Python入门,莫烦是很好的选择,快去b站搜视频吧! 作为一只渣渣白,去看了莫烦的强化学习入门, 现在来回忆总结下DQN,作为笔记记录下来。 主要是对代码做了详细注释 DQN有两个网络,一个eval网络,一个target网络,两个网络结构相同,只是target网络的参数在一段时间后会被eval网络更新。 maze_env.py是环境文件,建立的是一个陷阱游戏的环境,就不用细分析了。 RL_brain.py是建立网络结构的文件: 在类DeepQNetwork中,有五个函数: n_actions 是动作空间数,环境中上下左右所以是4,n_features是状态特征数,根据
2021-05-07 19:26:20 80KB eval memory target
1
该代码采用DQN深度Q网络完成了一个示例,代码为MATLAB环境
2021-05-04 18:07:43 442KB DQN MATLAB
1
深度交易 单一股票的DQN,韩元成对交易
2021-04-30 12:03:18 14KB Python
1
详情参考博文。
2021-04-29 17:09:15 4.12MB vrep dqn
1
Python实现走迷宫,迷宫环境可视化,代码参考莫烦python,可以直接运行,DQN网络使用tensorflow搭建,代码注释非常全,基本每一句都有,而且可以使用tensorboard查看日志,需要将log_out参数设置为true
2021-04-27 17:03:12 14KB DQN 强化学习 机器学习 走迷宫
1
使用Pytorch实现的深度RL算法 算法列表: 关于深入探讨 实验结果: 算法 离散环境:LunarLander-v2 连续环境:Pendulum-v0 DQN -- VPG -- DDPG -- TD3 -- SAC -- PPO -- 用法: 只需直接运行文件/算法。 在我学习算法时,它们之间没有通用的结构。 不同的算法来自不同的来源。 资源: 未来的项目: 如果有时间,我将为使用RL的电梯添加一个简单的程序。 更好的图形
2021-04-26 01:35:45 391KB algorithms ddpg sac ppo
1
整理了强化学习入门时必看的论文,主要是有关DQN算法的,致力于强化学习的小伙伴应该必看这些论文的
2021-04-19 15:19:45 13.72MB 强化学习
1