通过深度强化学习优化放射治疗的时间表 model文件夹包含模拟的Python实现的代码。 model_cpp文件夹包含模拟的C ++实现的代码。 nnets文件夹包含使用不同算法和奖励功能训练的神经网络,如手稿中所述。 training_logs文件夹包含zip归档中的手稿中描述的四个代理的培训日志文件。 eval文件夹包含不同代理的性能评估。 tmp文件夹包含在评估代理程序期间创建的映像。 misc文件夹包含无法在上述文件夹中分类的文件。 main.py用于训练代理。 use_network.py使用手稿中描述的性能指标评估神经网络。
2021-06-06 09:37:03 16.27MB C++
1
对论文《Human-level control through deep reinforcement》的中文翻译的文档
2021-05-29 21:41:52 2.56MB 强化学习 DQN Atari2600 神经网络
1
DQN 迷宫 神经网络 全部代码 https://blog.csdn.net/qq_26696715/article/details/116705652
2021-05-17 20:06:15 7.79MB DQN 迷宫 神经网络
使用强化学习玩flappy-bird,里面带有详细的安装教程
2021-05-13 20:02:48 11.27MB DQN
1
这是用DQN来走迷宫的一个代码,可以看出DQN的完整用法。
2021-05-11 09:49:37 17KB DQN 简易迷宫
1
详细分析莫烦DQN代码 Python入门,莫烦是很好的选择,快去b站搜视频吧! 作为一只渣渣白,去看了莫烦的强化学习入门, 现在来回忆总结下DQN,作为笔记记录下来。 主要是对代码做了详细注释 DQN有两个网络,一个eval网络,一个target网络,两个网络结构相同,只是target网络的参数在一段时间后会被eval网络更新。 maze_env.py是环境文件,建立的是一个陷阱游戏的环境,就不用细分析了。 RL_brain.py是建立网络结构的文件: 在类DeepQNetwork中,有五个函数: n_actions 是动作空间数,环境中上下左右所以是4,n_features是状态特征数,根据
2021-05-07 19:26:20 80KB eval memory target
1
该代码采用DQN深度Q网络完成了一个示例,代码为MATLAB环境
2021-05-04 18:07:43 442KB DQN MATLAB
1
深度交易 单一股票的DQN,韩元成对交易
2021-04-30 12:03:18 14KB Python
1
详情参考博文。
2021-04-29 17:09:15 4.12MB vrep dqn
1
Python实现走迷宫,迷宫环境可视化,代码参考莫烦python,可以直接运行,DQN网络使用tensorflow搭建,代码注释非常全,基本每一句都有,而且可以使用tensorboard查看日志,需要将log_out参数设置为true
2021-04-27 17:03:12 14KB DQN 强化学习 机器学习 走迷宫
1