使用深度增强学习玩Atari游戏,不错的论文,值得一看,想快下
2021-10-21 08:20:20 472KB AI DRL Atari
1
使用 TURGEN SYSTEM,您可以使用适用于 Atari 8 位计算机的软件创建自己的磁带,并使用数据记录器和磁带适配器将数据从 PC 或 Mac 传输到 Atari 8 位计算机。 将文件转换为原始标准 Atari 磁带记录以及各种“turbo”系统。 您可以创建 WAVE 文件、磁带图像或直接将信号发送到声卡。 文件向导、磁带端创建工具和批处理使您可以方便地创建磁带。
2021-08-05 16:04:11 2.11MB 开源软件
1
离线强化学习的乐观观点(ICML,2020年) 该项目使用框架提供开放源代码实施,以运行提到的实验。 在这项工作中,我们使用DQN代理的记录的经验在脱机设置(即 )中训练非策略代理(如下所示),而在训练过程中不与环境进行任何新的交互。 有关项目页面,请参考 。 如何在50M数据集上训练脱机代理而没有RAM错误? 请参阅 。 DQN重播数据集(记录的DQN数据) DQN重播数据集的收集方式如下:我们首先在60款训练代理,并为2亿帧(标准协议)启用了,并保存(观察,动作,奖励,下一个)的所有体验元组。观察) (约5000万)。 可以在公共gs://atari-replay-datasets中找到此记录的DQN数据,可以使用下载。 要安装gsutil,请按照的说明进行操作。 安装gsutil之后,运行命令以复制整个数据集: gsutil -m cp -R gs://atari-rep
2021-07-07 20:36:41 63KB Python
1
文献翻译,格式做的比较认真,公式图片都做了翻译,格式符合规范。适用于作业,课设,毕设文献翻译
2021-06-11 13:10:43 696KB 翻译 DQN 深度学习 强化学习
1
Atari DOS 3
2021-05-30 18:00:42 98KB 操作系统
1
Gopher2600是Atari 2600的仿真器。虽然性能不如其他某些仿真器有效,但它仍然适合在要求相当高的60fps的现代计算机上玩游戏。 (用于Gopher2600的开发机是i3-3225,可追溯到2012年左右。)Gopher2600 Gopher2600是Atari 2600的仿真器。尽管性能不如其他某些仿真器有效,但它仍然适合玩在一台相当现代的计算机上以60fps的速度进行游戏。 (用于Gopher2600的开发机一直是i3-3225,可追溯到2012年左右。)仿真的准确性非常高,尽管这很难证明。 当然,TIA或RIOT中没有已知的突出问题。 6507仿真也非常符合
2021-05-26 18:03:15 5.89MB Golang Game Development
1
A8E是由Sascha Springer用C编写的免费软件Atari 800 XL仿真器,它是完全从头开始开发的。 它为用户界面以及音频和图形输出使用SDL和OpenGL(可选)库。
2021-05-07 13:03:13 25KB 开源软件
1
Atari Pong中的深度强化学习算法 概括 此应用程序的目标是找出深度Q学习(DQN)在OpenAI环境中对Pong的Atari 1600游戏有多准确和有效。 在DQN之上,测试了对相同算法的其他改进,包括多步DQN,Double DQN和Dueling DQN。 从下图可以看出,基本DQN仅需玩约110场游戏即可达到类似于人的准确性,而经过300场游戏即可达到极高的准确性。 此项目中考虑的DQN改进版本显示出效率和准确性方面的一些改进。 基本DQN:第1集与第216集 环保环境 Atari 1600仿真器由OpenAI制作,您可以在59种不同的游戏上测试您的强化算法。 使用深度强化学习,因为输入是当前帧(210x160x3)的RGB图片。 由于RGB图片的计算量太大,因此变成了灰度。 接下来是将图像缩减采样并将其剪切到可播放区域,该区域的大小为84x84x1。 灰度,下采样和裁剪
2021-03-27 20:32:26 1.3MB Python
1
Q-learning 实现Atari game - taxiv2,基于gym model。
2019-12-21 19:33:55 12.81MB reinforcemen
1