AC强化学习算法实现Atari Pong游戏
2021-08-03 17:09:55 2KB RL 强化学习 AC算法
1
从url中找到域名,首先想到的是用正则,然后寻找相应的类库。用正则解析有很多不完备的地方,url中有域名,域名后缀一直在不断增加等。通过google查到几种方法,一种是用Python中自带的模块和正则相结合来解析域名,另一种是使第三方用写好的解析模块直接解析出域名。 要解析的url 复制代码 代码如下: urls = [“http://meiwen.me/src/index.html”,           “http://1000chi.com/game/index.html”,           “http://see.xidian.edu.cn/cpp/html/1429.html”,
2021-08-03 11:11:02 41KB python rl url
1
RTL8188FTV 设计WiFi模块(RL-UM12BS-8188FTV)pdf,应用RTL8188FTV 设计WiFi模块RL-UM12BS-8188FTV
2021-07-21 17:01:16 1006KB 射频RF
1
上传一份英文清晰版的,是djvu格式的,大家喜欢可以下载看下
2021-07-15 13:01:34 4.67MB 谱分析 电子类
1
总共178篇,基本涵盖了20年NIps上所有与强化学习相关的文章。 zip压缩包,不要解压密码,261M大小。 看一看顶会论文怎么写的,自己下笔也大概能有个章法,Good Luck! 勤奋决定天分!
2021-07-14 13:18:15 261.61MB 强化学习RL reinforcement learning NIPS2020
1
强化学习经典资料
2021-07-13 15:19:59 83.5MB 强化学习
1
LearningRacer-rl 概述 该软件能够在几分钟内通过深度强化学习来自我学习您的AI Robocar。 您可以使用Real Robocar和DonkeySim。 1.说明 许多DIY自驾车,例如JetBot或JetRacer,DonkeyCar,都通过监督学习来使用行为克隆。 该方法需要通过人工演示收集很多标记的数据。 在这种情况下,人类驾驶技术非常重要。 另一方面,在此软件中使用深度强化学习(DRL)。 通过与环境的交互,可以自动获得运行行为。 不需要人类标签的样本数据。 另外,该软件代理可以在Jetson Nano上运行。 为什么可以在Jetson Nano上运行并且学习时间短? 因为使用了SAC(软演员评论家)和VAE的集成。 SAC是最新的政策外强化学习方法。 另外,VAE预先在云服务器上作为SAC的CNN层进行训练。(这种方法称为状态表示学习)。 此方法由An
2021-07-13 11:32:16 17.25MB deep-reinforcement-learning sac jetbot jetson-nano
1
本课程为强化学习与控制,由清华大学开设,长聘教授李升波主讲,共十一讲,本讲为第六讲,主要介绍间接型RL的函数近似方法,包括常用近似函数,值函数近似,策略函数近似以及所衍生的Actor-critic架构等。
1
在一个物联网关(stm32f107+dp83848)上实现的一个MQTT发布程序,可以自己修改内容和MQTT服务器。程序使用的是keil中间件 Network Component Version 7.12.0 clipse Paho Embedded MQTTClient-C Client Library
2021-07-07 22:42:02 1.47MB stm32f107 mqtt rtx rl-tcp
1
离线强化学习的乐观观点(ICML,2020年) 该项目使用框架提供开放源代码实施,以运行提到的实验。 在这项工作中,我们使用DQN代理的记录的经验在脱机设置(即 )中训练非策略代理(如下所示),而在训练过程中不与环境进行任何新的交互。 有关项目页面,请参考 。 如何在50M数据集上训练脱机代理而没有RAM错误? 请参阅 。 DQN重播数据集(记录的DQN数据) DQN重播数据集的收集方式如下:我们首先在60款训练代理,并为2亿帧(标准协议)启用了,并保存(观察,动作,奖励,下一个)的所有体验元组。观察) (约5000万)。 可以在公共gs://atari-replay-datasets中找到此记录的DQN数据,可以使用下载。 要安装gsutil,请按照的说明进行操作。 安装gsutil之后,运行命令以复制整个数据集: gsutil -m cp -R gs://atari-rep
2021-07-07 20:36:41 63KB Python
1