多主体强化学习(MARL) 使用rllab通过量化在不同环境中执行的多个代理的随机梯度来开发强化学习。 实验室 rllab是用于开发和评估强化学习算法的框架。 它包括各种各样的连续控制任务以及以下算法的实现: rllab与完全兼容。 有关说明和示例,请参见。 rllab仅正式支持Python 3.5+。 对于坐在Python 2上的rllab的旧快照,请使用。 rllab支持在EC2集群上运行强化学习实验以及用于可视化结果的工具。 有关详细信息,请参见。 主要模块使用作为基础框架,并且我们在下支持TensorFlow。 文献资料 在线提供了文档: https : //rllab.readthedocs.org/en/latest/ 。 引用rllab 如果您使用rllab进行学术研究,强烈建议您引用以下文章: 严端,陈曦,赖因·豪特霍夫特,约翰·舒尔曼,彼得·阿比尔。 “对
2022-03-18 18:31:48 10.24MB Python
1
gkp-rl 使用GKP代码进行量子错误校正的强化学习。
2022-03-11 09:02:20 1.38MB JupyterNotebook
1
SWRLAPI Drools引擎 基于的推理程序和SWRL规则引擎的实现。 可以在找到文档。 入门 该库提供了SWRL规则和SQWRL引擎实现。 有关使用说明,请参见。 引擎的依赖项信息可以在以下位置找到: 从源头建造 要构建此项目,您必须安装以下项目: 用于签出存储库的工具。 Apache的 。 获取最新代码的副本: git clone https://github.com/protegeproject/swrlapi-drools-engine.git 转到swrlapi-drools-engine目录: cd swrlapi-drools-engine 然后使用Maven构建它: mvn clean install 构建完成后,本地Maven存储库将包含生成的swrlapi-drools-engine-$ {version} .jar文件。 该JAR由所使用
2022-02-26 15:11:41 167KB Java
1
Breakout-RL:使用带有CNN的DQN解决OpenAI Gym Env突破
2022-02-24 16:30:50 5KB JupyterNotebook
1
RTX Delay,RTX Events,RTX Mutes....等一系列的RTX使用例程
2022-02-15 09:06:46 3.19MB KEIL RL-RTX
1
RTL8188EUS模块PCB板载天线(RL-UM12BTD-8188EUS-V1.1 3.3V)规格书
2022-02-12 01:20:42 3.91MB RTL8188EUS PCB板载天线 RL-UM12BTD
1
RF-RL-LC-01 人力资源规划管理流程(1).zip
2022-02-02 09:02:20 225KB 资料
RF-RL-ZY-01 招聘管理作业指引.zip
2022-02-02 09:02:19 24KB 资料
RF-RL-ZY-02 培训管理作业指引(1).zip
2022-02-02 09:02:19 27KB 资料
RF-RL-ZY-03 考勤管理作业指引(1).zip
2022-02-02 09:02:19 24KB 资料