cadrl_ros(使用Deep RL避免冲突) 用Deep RL训练的动态避障算法的ROS实现 纸: M.Everett,Y.Chen和JP How,《具有深度强化学习的动态决策代理之间的运动计划》,IEEE / RSJ国际智能机器人和系统会议(IROS),2018年 论文: : 视频: : Bibtex: @inproceedings{Everett18_IROS, address = {Madrid, Spain}, author = {Everett, Michael and Chen, Yu Fan and How, Jonathan P.}, bookti
1
RL-ARM是Keil MDK自带的Real-Time Library,其中包括RTX 内核(Real-Time eXecutive,实时操作系统)、RL-FlashFS(文件系统)、RL-TCPnet(TCP/IP协议栈)、RL-CAN(CAN总线函数库)和RL-USB(USB总线函数库)。还有一个中文的说明文档。
2022-05-04 10:44:00 11.57MB stm32 RL_ARM
1
基于多智能体的深度强化学习RL的优化OBSS干扰的matlab仿真,matlab2021a测试,深度强化学习训练过程仿真较长。
RLBook资料集锦。 强化学习入门资料Algorithms for Reinforcement Learning。 强化学习导论和代码实例。 中文英文都有。
2022-04-29 18:10:13 59.64MB 强化学习 论文 RL 机器学习
1
通过数据驱动的节点采样提高GraphSAGE 作者: ( , ), ( ), ( ) 发表在2019 ICLR研讨会表示学习上图和流形。 概述 作为一种高效且可扩展的图神经网络,GraphSAGE通过归纳二次采样的局部邻域并以小批量梯度下降的方式进行学习,已启用了归纳能力来推断看不见的节点或图。 GraphSAGE中使用的邻域采样有效地提高了并行推断一批不同程度的目标节点时的计算和存储效率。 尽管有此优势,但默认的统一采样在训练和推理上仍存在较大差异,从而导致次优准确性。 我们提出了一种新的数据驱动的采样方法,以通过非线性回归来推断邻域的实际值重要性,并使用该值作为对邻域进行二次采样的标准。 使用基于值的强化学习来学习回归者。 从GraphSAGE的负分类损失输出中归纳地提取了顶点和邻域的每种组合的隐含重要性。 结果,在使用三个数据集的归纳节点分类基准中,我们的方法使用统一
2022-04-16 22:59:33 7.29MB Python
1
DDPG+HER+Expert Data + action clip的注释版本,有自己的注视,是一个机械臂抓取的项目,能够成功运行。
2022-04-15 10:06:50 200.72MB RL
1
贡献者:Datawhale开源项目组 作为人工智能里最受关注的领域之一,强化学习的热度一直居高不下,但它的学习难度也同样不低。 在学习强化学习的过程中,遇到了有无数资料却难以入门的问题,于是发起了Datawhale强化学习项目,希望自学的同时帮助更多学习者轻松入门。
2022-04-11 14:10:40 157.6MB 机器学习 强化学习
sumo-rl-master.zip
2022-03-29 23:36:37 3.09MB 强化学习
1
Burden R.L., Faires J.D. Numerical analysis (7ed., Brooks Cole, 2001)(ISBN 0534382169)(T)(O)(850s)_MN_.djvu
2022-03-25 08:51:22 7.32MB Numerical analysis
1
TensorFlow中的深度强化学习 TensorFlow实施深度强化学习论文。 该实现包含: [1] [2][3][4][5](进行中) [6](正在进行中) [7](进行中) [8](正在进行中) 要求 Python 2.7 或 用法 首先,使用以下命令安装必备组件: $ pip install -U 'gym[all]' tqdm scipy 不要忘了还要安装最新的 。 还请注意,您需要安装所需的依赖项gym[all] 在没有gpu的情况下使用所述的DQN模型进行训练: $ python main.py --network_header_type=nips --env_na
1