只为小站
首页
域名查询
文件下载
登录
DeepReinforcementLearning-DDPG-for-RoboticsControl:这是名为深度确定性策略梯度(DDPG)的深度强化学习算法的实现,以训练4自由度机械臂达到移动目标。 动作空间是连续的,学习的特工为机器人输出扭矩以移动到特定目标位置-源码
DDPGforRoboticsControl 这是名为深度确定性策略梯度(DDPG)的深度强化学习算法的实现,用于训练4自由度机械臂以达到移动目标。 动作空间是连续的,学习的代理会输出扭矩以使机器人移动到特定的目标位置。 环境 一个包含20个相同代理的,每个代理都有其自己的环境副本。 在这种环境下,双臂可以移动到目标位置。 对于代理人的手在目标位置中的每一步,将提供+0.1的奖励。 因此,座席的目标是在尽可能多的时间步中保持其在目标位置的位置。 观察空间由33个变量组成,分别对应于手臂的位置,旋转,速度和角速度。 每个动作是一个带有四个数字的向量,对应于适用于两个关节的扭矩。 动作向量中的每个条目都应为-1和1之间的数字。 解决环境 您的特工平均得分必须为+30(超过100个连续剧集,并且超过所有特工)。 具体来说,在每个情节之后,我们将每个代理商获得的奖励加起来(不打折),以获得每个
2021-04-29 11:38:55
20.38MB
JupyterNotebook
1
视觉推送抓取:通过深度强化学习来训练机器人特工来计划计划的推动和抓握动作,以进行操纵-源码
视觉推送和抓取工具箱 视觉推送和抓取(VPG)是一种训练机器人代理以学习如何计划互补的推送和抓取操作以进行操纵(例如,用于非结构化的放置和放置应用程序)的方法。 VPG直接在视觉观察(RGB-D图像)上运行,从试错中学习,快速训练,并推广到新的对象和场景。 该存储库提供PyTorch代码,用于在UR5机械臂的模拟和实际设置中通过深度强化学习来训练和测试VPG策略。 这是本文的参考实现: 通过自我监督的深度强化学习来学习推动和抓握之间的协同作用 , ,( ,( ,( ,( 2018年IEEE / RSJ国际智能机器人和系统国际会议(IROS) 熟练的机械手操作得益于非灵活(例如推
2021-04-27 12:45:57
13.81MB
computer-vision
deep-learning
robotics
deep-reinforcement-learning
1
最新最全《深度元学习》2021综述论文
深度神经网络在拥有大量数据集和足够的计算资源的情况下能够取得巨大的成功。然而,他们快速学习新概念的能力相当有限。元学习是解决这一问题的一种方法,通过使网络学会如何学习。
2021-04-24 09:08:01
3.1MB
元学习
深度学习
1
深度强化学习A2C算法实现
完整实现A2C算法,包括实现要点、模型构建、虚拟环境交互、模型训练、信息监控等,并亲测在google colab中运行
2021-04-21 20:58:57
5.39MB
PyTorch
深度强化学习
A2C
深度学习
1
(原文+译文)2019_用于智能故障诊断的无监督深度迁移学习:开放源代码和比较研究.zip
严如强团队2019年文章UnsupervisedDeepTransferLearningforIntelligentFaultDiagnosis-AnOpenSourceandComparativeStudy用于智能故障诊断的无监督深度迁移学习:开放源代码和比较研究 关键词:无监督深度学习;智能故障诊断;开源研究 1.介绍 2.简要回顾 3.算法评估 4.基于UDTL的智能故障诊断应用 5.数据集 6.数据预处理和拆分 7.评估方法 8.评价结果 9.进一步讨论 10.结论 附录A:测试结果
2021-04-20 20:13:09
10.49MB
深度迁移学习
无监督
故障诊断
开放源代码
1
LIRD:电影深度强化学习推荐系统-源码
LIRD:基于深度强化学习的“明智”推荐框架 电影深度强化学习推荐系统 这篇文章的重新实现:深强化学习的名单明智的建议- 原始源代码: :
2021-04-18 22:53:37
837KB
系统开源
1
keras-rl:Keras的深度强化学习-源码
Keras的深度强化学习 它是什么? keras-rl在Python中实现了一些最先进的深度强化学习算法,并与深度学习库无缝集成。 此外, keras-rl可与一起使用。 这意味着评估和使用不同算法很容易。 当然,您可以根据自己的需要扩展keras-rl 。 您可以使用内置的Keras回调和指标,也可以定义自己的回调和指标。 更重要的是,只需扩展一些简单的抽象类,即可轻松实现自己的环境甚至算法。 文档可。 包含什么? 到目前为止,已实现以下算法:
深度Q学习
(DQN) , Double DQN 深度确定性策略梯度(DDPG) 连续DQN(CDQN或NAF) 交叉熵方
2021-04-17 20:32:03
882KB
machine-learning
theano
reinforcement-learning
tensorflow
1
基于深度强化学习的混合动力汽车能源管理策略.zip
基于深度强化学习的混合动力汽车能量管理策略
2021-04-16 18:01:51
5.53MB
电动汽车
深度强化学习
能量管理
机器学习
RL-Stock:用如何用深度强化学习自动炒股-源码
:chart_increasing:如何用深度强化学习自动炒股 :light_bulb:初衷 最近发生的事故,受到新冠疫情的影响,股市接连下降,作为一棵小白菜兼小韭菜,竟然产生了抄底的大胆想法,拿出仅存的一点私房钱梭哈了一把。 第二天,暴跌,俺加仓 第三天,又跌,俺加仓 第三天,又跌,俺又加仓... 一番错误操作后,结果严重不堪重负,第一次买股票就被股市一段暴打,受到了媳妇无情的嘲讽。痛定思痛,俺决定换一个思路:如何用深度强化学习来自动模拟炒股?实验验证一下能否获得收益。 :open_book:监督学习与强化学习的区别 监督学习(如LSTM)可以根据各种历史数据来预测未来的股票的价格,判断股票是涨还是跌,帮助人做决策。 而强化学习是机器学习的另一个分支,在决策的时候采取适当的行动(Action)使最后的奖励最大化。与监督学习预测未来的数值不同,强化学习根据输入的状态(如当日开盘价,收盘价等),输出系列动作(例如:买进,持有,卖出),从而最后的收益最大化,实现自
2021-04-11 14:03:47
4.14MB
JupyterNotebook
1
记忆增强型深度强化学习研究综述
近年来,深度强化学习的取得了飞速发展,为了提高深度强化学习处理高维状态空间或动态复杂环境的能力,研究者将记忆增强型神经网络引入到深度强化学习,并提出了不同的记忆增强型深度强化学习算法,记忆增强型深度强化学习已成为当前的研究热点.
2021-04-07 09:14:10
1.25MB
记忆增强
强化学习
1
个人信息
点我去登录
购买积分
下载历史
恢复订单
热门下载
2010年-2020中国地面气候资料数据集(V3.0)
Python+OpenCV实现行人检测(含配置说明)
cplex_studio129.win-x86-64.exe CPLEX 12.9直接安装可使用
Android大作业——网上购物APP(一定是你想要的)
房价预测的BP神经网络实现_python代码
token登录器.rar
全国河流水文站坐标.xls
神经·模糊·预测控制及其MATLAB实现PDF + MATLAB程序
长江流域shp.zip
copula程序及算法.zip
Spring相关的外文文献和翻译(毕设论文必备)
python实现的学生信息管理系统—GUI界面版
机械臂避障路径规划仿真 蚁群算法 三维路径规划
超大规模集成电路先进光刻理论与应用.pdf
2021华为芯片研发岗位笔试题
最新下载
numpy-1.19.4+mkl-cp38-cp38-win_amd64.whl
谭浩强c语言第四版全套
(来点有用的)含障碍的两点最短路径算法完整代码
vb写的usb扫码枪记录器
北京大学-机器学习课件
读秀包库全文下载器.zip
华为AP3010DN-V2,Fat AP(胖AP)固件
NSF-PROD-NF-V6.0R03F00-绿盟NF防火墙用户手册.docx
使用C#开发搜索引擎 PDF电子书下载 带书签目录
Tina 9 官方正式破解版 内附破解教程
其他资源
sqlite 1.111.3支持.net 4.5.zip
MATLAB实现V-BLAST系统及其检测算法
计算机408考研复习笔记
数据挖掘的课程设计报告
仿QQ聊天系统本科生毕业设计
xmltotxt转换工具
OPCDAAuto.dll64位不能注册解决方案
安徽大学_微波技术期末考试题目总结(廖老师)
REALTEK_PGTOOL_v2.0.5.rar
java程序 书店管理系统
opencascade的中文帮助文档
DVWA全级别教程
fdfs_client-py-master
水经注万能地图下载器破解版
UML建模(客户关系管理系统需求分析报告)
本地伪集群测试Demo
设计用于超窄线宽激光器超稳法布里珀罗腔的支撑方式
计算器源代码.txt
srs-bench-master
wx-cms-template-master.zip
微乐居房产小程序(前端后端)
将矩阵化为行最简形代码
C++全套21天视频教程
操作系统实验报告 主存空间的分配与回收 三种适应算法(源码+文档)