[附件中程序使用的详细说明]摄像平台高速靠近目标时,会使成像产生从中心到边缘呈放射状径向模糊的问题,影响对目标的探测、识别与跟踪。针对这一典型的空间变化运动模糊情形,根据实际的目标离散成像过程,推导出 径向模糊图像在极坐标系中的数学模型。并在分析极坐标图像纹理信息几何特征的基础上,基于非局部正则化理论提出改进的Richardson-Lucy 算法,有效解决了模糊系数存在测量误差时,含噪径向模糊图像的复原问题。实验结果表明:提出的图像复原算法能很好地抑制噪声与环状振铃效应,在主观视觉与客观评价方面均能取得很好的复原效果。
2021-12-01 12:48:57 8.38MB 非局部正则化 RL算法 模糊图像复原
1
增强学习 经典算法 A3C 论文摘要: We propose a conceptually simple and lightweight framework for deep reinforcement learning that uses asynchronous gradient descent for optimization of deep neural network controllers. We present asynchronous variants of four standard reinforcement learning algorithms and show that parallel actor-learners have a stabilizing effect on training allowing all four methods to successfully train neural network controllers. The best performing method, an asynchronous variant of actor-critic, surpasses the current state-of-the-art on the Atari domain while training for half the time on a single multi-core CPU instead of a GPU. Furthermore, we show that asynchronous actor-critic succeeds on a wide variety of continuous motor control problems as well as on a new task of navigating random 3D mazes using a visual input.
2021-11-30 16:51:49 2.2MB RL A3C
1
应用MT7668ASN开发设计一款SDIO接口,符合BT5.0标准的蓝牙wifi二合一高性能模块
2021-11-27 10:33:14 941KB MT7668
1
keil mdk 自带的系统RTX,这个是中文版,看起来舒服点,效率高
2021-11-24 14:56:05 1.57MB RTX keil RL-ARM
1
仿制学习用纸清单 RL中的模仿学习论文集,并有简要介绍。 该馆藏涉及“ ,还包含自我收集的论文。 确切地说,“模仿学习”是向专家演示(LfD)学习的普遍问题。 从这种描述中可以得出两个名称,由于历史原因,它们分别是“模仿学习”和“学徒学习”。 通常,学徒制学习是在“通过逆向强化学习(IRL)进行学徒制学习”的上下文中提及的,它可以恢复奖励功能并从中学习策略,而模仿学习始于直接克隆行为的行为,即直接学习该策略( 和Morgan- Kaufmann,NIPS 1989)。 然而,随着相关研究的发展,“模仿学习”一直被用来代表一般的LfD问题设置,这也是我们的观点。 通常,模仿学习的不同设置会衍生到不同的特定领域。 一种普遍的设置是,一个人只能从不互动的专家处获得(1)对预收集的轨迹((s,a)对)(2)他可以与环境进行交互(使用模拟器)(3)而没有奖励信号。 在这里,我们列出了一些其他设置
2021-11-23 15:08:46 12KB
1
MPE-多主体强化学习算法 MPE 这是使用OpenAI Multi-Agent RL的简单验证实验代码。 该环境总结了许多基准,并最初为算法做准备。 由于环境设置简单, MPE似乎是验证我们新的Multi-Agent RL算法并与其他基准进行比较的良好玩具实验环境。 我为您编写了一些著名的多主体RL算法,以便您可以更改较少的代码来实现自己的算法并验证实验结果。 笔记: 如果要成功运行此MPE环境,则必须确保已下载 。 但是,我已经将基准的文件推送到项目中,如果您发现从OpenAI下载的基准有任何问题,则可以使用我的文件。 要求 Python> = 3.6.0 PyTorch == 1.2.0 OpenAI体育馆== 0.10.5 演算法 待办事项清单 评估和渲染 数字与比较 上传训练模型.pt 致谢 我一直以硕士生的身份学习。 我的代码和对算法的理解可能存在一些问
2021-11-23 10:03:43 3.62MB Python
1
pybullet快速入门手册 PyBulletQuickstart GuideErwin Coumans​, ​Yunfei Bai​, 2017/2018 1.Introduction 2.controlling arobot 3.synthetic camera rendering 4.collision detection queries 5.inverse dynamics,kinematics 6.reinforcement learning gym envs 7.virtual reality 8.debug GUI,lines,Text,Parameters 9.build and install pybullet
2021-11-18 11:20:17 1.54MB deep rl pybullet robot
1
使用强化学习的智能故障诊断 问题陈述:使用智能代理执行条件分类,该智能代理学习类似于人类感知的分类 方法:使用堆叠式自动编码器提取潜在特征,并使用深度Q网络训练代理 数据集 我们的研究中使用的滚动轴承的故障数据是由凯斯西储大学(CWRU)收集的。 该数据集包含正常轴承和故障轴承的滚珠轴承测试数据。 在实验设置中,测量数据的采样频率为48KHz,该频率来自电机轴附近的测量。 有四种不同的条件: N:正常 如果:内部故障 OF:外部故障 RF:滚轴故障 为了验证所提出的方法,根据作为运行条件的轴的负载量将振动数据分为四组(A,B,C和D),这将导致不同的振动模式,从而增加振动的动态性。轴。 根据故障直径和故障位置,每组(例如A)包含10个不同的类别(1、2,...,10)。 A,B,C包含所有类,并且在这三个数据集中没有不可见的类。 平均而言,某个数据集下的每个类别包含480,000
2021-11-16 16:06:26 70.35MB Python
1
RTL8188EUS模块(RL-UM12BS-8188EUS)规格书.
2021-11-16 15:47:18 2.56MB RTL8188EUS RL-UM12BS
1
Keil MDK RL-ARM 实时库用户指南 中文版包括以下内容 RL-RTX 描述了RL-ARM实时操作系统的结构,包括任务优先级、上下文切换、单个CPU下如何管理多个任务以及在RL-RTX中用到的其他一些 RTOS特性。 RL-FlashFS 描述了 RL-ARM中Flash文件系统的结构,包括文件创建、保存、读取以及在标准的flash,RAM或是存储卡设备中修改文件。 RL-TCPnet 描述了RL-ARM中TCP/IP协议栈组的结构,包括多种TCP/IP特性,以及帮助你创建可以联网的嵌入式运用程序。 RL-CAN 描述了RL-ARM中CAN设备的结构,包括如何采用RTX内核建立CAN运用程序。 Example Programs 列举了一些RL-ARM例程以及描述如何对其进行测试
2021-11-09 18:38:14 1.57MB RTX RL_ARM 中文操作系统,STM32 指南
1