针对双目视觉深度估计成本高、体积大以及监督学习需要大量深度图进行训练的问题,为实现无人机在飞行过程中的场景理解,提出一种面向无人机自主飞行的无监督单目深度估计模型。首先,为减小不同尺寸目标对深度估计的影响,将输入的图像进行金字塔化处理;其次,针对图像重构设计一种基于ResNet-50进行特征提取的自编码神经网络,该网络基于输入的左视图或右视图以及生成对应的金字塔视差图,采用双线性插值的方法重构出与其对应的金字塔右视图或左视图;最后为提高深度估计的精度,将结构相似性引入到图像重构损失、视差图一致性损失中,并且联合视差图平滑性损失、图像重构损失、视差图一致性损失作为训练的总损失。实验结果表明,经过在KITTI数据集上的训练,该模型在KITTI和Make3D数据集上相比其他单目深度估计方法具有更高的准确性和实时性,基本满足无人机自主飞行对深度估计准确性和实时性的要求。
2022-05-12 15:19:15 9.95MB 图像处理 无监督 自编码神 图像重构
1
2.2 单目测距方法二 假设,有效焦距为 f 的 CCD 摄像机安装在载体的顶部, 俯仰角度,距离地面 的高度为 h;地面上有某个被测点P;点P与镜头中心的水平距离为d 。则被测点与 摄像机的光学成像几何关系如图 2 所示: 图 2:单目相机测距原理 其中, 0 O 是镜头的中心; 0 0 ( , )O x y 是光轴与像平面的交点,作为像平面坐标系的 原点; '( , )P x y 是被测点P在像平面的投影。那么,有几何关系:
2022-05-05 17:16:34 307KB 单目视觉测距 视觉测距
1
针对目前SLAM算法实时性和鲁棒性的问题,提出了一种改进的实时单目视觉SLAM算法。该算法采用一个摄像头作为外部传感器来提取机器人行进过程中周围环境的特征信息,用实时性良好的FAST提取环境特征点,结合逆深度参数化进行特征点非延时初始化,用压缩扩展卡尔曼滤波更新地图。实验研究表明,该方法提高了算法的鲁棒性和实时性。
2022-05-04 21:11:01 465KB SLAM
1
基于单目视觉的目标识别与定位研究
2022-05-03 09:31:40 3.11MB 单目测距 目标识别
1
提出一种基于光流反馈的单目视觉三维(3D)重建方法,实现对场景快速、准确的3D 立体化建模。由帧间光流场建立更为稳健的同名像点匹配关系,同时运用五点算法估计摄像机的相对位姿,以构建稀疏点云和初始网格。从运动视觉分析的角度寻求多视重构的求解方法,将重建模型反馈至重建过程,用各视图像的偏差驱动模型变形。将粗略、不准确的原始网格曲面经过致密的非刚性变形,调整至精确的曲面。在统一计算设备架构下,利用图形处理器对光流算法进行并行加速,显著提高了重构算法运行的实时性。室内真实场景下的重建结果证明了所提算法的可行性与准确性。
2022-04-03 19:02:51 3.68MB 机器视觉 三维重建 光流 场景流
1
利用点特征求解单目相对位姿是现在普遍采用的方法,但在纹理不明显、角点少的场景下,仅依靠点特征难以得到理想的结果。鉴于此,结合惯性测量单元的测量数据和平面场景存在的单应性约束,提出了基于点线特征结合的单目相对位姿估计算法。先利用惯性测量单元提供的旋转角信息将2帧连续图像校正为正下视图像;再对图像中的点线特征进行检测和匹配;最后根据点线特征的单应性约束求解正下视图像之间的相对位姿,进而转化获得原始图像之间的相对位姿。仿真实验和实物实验结果证明,所提算法能够有效地求解单目相对位姿。
2022-03-28 09:31:49 11.92MB 成像系统 位姿测量 单目视觉 惯性测量
1
研究生学位论文,内容非常详细,叙述十分清晰,具有很高的参考价值。非常值得学习,适合相关领域知识的学习和巩固,单目视觉空间目标位姿测量算法研究
2022-03-21 14:11:03 3.3MB 机器学习 人工智能
1
研究生学位论文,内容非常详细,叙述十分清晰,具有很高的参考价值。非常值得学习,适合相关领域知识的学习和巩固,基于单目视觉的刚体位姿测量系统研究
2022-03-21 11:14:07 5.33MB 机器学习 人工智能
1
单目视觉SLAM仿真系统的设计与实现
2022-03-07 15:26:03 263KB SLAM仿真
1
针对现有移动机器人单目视觉定位算法在光照变化和弱光照区域表现较差、无法应用于煤矿井下光照较暗场景的问题,通过非极大值抑制处理、自适应阈值调节等对快速特征点提取和描述(ORB)算法进行改进,采用随机抽样一致性(RANSAC)算法进行特征点匹配,提高了煤矿井下弱光照区域的特征点提取和匹配效率。针对仅靠单目视觉定位无法确定机器人与物体的距离及物体大小的问题,采用对极几何法对匹配好的特征点进行视觉解算,通过惯导数据为单目视觉定位提供尺度信息;根据紧耦合原理,采用图优化方法对惯导数据和单目视觉数据进行融合优化并求解,得到机器人位姿信息。实验结果表明:①ORB算法虽然提取的特征点数较少,但耗时短,且特征点分布均匀,可以准确描述物体特征。②改进ORB算法与原ORB算法相比,虽然提取时间有了一定的增加,但提取的可用特征点数也大大增加了。③RANSAC算法剔除了误匹配点,提高了特征点匹配的准确性,从而提高了单目视觉定位精度。④改进后融合定位方法精度有了很大提升,相对误差由0.6 m降低到0.4 m以下,平均误差由0.20 m减小到0.15 m,均方根误差由0.24 m减小到0.18 m。
1