Multi-Sensor Fusion (GNSS, IMU, Camera) 多源多传感器融合定位 GPS/INS组合导航 PPP/INS紧组合 Multi-Sensor Fusion 版本号:release/3.0.0 初衷 学习组合导航和VIO相关内容. 希望和有兴趣的小伙伴一起交流 程序依赖 glog Eigen OpenCV 3.4 Ceres 使用说明 最新稳定测试版本对应为release/3.0.0分支 Multi-Sensor Fusion使用了submodules形式挂载了tools,因此clone完本程序需要更新tools git checkout -b release/3.0.0 origin/release/3.0.0 git submodule init git submodule update 已经安装完依赖库后,可以直接编译程序 mkdir build && cd build cmake .. && make -j3 程序运行方式 ./mscnav_bin ${configure_file} ${log_
2021-06-15 19:58:04 4.99MB C/C++ Miscellaneous
1
matlab实现多传感器融合代码 Hello-World ideas, resources, discussions and so on. ADB项目——基本工作 MATLAB/Simulink自动生成代码; SImulink+Carsim+PreScan仿真平台; C语言编程; 了解硬件。 AS项目——实现财务自由 PPT 报告 图纸 论文 减振器手册 职业发展——多传感器融合 Udacity-sensor fusion
2021-06-15 15:00:42 651B 系统开源
1
基于雷达与视觉传感器信息融合的车辆检测方法研究.caj
2021-06-10 14:04:51 11.5MB adas 毫米波雷达 传感器融合
1
matlab建立汽车模型代码扩展卡尔曼滤波器项目 为激光雷达/雷达数据实现基于 C++ 的扩展卡尔曼滤波器。 扩展卡尔曼滤波器用于使用激光雷达和雷达数据预测行人的位置。 项目代码 项目可以被克隆或下载 依赖关系 cmake >= 3.5 所有操作系统: 使>= 4.1 Linux:大多数 Linux 发行版默认安装 make 苹果电脑: 视窗: gcc/g++ >= 5.4 Linux:大多数 Linux 发行版默认安装 gcc / g++ Mac:与 make 相同 - [安装 Xcode 命令行工具](() Windows:推荐使用 基本构建说明 克隆这个 repo。 创建一个构建目录(删除任何现有目录): mkdir build && cd build 编译: cmake .. && make 在 Windows 上,您可能需要运行: cmake .. -G "MinGW Makefiles" && mingw32-make 运行它: ./ExtendedKF path/to/input.txt path/to/output.txt 。 您可以在“data/”中找到一些示例输入。
2021-06-08 22:02:53 16.57MB 系统开源
1
R2LIVE 鲁棒,实时,LiDAR-Inertial-Visual紧密耦合状态估计器和映射 R2LIVE是一个健壮的实时紧密耦合的多传感器融合框架,该框架融合了来自LiDAR,惯性传感器,视觉摄像机的测量结果,以实现健壮,准确的状态估计。 利用所有传感器的测量优势,我们的算法对于各种视觉故障,LiDAR退化场景具有足够的鲁棒性,并且能够在机载计算平台上实时运行,如室内,室外进行的大量实验所示,以及不同规模的混合环境。 在(d)中显示了香港大学主楼的重建3D地图,在(a)和(b)中显示了带有对应全景图像的细节点云。 (c)表明我们的算法可以自行关闭循环(返回起点),而无需任何其他处理(例如循环闭合)。 在(e)中,我们将地图与卫星图像合并,以进一步检查系统的准确性。 我们在一个由拥挤的大厅和很长的狭窄隧道组成的香港地铁站中评估了算法,如(a)所示。 该隧道长达190美元,长满了移动的行
2021-06-01 14:27:28 5.25MB
1
传感器融合程序实例!!!!!
2021-05-30 09:02:35 891KB 无人驾驶 传感器融合
北京交通大学研究生课程,多传感器容易课件,老师讲的很好,主要是卡尔曼滤波和组合导航、最优状态估计、
1
20200117_智能无人系统的传感器融合与目标跟踪的一个PPT介绍,写的蛮详细
2021-05-19 16:08:39 3.71MB 智能无人系统 传感器融合 目标跟踪
1
针对移动机器人的不确定复杂环境,一般采用单一传感器进行同时定位和地图创建(SLAM)存在精度较低,并且易受干扰、可靠性不足等问题,提出一种基于Bayes方法的激光传感器和RGB-D传感器的信息融合SLAM方法。利用Bayes方法通过概率启发式模型提取光束投影到栅格地图单元,充分利用激光与视觉信息中的冗余信息,提取一致性特征信息,并进行特征级的信息融合;在地图更新阶段,提出一种融合激光传感器和视觉传感器的贝叶斯估计方法,对栅格地图进行更新。在使用ROS(移动机器人操作系统)的实验平台上的实验表明,多传感器信息融合可以有效提高SLAM的准确度和鲁棒性。
1