多传感器信息融合技术的基本原理就像人的大脑综合处理信息的过程一样,将各种传感器进行多层次、多空间的信息互补和优化组合处理,最终产生对观测环境的一致性解释。
2021-12-19 10:47:52 51KB 多传感器 融合系统 特点 结构
1
无人驾驶中,IMU与GPS如何融合,位姿如何解算
2021-11-30 13:23:41 174KB sins GPS 多传感器融合 定位
1
基于多源信息融合的智能汽车环境感知技术研究.caj
2021-11-28 14:53:51 4.36MB 传感器融合
1
shenlan学院renqian老师的课程-多传感器融合
2021-11-18 09:07:19 75B slam
雷达波形设计matlab代码雷达目标的产生与检测 Udacity的传感器融合工程师纳米学位计划项目 项目目标 这是基于MATLAB的雷达目标生成和检测实现,可用于: 使用提供的雷达设计规范进行FMCW波形设计 运动目标生成 信号传播 接收信号处理 距离多普勒FFT实现 CFAR检测 实施注意事项 该实现非常简单,以下是一些详细信息/说明: 1.雷达规格 规格已预先提供,并在下面列出: %% Radar Specifications %%%%%%%%%%%%%%%%%%%%%%%%%%% % Frequency of operation = 77GHz % Max Range = 200m % Range Resolution = 1 m % Max Velocity = 100 m/s 2.目标指标 对于目标参数,我使用以下值: %% User Defined Range and Velocity of target initial-position = 100 m initial-velocity = 25 m/s 3. FMCW波形生成 为此,标准的带宽和线性调频公式被用于。 下图
2021-11-16 13:11:41 236KB 系统开源
1
本文的多传感器融合是建立在读懂《Quaternionkinematicsfortheerror-stateKalman?lter》基础上的,是一种相机和IMU融合的理论,里面讲解了IMU的误差状态运动方程构建。误差状态四元数,是有开源的程序的,但是它是集成在rtslam里面的,不方便提取出来使用。但还有另外一个开源的程序,ETH的MSF,可以比较方便地用在自己的工程里面,并且它的理论与误差状态四元数很接近,稍微有点不同,所以MSF开源程序就成了一个不错的选择。所以本人研究了ETH的两篇文章:《VisionBasedNavigationforMicroHelicopters》和《ARobusta
1
传感器融合处理,课件记录。
2021-11-05 10:13:41 126.05MB dataprocess
1
Sensor fusion and tracking users guide.pdf
2021-11-04 23:57:29 16.26MB 多传感器融合MATLAB资料
1
GNSS-INS-SIM GNSS-INS-SIM是GNSS / INS模拟项目,它生成参考轨迹,IMU传感器输出,GPS输出,里程表输出和磁力计输出。 用户选择/设置传感器模型,定义航路点并提供算法, gnss-ins-sim可以为算法生成所需的数据,运行算法,绘制仿真结果,保存仿真结果并生成简短摘要。 内容 要求 Numpy(版本> 1.10) Matplotlib 演示版 我们提供以下演示以展示如何使用此工具: 文件名 描述 demo_no_algo.py 没有用户指定的算法,可以生成数据,将生成的数据保存到文件并绘制(2D / 3D)感兴趣的数据的演示。 demo_allan.py Allan陀螺仪和加速度计数据分析演示。 产生的艾伦偏差如图所示。 demo_free_integration.py 一个简单捷联系统的演示。 模拟运行1000次。 生成了1000个仿真
2021-10-26 20:54:49 2.07MB gps imu gnss integrated-navigation
1
全球无人驾驶格局及技术方案比较 多传感器融合的基本原理和算法 基于多传感器前融合的L4技术方案解析 Roadstar.ai如何加速落地和商业化
2021-10-20 19:17:19 4.89MB 自动驾驶 多传感器融合 感知
1