多传感器数据融合技术.pdf
2022-01-12 20:51:30 20.64MB 文章
1
数据融合matlab代码L8S2NDVI 使用ASRCNN融合Sentinel-Landsat NDVI 通过MS OneDrive公开访问使用的数据: 附件文件“ data.mat”包括高分辨率Sentinel-2(hr1,hr2,hr3)和低分辨率Landat-8(lr1,lr2,lr3)图像。 云遮罩和间隙填充的预处理已在MATLAB中进行。 所有图像的表面反射率范围为0〜10000。 变量R和refCode可通过以下matlab代码用于重建Geotiff文件: geotiffwrite('Sentinel_t1.tif',hr1,R,'CoordRefSysCode',refCode); geotiffwrite('Landsat_t2.tif',;lr2,R,'CoordRefSysCode',refCode); “ data.mat”中的图像尺寸为1600x1600。 一个子集用于训练和测试,即数据[4:1596,4:1596 ,:] 重现结果: 以农田站点的BI模式为例,将农田站点的“ data.mat”复制到文件夹“ cropland_BI”,然后运行 python a
2022-01-10 21:09:46 6.69MB 系统开源
1
数据融合matlab代码EPIC实验室@GeorgiaTech的Sensor-Fusion团队自动进行间隙填充和运动捕捉工具 如果您认为此代码有用,请考虑引用以下内容: @article{doi:10.1080/10255842.2020.1789971, author = { Jonathan Camargo and Aditya Ramanathan and Noel Csomay-Shanklin and Aaron Young }, title = {Automated gap-filling for marker-based biomechanical motion capture data}, journal = {Computer Methods in Biomechanics and Biomedical Engineering}, publisher = {Taylor & Francis}, doi = {10.1080/10255842.2020.1789971}, note ={PMID: 32654510}, URL = {https://doi.org/10
2022-01-10 20:17:52 10.45MB 系统开源
1
数据融合matlab代码MonoDepth-FPN-PyTorch 一个简单的端到端模型,可在PyTorch中实现深度预测的最新性能。 我们使用功能金字塔网络(FPN)骨架来从单个输入RGB图像估计深度图。 我们在NYU深度V2数据集(官方拆分)和KITTI数据集(本征拆分)上测试了模型的性能。 要求 的Python 3 Jupyter Notebook(可视化) 火炬用PyTorch 0.3.0.post4测试 CUDA 8(如果使用CUDA) 跑步 python3 main_fpn.py --cuda --bs 6 要从保存的模型继续训练,请使用 python3 main_fpn.py --cuda --bs 6 --r True --checkepoch 10 要可视化重建的数据,请在vis.ipynb中运行jupyter笔记本。 数据处理 NYU深度V2数据集 包含各种室内场景,其中249个用于训练的场景和215个用于测试的场景。 我们使用官方分组进行了培训和测试。 这为数据处理提供了非常详细的演练和matlab代码。 在先前的工作之后,我们使用了官方工具箱,该工具箱使用了Le
2022-01-09 19:38:26 233KB 系统开源
1
数据融合matlab代码通过视觉惯性数据融合进行室内导航 这是与本文相关的MATLAB代码: 走廊视频及其同步的IMU测量值包含在./sample_video/目录中。 走廊视频的运行代码 运行demo_vpdetect_modular.m 此代码包含以下部分: 阅读整个视频 读取IMU数据 同步IMU和视频(如果不同步) 在每帧上应用GMM方法 直线分组 从消失的方向中查找每个帧的alpha,beta和gamma IMU和视频的卡尔曼滤波器融合 视线检测 平面检测和深度/宽度推断 步数统计和查找步数位置 2D地图生成 引文 如果您发现我们的工作对您的研究有用,请考虑引用我们的论文: @inproceedings{farnoosh2018first, title={First-person indoor navigation via vision-inertial data fusion}, author={Farnoosh, Amirreza and Nabian, Mohsen and Closas, Pau and Ostadabbas, Sarah}, booktitle={P
2022-01-03 10:09:19 8.75MB 系统开源
1
基于stm32的mpu6050的dmp程序,实现姿态结算,加速度和角速度的数据融合,生成四元数,欧拉角,等数据通过串口发送到电脑!
2022-01-02 10:38:03 2.53MB stm32 mpu6050
1
一种基于人工智能的雷达视频数据融合方法.pdf
1
数据融合matlab代码传感器融合模块,为LIDAR / RADAR输入处理实现了扩展的卡尔曼滤波器 卡尔曼滤波器体系结构。 外部装有LIDAR和RADAR等传感器的汽车可以检测到在其范围内移动的物体:例如,传感器可能检测到行人,甚至是自行车。 这是通过计算扩展的卡尔曼滤波器来实现的,该滤波器同时组合了从激光雷达和雷达获得的数据,以测量移动物体的速度和相对于汽车的相对位置。 对于多样性,让我们使用自行车示例逐步了解Kalman滤波算法(上图所示的体系结构),以了解此计算的实际工作原理: 首次测量-过滤器将接收自行车相对于汽车位置的初始测量值。 这些测量将来自雷达或激光雷达传感器。 初始化状态和协方差矩阵-过滤器将基于第一次测量来初始化自行车的位置。 那么汽车将在时间段Δt之后收到另一个传感器测量值。 预测-算法将在时间Δt之后预测自行车的位置。 在Δt之后预测自行车位置的一种基本方法是假设自行车的速度是恒定的。 因此,自行车将具有运动速度Δt 。 在扩展的卡尔曼滤波课中,我们将假设速度是恒定的。 更新-过滤器将“预测的”位置与传感器测量值进行比较。 将预测的位置和测量的位置合并以给出更
2021-12-22 22:16:22 1.58MB 系统开源
1
数据融合matlab代码一些个人机器人项目 该存储库包含一些问题及其解决方案。 问题1:机器人本地化 您只需创建一个ROS软件包即可仅使用GPS,里程表和INS传感器信息来定位机器人。 您可以使用EKF-软件包来开发项目。 为了脱颖而出,您可以从头开始编写自己的EKF,UKF或任何其他传感器融合算法,而不必使用ROS EKF或UKF软件包。 将根据您的数学问题表述和编码技能对您进行评估。 目标 目的是构建一个ROS程序包,以使用提供的数据对Clearpath Robotics的Warthog机器人进行本地化。 概述 使用提供的ROS袋形式的Warthog机器人的传感器数据来完成机器人定位。 为了完成此任务,使用了两个ROS程序包。 一种是robot_localization,它使用扩展卡尔曼滤波器将传感器(GPS,IMU和里程表)融合在一起。 第二个软件包是hector_slam。 Hector slam并未得到充分利用,但使用了此程序包中的一个模块来绘制机器人的轨迹。 可视化是在rviz中完成的。 指示 该项目是使用ROS Melodic在Ubuntu18上构建和测试的。 不保证与其
2021-12-21 16:25:06 44.1MB 系统开源
1
以STM32F407为硬件平台,使用MPU9250结合mahony姿态融合算法,融合加速度计、磁力计、陀螺仪数据解算出表征姿态的四元数,第二版修正输出角度误差
2021-12-21 10:24:39 1.97MB MPU9250
1