对基于点特征的单目视觉定位算法进行研究, 提出了一种基于 5 点透视投影数学模型的单目视觉位姿测量 算法, 该算法使用不共面定位特征点, 根据 5 个特征点在摄像机坐标系与世界坐标系下相对位置关系相同来计算 5 个 特征点在摄像机坐标系下的坐标, 进而求出物体的转动角度. 同时还构建了一套基于 OpenGL 图形引擎的数字仿真系 统, 完成了物体位姿的仿真计算, 实现对算法定位精度的评价, 仿真实验结果表明, 在理想状况下, 该算法的定位精度达 到了±0.01° , 为单目视觉物体位姿测量提供了一种具有较高精度的方法
2021-07-10 22:14:43 688KB 位姿测量
1
此为ORB_SLAM2位姿发布所需的文件,里面包括头文件以及cpp文件;具体相应文件放置的位置以及配置过程可参考我的博客。
2021-07-01 16:35:46 6KB ORB_SLAM2发布位姿
1
详细介绍了6D位姿估计和pvn3d算法的实现原理
2021-06-28 20:07:41 20.63MB 人工智能 位姿估计 算法
1
国防科大写的一篇论文,将IMU和单目视觉信息融合,进行位置和姿态估计,使用orb_slam算法进行尺度估计,但是其中的融合思路非常适用于视觉和IMU融合。
2021-06-09 11:58:08 2.28MB 视觉 无人机 位姿估计 融合
1
Tensorflow 2.0实时多人姿势估计 什么是新的 2020年10月5日 将模型转换为新的 在Mobilenet V3基础上添加了一个新的openpose模型。 添加了对库依赖 标记为“ v1.0”的旧代码可用。 此存储库包含keras_Realtime_Multi-Person_Pose_Estimation项目的新升级版本,以及一些其他脚本和新模型。 我在Tensorboard中添加了最终热图和paf的可视化。 每100次迭代,会将一张图像传递给模型。 预测的热图和paf记录在Tensorboard中。 您可以每隔几个小时检查一次直观的预测显示,因为它可以很好地了解训练的执行情况。 脚本和笔记本 该项目包含以下脚本和jupyter笔记本: train_singlenet_mobilenetv3.py-本文提出的用于新模型的训练代码,。 我用Mobilenet V3替换了VGG。 简化模型,只有3 pafs和1热图。 train_2br_vgg.py-旧的CMU模型的训练代码(2017)。 这是旧仓库keras_Realtime_Multi-Person_Pose_E
2021-05-27 14:29:31 9.14MB android mobile computer-vision deep-learning
1
此程序以亮字为例子,计算了每个笔画起始中间终止点的位置,及六自由度机械臂末端执行器的位姿,基础坐标系x指向正前方,y指向面对x正方向的左侧,末端执行器位姿表示选择欧拉角rxryrz
2021-05-25 09:20:54 4KB 机械臂 六自由度 写字 位姿解算
1
手眼标定之3D位姿
2021-05-24 14:02:36 134KB 手眼标定之3D位姿 3D位姿 手眼标定
通过STM32F4与JY901串口收发数据,并通过ROSSerial串口发送位姿数据和接受指令,而做的程序
1
此资源包里包括发布位姿所需要的文件,以及对应的文件正确的放置位置。
2021-04-22 20:57:25 123.79MB 发布位姿 ORB_SLAM2
1