手肘法matlab源码快速人体姿势估计CVPR2019 介绍 这是的官方pytorch实现。 在这项工作中,我们专注于两个问题 如何使用与模型无关的方法来减小模型大小和计算。 如何提高简化模型的性能。 在我们的论文中 我们通过减少网络的宽度和深度来减少模型的大小和计算量。 提出快速姿势精馏( FPD )以改善简化模型的性能。 MPII数据集上的结果证明了我们方法的有效性。 我们使用HRNet代码库重新实现了FPD,并在COCO数据集上提供了额外的评估。 我们的方法(FPD)可以在没有地面标签的情况下工作,并且可以利用未标记的图像。 对于MPII数据集 我们首先训练了一个教师模型(沙漏模型,堆栈= 8,num_features = 256,90.520 @ MPII PCKh@0.5)和一个学生模型(沙漏模型,堆栈= 4,num_features = 128,89.040 @ MPII PCKh@0.5)。 然后,我们使用教师模型的预测和真实标签来共同监督学生模型(沙漏模型,堆栈= 4,num_features = 128,87.934 @ MPII PCKh@0.5)。 我们的实验显示
2021-09-10 09:29:16 378KB 系统开源
1
使用姿势估计进行跌倒检测 介绍 基于跌倒检测模型 PyPI库: ://pypi.org/project/openpifpaf/ 该检测可以在GPU和CPU上,多个视频,RTSP流以及网络摄像头/ USB摄像机上运行。 与大多数适用于单个大对象的开源跌倒检测模型不同,此改进的模型集成了一个人员跟踪器,该跟踪器可以检测多于一个人的场景中的跌倒。 示范影片 视频学分:50种跌落方法(),在单个NVIDIA Quadro P1000上运行 测试结果 UR跌落检测数据集( ),已在两台NVIDIA Quadro GV100上进行了测试。 精度:100% 召回率:83.33% F1得分:90.91% 注意:由于缺少可用的数据集,因此未测试误报和真否定。 环境 Ubuntu 18.04 x86_64 的Python 3.7.6 水蟒3 CUDA 10.2 用法 设置Conda环境
2021-09-06 10:39:08 64.39MB cpu computer-vision deep-learning gpu
1
matlab相机标定外参代码使用ArTag的单眼相机姿势估计 概述和动机 这是一个ROS教程项目,该项目使用ARtags检测单眼相机(USB网络摄像头)的姿势。 相机信息可从包装中获取。 使用该程序包,将获得宽度,高度,相机矩阵,失真系数,投影矩阵,整流矩阵。 这些数据可以存储在yaml文件中。 camera_info发布者可以从此yaml文件中读取数据并发布相机信息()。 USB网络摄像头提供的原始图像记录器可以由节点发布。 最后,可以使用package确定带有ARtag的相机的姿势。 因此,可以建立相对于ARTags的机器人姿势(使用摄像机)。 这用于室内导航和物体识别(使用ARTag的ID)。 这只是用于基于相机的定位的示例实践方法,在下一步中,多传感器(相机,IMU)将用于直接视觉惯性里程表。 此外,更好的选择是使用3D摄像机(立体摄像机或动力学摄像机)进行摄像机姿态估计,这可能会导致更准确的结果。 这也可以通过上面提到的那些软件包来完成。 先决条件 将您的外部网络摄像头连接到计算机,检查此摄像头的宽度,高度,帧频以及类似以下的运行代码,可以根据您的设备提示来修改设备。 _vi
2021-08-21 15:51:17 11KB 系统开源
1
openpifpaf 经过Linux,MacOS和Windows的持续测试: PifPaf:用于人类姿势估计的复合字段 我们提出了一种用于多人2D人体姿势估计的新的自下而上的方法,该方法特别适合于城市机动性,例如无人驾驶汽车和送货机器人。 新方法PifPaf使用“零件强度场”(PIF)定位身体部位,并使用“零件关联场”(PAF)将身体部位彼此关联以形成完整的人体姿势。 由于(i)我们的新复合场PAF编码了细粒度的信息,并且(ii)选择了包含不确定性概念的回归Laplace损失,因此我们的方法在低分辨率以及拥挤,混乱和遮挡的场景中优于以前的方法。 我们的架构基于完全卷积,单发,无盒设计。 我
1
将可穿戴IMU与多视图图像融合以进行人体姿势估计:一种几何方法 安装 克隆此仓库,我们将把您克隆的目录称为$ {POSE_ROOT} 安装依赖项。 下载pytorch imagenet预训练的模型。 请在$ {POSE_ROOT} / models下下载它们,并使它们看起来像这样: ${POSE_ROOT}/models └── pytorch └── imagenet ├── resnet152-b121ed2d.pth ├── resnet50-19c8e357.pth └── mobilenet_v2.pth.tar 可以从以下链接下载它们: 资料准备 对于TotalCapture数据集,请从下载并按照处理数据。 我们无权重新分配该数据集。 请不要要求我们提供副本。 对于预先计算的图形模型成对术语,请从下载,并保存在d
2021-07-16 14:41:21 81KB Python
1
计算机视觉中头部姿态估计的研究综述Head Pose Estimation in Computer Vision: A Survey(中文翻译)
2021-06-28 16:47:19 1.67MB 头部姿势估计 计算机视觉
1
堆叠沙漏模型:TensorFlow实现 A.Newell等人的用于人体姿势估计的堆叠沙漏网络的Tensorflow实现。 代码作为MSc Computing个人项目的一部分(伦敦帝国学院2017年) 基于 -A.Newell等 -肖楚等。 -可用(重型型号) 状态 这是一个WIP回购 已测试人体姿势 效率(在较轻的模型上工作) 数据生成器完成(在协议缓冲区上工作) 多人姿势估计(尝试实现固定帧速率) 目前接受过培训 配置文件 目录中有一个``config.cgf'',其中包含调整模型所需的所有变量。 training_txt_file : Path to TEXT file cont
1
消息! 2020年8月: 发布了! 更强大的追踪! 包括全身(脸,手,脚)要点! 现在可用。 2019年12月:AlphaPose 发布了! 较小的型号,更高的精度! 2019年4月:发布的AlphaPose! 在COCO验证集上,它以23 fps的速度运行。 2019年2月: 集成到现在AlphaPose! 2018年12月:了PoseFlow的! 3倍更快,支持姿态跟踪结果可视化! 2018年9月: 发布了! 它在COCO验证集上以20 fps的速度运行(平均每张图像4.6人),并达到71 mAP! AlphaPose 是一种精确的多人姿势估计器,它是第一个开源系统,在COCO数据集上达到70+ mAP(75 mAP),在MPII数据集上达到80+ mAP(82.1 mAP)。 为了在帧中匹配与同一个人相对应的姿势,我们还提供了一种称为Pose Flow的高效在线姿势跟踪
2021-06-07 14:56:14 40.06MB tracking skeleton gpu realtime
1
计算机视觉中头部姿态估计的研究综述Head Pose Estimation in Computer Vision: A Survey(中文)
2021-05-18 21:20:14 1.85MB 头部姿势估计 计算机视觉
1
CPU上的实时2D多人姿势估计:轻量级OpenPose 该存储库包含培训代码。 这项工作极大地优化了方法,从而可以以可忽略的精度下降在CPU上实现实时推断。 它检测骨骼(由关键点和它们之间的连接组成)以识别图像中每个人的人体姿势。 该姿势可能包含多达18个关键点:耳朵,眼睛,鼻子,脖子,肩膀,肘部,手腕,臀部,膝盖和脚踝。 在COCO 2017关键点检测验证集上,此代码对于单尺度推断(无需翻转或完成任何后处理)可达到40%的AP。 可以使用此存储库复制结果。 此仓库与明显重叠,但是仅包含用于人体姿势估计的必要代码。 :fire: 看看我们的准确的(现在仍然快)单人姿态估计,其中排名在CVPR'19
2021-05-07 17:34:03 209KB lightweight real-time deep-learning pytorch
1