human3.6m 数据集,共计126.68GB,内附联系方式,以防链接失效 目录结构: human3.6m_parse annotations.zip images extract_targz.sh images.tar.gzaa images.tar.gzab images.tar.gzac images.tar.gzad images.tar.gzae images.tar.gzaf images.tar.gzag 链接长期有效
2021-03-22 09:52:15 402B 姿态估计 深度学习
1
Kinect手势数据集.zip
2021-03-16 17:21:09 165.17MB 姿态估计数据集
1
来自https://github.com/MVIG-SJTU/AlphaPose/blob/master/configs/coco/resnet/256x192_res50_lr1e-3_2x-dcn.yaml。
2021-03-11 16:12:05 157.29MB 多人姿态估计
1
CVPR2017的最新论文,实时的人体姿态估计算法。对深度学习爱好者有帮助
2021-03-02 09:39:02 45.86MB 姿态估计
1
此代码用于将pytorch训练的AlphaPose模型转换为onnx模型,以便在openCV中调用。
1
此脚本用于将labem标注的关键点数据,转换为COCO数据集的关键点标注格式。
2021-02-24 19:09:28 5KB 深度学习 姿态估计 关键点检测
1
基于视觉的协作空间物体姿态估计
2021-02-23 18:04:19 716KB 研究论文
1
对象为点 使用中心点检测的对象检测,3D检测和姿态估计: 周兴义,王德全,PhilippKrähenbühl, arXiv技术报告( ) 联系人: 。 欢迎任何问题或讨论! 更新 (2020年6月)我们发布了基于Lidar的最新3D检测和跟踪框架 。 (四月,2020)我们发布了一个国家的最先进的(多类别- / pose- / 3D-)跟踪扩展 。 抽象的 检测将对象识别为图像中与轴对齐的框。 最成功的物体检测器会列举出潜在物体位置的几乎详尽的清单,并对每个物体进行分类。 这是浪费,低效的,并且需要附加的后处理。 在本文中,我们采用了不同的方法。 我们将对象建模为单个点-其边界框的中心点。 我们的探测器使用关键点估计来找到中心点,并回归到所有其他对象属性,例如大小,3D位置,方向,甚至姿态。 我们的基于中心点的方法CenterNet与相应的基于边界框的检测器相比,是端到端的可区
2021-02-20 16:07:18 6.27MB Python
1
Repo for most of CV problems, such as image classification, object detection, pose estimation, segmentation, and so on.
2020-01-18 03:32:22 26.74MB Python开发-机器学习
1
PyTorch实时多人姿态估计项目的实现
2020-01-18 03:32:21 4.28MB Python开发-机器学习
1