希望网 Hopenet是一个准确且易于使用的头部姿势估计网络。 在300W-LP数据集上对模型进行了训练,并在具有良好定性性能的真实数据上进行了测试。 有关方法和定量结果的详细信息,请查看CVPR Workshop。 新的 新的 要使用,请安装和 (用于视频)-我相信,除了numpy之类的常用库之外,您只需要这些即可。 您需要一个GPU才能运行Hopenet(目前)。 要使用dlib人脸检测在视频上进行测试(头部中心会跳动): python code/test_on_video_dlib.py --snapshot PATH_OF_SNAPSHOT --face_model PATH
2021-12-13 10:42:21 13.75MB deep-neural-networks deep-learning head gaze
1
瑜伽姿势估计应用程序 表中的内容 概述:- 这是一个瑜伽姿势估计应用程序,它可以通过使用posenet和KNN分类器实时检测瑜伽姿势。 这里使用的数据集是自定义数据集,由 3 个视频组成,用于表示 3 种不同的姿势。 它部署在heroku中。 需要注意的一件事,即这将适用于所有移动和边缘设备。 动机:- 这个项目是我在 ShapeAI 实习的一部分,担任机器学习工程师实习生。 该项目可以扩展为完美的瑜伽教练,以使用 AI 跟踪姿势并保持健康。 技术方面:- 该项目主要分为前端,后端两部分。 让我们详细讨论它们中的每一个。 前端部分:-主要是从前摄像头采集姿态图像,用于姿态识别。 该图像被传递给在 ml5.js 中预训练的posenet模型并获取计数部分位置x和y并将它们保存以以json的形式获取数据。 我们将从图像中检测到 17 个姿势,其中有 2 个与之相关的值,总共 34 个
2021-12-09 19:09:14 75.32MB flask machine-learning deep-learning p5js
1
通过对热图引导的自适应关键点估计值进行排序来实现自下而上的人体姿势估计 介绍 在这项工作中,我们提出了一些在改善关键点检测和分组(关键点回归)性能上很少或不深入研究的方案。 首先,我们利用关键点热图进行逐像素关键点回归,而不是将它们分开以改善关键点回归。 其次,我们采用像素级空间变换器网络来学习自适应表示,以处理比例和方向方差,从而进一步提高关键点回归质量。 最后,我们提出了一种联合形状和热值评分方案,以促进估计的姿势更可能是真实姿势。 结合权衡热图估计损失以平衡背景像素和关键点像素,从而提高热图估计质量,我们可以获得最先进的自下而上的人体姿势估计结果。 主要结果 不进行多尺度测试的COCO val2017结果 骨干 输入尺寸 #Params GFLOPs 美联社 Ap .5 AP .75 AP(男) AP(长) 增强现实 AR .5 AR .75 手臂) AR(左)
2021-11-23 10:19:17 113KB Python
1
姿势图优化 使用Ceres Solver进行2D姿态图优化的示例代码。 依存关系 本征3.3或更高版本 Ceres Solver 1.12.0或更高版本 Gflags 2.2.0或更高版本 带有matplotlib的Python 建造 $ git clone https://github.com/shinsumicco/pose-graph-optimization.git $ cd pose-graph-optimization $ mkdir build $ cd build $ cmake .. $ make -j4 优化 $ cd pose-graph-optimization/build $ bin/se2_optimize --filename ../sample/manhattan.g2o Number of poses: 3500 Number of constraints
2021-11-20 20:09:19 700KB CMake
1
ElasticFusion 是 kinnectfusion 的升级版,3D建模的必读文章
2021-11-18 10:18:32 3.65MB VR
1
DeepStream人类姿势估计 人体姿势估计是计算机视觉任务,它通过在视频或照片中定位人体上的某些关键点来估计人体的配置(“姿势”)。 以下应用程序作为参考,以项目为例,在DeepStream 5.0中部署自定义姿势估计模型。 有关详细的NVIDIA Developer博客,请访问。 输入视频源 输出视频 先决条件 你会需要 DeepStreamSDK 5.0 CUDA 10.2 TensorRT 7.x 入门: 要开始使用,请按照以下步骤操作。 在您的平台上安装 ,通过运行deepstream-app验证其是否正常运行。 最好将存储$DEEPSTREAM_DIR/sources/apps/sample_apps在$DEEPSTREAM_DIR/sources/apps/sample_apps 。 下载TRTPose,使用此 将其转换为ONNX,然后在DeepStream
2021-11-17 14:20:15 85.8MB real-time computer-vision tesla deepstream
1
头部动作图像数据库 HeadPoseImageDatabase头部动作图像数据库 HeadPoseImageDatabase头部动作图像数据库 HeadPoseImageDatabase
2021-11-15 14:21:45 27.19MB dataset head pose image
1
通过3D密集人脸重建实现稳定的头部姿势估计和地标回归 通过Tensorflow Lite框架,人脸网格,头部姿势,界标等,重新实现。 CPU实时人脸检测,对齐和重建管线。 轻量级渲染库,比工具快5倍(3对 。 通过单个网络的相机矩阵和密集/稀疏地标预测。 生成面部参数以实现可靠的头部姿势和表情估计。 设置 基本要求 Python 3.6+ pip3 install -r requirements.txt 渲染致密脸 GCC 6.0+ bash build_render.sh (谨慎)对于Windows用户,请参考以获取更多详细信息。 3D人脸地标 在这个项目中,我们通过3DMM参数回归进行密集人脸重建。 回归目标简化为相机矩阵( C ,形状为3x4),外观参数( S ,形状为1x40)和表达变量( E ,形状为1x10),共有62个维度。 可以通过将这些参数应用于预定义的
1
openpifpaf 经过Linux,MacOS和Windows的持续测试: : OpenPifPaf:用于语义关键点检测和时空关联的复合字段( ,( ,( ,2021年。 许多基于图像的感知任务可以公式化为检测,关联和跟踪语义关键点,例如人体姿势估计和跟踪。 在这项工作中,我们提出了一个通用框架,该框架可以在单个阶段中共同检测并形成时空关键点关联,这使其成为第一个实时姿势检测和跟踪算法。 我们提出了一种通用的神经网络体系结构,该体系结构使用Composite Fields来检测和构建时空姿势,该姿势是一个单独的连接图,其连接点是多个帧中的语义关键点(例如人的身体关节)。 对于时间关联,我们引入了时间复合关联字段(TCAF),它需要扩展的网络体系结构和训练方法,而不是以前的复合字段。 我们的实验显示出竞争准确性,同时在多个公开可用的数据集(例如COCO,CrowdPose以及
1