This will train a model which used in my university graduate project "Human Posture Recognition Based on Neural Network in Robot Controlling". I train this model that using Python, Keras, and Theano as backend, then I get a better classification accuracy which is 99.04%. Requirement Python 3.5 Keras Theano / TensorFlow (as Keras backend) Numpy Pandas
2022-04-25 12:05:08 24.64MB python
此仓库实现了我们的ICCV论文“用于3D人体姿势估计的Cross View融合” 快速开始 安装 克隆此仓库,我们将克隆多视图姿势的目录称为$ {POSE_ROOT} 安装依赖项。 下载pytorch imagenet预训练的模型。 请在$ {POSE_ROOT} / models下下载它们,并使它们看起来像这样: ${POSE_ROOT}/models └── pytorch └── imagenet ├── resnet152-b121ed2d.pth ├── resnet50-19c8e357.pth └── mobilenet_v2.pth.tar 可以从以下链接下载它们: : 初始化输出(训练模型输出目录)和日志(张量板日志目录)目录。 mkdir ouput mkdir log 并且您的目录树应该像这样
2022-04-21 20:19:14 84KB Python
1
Kinect的实时骨骼跟踪技术获取身体关节点的三维位置信息,为进行人体姿势识别提供了丰富的信息,拟在三维关节点位置信息的基础上,建立一种实时的人体姿势识别系统。选择关节角度作为姿势特征,结合逻辑回归(logistic regression, LR)分类算法对54种姿势进行识别研究。实验结果表明,该姿势识别系统可以准确实时地识别人体姿势
1
人姿势估计opencv 使用OpenPose MobileNet在OpenCV中执行人体姿势估计 如何使用 使用网络摄像头进行测试 python openpose.py 用图像测试 python openpose.py --input image.jpg 使用--thr增加置信度阈值 python openpose.py --input image.jpg --thr 0.5 笔记: 我修改了以使用由提供的Tensorflow MobileNet Model ,而不是来自CMU OpenPose的Caffe Model 。 来自OpenCV example的原始openpose.py仅使用超过200MB的Caffe Model ,而Mobilenet只有7MB。 基本上,我们需要更改cv.dnn.blobFromImage并使用out = out[:, :19, :, :] cv
2022-03-11 16:35:49 6.97MB opencv computer-vision tensorflow pose-estimation
1
用知云文献翻译加上自己的一些理解翻译的Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields这篇论文
1
Android NDK上的GPU加速TensorFlow Lite应用程序。 在Android NDK上运行并测量TensorFlow Lite GPU委托的性能。 1.应用 轻巧的人脸检测。 更高精确度的人脸检测。 检测面部并估计其年龄和性别 基于预训练模型 使用Moilenet进行图像分类。 物体检测 使用MobileNet SSD进行对象检测。 头发分割 头发分割和重新着色。 3D姿势 从单个RGB图像进行3D姿势估计。 虹膜检测 通过检测虹膜来估计眼睛位置。 姿势网 姿势估计。 深度估计(DenseDepth) 从单个图像进行深度估计。 基于https://github.com/ialhashim/DenseDepth的预训练模型 语义分割 为输入图像中的每个像素分配语义标签。 动漫自拍照 生成动漫风格的人脸图像。 基于https://githu
2021-12-11 20:15:30 234.93MB opengles style-transfer segmentation object-detection
1
通过对热图引导的自适应关键点估计值进行排序来实现自下而上的人体姿势估计 介绍 在这项工作中,我们提出了一些在改善关键点检测和分组(关键点回归)性能上很少或不深入研究的方案。 首先,我们利用关键点热图进行逐像素关键点回归,而不是将它们分开以改善关键点回归。 其次,我们采用像素级空间变换器网络来学习自适应表示,以处理比例和方向方差,从而进一步提高关键点回归质量。 最后,我们提出了一种联合形状和热值评分方案,以促进估计的姿势更可能是真实姿势。 结合权衡热图估计损失以平衡背景像素和关键点像素,从而提高热图估计质量,我们可以获得最先进的自下而上的人体姿势估计结果。 主要结果 不进行多尺度测试的COCO val2017结果 骨干 输入尺寸 #Params GFLOPs 美联社 Ap .5 AP .75 AP(男) AP(长) 增强现实 AR .5 AR .75 手臂) AR(左)
2021-11-23 10:19:17 113KB Python
1
DeepStream人类姿势估计 人体姿势估计是计算机视觉任务,它通过在视频或照片中定位人体上的某些关键点来估计人体的配置(“姿势”)。 以下应用程序作为参考,以项目为例,在DeepStream 5.0中部署自定义姿势估计模型。 有关详细的NVIDIA Developer博客,请访问。 输入视频源 输出视频 先决条件 你会需要 DeepStreamSDK 5.0 CUDA 10.2 TensorRT 7.x 入门: 要开始使用,请按照以下步骤操作。 在您的平台上安装 ,通过运行deepstream-app验证其是否正常运行。 最好将存储$DEEPSTREAM_DIR/sources/apps/sample_apps在$DEEPSTREAM_DIR/sources/apps/sample_apps 。 下载TRTPose,使用此 将其转换为ONNX,然后在DeepStream
2021-11-17 14:20:15 85.8MB real-time computer-vision tesla deepstream
1
iOS Objective-C 解析 AR人体姿势识别数据解析封装
2021-11-16 22:07:34 57KB iOS Objective-C AR人体姿势
1
基于COCO数据集的人体姿势估计 该存储库包含使用深度神经网络执行人体姿态估计的SENG 474数据挖掘项目的在建项目。 下面是我们项目建议的简短摘录。 问题 人体姿态估计(HPE)是识别人体关键点以构建人体模型的问题领域。 许多现有系统接受图像作为输入,有些实现接受诸如点云和视频之类的格式。 HPE的应用广泛且使许多行业受益。 特别是,HPE在电影和游戏行业中均用于动画。 HPE的更险恶的应用可用于识别多个帧(即视频)上的个人。 HPE的另一个子集是手势估计,可用于翻译手语。 由于诸多挑战,HPE是一个困难的问题领域。 这些包括人类外观和体格的变化,环境光照和天气,其他物体的遮挡,关节重叠的自我遮挡,人体骨骼运动的复杂性以及2D图像输入的固有信息丢失[1]。 这个很大程度上未解决的问题使我们能够探索许多新颖和创造性的方法,从而丰富我们的学习经验。 我们很高兴探索这些应用程序,但是我们决定
1