CPU上的实时2D多人姿势估计:轻量级OpenPose 该存储库包含培训代码。 这项工作极大地优化了方法,从而可以以可忽略的精度下降在CPU上实现实时推断。 它检测骨骼(由关键点和它们之间的连接组成)以识别图像中每个人的人体姿势。 该姿势可能包含多达18个关键点:耳朵,眼睛,鼻子,脖子,肩膀,肘部,手腕,臀部,膝盖和脚踝。 在COCO 2017关键点检测验证集上,此代码对于单尺度推断(无需翻转或完成任何后处理)可达到40%的AP。 可以使用此存储库复制结果。 此仓库与明显重叠,但是仅包含用于人体姿势估计的必要代码。 :fire: 看看我们的准确的(现在仍然快)单人姿态估计,其中排名在CVPR'19
2021-05-07 17:34:03 209KB lightweight real-time deep-learning pytorch
1
数据是从MPII人类姿势收集的,并转化为一个".csv"文件。 mpii_human_pose.csv
2021-05-07 11:44:42 1.46MB 数据集
1
主要介绍了详解iOS平台调用后台接口的正确姿势,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
1
该存储库已与Tensorflow 2.0的最新和推荐版本不兼容,我没有费力地重构此代码,而是创建了一个新的新存储库,其中包含一些其他功能,例如: 基于MobilenetV2的较小模型的培训代码。 在Tensorboard中可视化预测(热图,pafs)。 用于转换和测试Tensorflow Lite的模型的其他脚本。 这是新的链接: 实时多人姿势估计(不建议使用) 这是项目的keras版本 介绍 使用keras复制论文的代码回购。 这是一个新的改进版本。 主要目的是消除对独立c ++服务器的依赖,这种依赖除了编译的复杂性外还包含一些错误……而且速度很慢。 如果您确实一下,使用的旧版本仍可以
2021-04-26 14:35:07 14.36MB real-time caffe computer-vision deep-learning
1
可以实现3钟全景模式的demo,适合初学者 1. OpenGL ES 2.Google VR(全景图模块) 3.Three.js(利用前端姿势)WebView混合开发
2021-04-23 18:53:12 2.9MB 360度全景 VR OpenGL
1
使用TensorFlow框架进行人体姿势估计
2021-04-23 10:16:37 1.58MB Python开发-机器学习
1
该课题为基于MATLAB差影法的人体姿态识别。带有一个GUI可视化界面。需要准备对应的模板图片作为背景图,然后测试图和背景图进行作差,结合形态学知识,提取出人体轮廓,接上最外接矩形,得出矩形长宽,计算长宽比例,从而判断人体姿态。优点是通俗易懂,缺点是局限性大,因为对背景图片要求比较高。另外可改造成不需要模板图片的纯形态学或者利用帧差法识别的基于视频的人体行为检测。
1
pytorch implementation of openpose including Hand and Body Pose Estimation.
2021-04-12 11:37:52 2.91MB Python开发-机器学习
1
PoseNet Python 该存储库包含Google TensorFlow.js Posenet模型的纯Python实现(仅限多姿势)。 对于此之后的(略快)PyTorch实现,请参阅( ) 我首先或多或少地逐字修改了JS代码,发现性能很低,因此对一些关键函数(命名为_fast )做了一些矢量化的numpy / scipy版本。 进一步优化是可能的 基本的MobileNet型号在GTX 1080 Ti(或更高版本)上具有200-300 fps的吞吐量 多位置后处理代码使该速率大大降低。 使用快速CPU和GTX 1080+: JS后处理代码的字面翻译将性能降低到大约30fps 我的
1
MATLAB人体姿态识别[卡尔曼,GUI,行走+站立+伸腰,定位,质心],在数字图像预处理部分采用了图像二值化,腐蚀与膨胀等几种方法为人体目标的跟踪和检测做准备。为了克服在实际操作中遇到的问题,采用了帧差法和ViBe算法,帧差法即利用帧间变化与当前帧、背景算法来判断它是否大于阈值,并分析视频中序列的运动特性,ViBe算法则是一种背景建模的方法,背景模型是由邻域像素来创建,并对比背景模型、当前输入像素值检测出前景,确定视频中的目标跟踪。在人体行为识别中,运动目标最小长宽比以及连续帧间的加速度来判断人体行为是否异常,如果检测到异常的行为比如说摔倒、快跑等行为,在识别的过程这种实时监测。
1