点击上传视频文件将文件传入,系统统计人数,并输出太极拳姿势:如:高探马。 视频中的各单位的姿势分别计算。 std.txt为标准姿态数据,ProcessImage.py用来获取图片姿态数据,Classifier.py用来实现姿态分类,GUI2-3.py为GUI界面代码
2022-04-26 09:10:51 1.73MB 综合资源 姿势识别 python
使用OpenPose/DLIB库实现一些最先进的计算机视觉应用程序。 基于C/C++/Python的计算机视觉模型,使用OpenPose、OpenCV、DLIB、Keras和Tensorflow库。目标检测、跟踪、人脸识别、手势、情绪和姿势识别 C/C++/Python based computer DLIB:计算机视觉和其他机器学习的现代C++工具包。 Kerasify:用于从C++应用程序运行KARAS模型的小型库。 OPENCV:开源计算机视觉库。 OpenStA:一个实时多人关键点检测和多线程C++库。 操作系统(支持): Ubuntu 16.04 Nvidia Jetson TX2 要求: 至少有1.6 GB可用的NVIDIA图形卡(NVIDIA smi命令检查Ubuntu中可用的GPU内存)。 至少2 GB的可用RAM内存。 推荐:cuDNN和至少8核的CPU。
利用智能手机数据识别人类活动和姿势转换 问题陈述描述 通过智能手机传感器(加速度计和陀螺仪)监测人类活动。该声明将根据这些传感器读数将人类活动分为12类。 数据集 基于智能手机的人类活动和姿势转换识别数据集 智能手机传感器数据分为两类:- 时域特征——累积(x,y,x),最小值,中值,熵等。 频域特征——时域特征的DFT(加速度、急动幅度、陀螺仪幅度等)。 数据可视化 使用二维PCA和TSNE嵌入将数据可视化。TSNE可视化显示,不同的类可以很好地分离。 实验 在不同的参数变化中实现了几种分类技术。下文给出了所有实验的详细研究: 神经网络(单层和多层感知器) SVM(线性和高斯核) 增压(具有不同的损耗函数)
2022-04-25 16:05:40 463KB python
This will train a model which used in my university graduate project "Human Posture Recognition Based on Neural Network in Robot Controlling". I train this model that using Python, Keras, and Theano as backend, then I get a better classification accuracy which is 99.04%. Requirement Python 3.5 Keras Theano / TensorFlow (as Keras backend) Numpy Pandas
2022-04-25 12:05:08 24.64MB python
视频转Pose3D 通过视频预测3d人体姿势 先决条件 环境 Linux系统 Python> 3.6发行版 依存关系 配套 火炬> 1.0.0 tqdm 枕头 科学的 大熊猫 h5py 视觉 尼巴​​贝 opencv-python(使用pip安装) matplotlib 2D联合探测器 字母(推荐) 从( | )下载duc_se.pth ,放置到./joints_detectors/Alphapose/models/sppe 从( | )下载yolov3-spp.weights ,放置到./joints_detectors/Alphapose/models/yolo HR-Net(我的测试环境中3d关节性能不佳) 从下载pose_hrnet * ),放置到./joints_detectors/hrnet/models/pytorch/pose_coco/ 从下载yo
2022-04-23 04:45:52 11.45MB Python
1
此仓库实现了我们的ICCV论文“用于3D人体姿势估计的Cross View融合” 快速开始 安装 克隆此仓库,我们将克隆多视图姿势的目录称为$ {POSE_ROOT} 安装依赖项。 下载pytorch imagenet预训练的模型。 请在$ {POSE_ROOT} / models下下载它们,并使它们看起来像这样: ${POSE_ROOT}/models └── pytorch └── imagenet ├── resnet152-b121ed2d.pth ├── resnet50-19c8e357.pth └── mobilenet_v2.pth.tar 可以从以下链接下载它们: : 初始化输出(训练模型输出目录)和日志(张量板日志目录)目录。 mkdir ouput mkdir log 并且您的目录树应该像这样
2022-04-21 20:19:14 84KB Python
1
人体姿势检测器,在Unity Barracuda上运行Mediapipe姿势检测神经网络模型。
2022-04-15 18:12:26 2.79MB unity 神经网络 游戏引擎 人工智能
基于视频实现ML套件姿势检测 在Android Studio存储的视频文件上实现Google ML Kit姿势检测 在手机中存储的视频文件上实现谷歌MLKit姿势检测。 我在TextureView基础上实现了SurfaceTextureRelister。 onSurfaceTextureUpdated函数从视频中获取新帧或新屏幕时被调用,因此每次运行该函数时,会从纹理视图中获取图像,然后根据该图像生成输入图像,并将其发送到姿势检测模型。 在姿势模型的onSuccessListener中,可以绘制叠加。
2022-04-15 18:09:15 166KB 音视频 姿势检测 MLkit 安卓
数据集包含20人的超过15,000张图像(6位女性和14位男性-两次记录了4个人)。 对于每一帧,都提供深度图像,相应的rgb图像(均为640x480像素)和注释。 头部姿势范围涵盖大约+ -75度偏航和+ -60度俯仰。 地面真相以头部的3D位置及其旋转的形式提供。
2022-04-13 22:05:38 449.73MB 数据库 database 机器学习
合成人类生成的姿势数据增强 该知识库是的硕士论文的一部分,是在开发的。 给定的管道可以使用通过任何深度相机扫描的点云(推荐:Intel RealSense D435i),并根据点云的颜色信息的可用性实现迭代最近点(ICP)的两种不同变体。 整个过程如下图所示。 接触: 表中的内容 输出 后期处理 引文 执照 致谢 接触 参考 资料收集程序 出于本项目的目的,请从深度相机收集点云或扫描数据。 主要算法接受.pcd或.ply格式的点云,并且可以接受2到5000之间的任意数量的点云。点云(扫描)的数量取决于最终注册的点云分辨率的要求。 硬件 在创建管道的实验中,我们使用了Intel RealSense D435i ,它是Intel的深度感测相机。 英特尔实感:trade_mark:D4xx深度摄像头可以每秒高达90帧的速度传输实时深度(即测距数据)和色彩数据,生成深度数据的所有处理均由嵌入式D4专用集成电路在板
2022-04-06 10:30:42 2.07MB JupyterNotebook
1