毕业设计代码,基于时空图卷积(ST-GCN)的骨骼动作识别.zip
2024-05-02 14:53:37 52.56MB python
1
STGCN模型文件 图卷积必备模型文件(已更新),结果比原始有优化 包括三种模型文件:st_gcn.kinetics.pt、st_gcn.ntu-xsub.pt、st_gcn.ntu-xview.pt openpose获取姿态文件,可采用新的姿态估计模型,好的姿态数据对动作识别会有提升 双流法对结果也会有优化,但目前结合的不够理想
1
下采样matlab代码快速人类动作识别 介绍 该存储库保存了该项目的代码库和数据集: 识别人类快速动作的时空图卷积网络 先决条件 Python3(> 3.5) 资料准备 我们对NTU-RGB + D的3D骨骼数据进行了实验。 预处理的数据可以从下载。 下载数据后,将“ NTU-RGB-D”文件夹解压缩到路径中。 下采样 为了创建快速动作的数据集,我们对NTU-RGB + D数据集进行下采样。 下采样是通过拍摄一帧然后保留另一帧,将帧数减半来完成的。 运行“ downsample.py”以对所需数据进行下采样。 数据缩减(可选) 我们提供“ create_small_data.py”,通过从所有60个动作中选择多个动作来从原始数据中创建较小的数据。 可以根据代码上的标签在代码中选择所需的操作。 可视化 我们在MATLAB上提供NTU-RGB + D的3D骨骼数据的可视化。 可以在“可视化”文件夹中找到更多详细信息。 训练 可以通过运行“ main.py”来训练模型。 结果将显示在“结果”文件夹中。 如果使用较小的数据,则需要对代码进行一些修改,这些修改在代码中有详细说明。 结果 此处显示
2022-06-06 11:12:26 755KB 系统开源
1
人体跌倒检测与追踪 使用Tiny-YOLO oneclass检测帧中的每个人,并使用获取骨骼姿势,然后使用模型从每个人跟踪的每30帧中预测动作。 现在支持7种动作:站立,行走,坐着,躺下,站起来,坐下,跌倒。 先决条件 Python> 3.6 火炬> 1.3.1 原始测试运行在:i7-8750H CPU @ 2.20GHz x12,GeForce RTX 2070 8GB,CUDA 10.2 数据 该项目已经训练了一个新的Tiny-YOLO oneclass模型,以仅检测人的物体并减小模型的大小。 使用旋转增强的人员关键点数据集进行训练,以在各种角度姿势中更可靠地检测人员。 对于动作识别,使用来自跌倒检测数据集(,家庭)的数据,通过AlphaPose提取骨骼姿势,并手动标记每个动作帧,以训练ST-GCN模型。 预训练模型 Tiny-YOLO oneclass- , SPPE
2021-09-10 13:12:59 27.72MB pytorch sort pose-estimation st-gcn
1
kinetics-skeleton\kinetics_train_label.json + kinetics-skeleton\kinetics_val_label.json
2021-08-22 00:44:13 4.17MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 12:39:17 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 12:39:17 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 11:19:19 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 11:19:18 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 11:19:18 700MB st-gcn mmskeleton
1