人体跌倒检测与追踪 使用Tiny-YOLO oneclass检测帧中的每个人,并使用获取骨骼姿势,然后使用模型从每个人跟踪的每30帧中预测动作。 现在支持7种动作:站立,行走,坐着,躺下,站起来,坐下,跌倒。 先决条件 Python> 3.6 火炬> 1.3.1 原始测试运行在:i7-8750H CPU @ 2.20GHz x12,GeForce RTX 2070 8GB,CUDA 10.2 数据 该项目已经训练了一个新的Tiny-YOLO oneclass模型,以仅检测人的物体并减小模型的大小。 使用旋转增强的人员关键点数据集进行训练,以在各种角度姿势中更可靠地检测人员。 对于动作识别,使用来自跌倒检测数据集(,家庭)的数据,通过AlphaPose提取骨骼姿势,并手动标记每个动作帧,以训练ST-GCN模型。 预训练模型 Tiny-YOLO oneclass- , SPPE
2021-09-10 13:12:59 27.72MB pytorch sort pose-estimation st-gcn
1
时态gcn-lstm 使用应用内操作图表征和预测用户参与度的代码:Snapchat的案例研究 Temporal-gcn-lstm模型对时间演变的动作图进行编码,以预测未来的用户参与度。 端到端的多通道神经模型还对活动序列和其他宏观特征进行编码,以达到最佳性能。 要求 DGL,NetworkX,PyTorch,Pandas,Numpy,SciKit-Learn,tqdm 深度图库(DGL) pytorch 建立动作图 build_graphs.py:为时间段构建静态图 build_temporal.py:每天建立时间图 python3 build_graphs.py INPUT_PATH OUTPUT_PATH python3 build_temporal.py INPUT_PATH OUTPUT_PATH 楷模 utils.py:支持功能 activity_seq_model
2021-09-01 13:44:21 11KB Python
1
kinetics-skeleton\kinetics_train_label.json + kinetics-skeleton\kinetics_val_label.json
2021-08-22 00:44:13 4.17MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 12:39:17 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 12:39:17 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 11:19:19 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 11:19:18 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 11:19:18 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。
2021-08-11 11:19:17 700MB st-gcn mmskeleton
1
kinetics-skeleton训练集。太大了,拆成十个上传。(这是第十个)
2021-08-11 11:19:17 284.56MB st-gcn mmskeleton
1