动作识别研究 该存储库包含用于动作识别的6种代表性2D和3D方法的一般实现,包括I3D [1],ResNet3D [2],S3D [3],R(2 + 1)D [4],TSN [5]和TAM [ 6]。 这些代码用于我们对动作识别的分析。 陈春福(Richard)Chen *,Rameswar Panda *,Kandan Ramakrishnan,Rogerio Feris,John Cohn,Aude Oliva和Fanquanfu *,“对基于CNN的时空表示进行动作识别的深入分析”。 *:均摊 如果您使用此仓库中的代码和模型,请引用我们的工作。 谢谢! @inproceedings{chen2020deep, title={Deep Analysis of CNN-based Spatio-temporal Representations for Action Recog
2022-12-17 17:17:25 64KB Python
1
带有骨骼跟踪技术的Microsoft Kinect的推出为基于骨骼的人类动作识别开辟了新的潜力。 但是,从深度图序列通过骨骼跟踪生成的3D人体骨骼通常非常嘈杂且不可靠。 在本文中,我们介绍了一种基于鲁棒性信息关节的人体动作识别方法。 受人类视觉系统本能的启发,我们通过关节位置的微分熵分析了每个动作类别的人类关节的平均贡献。 大多数动作之间存在显着差异,并且贡献率与常识高度一致。 我们提出了一种新颖的方法,称为骨架上下文,以测量姿势之间的相似性并将其用于动作识别。 通过提取每个信息关节的多尺度成对位置分布来计算相似度,然后使用线性CRF以词袋方式评估特征集。 我们报告实验结果,并在两个公共行动数据集上验证了该方法。 实验结果表明,所提出的方法对于相似的人类动作识别是有区别的,并且很好地适应了类内变异。
2022-10-09 18:32:09 1.75MB Action recognition; Skeleton contexts;
1
具有自适应时间特征分辨率的3D CNN CVPR 2021论文的源代码: 。 即将推出! 敬请关注! @inproceedings{sgs2021, Author = {Mohsen Fayyaz, Emad Bahrami, Ali Diba, Mehdi Noroozi, Ehsan Adeli, Luc Van Gool, Juergen Gall}, Title = {{3D CNNs with Adaptive Temporal Feature Resolutions}}, Booktitle = {{The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) }}, Year = {2021} }
1
MMS骨架 介绍 MMSkeleton是一个开源工具箱,用于基于骨骼的人类理解。 这是负责的项目的一部分。 MMSkeleton是根据我们的研究项目。 更新 [2020-01-21] MMSkeleton v0.7发布。 [2019-10-09] MMSkeleton v0.6发布。 [2019-10-08]支持示范动物园。 [2019-10-02]支持自定义数据集。 [2019-09-23]添加基于视频的姿势估计演示。 [2019-08-29] MMSkeleton v0.5发布。 产品特点 高扩展性 MMSkeleton提供了灵活的框架来系统地组织代码和项目,并具有扩展到各种任务
1
Action Recognition Dataset行为识别数据集.zip
2022-06-29 09:06:43 230B 数据集
下采样matlab代码快速人类动作识别 介绍 该存储库保存了该项目的代码库和数据集: 识别人类快速动作的时空图卷积网络 先决条件 Python3(> 3.5) 资料准备 我们对NTU-RGB + D的3D骨骼数据进行了实验。 预处理的数据可以从下载。 下载数据后,将“ NTU-RGB-D”文件夹解压缩到路径中。 下采样 为了创建快速动作的数据集,我们对NTU-RGB + D数据集进行下采样。 下采样是通过拍摄一帧然后保留另一帧,将帧数减半来完成的。 运行“ downsample.py”以对所需数据进行下采样。 数据缩减(可选) 我们提供“ create_small_data.py”,通过从所有60个动作中选择多个动作来从原始数据中创建较小的数据。 可以根据代码上的标签在代码中选择所需的操作。 可视化 我们在MATLAB上提供NTU-RGB + D的3D骨骼数据的可视化。 可以在“可视化”文件夹中找到更多详细信息。 训练 可以通过运行“ main.py”来训练模型。 结果将显示在“结果”文件夹中。 如果使用较小的数据,则需要对代码进行一些修改,这些修改在代码中有详细说明。 结果 此处显示
2022-06-06 11:12:26 755KB 系统开源
1
AAMAZ人体动作识别数据集
2022-04-06 16:54:07 53.04MB 数据集
1
Facial Action Recognition for Facial Expression.....
2022-01-03 16:15:26 810KB 表情识别
1
使用CNN进行动作识别 在该项目中,对卷积神经网络(CNN)进行了训练,以使用Pytorch对图像和视频进行分类。 数据集 使用过的UCF101数据http://crcv.ucf.edu/data/UCF101.php但仅接受了10个班级(共101个班级)。 每个剪辑有3帧,每帧为64 * 64像素。 片段的标签位于q3_2_data.mat 。 trLb是训练剪辑的标签,而valLb是验证剪辑的标签。 首先对CNN进行训练以对每个图像进行分类。 然后,使用3D卷积训练CNN,将每个剪辑分类为视频而不是图像 Kaggle比赛 CNN对图像的动作识别-排名第10- http://www.kaggle.com/c/cse512springhw3 CNN对视频的动作识别-排名32- http://www.kaggle.com/c/cse512springhw3video
2021-12-10 15:26:52 55.29MB cnn torch python3 image-classification
1
介绍 我们发布了用于在UCF101上微调I3D模型的完整代码(包括培训阶段和测试阶段)。 I3D论文: 。 有关I3D的模型和详细信息,也请参考i3d。 先决条件 软件 Ubuntu 16.04.3 LTS Python 2.7 CUDA8 CuDNN v6 Tensorflow 1.4.1 硬件 GTX 1080 Ti 怎么跑 1.克隆此仓库 git clone https://github.com/USTC-Video-Understanding/I3D_Finetune 2.下载动力学预训练的I3D模型 为了在UCF101上微调I3D网络,您必须在下载DeepMind提供的Kinetics预训练I3D模型。 具体来说,下载repo并将data/checkpoints文件夹放入我们的I3D_Finetune回购的data I3D_Finetune : git clone ht
1