基于kinect v2的人体动作识别,配套博客(http://blog.csdn.net/baolinq/article/),基于mfc,可以识别左移右移、上蹦下跳等,也可以自己自定义其他动作,加一些判定代码即可。使用的时候可能需要自己新建一个工程,为了上传文件小一点,我只上传了主要的代码文件~~
2022-04-02 10:05:10 2.24MB MFC
1
使用时间滑动LSTM网络的3D人类行为理解 这是Ensemble TS-LSTM v1,v2和v3模型的Tensorflow实现,该论文来自论文和论文 。 您可以在或前一篇论文的。 这也是论文中的通用时间滑动LSTM(TS-LSTM)模型的Tensorflow实现。 广义的TS-LSTM网络由多个TS-LSTM模块组成,并且可以由超参数控制,例如L-STM窗口大小,时间跨度和TS-LSTM模块的运动特征偏移。 要求(Ubuntu,Matlab除外) Python 2.7.12(NTU) 0.11.0rc2(NTU) Python 3.5.2(UCLA和UWA) 1.4.1(UCLA和UWA) 脾气暴躁的 Matlab 2017a(Windows) 数据集 我们发现有关NTU RGB + D数据集中的骨架数据的一些问题。 垃圾桶骨架:有时Kinect会检测到垃圾桶骨架,即使
2022-03-20 13:01:32 21.11MB Python
1
用于动作识别的3D ResNet 更新(2020/4/13) 我们在arXiv上发表了一篇论文。 我们上载了本文所述的预训练模型,包括在结合了Kinetics-700和Moments in Time的数据集中预训练的ResNet-50。 更新(2020/4/10) 我们极大地更新了脚本。 如果要使用旧版本来复制我们的CVPR2018论文,则应使用CVPR2018分支中的脚本。 此更新包括: 重构整个项目 支持更新的PyTorch版本 支持分布式培训 支持对“时刻”数据集的培训和测试。 添加R(2 + 1)D模型 上载经过Kinetics-700,时刻矩和STAIR-Actions数
2022-03-20 10:26:09 43KB python computer-vision deep-learning pytorch
1
为解决传统的使用视频彩色图像序列的智能监控容易受光照、颜色等因素影响的问题,提出结合Kinect深度图像和支持向量机的人体动作识别方法.利用Kinect在监控区域获得实时深度图像,并进行背景擦除,滤波处理和提取Haar特征.通过使用支持向量机的分类算法生成分类器,并对一组特定的静态动作识别结果进行分析.研究结果表明:使用深度图像对于静态动作有较好的识别率,并且与传统的基于彩色图像的智能监控相比,该方法不仅对于光照、颜色等因素不敏感,而且在识别的准确率和效率上均有提升.
1
在nvidia官方deepstream-3d-action-recognition的基础上进行修改,增加多类sink的输出,实现3d动作识别
2022-02-09 21:05:47 126.64MB 3d nvidia deep learning
1
一种基于YOLOV3司机危险动作识别方法及系统.pdf
2022-01-29 11:38:09 597KB 一种基于YOLOV3司机危险动作
1
python,人工神经网络(ann),报告
2021-12-31 15:06:50 1.32MB phthon 机器学习 人工神经网络
1
python编程,深度学习,卷积神经网络,myo
2021-12-31 14:08:29 1.39MB python 深度学习 卷积神经网络
1
daart:用于动物动作识别工具箱的深度学习 一组用于分析行为数据的工具 安装 首先,您必须安装git软件包才能访问github上的代码。 请按照针对特定操作系统的说明进行操作。 然后,在命令行中,导航至要安装daart软件包的位置,然后移至该目录: $: git clone https://github.com/themattinthehatt/daart $: cd daart 接下来,按照说明安装conda软件包以管理开发环境。 然后,创建一个conda环境: $: conda create --name=daart python=3.6 $: conda activate daart (daart) $: pip install -r requirements.txt 为了使软件包模块对python解释器可见,请从主daart目录中本地运行pip install: (daar
2021-12-21 16:51:23 36KB Python
1
dtw 代码matlab STWP-master 3D骨架动作识别的matlab代码 Raviteja Vemulapalli、Felipe Arrate 和 Rama Chellappa,“通过将 3D 人体骨骼表示为谎言群中的点来进行人体动作识别”,CVPR,2014 年。 如果您要使用它,请引用它。 该代码由 Raviteja Vemulapalli 实现并由我们开发,主要用于比较一些不同的特征提取方法的性能,例如关节位置、关节角度、李群和 STWP(我们提出的,结果证明是一种更好的方法)和其他人)。 此代码已在 Matlab R2017a 中实现,并在 Linux (ubuntu) 和 Windows 7 中进行了测试。 实验设置: 跨学科 - 一半的科目用于训练,剩下的一半用于测试。 结果平均超过 10 个不同的训练和测试科目组合。 数据集 我们为所有支持的数据集提供预先计算的骨架序列: 跑步 matlab 文件“run.m”使用 5 种不同的骨架表示来运行 UTKinect-Action、Florence3D-Action 和 MSRAction3D 数据集的实验:“JP”
2021-12-12 09:47:17 25.52MB 系统开源
1