YOLO网络检测手的数据集,已经标注好xml文件,可直接训练。
2021-05-27 15:05:37 21.54MB YOLO 深度学习 手部识别 数据标注
1
我博文中做好的那个手,导入后打开real hand场景,可以看到你需要的那个手,可直接由leapmotion控制,并且做了修改代码,解除了限制,能够对手部模型进行放大缩小。
2021-05-23 15:58:35 396.69MB leapmotion 手部模型
1
在Linux系统下实现,opencv库需要自己安装,压缩包里面有完整的素材,使用的LDE是Clion
2021-05-19 22:32:07 131.3MB c++ opencv 深度学习
1
基于sEMG和GRNN的手部输出力估计.pdf,针对智能肌电假手力控制的需要,提出一种基于表面肌电信号(sEMG)和广义回归神经网络(GRNN)的手部输出力估计方法。首先在介绍实验平台的基础上详细描述了肌电信号的采集和特征提取方法以及广义回归神经网络的构建;然后,通过在手臂8个不同部位粘贴肌电传感器来检测手部动作过程中的肌电信号;同时为了全面测量人手在三维空间中的输出力,采用三维力传感器对手部的输出力进行测量;在同步获得手臂上的多通道肌电信号(X)和手部三维力推拉信号(F)后,对采集得到肌电信号进行了特征提取得到特征矩阵XF;将XF和F用于构建GRNN网络,并用均方差和残差绝对值均值对手部输出力的估计结果进行评估。为验证该方法的有效性,进行了实验验证,结果表明,该方法能够很好地利用sEMG对手部的输出力进行估计。
2021-05-11 14:15:53 3.77MB 论文研究
1
一般情况下,手势识别的第一步就是先手势定位,即手势所在部位的提取。本文是基于kinect来提取手势识别的,即先通过kinect找出人体的轮廓,然后定位轮廓中与手部有关的点,在该点的周围提取出满足一定要求的区域,对该区域进行滤波后得到的区域就是手部了。然后利用凸包和凹陷的数学几何方法,画出手指和手指凹陷处的点,以及手的轮廓线,并在图像中显示出来。文章所有代码都是网友Robert Walter提供的。
2021-05-06 21:35:11 1.01MB 手势分割
1
手部21类关键点数据集,已标注,内附百度网盘下载地址。
2021-05-04 09:07:21 146B 手部关键点 21关键点数据
kinectV1+opencv实现的操作者手部提取,采用了深度和骨骼数据,效果不错,有兴趣的可以自己配置实现一下
2021-05-03 18:38:25 17.32MB kinectV1
1
1. 训练和测试数据集 2. 训练和测试代码(支持的backbone包括resent,mobilenet,shufflenet等) 3. 测试结果和演示图像
2021-05-01 09:07:38 221.07MB 手势识别 关键点检测 深度学习
包括: 1. 训练和测试代码 2. 训练和测试数据集 3. 测试视频和测试结果视频
2021-04-29 01:47:28 945.91MB 手部检测 yolo
Hands for VR Basic。男女高精度双手模型带动画 ,分为男女手,每种手有3种样式,配合VRTK使用,只需将左右手模型对应放置在VRTK的LeftController及RightController子物体下即可使用
2021-04-21 09:08:10 22.31MB vr VR手部模型 handsofVR 手部模型加动画
1