代码一共分为三个部分:样本数据集的获取、训练、预测 。 第一部分-get_train_image.py样本的获取: 我是用的opencv自己获取的自己手势的数据集、测试集。 第二部分-dataset自定义数据集以及训练: 采用tensorflow 的dataset模块创建自己数据集和tensorflow.keras api实现模型的构建以及训练. 第三部分-模型预测与应用
2021-04-10 17:02:33 89.78MB 手势识别 OpenCV python
1
安卓手势放大缩小相机
2021-04-10 15:43:35 109KB 相机
1
可进行手势控制的小车,采用ADXL345,控制简单,可编性强
2021-04-09 10:42:24 889KB 手势控制
1
1.手机端蓝牙APP可以收到手势识别的动作,根据动作切换歌曲、音量加、音量减、播放/暂停等;蓝牙音频模块可以收到手机端发的数据,从而实现蓝牙的双向通讯。 2.手机1通过蓝牙与蓝牙音频模块连接后,放音乐;可以通过FM发射出去,通过第二台手机收音机功能指定频道(频率可调,需要增加调频按键)收听到播放的音乐。 3.前面两项功能测试通过,可以根据自己的需求在这个DEMO上增加其它功能,供爱好者们参考!
2021-04-08 19:31:41 741KB KT1025 QN8027 PAJ762 STM32F
1
之前传过一个手势控制立方体旋转的工程,那个跟网上大多的教程不打一样,现在分享一个按步骤实现的工程,照样代码中有详细的注释
2021-04-08 14:13:42 1.07MB Android OpenGL 立方体 android
1
肌读数据集 腕部冬眠,弯曲,伸展,径向偏移,尺骨偏移,内旋,旋后和拳头手势的Myo臂章肌电图读数数据集。 项目结构 读数位于_readings文件夹中,每个记录会话包含一个文件夹。 每个会话文件夹包含多个文件,每个手腕手势一个。 这些文件名为 .txt(例如,扩展名为2.txt,请参见下面的手势标签)。 每个录制会话文件夹应至少包含八个文件(用于手势0-7)。 文件本身由多行组成: ... 11,32,-3,-43,4,5,42,7,0 13,24,-5,12,43,42,12,1,0 123,121,-100,-88,-32,32,123,13,2 ... 每行代表来自Myo臂章上的八个EMG通道的样本([-128,127],有符号字节),以及给定时刻的手腕手势(类)标签,以逗号分隔。 该行的末尾没有逗号,并且文件中的任何地方都不应有空格。 根据Myo规范,采样频率约为2
2021-04-06 15:25:19 8.56MB dataset myo emg myo-armband
1
Android招财进宝手势密码锁,是本人从项目中分享出来的模块代码,可以直接运行使用,有什么问题或者建议,可以直接在博客留言或者Email给我(mrwujay@163.com),我会尽快回复你.
2021-04-06 14:53:35 714KB 手势密码
1
通过STM32F103驱动APDS9960识别上下左右及覆盖等物种手势姿势。可以根据需求移植到自己的CPU上使用
2021-04-06 09:28:03 5.53MB APDS9960
1
采用STM32,实用IIC处理,获取手势数据,使用者只需要自己修改IO口即可。
2021-04-06 09:20:29 2.67MB STM32
1
简单背景下的手势识别系统,用于与电脑进行猜拳游戏
2021-04-05 14:51:36 55KB 手势识别 猜拳
1