跳跃手势识别 使用Leap Motion控制器识别和学习手势的应用程序。 加利福尼亚州立大学北岭分校计算机科学理学硕士项目: :
2021-11-22 15:47:11 30.71MB C#
1
手势张量流 使用Tensorflow对象检测和Python进行实时手语检测 :snake: 安装 该项目需要 , 和Tensorflow对象检测软件包才能正常运行。 您可以使用pip直接安装前两个(如果愿意,也可以使用conda ): $ pip install tensorflow $ pip install opencv-python 要安装最后一个 ,您需要按照突出显示的链接中的教程进行操作。 它逐步介绍了设置软件包以及Tensorflow-GPU的过程,以便在运行时获得很多性能(强烈建议)。 此外,您需要从下载TensorFlow的预 $ cd Tensorflow $ git clone https://github.com/tensorflow/models 之后,您需要将模型配置( pipeline.config )从预先训练的文件夹( ssd_mobilenet_v2_fp
2021-11-16 16:24:45 45.77MB Python
1
VR Infinite Gesture——最新的版本,assetsore上可以买到的,现在买了免费送给大家
2021-11-11 14:22:51 16.56MB vr
1
unitypackage文件 用于触摸或鼠标输入的手势识别器。它可以识别玩家绘制的图画。
2021-10-28 18:08:19 926KB 手势识别 绘图
1
向您的Arduino项目添加手势(机器人,HMI,灯光等)。
2021-10-19 20:03:54 751KB gesture control
1
使用手势识别的CNNLSTM 使用GRIT数据集,构建了将2D CNN与LSTM相结合的模型,以从webCam视频提要中执行实时手势识别。 也使用LSTM建立了使用3D CNN的另一个模型。 目标 构建能够实时检测视频中手势的计算机视觉深度学习模型。 模型应能够在低端设备上运行。 (没有GPU) 模型应该可以快速训练(30分钟内进行训练) 在每个手势动作中使用有限的样本来提取可用的准确性。 预先处理 由于我们的动机是运动识别,因此我们首先必须检测帧序列之间的运动。 我使用时差法。 时间差异涉及两个或三个连续帧之间的差异,然后凝结连续帧之间的差异以提取运动对象的运动。 它非常容易且快速地进行计算,并且在动态环境中具有更好的性能。 使用等式计算差分图像: Δ = (
2021-10-11 17:53:31 17KB JupyterNotebook
1
利用卷积神经网络实时识别手势动作 一共识别5种手势动作 剪刀动作 2.石头动作 3.布动作 4.OK动作 5.good动作 项目文件 项目文件列表如下: data:存放训练集、测试集,实时保存的图像(用于在线检测)。 ges_ico:存放UI窗口使用的各种图标。 log:存放训练的CNN网络的模型参数。 CallFrame.py:界面窗口的逻辑文件,用来调用界面文件并编写信号与槽函数。 Frame.py:界面窗口的界面文件,通过PyQt5的designer工具生成。 GetTestImage.py:利用OpenCV获取图片并标记,用来制作测试集。 GetTrainImage.py:利用OpenCV获取图片并标记,用来制作训练集。 SaveGesture.py:利用OpenCV实时获取图片,并进行预处理,用于在线检测手势。 TestGesture.py:将实时获取的图片送入已训练好的C
2021-09-24 12:05:30 43KB Python
1
手势识别 使用Kinect数据进行手势识别-Chalearn Challenge 2013 大纲 该存储库包含我在塞萨利大学电气和计算机工程系攻读文凭学位期间进行的所有实验和实验 摘要本文着重于利用深度传感器来构建能够可靠地检测多个手势的分类器。 该数据库最初在Chalearn Gesture Challenge 2013中引入,包含20个手势的词汇表,并使用Kinect传感器构建,以捕获音频,视频,人体的骨骼关节和深度信息。 在本文中,我们主要利用骨骼形态来跟踪手和身体关节随时间的运动,并创建可以有效识别给定手势的模型。 这是通过创建一个姿势描述符来实现的,该姿势描述符包含骨骼矢量彼此之间形成的角度以及它们与躯干之间的距离。 通过计算这些指标,我们可以获得每个视频帧中人体姿势的虚拟地图。 分类过程利用上述特征将手势识别为身体姿势序列。 我们主要强调两个都训练隐马尔可夫模型的分类器。 最
2021-09-04 11:01:29 21MB MATLAB
1
使用NVIDIA预训练模型和Transfer Learning Toolkit 3.0与机器人创建基于手势的交互 在这个项目中,我们演示如何训练您自己的手势识别深度学习管道。 我们从预先训练的检测模型开始,使用Transfer Learning Toolkit 3.0将其重新用于手部检测,然后将其与专用手势识别模型一起使用。 经过培训后,我们将在NVIDIA:registered:Jetson:trade_mark:上部署此模型。 可以将这种手势识别应用程序部署在机器人上以理解人类手势并与人类进行交互。 该演示可以作为点播网络研讨会提供: : 第1部分。训练对象检测网络 1.环境设置 先决条件 Ubuntu 18.04 LTS python> = 3.6.9 = 19.03.5 docker-API 1.40 nvidia-container-toolkit> = 1.3.0-1
2021-08-26 15:23:37 257KB C
1