ModDrop:自适应多模态手势识别

上传者: cooc89 | 上传时间: 2022-02-07 14:03:11 | 文件大小: 162KB | 文件类型: ZIP
-我们提出了一种基于多尺度和多模态深度学习的手势检测和定位方法。每一种视觉模式在特定的空间尺度上捕捉空间信息(比如上半身或手的运动),整个系统在三个时间尺度上运行。我们技术的关键是一种培训策略,它利用以下几点:1)谨慎地初始化个体模式;ii)渐进融合,包括随机丢弃独立通道(称为ModDrop),以学习交叉模态相关性,同时保持每个模态特定表示的唯一性。我们在“学习2014看人挑战赛”(ChaLearn 2014 Looking at People Challenge)的手势识别跟踪项目上展示了实验,在这个项目中,我们在17个团队中获得了第一名。在多个空间和时间尺度上融合多种模式可以显著提高识别率,使模型能够补偿单个分类器的误差以及单独通道中的噪声。此外,提出的ModDrop训练技术确保了分类器对一个或多个通道中的缺失信号的鲁棒性,从而从任意数量的可用模式中产生有意义的预测。此外,我们通过在相同的音频增强数据集上的实验,证明了所提出的融合方案对任意性质的模式的适用性。 手势识别,卷积神经网络,多模态学习,深度学习

文件下载

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明