Keras中的两流CNN工具 在的基于骨架的动作识别中,提出了两流CNN,用于基于骨架的动作识别。 它将骨架序列映射到图像(坐标x,y,z到图像R,G,B)。 他们专门设计了骨架变压器模块,以自动重新排列和选择重要的骨架关节。 要求 Python3 凯拉斯 h5py matplotlib 麻木 网络架构 该网络主要由Skeleton Transformer , ConvNet , Feature Fusion和Classification四个模块组成。 两个流的输入分别是原始数据(x,y,z)和帧差。 如下图所示: 用法 function / data_generator.py :生成两个流的输入numpy数组 layer / transformer :Keras中的Skeleton Transformer工具层 网络/ :褶皱有四只苍蝇,具有不同的特征融合方式 结果 模型 准确度(
2021-09-25 10:54:30 115KB keras action-recognition skeleton-data Python
1
Agricultural Knowledge Graph 由于工作原因,该项目已停止维护。因此项目代码仅供参考,项目中包含的数据可免费用于学术等非商业用途。 相关工作请引用paper: AgriKG: An Agricultural Knowledge Graph and Its Applications[C]. DASFAA (3) 2019: 533-537 项目介绍: 本项目是上海市《农业信息服务平台及农业大数据综合利用研究》子课题《上海农业农村大数据共享服务平台建设和应用》的研究成果。 该课题是由上海市农业委员会信息中心主持,以“致富农民、服务市民、提高行政管理效能”为目标,充分发挥大数据在农业农村发展中的重要功能和巨大潜力,重点建设上海市级农业农村大数据中心,促进信息资源的共建共享和创新应用。 华东师范大学数据科学与工程学院(以下简称华师大数据学院)作为课题主要参与单位以实现智慧
1
Pattern Recognition 4th Edition模式识别第四版
2021-09-24 12:53:19 13.23MB 模式识别
1
利用卷积神经网络实时识别手势动作 一共识别5种手势动作 剪刀动作 2.石头动作 3.布动作 4.OK动作 5.good动作 项目文件 项目文件列表如下: data:存放训练集、测试集,实时保存的图像(用于在线检测)。 ges_ico:存放UI窗口使用的各种图标。 log:存放训练的CNN网络的模型参数。 CallFrame.py:界面窗口的逻辑文件,用来调用界面文件并编写信号与槽函数。 Frame.py:界面窗口的界面文件,通过PyQt5的designer工具生成。 GetTestImage.py:利用OpenCV获取图片并标记,用来制作测试集。 GetTrainImage.py:利用OpenCV获取图片并标记,用来制作训练集。 SaveGesture.py:利用OpenCV实时获取图片,并进行预处理,用于在线检测手势。 TestGesture.py:将实时获取的图片送入已训练好的C
2021-09-24 12:05:30 43KB Python
1
做得更好 Cook Better是一个Slack聊天机器人,根据可用成分以及用户的饮食和健康限制来推荐食谱。 演示版 斜杠命令 /个性化 使用此命令可以配置任何食物过敏,饮食限制,健康状况和体重目标。 您只需要执行一次,当您搜索食谱时我们就会记住您的选择! / searchrecipes 使用此命令可根据您的食材搜索食谱。 您还可以按食谱类型,烹饪时间搜索食谱,或在特殊情况下查找食谱。 / surpriseme 该命令每次都会建议一个随机配方(同时牢记您的个性化标准)! / cookbetterhelp 回到这个空间,以防您卡住并注意我们可能添加的任何新功能! 笔记 要测试聊天机器人,请加入该并尝试使用斜杠命令。 可在找到针对CSC 510(2018年Spring)进行的评估结果。 指示 请按照以下说明在本地计算机上设置开发环境。 先决条件 JDK IntelliJ IDEA
1
口语填空和意图检测任务 插槽填充和意图检测的基本模型: 论文“具有焦点机制的编码器-解码器用于基于序列标签的口语理解”的“焦点”部分的实现 。 基于的BLSTM-CRF的实现 插槽填充和意图检测任务联合培训的实施 。 基本型号+ / / 数据集教程: (英语/西班牙语/泰语) (无意图) (无意图) (无意图) 部分 描述 所需的包 如何在ATIS数据集上报告意图检测的性能 教程A:带有预训练的单词嵌入 教程A:使用预训练的单词嵌入进行插槽填充和意图检测 教程B:使用ELMo 教程B:使用ElMo进行插槽填充和意图检测 教程C:使用BERT 教程C:插槽填充和BERT意图检测 教程D:使用XLNET 教程D:使用XLNET进行插槽填充和意图检测 结果 某些数据集上不同方法的结果 推论模式 推论模式 参考 如何引用? 设置 python 3.6.x py
1
该脚本将 UCI(加州大学欧文分校)使用智能手机数据集的人类活动识别作为输入。 这是一组对 30 名受试者进行的一组实验,他们在佩戴智能手机的情况下进行六项活动(步行、爬星、步行、坐下和站立)。 实验测量(总共 561 个)涉及从手机记录的加速度计和陀螺仪数据。 该脚本输出一个文本表,总结每个主题和每个活动的这些测量值。 使用了两个原始数据集: 惯性数据集,包括三轴加速度和角速度时间序列,以 50 Hz 的速率采样。 这些是在每次活动期间为每个受试者获得的。 它们被用来生产以下产品: 一个包含 561 个元素的运动“特征”向量,即在时域和频域的间隙数据集上计算的变量。 数据集分为“训练”和“测试”集。 下载并解压缩数据集后(脚本运行必不可少),可以在以下目录中找到这些原始数据集: intertial datasets: test/Inertial Signals, train/In
2021-09-17 16:46:49 4KB R
1
CapsuleNet用于微表达识别 描述 这是用于微表情识别的CapsuleNet论文的源代码,该论文加入了第二次面部微表情识别任务的微表情大挑战。 如果您认为此代码有用,请按如下方式引用我们的论文: # Bibtex @INPROCEEDINGS{Quang2019Capsulenet, author={N. V. {Quang} and J. {Chun} and T. {Tokuyama}}, booktitle={2019 14th IEEE International Conference on Automatic Face Gesture Recognition (FG 2019)}, title={CapsuleNet for Micro-Expression Recognition}, year={2019}, volume={}, nu
1
| 英语 PaddleVideo 介绍 PaddleVideo是用于为行业和学术界准备的视频识别,动作本地化和时空动作检测任务的工具集。 该存储库提供了示例和最佳实践指南,用于在视频区域的场景中探索深度学习算法。 我们致力于支持可以大大减少“部署时间”的实验和实用程序。 顺便说一句,这也是视频领域最新PaddlePaddle 2.0的熟练度验证和实现。 特征 先进的模型动物园设计PaddleVideo统一了视频理解任务,包括识别,本地化,时空行为检测等。 借助基于IOC / DI的清晰配置系统,我们设计了一个去耦模块化和可扩展的框架,该框架可以通过组合不同的模块轻松构建自定义网络。 各种数据集和体系架构PaddleVideo支持多个数据集和架构,包括 ,ucf101,YoutTube8M数据集和视频识别模型,诸如TSN,TSM,SlowFast,AttentionLSTM和行动本地化模
1