人脸_面具_检测_CNN 基于计算机视觉和深度学习的OpenCV和Pytorch面罩检测系统 数据集 下载数据集: : 训练 训练ResNet50模型:在train_resnet50.ipynb中,选择data_path(安装数据集的位置)和model_dir(应保存训练后的模型的位置)。执行train_resnet50.ipynb 训练MobileNetV2模型:在train_mobilenetv2.ipynb中,选择data_path(安装数据集的位置)和model_dir(应保存经过训练的模型的位置)。执行train_mobilenetv2.ipynb 测验 打开test.ipynb 在导入中:从model_resnet50导入模型中选择以测试ResNet50模型,从model_mobilenetv2导入模型中选择以测试MobileNetV2模型。 选择一个model_p
2022-05-30 08:56:56 10.68MB JupyterNotebook
1
Convolutional Neural Networks的Matlab代码,可经过代码文件test_example_CNN.m,对手写字体进行训练测试
2022-05-29 21:38:27 8KB CNN Matlab 卷积神经网络
1
基于CNN的汽车目标检测算法matlab实现,可以适配自己的数据集,内部含数据集
2022-05-29 16:05:49 4KB cnn 汽车 目标检测 算法
基于小波时频图和卷积神经网络的脑电波分类技术研究 采取matlab
2022-05-29 16:05:32 96.65MB matlab 文档资料 cnn 分类
matlab卷积神经网络训练(回归模型)
2022-05-28 19:07:09 3KB matlab cnn 回归 综合资源
提出了一种基于改进特征金字塔的Mask R-CNN目标检测方法。实验结果表明,在目标边缘和包围盒两项检测中,相比于Mask R-CNN检测框架,所提方法在不同的交并比阈值下的平均准确率分别提高了约2.4%和3.8%。尤其对于中等尺寸目标的检测准确率有较大的提高,分别为7.7%和8.5%,具有较强的稳健性。
2022-05-28 18:29:22 3.43MB 机器视觉 模式识别 目标检测 卷积神经
1
回归预测 | MATLAB实现CNN(卷积神经网络)多输入单输出(完整源码和数据) 多输入单输出,运行环境MATLAB2018b及以上。
基于卷积神经网络手写体数学公式识别与计算 一、项目介绍 项目已经可以计算含有PI或e的四则运算公式及指数运算公式。 项目可以进行较为简单的一元一次方程或一元二次方程计算。 测试网站 项目使用tensorflow2.0作为开发框架,采用keras搭建卷积神经网络。 数据集采集了mnist及emnist中的数字、字母数据,运算符号为项目组手写制作。 图片分割使用了连通域与水平投影共同实现。 项目通过flask框架部署在服务器。 这是本人参与制作的第一个比课程设计大的项目。仅用来记录自己的代码。 同时也欢迎各位大佬指点。 二、项目主要代码及功能介绍 网络搭建及模型制作 train_model/tf_keras_cnn_mnist_model.ipynb 数据量较小采用数据增强 重复两层每两次卷积一次池化一次Dropout的操作,最后softmax全连接 由于租借用的训练服务器到期,故没有训练好的
2022-05-28 10:18:33 12.59MB JavaScript
1
视频图matlab代码 主页: 论文“基于全局时间表示的CNN用于红外动作识别”的代码 抽象的 红外人体动作识别具有许多优点,即它对光照变化,外观变化和阴影不敏感。 现有的用于红外动作识别的方法要么基于空间信息,要么基于局部时间信息,但是并未考虑能够更好地描述整个视频中身体部位运动的全局时间信息。 在这封信中,我们提出了一种新颖的全局时间表示形式,称为光流堆叠差异图像(OFSDI),并通过综合考虑局部,全局和空间时间信息,从红外行动数据中提取了鲁棒且具有判别力的特征。 由于红外行动数据集的规模较小,我们首先将CNN分别应用于局部,空间和全局时间流,以从原始数据中获取有效的卷积特征图,而不是直接训练分类器。 然后,通过轨迹约束池将这些卷积特征图聚合为有效的描述符,该描述符称为三流轨迹合并的深度卷积描述符(TSTDD)。 此外,我们通过使用局域约束线性编码(LLC)方法提高了这些功能的鲁棒性。 利用这些功能,在我们的方案中采用线性SVM对动作数据进行分类。 我们对红外动作识别数据集InfAR和NTU RGB + D进行了实验。 实验结果表明,该方法优于具有代表性的最先进的手工特征和基于深度
2022-05-27 20:00:33 2MB 系统开源
1
Attention-BiLSTM模型结构及所有核心代码: 1.model中实验的模型有BiLSTM、ATT-BiLSTM、CNN-BiLSTM模型; Attention与BiLSTM模型首先Attention机制增强上下文语义信息,并获取更深层次特征,最后通过Softmax进行回归,完成所属语音情感的预测。 2.系统为用Flask搭建网页框架的语音识别系统界面; 对于提到的语音情感识别方法平台为基于Windows操作系统的个人主机,深度学习框架采用的是tensorflow和Keras,其中TensorFlow作为Keras的后端。具体配置如下python3.6.5、tensorflow=1.12、Keras=2.2.4、flask==1.0.2 、librosa等。 具体界面效果可以参考博客内容。​​