角色/动画 SALSA LipSync Suite 2.5.4人物面部表情动画插件
2022-08-29 14:05:26 1.1MB 面部表情动画Unity Unity
1
通过训练jaffe数据库,实现识别人脸高兴、惊讶、恐惧、生气等六种表情,并圈出。可调用电脑摄像头实时监测。内附有使用说明,可以使用。仅供学习参考。
针对传统机器学习中人工提取特征复杂度高,以及单卷积网络提取特征不充分导致识别率不高的问题,提出了一种基于集成卷积神经网络的面部表情识别新方法。该方法是将VGGNet-19改进后的VGGNet-19GP模型和ResNet-18模型进行集成,构建了集成网络(EnsembleNet)模型。该模型首先在训练集上对单模型进行训练,使单模型达到实验最优,然后在测试集上进行集成测试。在FER2013和CK+数据集上分别获得了73.854%和97.611%的平均准确率。与VGGNet-19GP和ResNet-18模型以及现有方法进行对比,结果表明,基于集成的面部表情分类方法具有分类更加准确和泛化能力更强的优点。
2022-06-19 13:11:57 17.64MB 机器视觉 人脸表情 卷积神经 集成学习
1
资源包含文件:设计报告word+项目源码 图像识别是指利用计算机对图像进行处理、分析、理解,图像识别的过程可分为图像处理和图像分析两个过程 图像处理是指对所需要分析的图像进行一系列的图形操作,包括拉伸缩放、旋转翻转、颜色变换、像素保留……,图像分析是指通过图像的特征来反馈图像信息并且分类,最简单的是基于统计的方法、最常用的是深度学习方法 数据资源:本次实验为面部表情的二分类识别,情绪为高兴和沮丧,各表情图像 5000 张 技术支持:Keras、TensorFlow、VoTT、OpenCV、PIL 详细介绍参考:https://biyezuopin.blog.csdn.net/article/details/122449608?spm=1001.2014.3001.5502
2022-06-17 14:56:58 4.43MB python 面部表情 表情识别 表情分析
深度学习基于学生面部表情疲劳检测的在线课堂系统项目源码。内附使用说明代码注释,新手也可自行操作。 结合时代背景,考虑到学生在线课堂教育会成为后疫情时代的发展趋势,但是现如今的在线课堂教育的弊端很明显,就是老师无法实时监视学生的学习状态。因此,这里专门使用声网agora SDK + leanCloud + pyqt5,简单实现在线课堂的基本功能。 前端界面设计:pyqt5 后端数据存储:leanCloud 音视频通信:agora SDK 疲劳检测算法:多特征经验融合的K近邻疲劳早后期检测算法 该系统主要分成学生端,教师端和服务器端:。
人工智能基于深度学习论文大合集比如:基础目标分类论文、目标检测论文、表情识别论文等等.zip 简单列举如下: 3D面部重建论文 人脸识别论文 保罗艾克曼论文 关键点检测论文 分布式计算论文 卷积神经网络论文 图像分割论文 图像处理论文 面部表情识别论文 情绪分析论文 机器学习论文 目标检测论文 网络优化 肿瘤检测 人工智能基于深度学习论文大合集比如:基础目标分类论文、目标检测论文、表情识别论文等等.zip 简单列举如下: 3D面部重建论文 人脸识别论文 保罗艾克曼论文 关键点检测论文 分布式计算论文 卷积神经网络论文 图像分割论文 图像处理论文 面部表情识别论文 情绪分析论文 机器学习论文 目标检测论文 网络优化 肿瘤检测
主要功能 (1)可以通过从本地图片导入系统,或者直接相机进行拍摄等方法对图片和视频进行处理并分析。 (2)可以切换模型对图片进行处理。 实现原理 (1)表情库的建立 目前,研究中比较常用的表情库主要有:美国CMU机器人研究所和心理学系共同建立的Cohn-Kanade AU-Coded Facial Expression Image Database(简称CKACFEID)人脸表情数据库;fer2013人脸数据集等等,这里我们的系统采用fer2013人脸数据集。 (2)表情识别: ①图像获取:通过摄像头等图像捕捉工具获取静态图像或动态图像序列。 ②图像预处理:图像的大小和灰度的归一化,头部姿态的矫正,图像分割等。(改善图像质量,消除噪声,统一图像灰度值及尺寸,为后序特征提取和分类 识别打好基础) (3)特征提取:将点阵转化成更高级别图像表述—如形状、运动、颜色、纹理、空间结构等,?在尽可能保证稳定性和识别率的前提下,对庞大的图像数据进 行降维处理。 (4)基于运动特征的提取:提取动态图像序列的运动特征 (5)分类判别:包括设计和分类决策(在表情识别的分类器设计和选择阶段,主要有以下方法:
Pytorch实现基于卷积神经网络的面部表情识别项目源码+论文+答辩PPT 本项目是一个非常完整的深度学习实践,是基于卷积神经网络模型开展表情识别的研究,使用到的模型是卷积神经网络,难度适中,初学者也可看懂。为了尽可能的提高最终表情识别的准确性,需要大量的样本图片训练,优化,所以采用了 FER2013 数据集用来训练、测试,此数据集由 35886 张人脸表情图片组成,其中,测试图 28708 张,公共验证图和私有验证图各 3589 张,所有图片中共有7种表情。 源代码方便大家开箱即用! 动手完成这个项目之后,就可以学习到: 1. 深度学习中CNN(卷积神经网络)的使用,为之后学习相关神经网络模型做了很好的铺垫。 2. 学会使用深度学习框架之一Pytorch的使用。 3. 多分类问题在实际中的应用,是二分类的扩展。 4. 从数据处理,可视化,到模型搭建的过程,是一种经验和技巧的积累,达到“举一反三”的效果。
2022-06-10 14:06:38 128.45MB 人工智能 pytorch 深度学习 python
深度学习基于卷积神经网络的人脸面部表情识别项目源码+面部表情数据集+训练好的模型.zip也可作为人工智能大作业 深度学习基于卷积神经网络的人脸面部表情识别项目源码+面部表情数据集+训练好的模型.zip深度学习基于卷积神经网络的人脸面部表情识别项目源码+面部表情数据集+训练好的模型.zip深度学习基于卷积神经网络的人脸面部表情识别项目源码+面部表情数据集+训练好的模型.zip深度学习基于卷积神经网络的人脸面部表情识别项目源码+面部表情数据集+训练好的模型.zip深度学习基于卷积神经网络的人脸面部表情识别项目源码+面部表情数据集+训练好的模型.zip 环境 数据集: Fer2013 ,Emoji表情集 神经网络框架: Keras,Tensorflow-gpu 分类器: 基于Opencv-Normal Bayes Classifier(正态贝叶斯分类)训练的贝叶斯分类器 配置环境: python==3.6.0 tensorflow-gpu==1.8.0 keras-gpu==2.1.6 opencv==3.3.1 其他环境详见:environment.yaml
情绪化 (不再维护) 一个WebApp,它使用用户拍摄的快照来检测情绪并使用它来生成合适的音乐播放列表。 该项目是为ACM Month Of Code构建的,实际编码大约在3周内完成。 在此处阅读有关构建Moodify的详细文章: ://medium.com/@ajay.ns08/acm-month-of-code-2k17-building-moodify-d5d9e0c52ca7 实作 将Cam,Music Player,用于情感识别的脚本和数据库连接起来,并使用Flask将其包装到WebApp中,使用路由像API一样使用Backend来处理前端,而前端则负责处理用户。 作为在如此短的时间内构建的实验性设置,用户界面和流程在部署之前需要进行多次修复。 安装 您应该预先安装以下内容: OpenCV MongoDB 数据文件要放置在data / 将Haar级联数据文件放置在data / Python 2 files / mp3和files / img存储音乐数据和专辑封面 最好设置一个虚拟环境,然后您只需要安装软件包: pip install -r requirem
2022-05-18 21:31:23 2.64MB python angularjs opencv flask
1