Android 网络监视器源码.zip
2022-06-16 18:06:05 188KB 对话情绪识别
针对基于DEAP数据集,进行了ANN、CNN、LSTM模型对比。 含有处理好的数据集和源代码。
2022-05-16 11:05:34 5.68MB 源码软件
1
情绪识别数据集: CK / jaffe / fer2013 不是原数据集, 已经处理过了, 大小(48,48), 分了训练集和测试集
2022-05-15 19:16:38 35.37MB python
1
实时人脸识别,可以使用网络摄像头、视频或图像对情绪进行分类。 软件通过视频或网络摄像头识别人脸及其相应的情绪。由OpenCV、Dlib、人脸识别和深度学习提供支持。 python 依赖关系 Opencv Cmake Dlib 人脸识别 用法 测试文件夹包含提供给模型的视频及图像。 “图像”文件夹仅包含用于执行人脸识别的人脸图像。 模型包含预先训练的情感分类器模型。 emotion.py 对人的面部情绪进行分类。 face-rec-emotion.py一次识别人脸并对情绪进行分类。 face_recognition library使用FaceNet实现进行人脸识别。
2022-04-25 16:05:43 12.96MB 网络 音视频 分类 人工智能
Set up When running a pydeeplearn program you might have to set up some environment variables, depending on your configuration. If want to use the GPU for training/testing a model, you have to ensure that theano knows where your CUDA installation is (for detailed instructions see below). Setting up theano to work on the GPU PATH needs to contain the path to nvcc (usually /usr/local/cuda/bin) CUDA_PATH needs to contain the path to cuda (usually /usr/local/cuda/) LD_LIBR 详细参照包内文档
2022-04-25 16:05:42 3.61MB 深度学习 人工智能 python
使用OpenPose/DLIB库实现一些最先进的计算机视觉应用程序。 基于C/C++/Python的计算机视觉模型,使用OpenPose、OpenCV、DLIB、Keras和Tensorflow库。目标检测、跟踪、人脸识别、手势、情绪和姿势识别 C/C++/Python based computer DLIB:计算机视觉和其他机器学习的现代C++工具包。 Kerasify:用于从C++应用程序运行KARAS模型的小型库。 OPENCV:开源计算机视觉库。 OpenStA:一个实时多人关键点检测和多线程C++库。 操作系统(支持): Ubuntu 16.04 Nvidia Jetson TX2 要求: 至少有1.6 GB可用的NVIDIA图形卡(NVIDIA smi命令检查Ubuntu中可用的GPU内存)。 至少2 GB的可用RAM内存。 推荐:cuDNN和至少8核的CPU。
项目涉及大量的跟踪和错误方法、调谐等。该模型经过良好的训练,能够区分男性和女性的声音,并且具有100%的准确度。该模型经过调整,能够以70%以上的准确率检测情绪。通过包含更多用于培训的音频文件,可以提高准确性。 项目详细说明见文档。 Datasets: Made use of two different datasets: RAVDESS. This dataset includes around 1500 audio file input from 24 different actors. 12 male and 12 female where these actors record short audios in 8 different emotions i.e 1 = neutral, 2 = calm, 3 = happy, 4 = sad, 5 = angry, 6 = fearful, 7 = disgust, 8 = surprised. Each audio file is named in such a w
2022-04-22 17:06:26 4.79MB 深度学习 python keras 声音性别识别
Python 3.8 Keras & TensorFlow 2 用 LSTM、CNN、SVM、MLP 进行语音情感识别,Keras 实现。 识别准确率提高到了 80% 左右 TensorFlow 2 / Keras:LSTM & CNN (tensorflow.keras) scikit-learn:SVM & MLP 模型,划分训练集和测试集 joblib:保存和加载用 scikit-learn 训练的模型 librosa:提取特征、波形图 SciPy:频谱图 pandas:加载特征 Matplotlib:绘图 NumPy pip install -r requirements.txt python preprocess.py --config configs/example.yaml python train.py --config configs/example.yaml python predict.py --config configs/example.yaml import utils utils.spectrogram(file_path)
2022-04-22 17:06:24 75.75MB 音视频 深度学习 人工智能 python
基于多模态生理数据的连续情绪识别技术在多个领域有重要用途, 但碍于被试数据的缺乏和情绪的主观性, 情绪识别模型的训练仍需更多的生理模态数据, 且依赖于同源被试数据. 本文基于人脸图像和脑电提出了多种连续情绪识别方法. 在人脸图像模态, 为解决人脸图像数据集少而造成的过拟合问题, 本文提出了利用迁移学习技术训练的多任务卷积神经网络模型. 在脑电信号模态, 本文提出了两种情绪识别模型: 第一个是基于支持向量机的被试依赖型模型, 当测试数据与训练数据同源时有较高准确率; 第二个是为降低脑电信号的个体差异性和非平稳特性对情绪识别的影响而提出的跨被试型模型, 该模型基于长短时记忆网络, 在测试数据和训练数据不同源的情况下也具有稳定的情绪识别性能. 为提高对同源数据的情绪识别准确率, 本文提出两种融合多模态决策层情绪信息的方法: 枚举权重方法和自适应增强方法. 实验表明: 当测试数据与训练数据同源时, 在最佳情况下, 双模态情绪识别模型在情绪唤醒度维度和效价维度的平均准确率分别达74.23%和80.30%; 而当测试数据与训练数据不同源时, 长短时记忆网络跨被试型模型在情绪唤醒度维度和效价维度的准确率分别为58.65%和51.70%.
1
本文提出了一种新的情绪识别模型,该模型以脑图为输入,以唤醒和效价为输出提供情绪状态。脑图是从脑电信号中提取的特征的空间表示。该模型被称为多任务卷积神经网络(MT-CNN),使用微分熵(DE)和功率谱密度(PSD),并考虑0.5s的观察窗口,由四种不同频段的不同波(α、β、γ和θ)的叠加脑图构成。该模型在DEAP数据集上进行训练和测试,DEAP数据集是一个用于比较的著名数据集。该模型的准确度在价态维度上为96.28%,在唤醒维度方面,获得了96.62%的准确率,这项工作表明,MT-CNN的性能优于其他方法。 模型为二维卷积神经网络。该模型的输入是一个脑图,它是EEG信号的空间谱表示。该模型由四个二维卷积层、一个完全连接层以及上述每个层之后的dropout和批量归一化层组成。最后,输出到两个流:前者用于分类受试者的配价水平,后者用于唤醒水平。ReLU用作激活功能。分类层使用一个sigmoidal函数来获得类似概率的输出。对模型进行了收敛性训练。