Twitter情绪识别 经过训练的递归神经网络(RNN)模型,用于根据英语推文预测情绪。 我们的模型适用于字符,因此我们无需进行任何预处理就将整个推文传递为RNN。 我们正在预测三种情感分类: 埃克曼的六种基本情感, 普鲁奇克的八种基本情感 情绪状态简介(POMS)的六个情绪状态。 文件和文件夹: demo.ipynb :脚本显示了如何使用我们的模型来预测情绪或将推文嵌入Jupiter Notebook。 demo.py :脚本显示了如何使用我们的模型来预测情绪或在Python中嵌入推文。 motion_prediction.py :定义EmotionPredictor类的帮助脚本。
2021-11-25 21:28:02 91.29MB twitter deep-learning lstm hashtags
1
Speech Emotion Recognition 用 LSTM、CNN、SVM、MLP 进行语音情感识别,Keras 实现。 改进了特征提取方式,识别准确率提高到了 80% 左右。原来的版本的存档在 。 | 中文文档   Environments Python 3.6.7 Keras 2.2.4   Structure ├── models/ // 模型实现 │   ├── common.py // 所有模型的基类 │   ├── dnn // 神经网络模型 │   │ ├── dnn.py // 所有神经网络模型的基类 │   │ ├── cnn.py // CNN │   │ └── lstm.py // LSTM │   └── ml.py
2021-11-24 17:28:15 48.98MB svm cnn lstm mlp
1
语音情感识别 介绍 该存储库负责构建和培训语音情感识别系统。 该工具背后的基本思想是构建和训练/测试合适的机器学习(以及深度学习)算法,该算法可以识别和检测语音中的人类情感。 这对于许多行业领域很有用,例如提出产品推荐,情感计算等。 查看本以获取更多信息。 要求 Python 3.6+ Python包 librosa == 0.6.3 麻木 大熊猫 声音文件== 0.9.0 海浪 斯克莱恩 tqdm == 4.28.1 matplotlib == 2.2.3 pyaudio == 0.2.11 (可选) :如果要通过转换为16000Hz采样率和convert_wavs.py提供的单声道来添加更多采样音频,则使用 通过以下命令安装这些库: pip3 install -r requirements.txt 数据集 该存储库使用了4个数据集(包括此仓库的自定义数据集),这些数
2021-11-10 18:16:18 911.73MB machine-learning deep-learning sklearn keras
1
近年来,由于情感识别已成为情感计算的标志之一,因此人们越来越重视生理信号来进行情感识别。本文提出了一种利用来自多个对象的心电图(ECG)信号进行情感识别的方法。数据,我们采用电影剪辑的唤醒方法,使被摄对象体验到特定的情感而不受外界干扰。通过连续小波变换对P-QRS-T波进行精确定位,充分提取了许多ECG特征。由于特征选择是一种组合在最优化问题上,采用基于邻域搜索的改进二元粒子群算法(IBPSO),通过fisher或K最近邻(K-Nearest Neighbor,KNN)分类器,寻找有效的特征来改进情绪状态的分类结果。表明该方法是成功的,并且从心电信号获得的有效特征可以表达情绪稳定非常好。
1
情绪识别 涉及使用脑电图(EEG)信号进行情感识别的项目。 EEG .mat文件来自其DEAP数据集,由伦敦玛丽皇后大学提供。 目的是确定脑电信号的生存力,以此作为识别“情感计算”思想的动机,从而识别不同的情绪状态。 数据集 数据集包含来自32位参与者的生理数据。 每个参与者观看了40个一分钟长的音乐视频摘录,并且在每次观看过程中都记录了生理信号。 然后,参与者根据效价,唤醒,喜好和支配性对每次观看视频的体验进行评分。 生理数据由40个特征组成-32个EEG读数通道; 另外还包括8个外围读数,例如皮肤温度,呼吸幅度,眼电图(EOG),心电图(ECG),皮肤电React(GSR),体积描记仪的血容量以及Z肌和斜方肌的肌电图(EMG),但所有这些都是多余的。 根据10-20系统进行EEG记录,并按照标准记录了32个EEG通道。 数据预处理 脑电记录 从数据集中获得的EEG数据已在源中进行
1
言语情感识别 卷积递归神经网络的TensorFlow在IEMOCAP数据库上的语音情感识别(SER)实现。为了解决帧情感标签不确定性的问题,我们执行了三种合并策略(最大合并,均值合并和基于注意力的合并)加权池)以生成SER的发声级功能。 这些代码仅在带有GTX-1080 GPU的ubuntu 16.04(x64),python2.7,cuda-8.0,cudnn-6.0上进行过测试。要在计算机上运行这些代码,您需要安装以下依赖项: 张量流1.3.0 python_speech_features 波 cPickle 麻木 斯克莱恩 操作系统 演示版 要运行演示,请在分叉存储库之后,运行以
1
直接点击runman.py就可以实现功能,有GUI界面,需要安装opencv等少数几个库,基于深度学习,采用inceptionv4
2021-08-10 06:40:37 98.01MB fer2103
1
FERPlus人脸表情识别程序,使用的是keras
2021-07-06 12:08:25 50KB 人脸表情识别 FERPlus keras 深度学习
1
实时面部表情识别 使用Tensorflow-Keras API中的转移学习(计算机视觉)进行面部表情识别或面部表情识别
2021-06-20 15:43:45 1.65MB JupyterNotebook
1
matlab精度检验代码基于EEG的情绪识别的3D-CNN模型 这是基于DEAP数据集的我的2019年冬季课程“模式识别”的最终项目。 我们通过CWT (连续小波变换)对原始信号数据进行预处理,并采用3D-CNN架构作为分类器,“价”标签的准确性达到84.34%。 数据预处理 CWT分析去除基线,原始信号数据通过CWT转换为小波系数,然后进一步转换为小波能量(比例图)。 在此步骤中,我们将数据形状从32(通道)* 8064(采样点)转换为32 * 64(比例)* 7680(采样点)。 剪裁框接下来,我们将1s设置为帧长,因此在60s的视频中可以获取60帧。 每帧的形状为32(通道)* 64(比例)。 选择体重秤然后,我们计算了32个通道中所有64个音阶的平均EER。 并选择第8〜39个音阶以减少计算。 3D块我们选择几个连续的帧并将它们堆叠在一起作为3D块。 后来的实验证明3是最好的。 分类器:3D-CNN 网络架构如下。 关于代码和文件 我们使用matlab_preprocessed_data,它已从此存储库中排除。 运行“ cwt_process.m”以获取“ File_60fra
2021-06-14 10:25:17 346.65MB 系统开源
1