互动式情感和弦运动捕捉(IEMOCAP)数据库是一个实用的多模式多说话者数据库,最近在南加州大学SAIL实验室收集。它包含大约12个小时的视听数据,包括视频,语音,面部动作捕捉,文本转录。它由两部分组成,参与者在其中进行即兴表演或剧本剧本,特别是为了引起情感表达而选择的。IEMOCAP数据库由多个注释者注释为类别标签,例如愤怒,幸福,悲伤,中立,以及维数标签(如价,激活和支配)。详细的动作捕捉信息,引发真实情绪的交互式设置以及数据库的大小,使该语料库成为社区中现有数据库的有价值的补充,用于研究和建模多模式和表达性人类交流。
2021-07-02 14:01:42 75B 语音情感识别
1
对话情感识别MELD数据集
2021-06-18 09:11:08 1.69MB 数据集 MELD 对话情感识别
1
使用音频和视觉模态的特征级融合在视频中进行多模态情感识别。 使用过的具有不同情绪的SAVEE数据集由1000多个不同主体扮演。 数据集包含六种主要情绪-愤怒,厌恶,恐惧,快乐,悲伤,惊奇。 我正在使用Chehra Version.1来检测每个视频帧中的面部界标点并标准化界标点坐标以获取视觉特征。 对于分类,我使用了NNTool(Matlab)。 nnweights.mat文件包含经过训练的神经网络分类器模型。
2021-06-10 16:06:20 53.96MB MATLAB
1
对中文文本情感分析的研究进行了综述。将情感分类划分为信息抽取和情感识别两类任务, 并分别介绍了各自的研究进展; 总结了情感分析的应用现状, 最后提出了存在的问题及不足。
1
Vistec-AIS语音情感识别 语音情感识别模型及基于Pytorch的推理 安装 从皮皮 pip install vistec-ser 从来源 git clone https://github.com/tann9949/vistec-ser.git cd vistec-ser python setup.py install 用法 使用THAI SER数据集进行培训 我们提供了Google合作实验室示例,用于使用我们的存储库训练。 使用提供的脚本进行培训 请注意,当前,此工作流程仅支持预加载的功能。 因此,这可能会产生〜2 Gb或RAM的额外开销。 运行实验。 运行以下命令 由于有80个录音室录音和20个变焦录音。 我们将数据集分为10个工作室,每组10个工作室。 然后使用k折交叉验证方法进行评估。 我们提供2 k倍的实验:包括和不包括缩放记录。 可以在配置文件中配置它(请参阅examp
2021-05-28 17:45:10 8.85MB Python
1
基于机器学习的语音情感识别,李丹艳,刘刚,随着计算机技术的发展和人工智能的普及,语音情感识别研究收到学界和工业届的广泛关注。从语音情感识别的起源、语音情感的分类,
2021-05-27 13:31:43 541KB 首发论文
1
语音情感识别Matlab程序,源代码通过特定人语音情感数据库的建立;语音情感特征提取;语音情感分类器的设计,完成了一个特定人语音情感识别的初步系统
2021-05-17 13:24:13 242KB Matlab语音
1
使用的是CASIA数据集进行与谱图转换后进行的rensnet50分类得到由于数据集合太小故而准确率只有70%
2021-05-13 16:25:00 581.97MB 语音情感识别
1
Multitask-Emotion-Recognition-with-Incomplete-Labels试讲(一小部分项目配置).avi
2021-05-10 09:03:25 56.82MB 情感识别 项目配置
对于语音的情感识别,针对单层长短期记忆(LSTM)网络在解决复杂问题时的泛化能力不足,提出一种嵌入自注意力机制的堆叠LSTM模型,并引入惩罚项来提升网络性能。对于视频序列的情感识别,引入注意力机制,根据每个视频帧所包含情感信息的多少为其分配权重后再进行分类。最后利用加权决策融合方法融合表情和语音信号,实现最终的情感识别。实验结果表明,与单模态情感识别相比,所提方法在所选数据集上的识别准确率提升4%左右,具有较好的识别结果。
2021-05-08 15:47:48 2.99MB 图像处理 情感识别 全卷积神 长短期记
1