IEMOCAP数据集下载.rar
2023-03-24 10:25:37 237B 数据集 IEMOCAP
1
“交互式情感二元运动捕捉数据库”(IEMOCAP),由南加州大学(USC)语音分析和口译实验室(SAIL)收集。该数据库是从脸、头和手上带有标记的二元会话中的十名演员记录的,这些标记提供了关于他们在脚本和自发口语交流场景中的面部表情和手部动作的详细信息。演员们表演了选定的情感脚本,还即兴创作了假设场景,旨在激发特定类型的情感(幸福、愤怒、悲伤、沮丧和中性状态)。语料库包含大约12小时的数据。详细的运动捕捉信息、引发真实情感的交互设置以及数据库的大小使该语料库成为社区现有数据库的一个有价值的补充,用于研究和建模多模式和表达性的人类交流。
2022-10-27 21:37:37 72B SER 语音情绪识别
1
iemocap_preprocess IEMOCAP数据集上的多峰预处理 上传_2:07.05.18 createInputs.py 生成模型的training_data.csv,valuation_data.csv和prediction_data.csv输入图 上传_1:19.04.18 extractmapCreator.py 产生extractmap_cut.xlsx execution time: 252.5967 sec extractSpectrogram.py 在.npy文件上生成指定的-from extractingmaps-频谱图 执行时间:5 x 170秒 总容量:5 x 3.3 GB 图片尺寸:(96,96) extractFace.py 在.jpg文件上生成指定的-from extractings-faces图像 执行时间处理时间: - 总
2021-12-09 10:19:42 39KB Python
1
对话图卷积神经网络pytorch代码实现(DialogueGCN),包含了IEMOCAP数据集和MELD数据集。
多模式语音情感识别和歧义解决 总览 从语音中识别情感是一项与情感本身含糊不清的定义有关的艰巨任务。 在这项工作中,我们建立了轻量级的多模式机器学习模型,并将其与较重且难以解释的深度学习对应模型进行了比较。 对于这两种类型的模型,我们都使用来自给定音频信号的手工制作的功能。 我们的实验表明,轻量级模型可以与深度学习基准媲美,甚至在某些情况下甚至可以胜过深度学习基准,从而在IEMOCAP数据集上实现了最先进的性能。 获得的手工特征向量用于训练两种类型的模型: 基于ML:逻辑回归,SVM,随机森林,极限梯度增强和多项朴素贝叶斯。 基于DL:多层感知器,LSTM分类器 该项目是滑铁卢大学CS 698-计算音频课程的一个课程项目。 有关详细说明,请查看。 数据集 数据集用于这项工作中的所有实验。 请参阅该,以获取对应用于数据集的预处理步骤的详细说明。 要求 所有实验均使用以下库进行了测试: xgboost == 0.82 火炬== 1.0.1.post2 scikit学习== 0.20.3 numpy == 1.16.2 jupyter == 1.0.0 熊猫== 0.24.1
2021-10-14 18:55:34 1.24MB scikit-learn pandas python3 pytorch
1
IEMOCAP数据集
2021-08-11 14:10:29 22.45MB #资源达人分享计划# IEMOCAP数据集
1
IEMOCAP数据集下载
2021-06-16 13:23:46 147B 数据集
1
masters_thesis:使用IEMOCAP数据集上的文本和听觉线索从语音中识别情绪的硕士学位论文
2021-03-29 10:35:40 96KB Python
1