“交互式情感二元运动捕捉数据库”(IEMOCAP),由南加州大学(USC)语音分析和口译实验室(SAIL)收集。该数据库是从脸、头和手上带有标记的二元会话中的十名演员记录的,这些标记提供了关于他们在脚本和自发口语交流场景中的面部表情和手部动作的详细信息。演员们表演了选定的情感脚本,还即兴创作了假设场景,旨在激发特定类型的情感(幸福、愤怒、悲伤、沮丧和中性状态)。语料库包含大约12小时的数据。详细的运动捕捉信息、引发真实情感的交互设置以及数据库的大小使该语料库成为社区现有数据库的一个有价值的补充,用于研究和建模多模式和表达性的人类交流。
1