拟建立一个融合发音特征和面部表情特征的听视觉情感描述模型,该模型把人类带有情感的讲话中,情感、发音器官状态、面部表情器官状态和音视频观测量,有机地融合到一个模型框架中去,为其动态关系建模,而且允许发音器官和面部表情器官的运动在整个语句内异步,从而尽可能合理充分地描述音视频所携带的情感信息。为评价模型的正确性与有效性,拟推导听视觉多模态情感识别算法,进行情感识别实验;推导与语音及情感变化相一致的面部动画参数学习算法,构建带有表情的面部动画,并评价其自然性和表达情感的有效性。最后,作为听视觉情感描述模型的应用实例,将构建一个具有情感感知和情感表达能力的说话人面部动画系统。此听视觉情感描述模型包含信息量大,可扩展性强,克服了现有听视觉情感识别中,没有考虑语调表情和视觉表情的紧密耦合和异步关系的缺点;克服了情感面部动画合成中,过于简化说话内容和情感对面部参数的影响,以及音频视频单元不匹配的缺点。
{{i.achievement_title}}
数据更新时间:2023-05-31
基于国产化替代环境下高校计算机教学的研究
一种基于多层设计空间缩减策略的近似高维优化方法
二维FM系统的同时故障检测与控制
扶贫资源输入对贫困地区分配公平的影响
基于直观图的三支概念获取及属性特征分析
情感表达增强的图像描述研究
融合多视觉对象的行为分析与语义描述
真实自发情感的听视觉多模态实时心理学连续维度分析
基于听视觉特征和用户实时表情的个性化视频情感语义分析研究