面向语音与面部表情信号的多模式情感识别技术研究

基本信息
批准号:61503038
项目类别:青年科学基金项目
资助金额:19.00
负责人:韩志艳
学科分类:
依托单位:渤海大学
批准年份:2015
结题年份:2018
起止时间:2016-01-01 - 2018-12-31
项目状态: 已结题
项目参与者:尹作友,王健,王东,邰治新,魏洪峰,郭兆正,徐静,殷允飞,夏桂阳
关键词:
表情识别情感识别语音信号
结项摘要

Emotion recognition is the key scientific issue that must be solved in human-computer interaction. This project takes speech signal and facial expression signal as the research subjects, takes the extracting of features, the fusion algorithm of features and recognition algorithm as the research contents, and finally accomplishes recognition for six kinds of human emotion (joy, anger, surprise, sadness, fear, neutral). The marked characteristics of this study are: 1) A method which extracts speech emotion dynamic feature adaptively is proposed. The method improves the robustness, because it unites the time-frequency agglomeration performance for modulation spectrum and less sensitive to noise for MUSIC spectrum estimation. 2)A method which extracts facial expression feature by uniting minus model and PCA is proposed. The method reduces computation efficiently, has the ability to extract slight change of image. The ability chimes in with the characteristic that facial expression information is mainly reflected in the local. 3) Fusion algorithm based series-parallel combination (FASPC) is proposed. The method improves the accuracy of emotion recognition by giving full play to the advantages of decision level fusion and feature level fusion, and makes the whole fusion process close to human emotion recognition more. Research results will provide new methods into multimodal emotion recognition, promote the further development of human-computer interaction system, make a significant contribution to harmonious development of our society.

情感识别是人机交互领域中必须解决的关键科学问题。本项目以语音和面部表情信号为研究对象,以情感特征参数的提取和参数融合与识别算法为研究内容,实现对高兴、愤怒、惊奇、悲伤、恐惧和中性六种人类基本情感的识别。其显著特点是:1)充分利用了调制谱的时频集聚性和MUSIC谱对噪声敏感度低的特点,提出一种自适应的语音情感动态特征提取方法,提高了特征参数的鲁棒性;2)提出采用差值模版与PCA相结合的技术提取面部表情特征,有效地降低了运算量,且具有提取图像局部细微变化的能力,与面部表情信息主要体现在局部的特点相吻合;3)提出一种串并结合的多模式信息融合方法FASPC,充分发挥了决策层融合与特征层融合的优点,使整个融合过程更加接近人类情感识别,从而提高了情感识别的准确性。研究成果将为多模式情感识别提供新的研究方法,促进人机交互系统进一步深入发展,对我国社会和谐发展具有重要意义。

项目摘要

在人机交互中需要解决的问题实际上与人和人交流中的重要因素是一致的,最关键的都是情感智能的能力,计算机要能够更加主动地适应操作者的需要,首先必须能够识别操作者的情感。项目设计了一套基于语音和面部表情信号的多模式情感识别方法,充分利用了调制谱的时频集聚性和MUSIC谱估计对噪声敏感度低的特点,提出了一种自适应的语音情感动态特征提取方法,提高了特征参数的鲁棒性;在Bagging算法和AdaBoost算法的启发下,提出了一种串并结合的多模式信息融合方法FASPC,充分发挥了决策层融合和特征层融合的优点,使整个融合过程更加接近人类情感识别,从而提高了情感识别的准确性;在FASPC算法中,选择了两种不同类型的分类器,使个体分类器之间差异变大,集成效果变好。并通过双误差异性选择策略挑选出大于平均差异性水平的分类器用来做最终情感识别,降低了计算复杂度,提高了精度。该方法将对情感的研究从感性认知上升为可计算模型,对探索大脑对信息的分析和处理机理、进一步加深对大脑中情感概念的解析和理解,不但在理论上是可行的,而且可以形成富有特色的一类情感识别技术。其研究成果对提高我国工业产品的科技含量,建立良好和谐的人机交互环境,形成“感性工业”产业链起到积极意义。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

DOI:
发表时间:2022
2

居住环境多维剥夺的地理识别及类型划分——以郑州主城区为例

居住环境多维剥夺的地理识别及类型划分——以郑州主城区为例

DOI:10.11821/dlyj201810008
发表时间:2018
3

基于细粒度词表示的命名实体识别研究

基于细粒度词表示的命名实体识别研究

DOI:10.3969/j.issn.1003-0077.2018.11.009
发表时间:2018
4

基于分形维数和支持向量机的串联电弧故障诊断方法

基于分形维数和支持向量机的串联电弧故障诊断方法

DOI:
发表时间:2016
5

Himawari-8/AHI红外光谱资料降水信号识别与反演初步应用研究

Himawari-8/AHI红外光谱资料降水信号识别与反演初步应用研究

DOI:
发表时间:2020

韩志艳的其他基金

相似国自然基金

1

基于人脸表情、身体姿态和语音的多模态情感识别方法研究

批准号:61501249
批准年份:2015
负责人:闫静杰
学科分类:F0116
资助金额:19.00
项目类别:青年科学基金项目
2

基于语音信号和事件相关电位技术的多模态情感识别研究

批准号:61103074
批准年份:2011
负责人:赵子平
学科分类:F0605
资助金额:21.00
项目类别:青年科学基金项目
3

面向多语种语音数据的自适应情感识别算法研究

批准号:61703360
批准年份:2017
负责人:宋鹏
学科分类:F0605
资助金额:23.00
项目类别:青年科学基金项目
4

面向维度情感识别的多模态生理信号特征融合方法研究

批准号:61902187
批准年份:2019
负责人:范习健
学科分类:F0209
资助金额:25.00
项目类别:青年科学基金项目