语音及情感语义同步的三维人脸可视化:从发声器官到外观

基本信息
批准号:61472393
项目类别:面上项目
资助金额:80.00
负责人:汪增福
学科分类:
依托单位:中国科学院合肥物质科学研究院
批准年份:2014
结题年份:2018
起止时间:2015-01-01 - 2018-12-31
项目状态: 已结题
项目参与者:郑重,刘宜,乌达巴拉,江辰,李贤,李睿,张敬,刘卫,蔡斌
关键词:
可视化人脸动画虚拟现实
结项摘要

The project focuses on the problem of multimodal human machine interaction. We will do research on speech and emotional semantic tagging synchronized 3D facial visualization. It is expected to achieve the following goals: by making full use of multiple pronunciation related information acquisition devices including the Magnetic Resonance Imaging (MRI), the Electro-Magnetic Articulography (EMA) and the X-ray imaging, we will present a facial animation generation scheme driven by text or (and) speech, and construct a high realistic and speech and emotional semantic tagging synchronized 3D facial visualization system which can run in real-time and show the detailed dynamic process of pronunciation from internal articulators to external appearances. In order to solve the problems between realizability and high degree of natural, and computational complexity and real-time in process of system implementation, we will address the problems such as sensor date fusion of multiple articulators, facial animation based on 3D head model, 3D dynamic modeling of articulators, and cooperative relation modeling between articulators and speech, form the corresponding key techniques and use them to construct vivid speech and emotional semantic tagging synchronized 3D facial visualization system and provide a concrete foundation for applications.

本项目从多模态人机交互问题入手,系统开展语音及情感语义同步的三维人脸可视化研究。总体研究目标如下:充分利用核磁共振成像(MRI)、电磁发音数据采集(EMA)和X光成像等多种发音信息获取手段,设计并实现文本和语音多种输入驱动的三维人脸动画合成方案,实际构建出语音和语义情感同步的、能够从内到外展示发音过程的实时高自然度三维情感人脸动画合成系统。针对系统实现过程中所面临的可实现性与高自然度之间、计算复杂度和实时性之间存在的矛盾和难题,从系统的角度,对多源发音数据融合、基于三维模型的人脸动画合成、三维发音器官运动建模、发音器官和语音的协同关系建模等诸问题进行深入研究,形成与之相关的关键技术并实际构建出以这些关键技术为基本构成元素的、绘声绘影的语音三维可视化系统,为研究走向实用化奠定基础。

项目摘要

本项目从多模态人机交互问题入手,系统开展了语音及情感语义同步的三维人脸可视化研究 。实现了如下总体研究目标:充分利用核磁共振成像(MRI)、电磁发音数据采集(EMA)和X光成 像等多种发音信息获取手段,设计并实现了文本和语音多种输入驱动的三维人脸动画合成方案,并实际构建了语音和语义情感同步的、能够从内到外展示发音过程的实时高自然度三维 情感人脸动画合成系统。针对系统实现过程中所面临的可实现性与高自然度之间、计算复 杂度和实时性之间存在的矛盾和难题,从系统的角度,对多源发音数据融合、基于三维模型的人脸动画合成、三维发音器官运动建模、发音器官和语音的协同关系建模等诸问题进行了深入研究,形成了与之相关的关键技术并实际构建出了以这些关键技术为基本构成元素的语音三维可视化系统,为研究走向实用化奠定了坚实的基础。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

基于协同表示的图嵌入鉴别分析在人脸识别中的应用

基于协同表示的图嵌入鉴别分析在人脸识别中的应用

DOI:10.3724/sp.j.1089.2022.19009
发表时间:2022
2

高光谱图谱融合检测羊肉中饱和脂肪酸含量

高光谱图谱融合检测羊肉中饱和脂肪酸含量

DOI:
发表时间:2020
3

Ordinal space projection learning via neighbor classes representation

Ordinal space projection learning via neighbor classes representation

DOI:https://doi.org/10.1016/j.cviu.2018.06.003
发表时间:2018
4

人类面部属性估计研究:综述

人类面部属性估计研究:综述

DOI:10.13328/j.cnki.jos.005837
发表时间:2019
5

基于纳米铝颗粒改性合成稳定的JP-10基纳米流体燃料

基于纳米铝颗粒改性合成稳定的JP-10基纳米流体燃料

DOI:
发表时间:2021

汪增福的其他基金

批准号:60455001
批准年份:2004
资助金额:20.00
项目类别:专项基金项目
批准号:60875026
批准年份:2008
资助金额:30.00
项目类别:面上项目
批准号:69975019
批准年份:1999
资助金额:14.00
项目类别:面上项目

相似国自然基金

1

能说会唱的三维虚拟人头:语音、歌声和情感语义同步的人脸及发音器官可视化研究

批准号:61572450
批准年份:2015
负责人:於俊
学科分类:F0209
资助金额:66.00
项目类别:面上项目
2

语音同步的高真实感三维人脸情感动画研究

批准号:61303150
批准年份:2013
负责人:於俊
学科分类:F0209
资助金额:25.00
项目类别:青年科学基金项目
3

基于人脸表情、身体姿态和语音的多模态情感识别方法研究

批准号:61501249
批准年份:2015
负责人:闫静杰
学科分类:F0116
资助金额:19.00
项目类别:青年科学基金项目
4

情感语音音色分析及补偿方法研究

批准号:61771472
批准年份:2017
负责人:刘斌
学科分类:F0117
资助金额:62.00
项目类别:面上项目