视觉跟踪技术在军事和民用方面用途非常广泛,在视频监控和智能交通系统等方面的应用中,对视觉跟踪算法的快速性和鲁棒性有着很高的要求,本项目将针对这两个方面的要求展开深入研究。当前,大部分视觉跟踪算法都采用粒子滤波或Mean-shift方法进行搜索,但这两类方法都是基于目标在空间和尺度上具有连续性的假设前提下,而实际视频序列并不总是满足这一假设,如目标被遮挡或突然消失,因此造成跟踪失败。本项目拟采用基于多特征融合的全局最优快速穷搜索方法,从理论上突破了连续性假设条件的约束,从而克服粒子滤波和Mean-shift方法面临的跟踪难题。在跟踪过程中,采用融合空间和颜色信息的新直方图特征,充分考虑目标旋转和尺度变化,并选择恰当的模板和模板更换时机,最终实现对图像序列中任意感兴趣目标快速鲁棒的视觉跟踪。本项目的开展和预期成果将在提高视频监控和智能交通系统的自动化水平等许多方面,具有重要理论意义和实用价值。
本项目为提高视觉跟踪算法的快速性和鲁棒性,采用了基于多特征融合的全局最优快速穷搜索的解决思路,重点针对目标旋转和尺度变化,运用多特征融合和模板更新方法,深入研究了视觉跟踪问题。对跟踪任意旋转方向目标的快速穷搜索算法进行了研究,提出了Line Histogram方法,能够完成跟踪中旋转变化目标的角度估计,计算效率较高;针对传统积分直方图处理旋转变化目标的不足提出了基于旋转不变直方图的目标跟踪方法。对跟踪中目标尺度自适应调整问题进行了研究,提出了目标多尺度模型的概念;引入对数极坐标变换,提出了椭圆对数极坐标变换的方法用于尺度变化目标的跟踪,在此基础上借助显著性检测进一步提高了跟踪算法鲁棒性。对视觉跟踪中的多特征融合问题进行了研究,提出了基于区域边缘直方图的图像特征描述新方法;利用特征不确定性度量原理对两种和多种特征的融合跟踪问题进行了研究,增强了跟踪精度和鲁棒性;对基于特征匹配的目标跟踪算法进行了研究,提出了基于特征联合匹配的目标跟踪算法;对基于光流检测的目标跟踪算法进行了研究,提出了融合颜色不变量的彩色图像光流估计算法,通过结合光流场和图像分割实现基于检测的跟踪。对跟踪过程中的模型更新问题进行了研究,针对模型更新的策略与时机选择问题,提出了基于在线学习的模型更新方法和改进的选择性子模型更新方法。为进一步提高跟踪算法的快速性,对基于快速傅里叶变换的穷搜索算法进行了研究。对基于中层视觉线索的目标跟踪算法进行了研究,提出了基于在线学习判别式模型的目标跟踪算法和基于分水岭区域匹配的目标跟踪算法。.项目共发表论文51篇,其中SCI检索3篇,EI期刊检索19篇,EI国际会议检索12篇,核心期刊16篇,国内会议4篇。培养博士研究生1名,硕士研究生6名,1篇博士学位论文和1篇硕士学位论文被评为空军工程大学优秀学位论文。本项目的研究成果在提高视觉跟踪、视频监控以及智能交通系统自动化水平等许多方面,具有重要的理论意义和实用价值。
{{i.achievement_title}}
数据更新时间:2023-05-31
基于SSVEP 直接脑控机器人方向和速度研究
拥堵路网交通流均衡分配模型
基于多模态信息特征融合的犯罪预测算法研究
水氮耦合及种植密度对绿洲灌区玉米光合作用和干物质积累特征的调控效应
惯性约束聚变内爆中基于多块结构网格的高效辐射扩散并行算法
多特征融合的结构稀疏、低秩学习的鲁棒视觉跟踪
基于多特征视觉和多源信息融合的焊道识别智能方法及鲁棒性研究
基于在线判别学习的鲁棒视觉跟踪算法研究
面向鲁棒目标跟踪的CNN特征联合表示与融合方法研究