Most existing specialized sensors measure air quality in a very small region, and usually are relative costly. In order to tackle these deficiencies, we propose a research plan based on visual air quality, to develop appropriate algorithms to extract all kinds of air quality related visual features from the imagery. The visual cues such as contrast, color, opacity, turbulence will be related to optical properties of the particulate matter such as extinction and scattering coefficients, optical density, refractive index correlation function, etc. Among those visual cues, visibility distance is the most important indicator that affects visual air quality. We will develop different methods to detect visibility distance in different application environments such as continuous video in fixed place and single image at any place. We will also investigate relationship between these visual cues and corresponding air quality index through machine learning algorithms, in order to estimate the air quality index of the current scene. Compared with existing air quality monitoring methods, the proposed method have many advantages, such as intuitive estimation result, much larger observation range, unprecedented spatial and temporal detail, low-cost installation, and easy for mass deployment, thus is expected to become an important complement to the existing air quality monitoring methods.
针对现有空气质量检测设备单位成本高、采样空间小的不足,本项目提出一项基于视觉空气质量的研究计划,旨在开发相应的算法,从图像数据中提取反映空气质量的各类视觉特征。图像中的大量视觉线索,如能见度、对比度、颜色、透明度、大气扰动等,都与大气颗粒物的各类光学特性相关,如消光系数、散射系数、光学深度、反射系数等。其中能见度是反映视觉空气质量最重要的一项指标,本项目以基于图像的能见度检测为基础,提出不同方法以适应固定位置连续拍摄、任意位置单帧拍摄的应用要求。进而通过机器学习算法,建立上述视觉线索与对应的空气质量之间的关系,以此来估计当前场景的空气质量指数。相对于现有的各类空气质量监控方法,本项目提出的方案具有估测结果简单直观、观测范围大、数据时空信息丰富、布置成本低、易于大批量使用等众多优点,有望成为现有空气质量监控方法的一种重要补充。
针对现有空气质量检测技术成本高、检测精度低等问题,本项目提出一项基于图像检测空气质量的研究计划,即利用相机拍摄场景获取图像,通过图像提取表征空气质量特性的特征,利用机器学习算法对该特征进行学习和分类从而实现空气质量等级的估计。本项目研究主要分为三个部分。第一部分利用视觉特征估计空气质量等级。视觉特征包括SIFT、HOG等6类特征,这些特征描述了图像的表面性质。为了研究视觉空气质量检测方法,本项目搭建了一个场景图像数据库VAQI-1。在VAQI-1的图像上提取上述6类特征,应用支持向量机(SVM)对这些特征进行学习和分类,得到对应的空气质量估计结果。实验结果表明基于视觉特征的估计准确率普遍不理想,最高仅达42%。这表明单纯视觉特征无法充分表征空气质量特性。第二部分利用能见度估计空气质量等级。能见度描述了场景最大可视范围,可直观表征空气质量。本项目提出一种仅通过单张图像即可估算场景能见度的方法,并应用SVM估计对应场景的空气质量等级。实验结果表明能见度表现要优于视觉特征,其估计准确率可达58%。然而极端天气下仅用能见度仍无法准确估计空气质量等级。因此,本项目将能见度与6类视觉特征组合用于估计空气质量等级。实验结果表明能见度与色彩饱和度的组合对应的估计准确率最高(可达65%)。这一结果表明该组合能一定程度表征空气质量特性。为了进一步提升估计准确率,本项目进行第三部分研究,即利用图像的深度特征估计空气质量。该部分采用卷积神经网络提取图像的深度特征,用到的网络有LeNet、AlexNet等5个网络。基于VAQI-1,本项目分别利用上述模型提取深度特征,并利用SVM估计空气质量等级。实验结果表明GoogLeNet提取的深度特征对应的估计准确率最高(可达76%),高于视觉特征和能见度特征的估计准确率。研究结果表明在所采用的各类估算方法里,GoogLeNet提取的深度特征最能够表征空气质量特性。本项目研发的空气质量等级估计方法有望成为现有空气质量观测技术的重要补充。
{{i.achievement_title}}
数据更新时间:2023-05-31
粗颗粒土的静止土压力系数非线性分析与计算方法
基于SSVEP 直接脑控机器人方向和速度研究
中国参与全球价值链的环境效应分析
基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例
基于细粒度词表示的命名实体识别研究
摄像视频的人眼视觉表征及交通能见度检测方法研究
基于鱼眼视觉的移动机器人运动估计及其视觉伺服控制研究
基于3D视觉的人体姿态分布式估计
基于语义和视觉差异的网络异常检测