This project focus on the robot's simultaneous mapping and localization (SLAM) problems, such as the consistency of the map and its real-time problem, in the dynamic, complex, and unknown environments when only the vision sensor is used.In this project, we do an indepth research about the robustness of the feature description,the exactly duplicated feature detection and the map representation. The research consists of several aspects, such as the feature uncertainties research on the vision feature point in depth and inverse depth presentation, the research on the expression of the feature point with the angle difference for the same feature, the binary description for the feature, the study of the algorithms of the same feature detection which uses the probabilistic RANSAC(RANdom SAmple Consensus) algorithms and the binary feature description's attribution, and the analysis of the distance grid mapping's representation and the map's updating methods. On this basis the graphic model is used to do the optimization of the global mapping and the robot's path estimation. Besides, the robot position drift and error estimation is improved by the loop detection in the graphic model. Meanwhile, the manifold method is used to optimize the global map. Altogether, this project will propose an effective method, which can realize the real time SLAM with the use of the only vision camera. The importance contribution of the project is that the SLAM process can build the environment's information for mapping. In addition, it can improve the mapping and location's consistency especially in dynamic dense environment. Therefore, the research of the project is meanfull for the robot SLAM and the high level robot task, and it can offer some usefull information for the development of the low cost robots.
本项目针对动态、复杂和未知环境下,单独利用视觉传感器进行移动机器人SLAM过程中地图估计的收敛性和实时性问题展开研究。对动态复杂未知环境下特征点的鲁棒性表示,精 确匹配算法,地图表示方法以及生成地图的收敛性进行了深入研究。具体包括:视觉特征点在深度、反向深度表示下的不确定性研究,基于检测视差角的特征点表示研究,二值特征描述子的表示方法研究;基于概率RANSAC算法和二值特征描述子相结合的特征点匹配算法研究,基于距离网格地图的表示和更新方法研究。在此基础上,研究单独利用视觉传感器构建全局地图和路径估计的图模型,利用流形方法进行全局地图的优化。本项目的研究尤其针对动态、复杂和未知环境,强调移动机器生成地图的收敛性和实时性以及对动态环境适应的鲁棒性,本项目的研究对移动机器人单独利用视觉传感器进行高层次任务的实现具有重要的理论价值,对低成本移动机器人的研究具有积极的推动作用。
本项目针对自然环境下,移动机器人在进行任务执行过程中所遇到的实际环境(动态--机器人运动过程中有动态物体进行干扰,比如,人、机器人等;复杂--室内场景多变、杂乱)中的鲁棒性SLAM算法进行研究。Kinect传感器可同时提供深度数据和RGB数据;RGB数据可以反应场景的纹理信息,但是Kinect摄像机的深度数据不够完全,而采用单目进行SLAM时涉及到尺度不确定性问题。 本项目主要内容包括:.1):对使用Kinect所采集到的深度数据和低照度下RGB数据进行增强技术研究。对Kinect采集的深度数据,利用RGB数据作为参考,采用区域一致性算法对缺失的深度数据点进行深度数据估计;对低照度RGB数据,利用去雾技术的低照度图像增强算法对噪声进行分析,完善低照度反转模型,提出基于该模型的同步低照度图像增强和去噪算法。.2):为使得机器人在自然环境下利用RGBD数据构建SLAM满足实时性,重点研究基于Octree的地图构建方法。包括三维点的空间更新方法、数据滤波方法、降采样方法等;同时,对环境中的动态障碍物,采用双高斯模型进行动态物体的跟踪检测,利用该信息将SLAM过程中的特征点进行约束处理,提升SLAM对该环境的鲁棒性。利用ORB特征和关键帧选取的方法,提升SLAM的实时性,利用全局优化思想进行SLAM的全局优化,提升结果的鲁棒性。.3):利用RGBD数据进行室内场景的语义分割和人机交互技术研究。在人机交互研究中,分别采用传统特征提取方法和深度学习方法进行模型训练,传统方法中充分考虑局部动作中身体关节的相关性;深度学习方法中利用3D CNN进行序列特征提取。在语义分割中采用超像素和CNN像素级相结合的标注方法,利用条件随机场进行场景的精确分割。该分割信息可以指导机器人在SLAM过程中的特征点选取,有助于提升SLAM的准确性。.本项目执行期间,发表SCI论文6篇,IROS、AIM、ICIP、ICPR、ROBIO、CCCV等会议论文8篇,获得授权发明专利5项。.本项目研究形成一套集数据采集预处理、动态环境适配的SLAM和语义分割为一体的框架,在此基础上,可以借助深度学习技术对环境进行精确化理解,并进行机器人高级任务的执行研究(基于语义地图的路径规划、局部操控等)。
{{i.achievement_title}}
数据更新时间:2023-05-31
玉米叶向值的全基因组关联分析
基于一维TiO2纳米管阵列薄膜的β伏特效应研究
氟化铵对CoMoS /ZrO_2催化4-甲基酚加氢脱氧性能的影响
基于 Kronecker 压缩感知的宽带 MIMO 雷达高分辨三维成像
基于SSVEP 直接脑控机器人方向和速度研究
未知环境下基于陆标动态配置的移动机器人主动同时定位与地图创建
未知环境下轮式移动机器人视觉稳定控制方法研究
复杂动态环境下参数不确定轮式移动机器人运动控制方法研究
融合鼠脑多细胞导航机制的移动机器人仿生SLAM算法研究