Visual servoing of mobile robots uses real-time feedback of visual information to achieve trajectory tracking or stabilization tasks, and thus it has promising applications in several areas such as automatic parking/charging, transportation of objects, and so on. Due to the well-known nonholonomic constraint and the uncertain characteristics of monocular visual signals, it is still a very challenging theoretical problem to design a highly efficient and robust visual servoing strategy. This project aims to propose an optimized uncalibrated visual servoing scheme with quasi-human driving characteristics, which can be applied in both planar and non-planar scenes with improved efficiency and strong robustness to unknown camera parameters. Specifically, this project will study the following respects: extraction and analysis of trajectories with quasi-human driving characteristics; optimal identification of camera parameters based on active controller design for the pan-tilt unit and the mobile robot; the pose estimation technique which is not restricted to a specific kind of scene; adaptive/robust visual servoing controller design with inaccurate camera parameters; simultaneous camera parameter identification and visual servoing based on an autonomous interaction mechanism. According to the research for this project, an effective solution to control design for a class of nonholonomic systems with uncertainties will be provided, and it is possible to apply these resulting technologies into the areas of family service and industrial manufacturing in practice.
移动机器人视觉伺服是指利用实时视觉反馈,控制机器人跟踪指定轨迹或到达期望位姿,在自动泊车/充电、物品搬运等方面具有广泛的应用前景。由于非完整约束条件的限制,以及单目视觉信号的各种特性,设计高效、鲁棒的移动机器人视觉伺服策略,在理论方法上也是一个极具挑战性的问题。本项目旨在提出一种基于人类驾驶行为的移动机器人视觉伺服策略,从而提高其运行效率,增强其对摄像机参数未知等因素的鲁棒性,并打破位姿估计算法对应用场景的限制。具体而言,本项目将针对如下内容进行研究:具有人类驾驶特征的运动轨迹实时提取与分析;基于云台与机器人主动控制器的摄像机参数最优辨识;能够打破场景限制的位姿估计算法;摄像机参数存在辨识误差时的自适应/鲁棒视觉伺服控制器;基于自主交互机制的同时摄相机参数辨识与视觉伺服。力争通过本项目的研究,解决一类不确定非完整系统的视觉伺服问题,并促进其在家庭服务、工业生产等场合中的实际应用。
本项目针对非完整约束轮式移动机器人,围绕视觉位姿估计方法以及视觉伺服控制器设计等方面展开了研究,取得了一系列研究成果,简要介绍如下。. 1. 基于极坐标的自适应视觉伺服镇定控制器设计。由于极坐标表示的误差与人类驾驶的感知误差具有一致性,因此基于极坐标的视觉伺服方法可以得到较为自然、高效的轨迹。大量实验结果表明所提方法在运动轨迹以及参数调节等方面的优良性能。. 2. 摄像机内参数无标定情况下的视觉伺服策略设计。设计了一种三阶段的视觉伺服控制方法,即旋转-平移-旋转控制。在第一个阶段,无标定的情况下,设计纯旋转运动控制使其朝向指向期望位置,同时,完成摄像机参数的辨识。之后,利用辨识的参数,完成视觉伺服任务。. 3. 基于运动规划的视觉伺服策略。先进行“思考”环节,即运动规划,然后再根据规划结果进行跟踪控制,是机器人工作的重要框架。本项目将视野约束、非完整约束、工作空间约束、速度/加速度约束等纳入考虑,进行了图像空间运动规划,然后设计了自适应视觉伺服方法,取得了良好的实验效果。. 4. 视觉伺服同时跟踪与镇定。提出了一种统一的跟踪与镇定视觉伺服策略,在这个意义下镇定控制可视作轨迹跟踪的特殊情况,即期望轨迹上的速度恒为零. 设计了自适应控制器,并用理论分析、仿真与实验证明了所提方法的有效性。. 5. 移动机器人新型视觉位姿估计方法研究。平面运动约束下,提出了一种基于多单应矩阵融合、且在平面与立体场景中均适用的鲁棒位姿估计方法。 . 6. 相关方法与技术在其它领域的扩展,如在移动机器人运动规划,多摄像机传感网络覆盖,自动吊车消摆运动规划技术,全方位移动机器人航位推算,PTZ相机自动标定等。. 项目按照计划书要求执行,完成了计划书所列研究内容,达到了预期指标。在本项目的支持下,在国内外知名学术期刊与会议上发表论文30篇,其中期刊论文14篇,SCI论文7篇,包括5篇IEEE Transactions系列论文。围绕视觉伺服方面的研究得到了广泛的认可,项目负责人作为第2完成人,获得了天津市自然科学二等奖。申请发明专利1项。参与了包括ICRA, IROS, IFAC, CDC, CCC, CCDC在内的多个国内外学术会议进行了交流。
{{i.achievement_title}}
数据更新时间:2023-05-31
正交异性钢桥面板纵肋-面板疲劳开裂的CFRP加固研究
基于SSVEP 直接脑控机器人方向和速度研究
端壁抽吸控制下攻角对压气机叶栅叶尖 泄漏流动的影响
气载放射性碘采样测量方法研究进展
基于ESO的DGVSCMG双框架伺服系统不匹配 扰动抑制
面向模具保护的无标定视觉伺服控制方法研究
复杂环境下机器人高精度无标定视觉伺服控制
微小移动机器人视觉伺服自主作业模式与行为模型研究
基于鱼眼视觉的移动机器人运动估计及其视觉伺服控制研究