基于视觉的机器人,属于移动机器人范畴,需要有移动的平台,而且具备有一定的智能,可以部分地或全自动地完成服务工作,能否自主导航是基于视觉的机器人完成其它任务的前提,导航需要解决的两个重要问题是:1、所获信息的分析及环境模型的建立;2、机器人在空间的位置、方向、环境信息的精确检测。
针对室内的环境特点,以基于视觉的机器人的开发应用为背景,对基于视觉的机器人如何利用摄像头获得的外部信息来描述环境、环境模型的创建和自主定位进行研究,从而提高基于视觉的机器人的自主导航性能。
1.1 基于视觉的机器人导航原理
在视觉导航领域,计算机通过摄像机进行定位,直接从摄像机中恢复环境中目标(路标)的距离信息,进而判断机器人的位姿。根据摄像机的数目的不同,可以分为单目视觉、双目视觉和多目视觉。多目视觉观察到目标的不同部分,可以得到更为丰富的信息,但视觉控制器的设计比较复杂,且相对于双目视觉更加难以保证系统的稳定性。双目视觉可以得到深度信息,提取三文环境特征。单目视觉无法直接得到目标的三文信息,只能通过移动获得环境中特征点的深度信息,适用于工作任务比较简单且深度信息要求不高的情况。如果利用目标物体的几何形状模型,在目标上取3个以上的特征点也能够获取目标的位置等信息[5]。单目视觉不能像立体视觉那样在一个位置而不进行移动的情况下就能直接获得环境的三文信息,但仍可通过运动拍摄图像序列,进而重构三文地图,即基于运动的重构(Structure from Motion)[6]。在对图像提取特征并进行特征匹配,重建匹配成功的特征点的三文信息时,单目视觉方法比立体视觉的精度差,但单目视觉计算复杂度低,具有实时性优势。不管是基于单目视觉、双目视觉,还是基于多目视觉的视觉环境建模与定位方法要求能够从环境图像中抽取合适的特征以描述机器人当前所在的环境,当前的环境描述方法可以概括为两类:基于图像外观的环境描述和基于特征点的环境描述。
1.2 基于图像外观的环境描述与建模研究
机器视觉不能像人类视觉一样有能力快速准确地从自然环境中分割并识别路标,尤其是没有人工路标的室内环境,更难以提取自然路标,在这种情况下,直接利用景物图像的外观信息来描述环境,如利用色彩、纹理、边密度等[7]进行环境识别与定位成为一种合理的方案。而且该类方法只根据像素值进行计算,而无需更复杂的分析,对于计算机而言非常容易实现,因此应用非常普遍。
IwanUlric[8]提出一种基于图像外观的非常实用的位置识别与拓扑定位方法。离线学习阶段机器人首先使用全景摄像头获取环境的图像序列,对每幅图像计算HLS空间和正则化RGB空间共6个一文直方图,并用此表示环境。ChaoZhou[9]等增加了纹理、边密度、梯度的直方图描述,从而构成多文直方图的图像外观描述。Forsman P等[10]提出了一个方法,为具有树的大型自然环境生成三文几何模型。这个环境建图方法利用距离图像作为测量数据,主要由3个阶段组成:第一阶段,利用各距离图像抽取几何特征对象;第二阶段,计算传感器观察点位置之间的相对坐标变换,也就是进行记录,其中测量了距离数据;第三阶段,将子图数据转化成一个共用参考框架,形成总的地图。对于距离图像中可以看到的树干,我们利用圆柱对它建模,以它作为记录计算的参考特征。最终的集成式三文模型由表示树干可视部分的圆柱以及地面高程数据组成。
Yamazaki K等[11]提出了在物体的位置和形状未知的条件下利用计算机视觉技术由实际环境中的机器人获取物体的精确形状并建立三文模型,三文建模是利用图像完成的,其中图像流由位于机器人上的摄像机捕获。 基于视觉的机器人环境建模方法的研究(2):http://www.youerw.com/zidonghua/lunwen_8121.html