关键词:
RBG-D
遮挡堆叠
贝叶斯最近邻
主动识别
机器人抓取
摘要:
随着RGB-D传感器和机器人技术的发展,基于立体视觉的服务机器人得到越来越多的应用。由于服务机器人所处实际环境中存在光照、遮挡、堆叠等大量不确定性因素,给机器人的视觉感知带来了不小的挑战。与传统计算机视觉不同,机器人视觉在识别物体的同时需要估计其6自由度位姿,为机器人后续的抓取等操作提供先验信息。另外,为了机器人与外界更好的交互,系统实时性也是需要重点考虑的因素之一。针对上述问题,利用机器人的可移动性,前人在研究各种单一视角识别算法的同时,提出了多视角主动识别,用以解决场景遮挡带来的问题。但是对于复杂堆叠环境,不同视角下能获取场景物体的表面信息仍然有限,而且实际应用中也往往存在着运动约束、可视约束等局限性。本文主要围绕智能机器人抓取任务,基于三维彩色点云,对遮挡、堆叠等复杂环境下如何有效识别与定位场景物体进行研究。考虑点云物体识别流程的精确性与实时性,本文设计了一种由粗到精的识别框架,在快速识别场景物体的同时,保证了物体识别和位姿计算精度。另外,在场景分割、物体识别的基础上,对输出结果进行分析与综合,通过遮挡检测与假设置信度分析,为机器人操作提供更高层次的场景信息。本文的主要研究内容如下:1.提出了一种简单快速的模型库建立方法。基于二维图像色彩纹理和三维点云几何结构定义了用于识别的广义特征向量,并对待抓取的物体各个视角进行了数据采集、特征提取与训练,构建了稀疏特征模型库。基于运动恢复结构(Structure From Motion或简称SFM)建立了每个物体的三维稠密模型,通过优化算法保证其视觉完备性。2.基于训练模型库和广义特征,提出了由粗到精(Coarse to Fine)的点云物体识别框架。采用自下而上的点云分割方法,在超体素聚类基础上,根据凹凸性与平滑性准则进行曲面合并,结合图割的思想完成场景分割。对朴素贝叶斯最近邻算法进行了改进,重写了广义特征向量,有效降低了识别算法的复杂度。在粗识别快速提供候选模型的基础上,精细识别则通过匹配点检测、几何一致性检验、模型到场景验证等多重手段,保证了物体识别与6自由度位姿计算的准确性。3.提出了高层次场景分析与主动识别的方法。基于距离图像和三维点云,给出了物体边界点的定义与分类准则,建立了场景物体之间的遮挡拓扑关系。根据场景识别流程与物体遮挡关系,从机器人抓取角度定义了物体置信度表示方法。结合场景分析信息,建立了低置信度点云的包围盒,利用机器人对环境的可操作性,对场景进行重新排布,改变物体摆放方式,进行再次识别,完成抓取任务。4.搭建了机器人识别系统的软、硬件环境,针对相关算法进行了仿真与实验。根据识别结果与三维稠密模型,基于ROS(Robot Operate System)环境的Gazebo工具包,对场景进行重构。在权威数据集和实际环境中进行了测试,实现了机器人对复杂环境物体的灵活抓取。综上,针对智能机器人抓取任务,本文提出一种结合视觉感知,机器人操作和环境信息的主动识别方法。该系统在没有人为干预的前提下,能够有效处理复杂场景,为物体抓取提供更加准确而丰富的信息。本文设计的机器人抓取系统不仅具备基本的感知能力,还具备部分高层次的环境认知能力,可以有效提高系统的灵活性与稳定性。