关键词:
目标抓取
机械臂标定
视觉感知
触觉感知
柔顺控制
摘要:
随着越来越多地智能机器人应用于各个领域,抓取操作作为机器人领域中的研究热点,实现机器人的智能抓取对机器人的快速发展和商业落地具有十分重要的意义。目前机器人抓取研究距离实现真正的智能化还有一定的差距,主要存在三个问题:(1)机器人抓取物体前需要建立精确的系统模型,很多研究中忽略了机器人本身的定位误差,导致机器人抓取物体时的实际位置与期望位置出现偏差;(2)传统的机器人目标抓取方法需要抓取物体的精确几何模型信息,无法用于非结构化的真实场景,在多种未知场景中自主检测、搜索并抓取目标物体是目前智能机器人抓取操作面临的最大难题;(3)由于指尖触觉/力传感器的成本及灵敏度的限制,目前许多机械手不具备灵敏的触觉/力感知能力,而在现实环境中存在的许多物体对抓取力的要求非常高,特别是柔软物体和易碎物体,抓取力过大将损坏抓取物体。为了使智能机器人精确、自主、安全的抓取非结构化环境中的物体,并广泛增加可抓取的物体类型,针对以上三个问题,本文对智能机器人目标抓取的三个关键技术进行了系统的研究,包括:机器人运动学及视觉系统标定方法、基于视觉感知的智能机器人目标检测及抓取方法和基于触觉感知的机械手柔顺抓取控制方法。首先,为了提高智能机器人抓取物体时的末端定位精度,提出了一种低成本易操作的基于直线虚拟约束的机械臂运动学标定方法。利用改进的DH方法建立了机械臂的运动学模型,在基于改进DH方法的误差模型的基础上建立了基于直线约束的运动学误差模型,利用基于图像的视觉控制方法实现了标定位姿的自动对齐。设计了机械臂运动学标定实验系统,机械臂运动学标定实验结果表明该算法有效地提高了机械臂的末端定位精度。此外,研究并实现了机器人视觉系统的建模及标定方法,包括相机建模及标定、“眼在手外”系统标定和“眼在手上”系统标定,得到了精确的机器人视觉系统模型及关系矩阵。其次,为了使智能机器人在非结构化的真实场景中自主检测并抓取目标物体,设计了基于视觉的智能机器人物体抓取系统,研究了基于RGB图像的物体检测算法,实现了对相机采集的RGB数据流的实时检测。研究并实现了深度图像和RGB图像的配准及深度图像修复方法,提高了深度信息的准确性。此外,提出了一种基于检测约束的无旋转目标抓取算法,设计抓取位姿估计算法,直接根据物体检测结果估计目标物体的抓取位姿,在非结构化的真实场景中成功实现了多种类型的目标物体的检测及抓取操作。再次,针对未知场景中目标物体可能被部分或完全遮挡的问题,需要机器人既能检测和抓取目标物体,也要能够抓取或移除无法识别的可抓取物体。本文提出了一种考虑旋转的目标检测及抓取方法:通过两点式对抓取进行表示,考虑了机械手的旋转角度;研究了基于卷积神经网络的抓取位姿生成算法,对输入的深度图像快速有效地生成抓取位姿;设计了未知场景中的目标检测及抓取算法结构。机器人目标抓取实验结果表明,该算法能够有效地在多种未知场景中搜索并抓取目标物体,并且与基于检测约束的无旋转目标抓取算法相比,进一步提高了目标抓取的成功率。最后,为了实现智能机器人对不同特性的物体安全稳定的抓取操作,避免抓取操作对物体的损坏,特别是柔软物体和易碎物体,设计了一种基于水凝胶材料的新型柔性电子皮肤式触觉传感器,该传感器具有灵敏的力感知能力,且成本较低、方便使用,可以直接穿戴在机器人上感知机器人与环境的接触信息。研究了基于触觉传感器的机械手柔顺抓取算法,在机械手抓取物体时控制抓取力。将触觉传感器集成在只能进行位置控制的Kinova KG-3机械手上,进行了基于触觉感知的机械手柔顺抓取控制实验,赋予了机械手抓取柔软易碎物体的能力,成功实现了对葡萄、豆腐、鹌鹑蛋、薯片等易碎易损坏物体安全的抓取操作。