关键词:
机器人-环境交互
宽度学习
增量运动控制
阻抗控制
动态系统
摘要:
协作机器人不仅需要具备强大的可控性和灵活性,更需要具备自主作业的能力以应对复杂作业任务。然而,目前的机器人控制系统面临着运动编程效率低、控制柔性不足等问题;此外,传统柔顺控制方法过度依赖传感器及环境模型,已经难以满足日益复杂的工作任务需求。因此,如何提高机器人系统的技能学习、泛化和交互能力已经成为适应新一代协作机器人发展的关键举措。本文一方面设计机器人的增量运动控制器,重点解决传统神经网络控制器中节点参数难以确定、适用性单一等问题,提高机器人运动控制中的学习与泛化能力。另一方面,针对机器人与环境交互过程中阻抗模型难以获取问题,研究模型未知情况下的机器人柔顺运动控制策略,开发高效、安全的机器人-环境交互技术。具体来说,本文的主要研究内容包括以下三个方面:一、高效的类人化运动控制以及技能学习能力对智能机器人实现复杂任务具有十分重要的作用,本文基于宽度神经网络,提出一种基于宽度学习的增量运动控制方法。首先,基于宽度神经网络出色的学习与泛化能力,结合障碍李雅普诺夫函数和误差约束函数,设计适用于不同任务轨迹下的增量运动控制器,同时解决传统神经网络中心点参数难以设计的问题。然而,由于宽度神经网络的节点数是动态可变的,神经网络紧集的大小难以确定,导致神经网络的逼近精度难以保证。本文通过设计切换函数和虚拟动态神经网络紧集,保证宽度神经网络控制器的全局一致最终有界稳定,从而实现全局稳定的增量运动控制。最后,引入确定学习理论和持续激励条件,通过对不同轨迹进行增量学习,得到增量运动控制器,再把权值收敛后的神经网络控制器复用到新的任务轨迹,从而实现高效、智能的运动轨迹泛化。二、先进的自适应阻抗控制技术是实现机器人与环境友好、安全交互的前提,当机器人与环境交互时,期望任务轨迹将会由于外界干扰受到改变,原来控制器的性能可能受到影响。此外,实际的环境模型难以获得,实现未知环境下的柔顺控制是一门具有挑战性的课题,因此,本文设计一种基于宽度模糊神经网络以及状态受限的自适应阻抗控制器。首先,通过设计机器人与环境交互的代价函数,通过策略迭代学习方法求解环境的最优模型,得到最优的阻抗增益,实现面向未知环境下的最优阻抗控制;同时设计一个软函数,解决由于阻抗参数突变而引起的控制抖动问题;最后,根据系统输入的运动轨迹和机器人状态,自适应调节宽度模糊神经网络中的特征节点参数,通过设计合理的障碍李雅普诺夫函数,使得机器人在与环境交互的过程中能工作在安全的范围内,并保证机器人的暂态和稳态跟踪性能。三、阻抗控制算法能实现机器人与环境的柔顺交互,然而由于环境的阻抗模型以及机器人的动力学模型难以准确搭建,使得精准的力位控制难以实现。本文基于动态系统理论,提出一种新型的轨迹自适应柔顺交互算法。该算法以任务轨迹为引导,无需考虑环境与机器人模型,只需要根据机器人与环境交互过程中的力反馈信息和力跟踪误差,通过构建势能函数和鲁棒因子,自适应调节原始动态系统所获得的期望轨迹,并保证调整后轨迹的稳定性以及收敛性,从而实现面向未知环境的机器人与环境柔顺交互,从运动规划层面解决传统柔顺控制依赖环境阻抗模型问题。