关键词:
无人武器
目视瞄准
人机交互
视线跟踪
武器云台伺服
摘要:
为适应未来战争越来越信息化及无人化的发展趋势,无人作战平台、遥控武器站、无人值守武器、顶置武器等无人武器系统应运而生,成为世界各国竞相研究的热点,是未来武器装备发展的重要方向。本论文研究无人武器的目视瞄准技术,构建基于头戴显示及人眼运动追踪的头戴式人机融合视线跟踪瞄准操控系统,将头戴显示及人眼运动追踪装置、操控人员和武器云台紧密耦合,通过检测眼球运动追踪人眼视线,捕获操控人员对特定目标的注视信息,建立操控人员眼球运动与武器目标跟踪瞄准的随动关系,驱动武器云台追随操控人员视线跟踪瞄准目标,实现“看哪打哪,看见即消灭”,对实现无人武器高效精准打击、减轻操控人员负担具有重要意义。本论文主要包括以下研究工作:眼睛运动机制研究及视线跟踪系统设计。研究眼睛结构与运动机制,包括眼睛生理构造与视觉原理、眼球运动控制、眼动基本模式以及眼睛模型等。以眼睛模型及运动机制为理论基础构建基于单摄像机和近红外光源阵列的头戴式视线跟踪系统。人眼检测与定位技术研究。提出一种基于Haar-like与二阶LDP的混合加权特征(H-LDP2)人眼检测算法。采集若干幅人眼正、负样本图像,提取基于Haar-like与二阶LDP的混合加权特征,使用Adaboost算法对混合特征模型进行训练,得到级联人眼分类器,进行人眼检测与定位运算。在特征提取之前,采用Gabor算子对人眼目标图像在多尺度、多方向上进行滤波,提取不同尺度及方向特征。瞳孔和光斑检测与定位技术研究。提出精确、稳定的瞳孔和光斑检测方法。对于瞳孔检测,提出圆环射线定位(Circular Ring Rays Location,简称CRRL)算法来检测瞳孔边界点。粗定位瞳孔中心并计算瞳孔初始半径,根据瞳孔粗定位中心及初始半径确定包括瞳孔边界在内的圆环区域,从内圆环向外圆环发射射线,计算梯度幅值并提取瞳孔边界点。提出改进总体最小二乘算法对提取的瞳孔边界点集进行拟合。对于光斑检测,通过阈值化及连通区域检测粗定位其位置区域,结合高斯函数变形和改进总体最小二乘计算其中心位置。视线方向估计技术研究。提出一种基于瞳孔-光斑向量(P-CR)的2D视线估计方法,分别使用圆环射线定位算法和高斯拟合算法检测瞳孔和光斑中心,计算P-CR向量,根据P-CR向量和标定点之间的对应关系构造映射函数,提出基于直接最小二乘回归的改进人工神经网络算法(DLSR-ANN)对映射关系进行标定求解,实现视线方向的估计。对视线方向估计进行误差补偿,进一步提高估计精度。武器伺服云台随动控制技术研究。为实现伺服系统电机的快速响应及调动,建立基于模糊PI的电机三闭环控制模型。对头戴式视线跟踪系统进行标定,估计视线方向并将注视点坐标在头戴显示器屏幕上进行标记,将无人武器瞄准摄像机侦察场景在头戴显示器上显示,观瞄目标时,将视线方向转换为无人武器伺服系统控制参数,驱动伺服系统电机运动,直至武器瞄准摄像机十字分划线与瞄准目标重叠,实现真正意义上的“看哪打哪,看见即消灭”。为验证本文所提出无人武器目视瞄准技术,选用NVIDIA Jetson TX1作为数据处理单元,使用Linux C++编写包括人眼检测与定位、瞳孔和光斑检测与定位、映射关系标定、视线方向估计、伺服云台随动控制等在内的上位机程序算法,并在武器云台原理样机上进行了试验验证。试验结果表明本文所研究的无人武器目视瞄准技术可满足无人武器目视瞄准操控较高的精度、稳定性和实时性的要求。