关键词:
智慧监狱
智能视频分析
图像质量评价
行为检测
日志分析
摘要:
视频监控是监狱安全防范的重要手段,在防范罪犯脱逃、自杀等方面起到了重要作用。当前每个监狱视频监控点位数量平均3000个,指挥中心监控屏幕可同时显示数量大约为20个。监管人员通过人工模式进行视频轮巡查看,工作强度大、效率低,难以实现有效管控。随着计算机视觉和人工智能技术的发展,智能监控系统在一定程度上减轻了监管人员的工作强度,提高了监狱管理的工作效率,但目前仍存在以下几个难以解决的问题:一是视频监控双目立体监控摄像机图像质量评价体系仍不完善。现有视频监控图像质量评价系统,缺失对于重点位置应用的人脸识别、广角、大范围双目立体视觉监控摄像机的图像质量评价方法,关键是视频监控的图像质量直接影响到后期的智能视频分析效果。二是视频监控智能化异常行为识别准确率低。现有的监狱视频监控系统的智能分析功能对于人员身份无法精准识别,不能对罪犯脱管和警察执勤不规范等行为进行自动报警,没有真正发挥视频监控潜能和效果。三是视频监控机械轮巡查看模式导致信息丢失。目前监狱视频监控采用预先视频点位分组查看模式,受限于轮巡周期、人眼的观看视角和大脑处理能力,视频监控中罪犯的异常行为被大量遗漏。针对上述痛点问题,本文从实际工作需要和监狱视频监控系统智能化关键技术出发,研究双目立体视觉监控摄像机图像质量评价方法,提高视频监控图像质量的自动诊断能力,确保视频监控图像质量,为后面进行图像智能分析做好保障;研究基于准确识别罪犯和警察身份进行融合跟踪的脱管检测方法,提高监狱视频监控的异常行为智能分析能力;研究基于监控摄像机阵列重要性排序显示方法,综合利用融合跟踪脱管检测方法和视频监控图像优化排序,提高视频监控发现罪犯异常行为概率。论文主要贡献包括以下方面:(1)针对双目视觉立体图像诊断问题,基于无参考质量视频监控立体图像评价方法,提出了用于失真的立体图像质量预测模型,初步建立了立体图像质量评估方案。针对一个原始立体对,首先生成融合图和差异图,并从中提取双目统计特征作为基本特征向量。然后,根据立体对的局部振幅和局部相位计算双目能量响应作为质量感知特征。最后,采用极限学习机(Extreme Learning Machine,ELM)方法将失真的立体对的这些特征映射到其人类感知质量得分。采用LIVE 3D IQA Phase Ⅰ数据库,LIVE 3D IQA Phase Ⅱ数据库和MCL-3D数据库三个公开的主题评级基准3D图像数据库作为标准,通过实验与7种代表性的最新技术进行比较,验证方案的有效性和鲁棒性,以及混合失真数据库中每种单独失真类型的特定失真性能。设计了三种不同的比较方案,比较所提的度量标准中每个分量对总体质量得分的贡献。通过跨数据集的性能评估实验,验证了所提方案的一般性和稳定性。在基准数据库上的实验结果表明:所提出的模型可生成与人类视觉感知良好相关的图像质量预测,并以相关的最新技术提供极具竞争力的性能;所提出的度量视觉质量预测与对各种失真类型的失真图像对的主观质量判断高度相关。(2)针对智能视频监控系统存在的漏报误报率高的问题,提出了基于迭代学习的视频监控目标分析方法,通过迭代学习自动产生训练样本用于深度学习模型的训练过程从而避免了人工标注,并利用目标跟踪技术提出基于融合跟踪(FONT)的脱管检测方法,解决目前基于逐帧图像单独进行脱管检测时准确率不高的问题。采用目前深度学习的性能最优的基于全卷积的孪生网络目标跟踪框架SiamFC与经典跟踪方法中速度最快的核相关滤波KCF方法融合跟踪,经过流形学习方法降维、聚类获得典型的目标模板,并利用感知哈希特征获得目标哈希字典供在线跟踪过程使用。设计离线学习和在线跟踪两个协同环节,利用在线跟踪环节自动生成大量标注样本供离线学习迭代使用,破解深度学习方法对标注数据的需求难题。利用离线学习环节不断提升跟踪性能并反馈给在线跟踪环节,实现场景自适应的持续学习。对比实验表明,基于传统的单帧图像目标检测机制的脱管检测方式均存在诸如虚警、误报等多种问题,而基于目标融合跟踪的脱管检测系统则可以有效的解决这些问题。(3)针对视频监控阵列固定轮巡模式导致的信息丢失问题,提出了基于全局-局部联合编码模型的视频监控阵列显示优化方法,全局编码器用于对整个序列行为进行表征,而局部编码器可以自适应地选择当前会话中的重要项,捕捉用户的主要目的,序列行为提供有用的信息来捕获当前会话中用户的主要目的。本文使用序列行为的表示和之前的隐藏状态,计算每个点击的注意力权重。将顺序行为特征和用户目的特征连接起来,形成每个时间戳的扩展表示。利用监控中心自动生成的大量序列化的监控摄像机阵列点击与轮巡行为日志样本供离线迭代学习,破解深度学习方法对标注数据的需求难题;利用离线学习环节不断提升阵列轮巡精度并反馈给在线轮巡环节,实现高精度的监控摄像机阵列自动轮巡方案。通过采集多个监狱实际