论文部分内容阅读
近年来,随着科学技术的高速发展,图像和视频数据量增长迅猛,图像和视频数据的应用需求也迅速增长。如何在大量的图片和视频数据中,快速、准确的提取出有效信息,是目前计算机视觉领域的研究热点。人类的视觉系统是世界上最复杂高效的系统之一,视觉显著性是人类视觉系统指导注意力分配和视觉认知的关键机制。计算机处理图像和视频数据的能力能够通过模仿视觉显著性机制提高。视觉显著性检测是解决计算机视觉众多难点问题的方法之一。 视觉显著性属于人类视觉的选择性注意机制,是人类视觉系统的重要组成部分。其兴趣区域的选择机理在计算机视觉系统中有着广阔的应用前景。本文从人类视觉系统的特性出发,对显著性检测进行研究。本文首先研究了图像分割技术。作为显著性区域检测的预处理技术,图像分割结果直接影响显著性检测算法的性能。本文立足于保持物体的边缘信息,融合相似度比较高的区域,提出了一种基于动态门限的区域融合分割方法,将图像分割为数量少,区域范围大的区域。提出一种基于颜色稀缺性和分布性的显著性区域检测方法。提出一种面向目标偏置的高斯修正方法,提高显著性区域检测算法的性能。最后,对比现有显著性技术与人类视觉的差异,受人类视觉系统的启发,以扩展显著性区域检测的应用范围为目的,提出显著性空间的概念,并以智能安防为应用场景,使用智能安防球形摄像头对显著性空间进行实现。本论文的主要研究内容和创新点如下: 在浮点高斯分水岭分割(Float Gaussian Watershed Segmentation)的基础上,提出一种基于动态门限的区域融合分割方法,对颜色相似度比较高的相邻区域进行融合。相邻区域颜色的相似度通过图像相关的动态门限来度量。该方法称为颜色自适应动态门限分水岭融合分割算法,简称CAT-WFS(Color AdaptiveThresholding Watershed Fusion Segmentation method)。通过测试和对比,该算法在保留物体边缘的前提下,具有更大的区域范围,更小的区域数量,浓缩局部特征。该算法为显著性物体的检测提供了坚实的基础。 使用全局区域对比的方式,定义了区域颜色的稀缺性和颜色的分布性两个度量值。区域颜色的稀缺性表征显著物体区域颜色的稀缺性,区域颜色的分布性表征背影区域颜色的广泛分布性。融合区域颜色稀缺性和颜色的分布性,使显著区域更加显著,非显著区域显著性更低。该方法称为颜色稀缺性和分布性显著性检测,简称CUD(Color Uniqueness and Distribution method)。还提出一种基于高斯模板的面向目标的中心偏置方法,通过计算显著物体的中心位置,对显著图(Saliency Map)进行修正,得到效果更佳的显著区域检测结果。通过显著图视觉直观比较、计算准确率召回率曲线(Precision and Recall Curve)和计算F-measure三种方式对CUD算法进行测试,并与现有的13种算法进行比较。在具有1000幅测试图片的Achanta等人[7]给出的显著性物体检测数据库和更具挑战性的Li和Ngan[76]提供的相关显著性检测数据库上进行测试。实验证明,CUD算法具有更高的准确率,更高的F-measure值。提出的面向目标偏置的高斯中心修正算法可以提高显著性检测的性能。 在总结现有显著性技术和人类视觉功能差异的基础上,参考人类视觉系统,提出了显著性空间的概念。显著性空间是一个三维的空间,其坐标原点位于人类的头部(本文使用一个球形安防摄像头模拟人类头部),该空间包含各个显著区域的关键信息,主要包括:区域中心点方向信息、图像信息、显著性和生存时间。以智能安防为应用场景,使用球形安防摄像头,详细阐述了显著性空间的系统架构及各个支撑算法,包括:基于分水岭的特征点匹配算法,基于RANSAC的有效匹配特征点检测算法,安防球形摄像头光轴角度计算算法和显著性空间的生成映射算法。在一个拥有Intel i52.7GHz四核处理器和4G内存的计算机上,通过对各个支撑算法进行的性能检测,结果表明,算法具有较高的精度和实时处理的速度。显著性空间生成算法的每帧平均运算时间是33.8毫秒,即29.59帧/秒,能够满足实时性的要求。