论文部分内容阅读
随着智慧城市的建设和物联网技术的发展,智能视觉监控系统受到越来越多的重视。在监控场景下,行人是主要的行为单元,因此智能视频监控的一个核心问题就是对行人进行有效的建模与分析。场景语义理解中,对于行人的智能化分析主要涉及三个基本的问题:场景中行人的提取,即行人检测问题;行人目标的处理,包括目标的跟踪等问题;以及对场景中行人的行为进行分析。本文针对以上三个基本问题进行了深入的探讨及研究,取得的研究成果如下: 提出了一种基于多通道协同提升算法的级联行人检测框架。该框架通过协同提升算法能够挖掘不同特征之间的互补性与相容性,采用由粗到细的方式融合了多种手工设计特征以及深度学习特征进行行人检测。在初级检测阶段通过颜色、梯度以及纹理特征之间的互补性,结合手工设计特征的计算便捷性,该方法能够快速、高效的对图像中的行人进行粗略定位,为下一级精细检测提供候选区域,从而提高了检测召回率。在精细检测阶段,通过初级检测结果与深度学习特征的相互促进融合,进一步过滤错误检测结果,实现了实时准确的行人检测。该方法相对于传统的集成通道特征(Aggregated Channel Features,ACF)行人检测方法具有20%以上的性能提升。 提出了一种多通道卷积特征的行人检测算法。该算法将卷积神经网络的底层卷积核作为滤波器对传统ACF通道特征进行特征增强。通过卷积核的滤波过程,该算法将传统ACF特征进行了10倍以上的扩增,使得滤波后的卷积特征具有更强的判别能力,从而有效地提高了Adaboost分类器对行人的判别能力。该算法相对于传统的ACF行人检测方法具有25%的性能提升。 提出了一种基于加权部件模型的行人跟踪算法。该算法结合了部件模型对行人表观的强大表达能力以及混合高斯模型对时间序列进行的建模能力,同时对目标的整体表观、部件表观以及部件时序变化信息进行建模。通过混合高斯模型对行人各个部件的时序变化信息建立的权重模型,本文提出的时序加权模型能够动态地调整目标不同部件表观信息对目标判别的贡献度。实验结果表明,这种加权部件模型能够有效提高目标跟踪的准确性。 提出了一种基于上下文学习的行为标注方法。由于场景中的行为通常由多人参与,其一般存在诸如个体交互这样的上下文信息。在本文中,提出了一个统一的判别式学习框架来对多种不同的上下文信息进行整合,从而能够有效识别场景中同时存在的多种个体行为和群体行为。通过结构支撑向量机的学习框架,本文将场景中同一群体内部的类内上下文信息、不同群体之间的类间上下文信息以及个体与场景之间存在的场景上下文信息进行联合建模,通过挖掘行为参与者丰富的上下文信息来有效提高行为标注的准确度。实验结果表明,该方法能够使得场景中的行为标注准确率获得5%的提升。