论文部分内容阅读
随着视频监控技术向网络化、数字化、智能化等方向的不断延伸,利用智能型的视频监控技术,从视频流的帧序列中检测、跟踪行人并分析人或人群的运动模式正成为学术研究中的热点问题。目前,已存在的基于视频监控场景下的人群异常事件检测方法虽已多种多样,但是这些检测模型存在着计算复杂度大、适用场景单一等诸多问题。因此,为了解决以上难题,本文在总结原有算法的基础上,提出了相应的优化算法。主要内容包括如下两方面:一方面,针对检测模型有较高计算复杂度的问题,提出了一种基于假设检验的异常事件检测算法,可以较好的提高检测的时间性能。该算法首先通过高斯滤波对视频图像进行预处理,并使用稠密光流法提取出人群运动信息,作为人群的运动特征描述子;此后,对大量的正负样本集进行采样统计,分析获得样本的分布规律;接着,依据“越接近异常事件,光流值越大”的分布规律,建立基于假设检验的异常事件检测模型,并最终得到人群事件的异常检测结果。通过实验对比发现,本文提出的算法在检测准确率上高达99.6%,在时间性能方面平均每帧0.146s或0.156s,而其他方法则需要0.2s/帧,或甚至达到25s/帧。另一方面,针对适用场景单一的问题,提出了一种基于三维光流直方图的时空特征和在线模糊聚类的异常事件检测方法,可以更好地适应对有差异的视频监控场景的异常事件检测。该方法首先使用基于三维光流直方图的时空域特征提取方法,得到能够较好描述视频内容的特征描述子;其次,使用模糊C均值的聚类算法,对特征描述子进行低级聚类,得到初级的编码本和隶属度矩阵;再次,对时空视频体进行二次重采样,并使用概率密度函数的方法对其进行描述,根据得到的描述子,对其进行基于模糊C均值的高级聚类,得到高级聚类的编码本和隶属度矩阵,从而可以得到样本中前景目标的运动模式;然后,使用包含新视频帧的数据与原有的初始化数据,利用高级的隶属度矩阵进行比较,从而判断出视频流中异常事件的发生区域;最后,为了达到场景自适应性的目的,需要将测试视频帧加入到原始数据集中更新初始化数据,以得到新的运动模式用以检测新的视频帧。通过将该方法应用到不同场景下进行实验,发现本论文中提出的方法针对不同场景下的视频内容均能很好地检测出有异常事件发生的目标区域,且在检测的等错误率方面明显低于其他方法。