论文部分内容阅读
利用多个相机下的交通场景监控视频,构建车辆全场景的运行状态,能够及时掌握道路交通信息、分析交通态势。但目前在交通场景中实现精确快速的车辆检测以及跨相机跟踪仍存在问题,例如大量视频数据带来的高计算量、相机之间的时间误差等。本文着重研究交通场景中车辆的检测与跟踪,以及多个相机下的同一车辆轨迹关联问题,获取车辆运行的完整轨迹及时空图,从而分析交通参数与事件,为交通安全保驾护航。主要研究内容分为以下四点:(1)交通场景车辆目标检测研究。本文以精度高实时性好的YOLOv4目标检测网络为基础,针对交通场景存在的问题,提出了一种改进的车辆目标检测策略。其次,对高速白天、高速黑夜、隧道三个交通场景,制作了包含45052张样本图片的车辆目标数据集。最后,对数据集进行增广与训练,得到目标检测模型,实验结果表明改进的检测算法在高速白天场景中精度平均值为90%,检测速度平均值为73FPS。(2)交通场景多目标跟踪研究。根据目标检测的结果,提出了基于相机标定的目标位置预测方法,使用速度预测目标可能出现的位置,并在此基础上实现了基于跳帧检测的快速多目标跟踪方法。针对交通场景制作多目标跟踪数据集进行实验验证,结果表明在跳跃8帧的情况下,车辆目标跟踪基本无误,MOTA平均值高于85%,跟踪速度达到了50FPS,显著提高了跟踪效率。(3)跨相机的车辆轨迹关联研究。在获取单相机下车辆跟踪轨迹的基础上,提出了基于车辆轨迹线性拟合的关联算法,以及基于轨迹节点图像余弦相似度的关联算法,完成了同一车辆在跨相机下的轨迹关联。最终通过实验证明了算法的有效性,能够同时关联多个相机下的多条轨迹,实现车辆的大范围持续跟踪。(4)基于轨迹数据的交通事件分析。通过单相机的车辆轨迹和跨相机的轨迹关联,生成车辆轨迹时空图,并提出了交通视频智能监控系统,以实现交通参数的获取以及交通事件的检测。通过实验验证,发现本文算法能准确地统计交通参数、检测交通事件,完成交通场景中车辆运行状态的感知,为交通管控与分析提供依据。