论文部分内容阅读
我国作为人口大国,随着人们生活水平的提高,车辆的增加也越来越明显,随之带来了交通的安全隐患,所以需要对出行的车辆进行监控。对于人类的视觉来说,我们能够很容易的识别出一幅图像中所包含的物体的种类和物体所在的位置,但对于计算机来说,检测和识别出图像中的物体与位置具有很大的挑战性。本文通过以车辆图像作为研究对象,检测出图像中车辆的位置信息,以达到对图像中车辆监控的目的。对于传统的目标检测方法大致可以分为四个步骤:图像预处理、目标区域选择、特征提取和分类器分类。对于目标区域的选择,传统的方法是通过滑动窗口的区域选择策略,时间和空间复杂度都比较高,在特征提取方面,是通过人工的方式设计目标的特征,有着工程时间长且鲁棒性较差等特点。随着深度学习的发展,通过卷积神经网络能够高效的提取图像的高维特征,如今在图像检测与识别的方法中,深度学习已成为最流行且最实用的。本文通过分析Faster R-CNN算法和YOLOV3算法,借鉴深度学习的理论技术,提出相应的改进策略,以实现对车辆图像的识别检测,本文主要的工作如下:(1)本文通过改进Faster R-CNN算法对建立数据库图像进行学习,通过采用K-Means++聚类的方法,对训练集中的已知目标框的位置进行聚类,通过实验设定K个不同聚类中心。分析最好的聚类结果,通过Tensorflow深度学习框架实现算法对训练集图像的训练,将效果好的K个聚类中心替换设定好的9个候选窗口,通过实验对比,提高了检测速度。(2)本文还提出了一种基于多尺度融合改进的YOLOV3方法,提高了对小目标物体检测的精度。首先利用改进的K-Means聚类算法抽样K-Means聚类的方式结合核函数对目标候选框的个数宽高比维度进行聚类分析,针对小目标物体的浅层特征信息进行多尺度的融合,通过增加两种多尺度的融合对YOLOV3进行了改进。然后用改进的YOLOV3算法在KITTI数据集上与YOLOV3进行实验对比,仿真实验结果表明,改进后的网络能有效地提高小目标物体的检测效果,对小目标的召回率和精确度都有了一定的提升。