论文部分内容阅读
计算机视觉通过分析和理解图像来理解周围环境。深度感知是计算机视觉的重要组成部分,深度感知可以使机器人感知三维空间环境,并实现自主导航。在计算机视觉中,深度感知是通过立体匹配来实现的。立体匹配是指两个具有水平位移的相机获取的图像对中像素之间的对应关系,并通过计算对应像素之间的视差得到深度信息。 提出的立体匹配方法,可以实时恢复高度准确的视差。该方法结合了使用输入图像的梯度和Census变换计算的像素相异性度量,采用边缘保持双边滤波器的高效近似的非迭代局部视差选择方案,视差细化技术通过不断迭代细化,并通过惩罚与使用局部视差梯度产生的视差估计不一致的视差来消除误匹配像素,提高了视差估计的准确性。 使用了Middlebury立体性能基准进行评估,所提出的方法在训练图像集和测试图像集的测试中分别排名前五位,以立体匹配的总体准确性来衡量,在标准图像分辨率下视差的绝对误差大于2个像素。同时,该方法对于15个训练集图像对中的3个图像对以及15个测试集图像对中的3图像对有着最低的错误率。所提方法在照明条件变化或相机曝光不同引起的辐射畸变的情况下实现高精度、实时性的鲁棒匹配。所提出的方法适用于机器人导航和三维重建等应用。 设计了一种基于该方法的的立体视觉跟踪系统来估计空间动态目标的位置、速度和运动方向的系统。该系统包括立体视觉测距,目标检测和跟踪,跟踪误差最小化。这些误差主要是由于立体像素匹配过程中的图像量化限制和像素误匹配。虽然更复杂的匹配算法可以得到更精确的三维重建结果,但是时间成本很高。该系统结合简单的立体匹配算法,以及基于扩展卡尔曼滤波器的预测校正方法,使用代表空间目标运动和立体测量的概率模型的合适选择,最小化与立体测量相关的跟踪误差,提高目标状态估计的准确度。模拟实验结果表明了该系统的有效性,在不同的运动条件下,可以得到目标状态的精确估计。