论文部分内容阅读
准确的3D场景信息在自主驾驶和移动系统导航中是非常重要的因素。由于照相机成本低而且容易使用,智能机器人通常会根据从照相机获取的观测信息来作出决定。周围真实的环境是相当复杂的,观测也经常有噪声,或许还可能丢失信息。这些都使得Visual SLAM的实现比较困难。尽管在高速公路导航和简单环境的自主导航获得了成功的验证,在未知复杂的环境下的自主导航仍然是个没有解决的问题。本文研究的方法是从一系列的立体图像中估计机器人的位姿和准确的3d的环境特征。所有的数据都是来自Bumblebee XB3双目立体照相机,照相机是安装在智能小车的顶部。本文主要研究双目视觉SLAM系统,双目视觉SLAM主要集中在机器人位姿和环境特征的3D位置及其坐标。在估计机器人位姿时稀疏的特征被追踪和位置估计,特征集合太稀疏而不能准确的描述照相机拍摄的真实3D环境。从立体双目图像序列中获取准确的3D信息在计算机视觉和机器人自主导航中是一个核心步骤。我们运用循环SURF特征提取匹配算法来获得粗略的匹配特征,该算法计算量小,鲁棒性高。接下来运用RANSAC和对极几何约束消除误匹配点获得精确稳定的特征点。将得到的精确稳定的特征点输入到基于EKF的SLAM系统来估计机器人的运动路径。在室外非结构化环境下验证了双目视觉SLAM算法的准确性和有效性。为了准确描述真实环境,运用双目视觉SLAM算法的同时运用有效的立体匹配算法来获取浓密的特征点。按照估计出来的机器人路径,我们将这些浓密的特征点映射到机器人坐标系,最终得到基于点的3D重建地图。