论文部分内容阅读
SLAM(Simultaneous Localization and Mapping)即同时定位与地图构建是指搭载特定传感器的机器人在没有任何环境先验信息的情况下,在运动过程中建图并同时估计自身的位姿。当搭载的传感器为相机时,被称为视觉SLAM(Visual SLAM)。SLAM技术是机器人自主导航的关键与核心,被称为机器人的“眼睛”,在自动驾驶、三维测绘以及AR(Augmented Reality)等领域有着重要应用。经过多年的发展,以视觉传感器为核心的视觉SLAM技术成为研究的热点。其中,单目由于成本低、应用简单的特点最受研究者欢迎,但单目视觉SLAM缺少尺度信息,无法在复杂的环境下工作,这就需要其它传感器进行信息互补,因此多传感器融合的SLAM将是未来研究的热点。本文对单目视觉与惯性、磁力、激光雷达等传感器的融合进行研究,并将其运用到机器人的路面异物巡检上,为了在实际环境中验证本文的方法,搭建了全向机器人移动平台。具体研究工作如下:(1)提出一种惯性/磁力传感器与单目视觉松耦合融合的SLAM方法。针对单目视觉SLAM算法没有尺度信息以及在相机移动过快时无法使用的问题,提出了一种惯性/磁力传感器与单目视觉松耦合融合的SLAM方法。首先,改进了一种模糊自适应的九轴姿态融合算法,对IMU(inertial measurement unit)的航向角进行高精度估计。然后,采用单目ORB-SLAM2(oriented FAST and rotated BRIEF SLAM2)算法,通过IMU估计其尺度因子,并对其输出的位姿信息进行尺度转换。最后,采用松耦合的方式,对IMU估计的位姿和ORB-SLAM2算法经过尺度转换后的位姿,进行卡尔曼滤波融合。在公开数据集EuRoC上进行了测试,测试结果表明本文方法总的位置均方根误差为5.7cm。为了进一步在实际环境中验证,设计并搭建了全向移动平台,以平台上二维激光雷达所测的位姿数据为基准,测试结果表明本文方法的旋转角度误差小于5°,总的位置均方根误差为9.8cm。(2)将视觉融合SLAM技术应用于机器人的路面异物检测。为了满足全天候进行路面检测的要求,提出了一种以多线激光雷达为主,视觉为辅的异物检测算法。通过视觉融合SLAM系统输出的位姿、速度等信息来校正激光雷达数据,使得点云数据X轴方向与道路方向平行,以便快速分割出道路以及道路上物体的点云,完成预处理。针对预处理后的点云,使用多个平面模型进行地面拟合,实现路面点云与物体点云的快速分割;对物体点云使用邻近聚类算法进行聚类并输出物体的相对位置、尺寸;聚类后进行模型简化使用数据关联的方法估计速度;再将估计的相对速度和位置转换到世界坐标系下;最后为了保证算法的鲁棒性,使用物体在世界坐标系的位置和速度进行双重判断。分别在16线激光雷达采集的数据包、校园内道路和校园外马路环境下进行了测试,测试结果表明本文提出的路面异物检测方法能剔除正常行驶的车辆不发生误检,同时能有效对高度大于40cm的静止的异物进行检测。(3)全向移动机器人平台的设计与系统实现。为了将提出的方法在实际场景中进行测试和应用,设计并搭建了全向移动机器人平台,对其进行了运动学分析。移动机器人平台主要安装有单目相机、三维激光雷达、二维激光雷达、IMU等传感器,主要算法基于ROS(robot operating system)开发,作为决策层运行在PC上。在实际环境中验证了惯性/磁力传感器与单目视觉融合的SLAM方法以及基于视觉融合SLAM技术路面异物检测方法的可行性。