移动机器人SLAM方法研究
Research on SLAM Method of Mobile Robot
DOI: 10.12677/CSA.2022.1212281, PDF, HTML, XML, 下载: 224  浏览: 519 
作者: 刘显林:天津工业大学,天津
关键词: 激光雷达SLAM视觉SLAM移动机器人调研Lidar SLAM Visual SLAM Mobile Robot Research
摘要: 同步定位与建图(Simultaneous Localization and Mapping, SLAM)主要实现了移动机器人的自身定位与周围环境地图构建的功能。本文重点介绍了激光雷达SLAM、视觉SLAM技术的发展现状,调研介绍了目前的开源系统、系统存在的挑战与未来的发展趋势,对于初次接触SLAM的研究人员,清晰地掌握激光雷达SLAM与视觉SLAM的发展是有必要的。
Abstract: Simultaneous Localization and Mapping (SLAM) achieves simultaneous localization and mapping (SLAM) functions of the robot and surrounding map construction. This paper mainly introduces the development status of lidar SLAM and visual SLAM technology, and investigates and introduces the current open source system, the challenges of the system and the development trend in the future. It is necessary for the researchers who contact SLAM for the first time to have a clear grasp of the development of lidar SLAM and visual SLAM.
文章引用:刘显林. 移动机器人SLAM方法研究[J]. 计算机科学与应用, 2022, 12(12): 2772-2777. https://doi.org/10.12677/CSA.2022.1212281

1. 引言

自从20世纪40年代末第一台移动机器人问世以来,他们能够执行自主任务的雄心壮志一直是机器人研究的主要焦点之一。为了自主操作,机器人需要形成周围环境的模型,包括定位和地图绘制,并执行安全导航。在机器人应用中的统一操作也要求机器人能够访问周围环境的一致模型,以支持安全规划和决策。为了实现这个目标,机器人必须有能力在地图上定位自己,并创建所处环境的环境地图,因此同步定位与建图(SLAM)应时而生,其主要包括定位与建图两个子任务,而这也是移动机器人在运动中的重要问题:机器人必须有一个准确的关于周围环境的地图,才能使得移动机器人进行正确的导航与移动;而想要建立准确的地图信息,机器人就必须能够准确地感知自己在周围环境中的位置信息 [1] 。Randall Smith等人于1990年提出使用EKF (扩展卡尔曼滤波器)增量的方式对移动机器人自身的姿势与状态的后验分布以及界标所处的位置进行估算。在现实应用中,需要移动机器人从未探索环境中的某个位置开始运动,运动过程中利用周围环境的特征信息来对自身的位姿状态进行确定,同时对经过的位置进行环境地图的构建。其中对机器人自身的定位技术主要与环境特征、系统成本、建图精度、信息获取频率以及算法自身的鲁棒性相关,目前定位技术可以利用无线信号、全球定位系统(GPS)以及惯性测量单元(IMU)等来实现 [2] [3] 。但目前的无线技术是一个主动系统,不能平衡系统运行成本与定位准确定率。而GPS主要适用于室外空旷的大场景,另外IMU定位系统存在不可避免的累积误差 [4] 。近年来,随着计算机与智能技术的快速发展,搭载激光雷达、相机、IMU以及其他传感器的SLAM蓬勃发展,其中基于图特征的SLAM目前更具发展潜力与优势。这些算法主要利用的是从卡尔曼滤波器(KF)、扩展卡尔曼滤波器(EKF)、粒子滤波(PF)中所衍生出来的基于图的优化算法。在目前的SLAM系统中已经使用多线程来取代以前的单线程系统,同时伴随着机器人与传感器的研究,SLAM技术也逐渐从军用转换为现实生活中的机器人应用。

本文的组织结构可概括如下:在第二节中重点介绍了激光雷达SLAM的发展,主要对激光雷达SLAM系统,以及目前存在的难点与未来进行了介绍分析。第三节重点介绍了视觉SLAM的发展现状,主要对视觉SLAM系统,以及目前视觉SLAM系统存在的挑战与未来进行了介绍分析。最后我们对未来SLAM的未来研究方向进行总结。

2. 激光雷达SLAM

过去20年来,从声纳传感器开始,激光雷达的出现使得SLAM系统变得可靠,从此基于激光的SLAM方法一直是移动机器人地图和导航研究的基石,依靠构建的三维地图进行6D定位仍然是一个研究热点,与视觉传感器相比,激光雷达提供的测量信息更可靠、更准确、噪声级更稳定,并且光照的强弱变化对激光雷达的探测影响甚微, [5] 中对基于概率的二维激光雷达同步定位和测绘的数学理论进行了详细的介绍。

2.1. 激光雷达SLAM系统

激光雷达传感器通过激光雷达光束的数量多少可以分为2D激光雷达和3D激光雷达,因此激光雷达SLAM系统根据其使用的激光雷达的不同也可以分为2D激光雷达SLAM与3D激光雷达SLAM。Giorgio Grisetti等人提出的Gmapping是移动机器人利用2D激光雷达进行环境探索时较多使用的SLAM工具包,算法主要是基于RBPF (Rao Blackwellization Partial Filter)方法,利用扫描匹配的方法进行自身位置的估计 [5] [6] ,是FastSLAM [7] [8] 的带网格地图的升级版。HectorSlam [9] 结合了2D SLAM系统、3D导航与扫描匹配技术以及惯性传感系统。2012年,由Luca Carlone等人提出的LagoSLAM主要是以图形为基础的SLAM算法,其原理是利用了非线性非凸函数的最小化 [10] 。

对于3D SLAM,2014年提出的LOAM通过对局部曲面的粗糙度进行评估来对激光雷达云中的边和曲面点特征进行提取,根据运动模型,特征被重新投影到下一次扫描的开始,并在下一次的扫描中找到点对应,最后,通过最小化点对应之间的总距离来递归估计三维运动 [11] 。2016年由谷歌提出的Cartographer [12] 添加了子地图映射与循环闭环检测操作,对产品性能进行了提升,该算法能够灵活适用于跨平台以及不同传感器所提供的2D或3D的SLAM系统。之后的Lego-Loam可以利用来自Velodyne VLP-16激光雷达的点云和可选IMU数据作为输入,可以实时地输出自身的6D姿态估计,并具备全局优化与闭环检测功能 [13] 。Jean-Emmanuel Deschaud等人提出的IMLS-SLAM利用了新的低漂移SLAM算法,仅使用基于扫描断层模型匹配框架的3D激光雷达数据 [14] 。2020年由Bo Zhou等人针对特征点稀疏、移动速度快、动态噪声高等特点的室外地/水面多场景应用,提出一种由前端测程函数和后端闭环功能组成的无人车/轮船实时三维激光雷达SLAM系统(S4-SLAM) [15] 。之后Wen Chen等人提出的TLDR [16] 针对大规模环境下混合几何基元的惯性辅助三维激光雷达SLAM系统闭环,提出了一种新颖的确定性、近实时平面驱动的子地图匹配算法。

2.2. 挑战与未来

激光雷达具有对光线变换不敏感、可以提供360度的探索视角、可以为SLAM系统提供3D环境信息等优点。但是利用激光雷达数据进行研究开发对技术人员要求较高、周期较长、开发成本太大,未来的发展趋势大概率围绕着其设备的小型化、成本的合理化以及可靠性与环境的适应性改进。

另外,目前SLAM系统普遍仅能在稳定、静态的工作环境中作业,但在现实中低纹理和动态物体的存在使得SLAM系统的环境会不断发生变化。另外,像类似于长走廊与管道等环境会因为其自身的纹理特征较低从而使得激光雷达SLAM来进行应用时出现问题。 [17] 中提出了利用IMU辅助2D SLAM系统来应对上述低纹理环境。此外, [18] 通过在映射过程中加入时间维度来使得移动机器人在动态环境中也可以对自身及周围环境音系进行正确的、高效的映射。在未来激光雷达SLAM对如何能够在低纹理与动态环境中实现更稳定的应用,以及建立的地图如何更稳定更新,都是值得进一步探索的。

3. 视觉SLAM

随着GPU与基于深度学习的新一代视觉传感技术的高速发展,视觉SLAM系统主要借助了在价格方面有优势的相机作为主要传感器,同时其采集的图像中具有大量的信息可以用于后期视觉处理,成为了SLAM技术的研究热点问题。

3.1. 视觉SLAM系统

视觉SLAM主要利用相机传感器采集到的视频序列中相邻两帧图像之间的相机的位置与姿态来对整个探索路径的轨迹进行复现,而对于相机的位姿优化方法根据其实现原理不同主要分为基于滤波器和基于优化的两种方法 [19] ,其中基于滤波器的相机位姿优化方法会对之前的相机状态信息进行忽略,仅仅依据当前状态下所获得的相机位姿的估计进行优化处理,这种只根据当前状态信息进行处理的方法在一定程度上会在SLAM系统中引入累计误差,致使系统对相机传感器的运行轨迹的估计错误。2015年Mur-Artal R等人设计并实现的基于定向FAST和旋转BRIEF的同步定位和制图系统(ORB-SLAM)算法 [20] 以及在2017年在ORB-SLAM基础上改进的ORB-SLAM2 [21] ,在之前传统的SLAM系统的基础上添加了局部BA的优化方法,可以改善累计误差对SLAM算法造成的影响,使得在定位与建图时系统跟踪与映射更加的稳定,在满足实时性的同时,在复杂的场景内也具有良好的适应性。

基于视觉的SLAM系统根据其视觉传感器的不同又可以分为单目SLAM、双目SLAM以及RGB-D SLAM三种。由于SLAM对周围环境构建其3D地图时需要使用到传感器采集的图像的深度信息,而单目相机无法直接确定深度信息,双目相机则需要对左右镜头计算得到深度,RGB-D相机可以实时得到深度信息,因此基于RGB-D相机的实时性更好,但其探测范围较小,在室内移动机器人中较常使用。同时对于SLAM中相机位置的计算可以分为非直接法与直接法两种方案,其中利用图像中像素的灰度信息,再结合光度误差的方法来对相机传感器的位姿估计的方法称为直接法。经典的基于直接法的SLAM主要有:密集跟踪与绘图(DTAM) [22] 、大规模直接单目SLAM (LSD-SLAM) [23] 等。对于非直接法的SLAM系统,Davison等人提出的MonoSLAM [24] ,在算法的后端优化方案中使用了扩展的卡尔曼滤波器(EKF)方法,利用最小化重投影误差的方法对相机运动进行估计,虽然其建图过程可以达到实时的效果,但空间点稀疏使其仅能胜任较小场合下同步定位与建图功能,是SLAM历史上首个基于EKF的实时单目SLAM系统。Murray等人提出了对定位与映射可以适用两个线程并行操作算法PTAM (Parallel Tracking and Mapping) [25] ,在进行相机的位姿优化与评估时利用了非线性优化的方案,同时为了节省优化所需的时间,PTAM增添了关键帧的判定,但在运行时极易出现跟踪失败问题,在小场景中效果更好。特征点法较之直接法运行更稳定、对环境适应性强等优势,基于特征点法的视觉SLAM也因此成为近年来的研究热点方向 [26] - [31] 。

3.2. 挑战与未来

视觉SLAM系统在实际应用中仍然存在着问题,即目前SLAM算法虽然已经可以很好地使用特征点与关键帧,其应用范围也从仅用于室内稳定环境,扩大到城市道路街道环境中了。但是因为视觉SLAM主要采用的时特征点特征作为SLAM系统的特征提取与匹配的标准,在其应用于像野外森林等相似度极高的复杂环境时,相机传感器采集到的图像特征点可能会受到森林中的树叶、草丛等噪点影响,从而造成图像特征点的匹配错误,致使相机位姿估计错误、建图失败。因此视觉SLAM与动态、非结构化、复杂、不确定和大规模环境相关的解决方案尚待探索 [32] 。

4. 结束语

本文调研了基于激光雷达与相机传感器的SLAM的研究,系统存在的难点与挑战,以及其各自未来的发展趋势。目前的SLAM并不代表一种算法,其代表的是一种复杂的集成技术。其对软件与硬件都有较高的要求,在SLAM的未来发展趋势,将更加注重算法与传感器的高度结合,也应该更关注于移动机器人搭载SLAM系统的适应性与鲁棒性,同时对于SLAM系统尤其是视觉SLAM系统在算法上与深度学习、机器学习等技术相融合也是一大趋势。

参考文献

[1] Leonard, J.J. and Durrant-Whyte, H.F. (1991) Simultaneous Map Building and Localization for an Autonomous Mobile Robot. Proceedings IROS ’91: IEEE/RSJ International Workshop on Intelligent Robots and Systems ’91, Osaka, 3-5 November 1991, 1442-1447.
[2] Huang, B., Liu, J., Sun, W. and Yang, F. (2019) A Robust Indoor Positioning Method Based on Bluetooth Low Energy with Separate Channel Information. Sensors, 19, Article No. 3487.
https://doi.org/10.3390/s19163487
[3] Liu, J., Chen, R., Chen, Y., Pei, L. and Chen, L. (2012) iParking: An Intelligent Indoor Location-Based Smartphone Parking Service. Sensors, 12, 14612-14629.
https://doi.org/10.3390/s121114612
[4] Liu, J., Chen, R., Pei, L., Guinness, R. and Kuusniemi, H. (2012) A Hybrid Smartphone Indoor Positioning Solution for Mobile LBS. Sensors, 12, 17208-17233.
https://doi.org/10.3390/s121217208
[5] Thrun, S. (2002) Probabilistic Robotics. Communications of the ACM, 45, 52-57.
https://doi.org/10.1145/504729.504754
[6] Grisetti, G., Stachniss, C. and Burgard, W. (2007) Improved Techniques for Grid Mapping with Rao-Blackwellized Particle Filters. IEEE Transactions on Robotics, 23, 34-46.
https://doi.org/10.1109/TRO.2006.889486
[7] Montemerlo, M., Thrun, S., Koller, D. and Wegbreit, B. (2002) FastSLAM: A Factored Solution to the Simultaneous Localization and Mapping Problem. Proceedings of 18th Na-tional Conference on Artificial Intelligence (AAAI-02), Edmonton, 28 July-1 August 2002, 593-598.
[8] Mon-temerlo, M., Thrun, S., Koller, D. and Wegbreit, B. (2003) FastSLAM 2.0: An Improved Particle Filtering Algorithm for Simultaneous Localization and Mapping That Provably Converges. Proceedings of the 18th International Joint Conference on Artificial Intelligence, Acapulco, 9-15 August, 2003, 1151-1156.
[9] Kohlbrecher, S., von Stryk, O., Meyer, J. and Klingauf, U. (2011) A Flexible and Scalable SLAM System with Full 3D Motion Estimation. 2011 IEEE International Symposium on Safety, Security, and Rescue Robotics, Kyoto, 1-5 November 2011, 155-160.
https://doi.org/10.1109/SSRR.2011.6106777
[10] Carlone, L., Aragues, R., Castellanos, J.A. and Bona, B. (2011) A Linear Approximation for Graph-Based Simultaneous Localization and Mapping. In: Durrant-Whyte, H., Roy, N. and Abbeel, P., Eds., Robotics: Science and Systems VII, MIT Press, Cambridge.
https://doi.org/10.15607/RSS.2011.VII.006
[11] Zhang, J. and Singh, S. (2014) LOAM: Lidar Odometry and Mapping in Real-Time. Proceedings of the Robotics: Science and Systems, Berkeley, 12-16 July 2014, 9 p.
https://doi.org/10.15607/RSS.2014.X.007
[12] Hess, W., Kohler, D., Rapp, H. and Andor, D. (2016) Re-al-Time Loop Closure in 2D LIDAR SLAM. 2016 IEEE International Conference on Robotics and Automation (ICRA), Stockholm, 16-21 May 2016, 1271-1278.
https://doi.org/10.1109/ICRA.2016.7487258
[13] Shan, T. and Englot, B. (2018) LeGO-LOAM: Lightweight and Ground-Optimized Lidar Odometry and Mapping on Variable Terrain. 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Madrid, 1-5 October 2018, 4758-4765.
https://doi.org/10.1109/IROS.2018.8594299
[14] Deschaud, J.-E. (2018) IMLS-SLAM: Scan-to-Model Matching Based on 3D Data. 2018 IEEE International Conference on Robotics and Automation (ICRA), Brisbane, 21-25 May 2018, 2480-2485.
https://doi.org/10.1109/ICRA.2018.8460653
[15] Zhou, B., He, Y., Qian, K., Ma, X. and Li, X. (2021) S4-SLAM: A Real-Time 3D LIDAR SLAM System for Ground/Watersurface Multi-Scene Outdoor Applications. Autonomous Robots, 45, 77-98.
https://doi.org/10.1007/s10514-020-09948-3
[16] Chiang, K.-W., Tsai, G.-J., Li, Y.-H., Li, Y. and El-Sheimy, N. (2020) Navigation Engine Design for Automated Driving Using INS/GNSS/3D LiDAR-SLAM and Integrity As-sessment. Remote. Remote Sensing, 12, Article No. 1564.
https://doi.org/10.3390/rs12101564
[17] Wang, Z., Chen, Y., Mei, Y., Yang, K. and Cai, B. (2018) IMU-Assisted 2D SLAM Method for Low-Texture and Dynamic Environments. Applied Sciences, 8, Article No. 2534.
https://doi.org/10.3390/app8122534
[18] Walcott-Bryant, A., Kaess, M., Johannsson, H. and Leonard, J.J. (2012) Dynamic Pose Graph SLAM: Long-Term Mapping in Low Dynamic Environments. 2012 IEEE/RSJ In-ternational Conference on Intelligent Robots and Systems, Vilamoura-Algarve, 7-12 October 2012, 1871-1878.
https://doi.org/10.1109/IROS.2012.6385561
[19] Forster, C., Pizzoli, M. and Scaramuzza, D. (2014) SVO: Fast Semi-Direct Monocular Visual Odometry. 2014 IEEE International Conference on Robotics and Automation (ICRA), Hong Kong, 31 May-7 June 2014, 15-22.
https://doi.org/10.1109/ICRA.2014.6906584
[20] Mur-Artal, R., Montiel, J.M.M. and Tardós, J.D. (2015) ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, 31, 1147-1163.
https://doi.org/10.1109/TRO.2015.2463671
[21] Mur-Artal, R. and Tardós, J.D. (2017) ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras. IEEE Transactions on Robotics, 33, 1255-1262.
https://doi.org/10.1109/TRO.2017.2705103
[22] Newcombe, R.A., Lovegrove, S.J. and Davison, A.J. (2011) DTAM: Dense Tracking and Mapping in Real-Time. 2011 International Conference on Computer Vision, Barcelona, 6-13 November 2011, 2320-2327.
https://doi.org/10.1109/ICCV.2011.6126513
[23] Engel, J., Schöps, T. and Cremers, D. (2014) LSD-SLAM: Large-Scale Direct Monocular SLAM. In: Fleet, D., Pajdla, T., Schiele, B. and Tuytelaars, T., Eds., Computer Vi-sion—ECCV 2014. Lecture Notes in Computer Science, Vol. 8690, Springer, Cham, 834-849.
https://doi.org/10.1007/978-3-319-10605-2_54
[24] Davison, A.J., Reid, I.D., Molton, N.D. and Stasse, O. (2007) MonoSLAM: Real-Time Single Camera SLAM. IEEE Transactions on Pattern Analysis and Machine Intel-ligence, 29, 1052-1067.
https://doi.org/10.1109/TPAMI.2007.1049
[25] Klein, G.and Murray, D. (2007) Par-allel Tracking and Mapping for Small AR Workspaces. 2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality, Nara, 13-16 November 2007, 225-234.
https://doi.org/10.1109/ISMAR.2007.4538852
[26] Yi, K.M., Trulls, E., Lepetit, V. and Fua, P. (2016) LIFT: Learned Invariant Feature Transform. In: Leibe, B., Matas, J., Sebe, N. and Welling, M., Eds., Computer Vi-sion—ECCV 2016. Lecture Notes in Computer Science, Vol. 9910, Springer, Cham, 467-483.
https://doi.org/10.1007/978-3-319-46466-4_28
[27] Lowe, D.G. (2004) Distinctive Image Features from Scale-Invariant Keypoints. International Journal of Computer Vision, 60, 91-110.
https://doi.org/10.1023/B:VISI.0000029664.99615.94
[28] 周彦, 李雅芳, 王冬丽, 裴廷睿. 视觉同时定位与地图创建综述[J]. 智能系统学报, 2018, 13(1): 97-106.
[29] Yang, S. and Scherer, S. (2019) CubeSLAM: Mo-nocular 3-D Object SLAM. IEEE Transactions on Robotics, 35, 925-938.
https://doi.org/10.1109/TRO.2019.2909168
[30] Li, R., Wang, S., Long, Z. and Gu, D. (2018) UnDeepVO: Monocular Visual Odometry through Unsupervised Deep Learning. 2018 IEEE International Conference on Ro-botics and Automation (ICRA), Brisbane, 21-25 May 2018, 7286-7291.
https://doi.org/10.1109/ICRA.2018.8461251
[31] Cadena, C., et al. (2016) Past, Present, and Future of Sim-ultaneous Localization and Mapping: Toward the Robust-Perception Age. IEEE Transactions on Robotics, 32, 1309-1332.
https://doi.org/10.1109/TRO.2016.2624754
[32] Sualeh, M. and Kim, G.-W. (2018) Simultaneous Localization and Mapping in the Epoch of Semantics: A Survey. International Journal of Control, Automation and Systems, 17, 729-742.
https://doi.org/10.1007/s12555-018-0130-x