光电工程  2019, Vol. 46 Issue (7): 190182      DOI: 10.12086/oee.2019.190182     
智能驾驶车载激光雷达关键技术与应用算法
陈晓冬1,2 , 张佳琛1,2 , 庞伟凇1,2 , 艾大航1,2 , 汪毅1,2 , 蔡怀宇1,2     
1. 天津大学精密仪器与光电子工程学院,天津 300072;
2. 天津大学光电信息技术教育部重点实验室,天津 300072
摘要:随着全球智能驾驶进入产业化与商业化的准备期,车载激光雷达凭借其优异性能已成为不可或缺的环境感知传感器并在硬件技术和应用算法上得到迅猛发展。文章以激光雷达扫描方式及相关技术为切入点对智能驾驶车载激光雷达硬件关键技术进行了介绍,分别讨论了机械式、混合式和全固态车载激光雷达的原理、特点及现状;以智能驾驶应用任务为导向,对点云分割、目标跟踪与识别、即时定位与地图重建这三类车载激光雷达应用算法进行了归纳总结。分析可见,车载激光雷达为降低成本、提升性能、满足智能驾驶需求将进一步走向固态化、智能化和网络化;应用算法研究的追求目标则是实时、高效和可靠。
关键词智能驾驶    车载激光雷达    扫描方式    雷达点云应用算法    
Key technology and application algorithm of intelligent driving vehicle LiDAR
Chen Xiaodong1,2, Zhang Jiachen1,2, Pang Weisong1,2, Ai Dahang1,2, Wang Yi1,2, Cai Haiyu1,2     
1. School of Precision Instruments and Opto-Electronics Engineering, Tianjin University, Tianjin 300072, China;
2. Key Laboratory of Opto-Electronics Information Technology of Ministry of Education, Tianjin University, Tianjin 300072, China
Abstract: With the preparation of intelligent driving into industrialization and commercialization, LiDAR has become an indispensable environmental sensor with its excellent performance and has developed rapidly in hardware technology and related application algorithms. This paper introduces the key technologies of LiDAR hardware by using LiDAR scanning method and related technology as the entry point, discussing the principle, characteristics and current status of mechanical, hybrid and all-solid-state automotive LiDAR. Three kinds of task-oriented vehicle LiDAR application algorithms, point cloud segmentation, target tracking and recognition, simultaneous location and mapping, are summarized. The analysis shows that the vehicle LiDAR will further become solid-state, intelligent and networked in order to reduce costs, improve performance and meet intelligent driving requirements; the pursuit of application algorithm research is real-time, efficient and reliable.
Keywords: intelligent driving    vehicle LiDAR    scanning method    LiDAR point cloud application algorithm    

1 引言

智能驾驶技术的迅速发展极大地推动了各类环境感知传感器的研究[1]。车载激光雷达(laser detection and ranging,LiDAR)因其具有可准确获取目标的三维信息、分辨率高、抗干扰能力强、探测范围广、近全天候工作等优点[2],在智能驾驶环境感知系统中占据了重要地位。智能驾驶这一特定情境对车载激光雷达的硬件技术与应用算法的性能均提出了很高的要求,如应用于Level 3(由SAE(Society of Automotive Engineers)提出的智能驾驶自动等级,从Level 0~5共6级)[3]以上智能驾驶系统的车载激光雷达,其激光安全等级应为Level 1(功率小于0.4 mW,低输出激光),以保证智能驾驶汽车行驶过程中行人的安全;其探测距离至少应为100 m,测量精度在厘米级,扫描频率至少在5 Hz ~20 Hz,以满足智能驾驶汽车的高速行驶的要求;而且LiDAR点云数据的传输速率、点云处理算法的运行速度、精度以及处理效果也必须满足汽车高速行驶的需求;同时激光雷达的体积、重量、成本、驱动电压均应当符合车载系统的安装水准(图 1)[4]

图 1 Luminar激光雷达运行于智能驾驶车上生成的周围环境点云图[4] Fig. 1 Luminar LiDAR records a point cloud image its surroundings[4]

为达到智能驾驶对车载激光雷达的高要求,针对车载激光雷达关键技术与应用算法的相关研究正在不断地深入拓展。在激光发射、接收、扫描等诸多激光雷达硬件技术中,目前人们普遍认为扫描技术是车载激光雷达的关键[5],它直接决定了雷达的扫描频率、扫描范围、点云数据量等各项重要参数,是缩小车载激光雷达的整体体积与降低成本的关键,也直接影响了车载激光雷达的车规级量产的实现。在应用算法开发方面,针对高扫描频率与分辨率的车载激光雷达每秒产生的百万计点云数据,点云处理算法多种多样,它们都是建立在应用开发者选取的不同应用场景之上,特性各有优劣[6],尚不存在完美的统一算法,但应用算法研究追求的目标是相同的,就是要在有效处理数据的基础上不断追求实时性与高精度,以便为智能驾驶系统的控制与决策提供有效的技术支撑。

本文将围绕车载激光雷达关键技术,特别是以扫描方式的变革为核心进行重点阐述,分析现有激光雷达扫描技术的类型、实现方法及发展趋势;总结现有车载激光雷达应用算法的发展以及由基础算法的集成衍生出的前沿热门技术。

2 车载激光雷达关键技术

随着全球智能驾驶进入产业化与商业化的准备期,车载激光雷达凭借其优异性能成为了不可或缺的环境感知传感器。应用于智能驾驶的车载激光雷达主要是利用时间飞行法(time of flight,TOF)完成测距的脉冲式雷达。Velodyne公司、镭神智能公司等激光雷达供应商及哈尔滨工业大学[7]、南京理工大学[8]等各大科研机构研发的车载激光雷达均为脉冲式激光雷达,涉及的关键技术包括:激光器技术、光学系统设计技术、激光扫描技术、信号处理技术、激光测距技术等。

脉冲式激光雷达系统由激光发射模块、接收模块和信号控制处理模块三部分构成,如图 2所示。雷达工作时,控制单元驱动电路,产生周期性脉冲信号驱动激光器发射固定脉宽的激光窄脉冲,该脉冲激光经扫描单元以一定的时序在设定方向准直出射,实现一定范围内的周期性扫描探测;激光发射的同时,控制单元将向脉冲测距电路发射计时起始信号。若发射出的脉冲激光遇到障碍物后反射,则被接收模块中光学接收单元传至光电探测器上,进而被转化为电信号,再经信号处理电路进行放大、整形等处理;脉冲测距电路将根据处理后的电信号计算目标的距离信息,并向控制单元发送终止计时信号。

图 2 脉冲测距式车载激光雷达系统结构示意图 Fig. 2 Structure of the pulsed distance measurement vehicle LiDAR system

智能驾驶车载激光雷达系统的各组成部分共同影响着其整体性能参数和生产成本,其中扫描方式及相关技术起着决定性的作用。作为车载激光雷达的关键技术,扫描单元首先决定着雷达的扫描性能,进而决定着雷达的功耗、重量、尺寸和成本。目前智能驾驶应用主流车载激光雷达为机械扫描式雷达,因其体积大、功耗大,特别是成本远远超出了智能驾驶商业化预期,自然成为人们重点关注和致力研究解决的焦点问题,也由此形成了以扫描技术为核心的车载激光雷达小型化、固态化技术研究趋势。根据扫描单元的结构不同,智能驾驶车载激光雷达可分为机械式[9]、混合式[10]及全固态三类[11],除机械式雷达外,混合式车载激光雷达已开始应用于智能驾驶解决方案中,全固态车载激光雷达仍处于研发初期阶段。

2.1 机械式车载激光雷达

机械式车载激光雷达是指通过机械旋转实现激光扫描的车载激光雷达。其中,激光发射部件在竖直方向上排布成激光光源线阵,并可通过透镜在竖直面内产生不同指向的激光光束;在步进电机的驱动下持续旋转,竖直面内的激光光束由“线”变成“面”,经旋转扫描形成多个激光“面”,从而实现探测区域内的3D扫描。机械式车载激光雷达是最早应用于智能驾驶的激光雷达产品,时至今日凭借其原理简单、易驱动、易实现水平360°扫描等优点仍被广泛应用于智能驾驶实验测试车上。

美国Velodyne公司是著名的机械式车载激光雷达供应商,Velodyne的两款机械式激光雷达产品如图 3所示[12]。其代表性产品是64线激光雷达HDL-64E,该产品发射系统与接收系统均随着机械轴转动,探测性能优异。2007年在美国国防高级研究计划局(Defense Advanced Research Projects Agency,DARPA)举办的无人车城市挑战大赛中,HDL-64E助力卡耐基梅隆大学BOSS无人车和斯坦福大学Junior无人车分别获得了比赛冠军和亚军[13]。前不久,Velodyne推出了128线激光雷达VLS-128,相比于HDL-32E其尺寸缩小了70%,探测距离增大了1倍,分辨率则提高了4倍;从技术性能来看,VLS-128在探测距离和分辨率上已全面超越市场上现有产品[14]

图 3 Velodyne激光雷达。(a) HDL-64E;(b) VLS-128[12] Fig. 3 Velodyne LiDAR. (a) HDL-64E; (b) VLS-128[12]

尽管机械式车载激光雷达探测性能优越、技术成熟,是当前的主流,但其高昂的成本和较短的使用寿命却使其无法实现车规级量产。机械式车载激光雷达内部结构精密,零件数多、组装工艺复杂、制造周期长,因此生产成本居高不下。HDL-64E售价高达8万美元,VLS-128售价虽尚未公开,但可想而知必定更加昂贵。机械式车载激光雷达内部含有大量可动部件,易受车辆振动影响,在行车环境下磨损严重,长期使用可靠性差。如今机械式传感器平均失效时间为1000 h~3000 h,而汽车厂商的要求是至少13000 h。此外,机械式激光雷达还存在接受光窗数值小、信噪比低等缺点[15]

为降低车载激光雷达的生产成本,增加其结构的稳定性,同时保证其较好的探测性能,混合式车载激光雷达和全固态车载激光雷达应运而生。速腾聚创、光珀智能等不少激光雷达初创企业和传感器领军企业都以固态化激光雷达为主打产品,Velodyne、Ibeo等老牌供应商也开始了固态化激光雷达的研发之旅;在这些固态化激光雷达中,落地生产并在智能驾驶解决方案中初步推广应用的主要是混合固态激光雷达,具有实用性的全固态激光雷达产品仍在研发中。

2.2 混合式车载激光雷达

混合式车载激光雷达将微机电系统(micro electro mechanical system,MEMS)与振镜结合形成MEMS振镜,通过振镜旋转完成激光扫描,一般称为MEMS车载激光雷达。其发射系统结构如图 4所示,驱动电路驱动激光器产生激光脉冲同时驱动MEMS振镜旋转,激光在旋转振镜的反射下实现扫描,经发射光学单元准直后出射。

图 4 MEMS车载激光雷达发射系统结构 Fig. 4 Structure of MEMS vehicle LiDAR transmitting system

MEMS车载激光雷达将机械结构进行微型化、电子化的设计,避免了机械式激光雷达那样整体大幅度的旋转,有效降低了功耗和整个系统在行车过程中出现问题的几率[16]。由于其将主要部件应用芯片工艺生产,量产能力随之提高,成本大幅降低,售价远低于同等性能的机械式车载激光雷达。加之技术上容易实现,因此是当下呼声最高、最有希望短期内实现车规级量产的车载激光雷达。

MEMS车载激光雷达的不足之处在于MEMS振镜机械扫描角度较小,需要增设角度扩大系统来实现大视场扫描。董光焰[10]、Siepmann[17]等采用正负透镜组来扩大扫描角度,使扫描范围增大到40°以上。李启坤等人[18]提出一种基于2D MEMS镜的激光雷达,通过1×6高速光开关分时给6个水平探测角度为60°子系统提供光信号,实现360°水平方向全扫描,但该雷达有效探测距离仅限于一百米以内。

MEMS激光雷达驱动电路的设计与振镜整体结构的紧凑性相互制约,而且需综合考虑其功耗、电压和数据线性程度。常见的驱动方式有三种:静电驱动[19]、电磁驱动[20]和压电驱动[21]。压电驱动是近几年研究热点,相比于静电驱动,其驱动电压与功耗较低,更适用于车载系统;相比电磁驱动,其无需进行磁屏蔽,紧凑性更好,利于实现小型化;此外,压电驱动稳定性好,驱动电压与振镜旋转角度之间的线性程度高。其缺陷在于制作工艺具有一定难度,驱动角度较小。

2.3 全固态车载激光雷达

全固态车载激光雷达,完全取消了机械扫描结构,水平和垂直方向的激光扫描均通过电子方式实现;相比于仍保留有“微动”机械结构的MEMS激光雷达来说,电子化的更加彻底。由于其内部没有任何宏观或微观上的运动部件,可靠性高、耐持久使用,系统整体体积缩小。主要包括光学相控阵(optical phased array,OPA)车载激光雷达和闪光(Flash)型车载激光雷达两种。

1) OPA车载激光雷达

OPA车载激光雷达采用光学相位控制阵列技术实现激光扫描。相位控制阵列由电光扫描单元排列而成,在特定电压的作用下,各单元将发射出具有特定相位和光强的光波;调节各发射光波之间的相位关系,可使其在某一特定方向上产生相互加强的干涉,从而产生具有一定指向性的高强度光束;相控阵单元将按程序设计,在各设定方向上依次产生高强度光束,从而达到光束扫描的效果。2016年美国国际消费类电子产品展览会(International Consumer Electronics Show,ICES)上,Quanergy推出的全球款专为智能驾驶汽车设计的固态激光雷达S3即为OPA固态激光雷达,如图 5所示[22],商家声称该产品成本低至200美元,只有手掌大小,探测距离150 m,角分辨率高达0.02°,水平视场为120°。但S3至今尚未发售,在智能驾驶解决方案中的实际应用案例无从查询,随车使用时能否达到介绍的效果也不得而知。

图 5 Quanergy OPA激光雷达S3[22] Fig. 5 Quanergy OPA LiDAR S3[22]

目前用于实现电光扫描的主要材料有:液晶[23]、光波导[24](铌酸锂晶体、GaAs等)、PLZT压电陶瓷[25]、铁电畴[26]、光纤光栅[27]。各种材料使用时的相关参数如表 1所示,可以看出,PLZT压电陶瓷、铁电畴与光纤光栅的驱动电压都很高,液晶与光波导材料(铌酸锂晶体、GaAs)的驱动电压则较低。由于车载系统难以提供较高的驱动电压,因此目前车载激光雷达中主要应用的电光材料为液晶与光波导。

表 1 不同材料用于光学相控阵激光扫描时的参数对比 Table 1 Parameters of different materials used in optical phased array laser scanning
液晶 铌酸锂晶体 GaAs PLZT压电陶瓷 铁电畴 光纤光栅
响应时间 ms ps ns ns ms ns
驱动电压/V < 10 < 10 < 10 < 1000 ≈5000 700
扫描角度/(°) < 10 < 0.1 ≈30 < 0.1 ≈10 ≈20

液晶光学相控阵是一种基于液晶电控双折射性和闪耀光栅原理的实时可编程光束偏转器,多采用驱动电压低、相位调制深度大的向列相液晶[28-29]。光束偏转效率是决定液晶相控阵扫描系统性能的关键因素,为减少电场边缘效应带来的效率损失,在制作液晶光栅时应使光栅电极均匀,增加电极宽度和液晶盒厚度。增加电极宽度将降低光束偏转精度,增加液晶盒厚度会增大响应时间。因此,为提高液晶对光束的控制能力,改变传统的电极排列方式和控制方式、研制新型液晶材料将成为重点研究方向。

光波导光学相控阵[30-32]利用光波导材料作为相控阵列单元。在电压的作用下,每个波导层具有不同附加折射率,使得输出光场具有按一定规律分布的附加相位差,从而实现光束扫描。铌酸锂晶体与GaAs[33-34]是目前常用的光学相控阵材料,其驱动电压低且可实现光束的快速扫描。

OPA车载激光雷达扫描速度快,可达兆赫兹量级以上;可控性好,可对目标区域进行高密度扫描而对其他区域进行稀疏扫描;成本低,售价在几百到几千美元不等,远低于同等性能的机械式和混合式车载激光雷达。目前制约OPA车载激光雷达实现车规级量产的原因首先在于其易形成旁瓣、影响光束作用距离和角分辨率;其次在于其采用高精度集成的微阵列芯片式设计,制作工艺难度高。

2) Flash型车载激光雷达

Flash型车载激光雷达属于非扫描式激光雷达,运行时直接发射出一大片覆盖探测区域的激光,随后由高灵敏度接收器阵列计算每个像素对应的距离信息,从而完成对周围环境的绘制。

Flash型激光束直接向各个方向漫射,只要一次快闪便能照亮整个场景,因此能快速记录环境信息,避免了扫描过程中目标或激光雷达移动带来的运动畸变。目前其无法用于智能驾驶汽车的原因在于其探测距离小,当探测目标距离过大时返回的光子数有限,导致探测精度降低,无法准确感知目标方位。2016年美国亚德诺半导体公司发表的相关专利中提出通过将视角分段、将激光器与探测器分组的方法解决上述问题[35]。2017年,美国Princeton Lightwave公司推出了Flash 3D激光雷达产品GeigerCruizer,该产品使用了单光子雪崩二极管这种高敏感度传感器,在合适的频率一个光子就能将其激活,这使得GeigerCruizer感知距离超过300 m且符合人眼安全要求。根据其官网公布的测试视频可见,近至50 m处的飞盘,远到350 m处高速公路上以时速60 km行驶的汽车均在其快闪时成像;近处目标的3D点云成像较为完善,远处目标的3D点云成像则有一定程度的缺失。

3 车载激光雷达应用算法

高效的应用算法对车载激光雷达充分实现探测性能至关重要,因此业界越来越多的人认为智能驾驶汽车最终将成为一个“软件产品”。为及时准确感知周围环境,跟踪并识别障碍物、完成智能驾驶汽车定位和行驶路径规划,保证其安全、高效的行驶,车载激光雷达的数据处理应满足实时、稳定、高精度的要求。现有车载激光雷达应用算法都具有不同程度的局限性:首先,算法可靠性和实时性相互制约,二者难以同时满足;其次,算法多为针对某一特定场景开发,难以保证可移植性和稳定性。场景的复杂性和多样性使得算法的研究异彩纷呈,呈现出多层次、多角度的多元组合态势。

车载激光雷达应用算法可分为三类:点云分割算法、目标跟踪与识别算法、即时定位与地图构建算法(simultaneous localization and mapping,SLAM),如表 2所示。各类算法的合理选择使用将解决不同场景下的智能驾驶问题,其中点云分割算法是目标跟踪与识别的基础,目标跟踪与识别将实现对汽车周围障碍物运动状态和几何特征的判断,SLAM将实现汽车的精确定位与可通行路径规划。

表 2 车载激光雷达应用算法 Table 2 Vehicle LiDAR application algorithm
类别 算法名称 关键技术 特点
点云分割 非模型投影法
聚类法
地面投影法、虚拟像平面投影法
K-means聚类等
简单高效,不适用于复杂形体分割
分割准确性高,较复杂
目标跟踪与识别 检测与跟踪 物体级检测与跟踪
栅格单元级检测与跟踪
实时性好,不适用于复杂环境
跟踪精度高,计算效率低
分类与识别 基于全局特征的目标分类与识别
基于局部特征的目标分类与识别
识别速度快,受环境遮挡影响大
噪声不敏感,抗密度千扰性差
即时定位与地图构建 基于滤波器的SLAM
基于图优化的SLAM
扩展卡尔曼滤波器、Fast SLAM等
位姿图优化等
较准确,不适用于大场景
全局优化,对初始值要求高
3.1 点云分割

点云分割是依据数据点间距和密度等特性,将点云划分为独立子集的过程。理想情况下,每个子集均将用于一个实际存在的目标物体,且包含物体的几何与位姿特征[36]。精确的点云分割是后续目标跟踪与识别的重要前提。根据实验原理不同,点云分割方法主要分为非模型投影法与聚类法两类。

非模型投影法根据投影方向的不同分为地面投影法和虚拟像平面投影法两类。地面投影法首先将点云投影至俯视平面,再利用栅格地图法进行处理[37]。较为典型的栅格地图处理法为栅格高度差法,该方法计算投影至每个栅格的点云高度差值,通过与经验阈值比较初步将栅格划分为障碍物和地面两类,最后通过对障碍物栅格聚类来检测目标物体[38];实现过程简单高效,且在栅格基础上有利于进行多传感器融合。但栅格单元参数无法自适应调节,容易造成过分割与欠分割。虚拟像平面投影将点云投影至以激光雷达旋转轴为中心的虚拟圆柱体上,生成用像素值表示数据点至激光雷达距离的深度图像[39]。计算机图形学的深度图像法仅适用于噪声少、环境几何模型简单的点云数据,难以应用在智能驾驶车行驶的复杂环境中[36]。Moosmann等人[40]提出将深度图像与表面几何特征融合的分割方法,能应对复杂度稍高的环境,但点云局部凸性特征过于依赖法向量精度,处理单帧数据需600 ms,耗时过长。

用于点云分割中的聚类法经典算法有K-means聚类、DBSCAN(density-based spatial clustering of applications with noise)聚类,迭代自组织数据分析算法(iterative selforganizing data analysis techniques algorithm,ISODATA)等。K-means聚类原理简单、易于实现,但需要指定聚类数量。DBSCAN可对任意形状的稠密数据集进行聚类,解决了K-means对初始值和异常值敏感的问题,但调参更加复杂,且当样本数据集较大时,聚类收敛时间较长。ISODATA算法在K-means算法的基础上增加对聚类结果的合并和分裂操作,有效解决了聚类数量需预先设定的问题,但设定的额外参数过多,难以指定合理值。近年来,在经典算法核心原理的基础上延伸出了许多新型算法。段建民等人[41]提出了一种基于加权欧氏距离的改进算法(ordering points to identify the clustering structure,OPTICS),其不受参数约束,增加了目标提取的准确性,但提取出的目标类别有限。王肖等人[36]利用地面直线可以表征地面状态变化的特点,通过分块直线拟合算法去除背景地面数据,对保留下的前景点云数据进行聚类并计算其类属参数,大幅加快了目标物体分割速度,但聚类标准单一,难以克服多目标间距离过近的情况。

总的来说,非投影模型法较为简单高效,但难以对不规则或较复杂形体进行准确分割,而聚类法可实现较为精准的特征级分割。点云分割时,应综合考虑探测环境的类型和所得数据量大小等特点选择合适的方法,以对车辆、行人、道路设施等目标精确检测。

3.2 目标跟踪与识别

目标跟踪与识别算法旨在从车载激光雷达点云数据中解算出探测目标的尺寸、速度、方向和类别等信息,是智能驾驶汽车进行自主路径规划与安全避障的关键技术。目标跟踪指目标检测与跟踪,即检测具有特定特征的目标并对其跟踪,如图 6所示[42];目标识别指目标分类与识别,即将具有相似特征的点云归为一类并根据此特征识别其具体类别。

图 6 点云目标快速检测与跟踪[42] Fig. 6 Point cloud target rapid detection and tracking[42]

1) 检测与跟踪

基于车载激光雷达点云数据的目标检测与跟踪算法根据处理数据层次的不同分为两类[43]:其一物体级,基于滤波进行目标检测与跟踪;其二栅格单元级,基于栅格单元进行目标检测与跟踪。

物体级目标检测与跟踪方法借助传感器的物理模型和物体的几何模型直接从传感器数据进行推断,常采用贝叶斯滤波器或粒子滤波器实现。这些滤波器的功能为从一系列包含噪声的测量值中估计真实值。Wang等人[44]提出基于原始点云数据轮廓使用无参数模型对目标物体建模,用贝叶斯滤波器联合估计局部静态背景环境参数和动态目标位姿,实现了基于2D激光雷达数据的动态目标检测与跟踪。无参数模型使得目标检测不受预设形状和类别的约束,且避免了单独处理每个对象类的参数模型,但无法提供被跟踪目标的语义信息,这将阻碍对场景的深度感知。Lee[45]通过在单线激光雷达数据中提取人腿部的几何特征来检测行人,使用倒立摆模型和扩展卡尔曼滤波器计算行人迈步频率和幅度,实现了在雷达运动过程中对多行人目标的检测与跟踪。但此方法主要针对室内场景下的二维激光雷达数据,若与三维点云特征结合,计算效率将难以保证。

栅格单元级目标检测与跟踪方法是建立在环境占据栅格图基础之上的,可避免物体级跟踪方法中数据关联错误的问题,代表性的方法为贝叶斯占领滤波器(Bayesian occupancy filter,BOF)[46],即使用贝叶斯滤波器完成被测目标所在栅格的状态参数估计。Qadeer等人[47]将BOF与快速聚类跟踪算法(fast clustering-tracking algorithm,FCTA)结合,采用包含占领状态和速度信息的栅格单元表示周边环境,首先通过BOF估计占领栅格运动状态分布,随后通过FCTA进行栅格分类与跟踪,在高速公路上完成了假阳性率较低的卡车识别;为应对复杂城市道路环境,该滤波框架中预测步骤的近似算法还需进一步改进。

总的来说,物体级目标检测与跟踪常用于高速公路等简单的环境或实时性要求高的场景;栅格单元级目标跟踪方法在栅格分辨率高时具有更高的跟踪准确率,但计算效率变低,无法进行实时运行。

2) 分类与识别

基于车载激光雷达点云数据的分类与识别通过点云特征提取实现,一般认为具有相似特征的点云同属于一个特定的类别;其方法根据特征提取时计算尺度的不同分为两类:基于全局特征提取的方法与基于局部特征提取的方法。

基于全局特征的目标识别与分类方法在整个目标尺度上进行特征计算,用一个向量来描述目标的几何属性。常用的全局特征为视点特征直方图(viewpoint feature histogram,VFH)[48]。VFH源于快速点特征直方图(fast point feature histogram,FPFH),由扩展FPFH分量和视点特征分量组成。扩展FPFH使得VFH具有较快的特征提取速度和较强的识别力,视点变量的加入使得VFH在保持特征缩放不变性的同时具有位姿特异性。Aldoma等人[49]在VFH的基础上提出了聚类视点特征直方图(clustered viewpoint feature histogram,CVFH),只计算稳定聚类区域的全局特征,主要针对点云有残缺时的识别与分类问题。

局部特征提取技术用少数参数描述一个点及其邻域的几何特征,分为使用局部参考坐标系(local reference frame,LRF)的方法和不使用LRF的方法。不使用LRF的局部特征提取方法通过将点云法向量、曲率等几何属性累加至直方图中构建特征,无法表示点云空间信息,位姿描述性较低。Taati等人[50]提出了变维数局部形状特征,迭代求解局部面特征的最优值,但优化过程效率较低,无法实时运用。使用LRF的局部特征提取方法根据点云邻域内数据分布构建局部参考坐标系,并在该坐标系下提取特征描述子[51]。Mian等人[52]提出一种基于张量表示的特征,为每个有向点对定义LRF,并将交叉区域编码为多维表,可以有效处理具有噪声和遮挡的场景,但由于需要为每个点对定义LRF,导致组合数据过多、效率不高[53]

实际应用中应根据点云数据特点选择合适的特征提取方法。基于全局特征的目标识别与分类方法使用FPFH后计算复杂度较低,具有实时应用的可能性,但其利用目标点云整体的信息,受环境遮挡影响较大。局部特征提取方法具有一定的抗噪声能力,但计算量较大,抗密度干扰性差。

3.3 即时定位与地图构建

即时定位与地图构建技术指的是搭载特定传感器的主体,在未知环境中运动时,同时完成对环境的建模和对自身运动的估计。根据搭载的主体传感器的不同,大体分为两类:基于视觉传感器的视觉SLAM和基于激光雷达的激光SLAM。应用于智能驾驶的SLAM多为激光雷达SLAM,这是因为视觉传感器受光照变化影响大、不能准确快速获取探测目标的深度信息,而相比之下激光雷达可在日常情况下精确高效感知环境的三维信息、更为稳妥可靠。用于实现激光SLAM的技术主要包括概率滤波器和图优化两种。

基于概率滤波器的激光SLAM算法通过计算激光雷达和环境中路标点位姿的概率分布完成定位和建图。Smith等人[54]提出使用扩展卡尔曼滤波器(the extended Kalman filter,EKF)进行增量式定位与建图,通过观测模型和运动模型递归估计由雷达位姿和路标点位姿构成的联合状态变量。EKF估计值较为精确,但对错误的数据关联十分敏感,且时间复杂度与状态变量数目呈平方关系,无法长时间工作。Montemerlo M等人[55]提出了Factored Solution to SLAM (FastSLAM),结合使用粒子滤波器和EKF求解状态变量,将时间复杂度降为线性,但能既准确又实时地表示位姿状态的粒子数目几乎无法确定[56]

基于图优化的激光SLAM算法将累积的定位误差建模为非线性最小二乘问题,用图模型表达该问题的优化关系并迭代计算使误差最小化的位姿最优解。谷歌提出的Cartographer[57-58]将局部地图构建时的帧数据匹配表示成最小二乘优化问题,借助Ceres solver完成求解;同时,使用分支定界帧匹配法(branch-and-bound scan matching,BBS)进行回环检测,并通过稀疏位姿优化(sparse pose adjustment,SPA)将回环闭合。由于采用了回环检测消除累积误差,其建图效果十分稳定;由于采用了BBS和SPA,其回环检测精度高、可实时。但Cartographer最初是针对室内场景设计的,若要用于智能驾驶,需补充并实现合理有效的地图内存管理机制,图 7即为Cartographer所构建室内场景地图。

图 7 Cartographer所构建室内场景地图[58] Fig. 7 Indoor scene map constructed by Cartographer[58]

总的来说,基于概率滤波器的算法多采用马尔可夫假设,仅通过上一时刻的状态估计当前状态;在小场景下表现较好,无法胜任大场景下的SLAM,且难以进行回环检测。而基于图优化的算法在优化过程中利用所有时刻的状态求解全局最优解,但对初始值要求较高、容易陷入局部极值。在长时间或大场景情况下可采用批量优化策略缓解计算负担,且可实施回环检测,是目前激光雷达SLAM的主流技术。

4 总结

本文以激光雷达扫描方式及相关技术为切入点对智能驾驶车载激光雷达硬件关键技术进行了介绍与讨论,以智能驾驶应用任务为导向对其共性应用算法进行了总结与分析。不难发现,智能驾驶车载激光雷达要实现车规级量产,最重要的是进行可生产性设计,降低成本、提高性能。目前,虽然机械式车载激光雷达仍处于应用主流,混合式车载激光雷达已开始应用且有望量产,但符合小型化、低成本化理念的固态车载激光雷达在业内呼声越来越高,已成为理想目标。

各类智能驾驶功能均依靠特定的应用算法开发实现。智能驾驶的环境复杂多变,从庞杂的激光雷达点云数据中准确快速地提取有效数据并正确理解与分析有用信息是激光雷达应用算法开发的终极目标。目前,智能驾驶车载激光雷达应用算法尚没有统一的框架和评判标准,具有较强的针对性和一定的特殊性。相关研发团队提出了诸多算法方案,其共性技术包括点云分割技术、目标跟踪与识别技术、即时定位与地图构建技术等,如何提高算法鲁棒性和规模化的能力是研究的关键。

面向智能驾驶应用的车载激光雷达产品目前仍面临着很多挑战:

1) 成本居高不下

高昂的成本几乎是车载激光雷达被大规模推广使用的最大障碍。目前市场上性能优异、适用于高级别智能驾驶汽车的车载激光雷达售价从几千美元至几万美元不等,远高于其他环境感知传感器,有些甚至超出智能驾驶汽车本身价格,难以被智能驾驶市场接受。

2) 车规级量产困难

自法国法雷奥(Valeo)公司宣布在奥迪A8车型上量产4线激光雷达ScaLa之后,关于激光雷达车规级量产的消息几近空白,而且已量产的ScaLa能实现的自动驾驶功能相当有限。激光雷达要实现车规级量产,需满足性能、环境适应性、可靠性、产品一致性等多方面要求,且供应商需建立规范化、自动化的装配生产线。此外,车载激光雷达车规级的有效验证方式也尚未有定论。

3) 气候环境影响

车载激光雷达的探测光束,受大气吸收、散射、折射效应的影响。首先,智能驾驶汽车中的激光雷达一般安装在汽车顶部或嵌于车身四周,较低的安装高度使得大气中某些气体分子和悬浮粒子引起的回波缩减效应较大,从而造成激光雷达探测器的接收效果变差。其次,在雨、雾、冰雪等恶劣天气下,空中的悬浮物会对激光发射、反射以及检测等过程产生不良影响,造成激光雷达探测范围减小、检测精度降低。

4) 应用算法的适应性

当前各种车载激光雷达应用算法通常只针对某个特定场景开发,而且往往精度越高、适应性越差,使用范围相当有限。面对各类复杂多变的智能驾驶场景,使算法具有扩展性和可移植性,提升算法的自适应性尤为必要。

为战胜上述挑战,未来研究热点将包括:

1) 车载激光雷达固态化技术

传统机械式车载激光雷达短期内还难以摆脱高成本的制约,更具价格优势的激光雷达固态化成为大势所趋。固态化技术研究的关键点在于进一步提升技术可靠性,改善探测距离、范围、精度等重要性能,加快制造性设计落地。

2) 车载激光雷达的智能化、网络化技术

为适应智能驾驶复杂应用要求,车载激光雷达将日趋智能化,如:部分数据处理功能下移;工作模式可灵活配置,实现对用户感兴趣的区域集中探测;可扩展等。随着5G来临,在车联网技术的支持下,智能驾驶将实现云、车、路信息一体化共享。彼时车载激光雷达可能将作为整个网络中的节点,不仅仅专属于智能车,还能合理应答网络终端命令调整自身工作模式,从而实现软硬件解耦,更加高效灵活地完成感知任务。

3) 多传感器数据融合以及新型智能组合器件

单一传感器无法独自可靠完成智能驾驶环境感知任务,多传感器冗余配置和信息融合将突破单一传感器的局限性,发挥多传感器的联合优势,提高系统可靠性和鲁棒性,扩展系统的时间和空间覆盖率,更加准确和全面地感知环境。如:激光雷达和毫米波雷达结合将克服恶劣天气的影响,激光雷达和视觉相机的结合将同时获得探测物体的深度信息和色彩纹理信息等。在深入研究多传感器数据融合算法的同时,基于该原理的新型智能组合器件开发初见端倪,如:美国AEye公司发布的LiDAR传感器,将MEMS激光雷达与微光摄像机进行物理融合,可直接输出彩色3D探测数据,故也被称为全彩激光雷达(true color LiDAR)。

4) 典型应用算法优化和封装

智能驾驶场景的复杂和多样造成了激光雷达应用算法的多元性和特异性,为了便于移植、提高开发效率,对典型算法进行优化和封装,将其作为成熟的模块提供给研发者调用是当下亟待解决的问题。

参考文献
[1]
Lv Y C, Xi J P, Lu Y. Analysis of patent information of lidar technology in China[J]. Science and Technology Innovation Herald, 2017, 14(20): 244-250.
吕义超, 奚建坡, 陆云. 我国激光雷达技术专利信息分析[J]. 科技创新导报, 2017, 14(20): 244-250 [Crossref]
[2]
Liu B, Zhang J, Lu M, et al. Research progress of laser radar applications[J]. Laser & Infrared, 2015, 45(2): 117-122.
刘斌, 张军, 鲁敏, 等. 激光雷达应用技术研究进展[J]. 激光与红外, 2015, 45(2): 117-122 [Crossref]
[3]
Yu Y J. The main technical branches and development trend of vehicle LiDAR[J]. E-Science Technology & Application, 2018, 9(6): 16-24.
余莹洁. 车载激光雷达的主要技术分支及发展趋势[J]. 科研信息化技术与应用, 2018, 9(6): 16-24 [Crossref]
[4]
Jeff Hecht. Lidar for Self-Driving Cars[J]. Optics & Photonics News, 2018, 29(1): 26-33.
[5]
Peng J F. Study on automated extraction methods of highway elements from mobile lidar point clouds[D]. Beijing: Beijing University of Civil Engineering and Architecture, 2017: 1-10.
彭江帆.基于车载激光扫描数据的高速公路道路要素提取方法研究[D].北京: 北京建筑大学, 2017: 1-10. [Crossref]
[6]
Gong S L. Several key technologies of 3d laser point cloud processing software[J]. Bulletin of Surveying and Mapping, 2014(6): 135-136.
龚书林. 三维激光点云处理软件的若干关键技术[J]. 测绘通报, 2014(6): 135-136 [Crossref]
[7]
He Z Y. Research on 3D imaging laser radar system for vehicle[D]. Harbin: Harbin Institute of Technology, 2015: 10-32.
何志远.车载三维成像激光雷达系统研究[D].哈尔滨: 哈尔滨工业大学, 2015: 10-32. [Crossref]
[8]
Dong S J. Design and experimental research of vehicle laser radar system[D]. Nanjing: Nanjing University of Science & Technology, 2017: 15-44.
董士军.车载激光雷达系统设计与实验研究[D].南京: 南京理工大学, 2017: 15-44. [Crossref]
[9]
Halterman R, Bruch M. Velodyne HDL-64E LIDAR for unmanned surface vehicle obstacle detection[J]. Proceedings of SPIE, 2010, 7692: 76920D. [Crossref]
[10]
Dong G Y, Liu Z J. MOEMS microlens technique and its application on lidar[J]. Journal of CAEIT, 2011, 6(1): 36-38.
董光焰, 刘中杰. 光学MEMS微镜技术及其在激光雷达中的应用[J]. 中国电子科学研究院学报, 2011, 6(1): 36-38 [Crossref]
[11]
Wu C, Liu C B, Han X E. Design of waveguide optical phased array ladar receiving system[J]. Infrared and Laser Engineering, 2016, 45(10): 1030003.
吴超, 刘春波, 韩香娥. 光波导相控阵激光雷达接收系统设计[J]. 红外与激光工程, 2016, 45(10): 1030003 [Crossref]
[12]
Velodyne正式推出128线激光雷达VLS-128, 探测距离300米, 分辨率是上一代10倍[EB/OL].(2017-11-30). https://www.leiphone.com/news/201711/qr7O8Q56xIAxfnnX.html.
[13]
HALL DAVID S. High definition lidar system: WO2008008970A2[P]. 2008-01-17.
[14]
Yi J C. Velodyne's 128-line lidar, which measures twice as far as 64, has a maximum vertical resolution of 0.17°[EB/OL]. (2017-11-08). https://www.leiphone.com/news/201711/utvihH1L9rAP67GL.html.
易建成. Velodyne推出128线激光雷达: 探测距离比64线远一倍, 最高垂直角分辨率达0.17°[EB/OL]. (2017-11-08). https://www.leiphone.com/news/201711/utvihH1L9rAP67GL.html.
[15]
Robot. Quanergy diss industry leader Velodyne: mechanical lidar is not commercially viable at all[EB/OL]. (2018-02-28). http://tech.ifeng.com/a/20180228/44891708_0.shtml.
Robot. Quanergy diss行业领头羊Velodyne: 机械激光雷达完全没有商业可行性[EB/OL]. (2018-02-28). http://tech.ifeng.com/a/20180228/44891708_0.shtml.
[16]
Han Y, Sun H Y, Li Y C, et al. Advances in foreign simulation softwares of imaging laser radar[J]. Laser & Optoelectronics Progress, 2013, 50(1): 010004.
韩意, 孙华燕, 李迎春, 等. 国外成像激光雷达系统仿真软件研究进展[J]. 激光与光电子学进展, 2013, 50(1): 010004 [Crossref]
[17]
Siepmann J P, Rybaltowski A. Integrable ultra-compact, high-resolution, real-time MEMS LADAR for the individual soldier[C]//Proceedings of 2005 IEEE Military Communications Conference, 2005: 3073-3079.
[18]
Li Q K, Qiu Q. Design on omnidirectional optical system of lidar based on 2D MEMS mirror[J]. Journal of Applied Optics, 2018, 39(4): 460-465.
李启坤, 邱琪. 基于2D微电子机械系统(MEMS)镜全向激光雷达光学系统设计[J]. 应用光学, 2018, 39(4): 460-465 [Crossref]
[19]
Hung A C L, Lai H Y H, Lin T W, et al. An electrostatically driven 2D micro-scanning mirror with capacitive sensing for projection display[J]. Sensors and Actuators A: Physical, 2015, 222: 122-129. [Crossref]
[20]
Huang C H, Yao J J, Wang L V, et al. A water-immersible 2-axis scanning mirror microsystem for ultrasound andha photoacoustic microscopic imaging applications[J]. Microsystem Technologies, 2013, 19(4): 577-582. [Crossref]
[21]
Chen C D, Wang Y J, Chang P. A novel two-axis MEMS scanning mirror with a PZT actuator for laser scanning projection[J]. Optics Express, 2012, 20(24): 27003-27017. [Crossref]
[22]
quanergy官网[EB/OL].https://quanergy.com/s3/.
[23]
Han X Q, Li L, Tan D J, et al. Liquid crystal optical phased array technology[J]. Aeronautical Science & Technology, 2012(1): 65-69.
韩学勤, 李丽, 谭东杰, 等. 液晶光学相控阵技术[J]. 航空科学技术, 2012(1): 65-69 [Crossref]
[24]
Jin Y D, Yan A M, Hu Z J, et al. Research progress of optical waveguide phased array scanner[J]. Laser & Optoelectronics Progress, 2014, 51(8): 080002.
金亚东, 闫爱民, 胡志娟, 等. 光波导阵列相控阵扫描技术研究进展[J]. 激光与光电子学进展, 2014, 51(8): 080002 [Crossref]
[25]
Qu R H, Ye Q, Dong Z R, et al. Progress of optical phased array technology based on electro-optic material[J]. Chinese Journal of Lasers, 2008, 35(12): 1861-1867.
瞿荣辉, 叶青, 董作人, 等. 基于电光材料的光学相控阵技术研究进展[J]. 中国激光, 2008, 35(12): 1861-1867 [Crossref]
[26]
Jin Y D. Analysis and optimization of high quality optical phased array scanning beam[D]. Shanghai: Shanghai Normal University, 2015: 1-40.
金亚东.高质量光学相控阵扫描光束分析与优化[D].上海: 上海师范大学, 2015: 1-40. [Crossref]
[27]
Zhi Y N, Yan A M, Liu D A, et al. Electro-optical control two-dimension laser beam scanning array: CN201203740Y[P]. 2009-03-04.
职亚楠, 闫爱民, 刘德安, 等.电光控制二维激光光束扫描阵列: CN201203740Y[P]. 2009-03-04.
[28]
Wang Y C. Optical phased arrays laser radar system and performance analysis[D]. Harbin: Harbin Institute of Technology, 2007: 1-42.
王耀川.光学相控阵激光雷达系统及系统性能分析[D].哈尔滨: 哈尔滨工业大学, 2007: 1-42. [Crossref]
[29]
Chen J. Research on acquisition algorithm of liquid crystal phased array control data and design and implementation of display control system[D]. Chengdu: University of Electronic Science and Technology of China, 2009: 1-24.
陈君.液晶相控阵波控数据获取算法研究及显控系统设计实现[D].成都: 电子科技大学, 2009: 1-24. [Crossref]
[30]
Meyer R A. Optical beam steering using a multichannel lithium tantalate crystal[J]. Applied Optics, 1972, 11(3): 613-616. [Crossref]
[31]
Lin Y J. The design of receiving system in optical waveguide phased array radar[D]. Xi'an: Xidian University, 2015: 1-26.
林亚俊.光波导相控阵激光雷达接收系统设计[D].西安: 西安电子科技大学, 2015: 1-26. [Crossref]
[32]
Wu C, Liu C B, Han X E. Design of waveguide optical phased array ladar receiving system[J]. Infrared and Laser Engineering, 2016, 45(10): 1030003.
吴超, 刘春波, 韩香娥. 光波导相控阵激光雷达接收系统设计[J]. 红外与激光工程, 2016, 45(10): 1030003 [Crossref]
[33]
Wight D R, Heaton J M, Hughes B T, et al. Novel phased array optical scanning device implemented using GaAs/AlGaAs technology[J]. Applied Physics Letters, 1991, 59(8): 899-901. [Crossref]
[34]
Hobbs R H, Cantor A J, Grantham D H, et al. Laser electro-optic phased array devices (LEOPARD)[C]//Proceedings of Conference Proceedings LEOS Lasers and Electro-Optics Society, 1988: 94-95.
[35]
Crouch S C, Reibel R R, Curry J, et al. Method and system for doppler detection and doppler correction of optical phase-encoded range detection: 20180224547[P]. 2018-08-09.
[36]
Wang X, Wang J Q, Li K Q, et al. Fast segmentation of 3-D point clouds for intelligent vehicles[J]. Journal of Tsinghua University (Science and Technology), 2014, 54(11): 1440-1446.
王肖, 王建强, 李克强, 等. 智能车辆3-D点云快速分割方法[J]. 清华大学学报(自然科学版), 2014, 54(11): 1440-1446 [Crossref]
[37]
Yang F, Zhu Z, Gong X J, et al. Real-time dynamic obstacle detection and tracking using 3D Lidar[J]. Journal of Zhejiang University (Engineering Science), 2012, 46(9): 1565-1571.
杨飞, 朱株, 龚小谨, 等. 基于三维激光雷达的动态障碍实时检测与跟踪[J]. 浙江大学学报(工学版), 2012, 46(9): 1565-1571 [Crossref]
[38]
Qiu B Z, Zhang X Z. Grid-based clustering algorithm with the parameter automatization[J]. Journal of Zhengzhou University (Engineering Science), 2006, 27(2): 91-93.
邱保志, 张西芝. 基于网格的参数自动化聚类算法[J]. 郑州大学学报(工学版), 2006, 27(2): 91-93 [Crossref]
[39]
Ye Y T, Li B J, Fu L M. Fast Object Detection and Tracking in Laser Data for Autonomous Driving[J]. Geomatics and Information Science of Wuhan University, 2019, 44(1): 139-144, 152.
叶语同, 李必军, 付黎明. 智能驾驶中点云目标快速检测与跟踪[J]. 武汉大学学报(信息科学版), 2019, 44(1): 139-144, 152 [Crossref]
[40]
Klasing K, Wollherr D, Buss M. A clustering method for efficient segmentation of 3D laser data[C]//Proceedings of 2008 IEEE International Conference on Robotics and Automation, 2008: 4043-4048.
[41]
Moosmann F, Pink O, Stiller C. Segmentation of 3D LIDAR data in non-flat urban environments using a local convexity criterion[C]//Proceedings of 2009 IEEE Intelligent Vehicles Symposium, 2009: 215-220.
[42]
Duan J M, Wang C R, Ren L, et al. Algorithm of driving area information extraction based on multi-layer lidar[J]. Application of Electronic Technique, 2017, 43(10): 78-82.
段建民, 王昶人, 任璐, 等. 基于多层激光雷达的可行驶区域信息提取算法[J]. 电子技术应用, 2017, 43(10): 78-82 [Crossref]
[43]
Chen T T. 3D LIDAR-based dynamic vehicle detection and tracking[D]. Changsha: National University of Defense Technology, 2016.
谌彤童.基于三维激光雷达的动态车辆检测与跟踪[D].长沙: 国防科学技术大学, 2016. [Crossref]
[44]
Wang D Z, Posner I, Newman P. Model-free detection and tracking of dynamic objects with 2D lidar[J]. The International Journal of Robotics Research, 2015, 34(7): 1039-1063. [Crossref]
[45]
Lee J H, Tsubouchi T, Yamamoto K, et al. People tracking using a robot in motion with laser range finder[C]//Proceedings of 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2006: 2936-2942.
[46]
Coué C, Pradalier C, Laugier C, et al. Bayesian Occupancy filtering for multitarget tracking: an automotive application[J]. The International Journal of Robotics Research, 2006, 25(1): 19-30. [Crossref]
[47]
Baig Q, Perrollaz M, Do Nascimento J B, et al. Using fast classification of static and dynamic environment for improving Bayesian occupancy filter (BOF) and tracking[C]//Proceedings of 2012 International Conference on Control Automation Robotics and Vision, 2012: 656-661.
[48]
Rusu R B, Bradski G, Thibaux R, et al. Fast 3D recognition and pose using the viewpoint feature histogram[C]//Proceedings of 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2010: 2155-2162.
[49]
Aldoma A, Vincze M, Blodow N, et al. CAD-model recognition and 6DOF pose estimation using 3D cues[C]//Proceedings of 2011 IEEE International Conference on Computer Vision Workshops, 2011: 585-592.
[50]
Taati B, Bondy M, Jasiobedzki P, et al. Variable dimensional local shape descriptors for object recognition in range data[C]//Proceedings of 2007 IEEE 11th International Conference on Computer Vision, 2007: 1-8.
[51]
Guo Y L. Local feature description, 3D modeling and object reconstruction in point-cloud[D]. Changsha: National University of Defense Technology, 2015: 1-26.
郭裕兰.点云局部特征描述与三维目标重建识别技术研究[D].长沙: 国防科学技术大学, 2015: 1-26.
[52]
Mian A S, Bennamoun M, Owens R. Three-dimensional model-based object recognition and segmentation in cluttered scenes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(10): 1584-1601. [Crossref]
[53]
Zhong Y. Intrinsic shape signatures: a shape descriptor for 3D object recognition[C]//Proceedings of 2009 IEEE 12th International Conference on Computer Vision Workshops, 2009: 689-696.
[54]
Smith R, Self M, Cheeseman P. Estimating uncertain spatial relationships in robotics[M]//Cox I J, Wilfong G T. Autonomous Robot Vehicles. New York, NY: Springer, 1990: 167-193.
[55]
Montemerlo M, Thrun S, Koller D, et al. FastSLAM: a factored solution to the simultaneous localization and mapping problem[C]//Proceedings of the AAAI National Conference on Artificial Intelligence, 2002: 593-598.
[56]
Grisetti G, Stachniss C, Burgard W. Improved techniques for grid mapping with Rao-Blackwellized particle filters[J]. IEEE Transactions on Robotics, 2007, 23(1): 34-46.
[57]
Lu F, Milios E. Globally consistent range scan alignment for environment mapping[J]. Autonomous Robots, 1997, 4(4): 333-349. [Crossref]
[58]
Hess W, Kohler D, Rapp H, et al. Real-time loop closure in 2D LIDAR SLAM[C]//Proceedings of 2016 IEEE International Conference on Robotics and Automation, 2016: 1271-1278.