光电工程  2018, Vol. 45 Issue (1): 170522      DOI: 10.12086/oee.2018.170522     
基于物体表面形貌的单相机视觉位姿测量方法
关印1,2 , 王向军1,2 , 阴雷1,2 , 万子敬1,2     
1. 天津大学精密测试技术及仪器国家重点实验室,天津 300072;
2. 天津大学微光机电系统技术教育部重点实验室,天津 300072
摘要:为了获取在风洞实验中运动物体的位姿变化,提出了一种融合物体表面三维形貌信息的单相机视觉位姿测量方法。该方法以多点透视成像原理作为求解物体位姿变化的基础,以物体的图像特征角点作为特征点,并利用物体表面三维形貌模型信息获得特征点的三维坐标。通过实验完成了该测量方法的精度验证,在400 mm的观察距离上,位移平均测量误差为0.03 mm,均方根误差为0.234 mm;俯仰角、偏航角与滚转角的平均误差分别为0.08°、0.1°与0.09°,均方根误差分别为0.485°、0.312°与0.442°。实验结果表明该方法有可用于实用的测量精度。
关键词机器视觉    位姿测量    单相机视觉    特征匹配    表面形貌    三维重建    
Monocular position and pose measurement method based on surface topography of object
Guan Yin1,2, Wang Xiangjun1,2, Yin Lei1,2, Wan Zijing1,2     
1. State Key Laboratory of Precision Measuring Technology and Instruments, Tianjin University, Tianjin 300072, China;
2. Key Laboratory of MOEMS of the Ministry of Education, Tianjin University, Tianjin 300072, China
Abstract: In order to obtain the change of posture of moving objects in wind tunnel experiment, a method of single-camera visual pose measurement based on three-dimensional topography model of object surface is proposed. The method uses the multi-perspective imaging principle to solve the target pose, obtains the feature corner point on the target as the characteristic point needed for the solution, and proposes to use target's 3D surface topography information to obtain the geometric relationships between feature points. In this paper, the accuracy of the measurement method is verified under the laboratory conditions. The average accuracy of displacement is 0.23 mm and the mean square error is 0.234 mm. The accuracy of the pitch angle, yaw angle and roll angle are 0.08°, 0.1°and 0.09°, respectively, and the mean square error are 0.485°, 0.312°and 0.442°. The experimental results show that the method can be used for practical measurement.
Keywords: machine vision    pose measurement    monocular vision    feature match    surface topography    3D reconstruction    

1 引言

在风洞实验中常常伴有气流扰动、震动等因素,视觉测量已经成为风洞内物体位姿测量的主要手段[1]。视觉测量主要分为单相机视觉测量系统与多相机视觉测量系统。单相机测量系统结构简单,标定便利,有着更大的测量范围和更高的测量精度,广泛应用于空间交会、风洞非接触式检测等领域。

通常测量系统的目标可以分为合作目标与非合作目标两类,其中合作目标上具有固定数目、几何关系已知的光学标志点,例如刘巍[2]设计了使用彩色光学标记点的单目测量系统来测量从飞行器上分离的外挂物的位姿变化。非合作目标存在于很多应用中,比如风洞测试的实心模型、传送带上的工件等。这类物体上无法设置光学标志,无法提供测量标志点。针对此类物体,周扬[3]提出了基于匹配CAD模型离线库的单相机测量方法来测量工件的位姿,其测量精度在2°左右,其使用物体CAD模型的思路有着一定的参考价值。

为了测量不能设置光学标志点的飞行物体在恒流风场中的位姿变化,本文提出了一种基于物体表面形貌的单相机位姿测量方法。本文使用ORB(oriented FAST and rotation BRIEF)[4]特征提取方法获取物体的特征角点,并结合物体形貌模型计算特征点的三维坐标,最后根据稳定多点透视算法[5] (robust solution to the perspective-n-point problem,RPnP)求解物体的位姿变化。

2 位姿变化解算原理

运动中的物体与相机的位姿关系如图 1所示,以物体的初始位置为参考位置,需要测量的物体的位姿变化以旋转矩阵RF,平移向量tF表示。物体坐标系OXYZ在前后时刻与相机坐标系OcXcYcZc的相对位姿关系以旋转矩阵RRr与平移向量ttr表示,两者有如下关系式:

$ \begin{array}{*{20}{c}} {{\mathit{\boldsymbol{O}}_{\rm{c}}} = \mathit{\boldsymbol{RO}} + \mathit{\boldsymbol{t}}}\\ {{\mathit{\boldsymbol{O}}_{\rm{c}}} = {\mathit{\boldsymbol{R}}_{\rm{r}}}{\mathit{\boldsymbol{O}}_{\rm{r}}} + {\mathit{\boldsymbol{t}}_{\rm{r}}}}\\ {\left[ {\begin{array}{*{20}{c}} {{\mathit{\boldsymbol{R}}_{\rm{F}}}}\\ {{\mathit{\boldsymbol{t}}_{\rm{F}}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\mathit{\boldsymbol{R}}_{\rm{r}}^{ - 1}\mathit{\boldsymbol{R}}}\\ {\mathit{\boldsymbol{R}}_{\rm{r}}^{ - 1}\left( {\mathit{\boldsymbol{t}} - {\mathit{\boldsymbol{t}}_{\rm{r}}}} \right)} \end{array}} \right],} \end{array} $ (1)

式中: ${\mathit{\boldsymbol{O}}_{\rm{c}}} = {\left[ {{X_{\rm{c}}}\; \; {Y_{\rm{c}}}\; \; {Z_{\rm{c}}}} \right]^{\rm{T}}}$ 为相机坐标, $\mathit{\boldsymbol{O}} = {\left[ {X\; \; Y\; \; Z} \right]^{\rm{T}}}$ 为运动前物体坐标系; ${\mathit{\boldsymbol{O}}_1} = {\left[ {{X_1}\; \; {Y_1}\; \; {Z_1}} \right]^{\rm{T}}}$ 为运动后物体坐标系。

图 1 运动中的物体与相机的位姿关系 Fig. 1 The relationship between the target and the camera before and after movement

根据多点透视原理(perspective-n-point problem,PnP),相机与物体的相对位姿关系可以通过物体上一定数量的在物体坐标系下的坐标以及图像坐标都已知的特征点来计算。因无法设置光学标志,为了缩减一帧计算时间,本文使用物体的ORB特征角点对作为特征点。特征点在物体坐标系下的坐标通过物体的表面形貌模型求解。在之后的论述里,特征点在物体坐标系下的坐标简称为三维坐标。

3 获得特征点三维坐标 3.1 物体表面形貌模型信息的获取

在实际应用中,有多种方法获得待测目标表面形貌模型信息,比如CAD模型提取和多视图三维重建等。物体在实际加工与使用时会有缺陷以及磨损,多视图三维重建可以方便准确地获取物体表面的形貌信息[6]

该方法基于运动恢复结构(structure from motion,SFM)原理[7],基本重建过程如图 2所示。获取从多个角度拍摄的物体的图像序列,获取两两图像间特征角点匹配关系;根据匹配关系计算基础矩阵,并在已知重建所用相机内参矩阵的情况下,获得本征矩阵E;对本征矩阵进行SVD分解[8]获得相机位置参数;使用三角法计算特征点对应的三维坐标,获得初始三维点云;使用光束法平差[9]对三维点云与相机位置进行优化;最后以基于面元的多视图立体视觉(patch-based multiview stereo, PMVS) [10]算法进行稠密重建得到表面三维点云。

图 2 SFM重建流程 Fig. 2 SFM reconstruction process

图 3所示,本文选择SFM多视图三维重建的方式,使用定位精度较高的SIFT特征点作为三维重建点,使用实验室的三维视觉重建系统获得待测飞行器模型的表面形貌三维点云。

图 3 三维重建得到的待测物体点云 Fig. 3 The target's point cloud using 3D reconstruction

当待测物体表面属于可以解析的结构,可以通过点云拟合得到表面结构的几何表达式[11]。为了方便之后的理论推导,设待测物体表面几何模型在物体坐标系下的拟合方程为

$ f\left( {X,Y,Z} \right) = 0。$ (2)
3.2 计算测量相机成像模型的参数

相机使用小孔成像模型,物体特征点的图像坐标(uv)与三维坐标(XYZ)的有如下关系式:

$ {Z_{\rm{c}}}\left[ {\begin{array}{*{20}{c}} u\\ v\\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{f_x}}&0&{{u_0}}\\ 0&{{f_y}}&{{v_0}}\\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} \mathit{\boldsymbol{R}}&\mathit{\boldsymbol{t}}\\ {\vec 0}&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} X\\ Y\\ Z\\ 1 \end{array}} \right], $ (3)

简化为

$ {Z_{\rm{c}}}\left[ {\begin{array}{*{20}{c}} u\\ v\\ 1 \end{array}} \right] = {\mathit{\boldsymbol{M}}_1}{\mathit{\boldsymbol{M}}_2}{\left[ {\begin{array}{*{20}{c}} X&Y&Z&1 \end{array}} \right]^{\rm{T}}}, $ (4)

在成像模型中有两个参数需要计算:相机的内参矩阵M1与相机坐标系与物体坐标系的位置关系M2

相机内参矩阵M1通过张正友标定法[11]使用棋盘格标定得到。相机与物体之间的位置关系M2则使用相机拍摄的物体图像与多视图重建使用的图像集计算。

因三维重建使用SIFT特征点,所以将相机拍摄的物体图像与物体三维重建图像集进行SIFT[12]特征角点匹配,因物体三维点云中的点与重建所使用的图像集的SIFT特征角点间有着一对多的对应关系,所以物体图像上得到的SIFT特征点根据此对应关系可以得到三维坐标。根据多点透视原理(PnP),有4个以上确定三维坐标的的SIFT特征点即可使用RPnP算法计算得出相机坐标系与物体坐标系的位置关系M2

3.3 使用物体几何模型计算ORB特征点三维坐标

确定M1M2之后,从式(3)推导出以下方程组:

$ \left\{ \begin{array}{l} {M_x}{Z_{\rm{c}}} - {B_x} = X\\ {M_y}{Z_{\rm{c}}} - {B_y} = Y\\ {M_z}{Z_{\rm{c}}} - {B_z} = Z \end{array} \right., $ (5)

其中:

$ \mathit{\boldsymbol{M}} = \left[ {\begin{array}{*{20}{c}} {{M_x}}\\ {{M_y}}\\ {{M_z}} \end{array}} \right] = {\mathit{\boldsymbol{R}}^{ - 1}}\left[ {\begin{array}{*{20}{c}} {\left( {u - {u_0}} \right)/{f_x}}\\ {\left( {v - {v_0}} \right)/{f_y}}\\ 1 \end{array}} \right], $
$ \mathit{\boldsymbol{B}} = \left[ {\begin{array}{*{20}{c}} {{B_x}}\\ {{B_y}}\\ {{B_z}} \end{array}} \right] = {\mathit{\boldsymbol{R}}^{ - 1}}\mathit{\boldsymbol{t}}。$

式(5)为四元方程组,需要额外的约束条件以获得有限个解。式(2)为待测物体表面的拟合方程可以作为额外条件,则式(5)转化为

$ f\left( {{M_x}{Z_{\rm{c}}} - {B_x},{M_y}{Z_{\rm{c}}} - {B_y},{M_z}{Z_{\rm{c}}} - {B_z}} \right) = 0, $ (6)

问题转变成求式(6)的解集:S{Si(XiYiZiZci)| i=1, ..., n}。方程组(5)的物理意义为由相机坐标系原点Oc与特征点U(uv)两点确定的一条空间直线。式(6)的解的物理意义为该直线与物体表面的交点Si,其中Zci为交点Si与像面的垂直距离。特征点位于相机像面之前,且不会被遮挡,所以解集SZci大于0且Zci最小的解SF是特征点的三维坐标。

当物体表面不具有简单解析形式时,则计算三维点云中的点到式(5)所表示空间直线的欧式距离d,取所有距离在阈值D之内的点为内点集I;以欧式距离为准则计算内点集中存在的聚类,根据物理意义,选择距离像面更近的聚类,并按照欧式距离对聚类中的点坐标做加权平均,获得特征点三维坐标的近似值SF

$ {S_{\rm{F}}} = \left( {\sum {\left( {D - {d_i}} \right){I_i}} } \right)/\sum {\left( {D - {d_i}} \right)} 。$ (7)

阈值D的选取建立在对三维重建特征点提取精度以及对算法的误差影响的分析之上,选择标准是使算法理论上的姿态测量精度在1°之内。

3.4 三维重建精度分析与讨论

待测物体三维重建获得的表面形貌模型与真实的表面结构存在误差。利用实验室现有的手段对通过三维重建过程获得的标志点三维坐标提取误差进行,分析,并设计仿真实验分析该误差对算法产生的影响。

在物体上分散放置多个圆形标志点,使用三坐标测量机测得标志点三维坐标作为参考坐标Pc。重建物体表面点云并在图像上选取标志点中心图像坐标使用上一节描述的计算方法计算特征点坐标Pd。使用迭代最近点(ICP)算法[13]统一PcPd的坐标系,对特征点坐标提取在x轴、y轴、z轴分量以及欧氏距离d的误差统计如表 1所示。

表 1 特征点的重建误差表 Table 1 Reconstruction error of feature points
x/mm y/mm z/mm d/mm
mean -0.001 0.002 0.001 0.154
RMSE 0.081 0.110 0.101 0.169

根据模型的大致形状,在30 mm×40 mm×10 mm的区域内随机生成40个点作为特征点集P。将点集P在偏航角(-30°, 30°)的范围内做仿真旋转操作,乘以相应的旋转矩阵得到旋转后的点集理论值PT。在距离特征点集中心400 mm处放置仿真像面,按照小孔成像模型,得到特征点集PT的投影点坐标。

在进行位姿计算时,在特征点集P的三维坐标上加入随机测量噪声,平均值为0 mm,根据表 1的重建误差,设定噪声标准差为0.5 mm。测量误差为仿真旋转的角度与解算得到的角度的差值,仿真实验结果如图 4所示。

图 4 三维坐标误差仿真实验结果 Fig. 4 Simulation results of 3D coordinate error

仿真实验结果表明当特征点提取误差在0.5 mm以内时,姿态角最终解算精度在1°以内,因此阈值D选为0.5 mm。

4 ORB特征点匹配筛选方法

上述过程可以得到物体图像上所有的ORB特征角点的三维坐标。但因需要与三维重建使用的图像集进行SIFT角点匹配,耗时长,无法对相机拍摄的物体运动视频的每一帧图像进行同样的处理。

本文以物体的初始位置为参考位置,该时刻的物体图像为参考帧。使用上述方法获取参考帧ORB特征点的三维坐标,以参考帧与后续的物体运动图像进行ORB特征角点匹配,后续图像的ORB特征点的三维坐标即可通过与参考帧ORB特征的匹配关系获得。

因物体的ORB特征点存在误匹配,需要进行匹配筛选。在筛选之前,对匹配点集进行对称性检验,降低误匹配率,方便之后的过滤步骤。

基于网格的运动估计(grid-based motion statistics,GMS)匹配方法[14]与传统的RANSAC方法相比,在相同的待匹配点数目下,计算速度更快[14]。为了方便判别两者计算时间的差别,提取1000个ORB特征点后使用GMS与RANSAC方法分别进行50次匹配筛选,得到匹配结果如图 5所示。GMS方法的平均匹配时间是23 ms, RANSAC方法的平均匹配时间是101 ms。

图 5 匹配结果对比。(a) GMS匹配结果;(b) RANSAC匹配结果 Fig. 5 Comparison of matching results. (a) GMS matching results; (b) RANSAC matching results

从结果图可以看出,GMS匹配方法的匹配结果较为均匀,计算时间较短。

根据匹配点的空间分布,两帧之间的匹配点xcxr可能有两种变换关系[10]——适用于平面分布的单应性矩阵H与适用于立体分布的基础矩阵F,即

$ {\mathit{\boldsymbol{x}}_{\rm{c}}} = \mathit{\boldsymbol{H}}{\mathit{\boldsymbol{x}}_{\rm{r}}}, $ (8)
$ {\mathit{\boldsymbol{x}}_{\rm{c}}} = \mathit{\boldsymbol{H}}{\mathit{\boldsymbol{x}}_{\rm{r}}}。$ (9)

特征点集以单应性矩阵H或者基础矩阵F作转换会产生转换误差EM[15]

$ {E_M} = \sum\limits_i^n {{\rho _M}\left[ {\left( {d_{{\rm{cr}}}^2\left( {x_{\rm{c}}^i,x_{\rm{r}}^i,\mathit{\boldsymbol{M}}} \right)} \right) + {\rho _M}\left( {d_{{\rm{rc}}}^2\left( {x_{\rm{r}}^i,x_{\rm{c}}^i,\mathit{\boldsymbol{M}}} \right)} \right)} \right]} , $ (10)

其中:

$ \begin{array}{*{20}{c}} {{\rho _M}\left( {d_{{\rm{cr}}}^2\left( {..} \right)} \right) = \left\{ {\begin{array}{*{20}{c}} {\tau - {d^2}}&{\tau > {d^2}}\\ 0&{\tau < {d^2}} \end{array}} \right.,}\\ {\mathit{\boldsymbol{M}} = \mathit{\boldsymbol{F}}\;{\rm{or}}\;\mathit{\boldsymbol{H}},} \end{array} $

dcr2(..)与drc2(..)表示两帧图像间匹配点xcixri在使用F或者H做变换时产生的转换误差。d2即为dcr2(..)或者drc2(..)。误差阈值τ设为5.99[15],用于判断是否为外点。当以一个像素的偏差值上,采用式(11)的评价指标R评价两种方式的优劣[15]

$ R = {E_H}/\left( {{E_H} + {E_F}} \right)。$ (11)

R大于0.4时[16],说明匹配点大致分布在平面上,所以选择单应性矩阵的转换方式。确定转换方式后,分析匹配点的转换误差分布,按照3σ原则,设定误差阈值用于剔除误差过大的匹配点。选取误差低于阈值的匹配点为最终的匹配结果。

5 测量实验与结果分析 5.1 测量实验系统构成

测量实验使用OK-AM1310型16 mm定焦灰度相机采集待测物体图像,相机分辨率为1200 pixels×960 pixels,使用如图 6所示的飞行器模型作为测量实验的待测物体。

图 6 待测飞行器模型 Fig. 6 The aircraft model to be tested

使用MATLAB工具箱标定相机内参矩阵M1,结果如表 2所示。(fxfy)为焦距,(u0v0)为主点坐标。kc1kc2为一次、二次径向畸变系数。

表 2 相机内参标定结果 Table 2 Calibration result of the camera
fx/pixels fy/pixels u0/pixels v0/pixels kc1 kc2
3439.7 3439.4 676.9 562.9 -0.086 0.442

测量实验分为姿态角测量实验与位移测量实验。分别在SGT320E型高精度转台与光学平台上进行。

5.2 测量数据的计算与处理

以姿态角测量实验为例,在转台固定模型并选取起始位置之后,测量程序根据此位置的图像使用第三节叙述的方法计算相机与物体之间的位置关系M2

$ {\mathit{\boldsymbol{M}}_2} = \left[ {\mathit{\boldsymbol{R}}\left| \mathit{\boldsymbol{t}} \right.} \right] = \left[ {\begin{array}{*{20}{c}} {0.98}&{ - 0.05}&{0.18}&{ - 29}\\ {0.01}&{0.97}&{0.23}&{ - 51}\\ { - 0.19}&{ - 0.23}&{0.96}&{275} \end{array}} \right]。$ (12)

转台绕物体Z轴旋转30°,进行ORB特征点匹配与RPnP算法计算得到相机与物体之间位置关系Mr

$ {\mathit{\boldsymbol{M}}_{\rm{r}}} = \left[ {{\mathit{\boldsymbol{R}}_{\rm{r}}}\left| {{\mathit{\boldsymbol{t}}_{\rm{r}}}} \right.} \right] = \left[ {\begin{array}{*{20}{c}} {0.78}&{ - 0.46}&{0.42}&{ - 72}\\ {0.32}&{0.87}&{0.37}&{ - 72}\\ { - 0.53}&{ - 0.15}&{0.83}&{297} \end{array}} \right]。$ (13)

根据式(1),待测模型的相对位姿变化矩阵为

$ {\mathit{\boldsymbol{M}}_{\rm{F}}} = \left[ {{\mathit{\boldsymbol{R}}_{\rm{F}}}\left| {{\mathit{\boldsymbol{t}}_{\rm{F}}}} \right.} \right] = \left[ {\begin{array}{*{20}{c}} {0.87}&{0.39}&{ - 0.29}&{ - 52}\\ { - 0.42}&{0.91}&{ - 0.02}&{ - 2}\\ {0.26}&{0.10}&{0.96}&{ - 8} \end{array}} \right]。$ (14)

为了方便评价测量结果,对矩阵RF进行罗德里格变换转化为旋转向量 ${\mathit{\boldsymbol{V}}_{\rm{F}}} = \left[ {0.09\; \; -0.29\; \; -0.42} \right]$ ,测得的旋转角度为29.75°。

平移向量tF的模即为物体的位移距离,平移向量的单位向量为位移方向。

5.3 姿态角测量实验

图 7所示,在SGT320E型高精度转台上完成姿态角测量实验,转台的倾角回转误差为±5″,角位置分辨率为0.72″。

图 7 转台实验 Fig. 7 The experiment on turntable

在转台边固定相机,在转台上固定待测模型,分别进行偏航角、滚转角与俯仰角方向的旋转测试。转台在进行某方向的旋转测试之前都会恢复到起始位置。三个方向的角度变化范围为(﹣30°,30°),以1°的间隔变化。姿态角测量误差为解算结果与转台实际转角的差值。

测量系统在三个方向的姿态角误差如图 8所示,偏航角的测量误差平均值为0.10°,均方根误差为0.312°;滚转角的测量误差平均值为0.09°,均方根误差为0.442°;俯仰角的测量误差平均值为0.08°,均方根误差为0.485°。系统三个方向的姿态角测量误差都在1.2°之内。

图 8 姿态角测量误差结果。(a)偏航角测量误差;(b)滚转角测量误差;(c)俯仰角测量误差 Fig. 8 Angle measurement error results. (a) Yaw angle measurement error; (b) Roll angle measurement error; (c) Pitch angle measurement error
5.4 位移测量实验

位移测量实验在光学平台上进行。如图 9所示,在平台边固定相机,以距离相机400 mm的位置作为原点,在原点周围100 mm×100 mm的区域内,以25 mm间隔选择平台上多个定位孔作为测试位置。待测物体的初始位置为原点,按照顺序移动到其他测试位置。系统的位移解算误差为位移解算结果与实际位移距离的差值。

图 9 位移测量实验 Fig. 9 Distance measurement experiment

图 10 位移测量实验误差结果 Fig. 10 Distance measurement experiment results

以测试点与原点的坐标位置关系为横坐标,以位移误差为纵坐标,作图如图 10所示。位置解算误差最大值为0.4 mm,平均值为0.03 mm,均方根误差为0.234 mm。

6 结论

本文提出了一种检测风洞中运动飞行物体位姿变化的单相机测量方法,该方法使用RPnP算法计算物体的位姿变化,该算法需要获得物体特征点的三维坐标以及图像坐标。因为无法设置光学标志点,本文以物体的图像ORB特征角点作为特征点,使用多视图重建获取的物体表面三维点云求解特征点三维坐标。

本文在实验室条件下使用小型飞行器模型完成精度验证实验,测量系统对待测模型的俯仰角、偏航角与滚转角的平均测量误差分别为0.08°、0.1°与0.09°,位移平均测量误差为0.03 mm。姿态角测量误差在1.2°之内,位移测量误差在0.5 mm之内。该方法较为简单便捷,自动化程度高,具有一定的实用价值。

参考文献
[1]
Miao X K, Zhu F, Hao Y M. Pose measurement method for non-cooperative space vehicle using multiple non-overlapping cameras[J]. Infrared and Laser Engineering, 2013, 42(3): 709-715.
苗锡奎, 朱枫, 郝颖明. 多像机非共视场的非合作飞行器位姿测量方法[J]. 红外与激光工程, 2013, 42(3): 709-715.
[2]
Liu W, CHEN L, Ma X, et al. Monocular position and pose measurement method for high-speed targets based on colored images[J]. Chinese Journal of Scientific Instrument, 2016, 37(3): 675-682.
刘巍, 陈玲, 马鑫, 等. 基于彩色图像的高速目标单目位姿测量方法[J]. 仪器仪表学报, 2016, 37(3): 675-682.
[3]
Song W, Zhou Y. Estimation of monocular vision 6-DOF pose based on CAD model[J]. Optics and Precision Engineering, 2016, 24(4): 882-891.
宋薇, 周扬. 基于CAD模型的单目六自由度位姿测量[J]. 光学 精密工程, 2016, 24(4): 882-891.
[4]
Rublee E, Rabaud V, Konolige K, et al. ORB: an efficient alternative to SIFT or SURF[C]//Proceedings of 2011 IEEE International Conference on Computer Vision, 2012: 2564-2571. http://ieeexplore.ieee.org/abstract/document/6126544/
[5]
Li S Q, Xu C, Xie M. A Robust O(n) solution to the perspective-n-point problem[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1444-1450. DOI:10.1109/TPAMI.2012.41
[6]
Heinly J, Dunn E, Frahm J M. Correcting for duplicate scene structure in sparse 3D reconstruction[C]//Proceedings of the 13th European Conference on Computer Vision, 2014: 780-795. https://link.springer.com/chapter/10.1007/978-3-319-10593-2_51
[7]
Wu C C. Towards linear-time incremental structure from motion[C]//Proceedings of 2013 International Conference on 3D Vision-3DV, 2013: 127-134. http://ieeexplore.ieee.org/abstract/document/6599068/
[8]
Hartley R, Zisserman A. Multiple View Geometry in Computer Vision[M]. 2nd ed. Cambridge: Cambridge University Press, 2003.
[9]
Triggs B, Mclauchlan P F, Hartley R I, et al. Bundle adjustment-a modern synthesis[C]//Proceedings of the International Workshop on Vision Algorithms: Theory and Practice, 1999: 298-372. https://link.springer.com/chapter/10.1007/3-540-44480-7_21
[10]
Furukawa Y, Ponce J. Accurate, dense, and robust multiview stereopsis[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2007: 1-8. http://ieeexplore.ieee.org/abstract/document/5226635/
[11]
Yu Y N. Research on anti-disturbance performance of adaptive aerodynamic shape for hovering micro air vehicle[D]. Tianjin: Tianjin University, 2012.
于雅楠. 微型旋翼飞行体自适应气动外形抗扰动特性研究[D]. 天津: 天津大学, 2012. http://cdmd.cnki.com.cn/Article/CDMD-10056-1013039498.htm
[12]
Lowe D G. Object recognition from local scale-invariant features[C]//Proceedings of the Seventh IEEE International Conference on Computer Vision, 1999, 2: 1150-1157 http://ieeexplore.ieee.org/abstract/document/790410/
[13]
Men H, Gebre B, Puchiraju K. Color point cloud registration with 4D ICP algorithm[C]//Proceedings of 2011 IEEE International Conference on Robotics and Automation, 2011: 1511-1516. http://ieeexplore.ieee.org/abstract/document/5980407/
[14]
Bian J W, Lin W Y, Matsushita Y, et al. GMS: grid-based motion statistics for fast, ultra-robust feature correspondence[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017: 2828-2837.
[15]
Mur-artal R, Montiel J M M, Tardos J D. Orb-slam: a versatile and accurate monocular SLAM system[J]. IEEE Transactions on Robotics, 2015, 31(5): 1147-1163. DOI:10.1109/TRO.2015.2463671
[16]
Mur-artal R, Tardos J D. Orb-slam2: an open-source SLAM system for monocular, stereo, and RGB-D cameras[J]. IEEE Transactions on Robotics, 2017, 33(5): 1255-1262. DOI:10.1109/TRO.2017.2705103