SFM原理简介「建议收藏」

2022-06-24 14:54:07 浏览数 (1)

大家好,又见面了,我是你们的朋友全栈君。

Structure From Motion

SFM简介

代码语言:javascript复制
通过相机的移动来确定目标的空间和几何关系,是三维重建的一种常见方法。
它与Kinect这种3D摄像头最大的不同在于,它只需要普通的RGB摄像头即可,因此成本更低廉,且受环境约束较小,
在室内和室外均能使用。

SFM基本原理

  • 小孔相机模型 在计算机视觉中,最常用的相机模型就是小孔成像模型,它将相机的透镜组简化为一个小孔,光线透过小孔在小孔后方的像面上成像。

小孔模型成的是倒像,为了表述与研究的方便,我们常常将像面至于小孔之前,且到小孔的距离仍然是焦距f,这样的模型与原来的小孔模型是等价的,只不过成的是正像,符合人的直观感受。 在这种情况下,往往将小孔称作光心(Optical Center)。

  • 坐标系
    • 世界坐标系 世界坐标系的原点可以任意选择,与相机的具体位置无关。
    • 摄像机坐标系 相机坐标系以相机的光心(小孔)作为原点,X轴为水平方向,Y轴为竖直方向,Z轴指向相机所观察的方向。
    • 图像物理坐标系 其原点为透镜光轴与成像平面的交点,x与y轴分别平行于摄像机坐标系的X与Y轴,是平面直角坐标系,单位为毫米。
    • 图像像素坐标系 固定在图像上的以像素为单位的平面直角坐标系,其原点位于图像左上角,x与y轴平行于图像物理坐标系的X 和Y轴。对于数字图像,分别为行列方向。
  • 摄像机内参矩阵 设空间中有一点P,若世界坐标系与相机坐标系重合,则该点在空间中的坐标为(X, Y, Z), 其中Z为该点到相机光心的垂直距离。设该点在像面上的像为点p,像素坐标为(x, y),如下图所示。

根据相似三角形关系可以得到 x = f X Z x=frac{fX}{Z} x=ZfX​, y = f Y Z y=frac{fY}{Z} y=ZfY​。 图像的像素坐标系原点在左上角,而上面公式假定原点在图像中心,为了处理这一偏移,设光心在图像上对应的像素坐标为 ( c x , c y ) (c_x,c_y) (cx​,cy​),因此 x = f X Z c x x=frac{fX}{Z} c_x x=ZfX​ cx​, y = f Y Z c y y=frac{fY}{Z} c_y y=ZfY​ cy​。 矩阵形式 Z [ x y 1 ] = [ f 0 c x 0 f c y 0 0 1 ] [ X Y Z ] Zbegin{bmatrix} x \ y \ 1 \ end{bmatrix} = begin{bmatrix} f & 0 & c_x \ 0 & f & c_y \ 0 & 0 & 1 end{bmatrix}begin{bmatrix} X \ Y \ Z \ end{bmatrix} Z⎣⎡​xy1​⎦⎤​=⎣⎡​f00​0f0​cx​cy​1​⎦⎤​⎣⎡​XYZ​⎦⎤​ 其中K为内参矩阵,它只和相机自身的内部参数有关(焦距,光心位置)。 K = [ f 0 c x 0 f c y 0 0 1 ] K=begin{bmatrix} f & 0 & c_x \ 0 & f & c_y \ 0 & 0 & 1 end{bmatrix} K=⎣⎡​f00​0f0​cx​cy​1​⎦⎤​

  • 摄像机的外参矩阵 一般情况下,世界坐标系和相机坐标系不重合,这时,世界坐标系中的某一点P要投影到像面上时,先要将该点的坐标转换到相机坐标系下。设P在世界坐标系中的坐标为X,P到光心的垂直距离为s(即上文中的Z),在像面上的坐标为x,世界坐标系与相机坐标系之间的相对旋转为矩阵R(R是一个3行3列的旋转矩阵),相对位移为向量T(3行1列),则 s x = K [ R X T ] sx=Kbegin{bmatrix} RX T end{bmatrix} sx=K[RX T​] 其中RX T 即为P在相机坐标系下的坐标,使用齐次坐标改写上式为 s x = K [ R T ] [ X 1 ] sx = Kbegin{bmatrix} R & T end{bmatrix}begin{bmatrix} X \ 1 end{bmatrix} sx=K[R​T​][X1​] 其中 [ R T ] begin{bmatrix} R & Tend{bmatrix} [R​T​]是一个3行4列的矩阵,称为外参矩阵,它和相机的参数无关,只与相机在世界坐标系中的位置有关。
  • 摄像机标定 相机的标定,即为通过某个已知的目标,求取相机内参矩阵的过程。
  • 极线约束与本征矩阵 假设在世界坐标系中有一点p,坐标为X,它在1相机中的像为 x 1 x_1 x1​,在2相机中的像为 x 2 x_2 x2​(注意 x 1 x_1 x1​和 x 2 x_2 x2​为齐次坐标,最后一个元素是1),如下图所示。

设X到两个相机像面的垂直距离分别为 s 1 s_1 s1​和 s 2 s_2 s2​,且这两个相机具有相同的内参矩阵K,与世界坐标系之间的变换关系分别为 [ R 1 T 1 ] begin{bmatrix} R_1 & T_1 end{bmatrix} [R1​​T1​​]和 [ R 1 T 1 ] begin{bmatrix} R_1 & T_1 end{bmatrix} [R1​​T1​​],那么我们可以得到下面两个等式 x 1 s 1 = K ( R 1 X T 1 ) x 2 s 2 = K ( R 2 X T 2 ) begin{matrix} x_1s_1 = K(R_1X T_1) \ x_2s_2 = K(R_2X T_2) end{matrix} x1​s1​=K(R1​X T1​)x2​s2​=K(R2​X T2​)​ K是可逆矩阵,则 K − 1 x 1 s 1 = R 1 X T 1 K − 1 x 2 s 2 = R 2 X T 2 begin{matrix} K^{-1}x_1s_1 = R_1X T_1 \ K^{-1}x_2s_2 = R_2X T_2 end{matrix} K−1x1​s1​=R1​X T1​K−1x2​s2​=R2​X T2​​ 设 K − 1 x 1 = x 1 , , K − 1 x 2 = x 2 , K^{−1}x_1 = x_1^,,K^{−1}x_2 = x_2^, K−1x1​=x1,​,K−1x2​=x2,​,则有 x 1 , s 1 = R 1 X T 1 x 2 , s 2 = R 2 X T 2 begin{matrix} x_1^,s_1 = R_1X T_1 \ x_2^,s_2 = R_2X T_2 end{matrix} x1,​s1​=R1​X T1​x2,​s2​=R2​X T2​​ 我们一般称 x 1 , x_1^, x1,​和 x 2 , x_2^, x2,​为归一化后的像坐标,它们和图像的大小没有关系,且原点位于图像中心。我们将世界坐标系选为第一个相机的相机坐标系,则 R 1 = I , T 1 = 0 R_1 = I, T_1 = 0 R1​=I,T1​=0。上式变为 x 1 , s 1 = X x 2 , s 2 = R 2 X T 2 x_1^,s_1 = X \ x_2^,s_2 = R_2X T_2 x1,​s1​=Xx2,​s2​=R2​X T2​ 将式一带入式二,则 s 2 x 2 , = s 1 R 2 x 1 , T 2 s_2x_2^, = s_1R_2x_1^, T_2 s2​x2,​=s1​R2​x1,​ T2​ x 2 , x_2^, x2,​和 T 2 T_2 T2​都是三维向量,它们做叉积之后得到另外一个三维向量 T 2 ^ x 2 , hat{T_2}x_2^, T2​^​x2,​(其中 T 2 ^ hat{T_2} T2​^​为叉积的矩阵形式, T 2 ^ x 2 , hat{T_2}x_2^, T2​^​x2,​代表 T 2 ^ × x 2 , hat{T_2}×x_2^, T2​^​×x2,​),且该向量垂直于 x 2 , x_2^, x2,​和 T 2 T_2 T2​,再用该向量对等式两边做点积,则 0 = s 1 ( T 2 ^ x 2 , ) T R 2 x 1 , ⇒ x 2 , T 2 ^ R 2 x 1 , = 0 0 = s_1(hat{T_2}x_2^,)^TR_2x_1^, \ Rightarrow x_2^,hat{T_2}R_2x_1^, = 0 0=s1​(T2​^​x2,​)TR2​x1,​⇒x2,​T2​^​R2​x1,​=0 令 E = T 2 ^ R 2 E=hat{T_2}R_2 E=T2​^​R2​,则 x 2 , E x 1 , = 0 ⇒ x 2 T K − T S t 2 R 2 K − 1 x 1 = 0 其 中 F = K − T S t 2 R 2 K − 1 x_2^,Ex_1^, = 0 \ Rightarrow x_2^TK^{-T}S_{t2}R_2K^{-1}x_1 = 0 \ 其中 F = K^{-T}S_{t2}R_2K^{-1} x2,​Ex1,​=0⇒x2T​K−TSt2​R2​K−1x1​=0其中F=K−TSt2​R2​K−1 这里 S t 2 S_{t2} St2​为反对称矩阵 S t 2 = [ 0 − t 3 t 2 t 3 0 − t 1 − t 2 t 1 0 ] S_{t2}=begin{bmatrix} 0 & -t_3 & t_2 \ t_3 & 0 & -t_1 \ -t_2 & t_1 & 0 end{bmatrix} St2​=⎣⎡​0t3​−t2​​−t3​0t1​​t2​−t1​0​⎦⎤​ 上式是同一点在两个相机中的像所满足的关系,它和点的空间坐标、点到相机的距离均没有关系,我们称之为极线约束(外极约束)。而矩阵E则称为关于这两个相机的本质矩阵(基础矩阵F)。如果我们知道两幅图像中的多个对应点(至少5对),则可以通过上式解出矩阵E,又由于F是由 T 2 T_2 T2​和 R 2 R_2 R2​构成的,可以从F中分解出 T 2 T_2 T2​和 R 2 R_2 R2​。由于det(F)=0,所以基础矩阵的秩小于等于2,在估计F的算法中会用到这些性质。

SFM算法流程

  • 特征点提取与特征点匹配
    • 特征点提取
      • Shi&Tomasi
      • SIFT
      • SURF
    • 特征点匹配
      • 描述子计算 匹配结果往往有很多误匹配,为了排除这些错误,使用KNN算法寻找与该特征最匹配的2个特征,若第一个特征的匹配距离与第二个特征的匹配距离之比小于某一阈值,就接受该匹配,否则视为误匹配。当然,也可以使用交叉验证方法来排除错误。
  • 基础矩阵估计F 基础矩阵中有9 个元素
    • 5点法
    • 8点法
      • 采用了RANSAC的方法进行对E进行估计,每一步迭代的过程中,利用8点法进行求解。
  • 本质矩阵估计E 本征矩阵有7个独立参数 估计出本质矩阵的目的是为了对之前求得的匹配进行约束,得到的匹配成为几何一致匹配,不同图像上的几何一致匹配形成了一个TRACK(其实就是一个空间点在不同的图像上的投影点之间的匹配)。
  • 本质矩阵分解为R和T
    • SVD分解
    • 存在4种可能的解,寻找正确的解
    • 检查旋转矩阵R的正确性 R的行列式必须为1或者-1
  • 三维点云计算
    • 三角形法 已经知道了两个相机之间的变换矩阵(R和T),还有每一对匹配点的坐标,通过这些已知信息还原匹配点在空间当中的坐标,根据公式 x 2 s 2 = K ( R 2 X T 2 ) x_2s_2 = K(R_2X T_2) x2​s2​=K(R2​X T2​) 这个等式中有两个未知量,分别是 s 2 , x s_2, x s2​,x。用 s 2 s_2 s2​对等式两边做叉积,可以消去 s 2 s_2 s2​,得 0 = x 2 ^ K ( R 2 X T 2 ) ⇒ x 2 ^ K R 2 X = − x 2 ^ K T 2 ⇒ x 2 ^ K ( R 2 T 2 ) ( X 1 ) = 0 0 = hat{x_2}K(R_2X T_2) \ Rightarrow hat{x_2}KR_2X = -hat{x_2}KT_2 \ Rightarrow hat{x_2}Kbegin{pmatrix} R_2 & T_2 end{pmatrix}begin{pmatrix} X \ 1 end{pmatrix} = 0 0=x2​^​K(R2​X T2​)⇒x2​^​KR2​X=−x2​^​KT2​⇒x2​^​K(R2​​T2​​)(X1​)=0 用SVD求X左边矩阵的零空间,再将最后一个元素归一化到1,即可求得X。其几何意义相当于分别从两个相机的光心作过x1和x2的延长线,延长线的焦点即为方程的解,如文章最上方的图所示。
  • 重投影 将三维点三角化并重映射到摄像机得到二维点,计算与最初二维点之间的距离,说明三角化误差。
  • 计算第三个摄像机到到世界坐标系的变换矩阵(R和T)
    • 假设:用于多目重建的图像是有序的,即相邻图像的拍摄位置也是相邻的。
    • 猜想:
      • 最简单的想法,就是沿用双目重建的方法,即在第三幅图像和第一幅图像之间提取特征点,然后估计本征矩阵E。那么加入第四幅、第五幅,乃至更多呢?随着图像数量的增加,新加入的图像与第一幅图像的差异可能越来越大,特征点的提取变得异常困难,这时就不能再沿用双目重建的方法了。
      • 用新加入的图像和相邻图像进行特征匹配,然后计算E,但这是计算的是相对变换,比如相机三到相机二的变换,而我们需要的是相机三到相机一的变换。有人说,既然知道相机二到相机一的变换,又知道相机到三到相机二的变换,不就能求出相机三到相机一的变换吗?实际上,通过这种方式,你只能求出相机三到相机一的旋转变换(旋转矩阵R),而他们之间的位移向量T,是无法求出的。这是因为上面两个函数求出的位移向量,都是单位向量,丢失了相机之间位移的比例关系。
    • 算法描述:
      • 摄像机标定或摄像机之态估计,对于输入的第三幅图片,计算第三幅图片与第二幅图片的匹配点,这些匹配点中,肯定有一部分也是图像二与图像一之间的匹配点,也就是说,这些匹配点中有一部分的空间坐标是已知的,同时又知道这些点在第三幅图像中的像素坐标,即可计算变换矩阵。
        • 透视N点法(PNP)
      • 三角化更多的点并查看这些点是如何融入存在的几何结构中,然后进行求解。
        • 迭代最近点法(ICP)
  • 更多摄像相机的变换矩阵计算 得到第三个摄像机的变换矩阵后,就可以计算匹配点的在空间中的坐标,得到三维点云,将新得到的三维点云与之前计算得三维点云进行融合(已经存在的空间点,就没必要再添加了,只添加在图像二和三之间匹配,但在图像一和图像三中没有匹配的点)。然后循环迭代,如下图所示。
  • 重构的细化与优化
    • 原因:随着图像的不断增加,误差会不断累积,最后误差过大以至于完全偏离重建的目标。
    • 目的:三维点云的位置和摄像机的位置优化
    • 算法:
      • 光束法平差(Bundle Adjustment) BA本质上是一个非线性优化算法
        • 简单稀疏光束调整(SSBA)
      • Ceres Solver Google的一个开源项目,用来求解非线性最小二次问题的库,因此可以用来求解BA。 Ceres Solver专为求解此类问题进行了大量的优化,有很高的效率,尤其在大规模问题上,其优势更加明显。

OpenCV3中的SFM

代码语言:javascript复制
主要包括两种重建的接口cv::sfm::reconstruct,一种是输入图像序列,一种是输入跟踪点序列,计算出相机在两帧空间场景间的R和T,算法具体实现基于libmv库。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/151277.html原文链接:https://javaforall.cn

0 人点赞