CN110070598A - 用于3d扫描重建的移动终端及其进行3d扫描重建方法 - Google Patents
用于3d扫描重建的移动终端及其进行3d扫描重建方法 Download PDFInfo
- Publication number
- CN110070598A CN110070598A CN201810058604.XA CN201810058604A CN110070598A CN 110070598 A CN110070598 A CN 110070598A CN 201810058604 A CN201810058604 A CN 201810058604A CN 110070598 A CN110070598 A CN 110070598A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- registration
- image
- rgb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000004927 fusion Effects 0.000 claims abstract description 17
- 239000011159 matrix material Substances 0.000 claims description 81
- 230000006870 function Effects 0.000 claims description 43
- 238000009616 inductively coupled plasma Methods 0.000 claims description 27
- 230000009466 transformation Effects 0.000 claims description 25
- 239000013598 vector Substances 0.000 claims description 21
- 238000013519 translation Methods 0.000 claims description 16
- 238000009877 rendering Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 abstract description 10
- 238000013461 design Methods 0.000 abstract description 5
- 238000004364 calculation method Methods 0.000 description 8
- 230000008447 perception Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供一种用于3D扫描重建的移动终端及使用移动终端进行3D扫描重建方法,所述移动终端包括结构光激光散斑投射模块、RGB摄像头、TR摄像头、图像采集模块、图像匹配模块、坐标对齐模块、点云配准模块、点云融合模块、体绘制模块,各模块相互配合旨在利用当前硬件技术的微型化,同时通过利用硬件实现部分三维重建算法,减小三维重建软件算法的复杂度,通过GPU加速较快算法计算,使扫描重建实现实时化。本公开提出的扫描重建方法,提高扫描重建的实用性;最后设计RGB图像与点云的坐标对齐,使重建结果同时具有RGB和深度的信息;最终实现智能移动终端平台上多种方式的实时的融合RGB和深度信息的3d扫描重建。
Description
技术领域
本公开涉及移动通讯领域、图像处理技术和集成电路技术领域,具体涉及一种用于3D扫描重建的移动终端及其进行3D扫描重建方法。
背景技术
三维重建自发展以来就成为计算机视觉和计算机图形学等领域的研究热点与难点,在计算机辅助几何涉及(CAGD)、计算机动画、医学影象学、数字媒体、文物修复、人机交互、军事应用、三维绘图等领域都发挥着越来越大的作用。所以研究三维重建技术有着极其重要的意义。
传统的三维重建设备价格昂贵且便携性不高,不便于在一些场合对三维数据的采集,并且传统的三维重建算法复杂度对硬件要过高,难以在智能手机上实现高精度实时的三维重建。但是如今智能手机相关技术的快速发展,无论是硬件还是软件都有了质的飞跃,使得将三维重建技术应用到智能手机上成为一种可能。
现有技术中,基于手机的扫描装置或系统,采用的深度感知算法过于复杂、进行扫描前需要复杂的标定,已经不是目前深度感知的主流技术,且在三维重建算法上该专利没有提出适用于智能手机的三维重建方法,难以实现在手机平台高精度的三维重建。
发明内容
针对上述问题,本公开提供一种用于3D扫描重建的手机及使用手机进行3D扫描重建方法,旨在利用当前硬件技术的微型化,同时通过利用硬件实现部分三维重建算法,减小三维重建软件算法的复杂度,通过GPU加速较快算法计算,使扫描重建实现实时化;提出两种方式的扫描重建方法,提高扫描重建的实用性;最后设计RGB图像与点云的坐标对齐,使重建结果同时具有RGB和深度的信息;最终实现智能手机平台上多种方式的实时的融合RGB和深度信息的3d扫描重建。本公开的技术方案如下。
一方面,本公开提出了一种用于3D扫描重建的移动终端,所述移动终端包括结构光激光散斑投射模块、RGB摄像头、TR摄像头、图像匹配模块、坐标对齐模块、点云配准模块、点云融合模块、体绘制模块;其中:
所述结构光激光散斑投射模块,被配置用于:投射散斑图案;
所述RGB摄像头,用于采集RGB图像,所述IR摄像头,用于采集激光散斑图像;
所述图像匹配模块,被配置用于:将激光散斑图像和参考散斑图像进行运动匹配,并根据激光散斑图像中每一个像素点的偏移距离计算出相应的深度值,将激光散斑图像转化成点云图像;所述参考散斑图像固化于存储器中;
所述坐标对齐模块,被配置用于:将点云图像和其对应的RGB图像转换到相同坐标系;
所述点云配准模块,被配置用于:基于RGB图像的特征点,对点云图像进行配准,获取点云配准矩阵,实现点云的配准;
所述点云融合模块,被配置用于:将点云配准后点云模型进行点云融合,形成点云模型;将配准前后的坐标对应关系建立为坐标变换查找表,输出到体绘制模块;
所述体绘制模块,被配置用于:用于整个点云模型的表面点生成,并结合坐标变换查找表进行纹理映射,以便3D扫描重建。
另一方面,本公开提出了一种使用移动终端进行3D扫描重建方法,所述方法包括下述步骤:
S100、投射散斑图案;
S200、采集激光散斑图像和RGB图像;
S300、将激光散斑图像和参考散斑图像进行运动匹配,并根据激光散斑图中每一个像素点的偏移距离计算出相应的深度值,将激光散斑图转化成点云图像,将点云图像和其对应的RGB图像转换到相同坐标系;
S400、基于RGB图像的特征点,对点云图像进行配准,获取点云配准矩阵,实现点云配准;
S500、将点云配准后点云模型进行点云融合,形成点云模型;并将配准前后的坐标对应关系建立为坐标变换查找表;
S600、为点云模型进行表面点生成,并结合坐标变换查找表进行纹理映射。
与现有技术相比,本公开提出的基于激光散斑图像深度感知技术的智能移动终端的3D扫描重建方法及装置将会极大改善目前三维重建技术的可移动性、实用性和普遍性。
附图说明
图1是本发明实施例的智能移动终端3D扫描重建装置的结构框图;
图2(a)、图2(b)、图2(c)是本发明实施例的智能手机示意图;
图中:1-IR摄像头,2-激光散斑投射器,3-RGB摄像头,4-显示屏,5-深度感知控制模块,6-手机处理器,7-存储器;
图3是本发明实施例的智能移动终端3D扫描重建的流程图;
图4是本发明实施例的基于多幅图的点云配准模块流程图;
图5是本发明实施例的基于视频流的点云配准模块流程图。
具体实施方式
在一个实施例中,提供了如图1所示的一种用于3D扫描重建的移动终端,所述移动终端包括结构光激光散斑投射模块、RGB摄像头、IR摄像头、图像匹配模块、坐标对齐模块、点云配准模块、点云融合模块、体绘制模块;其中:
所述结构光激光散斑投射模块,被配置用于:投射散斑;
所述RGB摄像头,用于采集RGB图像,所述IR摄像头,用于采集激光散斑图像;
所述图像匹配模块,被配置用于:将激光散斑图像和参考散斑图像进行运动匹配,并根据激光散斑图像中每一个像素点的偏移距离计算出相应的深度值,将激光散斑图像转化成点云图像;所述参考散斑图像固化于存储器中;
所述坐标对齐模块,被配置用于:将点云图像和其对应的RGB图像转换到相同坐标系;
所述点云配准模块,被配置用于:基于RGB图像的特征点,对点云图像进行配准,获取点云配准矩阵,实现点云的配准;
所述点云融合模块,被配置用于:将点云配准后点云模型进行点云融合,形成点云模型;将配准前后的坐标对应关系建立为坐标变换查找表,输出到体绘制模块;
所述体绘制模块,被配置用于:用于整个点云模型的表面点生成,并结合坐标变换查找表进行纹理映射。
在本实施例中,设计RGB图像与点云的坐标对齐,使重建结果同时具有RGB和深度的信息;最终实现智能移动终端平台上多种方式的实时的融合RGB和深度信息的3d扫描重建。
在一个实施例中,由于传统的ICP配准算法要求每两帧点云之间差异较小,且有较大的重合面,故难以实现对离散的两幅点云的配准;而在某些条件下,难以对目标物体进行连续视频流形式的扫描重建。因此,优选的,在所述点云配准模块中,分别针对不能连续视频流形式的扫描重建和连续视频流形式的扫描重建提出基于多幅图的点云配准方法、基于视频流的点云配准方法,并基于所述方法,将它们分配配置为:基于多幅图的点云配准单元和基于视频流的点云配准单元。其中:
所述基于多幅图的点云配准单元,被配置用于:根据RGB图像中的特征点进行图像的拼接,将RGB图像拼接的旋转平移矩阵作为配准的初始旋转平移矩阵,进行粗配准;然后,对粗配准后的点云模型使用ICP算法进行精确配准,最后得到两幅点云的点云配准矩阵,从而实现点云的配准;
所述基于视频流的点云配准单元,被配置用于:获取前后两帧点云中的匹配点对,根据所述匹配点对建立误差度量函数;基于误差度量函数,利用最小二乘法获取点云配准矩阵,从而实现点云的配准;将当前点云配准矩阵作为初始矩阵,用于下一帧点云迭代估计点云配准矩阵,对于视频流的前两帧,以单位矩阵作为初始矩阵,用于迭代估计点云配准矩阵;
在这个实施例中,优选的,所述ICP算法基于硬件电路实现。
在这个实施例中,优选的,所述匹配点对在获取时包括下述步骤:
根据投影法找到前后两帧点云的所有匹配点对;
通过计算匹配点对之间的欧几里得距离和法向量夹角约束条件消除错误匹配点对。
在这个实施例中,优选的,在所述移动终端中,其中:所述误差度量函数为每一对匹配点对之间的距离之和,其表达式如下:
其中,
E为误差度量函数;
Wk为第k对匹配点对的权重因子,其值根据该匹配点对是否为对应的RGB图像中的ORB特征点对进行确定;
T为两帧点云图像的旋转平移矩阵,该两帧点云图像为误差度量函数中的匹配点对相关;
pk和qk为第k对匹配点对的两个坐标,pk为当前帧图像中的点,qk为前一帧图像中的点;
nk为qk的法向量;
N为匹配点对的总数。
在一个实施例中,所述体绘制模块中涉及的计算使用GPU并行计算加速,所述体绘制模块包括表面点生成单元、纹理映射单元;其中:
所述表面点生成单元,被配置用于:为输出图像中的每一个像素分配一个线程,每个线程沿着垂直于图像平面的方向移动,在移动过程中获取遇到的体素内的符号距离函数值,并保存当前符号距离函数值的均值;当前体素的符号距离函数值是零点时,即当前体素的符号距离函数值与线程上保存的符号距离函数均值的符号相反,该点即为物体表面点,保存当前点的三维坐标;直至所有线程搜索到表面点,完成物体表面的生成;
所述体素是指点云模型中由八个相邻的数据点围成的立方体;
所述纹理映射单元,被配置用于:对经过表面点生成单元得到的表面点,为每一个表面点分配一个线程;所述线程通过查询点云配准过程生成的坐标变换查找表,获取其对应像素在RGB图像上相应的像素点的RGB值。
所述移动终端包括,手机、平板、Pad等。
在一个实施例中,提供了如图2(a)、图2(b)、图2(c)所示的手机,该手机包括IR摄像头1,激光散斑投射器2,RGB摄像头3,显示屏4,深度感知控制模块5,手机处理器6,存储器7。其中,深度感知控制模块5能够产生触发信号控制结构光激光散斑投射模块投射固化的散斑图,同时具有图像采集模块的功能,能够控制TR摄像头、RGB摄像头采集场景和物体的RGB图像和激光散斑图像。手机处理器6中运行着点云融合模块、体绘制模块。存储器7中固化存储参考散斑图像。
在一个实施例中,本公开提出了一种使用移动终端进行3D扫描重建方法,流程示意图如图3所示,所述方法包括下述步骤:
S100、投射激光散斑图像;
S200、采集激光散斑图像和RGB图像;
S300、将激光散斑图像和参考散斑图像进行运动匹配,并根据激光散斑图中每一个像素点的偏移距离计算出相应的深度值,将激光散斑图转化成点云图像,将点云图像和其对应的RGB图像转换到相同坐标系;
S400、基于RGB图像的特征点,对点云图像进行配准,获取点云配准矩阵,实现点云配准;
S500、将点云配准后点云模型进行点云融合,形成点云模型;并将配准前后的坐标对应关系建立为坐标变换查找表;
S600、为点云模型进行表面点生成,并结合坐标变换查找表进行纹理映射。
在所述方法中,其中:所述步骤S400中的对点云图像进行配准包括基于多幅图的点云配准、基于视频流的点云配准两种方式;
所述基于多幅图的点云配准包括下述步骤:
S401、根据RGB图像中的特征点进行图像的拼接,将RGB图像拼接的旋转平移矩阵作为配准的初始旋转平移矩阵,进行粗配准;
S402、对粗配准后的点云模型使用ICP算法进行精确配准,最后得到两幅点云的点云配准矩阵,从而实现点云的配准;
所述基于视频流的点云配准包括下述步骤:
S411、获取前后两帧点云中的匹配点对,根据所述匹配点对建立误差度量函数;
S412、通过ICP算法估计点云配准矩阵,从而实现点云的配准;基于误差度量函数,利用最小二乘法获取点云配准矩阵,从而实现点云的配准;将当前点云配准矩阵作为初始矩阵,用于下一帧点云迭代估计点云配准矩阵,对于视频流的前两帧,以单位矩阵作为初始矩阵,用于迭代估计点云配准矩阵;
所述ICP算法基于硬件电路实现。
在所述方法中,其中:所述匹配点对在获取时包括下述步骤:
根据投影法找到前后两帧点云的所有匹配点对;
通过计算匹配点对之间的欧几里得距离和法向量夹角约束条件消除错误匹配点对。
在所述方法中,其中:所述步骤S600中涉及的计算使用GPU并行计算加速,其中:
所述表面点生成包括下述步骤:
S601、为输出图像中的每一个像素分配一个线程,每个线程沿着垂直于图像平面的方向移动;
S602、在移动过程中获取遇到的体素内的符号距离函数值;
S603、当前体素的符号距离函数值是零点时,即当前体素的符号距离函数值与线程上保存的符号距离函数均值的符号相反,该点即为物体表面点,保存当前点的三维坐标;直至所有线程搜索到表面点,完成物体表面的生成;
所述纹理映射包括下述步骤:
S611、对经过表面点生成单元处理过的点云模型,为构成点云模型的每一个像素分配一个线程;
S612、所述线程通过查询点云配准过程生成的坐标变换查找表,获取其对应像素在RGB图像上相应的像素点的RGB值。
在所述方法中,其中:所述误差度量函数为每一对匹配点对之间的距离之和,其表达式如下:
其中,
E为误差度量函数;
Wk为第k对匹配点对的权重因子,其值根据该匹配点对是否为对应的RGB图像中的ORB特征点对进行确定;
T为两帧点云图像的旋转平移矩阵,该两帧点云图像为误差度量函数中的匹配点对相关;
pk和qk为第k对匹配点对的两个坐标,pk为当前帧图像中的点,qk为前一帧图像中的点;
nk为qk的法向量;
N为匹配点对的总数。
在一个实施例中,提供了具体的深度值计算方法,包括下述步骤:
S301、在参考散斑图中选取一个的图像块,同时从标准散斑参考图里读取以输入图像块所对应位置为中心、大小为(M×N)的搜索窗数据,其中M和N都是整数且M>=m、N>n。
S302,图像块在该搜索窗内按一定的搜索策略和相似度测量准则来寻找该运动块的最优匹配块,从中获得该图像块与其参考匹配块之间的位移量(Δx,Δy),即为该图像块的运动向量。本设计用匹配块绝对值差求和来实现源匹配块和搜索窗中匹配块的匹配计算,绝对值差和最小的匹配块就是最优匹配块。
S303,运动位移估计模块根据求得的最优匹配块计算位移偏移量后,结合参考散斑图的已知距离参数d、图像传感器焦距f、激光投射器与接收图像传感器之间的基线距离S和图像传感器像素点点距参数μ,按以下深度计算公式计算得到输入散斑图像块中心点的深度信息d′:
其中,最优偏移量Δm等于参考散斑窗中心点x坐标值-最优匹配块中心点x′坐标值,或参考散斑窗中心点y坐标值-最优匹配块中心点y′坐标值,有正负。
在前述实施例中,将点云图像和其对应的RGB图像转换到相同坐标系,是为了解决IR摄像头采集的点云图像数据和RGB摄像头采集的RGB图像数据坐标不对齐的问题。假设物理世界中的即物理世界中的点在RGB摄像头采集图像中的行列值坐标点(URGB,VRGB)和TR摄像头采集图像中的行列值坐标点(Xd,Yd)T不同,通过对IR摄像头和RGB摄像头标定,得到TR摄像头和RGB摄像头之间的旋转矩阵RD-RGB和平移向量tD-RGB,并可以得到IR摄像头坐标系下的点与RGB摄像头坐标系下的点的空间坐标变换公式为:
其中:
Zd为点云图像中的点(Xd,Yd)T的深度值;
ZRGB为RGB图像中的点(XRGB,YRGB)的深度值。
若将RD-RGB写为:
将tD-RGB写为(tx,ty,tz)
同时将RD-RGB、tD-RGB扩展为4x4的矩阵R'D-RGB、t'D-RGB,将(XRGB,YRGB,ZRGB)T、(Xd,Yd,Zd)T扩展为4维向量,则空间变换公式可以简化为:
其中:
进一步地,可得到:
其中,(XRGB,YRGB,ZRGB)T是RGB摄像头坐标系下的三维坐标,(Xd,Yd,Zd)T是IR摄像头坐标系下的三维坐标,(R’D-RGB|t’D-RGB)为IR摄像头坐标系到RGB摄像头坐标系的旋转平移矩阵。
再根据RGB摄像头的内参,可以得到深度图像像素在RGB图像中对应的坐标:
式中:(URGB,VRGB)是所求的RGB图像像素坐标,fx、fy分别是RGB摄像头在x、y方向的焦距,(Ox,Oy)是彩色图像的中心点坐标。
进一步地,根据深度图像的像素重新排列RGB图像的对应像素,就可以得到在IR摄像头下的深度图像和彩色图像。
在一个实施例中,基于多幅图的点云配准模块流程图如图4所示,模块的输入是两幅图像匹配后的点云图和其对应的RGB图像。提出基于多幅图的点云配准是为了解决在一些极端条件下,难以对目标物体进行连续视频流形式的扫描重建,而传统的ICP配准算法要求每两帧点云之间差异较小,且有较大的重合面,故难以实现对离散的两幅点云的配准。本专利的提出基于多幅图的点云配准的硬件实现方法,利用坐标对齐模块得到的点云RGB数据,得到一个初始的转换矩阵,利用初始转换矩阵,将两幅点云配准到同一坐标系下,使两幅点云具有高度的重合度和极小的位移,再通过传统ICP算法,来实现多幅图的点云配准,详细步骤如下:
接收来自图像匹配模块的连续两幅点云A、点云B和他们对应的RGB图像,分别对点云图进行点云A和点云B对应的RGB图像进行特征检测,本专利中对图像进行sift特征点检测,并利用硬件电路的流水线设计思想加速运算达到实时性,得到两幅图像的特征点;
基于两幅RGB图的特征点进行图像的拼接;
将RGB图像拼接的转移矩阵作为点云配准ICP算法的初始转移矩阵,完成两幅点云的粗配准;
粗配准后的点云进行ICP配准,并通过硬件流水线加速,得到精确配准的点云模型,基于硬件电路的流水线设计思想加速的ICP算法将在基于视频流的点云配准模块进行详细说明。
在一个实施例中,基于视频流的点云配准模块流程图如图5所示,模块的输入是以视频流格式的点云帧图和对应的RGB图,传统的点云配准算法计算复杂度高,难以实现实时的点云配准,因此我们提出通过硬件实现ICP算法,通过硬件电路的流水线设计加速,同时通过检测RGB图像的ORB特征点,并在配准流程中增加ORB特征点的权重来减少ICP算法的迭代次数,实现扫描重建的实时性。具体实现步骤如下:
获取采集到的连续两帧的点云图像,对深度图像Di(p)上的每个像素点p(u,v)根据IR摄像头内参矩阵KIR反透射变换计算深度图在摄像头坐标系下的对应三维顶点坐标Vi,计算公式为:
再通过对每个顶点相邻顶点的两个向量叉乘,得到该顶点对应的法向量,计算公式为:
Ni(u,v)=(Vi(u+1,v)-Vi(u,v))×(Vi(u,V+1)-Vi(u,v))。
ICP算法对初始变换参数要求较高,如果初始矩阵选取不当,会造成迭代不收敛或配准结果陷入局部最优。但是因为本方法是基于视频流的3D扫描重建,因此可以认为相邻两帧点云之间的位置较为接近,将初始变换矩阵设置为上一帧点云的点云配准矩阵,特别的对于视频流的前两帧点云的初始矩阵设置为
初始化迭代次数,设定迭代次数最大值;
估计点云配准矩阵,首先根据投影法找到前后两帧点云的所有匹配点对,投影法在具有良好的抗噪性的同时还能得到最佳的匹配结果,具有更快的匹配速度,能够满足高精度、实时性的要求。投影法获取匹配点对的基本思想是将第k帧点云集Vk转换到第k-1帧点云集Vk-1的摄像头坐标系下,记为Vk,对于Vk’中的任意一点利用透视投影求出对应的图像坐标,由该图像坐标找到第k-1帧点云空间集上具有相同图像坐标的空间点qk-1,该点即为所求的对应点。
得到对应点对后需要为点对分配权重,为了提高迭代的效率,本方法提出利用RGB图像中求得的ORB特征点对,给这些特征点对赋予较高的权重值,以达到加快迭代的收敛速度的目的。
得到匹配点对后还需要消除错位匹配点对,本方法通过计算匹配点对之间的欧几里得距离和法向量夹角约束条件消除部分错误匹配点对,当匹配点对的欧几里得距离和法向量夹角同时满足设定阈值时,则匹配点对为正确的匹配点对,否则为错误的匹配点对。欧几里得距离和法向量夹角的计算公式如下:
s=||V-Vk,g||<sthr,
其中,Vk,g和nk分别表示空间点p的全局三维坐标和法向量,V和nk-1分别表示空间点q的全局三维坐标和法向量,sthr和θthr分别为距离阈值和角度阈值。
最后利用线性最小二乘法近似求解点云配准矩阵,同时计算本次迭代求出的点云配准矩阵的距离误差函数。假设第i帧点云和第i-1帧点云共有N对匹配点,则第k对匹配点的坐标可以分别表达为pk=(pkx,pky,pkz,1)T和qk=(qkx,qky,qkz,1)T,并且qk处法向量为nk=(nkx,nky,nkz,1)T,则定义两帧点云的距离误差函数为:
其中,Wk为权重因子,其值可设定。比如,当匹配点对(pk,qk)为对应的彩色图像ORB特征点对时,Wk=10,否则Wk=1。
对于点云配准矩阵的计算,首先设第i帧初始的旋转平移矩阵为:
T=t(tx,ty,tz)·R(α,β,γ),
其中t=(tx,ty,tz)为平移矩阵,R(α,β,γ)为旋转矩阵,具体表达式如下:
其中:
Rz(γ),Ry(β),Rx(α)分别是绕z轴、y轴和x轴旋转γ,β,α角度的旋转矩阵,当旋转角度较小时,sinθ≈0,cosθ≈1,有
则误差函数可以表示为:
其中:
其中:
ak1=nkz pky-nky pkz
ak2=nkx pkz-nkz pkx
ak3=nky pkx-nkx pky
此时,误差函数最小化问题已转换为标准的线性最小而成问题,采用奇异值分解求解,便可以得到线性系统的解,得到点云配准矩阵。
对矩阵A进行奇异值分解,得到:
A=U∑VT
其中:
A是一个M×N的矩阵,得到的U是一个M×M的方阵(称为左奇异向量),∑是一个M×N的矩阵(除了对角线的元素都是0,对角线上的元素称为奇异值),VT是一个N×N的矩阵(称为右奇异向量)。
设矩阵A的广义逆矩阵为A+,有:
A+=V∑+UT,
其中:
∑+是∑的伪逆,并将其主对角线上每个非零元素都求倒数之后再转置得到的。
可得到该线性系统的解为:
x=A+b,
最后判断迭代次数是否到达设定的最大值,如果达到最大值,则迭代结束,否则继续迭代计算估计点云配准矩阵。
利用最终得到的点云配准矩阵即可将两帧点云配准到一个坐标系下,完成点云配准的目的;同时将配准前后的坐标对应关系建立为坐标变换查找表,传输到体绘制模块。
尽管以上结合附图对本发明的实施方案进行了描述,但本发明并不局限于上述的具体实施方案和应用领域,上述的具体实施方案仅仅是示意性的、指导性的,而不是限制性的。本领域的普通技术人员在本说明书的启示下和在不脱离本发明权利要求所保护的范围的情况下,还可以做出很多种的形式,这些均属于本发明保护之列。
Claims (10)
1.一种用于3D扫描重建的移动终端,其特征在于:
所述移动终端包括结构光激光散斑投射模块、RGB摄像头、TR摄像头、图像匹配模块、坐标对齐模块、点云配准模块、点云融合模块、体绘制模块;其中:
所述结构光激光散斑投射模块,被配置用于:投射散斑图案;
所述RGB摄像头,用于采集RGB图像,所述IR摄像头,用于采集激光散斑图像;
所述图像匹配模块,被配置用于:将激光散斑图像和参考散斑图像进行运动匹配,并根据激光散斑图像中每一个像素点的偏移距离计算出相应的深度值,将激光散斑图像转化成点云图像;所述参考散斑图像固化于存储器中;
所述坐标对齐模块,被配置用于:将点云图像和其对应的RGB图像转换到相同坐标系;
所述点云配准模块,被配置用于:结合RGB图像的特征点,对点云图像进行配准,获取点云配准矩阵,实现点云的配准;
所述点云融合模块,被配置用于:将点云配准后,进行点云融合,形成点云模型;将配准前后的坐标对应关系建立为坐标变换查找表,输出到体绘制模块;
所述体绘制模块,被配置用于:用于整个点云模型的表面点生成,并结合坐标变换查找表进行纹理映射,以便3D扫描重建。
2.根据权利要求1所述的移动终端,其特征在于:优选的,所述点云配准模块包括基于多幅图的点云配准单元、基于视频流的点云配准单元;
所述基于多幅图的点云配准单元,被配置用于:根据RGB图像中的特征点进行图像的拼接,将RGB图像拼接的旋转平移矩阵作为配准的初始旋转平移矩阵,进行粗配准;然后,对粗配准后的点云模型使用ICP算法进行精确配准,最后得到两幅点云的点云配准矩阵,从而实现点云的配准;
所述基于视频流的点云配准单元,被配置用于:获取前后两帧点云中的匹配点对,根据所述匹配点对建立误差度量函数;基于误差度量函数,利用最小二乘法获取点云配准矩阵,从而实现点云的配准;将当前点云配准矩阵作为初始矩阵,用于下一帧点云迭代估计点云配准矩阵,对于视频流的前两帧,以单位矩阵作为初始矩阵,用于迭代估计点云配准矩阵;
所述ICP算法基于硬件电路实现。
3.根据权利要求2所述的移动终端,其特征在于,所述匹配点对在获取时包括下述步骤:
根据投影法找到前后两帧点云的所有匹配点对;
通过计算匹配点对之间的欧几里得距离和法向量夹角约束条件消除错误匹配点对。
4.根据权利要求1所述的移动终端,其特征在于,所述体绘制模块中涉及的计算使用GPU并行计算加速,所述体绘制模块包括表面点生成单元、纹理映射单元;
所述表面点生成单元,被配置用于:为输出图像中的每一个像素分配一个线程,每个线程沿着垂直于图像平面的方向移动,在移动过程中获取遇到的体素内的符号距离函数值,并保存当前符号距离函数值的均值;当前体素的符号距离函数值是零点时,即当前体素的符号距离函数值与线程上保存的符号距离函数均值的符号相反,该点即为物体表面点,保存当前点的三维坐标;直至所有线程搜索到表面点,完成物体表面的生成;
所述纹理映射单元,被配置用于:对经过表面点生成单元得到的表面点,为每一个表面点分配一个线程;所述线程通过查询点云配准过程生成的坐标变换查找表,获取其对应像素在RGB图像上相应的像素点的RGB值。
5.根据权利要求2所述的移动终端,其特征在于,所述误差度量函数为每一对匹配点对之间的距离之和,其表达式如下:
其中,
E为误差度量函数;
wk为第k对匹配点对的权重因子,其值根据该匹配点对是否为对应的RGB图像中的ORB特征点对进行确定;
T为两帧点云图像的旋转平移矩阵,该两帧点云图像为误差度量函数中的匹配点对相关;
pk和qk为第k对匹配点对的两个坐标,pk为当前帧图像中的点,qk为前一帧图像中的点;
nk为qk的法向量;
N为匹配点对的总数。
6.一种使用移动终端进行3D扫描重建方法,其特征在于,所述方法包括下述步骤:
S100、投射散斑图案;
S200、采集激光散斑图像和RGB图像;
S300、将激光散斑图像和参考散斑图像进行运动匹配,并根据激光散斑图中每一个像素点的偏移距离计算出相应的深度值,将激光散斑图转化成点云图像,将点云图像和其对应的RGB图像转换到相同坐标系;
S400、基于RGB图像的特征点,对点云图像进行配准,获取点云配准矩阵,实现点云配准;
S500、将点云配准后,进行点云融合,形成点云模型;并将配准前后的坐标对应关系建立为坐标变换查找表;
S600、为点云模型进行表面点生成,并结合坐标变换查找表进行纹理映射,以进行3D扫描重建。
7.根据权利要求6所述的方法,其特征在于,所述步骤S400中的对点云图像进行配准包括基于多幅图的点云配准、基于视频流的点云配准两种方式;
所述基于多幅图的点云配准包括下述步骤:
S401、根据RGB图像中的特征点进行图像的拼接,将RGB图像拼接的旋转平移矩阵作为配准的初始旋转平移矩阵,进行粗配准;
S402、对粗配准后的点云模型使用ICP算法进行精确配准,最后得到两幅点云的点云配准矩阵,从而实现点云的配准;
所述基于视频流的点云配准包括下述步骤:
S411、获取前后两帧点云中的匹配点对,根据所述匹配点对建立误差度量函数;
S412、通过ICP算法估计点云配准矩阵,从而实现点云的配准;基于误差度量函数,利用最小二乘法获取点云配准矩阵,并将当前点云配准矩阵设置为下一帧点云的点云配准矩阵,从而实现点云的配准;将当前点云配准矩阵作为初始矩阵,用于下一帧点云迭代估计点云配准矩阵,对于视频流的前两帧,以单位矩阵作为初始矩阵,用于迭代估计点云配准矩阵;
所述ICP算法基于硬件电路实现。
8.根据权利要求7所述的方法,其特征在于,所述匹配点对在获取时包括下述步骤:
根据投影法找到前后两帧点云的所有匹配点对;
通过计算匹配点对之间的欧几里得距离和法向量夹角约束条件消除错误匹配点对。
9.根据权利要求6所述的方法,其特征在于,所述步骤S600中涉及的计算使用GPU并行计算加速,其中:
所述表面点生成包括下述步骤:
S601、为输出图像中的每一个像素分配一个线程,每个线程沿着垂直于图像平面的方向移动;
S602、在移动过程中获取遇到的体素内的符号距离函数值;
S603、当前体素的符号距离函数值是零点时,即当前体素的符号距离函数值与线程上保存的符号距离函数均值的符号相反,该点即为物体表面点,保存当前点的三维坐标;直至所有线程搜索到表面点,完成物体表面的生成;
所述纹理映射包括下述步骤:
S611、对经过表面点生成单元处理过的点云模型,为构成点云模型的每一个像素分配一个线程;
S612、所述线程通过查询点云配准过程生成的坐标变换查找表,获取其对应像素在RGB图像上相应的像素点的RGB值。
10.根据权利要求7所述的方法,其特征在于,所述误差度量函数为每一对匹配点对之间的距离之和,其表达式如下:
其中,
E为误差度量函数;
wk为第k对匹配点对的权重因子,其值根据该匹配点对是否为对应的RGB图像中的ORB特征点对进行确定;
T为两帧点云图像的旋转平移矩阵,该两帧点云图像为误差度量函数中的匹配点对相关;
pk和qk为第k对匹配点对的两个坐标,pk为当前帧图像中的点,qk为前一帧图像中的点;
nk为qk的法向量;
N为匹配点对的总数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810058604.XA CN110070598B (zh) | 2018-01-22 | 2018-01-22 | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810058604.XA CN110070598B (zh) | 2018-01-22 | 2018-01-22 | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110070598A true CN110070598A (zh) | 2019-07-30 |
CN110070598B CN110070598B (zh) | 2022-11-25 |
Family
ID=67364642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810058604.XA Active CN110070598B (zh) | 2018-01-22 | 2018-01-22 | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110070598B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782488A (zh) * | 2019-10-11 | 2020-02-11 | 华中科技大学 | 一种基于形状约束的连续脑片图像三维配准方法 |
CN111353985A (zh) * | 2020-03-02 | 2020-06-30 | 电子科技大学 | 一种基于深度相机的机场自助托运行李的检测方法 |
CN111553985A (zh) * | 2020-04-30 | 2020-08-18 | 四川大学 | 邻图配对式的欧式三维重建方法及装置 |
CN111583388A (zh) * | 2020-04-28 | 2020-08-25 | 光沦科技(深圳)有限公司 | 一种三维扫描系统的扫描方法及设备 |
CN112489190A (zh) * | 2020-11-18 | 2021-03-12 | 新拓三维技术(深圳)有限公司 | 一种全自动室内扫描方法、系统及计算机可读存储介质 |
CN112783196A (zh) * | 2020-12-17 | 2021-05-11 | 国网山西省电力公司运城供电公司 | 配网线路无人机自主飞行路径规划方法及系统 |
CN113052884A (zh) * | 2021-03-17 | 2021-06-29 | Oppo广东移动通信有限公司 | 信息处理方法、信息处理装置、存储介质与电子设备 |
WO2021139293A1 (zh) * | 2020-01-10 | 2021-07-15 | 腾讯科技(深圳)有限公司 | 一种三维模型的纹理获取方法和相关装置 |
CN113539444A (zh) * | 2021-08-30 | 2021-10-22 | 上海联影医疗科技股份有限公司 | 医学图像重建方法、装置、电子设备和存储介质 |
CN116883471A (zh) * | 2023-08-04 | 2023-10-13 | 天津大学 | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 |
CN116935013A (zh) * | 2023-09-14 | 2023-10-24 | 武汉工程大学 | 基于三维重建的电路板点云大范围拼接方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105931234A (zh) * | 2016-04-19 | 2016-09-07 | 东北林业大学 | 一种地面三维激光扫描点云与影像融合及配准的方法 |
WO2016188068A1 (zh) * | 2015-05-27 | 2016-12-01 | 珠海真幻科技有限公司 | 以计算激光散斑为纹理的立体视觉三维面形测量方法及系统 |
CN106802138A (zh) * | 2017-02-24 | 2017-06-06 | 杭州先临三维科技股份有限公司 | 一种三维扫描系统及其扫描方法 |
-
2018
- 2018-01-22 CN CN201810058604.XA patent/CN110070598B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016188068A1 (zh) * | 2015-05-27 | 2016-12-01 | 珠海真幻科技有限公司 | 以计算激光散斑为纹理的立体视觉三维面形测量方法及系统 |
CN105931234A (zh) * | 2016-04-19 | 2016-09-07 | 东北林业大学 | 一种地面三维激光扫描点云与影像融合及配准的方法 |
CN106802138A (zh) * | 2017-02-24 | 2017-06-06 | 杭州先临三维科技股份有限公司 | 一种三维扫描系统及其扫描方法 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782488B (zh) * | 2019-10-11 | 2022-08-12 | 华中科技大学 | 一种基于形状约束的连续脑片图像三维配准方法 |
CN110782488A (zh) * | 2019-10-11 | 2020-02-11 | 华中科技大学 | 一种基于形状约束的连续脑片图像三维配准方法 |
WO2021139293A1 (zh) * | 2020-01-10 | 2021-07-15 | 腾讯科技(深圳)有限公司 | 一种三维模型的纹理获取方法和相关装置 |
US11989894B2 (en) | 2020-01-10 | 2024-05-21 | Tencent Technology (Shenzhen) Company Limited | Method for acquiring texture of 3D model and related apparatus |
CN111353985A (zh) * | 2020-03-02 | 2020-06-30 | 电子科技大学 | 一种基于深度相机的机场自助托运行李的检测方法 |
CN111353985B (zh) * | 2020-03-02 | 2022-05-03 | 电子科技大学 | 一种基于深度相机的机场自助托运行李的检测方法 |
CN111583388A (zh) * | 2020-04-28 | 2020-08-25 | 光沦科技(深圳)有限公司 | 一种三维扫描系统的扫描方法及设备 |
CN111583388B (zh) * | 2020-04-28 | 2023-12-08 | 光沦科技(深圳)有限公司 | 一种三维扫描系统的扫描方法及设备 |
CN111553985A (zh) * | 2020-04-30 | 2020-08-18 | 四川大学 | 邻图配对式的欧式三维重建方法及装置 |
CN112489190A (zh) * | 2020-11-18 | 2021-03-12 | 新拓三维技术(深圳)有限公司 | 一种全自动室内扫描方法、系统及计算机可读存储介质 |
CN112489190B (zh) * | 2020-11-18 | 2024-05-31 | 新拓三维技术(深圳)有限公司 | 一种全自动室内扫描方法、系统及计算机可读存储介质 |
CN112783196A (zh) * | 2020-12-17 | 2021-05-11 | 国网山西省电力公司运城供电公司 | 配网线路无人机自主飞行路径规划方法及系统 |
CN113052884A (zh) * | 2021-03-17 | 2021-06-29 | Oppo广东移动通信有限公司 | 信息处理方法、信息处理装置、存储介质与电子设备 |
CN113539444A (zh) * | 2021-08-30 | 2021-10-22 | 上海联影医疗科技股份有限公司 | 医学图像重建方法、装置、电子设备和存储介质 |
CN113539444B (zh) * | 2021-08-30 | 2024-04-19 | 上海联影医疗科技股份有限公司 | 医学图像重建方法、装置、电子设备和存储介质 |
CN116883471B (zh) * | 2023-08-04 | 2024-03-15 | 天津大学 | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 |
CN116883471A (zh) * | 2023-08-04 | 2023-10-13 | 天津大学 | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 |
CN116935013B (zh) * | 2023-09-14 | 2023-11-28 | 武汉工程大学 | 基于三维重建的电路板点云大范围拼接方法及系统 |
CN116935013A (zh) * | 2023-09-14 | 2023-10-24 | 武汉工程大学 | 基于三维重建的电路板点云大范围拼接方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110070598B (zh) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070598B (zh) | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 | |
CN103106688B (zh) | 基于双层配准方法的室内三维场景重建方法 | |
CN109919911B (zh) | 基于多视角光度立体的移动三维重建方法 | |
US11568516B2 (en) | Depth-based image stitching for handling parallax | |
CN111325794A (zh) | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 | |
CN107292965A (zh) | 一种基于深度图像数据流的虚实遮挡处理方法 | |
CN107240129A (zh) | 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法 | |
CN115205489A (zh) | 一种大场景下的三维重建方法、系统及装置 | |
CN105869167A (zh) | 基于主被动融合的高分辨率深度图获取方法 | |
CN111325828B (zh) | 一种基于三目相机的三维人脸采集方法及装置 | |
Eichhardt et al. | Affine correspondences between central cameras for rapid relative pose estimation | |
CN115035235A (zh) | 三维重建方法及装置 | |
Resch et al. | On-site semi-automatic calibration and registration of a projector-camera system using arbitrary objects with known geometry | |
GB2567245A (en) | Methods and apparatuses for depth rectification processing | |
Wan et al. | Drone image stitching using local mesh-based bundle adjustment and shape-preserving transform | |
CN113450416B (zh) | 一种应用于三目相机立体标定的tcsc方法 | |
CN116579962A (zh) | 一种基于鱼眼相机的全景感知方法、装置、设备及介质 | |
CN116310131A (zh) | 一种考虑多视图融合策略的三维重建方法 | |
CN111899293B (zh) | Ar应用中的虚实遮挡处理方法 | |
CN107240149A (zh) | 基于图像处理的物体三维模型构建方法 | |
CN117974786A (zh) | 一种基于多视觉动态环境重建和测量方法及系统 | |
Liao et al. | Fisheye-GS: Lightweight and Extensible Gaussian Splatting Module for Fisheye Cameras | |
CN113808070A (zh) | 一种双目数字散斑图像相关的视差测量方法 | |
CN113971629A (zh) | 图像恢复方法和装置 | |
CN107478227B (zh) | 交互式大型空间的定位算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |