[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN103413352A - 基于rgbd多传感器融合的场景三维重建方法 - Google Patents

基于rgbd多传感器融合的场景三维重建方法 Download PDF

Info

Publication number
CN103413352A
CN103413352A CN2013103234393A CN201310323439A CN103413352A CN 103413352 A CN103413352 A CN 103413352A CN 2013103234393 A CN2013103234393 A CN 2013103234393A CN 201310323439 A CN201310323439 A CN 201310323439A CN 103413352 A CN103413352 A CN 103413352A
Authority
CN
China
Prior art keywords
point
carry out
image
value
unique
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013103234393A
Other languages
English (en)
Inventor
杨涛
张艳宁
范洁
王斯丙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN2013103234393A priority Critical patent/CN103413352A/zh
Publication of CN103413352A publication Critical patent/CN103413352A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于RGBD多传感器融合的场景三维重建方法,用于解决现有场景三维重建方法重建速度低的技术问题。技术方案是首先采用SURF算法代替SIFT算法进行特征匹配,其次,根据观察中心的方法改进了子地图的划分标准,使得经多层图抽象后的图像金字塔更好的反映环境的拓扑结构,更有助于提高构建大场景三维地图的速度。同时,在地图生成部分,提出了使用经典的基于空间体的多帧融合方法来减少冗余点,提高了重建速度。经测试,本发明方法的重建速度比背景技术提高了近两倍。

Description

基于RGBD多传感器融合的场景三维重建方法
技术领域
本发明涉及一种场景三维重建方法,特别涉及一种基于RGBD多传感器融合的场景三维重建方法。
背景技术
在自主移动机器人领域,对未知环境的探索与建立一直以来都是一个研究热点。现有的三维场景重建方法主要有:基于红外激光传感器和基于视觉传感器两大类。
文献“RGB-D mapping: Using depth cameras for dense 3D modeling of indoorenvironments,12th ISER. 2010, 20: p22-25”公开了一种基于RGB-D传感器的TORO图优化算法。该方法采用SIFT算法进行特征匹配,得到相对于第一帧的当前帧位姿的初始估计,进而使用ICP算法进行点云匹配以优化初始估计,当检测到loop closure时,将输入的所有帧添加到pose图中进行全局优化,从而得到高精度的地图。但是,在时间代价方面,特征匹配是采用计算速度一般的SIFT算法,不能很好地满足实时三维重建对实时速度的要求,因此,在特征匹配时应该采用速度更高的算法,以提高实时性。在地图优化方面,由于移动设备的轨迹仅是以一个位置为中心来构建地图的,导致空缺区域的产生,因此不能建立完整的地图;同时,在输出3D点云图时,仅将各个帧的点云数据简单相加,导致冗余点的增加,不仅降低了运算速度,而且为后续的再处理带来了极大干扰。
发明内容
为了克服现有场景三维重建方法重建速度低的不足,本发明提供一种基于RGBD多传感器融合的场景三维重建方法。该方法首先采用SURF算法代替SIFT算法进行特征匹配,其次,根据观察中心的方法改进了子地图的划分标准,使得经多层图抽象后的图像金字塔更好的反映环境的拓扑结构,更有助于提高构建大场景三维地图的速度。同时,在地图生成部分,提出了使用经典的基于空间体的多帧融合方法来减少冗余点,不仅可以提高重建速度,而且为后续操作提供了更为准确的数据。
本发明解决其技术问题所采用的技术方案是:一种基于RGBD多传感器融合的场景三维重建方法,其特点是包括以下步骤:
步骤一、采用SURF算法进行特征提取与匹配。特征的提取利用计算近似的Hessian矩阵的行列式的极值来确定特征点的位置。输入一幅图像I,对图上每一个像素点x=(x,y),利用公式(1)计算出其在x处尺度为的Hessian矩阵H(X,σ)。
H ( x , σ ) = L xx ( x , σ ) L xy ( x , σ ) L xy ( x , σ ) L yy ( x , σ ) - - - ( 1 )
其中,Lxx(x,σ)是Gaussian二阶偏导数
Figure BDA00003585838700022
在x处对图像I的卷积。继而,计算每个H的行列式:
det(Happrox)=DxxDyy-(0.9Dxy)2   (2)
其中,Dxx是盒子模版与图像的卷积,用Dxx近似代替Lxx。接着,判断行列式(2)的符号。若符号为负,则不是局部极值点;若符号为正,则该点归类为极值点。
接着,构建图像的尺度空间,SURF通过不同尺寸盒子作为过滤模版和积分图像求取Hessian矩阵行列式的响应图像,然后,在响应图像上采用3D非极大值抑制,求取各个不同尺度的斑点。使用3×3×3的模版在三维空间内进行非极大值抑制,根据预设的Hessian阈值H比较,当h大于H,且比邻近的26个点的相应值都大时,被选为特征点,然后采用三维线性插值使其更精确。
以特征点为中心,以6s为半径的圆内,对图像进行Haar小波响应运算,设计一个以方向为中心,张角为PI/3d的扇形滑动窗口,以步长为0.2弧度,转动滑动窗口,并对窗口内所有点的Haar响应值进行累加,主方向为最大的Haar响应累加值对应的方向。
进行特征点的匹配。
1)在计算H矩阵的行列式时,同时计算出矩阵的迹。按亮度不同,将特征点分为两种:①特征点及其周围小邻域的亮度大于背景区域,H矩阵的迹为正;②特征点及其周围小邻域的亮度小于背景区域,H矩阵的迹为负。先对两个特征点的H矩阵的迹进行比较:同号,说明两个特征点具有相同对比度;异号,说明对比度不同,则放弃步骤2)的相似性度量;
2)在步骤1)的基础上,对两个特征点描述子的相似性度量,采用欧式距离进行计算:
Dis ij = ∑ k = 0 k = n ( X ik - X jk ) 2 1 / 2 - - - ( 3 )
其中,Xik表示待配准图中第i个特征描述子的第k个元素,Xjk表示参考图中第j个特征描述子的第k个元素,n表示特征向量的维数。
对于待配准图上的特征点,计算其到参考图像上所有特征点的欧式距离,得到一个距离集合。通过对距离集合进行比较运算得到小欧式距离和次欧式距离。设定阈值,当最小欧式距离与次欧式距离的比值小于该阈值时,认为特征点与对应最小欧式距离的特征点是匹配的,否则,没有点与该特征点相匹配。
步骤二、针对位姿估计和优化的三维重建中点云数据配准问题,先采用RANSAC配准算法进行粗匹配,并结合深度信息进行初始位姿估计,将计算出结果作为ICP配准算法的初始值,再使用深度信息进行ICP算法对初始位姿的优化实现由粗到细的配准。
1)利用RANSAC算法划分出局外点和局内点,剔除匹配异常点,将得到的所有局内点随机建立点云集合,先进行粗匹配,设得到的两个点集分别是S和T,从源数据集S中随机抽取不在一条直线上的三个点{Sa,Sb,Sc},在目标点集T中,搜索对应的三个点{Ta,Tb,Tc},利用三对控制点进行欧式变换矩阵的估计,计算出Hc。然后计算在估计变换关系Hc误差阈值δ下,两个点集之间的一致程度,并利用对应点的深度信息得到初始位姿的估计;
2)以步骤1)的结果作为ICP算法的输入,避免单调收敛到局部最小值,根据最小化目标函数估计配准参数 H k = R k T k 0 1 , 并计算估计误差dk;使用变换矩阵Hk对数据集Pk更新,Pk+1=Hk(P0)=RkPO+Tk;重复迭代,当两次计算的估计误差变化小于阈值τ时,即‖dk-dk+1‖〈τ时,停止;
步骤三、得到经优化的初始位姿后,将其作为节点,与其相邻的帧间的位姿关系作为边添加到图中,进而采用Hog-man图优化算法进行地图的全局优化,得到高精度的三维地图。
将相机观察中心的距离值作为标准将原始的图划分为多个子图,以子图中的一个节点来表示该子图,得到原始图一层的抽象,对得到的图再依次进行抽象,就得到一个多层图结构,提取出原始图中的拓扑结构。
IP = P 0 d 0 1 T - - - ( 4 )
其中,O为摄像机中心,IP为兴趣中心点,d为IP到O的距离。
当有新节点加入到图中时,首先是加入到原始图中,然后查看是否改变子图划分,如果有改变就需要更新高层图,同时对最顶层进行优化,只有当顶层的拓扑结构发生很大改变的时候才由顶层图向底层图反向传递,更新底层图。
在对多帧点云数据进行融合时,首先建立一个包含所有帧的空间体,然后依次对每一帧进行处理,修改空间像素点的值。最后空间体中的零值像素即为最后的曲面上的点,这样得到的曲面是具有最小二乘性质的曲面。采用权值函数进行距离值叠加,最后的叠加方程如公式(5)、公式(6)。
D i + 1 ( x ) = W 1 ( x ) D 1 ( x ) + W i - 1 ( x ) D i - 1 ( x ) W 1 ( x ) + W i - 1 ( x ) - - - ( 5 )
Wi+1(x)=Wi(x)+Wi-1(x)    (6)
W ( x ) = x - x * Err ( x * ) - - - ( 7 )
Err(dist)=dist2×0.0035             (8)
根据Kinect传感器的误差方程(8)权值函数的选取公式(7)。其中,x *为单帧曲面上点的到相机中心的距离,最后得到整个场景的三维重建效果图。
本发明的有益效果是:该方法首先采用SURF算法代替SIFT算法进行特征匹配,其次,根据观察中心的方法改进了子地图的划分标准,使得经多层图抽象后的图像金字塔更好的反映环境的拓扑结构,更有助于提高构建大场景三维地图的速度。同时,在地图生成部分,提出了使用经典的基于空间体的多帧融合方法来减少冗余点,提高了重建速度。经测试,本发明方法的重建速度比背景技术提高了近两倍。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于RGBD多传感器融合的场景三维重建方法具体步骤如下:
1、特征提取与匹配。
采用SURF算法进行特征提取与匹配。特征的提取利用计算近似的Hessian矩阵的行列式的极值来确定特征点的位置。输入一幅图像I,对图上每一个像素点x=(x,y),利用公式(1)计算出其在x处尺度为σ的Hessian矩阵H(X,σ)。
H ( x , σ ) = L xx ( x , σ ) L xy ( x , σ ) L xy ( x , σ ) L yy ( x , σ ) - - - ( 1 )
其中,Lxx(x,σ)是Gaussian二阶偏导数
Figure BDA00003585838700051
在x处对图像I的卷积。继而,计算每个H的行列式:
det(Happrox)=DxxDyy-(0.9Dxy)2           (2)
其中,Dxx是盒子模版与图像的卷积,用Dxx近以代替Lxx。接着,判断行列式(2)的符号。若符号为负,则不是局部极值点;若符号为正,则该点归类为极值点。
接着,构建图像的尺度空间,即图像在不同解析度下的表示。与SIFT建立金字塔的原理相反,SURF通过不同尺寸盒子作为过滤模版和积分图像求取Hessian矩阵行列式的响应图像,然后,在响应图像上采用3D非极大值抑制,求取各个不同尺度的斑点。使用3×3×3的模版在三维空间内进行非极大值抑制,根据预设的Hessian阈值H比较,当h大于H,且比邻近的26个点的相应值都大时,被选为特征点,然后采用三维线性插值使其更精确。
为了保证特征矢量具有旋转不变性,需要给每一个特征点分配一个主方向。以特征点为中心,以6s为半径的圆内,对图像进行Haar小波响应运算,设计一个以方向为中心,张角为PI/3d的扇形滑动窗口,以步长为0.2弧度,转动滑动窗口,并对窗口内所有点的Haar响应值进行累加,主方向为最大的Haar响应累加值对应的方向。
进行完特征点提取后进行特征点的匹配,有如下步骤:
1)在计算H矩阵的行列式时,同时计算出矩阵的迹。由于按亮度不同,将特征点分为两种:①特征点及其周围小邻域的亮度大于背景区域,H矩阵的迹为正;②特征点及其周围小邻域的亮度小于背景区域,H矩阵的迹为负。依此特性,先对两个特征点的H矩阵的迹进行比较:同号,说明两个特征点具有相同对比度;异号,说明对比度不同,则放弃2)的相似性度量;
2)在1)的基础上,对两个特征点描述子的相似性度量,采用欧式距离进行计算:
Dis ij = ∑ k = 0 k = n ( X ik - X jk ) 2 1 / 2 - - - ( 3 )
其中,Xik;从表示待配准图中第i个特征描述子的第k个元素,Xjk表示参考图中第j个特征描述子的第k个元素,n表示特征向量的维数。
对于待配准图上的特征点,计算其到参考图像上所有特征点的欧式距离,得到一个距离集合。通过对距离集合进行比较运算得到小欧式距离和次欧式距离。设定阈值,一般为0.8,当最小欧式距离和次欧式距离的比值小于该阈值时,认为特征点与对应最小欧式距离的特征点是匹配的,否则,没有点与该特征点相匹配。阈值越小,匹配越稳定,但极值点越少。
2、位姿估计与优化。
针对位姿估计和优化的三维重建中点云数据配准问题,为了防止ICP算法收敛到局部最小点,产生错误的配准结果,则先采用RANSAC配准算法进行粗匹配,并结合深度信息进行初始位姿估计,将计算出结果作为ICP配准算法的初始值,再次使用深度信息进行ICP算法对初始位姿的优化实现由粗到细的配准策略,并减少迭代次数,达到令人满意的收敛结果。
具体步骤如下:
1)利用RANSAC算法划分出“局外点”和“局内点”,剔除匹配异常点,将得到的所有局内点随机建立点云集合,先进行粗匹配,设得到的两个点集分别是S和T,从源数据集S中随机抽取不在一条直线上的三个点{Sa,Sb,Sc},在目标点集T中,搜索对应的三个点{Ta,Tb,Tc},利用三对控制点进行欧式变换矩阵的估计,计算出Hc。然后计算在估计变换关系Hc误差阈值δ下,两个点集之间的一致程度,并利用对应点的深度信息得到初始位姿的估计;
2)以1)计算出的结果作为ICP算法的输入,避免单调收敛到局部最小值,根据最小化目标函数估计配准参数 H k = R k T k 0 1 , 并计算估计误差dk;使用变换矩阵Hk对数据集Pk更新,Pk+1=Hk(P0)=RkP0+Tk;重复迭代,当两次计算的估计误差变化小于阈值τ时,即‖dk-dk+1‖<τ时,停止;
3、Hog-man地图优化。
得到经优化的初始位姿后,将其作为节点,与其相邻的帧间的位姿关系作为边添加到图中,进而采用Hog-man图优化算法进行地图的全局优化,得到高精度的三维地图。
由于当想要建立一块区域完整的信息时,会在这块区域周围采集较多的点属于一种包围式的建立。因此,核心思想是根据相机观察中心的距离值(如式(5))作为标准将原始的图划分为多个子图,以子图中的一个节点来表示该子图,从而得到原始图一层的抽象,对得到的图再依次进行抽象,就得到一个多层图结构,提取出原始图中的拓扑结构。
IP = P 0 d 0 1 T - - - ( 4 )
其中,设O为摄像机中心,IP为兴趣中心点,d为IP到O的距离,这里取2m。假设当前相机的位姿用一个4×4的矩阵P表示,则IP的坐标为使用观察中心代替相机中心作为子图分割标准,更好地反应建立完整地图时的节点分布特点。
当有新节点加入到图中时,首先是加入到原始图中,然后查看是否改变子图划分,如果有改变就需要更新高层图,同时对最顶层进行优化,只有当顶层的拓扑结构发生很大改变的时候才由顶层图向底层图反向传递,更新底层图。这样就保证了实时的优化。
根据得到的优化结果进行简单叠加得到为了去除直接叠加所有帧带来的冗余点,采用的基于空间体的点云融合方法。其主要思想是在对多帧点云数据进行融合时,首先建立一个包含所有帧的空间体,空间体以一定的分辨率划分为空间像素点,每个点上将记录到环境中物体的距离,然后依次对每一帧进行处理,修改空间像素点的值。最后空间体中的零值像素即为最后的曲面上的点,这样得到的曲面是具有最小二乘性质的曲面。同时为了反映采集到的每帧数据的一些特点,在进行距离值叠加的时候,采用权值函数,最后的叠加方程如式(5)、公式(6)。
D i + 1 ( x ) = W 1 ( x ) D 1 ( x ) + W i - 1 ( x ) D i - 1 ( x ) W 1 ( x ) + W i - 1 ( x ) - - - ( 5 )
Wi+1(x)=Wi(x)+Wi-1(x)   (6)
W ( x ) = x - x * Err ( x * ) - - - ( 7 )
Err(dist)=dist2×0.0035   (8)
实验中使用kinet摄像头作为RGBD摄像头,因此,根据Kinect传感器的误差方程(8)权值函数的选取如公式(7)。其中x*为单帧曲面上点的到相机中心的距离,最后得到3D点云图,即整个场景的三维重建效果图。

Claims (1)

1.一种基于RGBD多传感器融合的场景三维重建方法,其特征在于包括以下步骤:
步骤一、采用SURF算法进行特征提取与匹配;特征的提取利用计算近似的Hessian矩阵的行列式的极值来确定特征点的位置;输入一幅图像I,对图上每一个像素点x=(x,y),利用公式(1)计算出其在x处尺度为σ的Hessian矩阵H(X,σ);
H ( x , σ ) = L xx ( x , σ ) L xy ( x , σ ) L xy ( x , σ ) L yy ( x , σ ) - - - ( 1 )
其中,Lxx(x,σ)是Gaussian二阶偏导数
Figure FDA00003585838600012
在x处对图像I的卷积;继而,计算每个H的行列式:
det(Happrox)=DxxDyy-(0.9Dxy)2   (2)
其中,Dxx是盒子模版与图像的卷积,用Dxx近似代替Lxx;接着,判断行列式(2)的符号;若符号为负,则不是局部极值点;若符号为正,则该点归类为极值点;
接着,构建图像的尺度空间,SURF通过不同尺寸盒子作为过滤模版和积分图像求取Hessian矩阵行列式的响应图像,然后,在响应图像上采用3D非极大值抑制,求取各个不同尺度的斑点;使用3×3×3的模版在三维空间内进行非极大值抑制,根据预设的Hessian阈值H比较,当h大于H,且比邻近的26个点的相应值都大时,被选为特征点,然后采用三维线性插值使其更精确;
以特征点为中心,以6s为半径的圆内,对图像进行Haar小波响应运算,设计一个以方向为中心,张角为PI/3d的扇形滑动窗口,以步长为0.2弧度,转动滑动窗口,并对窗口内所有点的Haar响应值进行累加,主方向为最大的Haar响应累加值对应的方向;
进行特征点的匹配;
1)在计算H矩阵的行列式时,同时计算出矩阵的迹;按亮度不同,将特征点分为两种:①特征点及其周围小邻域的亮度大于背景区域,H矩阵的迹为正;②特征点及其周围小邻域的亮度小于背景区域,H矩阵的迹为负;先对两个特征点的H矩阵的迹进行比较:同号,说明两个特征点具有相同对比度;异号,说明对比度不同,则放弃步骤2)的相似性度量;
2)在步骤1)的基础上,对两个特征点描述子的相似性度量,采用欧式距离进行计算:
Dis ij = ∑ k = 0 k = n ( X ik - X jk ) 2 1 / 2 - - - ( 3 )
其中,Xik表示待配准图中第i个特征描述子的第k个元素,Xjk表示参考图中第j个特征描述子的第k个元素,n表示特征向量的维数;
对于待配准图上的特征点,计算其到参考图像上所有特征点的欧式距离,得到一个距离集合;通过对距离集合进行比较运算得到小欧式距离和次欧式距离;设定阈值,当最小欧式距离与次欧式距离的比值小于该阈值时,认为特征点与对应最小欧式距离的特征点是匹配的,否则,没有点与该特征点相匹配;
步骤二、针对位姿估计和优化的三维重建中点云数据配准问题,先采用RANSAC配准算法进行粗匹配,并结合深度信息进行初始位姿估计,将计算出结果作为ICP配准算法的初始值,再使用深度信息进行ICP算法对初始位姿的优化实现由粗到细的配准;
1)利用RANSAC算法划分出局外点和局内点,剔除匹配异常点,将得到的所有局内点随机建立点云集合,先进行粗匹配,设得到的两个点集分别是S和T,从源数据集S中随机抽取不在一条直线上的三个点{Sa,Sb,Sc},在目标点集T中,搜索对应的三个点{Ta,Tb,Tc},利用三对控制点进行欧式变换矩阵的估计,计算出Hc;然后计算在估计变换关系Hc误差阈值δ下,两个点集之间的一致程度,并利用对应点的深度信息得到初始位姿的估计;
2)以步骤1)的结果作为ICP算法的输入,避免单调收敛到局部最小值,根据最小化目标函数估计配准参数 H k = R k T k 0 1 , 并计算估计误差dk;使用变换矩阵Hk对数据集Pk更新,Pk+1=Hk(P0)=RkP0+Tk;重复迭代,当两次计算的估计误差变化小于阈值τ时,即‖dk-dk+1‖<τ时,停止;
步骤三、得到经优化的初始位姿后,将其作为节点,与其相邻的帧间的位姿关系作为边添加到图中,进而采用Hog-man图优化算法进行地图的全局优化,得到高精度的三维地图;
将相机观察中心的距离值作为标准将原始的图划分为多个子图,以子图中的一个节点来表示该子图,得到原始图一层的抽象,对得到的图再依次进行抽象,就得到一个多层图结构,提取出原始图中的拓扑结构;
IP = P 0 d 0 1 T - - - ( 4 )
其中,O为摄像机中心,IP为兴趣中心点,d为IP到O的距离;
当有新节点加入到图中时,首先是加入到原始图中,然后查看是否改变子图划分,如果有改变就需要更新高层图,同时对最顶层进行优化,只有当顶层的拓扑结构发生很大改变的时候才由顶层图向底层图反向传递,更新底层图;
在对多帧点云数据进行融合时,首先建立一个包含所有帧的空间体,然后依次对每一帧进行处理,修改空间像素点的值;最后空间体中的零值像素即为最后的曲面上的点,这样得到的曲面是具有最小二乘性质的曲面;采用权值函数进行距离值叠加,最后的叠加方程如公式(5)、公式(6);
D i + 1 ( x ) = W 1 ( x ) D 1 ( x ) + W i - 1 ( x ) D i - 1 ( x ) W 1 ( x ) + W i - 1 ( x ) - - - ( 5 )
Wi+1(x)=Wi(x)+Wi-1(x)   (6)
W ( x ) = x - x * Err ( x * ) - - - ( 7 )
Err(dist)-dist2×0.0035   (8)
根据Kinect传感器的误差方程(8)权值函数的选取公式(7);其中,x*为单帧曲面上点的到相机中心的距离,最后得到整个场景的三维重建效果图。
CN2013103234393A 2013-07-29 2013-07-29 基于rgbd多传感器融合的场景三维重建方法 Pending CN103413352A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2013103234393A CN103413352A (zh) 2013-07-29 2013-07-29 基于rgbd多传感器融合的场景三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2013103234393A CN103413352A (zh) 2013-07-29 2013-07-29 基于rgbd多传感器融合的场景三维重建方法

Publications (1)

Publication Number Publication Date
CN103413352A true CN103413352A (zh) 2013-11-27

Family

ID=49606357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013103234393A Pending CN103413352A (zh) 2013-07-29 2013-07-29 基于rgbd多传感器融合的场景三维重建方法

Country Status (1)

Country Link
CN (1) CN103413352A (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240297A (zh) * 2014-09-02 2014-12-24 东南大学 一种救援机器人三维环境地图实时构建方法
CN104299260A (zh) * 2014-09-10 2015-01-21 西南交通大学 一种基于sift和lbp的点云配准的接触网三维重建方法
CN104318198A (zh) * 2014-02-28 2015-01-28 郑州金惠计算机系统工程有限公司 适用于变电站机器人巡检的识别方法及装置
CN104463953A (zh) * 2014-11-11 2015-03-25 西北工业大学 基于惯性测量单元与rgb-d传感器的三维重建方法
CN104715504A (zh) * 2015-02-12 2015-06-17 四川大学 一种鲁棒的大场景稠密三维重建方法
CN104778748A (zh) * 2015-04-03 2015-07-15 四川大学 用于未校准图像的高精度三维重建
CN105469103A (zh) * 2014-09-11 2016-04-06 清华大学 基于低质量grb-d数据的场景恢复方法及装置
CN105513128A (zh) * 2016-01-13 2016-04-20 中国空气动力研究与发展中心低速空气动力研究所 基于Kinect的三维数据融合处理方法
CN105608467A (zh) * 2015-12-16 2016-05-25 西北工业大学 基于Kinect的无接触式学生体质测评方法
CN105825544A (zh) * 2015-11-25 2016-08-03 维沃移动通信有限公司 一种图像处理方法及移动终端
CN106529838A (zh) * 2016-12-16 2017-03-22 湖南拓视觉信息技术有限公司 虚拟装配方法及装置
CN106846479A (zh) * 2017-02-15 2017-06-13 山东大学 基于深度摄像头的隧道三维建模系统及方法
CN106952338A (zh) * 2017-03-14 2017-07-14 网易(杭州)网络有限公司 基于深度学习的三维重建的方法、系统及可读存储介质
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
CN107409146A (zh) * 2015-03-20 2017-11-28 英特尔公司 传感器数据可视化装置和方法
CN107564012A (zh) * 2017-08-01 2018-01-09 中国科学院自动化研究所 面向未知环境的增强现实方法及装置
CN107833253A (zh) * 2017-09-22 2018-03-23 北京航空航天大学青岛研究院 一种面向rgbd三维重建纹理生成的相机姿态优化方法
CN107862735A (zh) * 2017-09-22 2018-03-30 北京航空航天大学青岛研究院 一种基于结构信息的rgbd三维场景重建方法
CN108527359A (zh) * 2017-03-03 2018-09-14 欧姆龙株式会社 控制系统、设定装置、设定方法以及存储装置
CN108648224A (zh) * 2018-05-18 2018-10-12 杭州电子科技大学 一种基于人工神经网络的实时场景布局识别及重建的方法
CN108731648A (zh) * 2018-03-15 2018-11-02 广州市城市规划勘测设计研究院 2000独立坐标系参数获取方法、装置与计算机可读存储介质
CN109483409A (zh) * 2018-11-21 2019-03-19 无锡荣恩科技有限公司 航空零部件自动补喷的除漆方法
CN109993828A (zh) * 2019-04-02 2019-07-09 深圳市掌网科技股份有限公司 三维重建系统以及方法
CN110070607A (zh) * 2019-04-02 2019-07-30 深圳市掌网科技股份有限公司 三维重建系统以及方法
CN110349247A (zh) * 2018-04-08 2019-10-18 哈尔滨工业大学 一种基于语义理解的室内场景cad三维重建方法
CN111174799A (zh) * 2019-12-24 2020-05-19 Oppo广东移动通信有限公司 地图构建方法及装置、计算机可读介质、终端设备
US11604078B2 (en) * 2017-06-27 2023-03-14 Continental Automotive Gmbh Method and device for generating digital map models
CN116433829A (zh) * 2023-06-09 2023-07-14 北京全路通信信号研究设计院集团有限公司 场景可视化监控方法、装置、设备及存储介质
CN117495785A (zh) * 2023-10-18 2024-02-02 深圳市沐沐计算机科技有限公司 一种基于点云数据的产品检测方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102880866A (zh) * 2012-09-29 2013-01-16 宁波大学 一种人脸特征提取方法
CN103106688A (zh) * 2013-02-20 2013-05-15 北京工业大学 基于双层配准方法的室内三维场景重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102880866A (zh) * 2012-09-29 2013-01-16 宁波大学 一种人脸特征提取方法
CN103106688A (zh) * 2013-02-20 2013-05-15 北京工业大学 基于双层配准方法的室内三维场景重建方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
YUNCHU ZHANG ET AL.: "Visual navigation for a power transmission line inspection robot", 《LECTURE NOTES IN COMPUTER SCIENCE》, vol. 4114, 31 December 2006 (2006-12-31), pages 887 - 892 *
卜珂: "基于SURF的图像配准与拼接技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 July 2010 (2010-07-15) *
朱笑笑 等: "基于RGB-D传感器的3D环境地图实时创建", 《中国科技论文在线》, 22 January 2013 (2013-01-22) *
王大炜: "基于点特征从运动恢复三维形状", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》, 15 September 2004 (2004-09-15), pages 138 - 604 *
肖南峰: "《服务机器人》", 31 January 2013, article "军用机器人" *
袁亮: "三维重建过程中的点云数据配准算法的研究", 《万方学位论文》, 30 July 2010 (2010-07-30) *

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318198A (zh) * 2014-02-28 2015-01-28 郑州金惠计算机系统工程有限公司 适用于变电站机器人巡检的识别方法及装置
CN104240297A (zh) * 2014-09-02 2014-12-24 东南大学 一种救援机器人三维环境地图实时构建方法
CN104299260B (zh) * 2014-09-10 2017-05-17 西南交通大学 一种基于sift和lbp的点云配准的接触网三维重建方法
CN104299260A (zh) * 2014-09-10 2015-01-21 西南交通大学 一种基于sift和lbp的点云配准的接触网三维重建方法
CN105469103B (zh) * 2014-09-11 2018-10-16 清华大学 基于低质量rgb-d数据的场景恢复方法及装置
CN105469103A (zh) * 2014-09-11 2016-04-06 清华大学 基于低质量grb-d数据的场景恢复方法及装置
CN104463953B (zh) * 2014-11-11 2017-06-16 西北工业大学 基于惯性测量单元与rgb‑d传感器的三维重建方法
CN104463953A (zh) * 2014-11-11 2015-03-25 西北工业大学 基于惯性测量单元与rgb-d传感器的三维重建方法
CN104715504A (zh) * 2015-02-12 2015-06-17 四川大学 一种鲁棒的大场景稠密三维重建方法
CN107409146A (zh) * 2015-03-20 2017-11-28 英特尔公司 传感器数据可视化装置和方法
CN107409146B (zh) * 2015-03-20 2022-10-28 英特尔公司 传感器数据可视化装置和方法
CN104778748A (zh) * 2015-04-03 2015-07-15 四川大学 用于未校准图像的高精度三维重建
CN105825544A (zh) * 2015-11-25 2016-08-03 维沃移动通信有限公司 一种图像处理方法及移动终端
CN105825544B (zh) * 2015-11-25 2019-08-20 维沃移动通信有限公司 一种图像处理方法及移动终端
CN105608467A (zh) * 2015-12-16 2016-05-25 西北工业大学 基于Kinect的无接触式学生体质测评方法
CN105608467B (zh) * 2015-12-16 2019-03-22 西北工业大学 基于Kinect的无接触式学生体质测评方法
CN105513128A (zh) * 2016-01-13 2016-04-20 中国空气动力研究与发展中心低速空气动力研究所 基于Kinect的三维数据融合处理方法
CN106529838A (zh) * 2016-12-16 2017-03-22 湖南拓视觉信息技术有限公司 虚拟装配方法及装置
CN106846479A (zh) * 2017-02-15 2017-06-13 山东大学 基于深度摄像头的隧道三维建模系统及方法
CN106846479B (zh) * 2017-02-15 2018-11-30 山东大学 基于深度摄像头的隧道三维建模系统及方法
CN108527359B (zh) * 2017-03-03 2021-04-30 欧姆龙株式会社 控制系统、设定装置、设定方法以及存储装置
CN108527359A (zh) * 2017-03-03 2018-09-14 欧姆龙株式会社 控制系统、设定装置、设定方法以及存储装置
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
CN106952338A (zh) * 2017-03-14 2017-07-14 网易(杭州)网络有限公司 基于深度学习的三维重建的方法、系统及可读存储介质
CN106952338B (zh) * 2017-03-14 2020-08-14 网易(杭州)网络有限公司 基于深度学习的三维重建的方法、系统及可读存储介质
US11604078B2 (en) * 2017-06-27 2023-03-14 Continental Automotive Gmbh Method and device for generating digital map models
CN107564012A (zh) * 2017-08-01 2018-01-09 中国科学院自动化研究所 面向未知环境的增强现实方法及装置
CN107564012B (zh) * 2017-08-01 2020-02-28 中国科学院自动化研究所 面向未知环境的增强现实方法及装置
CN107862735A (zh) * 2017-09-22 2018-03-30 北京航空航天大学青岛研究院 一种基于结构信息的rgbd三维场景重建方法
CN107833253A (zh) * 2017-09-22 2018-03-23 北京航空航天大学青岛研究院 一种面向rgbd三维重建纹理生成的相机姿态优化方法
CN107862735B (zh) * 2017-09-22 2021-03-05 北京航空航天大学青岛研究院 一种基于结构信息的rgbd三维场景重建方法
CN107833253B (zh) * 2017-09-22 2020-08-04 北京航空航天大学青岛研究院 一种面向rgbd三维重建纹理生成的相机姿态优化方法
CN108731648B (zh) * 2018-03-15 2020-12-22 广州市城市规划勘测设计研究院 2000独立坐标系参数获取方法、装置与计算机可读存储介质
CN108731648A (zh) * 2018-03-15 2018-11-02 广州市城市规划勘测设计研究院 2000独立坐标系参数获取方法、装置与计算机可读存储介质
CN110349247A (zh) * 2018-04-08 2019-10-18 哈尔滨工业大学 一种基于语义理解的室内场景cad三维重建方法
CN108648224B (zh) * 2018-05-18 2021-07-13 杭州电子科技大学 一种基于人工神经网络的实时场景布局识别及重建的方法
CN108648224A (zh) * 2018-05-18 2018-10-12 杭州电子科技大学 一种基于人工神经网络的实时场景布局识别及重建的方法
CN109483409A (zh) * 2018-11-21 2019-03-19 无锡荣恩科技有限公司 航空零部件自动补喷的除漆方法
CN110070607A (zh) * 2019-04-02 2019-07-30 深圳市掌网科技股份有限公司 三维重建系统以及方法
CN109993828A (zh) * 2019-04-02 2019-07-09 深圳市掌网科技股份有限公司 三维重建系统以及方法
CN111174799A (zh) * 2019-12-24 2020-05-19 Oppo广东移动通信有限公司 地图构建方法及装置、计算机可读介质、终端设备
CN111174799B (zh) * 2019-12-24 2023-02-17 Oppo广东移动通信有限公司 地图构建方法及装置、计算机可读介质、终端设备
CN116433829A (zh) * 2023-06-09 2023-07-14 北京全路通信信号研究设计院集团有限公司 场景可视化监控方法、装置、设备及存储介质
CN116433829B (zh) * 2023-06-09 2023-08-18 北京全路通信信号研究设计院集团有限公司 场景可视化监控方法、装置、设备及存储介质
CN117495785A (zh) * 2023-10-18 2024-02-02 深圳市沐沐计算机科技有限公司 一种基于点云数据的产品检测方法及装置
CN117495785B (zh) * 2023-10-18 2024-08-16 深圳市沐沐计算机科技有限公司 一种基于点云数据的产品检测方法及装置

Similar Documents

Publication Publication Date Title
CN103413352A (zh) 基于rgbd多传感器融合的场景三维重建方法
CN109949375B (zh) 一种基于深度图感兴趣区域的移动机器人目标跟踪方法
CN113269837B (zh) 一种适用于复杂三维环境的定位导航方法
CN112734765B (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN107680133A (zh) 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN110070025B (zh) 基于单目图像的三维目标检测系统及方法
CN114424250A (zh) 结构建模
CN109597087A (zh) 一种基于点云数据的3d目标检测方法
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
CN114419147A (zh) 一种救援机器人智能化远程人机交互控制方法及系统
Qian et al. Robust visual-lidar simultaneous localization and mapping system for UAV
CN107862735B (zh) 一种基于结构信息的rgbd三维场景重建方法
CN110533716B (zh) 一种基于3d约束的语义slam系统及方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN112833892B (zh) 一种基于轨迹对齐的语义建图方法
CN104517289A (zh) 一种基于混合摄像机的室内场景定位方法
Tian et al. Research on multi-sensor fusion SLAM algorithm based on improved gmapping
CN116182837A (zh) 基于视觉激光雷达惯性紧耦合的定位建图方法
CN115479598A (zh) 基于多传感器融合的定位与建图方法及紧耦合系统
CN111932614A (zh) 一种基于聚类中心特征的激光雷达即时定位与建图方法
CN105513094A (zh) 基于三维Delaunay三角剖分的立体视觉跟踪方法及系统
CN111739066B (zh) 一种基于高斯过程的视觉定位方法、系统及存储介质
CN115355904A (zh) 一种针对地面移动机器人的Lidar-IMU融合的slam方法
CN114677531A (zh) 一种融合多模态信息的水面无人艇目标检测与定位方法
Thomas et al. Delio: Decoupled lidar odometry

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20131127