CN102184540B - 基于尺度空间的亚像素级立体匹配方法 - Google Patents
基于尺度空间的亚像素级立体匹配方法 Download PDFInfo
- Publication number
- CN102184540B CN102184540B CN 201110112619 CN201110112619A CN102184540B CN 102184540 B CN102184540 B CN 102184540B CN 201110112619 CN201110112619 CN 201110112619 CN 201110112619 A CN201110112619 A CN 201110112619A CN 102184540 B CN102184540 B CN 102184540B
- Authority
- CN
- China
- Prior art keywords
- parallax
- formula
- window
- sub
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明提供的是一种基于尺度空间的亚像素级立体匹配方法。(1)为立体像对构建尺度空间;(2)为尺度空间中当前层级参考图像的每一点确定匹配窗口大小;(3)根据上一层级视差为本层级参考图像的每一点计算视差搜索范围;(4)计算尺度空间中当前层级的整数级视差;(5)利用基于二分搜索的亚像素级匹配方法计算亚像素级视差。本发明使用了小基高比条件下生成的立体像对进行匹配,在匹配过程中采用了离散尺度空间以提高匹配效率,并利用混合式窗口选择策略减少匹配过程中所产生的“粘合”现象,最后使用了基于二分搜索的亚像素级匹配方法获得亚像素级视差,不但可以保证较高的亚像素级精度,而且还很大程度上提高了算法的匹配效率。
Description
技术领域
本发明涉及计算机视觉、信号处理、立体测绘方法,是一种亚像素级立体匹配方法。
背景技术
三维场景的深度差异会在不同视点获得的视图上产生几何位移,立体匹配就是基于这一原理通过匹配两幅或多幅不同视点的视图来获得对应点的视差,再通过三角测量原理计算出景物的深度信息。立体匹配是计算机视觉领域中的一个热点问题,它在机器人导航、立体测绘、航空摄影测量、遥感等领域有着广泛的应用。
传统大基高比条件下形成的立体像对会存在着较多的遮挡、较大的辐射差异和几何畸变以及由于场景中运动目标而产生的相对位置变化,这些因素在一定程度上增加了匹配难度,导致了大量的误匹配。
为减弱上述因素对匹配产生的不利影响,小基高比条件下的立体匹配技术应运而生。基高比是指摄影基线与摄像机高度的比值,小基高比则是指在摄像机高度一定时,两次拍照的时间间隔较短即两次成像时光心间的距离较小,在这种条件下形成的立体像对可以减弱由于运动而产生景物之间的相对位置变化、辐射差异与几何畸变等因素对匹配的影响以提高立体匹配的准确度。深度信息、基高比和视差满足dz=dε/(b/h),当视差精度给定的条件下,基高比越大,深度误差越小,因此,在立体观测中大多选择较大的基高比以减少由于视差精度不够而导致深度误差的增加,但与此同时,大基高比又增加了匹配难度,导致了大量的误匹配。2007年J.Delon和B.Roug在《Journal of Mathematical Imaging and Vision》的第28卷,第3期上发表了“Small Baseline Stereovision”论文,在该论文中首次提出了基于小基高比立体匹配方法,该方法提出了一种自适应窗口策略为参考图像中的每一点自适应的确定窗口大小,再利用“胜者全取”策略计算每一点视差,然后利用质心校正来减少立体匹配中的“粘合”现象,最后在频域中计算相关系数的连续表达形式来获得亚像素级视差。它与本发明的区别在于本发明提出了混合式窗口选择策略来减少立体匹配中的“粘合”现象,并提出了基于二分搜索的亚像素级匹配方法来获得亚像素级视差。
发明内容
本发明的目的在于提供一种可以提高匹配精度,可以获得较高精度的亚像素级视差,而且还具有较低的时空复杂度的基于尺度空间的亚像素级立体匹配方法。
本发明的目的是这样实现的:
(1)为立体像对构建尺度空间;
该步骤中,根据视差范围为立体像对中的左右图像构建尺度空间,构建尺度空间的公式如下:
S(x,y)={(2x,2y),(2x+1,2y),(2x,2y+1),(2x+1,2y+1)}
式中,uN表示尺度空间中第N层尺度图像,其中,u0(N=0)表示尺度空间中底层图像即原始图像;
(2)为尺度空间中当前层级参考图像的每一点确定匹配窗口大小;
该步骤中,根据尺度空间中当前层级参考图像的每点相关密度确定该点匹配窗口大小。相关密度计算公式如下:
u(x)与其导数u′(x)的内积计算公式如下:
计算匹配窗口大小的公式如下:
(3)根据上一层级视差为本层级参考图像的每一点计算视差搜索范围;
为尺度空间中当前层级参考图像的每一点计算视差搜索范围,首先根据上一层级的整数级视差计算本层级的初始视差,初始视差的计算公式如下:
dN-1(i,j)=2·dN(m,n),
(i,j)∈{(2m,2n),(2m+1,2n),(2m,2n+1),(2m+1,2n+1)}
式中,dN(i,j)为第N层级(i,j)位置的整数级视差;然后,根据最大视差值dmax计算本层级的最大视差值dN,max,其计算公式如下:
(4)计算尺度空间中当前层级的整数级视差;
该步骤中,根据步骤(2)中为每一点确定的匹配窗口大小和步骤(3)中获得的视差搜索范围,针对混合式窗口选择策略确定的每一个匹配窗口位置,在相应的视差搜索范围内依据NCC计算匹配窗口的相似性获得每个窗口位置下所对应的最优视差值,并在这些窗口位置下所计算的视差中选取相似性最大的视差作为最终视差。
NCC计算公式如下:
式中,dk(x,y)表示(x,y)点在第k个匹配窗口下的最优视差,相应的最优成本表示为Ck,opt(x,y)。
最终视差的计算公式如下:
式中,dopt(x,y)表示(x,y)点的最终视差。
(5)利用基于二分搜索的亚像素级匹配方法计算亚像素级视差。
该步骤中,根据在多尺度空间中计算的整数级视差,再利用二分搜索法计算优于指定精度的亚像素级视差,其二分搜索法的计算公式如下:
S={dA(x0),dA(x0)+1/2A,dA(x0)-1/2A}
在保证匹配精度的前提下减少计算时间提高匹配效率,本发明把立体匹配过程嵌入到“由粗到精”的离散尺度空间当中。尺度空间中的大尺度图像提供了图像的整体信息,而小尺度图像提供了图像的细节信息;在大尺度下求得的视差为近似视差,而在小尺度下求得的视差为精确视差。基于尺度空间的立体匹配就是在匹配过程中利用尺度空间中上层尺度的近似视差指导本层尺度进行匹配进而求得本层尺度视差的过程。在匹配过程中支撑窗口的大小会影响匹配精度,为得到可靠的视差支撑窗口内应有一定的灰度变化,在图像的非纹理区域内支撑窗口应尽可能的大以包含足够的灰度信息,而在纹理区域内支撑窗口应足够小以保证窗口内视差恒定。为此,本发明在匹配过程中引入了自适应窗口技术,而自适应过程只改变了窗口大小没有改变其形状,这会导致支撑窗口跨越物体边界而产生“粘合”现象。为避免匹配过程中支撑窗口跨越物体边界,本发明提出了混合式窗口选择策略,混合式窗口选择策略不但可以自适应的选择窗口大小以满足匹配所需的灰度变化范围,而且还增加了匹配窗口形状的多样性以避免窗口跨越边界,在一定程度上可以提高匹配精度。
为获得亚像素级视差,则需要在获得整数级视差之后加入亚像素级匹配。传统的亚像素级匹配方法主要包括图像重采样法、拟合法和相位法。图像重采样法是利用插值技术对匹配图像进行插值以获得高分辨率图像,高分辨率图像中的每个像素位置代表原图像的亚像素位置,再利用立体匹配技术确定亚像素级视差,此算法具有实现简单、精度高等优点,但其计算复杂度较高。拟合法是利用最优匹配代价及其左右相邻代价,采用拟合技术获得成本函数的连续表达形式,再求其函数的极值位置,此极值点位置即为亚像素级视差位置,此算法具有实现简单,复杂度低等优点,但其亚像素精度较低。相位法是利用频域的相位信息获得像点的位移信息,但频率混叠效应会严重的影响算法的定位精度。为获得高精度的亚像素级视差,同时减少算法的计算复杂度,本发明提出了基于二分搜索的亚像素级匹配方法,该方法不但可以获得较高精度的亚像素级视差,而且还具有较低的时空复杂度。
本发明基于尺度空间的亚像素级立体匹配方法使用了小基高比条件下生成的立体像对进行匹配,在匹配过程中采用了离散尺度空间以提高匹配效率,并利用混合式窗口选择策略减少匹配过程中所产生的“粘合”现象,最后使用了基于二分搜索的亚像素级匹配方法获得亚像素级视差,该方法不但可以保证较高的亚像素级精度,而且还很大程度上提高了算法的匹配效率。与其它匹配方法相比,本发明的优势在于:
1、本发明使用小基高比条件下生产的立体像对可以减少由于景物之间的相对位置变化、立体像对间的辐射差异和几何畸变等因素所造成的误匹配;
2、本发明把匹配过程嵌入到了离散尺度空间当中,利用上级视差指导下级进行匹配,减少了计算时间,提高了匹配效率;
3、本发明提出了自适应窗口和多窗口相结合的混合式窗口选择策略,该方法很大程度上减少了匹配过程中所产生的“粘合”现象,提高了整数级视差的匹配准确率;
4、本发明提出了基于二分搜索的亚像素级匹配方法来获得亚像素级视差以弥补小基高比给三维重建所带来的误差,该方法不但可以获得较高的亚像素级精度,而且还具有较低的时空复杂度:其时间复杂度O(A)、空间复杂度为O(K2)。
附图说明
图1为基于尺度空间的亚像素级立体匹配方法流程图;
图2为多尺度空间金字塔示意图;
图3为混合式窗口选择策略示意图;
图4为基于3×3窗口的亚像素级匹配图解示意图;
图5(a)-图5(d)为本发明的实验效果图,第一列图5(a)为立体像对中的参考图像,第二列图5(b)为真实视差图,第三列图5(c)为整数级视差图,第四列图5(d)为亚像素级视差图。
具体实施方式
下面结合附图举例对本发明的技术方案做进一步的描述:
图1显示了本发明基于尺度空间的亚像素级立体匹配方法的流程图,下面结合该流程图详细说明每一步骤的具体实现方式:
(1)为立体像对构建尺度空间;
①首先根据原始立体像对的最大视差值dmax计算尺度空间的最大层级Nmax,其计算公式如下:
其构建尺度空间的计算公式如下:
S(x,y)={(2x,2y),(2x+1,2y),(2x,2y+1),(2x+1,2y+1)}
S(x,y)={(2x,2y),(2x+1,2y),(2x,2y+1),(2x+1,2y+1)}
式中,表示尺度空间中第N层参考图像,其中,表示原始参考图像uN表示尺度空间中第N层匹配图像,其中,U0(N=0)表示原始匹配图像。第N层尺度参考图像和匹配图像的高度和宽度分别为原参考图像和匹配图像的1/2N,其尺度空间的构造过程如图2所示。
(2)为尺度空间中当前层级参考图像的每一点确定匹配窗口大小;
①在尺度空间的当前层级下,首先根据标准偏差σ计算高斯范数,其高斯范数的计算公式如下:
式中,σ的值为0.56。
②为尺度空间中当前层级参考图像的每一点计算最优窗口大小,最优窗口的计算实质上是在窗口大小取值范围内计算满足不等式的最小窗口值,其最优窗口计算公式如下:
(3)根据上一层级的视差为本层级参考图像的每一点计算视差搜索范围;
①根据上一层级的整数级视差为本层级的每一点计算初始视差值,初始视差的计算公式如下:
dN-1(i,j)=2·dN(m,n),
(i,j)∈{(2m,2n),(2m+1,2n),(2m,2n+1),(2m+1,2n+1)}
式中,dN(i,j)为第N层(i,j)位置的整数级视差。
②根据最大视差值dmax计算本层级的最大视差值dN,max,其计算公式如下:
式中,表示大于等于x的最小整数。
(4)计算尺度空间中当前层级的整数级视差;
根据步骤(2)中计算的匹配窗口大小和步骤(3)中计算的视差搜索范围,针对混合式窗口选择策略确定的每一窗口位置(如图3所示),在相应的视差搜索范围内依据NCC计算匹配窗口的相似性,再利用“胜者全取”策略获得每一窗口位置所对应的最优视差,并在这些视差中选取相似性最大的视差作为最终视差。
①针对每一窗口位置,根据窗口大小和视差范围计算匹配代价,其计算公式如下:
式中,u和分别代表立体像对中的左右图像,Wk表示相应的匹配窗口,Ck(x,y,d)表示像素(x,y)在第k个窗口下,视差为d时的匹配代价。
②计算每个窗口位置下所对应的视差,其计算公式如下:
式中,dk(x,y)表示(x,y)点在第k个匹配窗口下的最优视差,相应的最优成本表示为Ck,opt(x,y)。
③计算最终视差,其计算公式如下:
式中,dopt(x,y)表示(x,y)点的最终视差。
(5)利用基于二分搜索的亚像素级匹配方法计算亚像素级视差。
在该步骤中,根据在多尺度空间中获得的整数级视差,利用二分搜索法计算优于指定精度的亚像素级视差。
①首先利用线性插值公式计算匹配窗口及其左右相邻窗口浮点位置的灰度值,其左右相邻窗口是通过将匹配窗口内的所有像素分别向左右方向平移1/2A(A为迭代次数)形成的两个窗口,在下文中将这三个窗口分别称为:中间匹配窗口、左移匹配窗口和右移匹配窗口,其匹配窗口中浮点位置的灰度计算公式如下:
式中,[]表示取整。
②利用NCC相似性度量公式计算参考窗口和三个匹配窗口的相似性,其计算公式如下:
式中,m∈{dA(x0),dA(x0)+1/2A,dA(x0)-1/2A}其中A≥1为迭代次数,dA(x0)表示x0点第A次迭代的亚像素级视差,d1(x0)(A=1)表示x0点的整数级视差,表示以x0点为中心的参考窗口,表示以x0+m为中心的匹配窗口。
③根据计算获得的三个相似度值确定最优亚像素级视差,计算公式如下:
S={dA(x0),dA(x0)+1/2A,d4(x0)-1/2A}
将求出的最优亚像素级视差作为新的中心点继续迭代搜索,直到达到给定的求解精度为止,图4显示了使用3×3窗口进行两次迭代的亚像素匹配过程。
当图像采样频率满足采样定理的情况下,二分搜索法能够达较高的亚像素级精度,在实际的立体匹配中图像的采样频率往往不满足采样定理,亚像素的精度是有限的。经实验验证,该方法能够达到1/20的亚像素级精度,即A=5。
与重采样法的亚像素匹配方法相比本发明提出亚像素方法在时间和空间复杂度上都有了明显的改进。当亚像素精度为2A时,重采样法的空间复杂度为S1=K2*2A,而二分搜索法的空间复杂度为S2=3*K2,其中K为支撑窗口大小;在时间复杂度上,二分搜索法将指数级时间复杂度降低到线性时间复杂度,重采样法的时间复杂度为T=O(2A),而二分搜索法的时间复杂度为T=O(A),该算法在时间复杂度上有了明显改进。
Claims (2)
1.一种基于尺度空间的亚像素级立体匹配方法,其特征是:
(1)为立体像对构建尺度空间;
(2)为尺度空间中当前层级参考图像的每一点确定匹配窗口大小;
①在尺度空间的当前层级下,首先根据标准偏差σ计算高斯范数,其高斯范数的计算公式如下:
式中,σ的值为0.56;
②为尺度空间中当前层级参考图像的每一点计算最优窗口大小,其最优窗口计算公式如下:
u(x)与其导数u'(x)的内积计算公式如下:
计算匹配窗口大小的公式如下:
(3)根据上一层级视差为本层级参考图像的每一点计算视差搜索范围;
①根据上一层级的整数级视差为本层级的每一点计算初始视差值,初始视差的计算公式如下:
dN-1(i,j)=2·dN(m,n),
(i,j)∈{(2m,2n),(2m+1,2n),(2m,2n+1),(2m+1,2n+1)}
式中,dN(i,j)为第N层(i,j)位置的整数级视差;
②根据最大视差值dmax计算本层级的最大视差值dN,max,其计算公式如下:
(4)计算尺度空间中当前层级的整数级视差;
根据步骤(2)中为每一点确定的匹配窗口大小和步骤(3)中获得的视差搜索范围,针对混合式窗口选择策略确定的每一个匹配窗口位置,在相应的视差搜索范围内依据NCC计算匹配窗口的相似性获得每个窗口位置下所对应的最优视差值,并在这些窗口位置下所计算的视差中选取相似性最大的视差作为最终视差,具体包括:
①针对每一窗口位置,根据窗口大小和视差范围计算匹配代价,其计算公式如下:
②计算每个窗口位置下所对应的视差,其计算公式如下:
式中,dk(x,y)表示(x,y)点在第k个匹配窗口下的最优视差,相应的最优成本表示为Ck,opt(x,y);
③计算最终视差,其计算公式如下:
式中,dopt(x,y)表示(x,y)点的最终视差;
(5)利用基于二分搜索的亚像素级匹配方法计算亚像素级视差;
根据在多尺度空间中计算的整数级视差,再利用二分搜索法计算优于指定精度的亚像素级视差;
①首先利用线性插值公式计算匹配窗口及其左右相邻窗口浮点位置的灰度值,其左右相邻窗口是通过将匹配窗口内的所有像素分别向左右方向平移1/2A形成的两个窗口、其中A为迭代次数,将这三个窗口分别称为:中间匹配窗口、左移匹配窗口和右移匹配窗口,其匹配窗口中浮点位置的灰度计算公式如下:
式中,[]表示取整;
②计算参考窗口和三个匹配窗口的相似性,其计算公式如下:
式中,m∈{dA(x0),dA(x0)+12A,dA(x0)-1/2A}其中A≥1为迭代次数,dA(x0)表示x0点第A次迭代的亚像素级视差,A=1时d1(x0)表示x0点的整数级视差,表示以x0点为中心的参考窗口,表示以x0+m为中心的匹配窗口;
③根据计算获得的三个相似度值确定最优亚像素级视差,计算公式如下:
S={dA(x0),dA(x0)+1/2A,dA(x0)-1/2A}。
2.根据权利要求1所述的基于尺度空间的亚像素级立体匹配方法,其特征是所述为立体像对构建尺度空间步骤中,构建尺度空间的公式如下:
S(x,y)={(2x,2y),(2x+1,2y),(2x,2y+1),(2x+1,2y+1)}
式中,uN表示尺度空间中第N层尺度图像,其中,u0,N=0,表示尺度空间中底层图像即原始图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110112619 CN102184540B (zh) | 2011-05-03 | 2011-05-03 | 基于尺度空间的亚像素级立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110112619 CN102184540B (zh) | 2011-05-03 | 2011-05-03 | 基于尺度空间的亚像素级立体匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102184540A CN102184540A (zh) | 2011-09-14 |
CN102184540B true CN102184540B (zh) | 2013-03-20 |
Family
ID=44570710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110112619 Expired - Fee Related CN102184540B (zh) | 2011-05-03 | 2011-05-03 | 基于尺度空间的亚像素级立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102184540B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679680B (zh) * | 2012-08-31 | 2016-12-21 | 富士通株式会社 | 立体匹配方法和系统 |
CN102903111B (zh) * | 2012-09-27 | 2015-09-30 | 哈尔滨工程大学 | 基于图像分割的大面积低纹理区立体匹配算法 |
CN103310446B (zh) * | 2013-06-08 | 2016-05-04 | 哈尔滨工程大学 | 一种基于迭代指导滤波的立体匹配方法 |
CN105740867B (zh) * | 2016-01-26 | 2018-11-09 | 哈尔滨理工大学 | 图像纹理窗口形状与尺度的选择方法 |
CN107481271B (zh) * | 2017-07-25 | 2020-08-11 | 成都通甲优博科技有限责任公司 | 一种立体匹配方法、系统及移动终端 |
CN108387184A (zh) * | 2018-03-20 | 2018-08-10 | 山西和信基业科技股份有限公司 | 一种桥梁挠度的测量方法及系统 |
CN109029379B (zh) * | 2018-06-08 | 2020-10-20 | 北京空间机电研究所 | 一种高精度小基高比立体测绘方法 |
CN110111339B (zh) * | 2019-04-28 | 2023-08-15 | 航天智造(上海)科技有限责任公司 | 条纹图像目标区域提取方法 |
CN110211053B (zh) * | 2019-04-28 | 2023-09-15 | 航天智造(上海)科技有限责任公司 | 用于三维测量的快速精确相位匹配方法 |
CN110223326B (zh) * | 2019-06-18 | 2021-04-30 | 无锡英斯特微电子有限公司 | 光电导航系统中亚像素区域确定方法及其系统 |
CN110942102B (zh) * | 2019-12-03 | 2022-04-01 | 武汉大学 | 一种概率松弛核线匹配方法及系统 |
CN111414931B (zh) * | 2019-12-31 | 2023-04-25 | 杭州电子科技大学 | 一种基于图像深度的多分支多尺度小目标检测方法 |
CN112700504B (zh) * | 2020-12-30 | 2024-02-20 | 南京理工大学智能计算成像研究院有限公司 | 一种多视角远心相机的视差测量方法 |
CN115797439A (zh) * | 2022-11-11 | 2023-03-14 | 中国消防救援学院 | 基于双目视觉的火焰空间定位系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0686942A2 (en) * | 1994-06-07 | 1995-12-13 | Matsushita Electric Industrial Co., Ltd. | Stereo matching method and disparity measuring method |
WO2008054109A1 (en) * | 2006-11-03 | 2008-05-08 | Postech Academy-Industry Foundation | Message propagation-based stereo image matching system |
CN101720047A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
CN101908230A (zh) * | 2010-07-23 | 2010-12-08 | 东南大学 | 一种基于区域深度边缘检测和双目立体匹配的三维重建方法 |
CN101924953A (zh) * | 2010-09-03 | 2010-12-22 | 南京农业大学 | 基于基准点的简便匹配方法 |
CN102026013A (zh) * | 2010-12-18 | 2011-04-20 | 浙江大学 | 基于仿射变换的立体视频匹配方法 |
-
2011
- 2011-05-03 CN CN 201110112619 patent/CN102184540B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0686942A2 (en) * | 1994-06-07 | 1995-12-13 | Matsushita Electric Industrial Co., Ltd. | Stereo matching method and disparity measuring method |
WO2008054109A1 (en) * | 2006-11-03 | 2008-05-08 | Postech Academy-Industry Foundation | Message propagation-based stereo image matching system |
CN101720047A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
CN101908230A (zh) * | 2010-07-23 | 2010-12-08 | 东南大学 | 一种基于区域深度边缘检测和双目立体匹配的三维重建方法 |
CN101924953A (zh) * | 2010-09-03 | 2010-12-22 | 南京农业大学 | 基于基准点的简便匹配方法 |
CN102026013A (zh) * | 2010-12-18 | 2011-04-20 | 浙江大学 | 基于仿射变换的立体视频匹配方法 |
Non-Patent Citations (2)
Title |
---|
Julie Delon等.Small Baseline Stereovision.《Journal of mathematical image and vision》.2007,第28卷(第3期),209-223. |
Small Baseline Stereovision;Julie Delon等;《Journal of mathematical image and vision》;20070731;第28卷(第3期);第209-223页 * |
Also Published As
Publication number | Publication date |
---|---|
CN102184540A (zh) | 2011-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102184540B (zh) | 基于尺度空间的亚像素级立体匹配方法 | |
Wang et al. | Mvdepthnet: Real-time multiview depth estimation neural network | |
Alismail et al. | Photometric bundle adjustment for vision-based slam | |
CN110148181A (zh) | 一种通用双目立体匹配方法 | |
CN110009674B (zh) | 基于无监督深度学习的单目图像景深实时计算方法 | |
CN109579825B (zh) | 基于双目视觉和卷积神经网络的机器人定位系统及方法 | |
CN105869167A (zh) | 基于主被动融合的高分辨率深度图获取方法 | |
Chen et al. | Transforming a 3-d lidar point cloud into a 2-d dense depth map through a parameter self-adaptive framework | |
CN104867135A (zh) | 一种基于指导图像引导的高精度立体匹配方法 | |
CN103123727A (zh) | 即时定位与地图构建方法和设备 | |
CN104359464A (zh) | 基于立体视觉的移动机器人定位方法 | |
CN102982334B (zh) | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 | |
CN108305277B (zh) | 一种基于直线段的异源图像匹配方法 | |
CN102036094B (zh) | 一种基于数字分数延时技术的立体匹配方法 | |
CN104156957A (zh) | 一种稳定高效的高分辨率立体匹配方法 | |
CN103971366A (zh) | 一种基于双权重聚合的立体匹配方法 | |
CN108876861B (zh) | 一种地外天体巡视器的立体匹配方法 | |
Shivakumar et al. | Real time dense depth estimation by fusing stereo with sparse depth measurements | |
CN108305278A (zh) | 一种orb-slam算法中图像匹配相关性改进方法 | |
CN102903111B (zh) | 基于图像分割的大面积低纹理区立体匹配算法 | |
CN108010075A (zh) | 一种基于多特征联合的局部立体匹配方法 | |
CN102740096A (zh) | 一种基于时空结合的动态场景立体视频匹配方法 | |
CN107492107A (zh) | 基于平面与空间信息融合的物体识别与重建方法 | |
CN104200453A (zh) | 基于图像分割和可信度的视差图像校正方法 | |
Le Besnerais et al. | Dense height map estimation from oblique aerial image sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130320 Termination date: 20190503 |
|
CF01 | Termination of patent right due to non-payment of annual fee |