CN102026013B - 基于仿射变换的立体视频匹配方法 - Google Patents
基于仿射变换的立体视频匹配方法 Download PDFInfo
- Publication number
- CN102026013B CN102026013B CN2010105942171A CN201010594217A CN102026013B CN 102026013 B CN102026013 B CN 102026013B CN 2010105942171 A CN2010105942171 A CN 2010105942171A CN 201010594217 A CN201010594217 A CN 201010594217A CN 102026013 B CN102026013 B CN 102026013B
- Authority
- CN
- China
- Prior art keywords
- msub
- current frame
- mrow
- matching
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 title claims abstract description 39
- 230000009466 transformation Effects 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000003068 static effect Effects 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims abstract description 18
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 125000004432 carbon atom Chemical group C* 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于仿射变换的立体视频匹配方法。该方法用于对双目摄像机拍摄得到的立体视频进行立体匹配,包括以下步骤:1)提取当前帧图像和前一帧图像的特征点并进行匹配,求取当前帧图像到前一帧图像的仿射变换矩阵;2)根据仿射变换矩阵,将当前帧图像的像素点投影到前一帧;3)计算前后帧匹配点的像素差,以检测当前帧图像中的静止区域;4)计算当前帧图像的初始匹配代价;5)更新当前帧图像静止区域的匹配代价;6)计算当前帧图像的视差图。本发明利用了视频帧之间的仿射约束关系,使得当前帧视差同时受前一帧视差的约束,有效地减弱了噪声等对视差精度的影响;提高了视差在视频中的稳定性,保证了视差图序列在时域上的稳定性。
Description
技术领域
本发明涉及一种立体视频匹配的方法,特别是涉及一种基于仿射变换的立体视频匹配方法。
背景技术
立体匹配方法是计算机视觉中的研究热点,其产生的视差图在三维重建、视频视点合成、图像分层、图像渲染等方面有广泛的应用价值。尤其是当前3D电影的兴起和迅速发展,标志着能够有效改善用户真实性体验的三维立体显示时代的到来。跟传统的平面显示相比,三维立体显示可以让用户有身临其境的感觉,增强了场景的渲染力、生动性和刺激感,如3D足球播放技术,让用户仿佛有置身现场的感觉,并且可以从各个角度观看全场。
然而要得到良好的三维立体显示的效果,需要解决很多问题:数据传送量增大、观看视点少、个体用户的体验要求等等。如果传送多个视点的视频,会极大地增加数据传送量,对带宽是一种挑战,因此可以选择传送少量视点和视点视差图的方式来减少数据量,然后在终端用“视点图+视差图”的方式生成新的视点,这样可以同时解决数据量增大和视点少的问题。各个用户对三维场景感知的要求会有差别,同时观看的距离、屏幕大小的区别也会对场景的显示深度有影响,因此在实现三维显示过程中,应该容许用户交互地根据个人对立体感知的要求,调节场景的显示深度。而调节场景显示深度的实质是调节视频之间的视差,从而得到视频的视差图是必备的步骤。有了视频视差图后,根据用户的调节,动态地以一定规则更改视差值,再重新生成新的视频源。从这些技术上的要求可以看出,视频视差图的求取是三维立体显示的一个关键步骤。
视频的立体匹配方法大致可以分成两种方向:一是将视频的每一帧视为纯粹的图像,用图像的立体匹配方法得到每一帧的视差图;另一种是充分利用视频帧之间的关系,在图像立体匹配的基础之上加入视频帧信息和约束。本发明提出了基于视频帧之间的仿射变换关系的立体匹配方法,利用连续帧的约束,对当前帧中的静止场景用前一帧的视差值作为初始值,并更新当前帧的匹配代价值,然后再用图像立体匹配方案得到视差图。
发明内容
本发明的目的在于提出一种基于仿射变换的立体视频匹配方法,充分利用了视频帧之间的仿射变换关系,用前一帧的视差信息约束当前帧的视差值,不但提高了求取当前帧初始视差图的准确度,还有效地保证了视差图序列在时域上的稳定性。
本发明采用的技术方案是:
利用立体视频前后帧之间的时域信息,计算仿射变换矩阵,在立体视频当前帧的单帧图像立体匹配方法基础上,增加视频帧之间的仿射变换约束;下列步骤中,步骤4)用立体视频的左路当前帧和立体视频的右路当前帧进行匹配得到初始匹配代价,其余步骤分别对立体视频的左路视频和立体视频的右路视频分别单独相同的实施步骤如下:
1)提取当前帧和前一帧的图像特征点,并进行图像特征点匹配,求取仿射变换矩阵;
2)根据步骤1)得到的仿射变换矩阵,将当前帧图像中的像素点投影到前一帧,并对非整数坐标的投影像素点进行插值运算,得到当前帧图像的像素点在前一帧图像上的投影点;
3)根据步骤2)得到的投影点,计算当前帧图像的像素点和其在前一帧图像上的投影点的像素值的差,以检测当前帧图像中的静止区域像素点;
4)计算当前帧图像的初始匹配代价;
5)计算更新匹配代价的权重系数,包括前后帧图像视差的整体相似度和相邻视差值的权重递变函数值;
6)根据步骤4)中当前帧图像的初始匹配代价,以及步骤5)中的权重系数,更新当前帧静止区域像素点的匹配代价,对运动区域像素点的匹配代价则保持不变;
7)计算左路当前帧图像视差图和右路当前帧图像视差图。
2、所述的根据图像特征点匹配,求取仿射变换矩阵,包括以下步骤:
2.2)对提取的两个图像特征点进行匹配;
3、所述的将当前帧中的像素点投影到前一帧,并对非整数坐标的投影像素点进行插值运算,是指当前帧中的像素坐标按照所求取的仿射变换矩阵,投影到前一帧中坐标为处,若像素坐标不是整数,则用中相邻像素进行双线性插值,得到该点的像素值。
4、所述的计算当前帧图像的像素点和其在前一帧图像上的投影点的像素值的差,以检测当前帧图像中的静止区域像素点,是指对当前帧图像坐标为的像素值和经过仿射变换投影到前一帧坐标为的像素值,在一定窗口内求SAD值(绝对差值和):,其中表示SAD值。若小于一个特定的阈值,则判定当前帧坐标为的像素点为静止区域点;反之,则为运动区域点。
6、所述的更新权重系数中的前后帧图像视差的整体相似度系数,包括以下步骤:
1)对立体视频的当前帧的左右图像提取Harris特征点并进行匹配;
2)对立体视频的前一帧的左右图像提取Harris特征点并进行匹配;
8、所述的更新静止区域像素的匹配代价,是指对当前帧图像静止区域中坐标为的像素,更新其匹配代价;计算包括以下步骤:
2)更新当前帧图像静止区域中坐标为的像素的匹配代价:
本发明具有的有益效果是:
本发明提高了视差图的精度,由于充分利用视频帧之间的仿射约束关系,使得当前帧的视差同时受前一帧视差的约束,有效地减弱了噪声等对视差精度的影响;提高了视差在视频中的稳定性,保证了视差图序列在时域上的稳定性。
附图说明
图1是基于仿射变化的视差立体匹配方法的总体流程图。
图2是当前帧像素投影到前一帧的示意图。
具体实施方式
以下结合附图和实施例对本发明进行进一步的说明。
图1给出了基于仿射变换的视频立体匹配方法的总体流程图。
有关Harris角点检测方法,可参见参考文献[1]:
[1] C. Harris and M. Stephens. A combined corner and edge detector. Proceedings of the 4th Alvey Vision Conference, pp. 147-151.
2)用NCC(Normalized Cross Correlation)方法对提取的Harris角点进行匹配;
有关NCC匹配方法,可参见参考文献[2]:
[2] P. Smith, D. Sinclair, R. Cipolla, K. Wood. Effective corner matching. British Machine Vision Conference, pp. 545–556
3)根据角点匹配结果,计算当前帧图像到前一帧图像的仿射变换矩阵:
如图1所示,在步骤102中,分别将立体视频的左路视频和右路视频的当前帧像素投影到前一帧上。如图2所示,设当前帧图像上的点像素坐标为,其在前一帧图像上的投影点像素坐标为,则,,。若不是位于整数坐标点,则用双线性插值方法得到该投影点的像素值。
有关双线性插值可参考文献[3]:
[3] Rafael C. Gonzalez, Richard E. Woods. Digital Image Processing, Second Endition. Gatesmark Publishing.
有关基于局部窗口匹配的SAD方法可参考文献[4]:
[4] Daniel Scharstein, Richard Szeliski. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International journal of computer vision, pp. 7-42.
如图1所示,在步骤105中,用立体视频中的左路视频前一帧图像的视差值来约束左路视频当前帧图像中属于静止区域的像素点的匹配代价,用立体视频中的右路视频前一帧图像的视差值来约束右路视频当前帧图像中属于静止区域的像素点的匹配代价。其具体步骤包括:
d)计算前后帧图像视差的整体相似度系数:
3)更新当前帧图像静止区域像素的匹配代价。对步骤103中得到的当前帧图像静止区域像素点,根据仿射变换关系,用其在前一帧图像中的对应投影点视差来约束当前帧图像的视差,并更新步骤104中得到的初始匹配代价:
对于当前帧图像运动区域的像素点,则保持其匹配代价不变。
如图1所示,在步骤106中,对步骤104中得到立体视频的左路视频当前帧图像的匹配代价和右路视频当前帧图像的匹配代价,分别应用匹配代价最小(WTA)原则,得到左路视频当前帧图像的视差图和右路当前帧图像的视差图:
有关WTA原则可参考文献[4]:
[4] Daniel Scharstein, Richard Szeliski. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International journal of computer vision, pp. 7-42.
Claims (5)
1.一种基于仿射变换的立体视频匹配方法,其特征在于:利用立体视频前后帧之间的时域信息,计算仿射变换矩阵,在立体视频当前帧的单帧图像立体匹配方法基础上,增加视频帧之间的仿射变换约束;下列步骤中,步骤4)用立体视频的左路视频当前帧和立体视频的右路视频当前帧进行匹配得到初始匹配代价,其余步骤对立体视频的左路视频和立体视频的右路视频分别单独地实施相同的步骤,实施步骤如下:
1)提取当前帧和前一帧的图像特征点,并进行图像特征点匹配,求取仿射变换矩阵;
2)根据步骤1)得到的仿射变换矩阵,将当前帧图像中的像素点投影到前一帧,并对非整数坐标的投影像素点进行插值运算,得到当前帧图像的像素点在前一帧图像上的投影点;
3)根据步骤2)得到的投影点,计算当前帧图像的像素点和其在前一帧图像上的投影点的像素值的差,以检测当前帧图像中的静止区域像素点;
4)计算当前帧图像的初始匹配代价;
5)计算更新匹配代价的权重系数,包括前后帧图像视差的整体相似度和相邻视差值的权重递变函数值;
6)根据步骤4)中当前帧图像的初始匹配代价,以及步骤5)中的权重系数,更新当前帧静止区域像素点的匹配代价,对运动区域像素点的匹配代价则保持不变;
7)计算当前帧图像的视差图;
所述的更新权重系数中的前后帧图像视差的整体相似度系数,包括以下步骤:
1)对立体视频的当前帧的左右图像提取Harris特征点并进行匹配;
2)对立体视频的前一帧的左右图像提取Harris特征点并进行匹配;
所述的更新权重系数中的相邻视差值的权重递变函数值,是指用权重递变函数g(dc)计算当前帧图像中坐标为(xc,yc)处的视差dc在其通过仿射变换投影到前一帧图像中坐标为(xc′,yc′)处的视差dp的一个变化区间[dp-n,dp+n]内的各个候选视差的权重系数;
所述的更新静止区域像素的匹配代价,是指对当前帧图像静止区域中坐标为(xc,yc)的像素,更新其匹配代价;计算包括以下步骤:
1)计算当前帧图像坐标为(xc,yc)处像素的初始匹配代价Costinit(xc,yc,dc);
2)更新当前帧图像静止区域中坐标为(xc,yc)的像素的匹配代价:
其中,αh为前后帧图像视差的整体相似度系数,g(dc)为权重递变函数,n为预设的常量,表示视差变化范围;
计算更新匹配代价的权重系数中的相邻视差值的权重递变函数g(dc),计算当前帧图像中坐标为(xc,yc)处的视差dc在其通过仿射变换投影到前一帧图像中坐标为(xc′,yc′)处的视差dp的一个变化区间[dp-n,dp+n]内的各个候选视差的权重系数:
所述的计算当前帧图像的视差图,是指对当前帧图像中坐标为(xc,yc)处的像素的匹配代价Cost(xc,yc,dc),用匹配代价最小的原则选择该像素的视差值:
其中D是视差dc的变换区间,d(xc,yc)为当前帧图像中坐标为(xc,yc)的像素的视差值。
2.根据权利要求1所述的一种基于仿射变换的立体视频匹配方法,其特征在于:所述的根据图像特征点匹配,求取仿射变换矩阵,包括以下步骤:
2.1)用Harris角点检测方法,分别提取当前帧fc和前一帧fp的图像特征点;
2.2)对提取的两个图像特征点进行匹配;
2.3)根据匹配结果,计算当前帧到前一帧的仿射变换矩阵H。
3.根据权利要求1所述的一种基于仿射变换的立体视频匹配方法,其特征在于:所述的将当前帧中的像素点投影到前一帧,并对非整数坐标的投影像素点进行插值运算,是指当前帧fc中的像素坐标(xc,yc)按照所求取的仿射变换矩阵H,投影到前一帧fp中坐标为(xc′,yc′)处,若像素坐标(xc′,yc′)不是整数,则用fp中相邻像素进行双线性插值,得到该点的像素值fp(xc′,yc′)。
5.根据权利要求1所述的一种基于仿射变换的立体视频匹配方法,其特征在于,所述的计算当前帧图像的初始匹配代价,是指用基于局部窗口匹配的SAD方法对立体视频当前帧的左图和右图进行匹配,分别得到当前帧左图的的初始匹配代价CostLinit(xc,yc,dc)和当前帧右图的初始匹配代价CostRinit(xc,yc,dc)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010105942171A CN102026013B (zh) | 2010-12-18 | 2010-12-18 | 基于仿射变换的立体视频匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010105942171A CN102026013B (zh) | 2010-12-18 | 2010-12-18 | 基于仿射变换的立体视频匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102026013A CN102026013A (zh) | 2011-04-20 |
CN102026013B true CN102026013B (zh) | 2012-05-23 |
Family
ID=43866776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010105942171A Expired - Fee Related CN102026013B (zh) | 2010-12-18 | 2010-12-18 | 基于仿射变换的立体视频匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102026013B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184540B (zh) * | 2011-05-03 | 2013-03-20 | 哈尔滨工程大学 | 基于尺度空间的亚像素级立体匹配方法 |
CN102831601A (zh) * | 2012-07-26 | 2012-12-19 | 中北大学 | 基于联合相似性测度和自适应支持权重的立体匹配方法 |
CN103778598B (zh) * | 2012-10-17 | 2016-08-03 | 株式会社理光 | 视差图改善方法和装置 |
US20140241612A1 (en) * | 2013-02-23 | 2014-08-28 | Microsoft Corporation | Real time stereo matching |
CN103839253A (zh) * | 2013-11-21 | 2014-06-04 | 苏州盛景空间信息技术有限公司 | 一种基于局部仿射变换的任意点匹配方法 |
US9195904B1 (en) * | 2014-05-08 | 2015-11-24 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting objects in stereo images |
CN105447885B (zh) * | 2014-07-11 | 2018-09-25 | 株式会社理光 | 计算视差的方法和装置 |
CN104820991B (zh) * | 2015-05-15 | 2017-10-03 | 武汉大学 | 一种基于代价矩阵的多重软约束立体匹配方法 |
CN106097289B (zh) * | 2016-05-30 | 2018-11-27 | 天津大学 | 一种基于MapReduce模型的立体图像合成方法 |
CN106254850B (zh) * | 2016-08-23 | 2019-06-04 | 深圳市捷视飞通科技股份有限公司 | 双视点立体视频的图像匹配方法及装置 |
CN106952304B (zh) * | 2017-03-22 | 2019-09-20 | 南京大学 | 一种利用视频序列帧间相关性的深度图像计算方法 |
CN109658326B (zh) * | 2017-10-11 | 2024-01-16 | 深圳市中兴微电子技术有限公司 | 一种图像显示方法及装置、计算机可读存储介质 |
CN108596963B (zh) * | 2018-04-25 | 2020-10-30 | 珠海全志科技股份有限公司 | 图像特征点的匹配、视差提取和深度信息提取方法 |
CN108596197B (zh) * | 2018-05-15 | 2020-08-25 | 汉王科技股份有限公司 | 一种印章匹配方法及装置 |
CN112650207B (zh) * | 2019-10-11 | 2024-06-14 | 杭州萤石软件有限公司 | 机器人的定位校正方法、设备和存储介质 |
CN111080589A (zh) * | 2019-12-05 | 2020-04-28 | 广州极泽科技有限公司 | 目标对象匹配方法、系统、设备及机器可读介质 |
CN111142109A (zh) * | 2019-12-30 | 2020-05-12 | 上海眼控科技股份有限公司 | 标记方法、装置、计算机设备和存储介质 |
CN115601231B (zh) * | 2022-11-22 | 2023-03-10 | 南京后摩智能科技有限公司 | 图像处理方法、装置、硬件加速器、芯片以及设备 |
CN117061720B (zh) * | 2023-10-11 | 2024-03-01 | 广州市大湾区虚拟现实研究院 | 基于单目图像及深度图像渲染的立体图像对生成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1153362A (zh) * | 1995-03-29 | 1997-07-02 | 三洋电机株式会社 | 产生三维图象计算深度信息和用其进行图象处理的方法 |
CN1179065A (zh) * | 1996-08-06 | 1998-04-15 | 次级系统有限公司 | 用于立体视频编码的优化的差异估算 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7706571B2 (en) * | 2004-10-13 | 2010-04-27 | Sarnoff Corporation | Flexible layer tracking with weak online appearance model |
-
2010
- 2010-12-18 CN CN2010105942171A patent/CN102026013B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1153362A (zh) * | 1995-03-29 | 1997-07-02 | 三洋电机株式会社 | 产生三维图象计算深度信息和用其进行图象处理的方法 |
CN1179065A (zh) * | 1996-08-06 | 1998-04-15 | 次级系统有限公司 | 用于立体视频编码的优化的差异估算 |
Non-Patent Citations (1)
Title |
---|
DANIEL SCHARSTEIN ET AL.A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms.《International Journal of Computer Vision》.2002,第47卷(第1-3期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN102026013A (zh) | 2011-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102026013B (zh) | 基于仿射变换的立体视频匹配方法 | |
US11562498B2 (en) | Systems and methods for hybrid depth regularization | |
Zhuang et al. | Rolling-shutter-aware differential sfm and image rectification | |
US10542249B2 (en) | Stereoscopic video generation method based on 3D convolution neural network | |
CN109308719B (zh) | 一种基于三维卷积的双目视差估计方法 | |
Feng et al. | Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications | |
CN110148181A (zh) | 一种通用双目立体匹配方法 | |
US20110032341A1 (en) | Method and system to transform stereo content | |
CN103702098B (zh) | 一种时空域联合约束的三视点立体视频深度提取方法 | |
CN102665086B (zh) | 利用基于区域的局部立体匹配获取视差的方法 | |
CN106651853B (zh) | 基于先验知识和深度权重的3d显著性模型的建立方法 | |
CN102436671B (zh) | 一种基于深度值非线性变换的虚拟视点绘制方法 | |
Pan et al. | 3D video disparity scaling for preference and prevention of discomfort | |
CN104065946B (zh) | 基于图像序列的空洞填充方法 | |
CN104065954B (zh) | 一种高清立体视频的视差范围快速检测方法 | |
US8289376B2 (en) | Image processing method and apparatus | |
US20110229014A1 (en) | Analysis of stereoscopic images | |
CN103679739A (zh) | 基于遮挡区域检测的虚拟视图生成方法 | |
Zhang et al. | Interactive stereoscopic video conversion | |
CN104469355B (zh) | 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法 | |
CN105791795A (zh) | 立体图像处理方法、装置以及立体视频显示设备 | |
US9325962B2 (en) | Method and system for creating dynamic floating window for stereoscopic contents | |
Orozco et al. | HDR multiview image sequence generation: Toward 3D HDR video | |
Zhang et al. | An interactive system of stereoscopic video conversion | |
Cheung et al. | Spatio-temporal disocclusion filling using novel sprite cells |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120523 Termination date: 20121218 |