CN109345444A - 深度感知增强的超分辨率立体图像构建方法 - Google Patents
深度感知增强的超分辨率立体图像构建方法 Download PDFInfo
- Publication number
- CN109345444A CN109345444A CN201811003120.1A CN201811003120A CN109345444A CN 109345444 A CN109345444 A CN 109345444A CN 201811003120 A CN201811003120 A CN 201811003120A CN 109345444 A CN109345444 A CN 109345444A
- Authority
- CN
- China
- Prior art keywords
- resolution
- picture
- image
- super
- stereo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008447 perception Effects 0.000 title claims abstract description 11
- 238000010276 construction Methods 0.000 title claims abstract description 8
- 230000002708 enhancing effect Effects 0.000 title claims abstract description 8
- 238000000034 method Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000011161 development Methods 0.000 description 2
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
深度感知增强的超分辨率立体图像构建方法,包括如下步骤:步骤1.划分图像的层次区域;步骤2.重建基于稀疏表示的多层次超分辨率;步骤3.构建高分辨率立体图像。本发明将超分辨率重建和立体构建两个过程结合起来,可以有效抑制噪点;对不同深度层次的图像块使用不同精细程度的超分辨率重建,增强立体图像的深度感。
Description
技术领域
本发明涉及构建高清晰度的立体图像的方法。
背景技术
随着立体显示技术的快速发展,人们对于高清晰立体图像和视频的需求日益增长。直接拍摄三维图像的成本比较高,从二维图像重建是获得立体图像的一种常用方式。其次在已有的图像资源中,许多图像的分辨率比较低,质量往往达不到人们的要求。故本发明主要目的是将低分辨率二维图像重建为高分辨率立体图像。
超分辨率重建,就是利用信号处理和图像处理的方法,通过算法将已有的低分辨率图像转换成高分辨率图像的技术。图像的超分辨率重建与立体图像的构建这两种技术一直以来都是分别考虑与发展的,但当需要构建高清晰度的立体图像时,如果先后进行图像的超分辨率与立体图像构建,两种技术之间会产生相互的影响,导致所构建的高清晰度立体图像质量不佳。
发明内容
本发明要克服现有技术的上述缺点,提供一种深度感知增强的超分辨率立体图像构建方法。
本发明设计了一种深度感知增强的超分辨率立体图像构建方法,将单张低分辨率二维图像重建为高分辨率立体图像。首先根据低分辨率参考图像和深度图将低分辨率图像划分为近景、中景和远景三部分,再对不同部分采用三种不同的稀疏字典进行高分辨率重建,最后根据重建的高分辨率图像和深度图像构建立体图像。
深度感知增强的超分辨率立体图像构建方法,包括如下步骤:
1.划分图像的层次区域;
为了提升生成的超分辨率立体图像的层次感,对低分辨率图像,将图像分为近景、中景和远景三部分,具体如下:
对深度图进行分析计算得到近景和中景划分的阈值dnear,中景和远景划分的阈值dfar。阈值计算公式如下:
其中,dmax为深度图中的灰度最大值,dmin为深度图中的灰度最小值,为深度图的灰度均值,α表示比例系数,取α=0.15。
2.重建基于稀疏表示的多层次超分辨率;
为了使得不同深度层次的图像区域获得不同精细程度的超分辨率重建,使用了三个不同的超分辨率稀疏字典。对于处于区域的交界处的图像块,根据该图像块中属于各个区域的像素所占的比例来选择此图像块所对应的超分辨率字典。
(21)将低分辨率图像通过双三次插值的方式放大为原来的4倍。
(22)训练得到近景、中景、远景三种超分辨率字典。具体步骤如下:
S1.从高分辨率图像训练集下采样获取2倍、3倍、4倍的低分辨率训练图像块样本集,然后再通过双三次插值恢复到原始尺寸。
S2.对高分辨率和低分辨率图像块字典进行联合训练:
式中N,M分别表示高分辨率图像块和低分辨率图像块特征向量形式的维度。Xh表示高分辨率样本集,Yi l是使用i倍下采样比例的低分辨率图像块的样本集,i可以取2,3,4,分别表示2倍、3倍、4倍下采样比例的低分辨率图像块的样本集,Dh是高分辨率字典,Dl,i是i倍下采样的低分辨率字典,Z是稀疏编码,λ表示编码系数,||α||1表示求解α的L1范式,||α||2表示求解α的L2范式。
(23)对于每个像素块,计算像素点的深度值在近景、中景、远景区域中所占的比例。根据所占的比例,使用不同的超分辨率重建字典,将图像重建为高分辨率的图像。
3.构建高分辨率立体图像;
对重建的高分辨率图像采用DIBR三维图像变换技术计算得到对应的虚拟视图,然后结合参考视图和虚拟视图构建立体图像。具体步骤如下:
(31)将重建块根据其位置组合起来,并对块与块之间的重叠区域进行均值化处理。
(32)将高分辨率参考视图作为立体图像中的左眼视图,即立体图像构建过程中的参考视图,通过DIBR技术得到的虚拟视图作为立体图像的右眼视图。
T1.设高分辨率图像块中坐标为(u,v)的像素点的深度值为dh(u,v),则该像素点通过三维图像变换映射到虚拟视图中的位置(u',v')为:
其中f为摄像机的焦距,sx为摄像机传感器中水平方向上单位尺寸上的像素数,B为双目之间的距离,DZPS为零视差平面,这里使用近景阈值dnear作为零视差平面,这使得近景区域在立体视觉感知中位于屏幕的前方,可以获得更好的立体视觉体验。
T2.取参考视图G通道和B通道的值,取虚拟视图R通道的值,将这三个通道进行叠加,即可得到红蓝立体图像的效果。
本发明的优点是:将超分辨率重建和立体构建两个过程结合起来,可以有效抑制噪点;本发明对不同深度层次的图像块使用不同精细程度的超分辨率重建,增强立体图像的深度感。
附图说明
图1是本发明的方法流程图。
具体实施方式
下面结合附图进一步说明本发明的技术方案。
深度感知增强的超分辨率立体图像构建方法,包括如下步骤:
1.划分图像的层次区域;
为了提升生成的超分辨率立体图像的层次感,对低分辨率图像,将图像分为近景、中景和远景三部分,具体如下:
对深度图进行分析计算得到近景和中景划分的阈值dnear,中景和远景划分的阈值dfar。阈值计算公式如下:
其中,dmax为深度图中的灰度最大值,dmin为深度图中的灰度最小值,为深度图的灰度均值,α表示比例系数,取α=0.15。
2.重建基于稀疏表示的多层次超分辨率;
为了使得不同深度层次的图像区域获得不同精细程度的超分辨率重建,使用了三个不同的超分辨率稀疏字典。对于处于区域的交界处的图像块,根据该图像块中属于各个区域的像素所占的比例来选择此图像块所对应的超分辨率字典。
(21)将低分辨率图像通过双三次插值的方式放大为原来的4倍。
(22)训练得到近景、中景、远景三种超分辨率字典。具体步骤如下:
S1.从高分辨率图像训练集下采样获取2倍、3倍、4倍的低分辨率训练图像块样本集,然后再通过双三次插值恢复到原始尺寸。
S2.对高分辨率和低分辨率图像块字典进行联合训练:
式中N,M分别表示高分辨率图像块和低分辨率图像块特征向量形式的维度。Xh表示高分辨率样本集,Yi l是使用i倍下采样比例的低分辨率图像块的样本集,i可以取2,3,4,分别表示2倍、3倍、4倍下采样比例的低分辨率图像块的样本集,Dh是高分辨率字典,Dl,i是i倍下采样的低分辨率字典,Z是稀疏编码,λ表示编码系数,||α||1表示求解α的L1范式,||α||2表示求解α的L2范式。
(23)对于每个像素块,计算像素点的深度值在近景、中景、远景区域中所占的比例。根据所占的比例,使用不同的超分辨率重建字典,将图像重建为高分辨率的图像。
3.构建高分辨率立体图像;
对重建的高分辨率图像采用DIBR三维图像变换技术计算得到对应的虚拟视图,然后结合参考视图和虚拟视图构建立体图像。具体步骤如下:
(31)将重建块根据其位置组合起来,并对块与块之间的重叠区域进行均值化处理。
(32)将高分辨率参考视图作为立体图像中的左眼视图,即立体图像构建过程中的参考视图,通过DIBR技术得到的虚拟视图作为立体图像的右眼视图。
T1.设高分辨率图像块中坐标为(u,v)的像素点的深度值为dh(u,v),则该像素点通过三维图像变换映射到虚拟视图中的位置(u',v')为:
其中f为摄像机的焦距,sx为摄像机传感器中水平方向上单位尺寸上的像素数,B为双目之间的距离,DZPS为零视差平面。这里使用近景阈值dnear作为零视差平面,这使得近景区域在立体视觉感知中位于屏幕的前方,可以获得更好的立体视觉体验。
T2.取参考视图G通道和B通道的值,取虚拟视图R通道的值,将这三个通道进行叠加,即可得到红蓝立体图像的效果。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (1)
1.深度感知增强的超分辨率立体图像构建方法,包括如下步骤:
步骤1.划分图像的层次区域;
为了提升生成的超分辨率立体图像的层次感,对低分辨率图像,将图像分为近景、中景和远景三部分,具体如下:
对深度图进行分析计算得到近景和中景划分的阈值dnear,中景和远景划分的阈值dfar;阈值计算公式如下:
其中,dmax为深度图中的灰度最大值,dmin为深度图中的灰度最小值,为深度图的灰度均值,α表示比例系数,取α=0.15;
步骤2.重建基于稀疏表示的多层次超分辨率;
为了使得不同深度层次的图像区域获得不同精细程度的超分辨率重建,使用了三个不同的超分辨率稀疏字典;对于处于区域的交界处的图像块,根据该图像块中属于各个区域的像素所占的比例来选择此图像块所对应的超分辨率字典;
(21)将低分辨率图像通过双三次插值的方式放大为原来的4倍;
(22)训练得到近景、中景、远景三种超分辨率字典;具体步骤如下:
S1.从高分辨率图像训练集下采样获取2倍、3倍、4倍的低分辨率训练图像块样本集,然后再通过双三次插值恢复到原始尺寸;
S2.对高分辨率和低分辨率图像块字典进行联合训练:
式中N,M分别表示高分辨率图像块和低分辨率图像块特征向量形式的维度;Xh表示高分辨率样本集,Yi l是使用i倍下采样比例的低分辨率图像块的样本集,i可以取2,3,4,分别表示2倍、3倍、4倍下采样比例的低分辨率图像块的样本集,Dh是高分辨率字典,Dl,i是i倍下采样的低分辨率字典,Z是稀疏编码,λ表示编码系数,||α||1表示求解α的L1范式,||α||2表示求解α的L2范式;
(23)对于每个像素块,计算像素点的深度值在近景、中景、远景区域中所占的比例;根据所占的比例,使用不同的超分辨率重建字典,将图像重建为高分辨率的图像;
步骤3.构建高分辨率立体图像;
对重建的高分辨率图像采用DIBR三维图像变换技术计算得到对应的虚拟视图,然后结合参考视图和虚拟视图构建立体图像;具体步骤如下:
(31)将重建块根据其位置组合起来,并对块与块之间的重叠区域进行均值化处理;
(32)将高分辨率参考视图作为立体图像中的左眼视图,即立体图像构建过程中的参考视图,通过DIBR技术得到的虚拟视图作为立体图像的右眼视图;
T1.设高分辨率图像块中坐标为(u,v)的像素点的深度值为dh(u,v),则该像素点通过三维图像变换映射到虚拟视图中的位置(u',v')为:
其中f为摄像机的焦距,sx为摄像机传感器中水平方向上单位尺寸上的像素数,B为双目之间的距离,DZPS为零视差平面,这里使用近景阈值dnear作为零视差平面,这使得近景区域在立体视觉感知中位于屏幕的前方,可以获得更好的立体视觉体验;
T2.取参考视图G通道和B通道的值,取虚拟视图R通道的值,将这三个通道进行叠加,即可得到红蓝立体图像的效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811003120.1A CN109345444B (zh) | 2018-08-30 | 2018-08-30 | 深度感知增强的超分辨率立体图像构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811003120.1A CN109345444B (zh) | 2018-08-30 | 2018-08-30 | 深度感知增强的超分辨率立体图像构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109345444A true CN109345444A (zh) | 2019-02-15 |
CN109345444B CN109345444B (zh) | 2023-05-23 |
Family
ID=65292302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811003120.1A Active CN109345444B (zh) | 2018-08-30 | 2018-08-30 | 深度感知增强的超分辨率立体图像构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109345444B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751615A (zh) * | 2019-08-29 | 2020-02-04 | 浙江工业大学 | 基于环境感知的立体树木图像融合方法 |
CN113362381A (zh) * | 2020-03-03 | 2021-09-07 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、可读介质、通信终端 |
CN113506217A (zh) * | 2021-07-09 | 2021-10-15 | 天津大学 | 一种基于循环交互的立体图像超分辨率重建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009251839A (ja) * | 2008-04-04 | 2009-10-29 | Hitachi Ltd | 画像信号処理回路、画像表示装置、および画像信号処理方法 |
CN105513033A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 一种非局部联合稀疏表示的超分辨率重建方法 |
CN106408513A (zh) * | 2016-08-25 | 2017-02-15 | 天津大学 | 深度图超分辨率重建方法 |
CN107203969A (zh) * | 2017-06-13 | 2017-09-26 | 武汉大学 | 一种中间尺度约束的高倍率图像超分辨率重建方法 |
-
2018
- 2018-08-30 CN CN201811003120.1A patent/CN109345444B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009251839A (ja) * | 2008-04-04 | 2009-10-29 | Hitachi Ltd | 画像信号処理回路、画像表示装置、および画像信号処理方法 |
CN105513033A (zh) * | 2015-12-07 | 2016-04-20 | 天津大学 | 一种非局部联合稀疏表示的超分辨率重建方法 |
CN106408513A (zh) * | 2016-08-25 | 2017-02-15 | 天津大学 | 深度图超分辨率重建方法 |
CN107203969A (zh) * | 2017-06-13 | 2017-09-26 | 武汉大学 | 一种中间尺度约束的高倍率图像超分辨率重建方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751615A (zh) * | 2019-08-29 | 2020-02-04 | 浙江工业大学 | 基于环境感知的立体树木图像融合方法 |
CN110751615B (zh) * | 2019-08-29 | 2021-06-08 | 浙江工业大学 | 基于环境感知的立体树木图像融合方法 |
CN113362381A (zh) * | 2020-03-03 | 2021-09-07 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、可读介质、通信终端 |
CN113362381B (zh) * | 2020-03-03 | 2023-02-17 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、可读介质、通信终端 |
CN113506217A (zh) * | 2021-07-09 | 2021-10-15 | 天津大学 | 一种基于循环交互的立体图像超分辨率重建方法 |
CN113506217B (zh) * | 2021-07-09 | 2022-08-16 | 天津大学 | 一种基于循环交互的立体图像超分辨率重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109345444B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7689031B2 (en) | Video filtering for stereo images | |
US9525858B2 (en) | Depth or disparity map upscaling | |
KR100950046B1 (ko) | 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법 | |
CN101720047B (zh) | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 | |
CN101771893B (zh) | 一种基于视频序列背景建模的虚拟视点绘制方法 | |
EP2715661B1 (en) | Scale-independent maps | |
CN103581648B (zh) | 绘制新视点中的空洞填补方法 | |
CN104756489B (zh) | 一种虚拟视点合成方法及系统 | |
CN102325259A (zh) | 多视点视频中虚拟视点合成方法及装置 | |
TWI531212B (zh) | 呈現立體影像之系統及方法 | |
WO2015161541A1 (zh) | 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法 | |
KR101538947B1 (ko) | 실감형 자유시점 영상 제공 장치 및 방법 | |
CN111047709B (zh) | 一种双目视觉裸眼3d图像生成方法 | |
CN106408513A (zh) | 深度图超分辨率重建方法 | |
CN106254854A (zh) | 三维图像的获得方法、装置及系统 | |
CN109345444A (zh) | 深度感知增强的超分辨率立体图像构建方法 | |
CN101662695B (zh) | 一种获取虚拟视图的方法和装置 | |
KR20080101998A (ko) | 임의 시점 영상 합성 시 영상 보정 방법 및 장치 | |
CN104284177A (zh) | 会聚立体图像视差控制方法 | |
CN105208369B (zh) | 一种立体图像视觉舒适度增强方法 | |
CN108124148A (zh) | 一种单个视图影像转换多个视图影像的方法及装置 | |
CN105791798A (zh) | 一种基于gpu的4k超多视点3d视频实时转化方法及装置 | |
CN103379350B (zh) | 虚拟视点图像后处理方法 | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
CN107610070A (zh) | 基于三摄像采集的自由立体匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |