CN108696739A - 可校正遮蔽区的深度图产生装置 - Google Patents
可校正遮蔽区的深度图产生装置 Download PDFInfo
- Publication number
- CN108696739A CN108696739A CN201810274283.7A CN201810274283A CN108696739A CN 108696739 A CN108696739 A CN 108696739A CN 201810274283 A CN201810274283 A CN 201810274283A CN 108696739 A CN108696739 A CN 108696739A
- Authority
- CN
- China
- Prior art keywords
- depth map
- image
- depth
- shielded area
- generation device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 claims description 16
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 4
- 230000000873 masking effect Effects 0.000 claims 1
- 238000006467 substitution reaction Methods 0.000 abstract description 9
- 101100071245 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) HMT1 gene Proteins 0.000 description 17
- 238000010586 diagram Methods 0.000 description 11
- 239000000463 material Substances 0.000 description 11
- 101100210170 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) VRP1 gene Proteins 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 3
- 101000717981 Mus musculus Aldo-keto reductase family 1 member B7 Proteins 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229920000728 polyester Polymers 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2228—Video assist systems used in motion picture production, e.g. video cameras connected to viewfinders of motion picture cameras or related video signal processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种可校正遮蔽区的深度图产生装置。所述深度图产生装置包含至少二图像获取对和一深度图产生器。所述至少二图像获取对是用以获取多个图像。所述深度图产生器耦接于所述至少二图像获取对,用以根据所述多个图像产生一第一深度图以及一第二深度图,其中当所述第一深度图包括一遮蔽区及一非遮蔽区时,所述深度图产生器根据所述第二深度图校正所述遮蔽区。因此,相较于现有技术,因为本发明是利用一相对应有效区校正(或取代)所述遮蔽区,所以本发明可有效解决一深度图出现所述遮蔽区的问题。
Description
技术领域
本发明涉及一种深度图产生装置,尤其涉及一种可校正遮蔽区的深度图产生装置。
背景技术
当一立体照相机和一对象之间出现另一对象时,所述对象上的一区域可能只会出现在所述立体照相机中一左眼图像获取器(一右眼图像获取器)所获取的图像中,也就是说所述立体照相机中所述右眼图像获取器(所述左眼图像获取器)将会因为所述另一对象的阻挡而无法检测所述区域。因此,当耦接于所述立体照相机的深度图产生器利用现有技术所公开的三角定位算法计算对应所述对象的深度图时,因为所述右眼图像获取器(所述左眼图像获取器)无法检测所述区域,所以所述深度图产生器将会宣告所述深度图中的所述区域为一无效区,且所述无效区的问题会随着所述左眼图像获取器和所述右眼图像获取器之间的基线的增加而越严重。因此,如何设计一个可校正遮蔽区的深度图产生装置将会是一项重要课题。
发明内容
本发明的一实施例公开一种可校正遮蔽区的深度图产生装置。所述可校正遮蔽区的深度图产生装置包含至少二图像获取对和一深度图产生器。所述至少二图像获取对是用以获取多个图像。所述深度图产生器耦接于所述至少二图像获取对,用以根据所述多个图像产生一第一深度图以及一第二深度图,其中当所述第一深度图包括一遮蔽区及一非遮蔽区时,所述深度图产生器根据所述第二深度图校正所述遮蔽区。
本发明的另一实施例公开一种可校正遮蔽区的深度图产生装置。所述深度图产生装置包含一图像获取模块和一深度图产生器。所述图像获取模块包含至少二图像获取对,且所述至少二图像获取对中的每一图像获取对是由二图像获取器所组成或由一图像获取器及一光源所组成;所述深度图产生器耦接于所述图像获取模块,用以当所述深度图产生器所产生的对应所述至少二图像获取对的至少二深度图中的一第一深度图出现一遮蔽区及一非遮蔽区时,利用所述至少二深度图中的一第二深度图校正所述遮蔽区。
本发明的另一实施例公开一种可校正遮蔽区的深度图产生装置。所述深度图产生装置包含至少二图像获取对和一深度图产生器。所述至少二图像获取对用以获取多个图像。所述深度图产生器耦接于所述至少二图像获取对,用以根据所述多个图像产生一第一深度图以及一第二深度图,其中所述深度图产生器另用以执行根据所述第二深度图校正所述第一深度图的一遮蔽区和融合所述第一深度图和所述第二深度图以产生一融合深度图的至少其中之一。
本发明的另一实施例公开一种可校正遮蔽区的深度图产生装置。所述深度图产生装置包含二组图像获取对和一深度图产生器。所述二组图像获取对分别用以获取多个第一图像与多个第二图像;所述深度图产生器耦接于所述二组图像获取对,用以根据所述多个第一图像与所述多个第二图像产生多个第一深度图以及多个第二深度图,并分别融合所述多个第一深度图以及所述多个第二深度图以产生一第一融合深度图和一第二融合深度图;当所述第一深度图包括一第一遮蔽区及一第一非遮蔽区时,所述深度图产生器另用以根据所述第二融合深度图校正所述第一遮蔽区。
本发明公开一种可校正遮蔽区的深度图产生装置。当所述深度图产生装置中的深度图产生器所产生的对应所述深度图产生装置中的至少二图像获取对的至少二深度图中的一第一深度图出现至少一遮蔽区时,所述深度图产生器利用所述至少二深度图中的至少一第二深度图内的一相对应有效区校正(或取代)所述至少一遮蔽区。因此,相较于现有技术,因为本发明是利用所述相对应有效区校正(或取代)所述至少一遮蔽区,所以本发明可有效解决一深度图出现遮蔽区的问题。
附图说明
图1是本发明的第一实施例所公开的一种可校正遮蔽区的深度图产生装置的示意图。
图2A是说明深度图中有关对象的区域出现一遮蔽区的示意图。
图2B是说明深度图中对应另一深度图的遮蔽区的区域的示意图。
图3是说明第一基线和第二基线不互相平行的示意图。
图4是本发明的另一实施例所公开的一种可校正遮蔽区的深度图产生装置的示意图。
图5是说明所述结构光为一编码图案的示意图。
图6是说明深度图产生器产生镜像深度图的示意图。
图7是本发明的第二实施例所公开的一种可校正遮蔽区的深度图产生装置的示意图。
图8是本发明的第三实施例所公开的一种可校正遮蔽区的深度图产生装置的示意图。
图9是本发明的第四实施例所公开的一种可校正遮蔽区的深度图产生装置的示意图。
图10是本发明的第五实施例所公开的一种可校正遮蔽区的深度图产生装置的示意图。
图11是本发明的第六实施例所公开的一种可校正遮蔽区的深度图产生装置的示意图。
其中,附图标记说明如下:
100、700、800、900、1000、1100 深度图产生装置
101 第一对象
103 第二对象
102、104、105、106、107 图像获取器
108 深度图产生器
112 印刷电路板
1032、1034、1036、1038、VDP 区域
402、702 光源
BL1 第一基线
BL2 第二基线
DP1、DP2 深度图
MDP2 镜像深度图
MVDP 镜像有效区
ODP1 遮蔽区
具体实施方式
请参照图1,图1是本发明的第一实施例所公开的一种可校正遮蔽区的深度图产生装置100的示意图,其中深度图产生装置100包含三图像获取器102、104、106和一深度图产生器108,且深度图产生器108耦接三图像获取器102、104、106。但本发明并不受限于深度图产生装置100只包含三图像获取器102、104、106,也就是说深度图产生装置100可包含三个以上的图像获取器。如图1所示,图像获取器102和图像获取器104之间具有一第一基线BL1以及图像获取器104和图像获取器106之间具有一第二基线BL2,其中图像获取器102、104、106和深度图产生器108是设置在一印刷电路板112之上,但为了简化图1,印刷电路板112上仅显示图像获取器102、104、106。另外,在本发明的一实施例中,第一基线BL1的长度和第二基线BL2的长度相等。
图像获取器102、104、106用以形成二图像获取对,其中图像获取器102、104为一第一图像获取对,图像获取器106、104为一第二图像获取对,以及所述第一图像获取对和所述第二图像获取对都包括图像获取器104。如图1所示,深度图产生器108电连接图像获取器102、104、106,用以根据所述第一图像获取对以及所述第二图像获取对中每一图像获取对所获取的图像对产生对应所述每一图像获取对的一深度图。如图1所示,当一第一对象101介于深度图产生装置100和一第二对象103之间,图像获取器106相对于第二对象103的视野将会因为第一对象101的阻挡而无法检测第二对象103的区域1032,导致深度图产生器108根据所述第二图像获取对所获取的包含第二对象103的图像所产生的一深度图DP1中有关第二对象103的区域1034右方出现一遮蔽区ODP1(如图2A所示)。以图1中图像获取器104设置在图像获取器106的左侧且图像获取器104设置在图像获取器102的右侧为例来说明,则深度图产生器108在图像获取器104、106所获取的图像中的搜寻方向是以图像获取器104的图像内容为基准在图像获取器106所获取的图像内容中向左方搜寻。深度图DP1中的遮蔽区ODP1即为深度图DP1中的无效区(invalid area)。另外,深度图产生器108也可根据所述第一图像获取对所产生的包含第二对象103的图像,产生对应所述第一图像获取对的一深度图DP2,其中深度图DP2中具有有关对象103的区域1036,且深度图产生器108在图像获取器102、104所获取的图像内容中的搜寻方向是以图像获取器104图像内容为基准在图像获取器102所获取的图像内容中向右方搜寻。如图1所示,虽然第一对象101介于深度图产生装置100和第二对象103之间,但因为图像获取器104、102相对于第二对象103的视野没有受到第一对象101的阻挡,所以图像获取器104、102都可以检测第二对象103的区域1032。因此,深度图产生器108在所述第一图像获取对所获取的包含第二对象103的图像内容中的搜寻方向是以图像获取器104的图像内容为基准在图像获取器102所获取的图像内容中向右方搜寻以产生深度图DP2,所以深度图DP2中对应深度图DP1的遮蔽区ODP1的区域VDP(如图2B所示)是一有效区。因此,深度图产生器108即可利用深度图DP2中对应深度图DP1的遮蔽区ODP1的区域VDP的深度信息校正(例如取代)深度图DP1的遮蔽区ODP1,然后输出对应深度图DP1的校正的深度图。但在本发明的另一实施例中,深度图DP1中的遮蔽区ODP1和深度图DP1中邻近遮蔽区ODP1的预定毗连区是由深度图DP2的一相对应有效区取代以避免深度图产生器108因为深度图DP1中的遮蔽区ODP1的误差而无法有效地校正深度图DP1的遮蔽区ODP1,其中所述预定毗连区的范围可由一用户调整。另外,因为第一基线BL1的长度和第二基线BL2的长度相等,所以深度图产生器108可直接利用深度图DP2的区域VDP的深度信息取代深度图DP1的遮蔽区ODP1,也就是说当深度图产生器108利用深度图DP2的区域VDP的深度信息取代深度图DP1的遮蔽区ODP1时,区域VDP的视差不需做任何正规化动作以匹配深度图DP1的视差。
然而在本发明的另一实施例中,如果第一基线BL1的长度不等于第二基线BL2的长度,则当深度图产生器108利用深度图DP2的区域VDP的深度信息取代深度图DP1的遮蔽区ODP1时,区域VDP的视差必须被执行一正规化动作,也就是说区域VDP的视差必须乘上一正规化比例以匹配深度图DP1的视差,其中所述正规化比例是由式(1)所决定:
NRA=BL2/BL1 (1)
其中NRA为所述正规化比例、BL1为第一基线BL1的长度以及BL2为第二基线BL2的长度。因此,当深度图产生器108利用深度图DP2的区域VDP的深度信息取代深度图DP1的遮蔽区ODP1时,其中区域VDP的视差是一正规化后的视差。另外,在本发明的另一实施例中,当深度图DP1和深度图DP2是用任一对象与深度图产生装置100之间的距离表示时,因为深度图DP1和深度图DP2的距离的单位相同(例如公尺),所以深度图DP2不需做任何正规化转换以匹配深度图DP1。
另外,当第一基线BL1和第二基线BL2不互相平行(如图3所示)时,深度图产生器108另用以对深度图DP1和深度图DP2的其中至少一执行一几何校正(例如一旋转校正),也就是说所述旋转校正是深度图DP1利用第一旋转矩阵进行几何转换和深度图DP2利用第二旋转矩阵进行几何转换,其中所述第一旋转矩阵和所述第二旋转矩阵是根据第一基线BL1和第二基线BL2的其中一基线或对应不同于第一基线BL1和第二基线BL2的一参考直线求出,所述第一旋转矩阵和所述第二旋转矩阵的目标是让经过几何转换后第一基线BL1和第二基线BL2平行。
另外,在本发明的另一实施例中,深度图产生装置100可包含至少一光源(如图4所示的一光源402),用以发出至少一结构光。如图4所示,光源402是一红外线光源,用以发出一结构光(或一随机图案(random pattern)),且光源402的目的是使深度图产生装置100所产生的深度图DP1、DP2的质量提高,其中如图5所示,所述结构光为一编码图案(也就是和随机数有关的图案)。但本发明并不受限于光源402是一红外线光源,也就是说光源402可以是其他形式的光源(例如光源402可以是一可见光源)。或者在本发明的另一实施例中,深度图产生装置100也可包含至少一红外线雷射光源。以深度图产生装置100为例,光源402可根据深度图产生装置100所处环境的亮度、深度图DP1(或深度图DP2)的质量对应光源402开启与关闭时的差异的其中至少一项开启。
当光源402是根据深度图产生装置100所处环境的亮度开启时,一控制器(未绘示于图4)可根据图像获取器102(或图像获取器104,或图像获取器106)目前所设定的一快门时间、一曝光时间和一ISO感亮度(增益)的其中至少一项,判断深度图产生装置100所处环境的亮度。以所述曝光时间为例,在本发明的一实施例中,当图像获取器102的快门时间固定(或无快门)时,所述控制器可根据式(2)所产生的值GEX,决定是否开启光源402:
GEX=gain*EXPT (2)
其中gain为对应图像获取器102的增益以及EXPT为对应图像获取器102的曝光时间。当值GEX大于一高临界值时,意味着深度图产生装置100所处环境的亮度太暗,所以所述控制器开启光源402;当值GEX小于一低临界值时,意味着深度图产生装置100所处环境的亮度够亮,所以所述控制器关闭光源402,其中所述高临界值大于所述低临界值。另外,当值GEX的一最大值(对应图像获取器102的最大曝光时间与最大增益)都无法大于所述高临界值时,所述控制器会根据深度图产生装置100所处环境的目前亮度,开启光源402。
当光源402是根据深度图DP1的质量开启时,所述控制器可根据对应深度图DP1内具有无效值的像素数目和对应深度图DP1的平滑度的其中至少一项,判断深度图DP1的质量。例如,在本发明的一实施例中,所述控制器可根据式(3)所产生的成本值COST,决定是否开启光源402:
COST=a*mean(HPF(x))+b*invalid_cnt(x) (3)
其中HPF(x)为对应一高通滤波器的响应(因为深度图DP1的平滑度是有关深度图DP1的高频区域),mean(HPF(x))为对应所述高通滤波器的响应的平均值(但在本发明的另一实施例中,mean(HPF(x))可被对应所述高通滤波器的响应的总和取代),invalid_cnt(x)为深度图DP1内具有无效值的像素数目,x为深度图DP1,以及a、b为系数。当成本值COST大于一临界值时,意味着深度图产生装置100所处环境的亮度太暗或是深度图DP1中的被摄对象无纹理,所以所述控制器开启光源402。另外,在光源402开启一预定时间后,所述控制器可尝试关闭光源402使图像获取器102获取至少一图像,然后所述控制器可根据式(3)计算出对应所述至少一图像的成本值。如果对应所述至少一图像的成本值仍然大于所述临界值,则所述控制器重新开启光源402直到所述预定时间后再次重复上述动作;如果对应所述至少一图像的成本值小于所述临界值,则所述控制器关闭光源402直到对应所述至少一图像的成本值再次大于所述临界值。
另外,所述控制器可开启与关闭光源402,并根据深度图DP1对应光源402开启与关闭时的差异,判断深度图DP1的质量。如果深度图DP1对应光源402开启与关闭时的差异小于一参考值,意味着光源402的开启与关闭并不会影响深度图DP1的质量,所以所述控制器可关闭光源402。
另外,当光源402开启后,所述控制器可根据对应图像获取器102、104所获取的多个图像的亮度和一目标值选择性地调整光源402的强度,其中所述目标值是根据一人体皮肤对光源402的发射光的反射系数而设定。例如所述控制器可根据所述多个图像产生对应所述多个图像的亮度分布图,以及根据所述亮度分布图中大于所述目标值的至少一亮度值中的最大亮度值所在的面积占所述深度信息的百分比,选择性地调整光源402的强度。另外,在本发明的另一实施例中,所述控制器是根据所述多个图像产生对应所述多个图像的平均亮度,以及根据所述平均亮度和所述目标值,选择性地调整光源402的强度。另外,在本发明的另一实施例中,所述控制器是根据所述多个图像产生对应于所述多个图像的多个像素的亮度直方图,以及根据所述亮度直方图的中位数和所述目标值或所述亮度直方图的四分位数和所述目标值,选择性地调整光源402的强度。
另外,在本发明的另一实施例中,当光源402开启后,所述控制器可根据所述多个图像中的至少一预定对象与图像获取器102(或图像获取器104,或图像获取器106)之间的距离和一第一查阅表,选择性地动态调整光源402的强度,其中所述第一查阅表储存对象距离与光源402的强度之间的关系。另外,在本发明的另一实施例中,所述控制器是根据所述多个图像中的至少一预定对象与图像获取器102(或图像获取器104,或图像获取器106)之间的距离和一第一相关公式,选择性地动态调整光源402的强度。
另外,在本发明的另一实施例中,所述控制器一直侦测在光源402关闭的情况下深度图产生装置100所处环境的亮度,当所述环境的亮度越亮时,则根据一第二查阅表增加光源402开启时的强度,其中所述第二查阅表储存光源402开启时的强度与所述环境的亮度之间的关系。另外,在本发明的另一实施例中,当所述环境的亮度越亮时,所述控制器是根据一第二相关公式增加光源402开启时的强度。
另外,在本发明的另一实施例中,所述控制器先关闭光源402后,侦测所述环境的亮度。然后根据本技术领域的技术人员所公知的自动曝光(AE)算法,利用图像获取器102(或图像获取器104,或图像获取器106)的曝光时间(或快门时间、曝光时间和ISO感亮度(增益)的其中至少一项)将所述环境的亮度降低至不会干扰图像获取器102(或图像获取器104,或图像获取器106),并固定当下的图像获取器102(或图像获取器104)的曝光时间。然后所述控制器开启光源402并侦测光源402的强度直到所述目标值。
另外,在本发明的另一实施例中,深度图也可以是藉由搜寻同一方向来产生。对于所述第二图像获取对而言,深度图产生器108在图像获取器104、106所获取的图像内容中的搜寻方向仍是以图像获取器104的图像内容为基准在图像获取器106所获取的图像内容中向左方搜寻以产生深度图DP1(如图2A所示);对于所述第一图像获取对而言,深度图产生器108先镜像图像获取器102、104所获取的图像,然后深度图产生器108在对应图像获取器102、104所获取的图像的镜像图像内容中的搜寻方向为以图像获取器104的镜像图像内容为基准在图像获取器102的镜像图像内容中向左方搜寻以产生一镜像深度图MDP2(如图6所示),其中镜像深度图MDP2中也具有有关对象103的区域1038,且镜像深度图MDP2中也有对应深度图DP1的遮蔽区ODP1的一镜像有效区MVDP。在对遮蔽区ODP1进行校正之前,为了使对象103在镜像深度图MDP2和深度图DP1中的坐标能够一致,深度图产生器108必须先镜像镜像深度图MDP2以产生深度图DP2(如图2B所示),然后即可利用深度图DP2的区域VDP的深度信息取代深度图DP1的遮蔽区ODP1。
另外,深度图产生器108可以是一具有上述深度图产生器108的功能的现场可编程门阵列(Field Programmable Gate Array,FPGA),或是一具有上述深度图产生器108的功能的专用集成电路(Application-specific integrated circuit,ASIC)或是一具有上述深度图产生器108的功能的软件模块。
另外,在本发明的另一实施例中,如果所述第一图像获取对(图像获取器102、104所组成)的图像获取器102相对于一对象的视野被一第一对象遮蔽,则对应所述第一图像获取对的第一深度图中关于所述对象的深度信息将包括一第一遮蔽区及一第一非遮蔽区,且所述第一遮蔽区的深度信息为所述第一深度图的一无效区;如果所述第二图像获取对(图像获取器104、106所组成)的图像获取器106相对于所述对象的视野被一第二对象遮蔽,则对应所述第二图像获取对的第二深度图中关于所述对象的深度信息将包括一第二遮蔽区及一第二非遮蔽区,且所述第二遮蔽区的深度信息为所述第二深度图的一无效区。因此,当所述第一非遮蔽区为所述第一深度图中对应所述第二遮蔽区的有效区以及所述第二非遮蔽区为所述第二深度图中对应所述第一遮蔽区的有效区时,深度图产生器108可根据所述第一非遮蔽区以及所述第二非遮蔽区分别校正(例如取代)所述第二遮蔽区以及所述第一遮蔽区。
另外,请参照图7,图7是本发明的第二实施例所公开的一种可校正遮蔽区的深度图产生装置700的示意图,其中深度图产生装置700包含二图像获取器102、106、一光源702和一深度图产生器108。但本发明并不受限于深度图产生装置700只包含二图像获取器104、106,也就是说深度图产生装置700也可包含三个以上的图像获取器。另外,光源702分别和图像获取器102、106形成二图像获取对,其中光源702和图像获取器102为一第一图像获取对以及光源702和图像获取器106为一第二图像获取对。如图7所示,光源702和图像获取器102之间具有第一基线BL1以及光源702和图像获取器106之间具有第二基线BL2。图7深度图产生器108电连接图像获取器102、106,用以根据所述第一图像获取对以及所述第二图像获取对中每一图像获取对所获取的包含所述结构光的图像产生对应所述每一图像获取对的一深度图,也就是说深度图产生器108将会产生对应所述第一图像获取对以及所述第二图像获取对的二深度图。因此,当对应所述第一图像获取对的深度图出现一遮蔽区以及对应所述第二图像获取对的深度图没有任何遮蔽区时,或者是当对应第一图像获取对的深度图和对应所述第二图像获取对的深度图分别在不同区域出现遮蔽区时,深度图产生装置700的深度图产生器108即可参照上述深度图产生装置100的深度图产生器108的操作原理来对遮蔽区进行校正,在此不再赘述。另外,光源702的操作原理也可参照光源402的操作原理,在此也不再赘述。
另外,请参照图8,图8是本发明的第三实施例所公开的一种可校正遮蔽区的深度图产生装置800的示意图,其中深度图产生装置800包含二图像获取器102、104、光源702和深度图产生器108。但本发明并不受限于深度图产生装置800只包含二图像获取器102、104,也就是说深度图产生装置800可包含三个以上的图像获取器。另外,图像获取器102、104形成一第一图像获取对以及光源702和图像获取器104形成一第二图像获取对。如图8所示,图像获取器102、104之间具有第一基线BL1以及光源702和图像获取器104之间具有第二基线BL2。如图8所示,深度图产生器108电连接图像获取器102、104,用以根据所述第一图像获取对所获取的图像以及所述第二图像获取对所获取的包含所述结构光的图像产生对应所述第一图像获取对以及所述第二图像获取对的二深度图。因此,深度图产生装置800的深度图产生器108即可参照上述深度图产生装置100的深度图产生器108的操作原理,从而对深度图中出现遮蔽区的状况进行校正,在此不再赘述。
另外,请参照图9,图9是本发明的第四实施例所公开的一种可校正遮蔽区的深度图产生装置900的示意图,其中深度图产生装置900包含图像获取器102、104、105、106、107和深度图产生器108。但本发明并不受限于深度图产生装置900只包含图像获取器102、104、105、106、107。如图9所示,图像获取器104、106形成一第一图像获取对、图像获取器104、107形成一第二图像获取对、图像获取器104、102形成一第三图像获取对以及图像获取器104、105形成一第四图像获取对,且在本发明的第四实施例中是以所述第一图像获取对为基准为例。因此,如果对应所述第一图像获取对的深度图出现一遮蔽区以及对应所述第二图像获取对的深度图没有任何遮蔽区时,深度图产生器108必须以所述第一图像获取对为基准先对对应所述第二图像获取对的深度图执行所述几何校正,也就是说所述第二图像获取对会先被几何转换为深度图产生器108能产生深度图的状态,在深度图产生器108产生对应所述第二图像获取对的第二深度图后,深度图产生器108会再旋转(例如旋转90o)所述第二深度图,使对应所述第二图像获取对的基线平行对应所述第一图像获取对的基线。同理如果对应所述第一图像获取对的深度图出现所述遮蔽区以及对应所述第三图像获取对的深度图没有任何遮蔽区时,深度图产生器108必须以所述第一图像获取对为基准先对对应所述第三图像获取对的深度图执行所述几何校正,也就是说所述第三图像获取对会先几何转换为深度图产生器108能产生深度图的状态,在深度图产生器108产生对应所述第三图像获取对的第三深度图后,深度图产生器108会再旋转(例如旋转180o)所述第三深度图使对应所述第三图像获取对的基线至平行对应所述第一图像获取对的基线。但在本发明的另一实施例中,深度图产生器108也可先镜像对应所述第三图像获取对的深度图来达到几何校正的效果,其中镜像图像的做法与图6所示的实施例类似,在此不再赘述。另外,所述第四图像获取对的操作原理可参照上述所述第二图像获取对的操作原理的操作原理,在此不再赘述。另外,深度图产生装置900的深度图产生器108执行上述所述几何校正后,深度图产生装置900的深度图产生器108的其余操作原理可参照上述深度图产生装置100的深度图产生器108的操作原理,在此不再赘述。
另外,请参照图10,图10是本发明的第五实施例所公开的一种可校正遮蔽区的深度图产生装置1000的示意图,其中深度图产生装置1000包含图像获取器102、104、106、107和深度图产生器108。但本发明并不受限于深度图产生装置1000只包含图像获取器102、104、106、107。如图10所示,图像获取器104、102形成一第一图像获取对、图像获取器104、106形成一第二图像获取对以及图像获取器104、107形成一第三图像获取对。因此,当对应所述第一图像获取对的深度图出现一遮蔽区以及对应所述第二图像获取对的深度图没有任何遮蔽区时,深度图产生装置1000的深度图产生器108可参照上述深度图产生装置100的深度图产生器108的操作原理来对遮蔽区进行校正。另外,如图10所示,深度图产生器108可另用以融合对应所述第二图像获取对的深度图以及对应所述第三图像获取对的深度图以产生一融合深度图,其中对应所述第二图像获取对的深度图以及对应所述第三图像获取对的深度图具有不同特性。例如,因为第二图像获取对的基线不等于第三图像获取对的基线,所以对应所述第二图像获取对的深度图的工作范围也不等于对应所述第三图像获取对的深度图的工作范围。因此,深度图产生器108可融合对应所述第二图像获取对的深度图的工作范围以及对应所述第三图像获取对的深度图的工作范围以产生所述融合深度图。
另外,请参照图11,图11是本发明的第六实施例所公开的一种可校正遮蔽区的深度图产生装置1100的示意图,其中深度图产生装置1000包含图像获取器102、104、105、106、107和深度图产生器108。但本发明并不受限于深度图产生装置1100只包含图像获取器102、104、105、106、107。如图11所示,图像获取器104、102形成一第一图像获取对、图像获取器104、105形成一第二图像获取对,图像获取器104、106形成一第三图像获取对,以及图像获取器104、107形成一第四图像获取对,其中所述第一图像获取对和所述第二图像获取对隶属于一第一组图像获取对,以及所述第三图像获取对和所述第四图像获取对隶属于一第二组图像获取对。在本发明的第六实施例中,深度图产生器108可先融合对应所述第一组图像获取对的深度图以产生一第一融合深度图以及融合对应所述第二组图像获取对的深度图以产生一第二融合深度图,其中所述第一融合深度图的质量较对应所述第一图像获取对的深度图的品质和对应所述第二图像获取对的深度图的质量佳,以及所述第二融合深度图的质量较对应所述第三图像获取对的深度图的品质和对应所述第四图像获取对的深度图的品质佳。如果所述第一融合深度图出现一第一遮蔽区及一第一非遮蔽区时,深度图产生器108可根据上述深度图产生装置100的深度图产生器108的操作原理,利用所述第二融合深度图中对应所述第一遮蔽区的有效区的深度信息校正所述第一遮蔽区。
综上所述,本发明所公开的可校正遮蔽区的深度图产生装置是当所述深度图产生器所产生的对应至少二图像获取对的至少二深度图中的一第一深度图出现至少一遮蔽区时,利用所述至少二深度图中的第二深度图内的一相对应有效区校正(或取代)所述至少一遮蔽区。因此,相较于现有技术,因为本发明是利用第二图像获取对中视野未被遮蔽的图像获取器来取得对象的深度信息,所以本发明可有效解决一深度图出现遮蔽区的问题。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (15)
1.一种可校正遮蔽区的深度图产生装置,其特征在于包含:
至少二图像获取对,用以获取多个图像;及
一深度图产生器,耦接于所述至少二图像获取对,用以根据所述多个图像产生一第一深度图以及一第二深度图,其中当所述第一深度图包括一第一遮蔽区及一第一非遮蔽区时,所述深度图产生器根据所述第二深度图校正所述第一遮蔽区。
2.如权利要求1所述的深度图产生装置,其特征在于:所述第一深度图对应所述至少二图像获取对中的一第一图像获取对,所述第二深度图对应所述至少二图像获取对中的一第二图像获取对,且所述第一图像获取对和所述第二图像获取对都包括一第一图像获取器。
3.如权利要求2所述的深度图产生装置,其特征在于:所述第一图像获取对的一第一基线的长度等于所述第二图像获取对的一第二基线的长度。
4.如权利要求2所述的深度图产生装置,其特征在于:当所述第一图像获取对的一第一基线的长度不等于所述第二图像获取对的一第二基线的长度时,所述深度图产生器更对所述第二深度图执行一正规化动作,以使所述第一深度图和所述第二深度图的视差互相匹配。
5.如权利要求2所述的深度图产生装置,其特征在于:当所述第一图像获取对的一第一基线和所述第二图像获取对的一第二基线不互相平行时,所述深度图产生器更对所述第一深度图和所述第二深度图的其中至少一执行几何校正。
6.如权利要求5所述的深度图产生装置,其特征在于:所述几何校正是一旋转校正。
7.如权利要求2所述的深度图产生装置,其特征在于:所述第一图像获取对的一第二图像获取器相对于一对象的视野被一第一对象遮蔽,使所述第一深度图中关于所述对象的深度信息包含所述第一遮蔽区及所述第一非遮蔽区,且所述第一遮蔽区的深度信息为一无效区;而所述第二图像获取对中的一第三图像获取器相对于所述对象的视野没有被所述第一对象遮蔽,且所述深度图产生器据以根据所述第二深度图中所述对象的深度信息校正所述第一遮蔽区。
8.如权利要求2所述的深度图产生装置,其特征在于:所述第一图像获取对的一第二图像获取器相对于一对象的视野被一第一对象遮蔽,使所述第一深度图中关于所述对象的深度信息包含所述第一遮蔽区及所述第一非遮蔽区,且所述第一遮蔽区的深度信息为一无效区;所述第二图像获取对中的一第三图像获取器相对于所述对象的视野被一第二对象遮蔽,使所述第二深度图中关于所述对象的深度信息包含一第二遮蔽区及一第二非遮蔽区,且所述第二遮蔽区的深度信息为一无效区;所述深度图产生器据以根据所述第一非遮蔽区以及所述第二非遮蔽区分别校正所述第二遮蔽区以及所述第一遮蔽区。
9.如权利要求1所述的深度图产生装置,其特征在于:所述至少二图像获取对中的每一图像获取对是由二图像获取器所组成或由一图像获取器及一光源所组成。
10.如权利要求9所述的深度图产生装置,其特征在于:所述光源用以发出结构光。
11.一种可校正遮蔽区的深度图产生装置,其特征在于包含:
一图像获取模块,包含至少二图像获取对,且所述至少二图像获取对中的每一图像获取对是由二图像获取器所组成或由一图像获取器及一光源所组成;及
一深度图产生器,耦接于所述图像获取模块,用以当所述深度图产生器所产生的对应所述至少二图像获取对的至少二深度图中的一第一深度图出现一遮蔽区及一非遮蔽区时,利用所述至少二深度图中的一第二深度图校正所述遮蔽区。
12.如权利要求11所述的深度图产生装置,其特征在于:所述光源用以发出一结构光,且当所述至少二图像获取对中的至少一图像获取对是由所述图像获取器及所述光源所组成时,所述至少一图像获取对是用以获取包含所述结构光的图像。
13.如权利要求11所述的深度图产生装置,其特征在于:所述遮蔽区是一对象被另一对象遮蔽而在所述第一深度图中形成的无效区。
14.一种可校正遮蔽区的深度图产生装置,其特征在于包含:
至少二图像获取对,用以获取多个图像;及
一深度图产生器,耦接于所述至少二图像获取对,用以根据所述多个图像产生一第一深度图以及一第二深度图,其特征在于:所述深度图产生器另用以执行根据所述第二深度图校正所述第一深度图的一遮蔽区和融合所述第一深度图和所述第二深度图以产生一融合深度图的至少其中之一。
15.一种可校正遮蔽区的深度图产生装置,其特征在于包含:
二组图像获取对,分别用以获取多个第一图像与多个第二图像;及
一深度图产生器,耦接于所述二组图像获取对,用以根据所述多个第一图像与所述多个第二图像产生多个第一深度图以及多个第二深度图,并分别融合所述多个第一深度图以及所述多个第二深度图以产生一第一融合深度图和一第二融合深度图;
其中当所述第一深度图包括一第一遮蔽区及一第一非遮蔽区时,所述深度图产生器另用以根据所述第二融合深度图校正所述第一遮蔽区。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762479331P | 2017-03-31 | 2017-03-31 | |
US62/479,331 | 2017-03-31 | ||
US201762549967P | 2017-08-25 | 2017-08-25 | |
US62/549,967 | 2017-08-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108696739A true CN108696739A (zh) | 2018-10-23 |
CN108696739B CN108696739B (zh) | 2023-04-07 |
Family
ID=63790485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810274283.7A Active CN108696739B (zh) | 2017-03-31 | 2018-03-29 | 可校正遮蔽区的深度图产生装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11122247B2 (zh) |
CN (1) | CN108696739B (zh) |
TW (1) | TWI672938B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109842791A (zh) * | 2019-01-15 | 2019-06-04 | 浙江舜宇光学有限公司 | 一种图像处理方法及装置 |
WO2021093804A1 (zh) * | 2019-11-14 | 2021-05-20 | 南京深视光点科技有限公司 | 全向立体视觉的摄像机配置系统及摄像机配置方法 |
TWI804850B (zh) * | 2020-04-16 | 2023-06-11 | 鈺立微電子股份有限公司 | 多深度資訊之融合方法與融合系統 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11450018B1 (en) | 2019-12-24 | 2022-09-20 | X Development Llc | Fusing multiple depth sensing modalities |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101321299A (zh) * | 2007-06-04 | 2008-12-10 | 华为技术有限公司 | 视差生成方法、生成单元以及三维视频生成方法及装置 |
US20090244090A1 (en) * | 2006-01-24 | 2009-10-01 | Li Zhang | Systems, methods, and media for capturing scene images and depth geometry and generating a compensation image |
CN102077244A (zh) * | 2008-06-24 | 2011-05-25 | 法国电信公司 | 用于在基于至少两个图像而估算的深度图或视差图的掩蔽域中进行填充的方法和装置 |
CN102572465A (zh) * | 2010-12-22 | 2012-07-11 | 索尼公司 | 用于使用深度图信息的多视图像生成的装置和方法 |
TW201327474A (zh) * | 2011-12-30 | 2013-07-01 | Nat Univ Chung Cheng | 視差估計深度產生方法 |
CN103299619A (zh) * | 2010-09-14 | 2013-09-11 | 汤姆逊许可公司 | 遮挡数据的压缩方法和装置 |
US20150170370A1 (en) * | 2013-11-18 | 2015-06-18 | Nokia Corporation | Method, apparatus and computer program product for disparity estimation |
CN105007475A (zh) * | 2014-04-17 | 2015-10-28 | 聚晶半导体股份有限公司 | 产生深度信息的方法与装置 |
CN105809667A (zh) * | 2015-01-21 | 2016-07-27 | 瞿志行 | 扩充实境中基于深度摄影机的遮蔽效果优化方法 |
TWI567693B (zh) * | 2016-05-17 | 2017-01-21 | 緯創資通股份有限公司 | 產生深度資訊的方法及其系統 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7769205B2 (en) * | 2006-11-28 | 2010-08-03 | Prefixa International Inc. | Fast three dimensional recovery method and apparatus |
IL191615A (en) * | 2007-10-23 | 2015-05-31 | Israel Aerospace Ind Ltd | A method and system for producing tie points for use in stereo adjustment of stereoscopic images and a method for identifying differences in the landscape taken between two time points |
US9684953B2 (en) * | 2012-02-27 | 2017-06-20 | Eth Zurich | Method and system for image processing in video conferencing |
CN107346061B (zh) * | 2012-08-21 | 2020-04-24 | 快图有限公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
US9430834B2 (en) * | 2014-01-20 | 2016-08-30 | Nokia Corporation | Visual perception matching cost on binocular stereo images |
US9519956B2 (en) * | 2014-02-28 | 2016-12-13 | Nokia Technologies Oy | Processing stereo images |
EP3286914B1 (en) * | 2015-04-19 | 2019-12-25 | FotoNation Limited | Multi-baseline camera array system architectures for depth augmentation in vr/ar applications |
US9674504B1 (en) * | 2015-12-22 | 2017-06-06 | Aquifi, Inc. | Depth perceptive trinocular camera system |
WO2017107192A1 (en) * | 2015-12-25 | 2017-06-29 | Boe Technology Group Co., Ltd. | Depth map generation apparatus, method and non-transitory computer-readable medium therefor |
TWI595771B (zh) * | 2016-10-20 | 2017-08-11 | 聚晶半導體股份有限公司 | 影像深度資訊的優化方法與影像處理裝置 |
US10116915B2 (en) * | 2017-01-17 | 2018-10-30 | Seiko Epson Corporation | Cleaning of depth data by elimination of artifacts caused by shadows and parallax |
US10482618B2 (en) * | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
-
2018
- 2018-01-08 TW TW107100670A patent/TWI672938B/zh active
- 2018-03-27 US US15/936,468 patent/US11122247B2/en active Active
- 2018-03-29 CN CN201810274283.7A patent/CN108696739B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090244090A1 (en) * | 2006-01-24 | 2009-10-01 | Li Zhang | Systems, methods, and media for capturing scene images and depth geometry and generating a compensation image |
CN101321299A (zh) * | 2007-06-04 | 2008-12-10 | 华为技术有限公司 | 视差生成方法、生成单元以及三维视频生成方法及装置 |
CN102077244A (zh) * | 2008-06-24 | 2011-05-25 | 法国电信公司 | 用于在基于至少两个图像而估算的深度图或视差图的掩蔽域中进行填充的方法和装置 |
CN103299619A (zh) * | 2010-09-14 | 2013-09-11 | 汤姆逊许可公司 | 遮挡数据的压缩方法和装置 |
CN102572465A (zh) * | 2010-12-22 | 2012-07-11 | 索尼公司 | 用于使用深度图信息的多视图像生成的装置和方法 |
TW201327474A (zh) * | 2011-12-30 | 2013-07-01 | Nat Univ Chung Cheng | 視差估計深度產生方法 |
US20150170370A1 (en) * | 2013-11-18 | 2015-06-18 | Nokia Corporation | Method, apparatus and computer program product for disparity estimation |
CN105007475A (zh) * | 2014-04-17 | 2015-10-28 | 聚晶半导体股份有限公司 | 产生深度信息的方法与装置 |
CN105809667A (zh) * | 2015-01-21 | 2016-07-27 | 瞿志行 | 扩充实境中基于深度摄影机的遮蔽效果优化方法 |
TWI567693B (zh) * | 2016-05-17 | 2017-01-21 | 緯創資通股份有限公司 | 產生深度資訊的方法及其系統 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109842791A (zh) * | 2019-01-15 | 2019-06-04 | 浙江舜宇光学有限公司 | 一种图像处理方法及装置 |
CN109842791B (zh) * | 2019-01-15 | 2020-09-25 | 浙江舜宇光学有限公司 | 一种图像处理方法及装置 |
WO2021093804A1 (zh) * | 2019-11-14 | 2021-05-20 | 南京深视光点科技有限公司 | 全向立体视觉的摄像机配置系统及摄像机配置方法 |
TWI804850B (zh) * | 2020-04-16 | 2023-06-11 | 鈺立微電子股份有限公司 | 多深度資訊之融合方法與融合系統 |
Also Published As
Publication number | Publication date |
---|---|
TWI672938B (zh) | 2019-09-21 |
CN108696739B (zh) | 2023-04-07 |
TW201843997A (zh) | 2018-12-16 |
US20180302606A1 (en) | 2018-10-18 |
US11122247B2 (en) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108696739A (zh) | 可校正遮蔽区的深度图产生装置 | |
CN104637064B (zh) | 一种基于边缘强度权重的离焦模糊图像清晰度检测方法 | |
CN105209956B (zh) | 标本观察装置和标本观察方法 | |
TW201837860A (zh) | 用以融合多深度圖的深度圖產生裝置 | |
CN110140348A (zh) | 摄像装置及摄像模块 | |
JP6695440B2 (ja) | 深度感知システム | |
JP5362405B2 (ja) | 瞳孔計測装置、瞳孔計測方法ならびに瞳孔計測プログラム | |
CN109716265A (zh) | 基于注视和扫视的图形操纵 | |
WO2021108129A1 (en) | Using machine learning to selectively overlay image content | |
McCann et al. | Contributions of monocular and binocular cues to distance discrimination in natural scenes | |
CN106226033B (zh) | 检测透光基板透过率的方法及装置 | |
WO2021230944A1 (en) | Gradual fallback from full parallax correction to planar reprojection | |
CN104184936B (zh) | 基于光场相机的影像对焦处理方法及其系统 | |
CN109741414A (zh) | 一种场景中半透明物体的渲染方法、装置及电子设备 | |
WO2011039954A1 (en) | Information processing apparatus, method, and program | |
CN104159102A (zh) | 灰阶画面检测方法及检测装置 | |
CN205722114U (zh) | 一种光学特征检测装置和纸币鉴伪装置 | |
CN115825597A (zh) | 基于计算机视觉的电磁敏感性测试方法 | |
Zeiner et al. | Linking luminance and lightness by global contrast normalization | |
CN106352847B (zh) | 基于相位差的距离测量装置及距离测量方法 | |
Rizzi et al. | Visual glare limits of HDR displays in medical imaging | |
CN110602478A (zh) | 一种三维显示装置及系统 | |
CN107346578A (zh) | 光学防伪特征检测方法及装置 | |
CN107305715A (zh) | 一种纸币鉴伪装置 | |
US20240007759A1 (en) | Video user interface and method for use in determining depth information relating to a scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |