[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101625830B1 - Method and device for generating a depth map - Google Patents

Method and device for generating a depth map Download PDF

Info

Publication number
KR101625830B1
KR101625830B1 KR1020117012662A KR20117012662A KR101625830B1 KR 101625830 B1 KR101625830 B1 KR 101625830B1 KR 1020117012662 A KR1020117012662 A KR 1020117012662A KR 20117012662 A KR20117012662 A KR 20117012662A KR 101625830 B1 KR101625830 B1 KR 101625830B1
Authority
KR
South Korea
Prior art keywords
depth
depth map
image
map
generating
Prior art date
Application number
KR1020117012662A
Other languages
Korean (ko)
Other versions
KR20110093829A (en
Inventor
바르트 헤. 베. 바렌부르흐
Original Assignee
코닌클리케 필립스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 엔.브이. filed Critical 코닌클리케 필립스 엔.브이.
Publication of KR20110093829A publication Critical patent/KR20110093829A/en
Application granted granted Critical
Publication of KR101625830B1 publication Critical patent/KR101625830B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 단안 정보를 이용하여 이미지에 대한 깊이 맵을 생성하기 위한 디바이스 및 방법(100)에 관한 것이며, 상기 방법은 이미지(205)에 대한 제 1 깊이 맵을 생성하는 단계(110)로서, 제 1 깊이 맵은 이미지에 도시된 장면의 글로벌 깊이 프로파일(global depth profile)의 추정치에 대응하는, 상기 제 1 깊이 맵을 생성하는 단계; 이미지에 대한 제 2 깊이 맵을 생성하는 단계(120)로서, 제 2 깊이 맵의 화소와 연관된 깊이 값은 화소와 공간적으로 근사한 영역 내의 제 1 깊이 맵의 깊이 값들 및 영역 내의 이미지의 색 및 휘도 값들 중 적어도 하나에 기초하는, 상기 제 2 깊이 맵을 생성하는 단계; 및 제 1 깊이 맵 및 제 2 깊이 맵으로부터의 깊이 값들을 이용하여 이미지에 대한 제 3 깊이 맵을 생성하는 단계(130) 포함하고, 상기 생성은 제 3 및 제 1 깊이 맵의 깊이 값 간의 차이가 제 2 및 제 1 깊이 맵의 깊이 값간의 대응하는 차이와 비교하여 스케일링되도록 깊이 차이를 스케일링한다. 본 발명은 또한 본 발명에 따른 방법을 실행하는데 이용하기 위한 컴퓨터 프로그램 제품에 관한 것이다.The present invention relates to a device and method (100) for generating a depth map for an image using monocular information, the method comprising generating (110) a first depth map for an image (205) The one depth map corresponding to an estimate of a global depth profile of the scene depicted in the image; 1. A method (120) for generating a second depth map for an image, the depth value associated with a pixel in a second depth map including depth values of a first depth map in a region spatially near the pixel and color and luminance values Generating the second depth map based on at least one of the first depth map and the second depth map; And generating (130) a third depth map for the image using depth values from the first depth map and the second depth map, wherein the generating includes generating a difference between depth values of the third and first depth maps, And the depth values of the second and first depth maps. The present invention also relates to a computer program product for use in implementing the method according to the invention.

Description

깊이 맵을 생성하기 위한 방법 및 디바이스{METHOD AND DEVICE FOR GENERATING A DEPTH MAP}METHOD AND DEVICE FOR GENERATING A DEPTH MAP "

본 발명은 단안 정보(monocular information)를 이용하여 이미지에 대한 깊이 맵을 생성하기 위한 방법 및 디바이스, 단안 정보를 이용하여 이미지에 대한 깊이 맵을 생성하기 위한 컴퓨터 판독가능한 매체 상의 컴퓨터 프로그램 제품에 관한 것이다. The present invention relates to a method and a device for generating a depth map for an image using monocular information, and a computer program product on a computer readable medium for generating a depth map for an image using monocular information .

지난 십여 년에 걸쳐서 상당한 양의 연구가 가정 및 그 주변에서 이용하기 위한 3D 디스플레이 기술의 실현에 기울어졌다. 그 결과, 입체 및 오토스테레오스코픽 디스플레이들의 강풍이 발생하였다. Over the past decade, a significant amount of research has focused on the realization of 3D display technology for use in and around the home. As a result, strong winds of stereoscopic and autostereoscopic displays occurred.

스테레오스코픽 디스플레이들에서, 관람자의 눈들은 일반적으로 예를 들면, 관람자들 사이에 위치한 안경들 또는 포일들(foils) 및 시간-멀티플렉싱된 또는 동시적인 방식으로(예를 들면, 스펙트럼 분리를 통해), 관람자의 좌안에 대한 좌안 이미지 및 관람자의 우안에 대한 우안 이미지로 지향되는 디스플레이에 의해 도움을 받는다. 일반적으로, 이용자들은 성가시게 착용 안경들을 찾고, 오토스테레오스코픽 디스플레이들은 유사하게 상당한 주의를 받는다. 오토스테레오스코픽 디스플레이들, 종종 다중-뷰 디스플레이들은 일반적으로 다수의 가상화(관람자들에 지향된 뷰잉 콘(viewing cone)에서 멀티플렉싱되는 예를 들면, 5 내지 9 이상의 이미지들 또는 뷰들)를 허용한다. 콘으로부터의 개별적인 뷰들을 좌 및 우안으로 각각 주시함으로써 자동입체 효과가 육안에 의해 획득된다. In stereoscopic displays, the eyes of a spectator are generally represented, for example, by spectacles or foils located between spectators and in time-multiplexed or concurrent manner (e.g. via spectral separation) A left-eye image of the viewer's left eye, and a right-eye image of the viewer's right eye. In general, users find annoying wearing glasses, and autostereoscopic displays are similarly similarly cautious. Autostereoscopic displays, often multi-view displays, generally allow multiple virtualisations (eg, images or views 5 to 9 or more) that are multiplexed in viewing cones oriented to viewers. By observing the individual views from the cones with the left and right eyes respectively, the autostereoscopic effect is obtained by visual observation.

입체 디스플레이들 및 오토스테레오스코픽 디스플레이들에 대한 중요한 이슈는 콘텐트의 전달이다. 3차원 콘텐트를 디스플레이에 전달하기 위한 다양한 접근들이 알려져 있다. 이 접근들 중 일부는 모든 뷰들을 명시적으로 인코딩하는 반면, 다른 것들은 하나 또는 일부의 뷰들을 및 이 뷰들 중 하나 또는 모두에 대한 부가적인 깊이 및/또는 디스패리티 정보를 인코딩한다. 깊이 정보를 제공하는 이점은 예를 들면, 제공된 이미지들에 기초하여 부가적인 뷰들을 렌더링할 때, 3-차원 콘텐트의 조작이 용이하다는 것이다. An important issue for stereoscopic displays and autostereoscopic displays is the delivery of content. Various approaches for delivering 3D content to a display are known. Some of these approaches explicitly encode all views, while others encode one or some views and additional depth and / or disparity information for one or both of these views. An advantage of providing depth information is that, for example, when rendering additional views based on the provided images, manipulation of the three-dimensional content is easy.

이러한 깊이 정보는 예를 들면, 입체 이미지들의 디스패리티의 분석을 통해, 또는 범위 파인더들(range finders)을 이용하여 획득될 수 있지만, 이는 일반적으로 새롭게 획득된 콘텐트에 대해서만 가능하다. 또한, 입체 또는 멀티뷰 획득은 일반적으로 비용을 또한 더 들게 한다. 그 결과, 단안 이미지들, 또는 단안 이미지 시퀀스들로부터 깊이 정보의 획득에 대해 지향된 상당한 연구가 이루어졌다. 이러한 알고리즘들의 다양한 애플리케이션들(applications)은 고품질 콘텐트를 위해 완전히 자동화된 변환으로부터 이용자 원조 2D-3D 변환(user assisted 2D to 3D conversion)의 범위에 걸쳐서 고려될 수 있다. 이용자 원조 2D 내지 3D 변환의 경우에, 컴퓨터 원조 깊이 맵 생성이 상당한 시간 절약을 나타낼 수 있다. This depth information can be obtained, for example, through analysis of the disparity of stereoscopic images or using range finders, but this is generally only possible for newly acquired content. Also, stereoscopic or multi-view acquisitions generally make the cost even more expensive. As a result, considerable research has been directed towards the acquisition of depth information from monocular images, or monocular image sequences. The various applications of these algorithms can be considered from fully automated transformations for high quality content to a range of user assisted 2D to 3D conversions. In the case of a user-assisted 2D to 3D conversion, the computer-aided depth map generation can exhibit significant time savings.

단안 이미지로부터 깊이 맵을 획득하는 접근의 예는 3-차원 이미지 포착 및 애플리케이션 VI-Vol. 5302-13, SPIE 전자 이미징 2004의 회보에서 공개된 S. Battiato 등에 의한 "Depth Map Generation by Image Classification"에서 제공된다. Examples of approaches to acquiring a depth map from a monocular image are three-dimensional image acquisition and application VI-Vol. 5302-13, " Depth Map Generation by Image Classification "by S. Battiato et al., Published by SPIE Electronics Imaging 2004.

위의 논문에서, 깊이 맵은 이미지의 추정된 글로벌 깊이 프로파일(global depth profile)을 기초로 하고, 이는 차후에 이미지 구조를 포함하는 추가의 깊이 맵과 조합된다. 그러나 결과적인 조합은 최종 이미지에서 만족스런 깊이 지각을 항상 제공하는 것은 아니다. In the above paper, the depth map is based on the estimated global depth profile of the image, which is then combined with an additional depth map that includes the image structure. However, the resulting combination does not always provide a satisfactory depth perception in the final image.

이에 따라, 본 발명의 목적은 대안의 깊이 맵을 제공하는 대안의 방법을 제공하는 것이다. Accordingly, it is an object of the present invention to provide an alternative method of providing an alternative depth map.

상기는 단안 정보를 이용하여 이미지에 대한 깊이 맵을 생성하기 위한 방법에 의해 달성되고, 상기 방법은 이미지에 대한 제 1 깊이 맵을 생성하는 단계로서, 제 1 깊이 맵은 이미지에 도시된 장면의 글로벌 깊이 프로파일의 추정치에 대응하는, 상기 제 1 깊이 맵을 생성하는 단계; 이미지에 대한 제 2 깊이 맵을 생성하는 단계로서, 제 2 깊이 맵의 화소와 연관된 깊이 값은 화소와 공간적으로 근사한 영역 내의 제 1 깊이 맵의 깊이 값들 및 영역 내의 이미지의 색 및 휘도 값들 중 적어도 하나에 기초하는, 상기 제 2 깊이 맵을 생성하는 단계; 및 제 1 깊이 맵 및 제 2 깊이 맵으로부터의 깊이 값들을 이용하여 이미지에 대한 제 3 깊이 맵을 생성하는 단계를 포함하고, 상기 생성은 제 3 및 제 1 깊이 맵의 깊이 값 간의 차이가 제 2 및 제 1 깊이 맵의 깊이 값간의 대응하는 차이와 비교하여 스케일링되도록 깊이 차이를 스케일링한다.Wherein the method is achieved by a method for generating a depth map for an image using monocular information, the method comprising generating a first depth map for an image, wherein the first depth map comprises a global Generating the first depth map corresponding to an estimate of the depth profile; Wherein the depth value associated with a pixel of the second depth map is greater than the depth values of the first depth map in an area that is spatially near the pixel and at least one of the color and luminance values of the image within the area Generating the second depth map based on the second depth map; And generating a third depth map for the image using depth values from the first depth map and the second depth map, wherein the generation is such that the difference between the depth values of the third and first depth maps is greater than And the depth value of the first depth map to scale the depth difference to be scaled.

제 3 깊이 맵의 생성은 2개의 근본이 되는 깊이 맵 성분들(제 1 및 제 2 깊이 맵)에 기초하고, 양쪽 모두는 이 제 1 깊이 맵을 근본으로 하는 추정된 글로벌 깊이 프로파일을 기초로 한다. 특히, 이미지가 이미지 시퀀스로부터의 이미지일 때, 이 글로벌 깊이 프로파일은 이미지 시퀀스의 인접한 이미지들과 유사하게 되기 쉽고, 따라서, 제 3 깊이 맵의 시간적 안정성에 기여한다. The generation of the third depth map is based on the two underlying depth map components (first and second depth maps) and both are based on an estimated global depth profile based on this first depth map . In particular, when the image is an image from an image sequence, this global depth profile is likely to be similar to the neighboring images of the image sequence, thus contributing to the temporal stability of the third depth map.

이어서, 제 2 깊이 맵 생성은 글로벌 깊이 프로파일내로 로컬 구조를 효과적으로 통합한다. 제 2 깊이 맵의 생성 동안, 이미지의 휘도 및/또는 색 유사성이 깊이 값들에 할당되는데 이용된다. 그 결과, 이미지에서 유사한 색 및/또는 휘도를 갖는 오브젝트들의 깊이 값들은 국부적으로 더욱 유사하게 만들어지고, 그에 의해, 이미지에서 유사성을 갖는 구조들은 일반적으로 보다 유사하고 및 종종 글로벌 깊이 프로파일로부터 두드러지는 깊이 값들을 갖게 한다.The second depth map generation then effectively integrates the local structure into the global depth profile. During generation of the second depth map, brightness and / or color similarity of the image is used to be assigned to the depth values. As a result, the depth values of objects with similar color and / or brightness in the image are made locally more similar so that structures having similarity in the image are generally more similar and often have a depth that is noticeable from the global depth profile Values.

위에서 언급한 유사성은 색 및/또는 휘도 값들의 미리 결정된 변동 내에 있는 것으로서 정량된다는 것에 주의한다. Note that the similarity mentioned above is quantified as being within a predetermined variation of color and / or luminance values.

마지막으로 제 3 단계는 제 1 및 제 2 깊이 맵 간의 차이들의 일부를 효과적으로 스케일링하는 방식으로 생성된 제 1 및 제 2 깊이 맵을 조합한다. 본 발명에 따른 일 실시예에서, 이는 로컬 구조 및 글로벌 깊이 프로파일 간의 보다 선언적인 차이들의 도입을 허용한다. 이러한 방식으로 종종 제 1 및 제 2 깊이 맵간의 다소 미묘한 차이들이 오브젝트에 대해 개선될 수 있어서 보다 동적인 깊이 맵을 발생시킨다. 대안적으로, 제 2 깊이 맵의 로컬 구조들은 지나치게 선언적이 되는 것이 가능한데, 이 경우 0 과 1 사이의 팩터(factor)를 갖는 스케일링이 3D 시청 경험을 개선할 수 있다.Finally, the third step combines the first and second depth maps generated in a manner that effectively scales some of the differences between the first and second depth maps. In one embodiment according to the present invention, this allows the introduction of more declarative differences between the local structure and the global depth profile. In this way, some subtle differences between the first and second depth maps can often be improved for the object, resulting in a more dynamic depth map. Alternatively, the local structures of the second depth map may be overly declarative, in which case scaling with a factor between 0 and 1 may improve the 3D viewing experience.

제 2 깊이 맵의 화소에 대한 깊이 값을 생성할 때, 제 1 깊이 맵의 대응하는 화소 주위의 영역에서 제 1 깊이 맵으로부터의 깊이 값들이 이용된다는 것에 주의한다. 바람직하게는, 이러한 근사한 깊이 값들의 깊이 값들은, 예를 들면, 이미지 움직임, 로컬 에지니스(local edginess) 및/또는 근사한 텍스처의 양과 같은 다른 이미지 속성들이 또한 이용될지라도 색 및/또는 휘도 유사성에 기초하여 가중된다. 이러한 방식으로, 유사한 색 및/또는 휘도의 화소들과 연관된 깊이 값들은 덜 유사한 화소들보다 제 2 깊이 맵의 화소의 깊이 값들에 더 기여한다.Note that when generating the depth values for the pixels of the second depth map, the depth values from the first depth map are used in the area around the corresponding pixels of the first depth map. Preferably, depth values of these approximate depth values are based on color and / or luminance similarity, even if other image attributes, such as, for example, image motion, local edginess, and / . In this manner, the depth values associated with pixels of similar color and / or brightness contribute more to the depth values of the pixels of the second depth map than less similar pixels.

여기서 '근사한'은 글로벌적이 아니라 국부적을 암시하도록 의도된다. 즉 이미지 전체를 기초로 하지 않는다. 실제로 '근사한'은 종종 구멍(aperture) 내의 화소들에 관련된다. 구멍이 미리 결정된 형상 및/또는 크기를 가질 수 있지만, 예를 들면, 추가의 이미지 정보에 기초하여 구멍을 동적으로 적응시키는 것 또한 가능할 수 있다. Here, 'cool' is intended to imply local rather than global. It is not based on the whole image. Indeed, 'near' is often associated with pixels within the aperture. Although the hole may have a predetermined shape and / or size, it may also be possible to dynamically adapt the hole, for example, based on additional image information.

실시예에서, 제 1 깊이 맵은 깊이 맵 템플릿에 기초한다. 이러한 템플릿은 경사(slant) 즉, 장면의 하부의 전경으로부터 상부의 배경으로의 그레디언트(gradient)와 같은 단순한 일반적인 템플릿일 수 있다. 대안의 경사는 배경의 시작을 정의하는 일정한 수직 위치의 수평선을 포함할 수 있다. 대안적으로, 여기에 참조문헌으로 포함되고 위에서 인용된 S. Battiato에 의한 "Depth Map Generation by Image Classification"에 개시된 것과 같은 복잡한 파라미터화가능한 템플릿이 구성될 수 있다. 여기서 예는 파라미터화가능한 글로벌 깊이 프로파일이 이미지 분석에 기초하여 어떻게 구성될 수 있는지에 관해 제시된다. 일반적으로 말하자면, 깊이 맵 템플릿은 장면의 특정 형태의 깊이 프로파일의 추정치로 구성되고, 이에 따라 상당한 변동을 보여줄 수 있고; 예를 들면, 실내 대화 장면의 통상적인 깊이 프로파일 간의 차이들 또는 어안 확대(fish-eye close-up)를 고려한다.In an embodiment, the first depth map is based on a depth map template. Such a template can be a simple general template, such as a slant, i.e., a gradient from the foreground to the upper background at the bottom of the scene. An alternate slope may include a horizontal line at a constant vertical position that defines the beginning of the background. Alternatively, complex parameterizable templates such as those disclosed in "Depth Map Generation by Image Classification ", by S. Battiato, incorporated herein by reference and cited above, may be constructed. Here, an example is presented as to how a parameterizable global depth profile can be constructed based on image analysis. Generally speaking, the depth map template is made up of estimates of the depth profile of a particular type of scene, and thus can exhibit significant variations; For example, consider differences between conventional depth profiles of indoor dialogue scenes or fish-eye close-ups.

양호한 실시예에서, 제 2 깊이 맵의 생성은 이미지의 색 및 휘도 값들 중 하나 및 제 1 깊이 맵의 깊이 값들에 양방향 필터(bilateral filter)의 적용을 포함한다. 그 결과, 이미지의 단편화가 필요 없고, 동시에 이미지 내의 색 및/또는 휘도 변동들은 색 천이의 한측으로부터의 깊이 값들이 색 천이의 다른 측상의 화소들의 깊이 값들에 기여하는 것을 방지하는데 이용될 수 있다. 그 결과, 특정한 색 및/또는 휘도 유사성을 갖는 영역들에 대응하는 제 2 깊이 맵의 깊이 값들은 일반적으로 제 1 깊이 맵의 대응하는 영역들보다 더 유사한 깊이 값들을 가질 것이다. 그 결과, 오브젝트들은 글로벌 깊이 프로파일로부터 더 뚜렷하게 될 것이다. In a preferred embodiment, the generation of the second depth map comprises the application of a bilateral filter to one of the color and luminance values of the image and the depth values of the first depth map. As a result, there is no need to fragment the image, and concurrent color and / or luminance variations in the image can be used to prevent depth values from one side of the color transition from contributing to depth values of pixels on the other side of the color transition. As a result, depth values of the second depth map corresponding to regions having a particular color and / or luminance similarity will generally have depth values that are more similar than corresponding regions of the first depth map. As a result, the objects will become more pronounced from the global depth profile.

추가의 양호한 실시예에서, 제 3 깊이 맵에 대한 깊이 값은 장면의 관점(viewpoint)에 가장 근접한 깊이에 대응하는 깊이 값으로 설정되고,In a further preferred embodiment, the depth value for the third depth map is set to a depth value corresponding to the depth closest to the viewpoint of the scene,

- 상기 제 1 깊이 맵의 대응하는 깊이 값; 및- a corresponding depth value of said first depth map; And

- 상기 제 2 깊이 맵으로부터의 대응하는 깊이 값에 기초한 후보 깊이 값 중 하나로부터 선택된다. 실제로, 통상적으로 제 3 깊이 맵에 대한 깊이 값은 제 1 깊이 맵의 깊이 값 및 제 2 깊이 맵으로부터 대응하는 깊이 값에 기초한 후보 깊이 값의 최대치로 설정된다. 이 특정한 조치의 결과로서, 제 3 깊이 맵의 깊이 값들은 글로벌 깊이 프로파일 뒤에 배치되지 않을 것이다. 결과적으로, 제 2 깊이 맵에서 글로벌 깊이 프로파일의 뒤에 배치된 오브젝트들(그 일부들)은 글로벌 깊이 프로파일로 설정될 것이다. 추가의 후보 깊이 값들이 예견(envisage)된다는 것에 주의할 것이다. - a candidate depth value based on a corresponding depth value from the second depth map. In practice, the depth value for the third depth map is typically set to the maximum value of the depth value of the first depth map and the depth value of the candidate based on the corresponding depth value from the second depth map. As a result of this particular measure, the depth values of the third depth map will not be placed after the global depth profile. As a result, the objects (portions thereof) placed after the global depth profile in the second depth map will be set to the global depth profile. It will be noted that additional candidate depth values are envisaged.

유리한 실시예들에서 위에서 언급한 후보 값은 제 1 깊이 맵으로부터의 깊이 값을 제 1 깊이 맵으로부터의 깊이 값과 제 2 깊이 맵으로부터의 대응하는 깊이 값의 가중된 차이에 더한 것을 포함한다. 그 결과, 개선이 조정될 수 있고, 심지어 이용자/관람자 제어 하에서 가능하다. 대안적으로, 후보 값은 제 1 깊이 맵으로부터의 깊이 값에 공간적으로 근사한 하나 이상의 깊이 값들에 기초한 임계 깊이 값을 포함할 수 있다. 이 방식으로, 특정한 색 또는 휘도를 갖는 오브젝트들에 대한 깊이 값들이 추가로 개선될 수 있다. In advantageous embodiments, the above-mentioned candidate values include adding the depth value from the first depth map to the depth value from the first depth map and the weighted difference of the corresponding depth value from the second depth map. As a result, improvements can be coordinated and even possible under user / spectator control. Alternatively, the candidate value may include a threshold depth value based on one or more depth values that are spatially close to the depth value from the first depth map. In this way, depth values for objects with a particular color or brightness can be further improved.

실시예에서, 깊이 맵이 생성되는 이미지는 이미지 시퀀스의 부분이다. 1차 근사로서, 이미지 시퀀스는 화면들로 분할될 수 있고, 후속적으로 글로벌 깊이 프로파일은 화면의 이미지들에 기초하여 선택될 수 있다. 이러한 방식으로, 생성된 깊이 맵들의 일관성이 추가로 개선될 수 있다. In an embodiment, the image from which the depth map is generated is part of the image sequence. As a first approximation, the image sequence can be divided into screens, and subsequently the global depth profile can be selected based on images of the screen. In this way, the consistency of the generated depth maps can be further improved.

예를 들면, 파마미터화가능한 깊이 맵 텝플릿들과 특히 유리하게 조합될 수 있는 더 개선된 방법에서, 글로벌 깊이 프로파일은 화면에서 처음 및 마지막 이미지과 같이 화면의 하나 이상의 이미지에 기초하여 결정되거나, 더 큰 수의 이미지들/프레임들에 상에서 화면 내의 추가의 변동들이 존재하도록 규정된다. For example, in a further improved method that can be particularly advantageously combined with parametatable depth map tablets, the global depth profile may be determined based on one or more images of the scene, such as the first and last images on the screen, It is defined that there are additional variations in the scene on a large number of images / frames.

위의 실시예들이 특별히 유리할 수 있지만, 글로벌 깊이 프로파일이 이미지 시퀀스의 모든 이미지/프레임들을 별개로 기초하여, 또는 보다 선택적으로 이용된 마지막 글로벌 깊이 프로파일 및 현재 이미지/프레임의 평가를 통해 선택되는 실시예와 같은 추가의 실시예들을 배제하지 않는다. Although the above embodiments may be particularly advantageous, embodiments in which the global depth profile is selected based on all images / frames of the image sequence separately, or through evaluation of the last global depth profile and the current image / frame used more selectively And the like.

본 발명의 목적은 추가로 대안의 깊이 맵을 제공하는 대안의 디바이스를 제공하는 것이다. It is an object of the present invention to provide an alternative device which further provides an alternative depth map.

상기는 단안 정보를 이용하여 이미지에 대한 깊이 맵을 생성하기 위한 디바이스에 의해 달성되고, 상기 디바이스는 이미지를 수신하도록 구성된 수신 수단; 및 처리 수단)을 포함하고, 상기 처리 수단은, 이미지에 대한 제 1 깊이 맵을 생성하고(제 1 깊이 맵은 상기 이미지에 도시된 장면의 글로벌 깊이 프로파일의 추정치에 대응할 수 있음), 이미지에 대한 제 2 깊이 맵을 생성하고(제 2 깊이 맵의 화소와 연관된 깊이 값은 화소와 공간적으로 근사한 영역 내의 제 1 깊이 맵의 깊이 값들 및 영역 내의 상기 이미지의 색 및 휘도 값들 중 적어도 하나에 기초함), 및 제 1 깊이 맵 및 제 2 깊이 맵으로부터의 깊이 값들을 이용하여 이미지에 대한 제 3 깊이 맵을 생성하도록 구성되고, 상기 생성은 제 3 및 제 1 깊이 맵의 깊이 값 간의 차이가 제 2 및 제 1 깊이 맵의 깊이 값 간의 대응하는 차이와 비교하여 스케일링되도록 깊이 차이를 스케일링한다. Wherein the above is achieved by a device for generating a depth map for an image using monocular information, the device comprising: receiving means configured to receive an image; And processing means for generating a first depth map for the image, wherein the first depth map may correspond to an estimate of a global depth profile of the scene shown in the image, (A depth value associated with a pixel of the second depth map is based on at least one of depth values of a first depth map in an area that is spatially near the pixel and color and luminance values of the image in the area) And generate a third depth map for the image using depth values from the first depth map and the second depth map, the generation being such that the difference between the depth values of the third and first depth maps is greater than the second and third depth maps, And scales the depth difference to be scaled by comparing the corresponding difference between depth values of the first depth map.

상기는 추가로 단안 정보를 이용하여 이미지에 대한 깊이 맵을 생성하기 위한 컴퓨터 판독가능 매체상의 컴퓨터 프로그램 제품에 의해 달성된다. This is further achieved by a computer program product on a computer readable medium for generating a depth map for an image using monocular information.

본 발명의 상기 및 다른 양상들, 특징들 및 이점들은 이하에 기술된 실시예(들)를(을) 참조하여 명료하고 분명해질 것이다.These and other aspects, features, and advantages of the present invention will become apparent and appreciated by referring to the embodiment (s) described hereinafter.

본 발명의 실시예들은 도면들을 참조하여 예로서 기술될 것이다. Embodiments of the present invention will now be described by way of example with reference to the drawings.

도 1은 본 발명에 따른 방법의 흐름도.
도 2는 본 발명에 따른 디바이스의 블록도.
도 3a는 제 1 및 제 2 깊이 맵의 수직 횡단 부를 도시하는 도면.
도 3b는 2개의 깊이 맵들의 수직 횡단 부를 도시하는 도면.
도 3c는 3개의 깊이 맵들의 수직 횡단 부를 도시하는 도면.
도 3d는 3개의 깊이 맵들의 수직 횡단 부를 도시하는 도면.
도 4는 장면의 글로벌 깊이 프로파일의 몇 개의 추정치들을 도시하는 도면.
도 5는 본 발명에 따른 방법의 몇 개의 단계들의 출력을 도시하는 도면.
1 is a flow chart of a method according to the present invention;
2 is a block diagram of a device according to the present invention;
3A shows vertical transverse sections of first and second depth maps;
Figure 3B shows a vertical transverse section of two depth maps.
Figure 3c shows a vertical transverse section of three depth maps;
Figure 3D shows a vertical transverse section of three depth maps.
Figure 4 shows several estimates of the global depth profile of a scene.
Figure 5 shows the output of several steps of the method according to the invention.

상술한 바와 같이, 단안 정보를 이용하여 이미지에 대한 깊이 맵들의 생성은 입체 이미지들을 이용할 때보다 더 복잡하다. 입체 또는 멀티뷰 이미지들의 경우에, 종종 뷰들에 도시된 장면에 관한 깊이 정보를 획득하기 위해 장면의 각 뷰들간의 디스패리티를 이용하는 것이 가능하다. As described above, the generation of depth maps for an image using monocular information is more complicated than when using stereoscopic images. In the case of stereoscopic or multi-view images, it is often possible to use the disparity between each view of the scene to obtain depth information about the scene shown in the views.

입체 및 연장하여 멀티뷰 획득 수단이 이용가능하게 될지라도, 일반적으로 단안 획득 수단에 비하면 이러한 수단을 이용하는데 수반되는 부가적인 비용이 여전히 존재한다. 또한, 기존의 단안 콘텐트에 있어서, 이중-뷰, 즉 스테레오 또는 다중-뷰 포멧에서 종종 재포착이 가능하지 않을 수 있다. Although stereoscopic and extended multi-view acquisition means are made available, there is still an additional cost associated with using such means generally as compared to monocular acquisition means. Also, in existing monocular content, it may not be possible to often re-capture in a double-view, i.e. stereo or multi-view format.

그 결과, 단안 정보를 이용하여 이미지의 깊이 맵을 생성하기 위한 방법들에 대한 요구가 존재한다. As a result, there is a need for methods for generating a depth map of an image using monocular information.

도 1은 본 발명에 따른 방법(100)의 흐름도를 도시한다. 방법(100)은 단안 정보를 이용하여 이미지에 대한 깊이 맵을 생성하기 위한 방법을 표시한다. 방법은 이미지에 대한 제 1 깊이 맵을 생성(110)하는 제 1 단계를 포함한다. 제 1 단계 동안, 깊이 맵, 일반적으로 이미지의 모든 화소들에 대한 깊이 맵이 생성되고, 여기서 제 1 깊이 맵의 깊이 값들은 이미지에 도시된 장면의 글로벌 깊이 프로파일의 추정치에 대응한다. Figure 1 shows a flow diagram of a method 100 according to the present invention. The method 100 illustrates a method for generating a depth map for an image using monocular information. The method includes a first step of generating (110) a first depth map for an image. During the first step, a depth map, typically a depth map for all pixels of the image, is generated, wherein the depth values of the first depth map correspond to an estimate of the global depth profile of the scene shown in the image.

본원에 참조문헌으로서 포함된 ICCV 2007, 2007, 컴퓨터 비전에 관한 IEEE 11차 국제 컨퍼런스에서 V. Nedovic 등에 의한 "Depth Information by Stage Classification"에서, 5개의 글로벌 및 11개 이상의 특정 깊이 스테이지들로의 이미지들의 분류 및 이러한 깊이 스테이지로 이미지를 맵핑하는 방법이 제시되었다. 글로벌 스테이지들은 예를 들면, 풍경 화면과 같이 하늘, 배경 및 지면을 포함하는 제 1 스테이지에 대응한다. 제 2 스테이지는 통상적으로 실내 장면들에 적합한 박스(box)를 포함한다. 코너 스테이지(corner stage)라 칭하는 제 3 스테이지는 통상적으로 실내 장면들에 적합하다. 배경 앞의 한 명 이상의 사람들을 위한 제 4 스테이지 및 마지막으로 제 5 스테이지는 깊이를 갖지 않는 장면들을 포함한다.In " Depth Information by Stage Classification " by V. Nedovic et al. At IEEE 11th International Conference on Computer Vision, ICCV 2007, 2007, incorporated herein by reference, images of five global and eleven or more specific depth stages And a method of mapping images to these depth stages has been proposed. The global stages correspond, for example, to a first stage that includes sky, background, and ground, such as a landscape screen. The second stage typically includes a box suitable for indoor scenes. A third stage, called a corner stage, is typically suitable for indoor scenes. The fourth stage for one or more people in the background and finally the fifth stage include scenes that do not have depth.

위의 논문에서 이용된 분류가 특히 유리하지만, 소모적이지 않고 숙련자에 의해 쉽게 확장될 수 있다는 점에 주의해야 한다. 예를 들면, 논문에 제시된 모델은 어안 렌즈를 이용해서 만들어진 마이크로 화면에 대응하는 글로벌 깊이 프로파일을 제공하지 않는다. It should be noted that the classification used in the above paper is particularly advantageous, but not expended, and can easily be extended by the skilled person. For example, the model presented in the paper does not provide a global depth profile corresponding to micro-screens created using fisheye lenses.

도 4는 일정한 이미지들에 대해 이용될 수 있는 글로벌 깊이 프로파일의 깊이 맵들의 몇 개의 예들을 제공한다. 여기서, 이미지(410)은 이미지 상부의 배경으로의 하부의 전경의 그레디언트(gradient)를 제공한다. 일반적으로 수평을 검출하고 이어서 배경에서 수평 위에 모든 픽셀들을 배치함으로써 프로파일을 정제하는데 이러한 프로파일을 이용할 때 유리할 수 있다는 것은 당업자에게 자명할 것이다. 대안적으로, 더 불길한 구름들을 갖는 풍경을 생성하는데 유리할 수 있다. 후자의 경우에, 2개의 수직 그레디언트들을 포함하는 이미지(420)가 이용될 수 있다. 그 결과, 이미지의 상부에 위치한 구름들은 수평에 있는 것보다 시청자에게 더 가깝게 위치한다. Figure 4 provides several examples of depth maps of the global depth profile that can be used for certain images. Here, the image 410 provides a gradient of the foreground of the lower portion to the background of the upper portion of the image. It will be apparent to those skilled in the art that it may be advantageous to use this profile to refine the profile by generally detecting the horizontal and then placing all pixels horizontally above the background. Alternatively, it may be advantageous to create a landscape with more ominous clouds. In the latter case, an image 420 containing two vertical gradients can be used. As a result, clouds at the top of the image are positioned closer to the viewer than they are at the horizon.

이번에, 이미지(440)은 백색 중앙을 갖고 이미지의 에지를 향해 어두워지는 원들을 갖는 원형 그레디언트로 구성된 어안 마이크로-화면을 위한 글로벌 깊이 프로파일에 대한 깊이 맵을 도시한다. 그 결과, 이미지의 중앙은 가장 근접하고, 이미지의 에지들은 이미지가 주시되는 시점으로부터 물러나서 가장 멀다. 마지막으로, 이미지(450)은 앞에서 관측된 장면과 유사한 단순한 박스를 위한 깊이 맵을 제공한다. This time, the image 440 shows a depth map for a global depth profile for a fisheye micro-picture comprising a circular gradient with circles having white center and darkening towards the edge of the image. As a result, the center of the image is closest, and the edges of the image are farthest away from the point of view of the image. Finally, the image 450 provides a depth map for a simple box similar to the scene previously viewed.

도 1을 한번 더 참조하여, 제 1 깊이 맵의 생성 이후에, 다음 단계는 여상에 대한 제 2 깊이 맵을 생성(120)하는 것에 대응한다. 제 2 깊이 맵에서, 화소에 연관된 깊이 맵은 이하의 3개를 기초로 한다:Referring once again to FIG. 1, after creation of the first depth map, the next step corresponds to creating (120) a second depth map for the background. In the second depth map, the depth map associated with the pixel is based on the following three:

- 화소와 공간적으로 근사한 영역 내의 제 1 깊이 맵의 깊이 값들; 및Depth values of a first depth map in an area that is spatially near the pixel; And

- 영역 내의 이미지의 색 및/또는 휘도 값들;Color and / or luminance values of an image in the region;

제 2 깊이 맵은 명시적으로 제 1 깊이 맵 및 이미지의 색 및/또는 휘도 정보에 기초한다는 점에 주의한다. 그 결과, 제 2 깊이 맵은 통상적으로 글로벌 깊이 프로파일로부터 뚜렷한 색 및/또는 휘도를 갖는 오브젝트들의 구별을 허용한다. Note that the second depth map is explicitly based on the color and / or luminance information of the first depth map and the image. As a result, the second depth map typically allows the distinction of objects with distinct colors and / or brightness from the global depth profile.

양호한 실시예에서, 제 2 깊이 맵의 생성은 예를 들면, 한편으로 제 1 이미지의 깊이 값들 및 다른 한편으로 이미지의 색 정보와 같이 양방향 필터를 수반한다. In a preferred embodiment, the generation of the second depth map involves a bidirectional filter, for example, on the one hand, the depth values of the first image and, on the other hand, the color information of the image.

깊이 맵에 로컬 구조를 부가하기 위해, 교차 또는 접합 양방향 필터가 이용될 수 있다. To add a local structure to the depth map, crossed or joint bidirectional filters may be used.

양방향 필터들은 (공간적)도메인 및 (강도)범위 특성들 양쪽 모두를 이용하는 비-선형 필터들이다. 아래의 수식(1)은 기본적인 양방향 필터를 도시한다. 출력 이미지 O P 는 위치(P)의 근처(S)의 입력 이미지 I q 로부터의 위치들 q의 화소의 가중된 평균에 의해 결정된다. 가중 산출은 공간적 거리 함수(s) 및 강도 범위 함수(r)에 의존한다. 여기서 함수(s)는 종래의 2D 콘볼루젼 필터 커널이다. 이어서 함수(r)는 에지 보존 특성들을 전달하기 위해 더 큰 강도 차이들로 감소한다.Bidirectional filters are non-linear filters that use both (spatial) domain and (intensity) range properties. The following equation (1) shows a basic bidirectional filter. Output image O P is determined by a weighted average of the pixels in the positions q from input image I q near (S) of the position (P). The weighted calculation depends on the spatial distance function (s) and the intensity range function (r). Where the function (s) is a conventional 2D convolution filter kernel. The function r then decreases to larger intensity differences to deliver edge preservation properties.

Figure 112011041577695-pct00001
(1)
Figure 112011041577695-pct00001
(One)

여기서,

Figure 112011041577695-pct00002
이다. here,
Figure 112011041577695-pct00002
to be.

바람직하게는, 함수들(s 및 r)은 수식들(2) 및 (3)에서 이하에 지시된 바와 같이 구현된다. Preferably, the functions s and r are implemented as indicated below in equations (2) and (3).

Figure 112011041577695-pct00003
(2)
Figure 112011041577695-pct00003
(2)

And

Figure 112011041577695-pct00004
(3)
Figure 112011041577695-pct00004
(3)

위에서 언급한 바와 같이, 제 2 이미지들로부터의 색 및/또는 휘도 정보로부터 범위 정보에 기초하여 로컬 깊이 정보를 창출하는 특이 유리한 방법은 교차 또는 접합 양방향 필터를 적용하는 것이다. 본 발명의 실시예에서, 제 2 깊이 맵은 이러한 접합 양방향 필터를 이용하여 생성된다. 접합 양방향 필터는 입력 이미지로부터의 범위 정보(색 및/또는 휘도)를 이용하여 장면의 글로벌 깊이 프로파일의 추정치를 나타내는 제 1 깊이 맵을 필터링하는데 이용된다. As noted above, a particular advantageous method of creating local depth information based on range information from the color and / or luminance information from the second images is to apply a crossover or conjugate bidirectional filter. In an embodiment of the present invention, a second depth map is generated using such a junction bidirectional filter. The conjugate bidirectional filter is used to filter the first depth map representing an estimate of the global depth profile of the scene using range information (color and / or luminance) from the input image.

수식(4)은 제 2 깊이 맵(D2 p )이 장면의 깊이 프로파일의 추정치를 나타내는 제 1 깊이 맵(D1 p ) 및 이미지(I)으로부터의 이미지 콘텐트를 이용하여 어떻게 생성될 수 있는지를 도시한다. Equation (4) shows how the second depth map D2 p can be generated using the first depth map D1 p , which represents an estimate of the depth profile of the scene, and the image content from the image I .

Figure 112011041577695-pct00005
(4)
Figure 112011041577695-pct00005
(4)

여기서,

Figure 112011041577695-pct00006
이다. here,
Figure 112011041577695-pct00006
to be.

제 2 깊이 맵을 생성하는 특히 효과적인 방법을 위에서 제공하였지만, 제 2 깊이 맵은 당업자에게 알려진 다른 방식으로 생성될 수 있다. Although a particularly effective method of generating a second depth map has been provided above, the second depth map may be generated in other manners known to those skilled in the art.

양방향 필터는 바람직하게는 참조문헌으로서 포함된 2006 컴퓨터 비전에 관한 유럽 컨퍼런스의 회보에서 공개된 Sylvain Paris 및

Figure 112014105015584-pct00007
Durand에 의한 "A Fast Approximation of the Bilateral Filter using a Signal Processing Approach"에 기술된 바와 같이, 더 높은-차원의 쌍방 그리드 도메인(Bilateral Grid domain)에서 공식화될 수 있다. 이 공식화는 거친 3D 그리드를 이용하여 데이터를 다운샘플(downsample)링하고, 이에 따라 매우 효율적으로 구현될 수 있다. 이 접근은 제 3 깊이 맵을 생성하기 위한 스케일링 동작(scaling operation)이 바람직한 실시예에서 업샘플링(upsampling) 이전에 다운샘플링된 3D 그리드에서 실행될 수 있기 때문에 여기에 개시된 방법과 유리하게 조합될 수 있다. 위의 논문에서 Paris 및 Durand는 다운샘플링 자체가 양방향 필터에 대해 완료될 수 있다는 것을 도시한다. 본 발명에 적용될 때, 이는 제 1 및 제 2 깊이 맵이 더 낮은 해상도로 생성될 수 있다는 것을 암시한다. The bidirectional filter is preferably implemented in Sylvain Paris, published in the Bulletin of the European Conference on Computer Vision 2006,
Figure 112014105015584-pct00007
Can be formulated in a higher-dimensional bilateral grid domain, as described by Durand in "A Fast Approximation of the Bilateral Filter using a Signal Processing Approach ". This formulation downsamples the data using a coarse 3D grid, and thus can be implemented very efficiently. This approach can be advantageously combined with the method disclosed herein because a scaling operation for generating a third depth map can be performed in a down-sampled 3D grid prior to upsampling in a preferred embodiment . In the above paper, Paris and Durand show that the downsampling itself can be completed for the bidirectional filter. When applied to the present invention, this implies that the first and second depth maps can be generated with lower resolution.

도 1을 재차 참조하면, 제 2 깊이 맵의 생성에 이어서, 방법은 제 1 깊이 맵 및 제 2 깊이 맵으로부터의 깊이 값들을 이용하여 이미지에 대한 제 3 깊이 맵을 생성(130)(스케일링 깊이 차이의 생성)하는 단계로 진행되고, 이에 따라 제 3 및 제 1 깊이 맵의 깊이 값간의 차이는 제 2 및 제 1 깊이 맵의 깊이 값 간의 대응하는 차이에 비교된다. Referring again to FIG. 1, following generation of the second depth map, the method generates 130 a third depth map for the image using depth values from the first depth map and the second depth map , So that the difference between the depth values of the third and first depth maps is compared to the corresponding difference between the depth values of the second and first depth maps.

상기는 일단 도 3a 내지 도 3d에서 보다 가시적으로 제시된다. 도 3a는 제 1 깊이 맵의 수직 횡단 부(10) 및 제 2 깊이 맵(20)의 수직 횡단 부를 도시한다. 알 수 있는 바와 같이, 제 1 깊이 맵은 경사에 대응한다. 이번에, 제 2 횡단 부는 제 1 깊이 맵에 어느 정도 뒤따르지만, 국부적으로 벗어난 곡선에 대응한다. 이 제 2 곡선은 예를 들면, 위에서 기술된 바와 같은 양방향 필터를 이용하여 생성될 수 있는 예시적인 곡선이다. This is once more visible in Figures 3a to 3d. 3A shows the vertical transverse section 10 of the first depth map and the vertical transverse section of the second depth map 20. FIG. As can be seen, the first depth map corresponds to a slope. This time, the second transverse portion follows a certain degree in the first depth map, but corresponds to a locally deviated curve. This second curve is an exemplary curve that can be generated using, for example, a bidirectional filter as described above.

양방향 필터가 특이 유리하지만, 예를 들면, T-교차점들에 의해 제공된 희박한 로컬 오더링(sparse local ordering)은 제 1 글로벌 깊이 맵으로부터의 값들을 이용하여 조밀한 깊이 프로파일로 통합될 수 있는 T-교차점이 이어지는 입력 이미지의 단편화(segmentation)의 이용을 통하는 것과 같이 다른 접근들이 예견된다. 도 3b는 재차 수직 횡단 부(10) 및 본 발명에 따른 횡단 부들(10 및 20) 위에서 최대(z-방향에서)에 대응하는 수직 횡단 부(30)를 도시한다. 여기서, 깊이 값들(d3(y))은

Figure 112014105015584-pct00008
(5)에 대응하는 수직 횡단 부(30)의 각 깊이 값들에 대응한다. Bidirectional filters are particularly advantageous, but sparse local ordering provided by, for example, T-intersection points can be achieved by using T-intersection points that can be integrated into a dense depth profile using values from a first global depth map Other approaches are foreseen, such as through the use of subsequent segmentation of the input image. Figure 3b again shows the vertical transverse section 30 corresponding to the maximum vertical (in the z-direction) above the vertical transverse section 10 and the transverse sections 10 and 20 according to the invention. Here, the depth values d3 (y)
Figure 112014105015584-pct00008
Corresponds to the respective depth values of the vertical transverse section 30 corresponding to the vertical cross section 5 of FIG.

여기서 d1(y)는 횡단 부(10)의 각 깊이 값들에 대응하고,Where d1 (y) corresponds to each depth value of the transverse section 10,

d2(y)는 횡단 부(20)의 각 깊이 값들에 대응한다. d2 (y) corresponds to the respective depth values of the transverse section 20. [

이어서, 도 3c는 횡단 부(30)에 기초하여 본 발명에 따른 제 4 수직 횡단 부(40)를 도시한다. 횡단 부(40)는 경사(횡단 부 10) 앞의 횡단 부(40)상의 지점들이 횡단 부(30) 상의 대응하는 지점들만큼 경사로부터 2배 떨어져서 위치된다는 것을 명료하게 하기 위해 횡단 부(30)와 함께 도시된다.3C shows a fourth vertical transverse section 40 according to the present invention, on the basis of the transverse section 30. Fig. The transverse section 40 is formed in the transverse section 30 so as to clarify that points on the transverse section 40 in front of the inclination (transverse section 10) are located twice as far from the incline by corresponding points on the cross section 30. [ ≪ / RTI >

Figure 112011041577695-pct00009
(6)
Figure 112011041577695-pct00009
(6)

ω에 대한 적절한 값을 선택함으로써, 깊이 차이들은 더 강조되거나 감소될 수 있다. 깊이 맵을 생성할 때, 이 파라미터는 이용자가 로컬 색 및/또는 휘도 변동에 기초한 깊이 맵 변동들을 개선하는 것을 허용한다. 그 결과, 이미지의 깊이 맵은 이미지 정보와의 적절한 상관을 보다 잘 도시할 수 있을 것이고 그 결과 보다 유사한 외형을 제공할 것인 반면, ω의 낮은 값들은 장면의 일반적인 깊이 프로파일을 주로 반영하는 깊이 맵을 발생시킬 것이다. By choosing an appropriate value for [omega], the depth differences can be further emphasized or reduced. When creating a depth map, this parameter allows the user to improve depth map variations based on local color and / or luminance variations. As a result, the depth map of the image will be better able to illustrate the proper correlation with the image information, and as a result will provide a more similar appearance, while the lower values of omega will provide a depth map Lt; / RTI >

차이를 증폭할지 또는 차이를 감쇠할지 여부에 관한 선택은 제 2 깊이 맵의 본질에 주로 의존한다는 것은 당업자에게 자명할 것이다. 제 2 깊이 맵이 제 1 깊이 맵과 상당한 차이를 보여주는 경우, 차이들을 감쇠할 필요가 있을 수 있다. 반면에, 차이가 통상적으로 작을 때, 차이의 증폭이 적절할 수 있다. It will be apparent to those skilled in the art that the choice as to whether to amplify the difference or to dampen the difference mainly depends on the nature of the second depth map. If the second depth map shows a significant difference from the first depth map, then it may be necessary to attenuate the differences. On the other hand, when the difference is typically small, amplification of the difference may be appropriate.

이어서 도 3d는 본 발명에 따른 제 5 수직 횡단 부(50)를 또한 도시한다. 이어서 제 5 횡단 부는 경사 앞에 있는 횡단 부(40)상의 지점들에 대한 깊이 값들이 임계값(d2T(y))으로 설정된 것을 도시한다. 여기서 임계값은 색 및/또는 휘도 유사성에 기초한 수직 스캔(vertical scan)에 의해 결정된다. 이러한 수직 스캔(여기서 하부에서 상부로) 동안 색 및/또는 휘도의 배경으로부터 두드러지고 상당히 더 높은 깊이 맵을 갖는 부분과 직면하는 경우에, 임계값은 스캔에서 직면한 깊이 값들에 기초하여 이 부분에 대해 선택될 수 있다. 이어서 이 부분(스캔 방향에서) 상하의 깊이 값들은 통상적으로 제 1 깊이 맵에 존재하는 글로벌 깊이 프로파일을 반영한다(즉, 다른 부분들이 존재하지 않는 경우). 이 처리는 상부 우측에서 횡단 부(50)에 대한 배경 경사를 따라 깊이 값들을 연장함으로써 도 3D에서 가시화된다. 여기서, 깊이 값들의 "불연속성(discontinuity)"이 도시되는데, 이는 이미지의 색 및/또는 휘도 불연속성에 대응한다. 3D furthermore shows a fifth vertical transverse section 50 according to the invention. The fifth transverse section then shows that depth values for points on the transverse section 40 before the slope are set to the threshold value d2 T (y). Where the threshold is determined by a vertical scan based on color and / or luminance similarity. In the case of facing a portion with a significantly higher depth map that is noticeable from the background of color and / or luminance during this vertical scan (from bottom to top), the threshold is based on the depth values encountered in the scan, Lt; / RTI > This portion (in the scan direction) above and below the depth values typically reflects the global depth profile present in the first depth map (i.e., no other portions exist). This process is also visualized in 3D by extending depth values along the background tilt to the transverse portion 50 in the upper right hand side. Here, "discontinuity" of the depth values is shown, which corresponds to the color and / or luminance discontinuity of the image.

Figure 112011041577695-pct00010
(7)
Figure 112011041577695-pct00010
(7)

위에서 표시된 바와 같이, 더 높은-차원의 쌍방 그리드 도메인에서 제 2 깊이 맵을 생성하기 위해 이용되는 양방향 필터를 공식화함으로써, 깊이 맵 생성은 보다 효율적이 된다. 그러나, 이 특정 구현은 추가의 이점을 부가적으로 제공하는데; 양방향 필터의 이 특정 공식화는 추가의 휘도(또는 색) 차원에서 부가적인 분리를 제공하기 때문이다. 이어서, 이는 단일 스캔이 도 3D에서 예시된 바와 같이 이용될 수 있다는 것을 암시하며, 여기서 휘도(또는 색) 유사성을 갖는 각각의 부분은 분리(isolation)하여 처리될 수 있다. 그 결과, 이 특정 구현은 더이상 임의의 불연속성들을 명시적으로 검출할 필요가 없기 때문에 보너스 효과를 제공한다. As shown above, depth map generation is more efficient by formulating a bidirectional filter that is used to generate a second depth map in a higher-dimensional bilateral grid domain. However, this particular implementation additionally provides additional advantages; This particular formulation of the bidirectional filter provides additional separation in the additional luminance (or color) dimension. This then implies that a single scan may be used as illustrated in Figure 3D, where each portion having luminance (or color) similarity may be isolated and processed. As a result, this particular implementation provides a bonus effect because it no longer needs to explicitly detect any discontinuities.

도 1로부터의 방법은 도 5에서 추가로 예시된다. 도 5는 본 발명에 따른 방법을 이용하여 처리되는 일련의 이미지부들을 도시한다. 이미지(510)은 입력 여상의 부분을 포함하고, 이 특정 부분은 일부의 빙산의 장면뷰에 대응하고, 이미지(510)의 하부는 전경에 대응하고 이미지의 상부는 배경에 대응한다. The method from Figure 1 is further illustrated in Figure 5. Figure 5 shows a series of image portions that are processed using the method according to the present invention. The image 510 includes a portion of the input image that corresponds to a scene view of some icebergs, the lower portion of the image 510 corresponds to the foreground, and the upper portion of the image corresponds to the background.

경사에 기초한 제 2 깊이 맵은 이미지(520)에서 제공되고, 경사는 제 1 깊이 맵 및 이미지의 휘도 양쪽 모두를 이용한 양방향 필터를 이용하여 후속적으로 필터링된다. 후속적인 이미지(530)은 제 1 및 제 2 깊이 맵의 최대치에 대응하는 중간값을 대응하는 이미지에 제공한다.A second depth map based on the slope is provided in the image 520 and the slope is subsequently filtered using a bidirectional filter using both the first depth map and the luminance of the image. Subsequent images 530 provide intermediate values corresponding to the maximum of the first and second depth maps to the corresponding images.

깊이 임프레션(depth impression)을 추가로 개선하기 위해, 본 발명은 도 3c에서 도시된 예와 마찬가지로 제 1 및 제 2 깊이 맵간의 차이들(여기서 팩터 2만큼)을 개선하도록 제안한다. 결과적인 이미지(540)은 이미지(530)보다 구체적으로, 빙산들의 부분들이 뒤에 있는 하늘에 비해 전방에 있게 한다는 점에서 일부 개선점을 도시한다. To further improve the depth impression, the present invention proposes to improve the differences between the first and second depth maps (here by factor 2) as in the example shown in FIG. 3C. The resulting image 540 shows some improvement in that the portions of the icebergs are in front of the sky behind the image 530, more specifically.

이미지(550)은 팩터 4만큼 개선된 동일한 절차를 도시한다. 그 결과, 전경 오브젝트들의 깊이 임프레션은 추가로 개선된다. Image 550 shows the same procedure improved by factor 4. As a result, the depth impression of foreground objects is further improved.

도 2는 본 발명에 따라 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하기 위한 디바이스(200)를 도시한다. 디바이스(200)는 이미지를 수신하도록 구성된 수신 수단(210)을 포함한다. 명확성을 위해 예가 단지 단일의 이미지에 대한 깊이 맵의 생성을 참조하여 기술되지만, 이미지들의 시퀀스들에 대한 깊이 맵들의 생성을 위해 변형될 수 있다는 것이 당업자에게 자명할 것이다. 사실상, 본 발명에 따른 디바이스는 예를 들면, 이미지 정보 및 깊이 정보의 병렬 스트림들을 포함하는 3차원 비디오 신호로의 단안 이미지 시퀀스들의 2D-3D 변환에 적합한 디바이스인 것이 바람직하다.Figure 2 shows a device 200 for generating a depth map for an image 205 using monocular information in accordance with the present invention. The device 200 comprises receiving means 210 configured to receive an image. It will be appreciated by those skilled in the art that for the sake of clarity, an example is described with reference to the generation of a depth map for only a single image, but can be modified for the generation of depth maps for sequences of images. In fact, the device according to the invention is preferably a device suitable for 2D to 3D conversion of monocular image sequences into a three-dimensional video signal comprising, for example, parallel streams of image information and depth information.

디바이스(200)는 처리 수단(220)을 추가로 포함한다. 이러한 처리 수단은 일반적으로 예를 들면, 범용 처리 플랫폼으로 이용하여, 디지털 신호 처리기들 이용하여 및/또는 애플리케이션 특정 집적 회로들을 이용하여 다양한 방식들로 구현될 수 있다. 처리 수단(220)은 이미지(205)에 대 한 제 1 깊이 맵을 생성하도록 구성된다. 제 1 깊이 맵은 이미지에 도시된 장면의 글로벌 깊이 프로파일의 추정치에 대응한다. The device 200 further comprises a processing means 220. Such processing means may be implemented in a variety of ways, generally using, for example, a general purpose processing platform, using digital signal processors and / or using application specific integrated circuits. The processing means 220 is configured to generate a first depth map for the image 205. The first depth map corresponds to an estimate of the global depth profile of the scene shown in the image.

처리 수단은 이미지에 대한 제 2 깊이 맵을 생성하도록 추가로 구성된다. 깊이 맵의 해상도가 본 발명의 특정 실시예에서, 이미지(205)의 해상도에 비해 서브샘플링되지만, 제 2 깊이 맵의 깊이 값들은 통상적으로 이미지의 단일 화소와 연관된다.The processing means is further configured to generate a second depth map for the image. Although the resolution of the depth map is subsampled relative to the resolution of the image 205 in certain embodiments of the present invention, the depth values of the second depth map are typically associated with a single pixel of the image.

특정 이미지 화소와 연관된 제 2 깊이 맵의 깊이 값은 이미지 화소에 공간적으로 근사한 영역내의 제 1 깊이 맵의 깊이 값들에 기초한다. 또한, 상기 영역 내의 이미지 화도들의 색 또는 휘도 값들에 기초한다. 그 결과, 제 2 깊이 맵은 제 1 깊이 맵에 존재하는 글로벌 깊이 정보에 비교되는 로컬 깊이 정보를 포함할 수 있다. The depth value of the second depth map associated with a particular image pixel is based on the depth values of the first depth map in an area that is spatially near the image pixel. It is also based on the color or luminance values of the imaged figures within the area. As a result, the second depth map may include local depth information compared to global depth information present in the first depth map.

처리 수단은 제 1 깊이 맵 및 제 2 깊이 맵으로부터의 깊이 값들을 이용하여 이미지(205)에 대한 제 3 깊이 맵(215)을 생성하도록 추가로 구성된다. 제 3 깊이 맵의 깊이 값들을 생성할 때, 제 1 및 제 2 깊이 맵 간의 미묘한 깊이 차이들이 스케일링된다. 그 결과, 제 3 깊이 맵의 특정 깊이 값들과 제 1 깊이 맵의 대응하는 깊이 값들 간의 특정 차이들은 제 2 및 제 1 깊이 맵의 깊이 값 간의 대응하는 차이들에 비교하여 스케일링된다. The processing means is further configured to generate a third depth map (215) for the image (205) using depth values from the first depth map and the second depth map. When generating the depth values of the third depth map, subtle depth differences between the first and second depth maps are scaled. As a result, certain differences between specific depth values of the third depth map and corresponding depth values of the first depth map are scaled compared to corresponding differences between depth values of the second and first depth maps.

선택적으로, 디바이스(200)는 제 3 깊이 맵을 다루기 위한 부가적인 소프트웨어/하드웨어 수단을 추가로 포함할 수 있다. Optionally, the device 200 may further include additional software / hardware means for handling the third depth map.

예를 들면, 제 3 깊이 맵(215)은 디바이스(200) 내에서 추가로 후속적으로 처리될 수 있거나, 대안적으로 저장 수단(230) 상에서 추후의 이용을 위해 저장될 수 있다. 대안적으로, 제 3 깊이 맵은 바람직하게는 3차원 이미지 신호내로 이미지(205)과 함께 인코딩 수단(240)에 의해 인코딩될 수 있다. 그러면, 이러한 인코딩 이미지 신호는 저장 수단(230) 상에 저장될 수 있거나, 예를 들면, IP 프로토콜과 같은 프로토콜을 이용하여 케이블 또는 RF에 의한 송신을 위한 송신 수단(250)에 의해 송신될 수 있다. For example, the third depth map 215 may be further processed subsequently in the device 200, or alternatively may be stored on the storage means 230 for later use. Alternatively, the third depth map may preferably be encoded by the encoding means 240 with the image 205 into a three-dimensional image signal. This encoded image signal may then be stored on the storage means 230 or transmitted by a transmission means 250 for transmission by cable or RF using a protocol such as, for example, an IP protocol .

다른 대안적으로, 제 3 깊이 맵은 렌더링 수단(260)에 의한 하나 이상의 뷰들의 렌더링을 위해 바람직하게는 이미지(205)과 함께 입력으로서 역할할 수 있다. 이어서 렌더링된 뷰들은 3-차원 (자동)입체 디스플레이 수단(270) 상에 출력될 수 있다. Alternatively, the third depth map may serve as an input, preferably with the image 205, for rendering one or more views by the rendering means 260. The rendered views may then be output on a three-dimensional (auto) stereoscopic display means 270.

명확성을 위해 위의 설명은 다양한 기능적 유닛들을 참조하여 본 발명의 실시예들를 기술하였다는 것을 이해할 것이다. 그러나 상이한 기능적 유닛들(또는 처리기들)간의 기능성의 임의의 적합한 분배가 본 발명으로부터 벗어남 없이 이용될 수 있다는 것이 자명할 것이다. 예를 들면, 개별적인 처리기들 또는 제어기들에 의해 실행되도록 예시된 기능성은 동일한 처리기들 또는 제어기들에 의해 실행될 수 있다. 그러므로 특정 기능적 유닛들에 대한 참조들은 엄격한 논리적 또는 물리적 구조 또는 구성을 나타내는 것이 아니라 기술된 기능성을 제공하는 적합한 수단에 대한 참조로서만 이해되어야 한다. It will be appreciated that for clarity, the above description has described embodiments of the present invention with reference to various functional units. However, it will be appreciated that any suitable distribution of functionality between different functional units (or processors) may be utilized without departing from the invention. For example, the functionality illustrated to be executed by individual processors or controllers may be executed by the same processors or controllers. Hence, references to specific functional units should be understood only as references to suitable means of providing the described functionality, rather than indicating a strictly logical or physical structure or configuration.

본 발명은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합을 포함하는 임의의 적합한 형태로 구현될 수 있다. 본 발명은 선택적으로는 하나 이상의 데이터 처리기들 및/또는 디지털 신호 처리기들을 구동하는 컴퓨터 소프트웨어로서 적어도 부분적으로 구현될 수 있다. 본 발명의 실시예들의 소자들 및 구성요소들은 임의의 적합한 방식으로 물리적으로, 기능적으로 및 논리적으로 구현될 수 있다. 실제로, 기능성은 단일의 유닛으로, 복수의 유닛들로 또는 기능적 유닛들의 부부분으로서 구현될 수 있다. 이렇기 때문에, 본 발명은 단일의 유닛들로 구현될 수 있고 또는 상이한 유닛들 및 처리기들 사이에서 물리적으로 및 기능적으로 분배될 수 있다. The invention may be implemented in any suitable form including hardware, software, firmware, or any combination thereof. The present invention may optionally be at least partially implemented as computer software for driving one or more data processors and / or digital signal processors. The elements and components of embodiments of the present invention may be implemented physically, functionally, and logically in any suitable manner. In practice, functionality may be implemented as a single unit, as a plurality of units, or as a subset of functional units. As such, the present invention may be implemented as a single unit or may be physically and functionally distributed between different units and processors.

본 발명이 일부 실시예들에 연계하여 기술되었지만, 여기서 기술된 특정 형태들로 제한되도록 의도되지 않는다. 오히려, 본 발명의 범위는 첨부된 청구항들에 의해서만 제한된다. 부가적으로, 특징이 특정 실시예들과 연계하여 기술되는 것으로 보일 수 있지만, 기술된 실시예들의 다양한 특징들이 본 발명에 따라 조합될 수 있다는 것을 당업자는 인지할 수 있다. 청구항들에서, 용어 '포함하는(comprising)'은 다른 소자들 또는 단계들의 존재를 배제하지 않는다.While the invention has been described in connection with certain embodiments, it is not intended to be limited to the specific forms disclosed. Rather, the scope of the present invention is limited only by the appended claims. Additionally, it will be appreciated by those skilled in the art that although the features may appear to be described in connection with the specific embodiments, various features of the described embodiments may be combined in accordance with the present invention. In the claims, the term " comprising " does not exclude the presence of other elements or steps.

또한, 개별적으로 나열된 복수의 수단들, 소자들 또는 방법 단계들은 예를 들면, 단일의 유닛 또는 처리기에 의해 구현될 수 있다. 부가적으로, 개별적인 특징들은 상이한 청구항들에서 포함될 수 있지만, 이들은 유리하게 조합되는 것이 가능할 수 있고, 상이한 청구항들 내의 포함은 특징들의 조합이 실용적이지 않고/않거나 유리하지 않다는 것을 암시하는 것은 아니다. 청구항들의 하나의 카테고리 내로의 특징의 포함은 이 카테고리로의 제한을 암시하지 않고, 오히려 이 특징이 다른 청구항 카테고리들에 적절히 균등하게 응용가능하다는 것을 나타낸다. 또한, 청구항들에서의 특징들의 순서는 특징들이 반드시 작동되어야 하는 임의의 특정 순서를 암시하는 것이 아니고, 특히 방법 청구항의 개별적인 단계들의 순서는 단계들이 반드시 이 순서대로 실행되어야 한다는 것을 암시하는 것은 아니다. 오히려, 단계들은 임의의 적합한 순서로 실행될 수 있다. 또한, 단수의 언급이 복수성을 배제하지 않는다. 따라서 오브젝트의 부정 관사("a", "an"), "제 1(first)", "제 2(second)"등에 대한 참조들이 복수성을 배제하지 않는다. 청구항들의 참조 부호들은 단순히 예를 명확하게 하는 것으로서 제공되고 어떤 방식으로도 청구항들의 범위를 제한하는 것으로서 해석되선 안된다.Also, a plurality of individually listed means, elements, or method steps may be implemented by, for example, a single unit or processor. Additionally, although individual features may be included in different claims, they may be advantageously combined, and the inclusion in different claims does not imply that the combination of features is not practical and / or not advantageous. The inclusion of features within one category of claims does not imply a limitation to this category, but rather indicates that this feature is suitably equally applicable to other claim categories. In addition, the order of features in the claims is not intended to imply any particular order in which the features must necessarily be operated, and in particular the order of the individual steps of the method claim does not imply that the steps must be performed in this order. Rather, the steps may be performed in any suitable order. Also, the singular reference does not exclude the plurality. Thus, references to an object's "a", "an", "first", "second", etc. do not exclude pluralities. The reference numbers in the claims are provided merely for clarifying the examples and should not be construed as limiting the scope of the claims in any way.

200: 디바이스 210: 수신 수단
220: 처리 수단 230: 저장 수단
240: 인코딩 수단 250: 송신 수단
260: 렌더링 수단
270: 오토스테레오스코픽 디스플레이 수단
200: device 210: receiving means
220: Processing means 230: Storage means
240: Encoding means 250: Transmission means
260: Rendering means
270: auto stereoscopic display means

Claims (16)

단안 정보(monocular information)를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100)에 있어서:
상기 이미지(205)에 대한 제 1 깊이 맵을 생성하는 단계(110)로서, 상기 제 1 깊이 맵은 상기 이미지(205)에 도시된 장면의 글로벌 깊이 프로파일(global depth profile; 410, 420, 440, 450)의 추정치에 대응하는, 상기 제 1 깊이 맵을 생성하는 단계(110);
상기 이미지(205)에 대한 제 2 깊이 맵(520)을 생성하는 단계(120)로서, 상기 제 2 깊이 맵의 화소와 연관된 깊이 값은 상기 화소와 공간적으로 근사한 영역 내의 상기 제 1 깊이 맵의 깊이 값들 및 상기 영역 내의 상기 이미지의 색 및 휘도 값들 중 적어도 하나에 기초하는, 상기 제 2 깊이 맵(520)을 생성하는 단계(120); 및
상기 제 1 깊이 맵 및 상기 제 2 깊이 맵으로부터의 깊이 값들을 이용하여 상기 이미지(205)에 대한 제 3 깊이 맵(530, 540, 550)을 생성하는 단계(130)를 포함하고,
상기 제 3 깊이 맵을 생성하는 단계는,
- 상기 제 1 깊이 맵의 제 1 깊이 값 및 상기 제 2 깊이 맵의 제 2 깊이 값 간의 깊이 차이를 결정하는 단계, 및
- 상기 제 3 및 제 1 깊이 맵의 깊이 값 간의 차이가 상기 제 2 및 제 1 깊이 맵의 깊이 값 간의 대응하는 차이와 비교하여 감쇠 또는 증폭되도록, 상기 깊이 차이를 스케일링하여 상기 스케일링된 차이 및 상기 제 1 깊이 값을 조합하는 단계를 포함하는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
A method (100) for generating a depth map for an image (205) using monocular information comprising:
Generating a first depth map for the image (205), the first depth map comprising a global depth profile (410, 420, 440, 450); generating (110) the first depth map;
(120) for a second depth map (520) for the image (205), wherein a depth value associated with a pixel of the second depth map is greater than a depth of the first depth map Generating (120) the second depth map (520) based on at least one of the values and the color and luminance values of the image in the region; And
(130) a third depth map (530, 540, 550) for the image (205) using depth values from the first depth map and the second depth map,
Wherein the generating the third depth map comprises:
- determining a depth difference between a first depth value of the first depth map and a second depth value of the second depth map, and
Scaling the depth difference so that a difference between depth values of the third and first depth maps is attenuated or amplified relative to a corresponding difference between depth values of the second and first depth maps, A method (100) for generating a depth map for an image (205) using monocular information, comprising combining a first depth value.
제 1 항에 있어서,
깊이 차이들은 색 및 휘도 유사성 중 적어도 하나를 갖는 공간적 영역의 다수의 화소들에 대해 스케일링되는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
The method according to claim 1,
Wherein the depth differences are scaled for a plurality of pixels in a spatial region having at least one of color and luminance similarity.
제 1 항에 있어서,
상기 깊이 차이는 상기 제 1 깊이 값, 및 상기 제 1 깊이 값과 상기 제 2 깊이 값의 최대치 간에 결정되는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
The method according to claim 1,
Wherein the depth difference is determined between the first depth value and a maximum value of the first depth value and the second depth value.
제 1 항에 있어서,
상기 제 2 깊이 맵의 상기 생성은 상기 이미지의 색 및 휘도 값들 중 하나 및 상기 제 1 깊이 맵의 깊이 값들에 양방향 필터(bilateral filter)의 적용을 포함하는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
The method according to claim 1,
Wherein the generating of the second depth map comprises applying the bilateral filter to one of the color and luminance values of the image and the depth values of the first depth map, A method (100) for generating a depth map.
제 1 항에 있어서,
상기 제 3 깊이 맵에 대한 깊이 값은 상기 장면의 관점(viewpoint)에 가장 근접한 깊이에 대응하는 깊이 값으로 설정되고:
- 상기 제 1 깊이 맵의 대응하는 깊이 값; 및
- 상기 제 2 깊이 맵으로부터의 대응하는 깊이 값에 기초한 후보 깊이 값 중 하나로부터 선택되는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
The method according to claim 1,
Wherein the depth value for the third depth map is set to a depth value corresponding to a depth closest to the viewpoint of the scene,
- a corresponding depth value of said first depth map; And
- selected from one of candidate depth values based on corresponding depth values from said second depth map. ≪ RTI ID = 0.0 > 100. < / RTI >
제 5 항에 있어서,
상기 후보 깊이 값은 상기 제 1 깊이 맵으로부터의 깊이 값에 상기 제 1 깊이 맵으로부터의 깊이 값과 상기 제 2 깊이 맵으로부터의 대응하는 깊이 값의 가중된 차이를 더한 것인, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
6. The method of claim 5,
Wherein the candidate depth value is a value obtained by adding the depth value from the first depth map to the depth value from the first depth map plus the weighted difference of the corresponding depth value from the second depth map A method (100) for generating a depth map for an image (205).
제 6 항에 있어서,
상기 후보 깊이 값은 상기 제 1 깊이 맵으로부터의 깊이 값에 공간적으로 근사한 깊이 값들에 기초한 임계 깊이 값인, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
The method according to claim 6,
Wherein the candidate depth value is a critical depth value based on depth values that are spatially close to a depth value from the first depth map.
제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
상기 이미지는 이미지 시퀀스의 부분이고, 상기 글로벌 깊이 프로파일의 추정치는 샷(shot) 내의 모든 이미지들에 대해 동일한, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
8. The method according to any one of claims 1 to 7,
Wherein the image is part of an image sequence and the estimate of the global depth profile is the same for all images in a shot.
제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
상기 이미지는 이미지 시퀀스의 부분이고, 상기 글로벌 깊이 프로파일의 추정은 샷의 하나 이상의 이미지에 기초하여 결정되는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하는 방법(100).
8. The method according to any one of claims 1 to 7,
A method (100) for generating a depth map for an image (205) using monocular information, wherein the image is part of an image sequence and the estimate of the global depth profile is determined based on one or more images of the shot.
단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하기 위한 디바이스(200)에 있어서:
상기 이미지를 수신하도록 구성된 수신 수단(210); 및
처리 수단(220)을 포함하고,
상기 처리 수단은:
- 상기 이미지에 대한 제 1 깊이 맵을 생성하고, 상기 제 1 깊이 맵은 상기 이미지(205)에 도시된 장면의 글로벌 깊이 프로파일(410, 420, 440, 450)의 추정치에 대응하고,
- 상기 이미지(205)에 대한 제 2 깊이 맵(520)을 생성하고, 상기 제 2 깊이 맵의 화소와 연관된 깊이 값은 상기 화소와 공간적으로 근사한 영역 내의 제 1 깊이 맵의 깊이 값들 및 상기 영역 내의 상기 이미지의 색 및 휘도 값들 중 적어도 하나에 기초하고,
- 상기 제 1 깊이 맵 및 상기 제 2 깊이 맵으로부터의 깊이 값들을 이용하여 상기 이미지(205)에 대한 제 3 깊이 맵(530, 540, 550)을 생성하도록 구성된 상기 처리 수단을 포함하고,
상기 제 3 깊이 맵을 생성하는 것은
- 상기 제 1 깊이 맵의 제 1 깊이 값 및 상기 제 2 깊이 맵의 제 2 깊이 값간의 깊이 차이를 결정하는 것, 및
- 상기 제 3 및 제 1 깊이 맵의 깊이 값 간의 차이가 상기 제 2 및 제 1 깊이 맵의 깊이 값 간의 대응하는 차이와 비교하여 감쇠 또는 증폭되도록, 상기 깊이 차이를 스케일링하여 상기 스케일링된 차이 및 상기 제 1 깊이 값을 조합하는 것을 포함하는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하기 위한 디바이스(200).
A device (200) for generating a depth map for an image (205) using monocular information comprising:
Receiving means (210) configured to receive the image; And
Processing means 220,
Wherein the processing means comprises:
- generating a first depth map for the image, the first depth map corresponding to an estimate of a global depth profile (410, 420, 440, 450) of the scene shown in the image (205)
- generating a second depth map (520) for the image (205), wherein a depth value associated with a pixel of the second depth map is greater than a depth value of a first depth map in an area spatially close to the pixel, Based on at least one of the color and luminance values of the image,
- processing means configured to generate a third depth map (530, 540, 550) for the image (205) using depth values from the first depth map and the second depth map,
Creating the third depth map
Determining a depth difference between a first depth value of the first depth map and a second depth value of the second depth map; and
Scaling the depth difference so that a difference between depth values of the third and first depth maps is attenuated or amplified relative to a corresponding difference between depth values of the second and first depth maps, A device (200) for generating a depth map for an image (205) using monocular information, comprising combining a first depth value.
제 10 항에 있어서,
상기 처리 수단은 깊이 차이들이 색 및 휘도 유사성 중 적어도 하나를 갖는 공간적 영역의 다수의 화소들에 대해 스케일링되도록 구성되는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하기 위한 디바이스(200).
11. The method of claim 10,
Wherein the processing means is configured to scale the plurality of pixels of the spatial region with depth differences of at least one of color and luminance similarity, the device (200) for generating a depth map for the image (205) ).
제 10 항에 있어서,
상기 처리 수단은 상기 제 3 깊이 맵에 대한 깊이 값이 상기 장면의 관점에 가장 근접한 깊이에 대응하는 깊이 값으로 설정되고, 적어도:
- 상기 제 1 깊이 맵의 대응하는 깊이 값; 및
- 상기 제 2 깊이 맵으로부터의 대응하는 깊이 값에 기초한 후보 깊이 값으로부터 선택되도록 구성되는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하기 위한 디바이스(200).
11. The method of claim 10,
The processing means is set to a depth value corresponding to a depth whose depth value for the third depth map is closest to the viewpoint of the scene,
- a corresponding depth value of said first depth map; And
- a device (200) for generating a depth map for an image (205) using monocular information configured to be selected from candidate depth values based on corresponding depth values from the second depth map.
제 12 항에 있어서,
상기 처리 수단은 상기 후보 깊이 값이 상기 제 1 깊이 맵으로부터의 깊이 값을 상기 제 1 깊이 맵으로부터의 깊이 값 및 상기 제 2 깊이 맵으로부터의 대응하는 깊이 값의 가중된 차이에 더하도록 구성되는, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하기 위한 디바이스(200).
13. The method of claim 12,
Wherein the processing means is configured to add the depth value from the first depth map to the depth value from the first depth map and the weighted difference of the corresponding depth value from the second depth map, A device (200) for generating a depth map for an image (205) using monocular information.
제 10 항 내지 제 13 항 중 어느 한 항에 있어서,
상기 이미지는 이미지 시퀀스의 부분이고, 상기 글로벌 깊이 프로파일의 추정치는 샷 내의 모든 이미지들에 대해 동일한, 단안 정보를 이용하여 이미지(205)에 대한 깊이 맵을 생성하기 위한 디바이스(200).
14. The method according to any one of claims 10 to 13,
A device (200) for generating a depth map for an image (205) using monocular information, wherein the image is part of an image sequence and the estimate of the global depth profile is the same for all images in a shot.
단안 정보를 이용하여 이미지에 대한 깊이 맵을 생성하기 위한 컴퓨터 프로그램이 기록된 컴퓨터 판독가능한 기록 매체에 있어서,
상기 프로그램은 제 1 항 내지 제 7 항 중 어느 한 항에 따른 방법 단계들을 실행하기 위한 명령들을 포함하는, 컴퓨터 판독가능한 기록 매체.
A computer-readable recording medium recorded with a computer program for generating a depth map for an image using monocular information,
Wherein the program comprises instructions for executing the method steps according to any one of claims 1 to 7.
삭제delete
KR1020117012662A 2008-11-04 2009-11-02 Method and device for generating a depth map KR101625830B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP08168248A EP2184713A1 (en) 2008-11-04 2008-11-04 Method and device for generating a depth map
EP08168248.6 2008-11-04

Publications (2)

Publication Number Publication Date
KR20110093829A KR20110093829A (en) 2011-08-18
KR101625830B1 true KR101625830B1 (en) 2016-05-31

Family

ID=40394209

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117012662A KR101625830B1 (en) 2008-11-04 2009-11-02 Method and device for generating a depth map

Country Status (7)

Country Link
US (1) US8447141B2 (en)
EP (2) EP2184713A1 (en)
JP (1) JP5587894B2 (en)
KR (1) KR101625830B1 (en)
CN (1) CN102203829B (en)
TW (1) TWI524734B (en)
WO (1) WO2010052632A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112520A1 (en) * 2019-12-02 2021-06-10 한국전자기술연구원 Depth estimation method and device for endoscopic image

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120269458A1 (en) * 2007-12-11 2012-10-25 Graziosi Danillo B Method for Generating High Resolution Depth Images from Low Resolution Depth Images Using Edge Layers
WO2010084460A1 (en) 2009-01-20 2010-07-29 Nxp B.V. Image processing using a bilateral grid
US8947422B2 (en) * 2009-09-30 2015-02-03 Disney Enterprises, Inc. Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images
US8502862B2 (en) 2009-09-30 2013-08-06 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
US8884948B2 (en) * 2009-09-30 2014-11-11 Disney Enterprises, Inc. Method and system for creating depth and volume in a 2-D planar image
DE112009005382T5 (en) * 2009-11-18 2012-09-13 Industrial Technology Research Institute A method of generating depth maps from monocular images and systems using the same
US20110157155A1 (en) * 2009-12-31 2011-06-30 Disney Enterprises, Inc. Layer management system for choreographing stereoscopic depth
US9042636B2 (en) 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
EP2595116A1 (en) * 2010-05-07 2013-05-22 Telefónica, S.A. Method for generating depth maps for converting moving 2d images to 3d
US8848038B2 (en) * 2010-07-09 2014-09-30 Lg Electronics Inc. Method and device for converting 3D images
IT1401367B1 (en) * 2010-07-28 2013-07-18 Sisvel Technology Srl METHOD TO COMBINE REFERENCE IMAGES TO A THREE-DIMENSIONAL CONTENT.
US9571811B2 (en) 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
WO2012016600A1 (en) * 2010-08-06 2012-02-09 Trident Microsystems, Inc. Method for generating of a depth map, method for converting a two-dimensional image sequence and device for generating a stereoscopic image
TWI472218B (en) * 2011-02-11 2015-02-01 Chunghwa Picture Tubes Ltd Device and method for generating stereoscopic image
US20120293489A1 (en) * 2011-05-20 2012-11-22 Himax Technologies Limited Nonlinear depth remapping system and method thereof
AU2011203028B1 (en) * 2011-06-22 2012-03-08 Microsoft Technology Licensing, Llc Fully automatic dynamic articulated model calibration
JP5155462B2 (en) * 2011-08-17 2013-03-06 株式会社スクウェア・エニックス・ホールディングス VIDEO DISTRIBUTION SERVER, VIDEO REPRODUCTION DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
EP2745269B1 (en) * 2011-10-10 2015-03-11 Koninklijke Philips N.V. Depth map processing
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9661307B1 (en) * 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US9161010B2 (en) * 2011-12-01 2015-10-13 Sony Corporation System and method for generating robust depth maps utilizing a multi-resolution procedure
WO2013086601A1 (en) * 2011-12-12 2013-06-20 The University Of British Columbia System and method for determining a depth map sequence for a two-dimensional video sequence
US8682087B2 (en) * 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
US20130176300A1 (en) * 2012-01-10 2013-07-11 Thomson Licensing Disparity maps in uniform areas
US20130202194A1 (en) * 2012-02-05 2013-08-08 Danillo Bracco Graziosi Method for generating high resolution depth images from low resolution depth images using edge information
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
WO2013124312A1 (en) 2012-02-21 2013-08-29 Tp Vision Holding B.V. Object-aligned filtering method and apparatus
KR20140133770A (en) 2012-02-23 2014-11-20 가부시키가이샤 스퀘어.에닉스.홀딩스 Moving image distribution server, moving image playback apparatus, control method, program, and recording medium
TWI586143B (en) * 2012-04-05 2017-06-01 皇家飛利浦電子股份有限公司 Three dimensional [3d] source device, method and record carrier for providing 3d video signal fortransferring to 3d destination device, and 3d destination device for receiving 3d video signal from 3d source device
KR101536501B1 (en) * 2012-04-12 2015-07-13 신라 테크놀로지스, 인크. Moving image distribution server, moving image reproduction apparatus, control method, recording medium, and moving image distribution system
WO2013156250A1 (en) 2012-04-19 2013-10-24 Telefonaktiebolaget L M Ericsson (Publ) View synthesis using low resolution depth maps
WO2014001062A2 (en) * 2012-06-26 2014-01-03 Ultra-D Coöperatief U.A. Device for generating a depth map
DE102012014174A1 (en) * 2012-07-16 2014-01-16 Rational Aktiengesellschaft Method for displaying parameters of a cooking process and display device for a cooking appliance
LU92074B1 (en) 2012-09-18 2014-03-19 Iee Sarl Depth image enhancement method
KR101961943B1 (en) * 2012-12-17 2019-03-26 엘지디스플레이 주식회사 3d image data formation method and stereoscopic image display device using the same
US9299152B2 (en) 2012-12-20 2016-03-29 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for image depth map generation
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US10122992B2 (en) 2014-05-22 2018-11-06 Disney Enterprises, Inc. Parallax based monoscopic rendering
US9292926B1 (en) 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
WO2016112019A1 (en) * 2015-01-06 2016-07-14 Oculus Vr, Llc Method and system for providing depth mapping using patterned light
US20170059305A1 (en) * 2015-08-25 2017-03-02 Lytro, Inc. Active illumination for enhanced depth map generation
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
WO2016172960A1 (en) * 2015-04-30 2016-11-03 SZ DJI Technology Co., Ltd. System and method for enhancing image resolution
US10282623B1 (en) * 2015-09-25 2019-05-07 Apple Inc. Depth perception sensor data processing
US9996933B2 (en) * 2015-12-22 2018-06-12 Qualcomm Incorporated Methods and apparatus for outlier detection and correction of structured light depth maps
EP3236657A1 (en) 2016-04-21 2017-10-25 Ultra-D Coöperatief U.A. Dual mode depth estimator
EP3389265A1 (en) * 2017-04-13 2018-10-17 Ultra-D Coöperatief U.A. Efficient implementation of joint bilateral filter
EP3396949A1 (en) * 2017-04-26 2018-10-31 Koninklijke Philips N.V. Apparatus and method for processing a depth map
CN108496201A (en) 2017-09-27 2018-09-04 深圳市大疆创新科技有限公司 Image processing method and equipment
US20190340776A1 (en) * 2018-05-04 2019-11-07 Qualcomm Incorporated Depth map interpolation using generalized likelihood ratio test parameter estimation of a coded image
US10699430B2 (en) 2018-10-09 2020-06-30 Industrial Technology Research Institute Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof
CN111383257B (en) * 2018-12-29 2024-06-07 顺丰科技有限公司 Carriage loading and unloading rate determining method and device
CN111583324B (en) * 2019-02-19 2023-11-28 顺丰科技有限公司 Monocular image depth estimation loading rate identification method and device
CN110378853B (en) * 2019-07-11 2021-03-26 Oppo广东移动通信有限公司 Depth map processing method and device
TWI772102B (en) 2020-07-14 2022-07-21 宏達國際電子股份有限公司 Method for transmitting reduced depth information and electronic system
CN111932576B (en) * 2020-07-15 2023-10-31 中国科学院上海微系统与信息技术研究所 Object boundary measuring method and device based on depth camera
US11688090B2 (en) 2021-03-16 2023-06-27 Toyota Research Institute, Inc. Shared median-scaling metric for multi-camera self-supervised depth evaluation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008062351A1 (en) * 2006-11-21 2008-05-29 Koninklijke Philips Electronics N.V. Generation of depth map for an image

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999087B2 (en) * 2002-03-12 2006-02-14 Sun Microsystems, Inc. Dynamically adjusting sample density in a graphics system
US6975329B2 (en) * 2002-12-09 2005-12-13 Nvidia Corporation Depth-of-field effects using texture lookup
US7738725B2 (en) * 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
JP4366634B2 (en) * 2003-08-08 2009-11-18 ノーリツ鋼機株式会社 Noise pixel map creation method, apparatus and program for implementing the method, and photo print apparatus
JP4214976B2 (en) * 2003-09-24 2009-01-28 日本ビクター株式会社 Pseudo-stereoscopic image creation apparatus, pseudo-stereoscopic image creation method, and pseudo-stereoscopic image display system
EP1714251A1 (en) * 2004-02-03 2006-10-25 Koninklijke Philips Electronics N.V. Creating a depth map
WO2006003577A1 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics N.V. Creating a depth map
CN100559398C (en) * 2007-06-19 2009-11-11 北京航空航天大学 Automatic deepness image registration method
US7675024B2 (en) * 2008-04-23 2010-03-09 Aptina Imaging Corporation Method and apparatus providing color filter array with non-uniform color filter sizes
KR101502365B1 (en) * 2008-11-06 2015-03-13 삼성전자주식회사 Three dimensional video scaler and controlling method for the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008062351A1 (en) * 2006-11-21 2008-05-29 Koninklijke Philips Electronics N.V. Generation of depth map for an image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112520A1 (en) * 2019-12-02 2021-06-10 한국전자기술연구원 Depth estimation method and device for endoscopic image
KR20210068810A (en) * 2019-12-02 2021-06-10 한국전자기술연구원 Depth Estimation Method and Apparatus for Endoscopic Images
KR102306432B1 (en) * 2019-12-02 2021-09-30 한국전자기술연구원 Depth Estimation Method and Apparatus for Endoscopic Images

Also Published As

Publication number Publication date
TW201029443A (en) 2010-08-01
CN102203829B (en) 2013-11-06
US20110210969A1 (en) 2011-09-01
EP2184713A1 (en) 2010-05-12
EP2347386A1 (en) 2011-07-27
US8447141B2 (en) 2013-05-21
KR20110093829A (en) 2011-08-18
JP2012507907A (en) 2012-03-29
TWI524734B (en) 2016-03-01
WO2010052632A1 (en) 2010-05-14
CN102203829A (en) 2011-09-28
JP5587894B2 (en) 2014-09-10

Similar Documents

Publication Publication Date Title
KR101625830B1 (en) Method and device for generating a depth map
JP5329677B2 (en) Depth and video coprocessing
US8488868B2 (en) Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
Tam et al. 3D-TV content generation: 2D-to-3D conversion
CN109360235B (en) Hybrid depth estimation method based on light field data
US9094675B2 (en) Processing image data from multiple cameras for motion pictures
US9137512B2 (en) Method and apparatus for estimating depth, and method and apparatus for converting 2D video to 3D video
JP5183277B2 (en) Stereoscopic image display device
KR102464523B1 (en) Method and apparatus for processing image property maps
EP3311361B1 (en) Method and apparatus for determining a depth map for an image
KR100918007B1 (en) Method of and scaling unit for scaling a three-dimensional model and display apparatus
KR101856805B1 (en) Image processing device, image processing method, and program
EP2569950B1 (en) Comfort noise and film grain processing for 3 dimensional video
JP2015522198A (en) Depth map generation for images
TWI531212B (en) System and method of rendering stereoscopic images
JP2002524937A (en) Method and apparatus for synthesizing a high resolution image using a high resolution camera and a low resolution camera
Jung A modified model of the just noticeable depth difference and its application to depth sensation enhancement
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
Frick et al. Generation of 3d-tv ldv-content with time-of-flight camera
KR101302431B1 (en) Method for converting 2 dimensional video image into stereoscopic video
KR101207862B1 (en) Method for converting 2 dimensional video image into stereoscopic video
Seitner et al. Trifocal system for high-quality inter-camera mapping and virtual view synthesis
JP5254297B2 (en) Image processing device
Wang et al. A novel approach for depth image based rendering, based on non-linear transformation of depth values
JP6056459B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee