[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101439406B1 - Image Processing Apparatus and Method for obtaining depth information using an image - Google Patents

Image Processing Apparatus and Method for obtaining depth information using an image Download PDF

Info

Publication number
KR101439406B1
KR101439406B1 KR1020120085116A KR20120085116A KR101439406B1 KR 101439406 B1 KR101439406 B1 KR 101439406B1 KR 1020120085116 A KR1020120085116 A KR 1020120085116A KR 20120085116 A KR20120085116 A KR 20120085116A KR 101439406 B1 KR101439406 B1 KR 101439406B1
Authority
KR
South Korea
Prior art keywords
vertices
image
mesh
depth
reference point
Prior art date
Application number
KR1020120085116A
Other languages
Korean (ko)
Other versions
KR20140010844A (en
Inventor
성민혁
임화섭
안상철
이성오
김형곤
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Publication of KR20140010844A publication Critical patent/KR20140010844A/en
Application granted granted Critical
Publication of KR101439406B1 publication Critical patent/KR101439406B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 일 실시예에 따르는 영상처리방법은 영상의 복수의 픽셀에 대응하는 복수의 정점(vertexes)과 복수의 다각형으로 구성되는 평면 메쉬를 형성하는 단계; 상기 각 정점과 대응하는 각 픽셀의 밝기 값에 상응하는 높이를 상기 복수의 정점에 설정하여 입체 메쉬를 형성하는 단계; 상기 높이의 차이가 기 설정된 범위 내에 있는 메쉬 영역을 결합하여 상기 입체 메쉬를 단순화하는 단계; 상기 영상의 깊이 값들을 갖는 복수의 기준점을 상기 영상의 시점(view point)으로 상기 영상에 매칭하는 단계; 상기 매칭된 기준점에 상기 단순화된 입체 메쉬의 정점들을 대응시켜 상기 정점들의 깊이 값을 추출하는 단계;를 포함하는 것을 특징으로 한다.An image processing method according to an exemplary embodiment of the present invention includes: forming a plane mesh composed of a plurality of vertices and a plurality of polygons corresponding to a plurality of pixels of an image; Forming a three-dimensional mesh by setting a height corresponding to a brightness value of each pixel corresponding to each of the vertices to the plurality of vertices; Simplifying the stereoscopic mesh by combining mesh regions in which the height difference is within a predetermined range; Matching a plurality of reference points having depth values of the image with the image at a view point of the image; And extracting depth values of the vertexes by associating vertices of the simplified stereoscopic mesh with the matched reference points.

Description

영상을 활용하여 깊이 정보를 획득하는 영상처리장치 및 영상처리방법{Image Processing Apparatus and Method for obtaining depth information using an image}TECHNICAL FIELD The present invention relates to an image processing apparatus and an image processing method for acquiring depth information using an image,

본 발명의 실시예들은 영상을 활용하여 깊이 정보를 획득하는 영상처리장치 및 영상처리방법에 관한 것으로서, 보다 상세하게는 영상으로부터 영상에 담긴 물체의 조밀한 깊이 정보를 획득하기 위한 영상처리장치 및 영상처리방법에 관한 것이다.The present invention relates to an image processing apparatus and an image processing method for acquiring depth information using an image, and more particularly, to an image processing apparatus and method for acquiring depth information of an object contained in an image from an image, And a method of processing the same.

3차원 복원 기술은 제품 설계 및 검사, 역공학, 영상콘텐츠 제작 분야 등 전문가들이 주로 사용하던 기술이었으나, 최근에 마이크로소프트의 Kinect와 같이 저렴한 가격의 소형 깊이 카메라가 상용화되면서 일반인들의 관심이 높아졌다. 이러한 3차원 복원 기술은 컴퓨터 비전 분야에서 활발히 연구되어 왔으며, structure from motion, space carving, shape from shading 등과 같이 영상으로부터 3차원 물체를 복원하는 방법이 주로 개발되고 연구되어 왔다. 3D restoration technology was used mainly by experts such as product design and inspection, reverse engineering, and image contents production. Recently, with the commercialization of low-cost small depth cameras such as Microsoft's Kinect, public interest has increased. Such 3D reconstruction techniques have been actively studied in the field of computer vision, and methods for reconstructing three-dimensional objects from images such as structure from motion, space carving, and shape from shading have been mainly developed and studied.

상기 예시들 중 structure from motion은 물체의 주위를 여러 위치에서 촬영할 때 발생하는 카메라의 움직임을 유추하는 방법으로 여러 시점의 2차원 영상들로부터 3차원 공간 정보를 취득한다. structure form motion은 다수의 영상으로부터 카메라의 움직임을 알아내기 위해서 코너와 같이 영상에서 추출이 용이한 특징점을 이용하여 영상간의 대응관계를 알아낸다. 이어서, 영상 정합 과정을 거친 뒤, 카메라 자동보정 과정을 거쳐, 3차원 공간 정보를 생성하여 3차원 복원을 완료한다.이 때, 3차원 공간 정보는 일반적으로 3차원 좌표 값을 갖는 기준점들의 집합 형태로 표현되는데, 이러한 방식으로 취득한 3차원 기준점들은 조밀하지 않다. 따라서, 사용자가 3차원 형태로 복원된 물체의 형태를 이해하거나 물체 간의 경계를 파악하기 어렵다. Among the above examples, the structure from motion acquires three-dimensional spatial information from two-dimensional images of various viewpoints by estimating camera motion occurring when photographing the surroundings of an object at various positions. The structure form motion finds the correspondence between images by using feature points that can be easily extracted from the image, such as corners, in order to find out camera movements from multiple images. Then, after the image matching process, the camera is automatically corrected to generate three-dimensional spatial information to complete the three-dimensional reconstruction. In this case, the three-dimensional spatial information is generally a set of reference points having three- The three-dimensional reference points acquired in this way are not dense. Therefore, it is difficult for the user to understand the shape of the reconstructed object in the three-dimensional form or to grasp the boundary between the objects.

또한, 3차원 기준점들의 집합은 입체 메쉬(mesh)와 달리 렌더링(rendering)을 통해 3차원 정보를 나타내거나 형태를 변형하기 어려워 다양하게 활용되기 힘들다는 한계를 가지고 있어 주로 메쉬로 변환하는 과정을 거친다. 그러나, 이러한 변환 과정이 일반적으로 쉽게 이루어지지 않으며, 특히 기준점들의 집합이 성긴(rough) 경우 원하는 형태의 메쉬를 얻기 더욱 어렵다.
In addition, the set of three-dimensional reference points has a limitation that it is difficult to use variously because it is difficult to represent three-dimensional information or to deform a shape through rendering, unlike a three-dimensional mesh, . However, this conversion process is generally not easy, and especially when the set of reference points is rough, it is more difficult to obtain the mesh of the desired shape.

따라서 위와 같은 문제를 해결하기 위하여 본 발명의 실시예들은 특정 시점에서 촬영된 영상의 밝기 정보와 상기 특정 시점과 같은 시점에서 추출된 기준점들을 활용하여 영상 전체의 조밀한 3차원 깊이 정보를 용이하게 취득하는 것을 목적으로 한다. Therefore, in order to solve the above problems, the embodiments of the present invention can easily acquire the dense three-dimensional depth information of the entire image using the brightness information of the image photographed at a specific point in time and the reference points extracted at the same point in time .

또한, 본 발명의 실시예들은 사용자에게 명확한 깊이 정보를 전달하기 위해 물체 간의 경계를 명확히 구분지을수 있는 3차원 깊이 정보를 제공하는 것을 목적으로 한다.
In addition, embodiments of the present invention aim to provide three-dimensional depth information that can clearly distinguish the boundaries between objects in order to convey clear depth information to a user.

이와 같은 본 발명의 해결 과제를 달성하기 위하여, 본 발명의 일 실시예에 따르는 영상처리방법은 영상의 복수의 픽셀에 대응하는 복수의 정점(vertexes)과 복수의 다각형으로 구성되는 평면 메쉬를 형성하는 단계; 상기 각 정점과 대응하는 각 픽셀의 밝기 값에 상응하는 높이를 상기 복수의 정점에 설정하여 입체 메쉬를 형성하는 단계; 상기 높이의 차이가 기 설정된 범위 내에 있는 메쉬 영역을 결합하여 상기 입체 메쉬를 단순화하는 단계; 상기 영상의 깊이 값들을 갖는 복수의 기준점을 상기 영상의 시점(view point)으로 상기 영상에 매칭하는 단계; 상기 매칭된 기준점에 상기 단순화된 입체 메쉬의 정점들을 대응시켜 상기 정점들의 깊이 값을 추출하는 단계; 를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an image processing method for forming a plane mesh composed of a plurality of vertices and a plurality of polygons corresponding to a plurality of pixels of an image, step; Forming a three-dimensional mesh by setting a height corresponding to a brightness value of each pixel corresponding to each of the vertices to the plurality of vertices; Simplifying the stereoscopic mesh by combining mesh regions in which the height difference is within a predetermined range; Matching a plurality of reference points having depth values of the image with the image at a view point of the image; Extracting depth values of the vertexes by matching vertices of the simplified stereoscopic mesh with the matched reference points; And a control unit.

바람직하게는, 이웃하는 두 개의 정점의 깊이 값 차이가 상기 두 개의 정점에 대응하는 픽셀들의 밝기 값 차이에 대응하도록 상기 두 개의 정점의 깊이 값을 조정하는 단계를 추가로 포함하는 것을 특징으로 한다.Preferably, the method further comprises adjusting the depth value of the two vertices so that the depth value difference between the two neighboring vertices corresponds to the brightness value difference of the pixels corresponding to the two vertices.

또한, 상기 두 개의 정점의 깊이 값을 조정하는 단계는 상기 두 개의 정점에 대응하는 두 개의 픽셀의 밝기 값 차이가 기 설정된 범위 이내인 경우, 상기 두 개의 정점의 깊이 값 차이가 상기 기 설정된 범위 이내가 되도록 상기 두 개의 정점의 깊이 값을 조정하는 것을 특징으로 한다.The step of adjusting the depth values of the two vertices may include adjusting the depth values of the two vertices within a predetermined range if the difference in brightness values of two pixels corresponding to the two vertices is within a predetermined range, The depth value of each of the two vertices is adjusted.

또한, 상기 추출된 깊이 값을 기초로 하여 상기 단순화된 입체 메쉬의 정점들의 높이를 설정함으로써 또 다른 입체 메쉬를 형성하는 단계를 추가로 포함하는 것을 특징으로 한다.The method further includes the step of forming another stereoscopic mesh by setting the height of the vertices of the simplified stereoscopic mesh on the basis of the extracted depth value.

또한, 상기 입체 메쉬를 형성하는 단계는 상기 평면 메쉬의 법선 방향으로 높이를 설정하는 것을 특징으로 한다.Further, the step of forming the three-dimensional mesh is characterized by setting the height in the normal direction of the plane mesh.

또한, 상기 입체 메쉬를 단순화 하는 단계는, 이웃하는 상기 다각형의 법선 벡터의 방향 차이가 기 설정된 범위 내인 경우, 상기 이웃하는 다각형이 공유하는 에지(edge)를 제거함으로써 상기 복수의 다각형의 수를 줄이는 것을 특징으로 한다.The step of simplifying the stereoscopic mesh may further include reducing the number of the plurality of polygons by removing an edge shared by the neighboring polygons when the direction difference of the normal vector of the neighboring polygon is within a predetermined range .

또한, 상기 입체 메쉬를 단순화하는 단계는 QEM(Quadric Error Metric) 알고리즘을 이용하는 것을 특징으로 한다.The step of simplifying the stereoscopic mesh is characterized by using a quadric error metric (QEM) algorithm.

또한, 상기 복수의 기준점을 상기 영상에 매칭하는 단계는 상기 각 기준점에 대해 상기 단순화된 입체 메쉬의 다각형이 매칭되는 것을 특징으로 한다.The step of matching the plurality of reference points to the image may include matching polygons of the simplified stereoscopic mesh with respect to each reference point.

또한, 상기 복수의 기준점을 상기 영상에 매칭하는 단계는 상기 입체 메쉬의 높이 값을 무시하여 상기 입체 메쉬를 또 다른 평면 메쉬로 인식하고 상기 복수의 기준점을 상기 영상에 매칭하는 것을 특징으로 한다.The step of matching the plurality of reference points to the image may include ignoring the height value of the three-dimensional mesh, recognizing the three-dimensional mesh as another plane mesh, and matching the plurality of reference points with the image.

또한, 상기 정점들의 깊이 값을 추출하는 단계는, 상기 매칭된 기준점과 상기 또 다른 평면 메쉬의 평면 사이의 거리가 상기 매칭된 기준점의 깊이 값에 상응하도록 상기 매칭된 기준점을 상기 영상에 투사하는 단계; 및 상기 투사된 기준점과 대응하는 다각형의 정점들의 깊이 값을 상기 투사된 기준점의 깊이 값으로부터 추출하는 단계;를 포함하는 것을 특징으로 한다.The step of extracting the depth values of the vertices may include projecting the matched reference point on the image so that the distance between the matched reference point and the plane of another plane mesh corresponds to the depth value of the matched reference point ; And extracting a depth value of the vertices of the polygon corresponding to the projected reference point from the depth value of the projected reference point.

또한, 상기 정점들의 깊이 값을 추출하는 단계는 상기 추출된 정점들을 상기 기준점의 위치로 보간(interpolation)하였을 때, 상기 추출된 정점들의 깊이 값은 상기 기준점의 깊이 값과 동일하게 되는 것을 특징으로 한다.The step of extracting the depth values of the vertices may include interpolating the extracted vertices to the reference point, wherein the extracted vertexes have the same depth value as the reference point .

또한, 상기 평면 메쉬의 다각형은 삼각형인 것을 특징으로 한다.The polygon of the plane mesh is a triangle.

한편, 본 발명의 다른 실시예에 따르는 영상표시장치는 단일 영상의 복수의 픽셀에 대응하는 복수의 정점(vertexes)과 복수의 다각형으로 구성되는 평면 메쉬를 형성하는 메쉬 생성부; 상기 평면 메쉬의 복수의 정점에 상기 각 정점과 대응하는 각 픽셀의 밝기 값에 상응하는 높이를 설정하여 입체 메쉬를 형성하고, 상기 높이의 차이가 기 설정된 범위 내에 있는 메쉬 영역을 결합하여 상기 입체 메쉬를 단순화하는 메쉬 단순화부; 상기 영상의 깊이 값들을 갖는 복수의 기준점을 상기 영상에 투사하되, 상기 각 기준점의 깊이 값이 상기 영상과 상기 각 기준점 간의 거리에 상응하도록 투사하는 기준점 매칭부; 및 상기 투사된 기준점에 상기 단순화된 입체 메쉬의 정점들을 대응시켜 상기 각 정점의 깊이 값을 추출하는 깊이 정보 추출부;를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an image display apparatus including: a mesh generation unit that forms a plane mesh composed of a plurality of vertices and a plurality of polygons corresponding to a plurality of pixels of a single image; Forming a three-dimensional mesh by setting a height corresponding to a brightness value of each pixel corresponding to each of the vertices at a plurality of vertices of the plane mesh, combining the mesh areas having a height difference within a predetermined range, A mesh simplification unit for simplifying the mesh size; A reference point matching unit for projecting a plurality of reference points having depth values of the image on the image so that a depth value of each reference point corresponds to a distance between the image and each reference point; And a depth information extraction unit for extracting depth values of the respective vertexes by associating vertices of the simplified stereoscopic mesh with the projected reference points.

바람직하게는, 이웃하는 두 개의 정점의 깊이 값 차이가 상기 두 개의 정점에 대응하는 픽셀들의 밝기 값 차이에 대응하도록 상기 두 개의 정점의 깊이 값을 조정하는 깊이정보 조정부를 추가로 포함하는 것을 특징으로 한다.Preferably, the image processing apparatus further includes a depth information adjusting unit that adjusts the depth values of the two vertices so that the depth value difference between the two neighboring vertices corresponds to the brightness value difference between the pixels corresponding to the two vertices. do.

또한, 상기 깊이정보 추출부는 하나의 기준점의 깊이 값으로부터 상기 기준점과 매칭하는 다각형의 정점들의 깊이 값을 추출하는 것을 특징으로 한다.
The depth information extraction unit may extract a depth value of a vertex of a polygon matching the reference point from a depth value of one reference point.

상기와 같이 구성되는 본 발명의 일 실시예에 관련된 영상처리장치 및 영상처리방법은 영상의 밝기 정보를 활용하여 평면 메쉬(mesh)를 생성하고 상기 생성된 메쉬의 각 정점에 대해 영상의 깊이 정보를 대응시킴으로써 모든 정점에 대한 3차원 깊이 정보를 용이하게 획득할 수 있다. The image processing apparatus and the image processing method according to an embodiment of the present invention configured as described above generate a plane mesh using brightness information of an image and provide depth information of the image for each vertex of the generated mesh It is possible to easily acquire three-dimensional depth information for all the vertices.

또한, 본 발명의 일 실시예는 영상의 깊이 정보가 같으면 영상에서의 밝기 정보가 비슷하다는 가정하에, 추출된 각 정점의 깊이 정보를 픽셀의 밝기 정보에 따라 조정함으로써 깊이 정보가 성길 때(비어있는 부분이 있거나 밀도가 균일하지 않을 때) 정보가 비어있는(부족한) 부분을 보간할 수 있다. According to an embodiment of the present invention, when the depth information of the image is the same, the depth information of each extracted vertex is adjusted according to the brightness information of the pixel under the assumption that the brightness information in the image is similar, There is a part or the density is not uniform), it is possible to interpolate the (empty) part where information is empty.

도 1은 본 발명의 일 실시예에 따르는 영상처리장치의 구조 블록도이다.
도 2는 본 발명의 일 실시예에 따르는 영상처리방법의 순서도이다.
도 3 내지 도 7은 본 발명의 일 실시예에 따른 메쉬 생성 단계 및 메쉬 단순화 단계를 설명하기 위한 개략도이다.
도 8a는 본 발명의 일 실시예에 따르는 입력 영상이다.
도 8b는 도 8a의 입력 영상을 본 발명의 일 실시예에 따라 메쉬 단순화한 영상이다.
도 9는 본 발명의 일 실시예에 따라 영상에 대한 복수의 기준점을 나타내는 개략도이다.
도 10 및 도 11은 본 발명의 일 실시예에 따르는 기준점 투사 단계 및 깊이 정보 추출 단계를 설명하기 위한 도 8의 Ⅰ~Ⅱ의 단면도이다.
도 12는 본 발명의 일 실시예에 따르는 깊이 정보 추출 단계에서 기준점으로부터 세 개의 정점의 깊이 값을 추출하는 모식도이다.
도 13은 본 발명의 일 실시예에 따라 최종적으로 조정된 깊이 정보를 메쉬화한 영상이다.
1 is a structural block diagram of an image processing apparatus according to an embodiment of the present invention.
2 is a flowchart of an image processing method according to an embodiment of the present invention.
3 to 7 are schematic views for explaining a mesh generation step and a mesh simplification step according to an embodiment of the present invention.
8A is an input image according to an embodiment of the present invention.
FIG. 8B is a simplified image of the input image of FIG. 8A according to an embodiment of the present invention.
9 is a schematic diagram illustrating a plurality of reference points for an image in accordance with an embodiment of the present invention.
FIGS. 10 and 11 are cross-sectional views of I-II in FIG. 8 for explaining a reference point projecting step and a depth information extracting step according to an embodiment of the present invention.
12 is a schematic diagram for extracting depth values of three vertices from a reference point in the depth information extracting step according to an embodiment of the present invention.
13 is an image obtained by meshing the depth information finally adjusted according to an embodiment of the present invention.

이하, 본 발명의 실시예에 따르는 영상처리장치 및 영상처리방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. Hereinafter, an image processing apparatus and an image processing method according to an embodiment of the present invention will be described in detail with reference to the drawings.

본 명세서에서는 서로 다른 실시예라도 동일, 유사한 구성에 대해서는 동일, 유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다. In the present specification, the same reference numerals are given to the same components in different embodiments, and the description thereof is replaced with the first explanation.

본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise.

그리고, 본 명세서에 첨부된 도면의 구성요소들은 설명의 편의를 위해 확대 또는 축소되어 도시되어 있을수 있음이 고려되어야 한다.It is to be understood that elements of the drawings attached hereto may be shown as being enlarged or reduced for convenience of description.

또한, 본 명세서에서 사용되는 제 1 , 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될수 있으나 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되므로 상기 구성 요소들은 상기 용어들에 의해 한정되지 않는다.Also, terms including ordinals such as first, second, etc. used in this specification may be used to describe various elements, but since the terms are used only for the purpose of distinguishing one element from another, The elements are not limited by these terms.

먼저, 도 1과 도 2를 참조하여, 본 발명의 일 실시예에 따른 영상처리장치의 구성과 영상처리방법을 설명한다. 본 발명의 일 실시예에 따른 영상처리장치는 메쉬 생성부(100), 메쉬 단순화부(200), 기준점 생성부(300), 기준점 매칭부(400), 깊이 정보 추출부(500), 깊이 정보 조정부(600), 표시부(700)를 포함한다. First, a configuration of an image processing apparatus and an image processing method according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. The image processing apparatus according to an exemplary embodiment of the present invention may include a mesh generation unit 100, a mesh simplification unit 200, a reference point generation unit 300, a reference point matching unit 400, a depth information extraction unit 500, An adjustment unit 600, and a display unit 700.

메쉬 생성부(100)는 특정한 하나의 시점(view point)에 대해 촬영된 영상에 대해 메쉬를 생성한다. 상기 영상은 각각의 밝기, 색상을 가지는 복수의 픽셀로 구성될 수 있다. 메쉬 생성부(100)는 복수의 픽셀에 매칭하는 다각형으로 구성되는 평면 메쉬를 생성할 수 있다(S10). 이때, 상기 다각형은 복수의 정점(vertexes)으로 구성되며, 바람직하게는 삼각형이 될 수 있다. The mesh generation unit 100 generates a mesh for an image captured at a specific view point. The image may be composed of a plurality of pixels each having brightness and color. The mesh generation unit 100 may generate a plane mesh composed of polygons matched with a plurality of pixels (S10). At this time, the polygon is composed of a plurality of vertices, preferably a triangle.

메쉬 단순화부(200)는 평면 메쉬를 입체 메쉬로 변환하여 단순화(simplification) 과정을 진행한다. The mesh simplification unit 200 converts the plane mesh into a three-dimensional mesh and performs a simplification process.

먼저, 메쉬 단순화부(200)는 평면 메쉬의 각 정점에 대해 높이 값을 부여하여 입체 메쉬를 생성한다(S20). 상기 높이 값은 각 픽셀이 가지는 밝기 값에 상응하는 값이 될 수 있다. 따라서, 생성된 입체 메쉬는 영상의 밝기 값에 비례하여 생성 될 수 있다. 이어서, 생성된 입체 메쉬에 대해 단순화(simplification) 과정을 진행한다(S30).메쉬 단순화 과정은 세밀하게 구성된 3차원 데이터를 처리하기 위해서는 많은 수행시간이 필요하기 때문에, 세밀하게 표현된 메쉬를 의미있는 정보를 가진 최적의 임계값 위주로 축약하기 위해 단순화하는 과정이다. 상기 메쉬 단순화 과정은 특정한 정점을 없애거나 이웃하는 두 다각형이 공유하는 에지(edge)를 없애는 방법으로 진행될 수 있다. First, the mesh simplifying unit 200 adds a height value to each vertex of the plane mesh to generate a three-dimensional mesh (S20). The height value may be a value corresponding to a brightness value of each pixel. Therefore, the generated stereoscopic mesh can be generated in proportion to the brightness value of the image. Then, the simplification process is performed on the generated stereoscopic mesh (S30). Since the mesh simplification process requires a long execution time to process finely structured three-dimensional data, It is a process of simplifying to reduce to an optimal threshold value with information. The mesh simplification process may be performed by eliminating a specific vertex or eliminating edges shared by neighboring two polygons.

기준점 생성부(300)는 영상과 같은 시점에서의 깊이 값을 가지는 복수의 기준점을 상기 영상으로부터생성한다. 기준점 생성부(300)는 깊이 카메라와 같은 구성을 통해 복수의 기준점을 생성할 수 있다. 다만, 기준점 생성부(300)는 본 발명의 일 실시예에 따른 영상처리장치에 포함되지 않을 수도 있으며, 이 경우 영상의 깊이 값은 사용자에 의해 외부로부터 획득되어 영상처리장치에 입력되는 방식으로 본 발명의 일 실시예가 구현될 수도 있다.The reference point generator 300 generates a plurality of reference points having the depth value at the same point in time as the image from the image. The reference point generating unit 300 may generate a plurality of reference points through a configuration such as a depth camera. However, the reference point generator 300 may not be included in the image processing apparatus according to an embodiment of the present invention. In this case, the depth value of the image is acquired from the outside by the user and input to the image processing apparatus. An embodiment of the invention may be implemented.

기준점 매칭부(400)는 생성된 복수의 기준점을 상기 영상이 촬영된 시점으로 상기 영상에 매칭한다(S40). 이때, 기준점 매칭부(400)는 단순화된 입체 메쉬의 높이 값을 생략하여 입체 메쉬를 또 다른 평면 메쉬로 인식하며, 상기 복수의 기준점을 또 다른 평면 메쉬에 매칭한다. The reference point matching unit 400 matches the generated plurality of reference points to the image at a time point when the image is captured (S40). At this time, the reference point matching unit 400 recognizes the three-dimensional mesh as another plane mesh by omitting the height value of the simplified three-dimensional mesh, and matches the plurality of reference points to another plane mesh.

깊이 정보 추출부(500)는 평면 메쉬의 각 정점이 가지는 깊이 값을 추출한다(S50). 구체적으로, 깊이 정보 추출부(500)는 기준점과 또 다른 평면 메쉬(영상의 평면) 사이의 거리가 기준점의 깊이 값에 상응하도록 상기 기준점을 상기 또 다른 평면 메쉬(영상)에 투사한다. 이어서, 평면 메쉬의 정점들은 기준점에 대응하게 되며, 기준점과 대응하는 정점들 사이의 관계를 소정의 수학식에 대입하는 연산을 통해 상기 정점들의 깊이 값을 추출할 수 있다.The depth information extraction unit 500 extracts the depth values of the vertices of the plane mesh (S50). Specifically, the depth information extracting unit 500 projects the reference point on the another plane mesh (image) so that the distance between the reference point and another plane mesh (plane of the image) corresponds to the depth value of the reference point. Then, the vertexes of the plane mesh correspond to the reference points, and the depth value of the vertices can be extracted through an operation of substituting the relation between the reference points and the corresponding vertices into a predetermined equation.

깊이 정보 조정부(600)는 정점들의 추출된 깊이 값의 차이가 정점들과 대응하는 영상의 픽셀들의 밝기 값 차이와 유사하도록 각 정점의 깊이 값을 조정한다(S60). 표시부(700)는 조정된 깊이 값을 사용자가 인식할 수 있는 데이터로 제공할 수 있다. 이때, 메쉬 생성부(100)가 상기 조정된 깊이 값을 이용하여 평면 메쉬의 각 정점에 높이 값을 부여함으로써 입체 메쉬를 생성하고, 표시부(700)는 사용자가 영상의 조밀한 깊이 정보를 한 눈으로 명확히 인식하도록 생성된 입체 메쉬를 표시 할 수 있다. The depth information adjustment unit 600 adjusts the depth value of each vertex so that the difference in extracted depth values of the vertices is similar to the difference in brightness values of the pixels of the image corresponding to the vertices (S60). The display unit 700 can provide the adjusted depth value as data that can be recognized by the user. At this time, the mesh generation unit 100 generates a stereoscopic mesh by giving a height value to each vertex of the plane mesh using the adjusted depth value, and the display unit 700 displays the dense depth information of the image in one eye The generated mesh can be displayed to clearly recognize the three-dimensional mesh.

이하, 본 발명의 일 실시예에 따르는 평면 메쉬 생성 단계(S10), 입체 메쉬 생성 단계(S20) 및 메쉬 단순화 단계(S30)를 도 3 내지 도 7을 통해 구체적으로 설명한다.Hereinafter, a plane mesh generation step (S10), a three-dimensional mesh generation step (S20), and a mesh simplification step (S30) according to an embodiment of the present invention will be described in detail with reference to FIG. 3 to FIG.

메쉬 생성부(100, 도 1 참조)는 사용자에 의해 선택된 영상(110)을 평면 메쉬화 한다. 여기서 상기 영상(110)은 컬러로 표현된 영상(110)일 수 있으며, 각각의 밝기와 색상을 가지는 복수의 픽셀로 구성된다. The mesh generator 100 (see FIG. 1) converts the image 110 selected by the user into a plane mesh. Here, the image 110 may be a color image 110, and may include a plurality of pixels having brightness and color.

이때, 메쉬 생성부(100)는 도 3과 같이 영상(110) 내의 모든 픽셀을 인접한 4개의 픽셀로 구성되는 복수의 픽셀 그룹들로 분할한다. 도 3에는 확대 표시된 세 개의 픽셀 그룹이 도시되어 있다. 예를 들어, 제 1 픽셀 그룹(G1)은 제 11 픽셀(P11), 제 12 픽셀(P12), 제 13 픽셀(P13), 제 14 픽셀(P14)로 구성되며, 제 2 픽셀 그룹(G2)은 제 13 픽셀(P13), 제 14 픽셀(P14), 제 21 픽셀(P21), 제 22 픽셀(P22)로 구성되고, 제 3 픽셀 그룹(G3)은 제 21 픽셀(P21), 제 22 픽셀(P22), 제 23 픽셀(P23), 제 24 픽셀(P24)로 구성된다. At this time, the mesh generation unit 100 divides all the pixels in the image 110 into a plurality of pixel groups composed of four adjacent pixels as shown in FIG. In Figure 3, three groups of pixels are shown enlarged. For example, the first pixel group G1 may include an eleventh pixel P11, a twelfth pixel P12, a thirteenth pixel P13, and a fourteenth pixel P14. The third pixel group G3 is composed of the twenty-first pixel P21, the twenty-second pixel P21, the twenty-second pixel P21, and the twenty-second pixel P22, (P22), a 23rd pixel (P23), and a 24th pixel (P24).

이때, 제 21 픽셀(P21), 제 13 픽셀(P13), 제 12 픽셀(P12) 순으로 높은 밝기 값을 가지며, 나머지 픽셀들은 가장 낮으며 서로 동일한 밝기 값을 가진다. In this case, the brightness is high in the order of the twenty-first pixel P21, the thirteenth pixel P13, and the twelfth pixel P12, and the remaining pixels have the lowest brightness values.

이어서, 메쉬 생성부(100)는 픽셀 그룹 내에서 서로 대각선에 위치한 픽셀 쌍을 정하고, 상기 각 픽셀 쌍의 밝기 값을 비교한다. 그리고, 메쉬 생성부(100)는 밝기 값의 차이가 더 적은 픽셀 쌍의 방향으로 대각선(112a, 112b)을 긋는다. 그 결과, 대각선을 기준으로 나뉘어지는 픽셀 쌍은 밝기 값 차이가 가장 큰 픽셀들이 된다. 이때, 하나의 픽셀 그룹은 두 개의 삼각형으로 나뉘어진다. 예를 들어, 제 1 픽셀 그룹(G1) 내에서 제 11 픽셀(P11)과 제 14 픽셀(P14)을 가로지르는 제 1 대각선(112a)이 생성되며, 제 2 픽셀 그룹 내에서 제 13 픽셀과 제 22 픽셀을 가로지르는 제 2 대각선(112b)가 생성되고, 제 3 픽셀 그룹(G3) 내에서 제 22 픽셀(P22)과 제 23 픽셀(P23)을 가로지르는 제 3 대각선(112c)이 생성된다. Then, the mesh generation unit 100 determines pairs of pixels located diagonally to each other in the pixel group, and compares brightness values of the pairs of pixels. Then, the mesh generator 100 draws diagonal lines 112a and 112b in the direction of a pixel pair having a smaller brightness difference. As a result, the pixel pairs divided by the diagonal are the pixels having the largest difference in brightness value. At this time, one pixel group is divided into two triangles. For example, a first diagonal line 112a is generated across the eleventh pixel P11 and the fourteenth pixel P14 in the first pixel group G1, and the first diagonal line 112a is generated in the second pixel group, A second diagonal line 112b across the 22 pixels is generated and a third diagonal line 112c across the 22nd pixel P22 and the 23rd pixel P23 is generated in the third pixel group G3.

이와 같은 형태로, 평면 메쉬는 복수의 삼각형과 정점으로 구성된다. 도 4에는상기 삼각형과 정점으로 구성되는 평면 메쉬의 일부분이 도시되어 있으며, 제 1 정점(v11)과 제 2 정점(v12)은 하나의 에지에 의해 연결되는 정점이다. 여기서 상기 평면 메쉬의 각 정점은 영상의 각 픽셀에 대응한다.In this form, the plane mesh consists of a plurality of triangles and vertices. FIG. 4 shows a part of the plane mesh composed of the triangle and the vertices, and the first vertex v11 and the second vertex v12 are connected by one edge. Wherein each vertex of the plane mesh corresponds to each pixel of the image.

이어서, 메쉬 단순화부(200, 도 1 참조)는 평면 메쉬에 높이 값을 할당하여 입체 메쉬를 형성한다. 여기서 먼저 도 5와 같이, 각 픽셀의 밝기 값과 상응하는 높이 값을 평면 메쉬의 각 정점에 할당한다. 그 결과, 평면 메쉬의 각 정점에 높이가 설정된다. 예를 들어, 도 4에서 평면 메쉬의 제 1 정점 및 제 2 정점(v11, v12)은 대응하는 픽셀에 따라 제 1 밝기 값 및 제 2 밝기 값이 할당되며, 제 1 밝기 값 및 제 2 밝기 값에 따라 제 1 높이 및 제 2 높이(h1, h2)가 설정된다. 도 5에서 각 정점들은 모두 다른 높이를 가지고 있으나, 재설정된 제 1 정점(v11’)의 제 1 높이(h1)와 제 2 정점(v12’)의 제 2 높이(h2)는 비슷하다. Then, the mesh simplifying unit 200 (see FIG. 1) allocates a height value to the plane mesh to form a three-dimensional mesh. First, as shown in FIG. 5, a brightness value corresponding to a brightness value of each pixel is assigned to each vertex of the plane mesh. As a result, a height is set at each vertex of the plane mesh. For example, in FIG. 4, the first vertex and the second vertex v11 and v12 of the plane mesh are assigned a first brightness value and a second brightness value according to corresponding pixels, and the first brightness value and the second brightness value The first height and the second height h1 and h2 are set. 5, all of the vertices have different heights, but the first height h1 of the reset first vertex v11 'is similar to the second height h2 of the second vertex v12'.

이어서, 높이를 가진 정점들을 모두 에지로 연결하면 도 6과 같은 형태의 입체 메쉬가 생성된다. 입체 메쉬의 삼각형들은 각 정점들의 높이 차이로 인해 모두 다른 방향의 법선 벡터 성분(n1 ~ n6)을 가지고 있다.  Then, connecting the vertices having the height with all the edges creates a stereoscopic mesh having the shape as shown in FIG. The triangular meshes have normal vector components (n1 ~ n6) in different directions due to their height differences.

그 후, 메쉬 단순화부(200)는 입체 메쉬를 단순화한다. 이때, 메쉬를 단순화하는 방법에는 이웃하는 정점을 결합하여 삼각형의 수를 줄이거나, 이웃하는 삼각형이 공유하는 에지를 제거하고 새로운 정점을 생성함으로써 삼각형의 수를 줄이는 방법이 선택될 수 있다. 이때, 제거될 에지의 선택과 생성될 새로운 정점의 선택은 QEM(Quadric Error Metic)이나 Variational Shape Approximation 등과 같은 방식을 이용한 알고리즘이 활용될 수 있다. 이하에서는 메쉬 단순화 방법으로서 에지를 제거하고 새로운 정점을 생성하는 방식을 대표적으로 설명하되, QEM 알고리즘을 이용한 경우를 예로 하여 설명한다. Thereafter, the mesh simplification unit 200 simplifies the three-dimensional mesh. At this time, a method of simplifying the mesh may be selected by reducing the number of triangles by combining neighboring vertices, or by reducing the number of triangles by removing the edges shared by neighboring triangles and creating new vertices. At this time, an algorithm using a scheme such as QEM (Quadric Error Metic) or Variational Shape Approximation can be utilized for selection of an edge to be removed and selection of a new vertex to be generated. Hereinafter, a method of removing edges and generating new vertices will be described as an example of a mesh simplification method, and an example using a QEM algorithm will be described as an example.

메쉬 단순화부(200)는 각 픽셀의 밝기 값을 기준으로 입체 메쉬를 단순화한다. 따라서, 메쉬 단순화의 기준은 각 정점의 높이 값과 관련되며, 보다 구체적으로는 이웃하는 삼각형의 법선 벡터의 방향이 얼마나 유사한지 여부가 메쉬 단순화의 기준이 된다. 즉, 메쉬 단순화부(200)는 이웃하는 삼각형의 법선 벡터 성분들의 각도 차이가 기 설정된 범위 이내에 해당할 경우, 이웃하는 삼각형이 공유하는 에지를 제거하고, 새로운 정점을 설정한 후, 상기 새로운 정점에 맞춰 다른 정점들로부터 에지를 새로이 설정하는 방식으로 입체 메쉬를 단순화한다.The mesh simplification unit 200 simplifies the stereoscopic mesh based on the brightness value of each pixel. Therefore, the criterion of mesh simplification is related to the height value of each vertex. More specifically, how the directions of the normal vectors of neighboring triangles are similar is a basis of mesh simplification. That is, when the angular difference between the normal vector components of the neighboring triangles falls within the preset range, the mesh simplifying unit 200 removes the edges shared by the neighboring triangles, sets a new vertex, Simplify the stereoscopic mesh by setting new edges from other vertices.

예를 들어, 도 6에는 일부 삼각형들의 법선 벡터 성분이 도시되어 있는데, 메쉬단순화부는 벡터 성분들의 각도 차이를 측정한다. 제 1 벡터(n1)와 이웃하는 벡터는 제 2 벡터(n2), 제 3 벡터(n3), 제 4 벡터(n4)이다. 이 중에서, 제 1 벡터(n1)와 가장 각도 차이가 적은 벡터는 제 2 벡터(n2)이다. 또한, 제 2 벡터(n2)와 이웃하는 벡터는 제 1 벡터(n1), 제 5 벡터(n5), 제 6 벡터(n6)이며, 이 중에서, 제 2 벡터(n2)와 가장 각도 차이가 적은 벡터는 제 1 벡터(n1)이다. 따라서, 제 1 벡터(n1)와 제 2 벡터(n2)가 가장 유사한 벡터가 된다. 이때, 메쉬 단순화부(200)는 제 1 벡터(n1)와 제 2 벡터(n2)의 각도 차이가 기 설정된 범위 내인지 판단하며, 기 설정된 범위 내라고 판단한 경우, 제 1 벡터(n1)의 삼각형과 제 2 벡터(n2)의 삼각형이 공유하는 에지(E)를 제거한다. 에지(E)는 제 1 정점(v11’)과 제 2 정점(v12’)을 포함하므로, 제 1 및 제 2 정점(v11’, v12’)도 제거된다. 그리고 도 7과 같이 제 3 정점(v13, v13’)을 생성하고, 각 정점들과 제 3 정점(v13, v13’)을 잇는 새로운 에지들을 생성함으로써 입체 메쉬가 단순화된다. For example, FIG. 6 shows the normal vector components of some triangles, which measure the angular difference of the vector components. The vectors neighboring the first vector n1 are the second vector n2, the third vector n3, and the fourth vector n4. Among them, the vector having the smallest angular difference from the first vector n1 is the second vector n2. The vector adjacent to the second vector n2 is a first vector n1, a fifth vector n5 and a sixth vector n6. Of these, the second vector n2 has the smallest angular difference The vector is the first vector (n1). Therefore, the first vector n1 and the second vector n2 become the most similar vector. At this time, the mesh simplifying unit 200 determines whether the angular difference between the first vector n1 and the second vector n2 is within a predetermined range. If it is determined that the angular difference is within the predetermined range, And removes the edge (E) shared by the triangle of the second vector (n2). Since the edge E includes the first vertex v11 'and the second vertex v12', the first and second vertices v11 'and v12' are also removed. As shown in FIG. 7, the stereoscopic mesh is simplified by generating the third vertices v13 and v13 'and creating new edges connecting the vertices and the third vertices v13 and v13'.

그리고 메쉬 단순화 과정 중 에지의 제거는 법선 벡터들의 각도차이가 기 설정된 범위 이내에 해당하는 한, 각도차이가 가장 적은 법선 벡터들과 연관되는 에지부터 순차적으로 제거하여 삼각형의 개수가 특정 개수 이하가 될때까지 진행된다. 여기서 동시에 진행하지 않고 순차적으로 진행하는 이유는 에지를 제거하면서 새로운 삼각형이 생성되기 때문이다.The removal of the edge during the mesh simplification process is carried out until the number of triangles becomes equal to or less than the specific number, as long as the angular difference of the normal vectors is within the predetermined range, It proceeds. This is because the new triangle is generated while removing the edge.

그 결과, 단순화된 메쉬는 밝기 값이 다른 두 영역의 경계 부분에 에지가 형성된다.As a result, the simplified mesh has edges formed at the boundary of two regions having different brightness values.

여기서 도 8a와 도 8b를 예를 들어 설명한다. 도 8a는 최초의 입력 영상이며, 도 8b는 메쉬 단순화가 진행된 입력 영상이다. 도 8a에서 서랍의 정면은 황토색 계열로 밝기가 높으며, 서랍의 측면은 회색 계열로 밝기가 낮다. 여기서 도 8b를 참고하면, 서랍의 측면과 서랍의 정면의 경계는 에지에 의해 명확히 형성되어있으며, 에지를 기준으로 서랍의 측면과 정면의 밝기는 명확히 구분된다.Here, FIGS. 8A and 8B will be described by way of example. FIG. 8A shows the first input image, and FIG. 8B shows an input image in which the mesh simplification is performed. In FIG. 8A, the front of the drawer is ocher-colored and has a high brightness, while the side of the drawer is gray-based and low in brightness. Referring to FIG. 8B, the boundary between the side of the drawer and the front of the drawer is clearly defined by the edge, and the brightness of the side and front of the drawer is clearly distinguished from the edge.

이러한 방식으로 메쉬 단순화부(200)는 영상의 밝기 차가 적은 영역들끼리 포괄하는 큰 삼각형들을 생성한다. 그 결과, 밝기 차이가 큰 픽셀들에 대응하는 삼각형들은 상기 삼각형들 사이의 에지를 기준으로 급격한 경사차이를 가지게 되므로, 밝기 차이가 큰 영역은 상기 에지로 인해 명확히 구분될 수 있다. In this manner, the mesh simplification unit 200 generates large triangles that include regions having small differences in brightness of images. As a result, since the triangles corresponding to the pixels with large brightness differences have a steep slope difference with respect to the edge between the triangles, the region having a large brightness difference can be clearly distinguished by the edge.

이어서, 본 발명의 일 실시예에 따르는 기준점 투사 단계(S40) 및 깊이 정보 추출 단계(S50)를 도 9 내지 도 11을 통해 구체적으로 설명한다.Next, a reference point projection step (S40) and a depth information extraction step (S50) according to an embodiment of the present invention will be described in detail with reference to FIG. 9 to FIG.

먼저, 영상의 깊이 정보를 가지는 기준점은 기준점 생성부(300, 도 1 참조)에 의해 생성되며, 복수의 기준점은 한 시점에서 촬영된 영상이 가지는 복수의 깊이 값을 가진다. 복수의 기준점은 motion from structure 등의 방법으로 구현된 경우, 균일한 밀도를 가질 수 없으며, 깊이 카메라를 사용하는 경우 깊이 값을 측정할 수 있는 깊이 범위의 제한이나 실제 공간 상에 뒤에 있는 물체가 앞에 있는 물체에 의해 가려지는 문제 때문에 부분적으로 빈틈을 많이 가질 수 있다. 따라서, 본 발명의 일 실시예에서 원하는 깊이 정보가 될 수 없다.First, a reference point having depth information of an image is generated by a reference point generator 300 (see FIG. 1), and a plurality of reference points have a plurality of depth values of an image captured at one point in time. When a depth camera is used, a plurality of reference points can not have a uniform density when they are implemented by a method such as a motion from structure, and a limitation of a depth range in which a depth value can be measured. There can be a lot of gaps in part because of problems covered by objects. Therefore, it can not be the desired depth information in one embodiment of the present invention.

이때, 기준점 생성부(300)는 깊이 카메라(depth camera) 등으로 구현될 수 있으며, motion from structure등의 방법으로 기준점을 구할 수 있다. 깊이 카메라는 적외선 센서를 통해 카메라로부터 물체까지의 거리를 측정하여 영상으로 출력한다. 기준점 매칭부(400, 도 1 참조)는 도 9와 같이 기준점(120)들을 영상에 매칭하되, 영상(110)의 시점으로 매칭시킨다. 이때, 영상(110)에 대응하여 생성된 입체 메쉬는 높이 값만이 무시된 평면 메쉬로 인식된다. 이때, 기준점의 매칭으로 평면 메쉬의 삼각형과 기준점(120)들의 매칭 관계를 알 수 있다. 일반적으로, 투사된 기준점(120)은 하나의 삼각형과 매칭한다. 그러나, 기준점(120)은 균일하지 않은 밀도로 구성되므로 기준점(120)이 투사된 평면 메쉬를 확대하여 보면, 기준점과 매칭하지 않는 삼각형이 존재 할 수 있다.At this time, the reference point generator 300 may be implemented by a depth camera or the like, and a reference point may be obtained by a method such as a motion from structure. The depth camera measures the distance from the camera to the object through the infrared sensor and outputs it as an image. The reference point matching unit 400 (see FIG. 1) matches the reference points 120 with the image 110, as shown in FIG. At this time, the stereoscopic mesh generated corresponding to the image 110 is recognized as a plane mesh in which only the height value is ignored. At this time, the matching relation of the triangle of the plane mesh and the reference points 120 can be known by matching the reference points. Generally, the projected reference point 120 matches one triangle. However, since the reference point 120 has a non-uniform density, when the reference point 120 is projected on the plane mesh, a triangle that does not match the reference point may exist.

그리고 깊이 정보 추출부(500, 도 1 참조)는 매칭된 기준점(120)들과 영상(110) 간의 거리가 기준점(120)의 깊이 값과 상응하도록 기준점(120)을 투사한다. 여기서 도 10을 참조하여, Ⅰ~Ⅱ 영역의 단면을 살펴본다. 도 10에서, 기준점(120)들은 영상(110)의 표면에 대하여 각기 다른 간격으로 배치되어 있다. 예를 들어, 제 1 기준점(120)은 제 1 깊이 값을 가지므로, 제 1 기준점(120a)과 영상(110) 사이의 간격은 제 1 깊이 값(d1)과 동일할 수 있다. 그리고 제 2 기준점(120b)은 제 2 깊이 값을 가지므로 제 2 기준점(120)과 영상(110) 사이의 간격은 제 2 깊이 값(d2)과 동일할 수 있다. 이때, 제 1 깊이 값(d1)과 제 2 깊이 값(d2)는 다르다. 1) projects the reference point 120 such that the distance between the matched reference points 120 and the image 110 corresponds to the depth value of the reference point 120. In this case, Here, with reference to FIG. 10, a cross section of the regions I to II will be described. In FIG. 10, the reference points 120 are arranged at different intervals with respect to the surface of the image 110. For example, since the first reference point 120 has a first depth value, an interval between the first reference point 120a and the image 110 may be equal to the first depth value d1. Since the second reference point 120b has a second depth value, an interval between the second reference point 120 and the image 110 may be equal to the second depth value d2. At this time, the first depth value d1 and the second depth value d2 are different.

그리고 밀도가 불균일하고 산발적으로 분포된 기준점들의 위치를 선을 그어 영상에 대한 깊이 정보를 나타내면 기준선(125)과 같다.Then, the position of the reference points scattered randomly and scattered is line-drawn, and the depth information of the image is shown as the reference line 125.

이때, 도 12와 같이, 하나의 기준점(120)과 기준점(120)에 매칭하는 평면 메쉬의 삼각형으로부터 세 개의 정점(vi1, vi2, vi3)의 깊이 값(di1, di2, di3)을 추출할 수 있다. 구체적으로, 기준점(120)과 세 개의 정점들(vi1, vi2, vi3) 간의 관계를 연산함으로써, 깊이 값(di1, di2, di3)을 가지는 새로운 세 개의 정점(vi1’, vi2’, vi3’)을 구할 수 있다.이때, 세 정점(vi1’, vi2’, vi3’)의 깊이 값들(di1, di2, di3)은 상기 세 정점(vi1’, vi2’, vi3’)을 투사된 기준점(120)의 위치로 보간(interpolate)하였을 때의 계산 결과가 기준점(120)의 깊이 값(d120)과 동일하게 된다.12, the depth values d i1 , d i2 , and d i3 of the three vertices v i1 , v i2 , and v i3 from the triangle of the plane mesh matching one reference point 120 and the reference point 120 i3 can be extracted. Specifically, the reference point 120 and the three vertices by computing the relationship between (v i1, v i2, v i3), the depth value of the new three vertices with the (d i1, d i2, d i3), (v i1 ' , v i2 can be obtained ', v i3'). At this time, the three vertices (v i1 ', v i2', v depth values i3 ') (d i1, d i2, d i3) are the three vertices (v i1 ', v i2 ', and v i3 'are interpolated to the projected reference point 120, the calculation result becomes the same as the depth value d120 of the reference point 120.

상기 세 정점의 깊이 값을 추출하기 위한 연산은 아래와 같은 수학식1을 통해 이루어진다. An operation for extracting the depth value of the cleavage point is performed by the following equation (1).

Figure 112012062184659-pat00001
Figure 112012062184659-pat00001

Figure 112012062184659-pat00002
Figure 112012062184659-pat00002

여기서 si는 기준점을 의미하며, f(si)는 si에 매칭하는 삼각형의 평면을 의미하며, pi는 상기 삼각형의 평면에 포함되는 임의의 점을 의미하며,

Figure 112012062184659-pat00003
은 상기 삼각형의 평면의 법선 벡터를 의미한다.Here, si denotes a reference point, f (s i ) denotes a plane of a triangle matching s i , p i denotes an arbitrary point included in the plane of the triangle,
Figure 112012062184659-pat00003
Represents the normal vector of the plane of the triangle.

E는 정점의 깊이 값으로부터 정의되는 오류 값이다. E는 각 기준점과 그에 매칭하는 삼각형의 평면 사이의 거리의 제곱을 합함으로써 도출된다. E is an error value defined from the depth value of the vertex. E is derived by summing the squares of the distance between each reference point and the plane of the matching triangle.

여기서 세 정점의 깊이 값은 E가 최소가 되도록 연산하는 과정에서 구해질 수 있다.이상의 과정을 통해 추출된 결과는 사용자에게 조밀한 깊이 정보를 제공할 수 있다. 그러나, 기준점은 밀도가 균일하지 않으므로, 모든 삼각형에 대해 매칭하는 기준점이 존재할 수 없다. 따라서, 연결되는 삼각형들이 매칭하는 기준점을 가지지 않는 임의의 정점이 있는 경우, 상기 임의의 정점의 깊이 값은 추출될 수 없다. 또한, 기준점의 깊이 값에 노이즈가 반영되어 있는 경우, 추출된 세 정점은 상기 노이즈를 그대로 반영하게 된다.Here, the depth value of the three vertices can be obtained by calculating E to be minimum. The extracted result can provide dense depth information to the user. However, since the reference points are not uniform in density, there can not exist matching reference points for all the triangles. Thus, if there is an arbitrary vertex that does not have a matching reference point, the depth value of the arbitrary vertex can not be extracted. Further, when noise is reflected in the depth value of the reference point, the extracted cleavage point reflects the noise as it is.

따라서, 본 발명의 일 실시예는 위와 같은 점을 보완하기 위하여 깊이 정보 조정부(600, 도 1 참조)를 통해 깊이 정보를 조정하는 단계를 포함한다. Therefore, an embodiment of the present invention includes a step of adjusting the depth information through the depth information adjuster 600 (see FIG. 1) to compensate for the above.

깊이 정보 조정부(600)는 영상에 포함된 이웃하는 픽셀의 밝기 값이 유사하면, 깊이 값도 유사하다는 가정하에, 하나의 에지로 연결된 두 개의 정점에 대응하는 두 개의 픽셀의 밝기 값이 유사한 경우, 상기 두 개의 정점의 깊이 값이 상기 밝기 값과 유사한 값을 가지도록 연산한다.If the brightness values of two pixels corresponding to two vertices connected by one edge are similar to each other under the assumption that the depth values are similar if the brightness values of neighboring pixels included in the image are similar, And the depth value of the two vertices has a value similar to the brightness value.

구체적으로, 깊이 정보 조정부(600)는 상기 두 개의 픽셀의 밝기 값 차이가 기 설정된 범위 이내 인 경우, 상기 두 개의 픽셀과 대응하는 두 개의 정점의 깊이 값 차이도 상기 기 설정된 범위 이내가 되도록 연산한다.Specifically, when the brightness difference between the two pixels is within a predetermined range, the depth information adjustment unit 600 calculates a depth value difference between the two vertices corresponding to the two pixels to be within the preset range .

이러한 깊이 값 조정을 위해 깊이 정보 조정부(600)는 수학식 1에서 팩터 하나를 더 추가한 수학식2를 연산한다.In order to adjust the depth value, the depth information adjusting unit 600 calculates Equation (2) by adding one more factor in Equation (1).

Figure 112012062184659-pat00004
Figure 112012062184659-pat00004

추가된 팩터는 정점의 깊이 값을 픽셀의 밝기 값과 유사하도록 연산하기 위한 항목으로서, 삼각형의 세 개의 에지 중 하나의 에지(ei)를 구성하는 하나의 정점(vi1)과 다른 하나의 정점(vi2)의 깊이 값 차이의 제곱의 합으로 도출된다. 여기서 XY(vi1)-XY(vi2)는 상기 두 정점(vi1, vi2)의 평면상 거리 차이를 의미하며, I(vi1)-I(vi2)는 상기 두 정점(vi1, vi2)의 밝기 값 차이를 의미하며, Z(vi1)-Z(vi2)는 상기 두 정점(vi1, vi2)의 깊이 값 차이를 의미한다.The added factor is an item for calculating the depth value of the vertex to be similar to the brightness value of the pixel. The vertex (v i1 ) constituting one edge (e i ) of the three edges of the triangle and the other vertex (v i2 ). < / RTI > Wherein XY (v i1) -XY (v i2) is the two vertex distance difference between the mean plane (v i1, v i2) and, I (v i1) -I ( v i2) is the two vertices (v i1 , v i2 ), and Z (v i1 ) -Z (v i2 ) represents a difference in depth value between the two vertices v i1 and v i2 .

그리고 추가된 팩터에는 사용자 지정값인 w가 곱해지는데, E가 첫번째 팩터 또는 두번째 팩터 중 어느 팩터에 중점을 두어 계산될 것인지에 대해 결정하기 위한 상수이다. 예를 들어, 사용자가 w에 매우 큰 값을 할당하면, 최초의 팩터는 거의 무시되고, 추가된 팩터가 거의 대부분의 E값을 차지하게 된다. 그 결과, 거의 모든 정점이 거의 같은 깊이 값을 가지게 된다. 반면, 사용자가 w에 매우 작은 값을 할당하면, 추가된 팩터는 거의 무시되고, 최초의 팩터가 거의 대부분의 E 값을 차지하게 된다. 그 결과, 수학식1과 거의 동일한 결과가 도출된다.And the added factor is a constant for determining whether E is to be computed based on which of the first factor or the second factor is multiplied by the custom value w. For example, if a user assigns a very large value to w, the first factor is almost ignored, and the added factor takes up most of the E value. As a result, almost all vertices have approximately the same depth value. On the other hand, if the user assigns a very small value to w, the added factor is almost ignored, and the first factor takes up most of the E value. As a result, substantially the same result as in the expression (1) is obtained.

따라서, w는 적절한 값으로 할당되어야한다. 적절한 w를 사용할 경우, 매칭하는 기준점이 없는 정점을 보간하여 깊이 값을 구할 수 있을 뿐만 아니라, 에지로 연결된 정점들이 서로 유사한 값을 가지도록 영향을 미치게 되므로 노이즈가 적게 반영되는 효과를 나타낼 수 있다.이와 같은 과정을 통해, 추출된 깊이 정보에 픽셀의 밝기 값을 반영함으로써, 영상에 촬영된 물체 간의 밝기 경계를 명확히 구분짓는 깊이 정보를 산출할 수 있다. 예를 들어, 도 8b에서는 서랍의 측면과 벽면의 경계가 불명확하게 표시되어 있으나 도 13에서는 서랍의 측면과 벽면의 경계가 에지로 명확하게 표시되어 있다. 그리고 도 8b에서는 서랍의 전체 실루엣의 경계가 불명확하나, 도 13에서는 서랍의 전체 실루엣의 경계가 뚜렷하게 표시되어 있다.
Therefore, w should be assigned an appropriate value. When a proper w is used, not only a depth value can be obtained by interpolating a vertex having no matching reference point but also an effect that the vertices connected to the edge have a similar value to each other, so that the noise is less reflected. Through such a process, depth information that clearly distinguishes the brightness boundary between objects photographed on the image can be calculated by reflecting the brightness value of the pixel on the extracted depth information. For example, in FIG. 8B, the boundary between the side surface and the wall surface of the drawer is indefinitely displayed, but in FIG. 13, the boundary between the side surface and the wall surface of the drawer is clearly indicated by an edge. In FIG. 8B, the boundaries of the entire silhouette of the drawer are unclear, but in FIG. 13, the boundaries of the entire silhouette of the drawer are clearly marked.

최종적으로 추출된 깊이 값들은 수치적인 데이터로 사용자에게 제공될 수도 있으나, 평면 메쉬에 상기 최종 추출된 깊이 값들을 높이로 설정함으로써 입체 메쉬를 생성하여 사용자가 직관적으로 조밀한 3차원 정보를 알아 볼수있도록 제공될 수도 있다. Finally, the extracted depth values may be provided to the user as numerical data. However, by setting the final extracted depth values in the plane mesh as height, a stereoscopic mesh is created so that the user can intuitively find the three-dimensional information intuitively. May be provided.

이상으로 설명한 바와 같이 본 발명의 일 실시예는 영상의 밝기 값을 이용하여 메쉬를 생성하고 단순화한 뒤, 기준점의 깊이 값을 이용하여 메쉬의 정점의 깊이 정보를 추출함으로써 특정 시점에서 촬영된 영상으로부터 조밀한 3차원 깊이 정보를 생성할 수 있다. 또한, 본 발명의 일 실시예는 추출된 깊이 정보를 픽셀의 밝기 정보와 매칭함으로써 영상 내에서 밝기 차이가 큰 두 영역을 명확히 구분하는 3차원 깊이 정보를 제공할 수 있다. As described above, according to an embodiment of the present invention, a mesh is generated and simplified using brightness values of an image, and depth information of a vertex of the mesh is extracted using a depth value of a reference point, It is possible to generate dense three-dimensional depth information. In addition, an embodiment of the present invention can provide three-dimensional depth information that clearly distinguishes two areas having a large brightness difference in an image by matching extracted depth information with brightness information of a pixel.

이상에서 본 발명의 바람직한 실시 예들에 대하여 상세하게 설명하였지만, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 수 있을 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments.

따라서, 본 발명의 권리범위는 이에 한정되는 것이 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
Therefore, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also within the scope of the present invention.

100 : 메쉬 생성부 200 : 메쉬 단순화부
300 : 기준점 생성부 400 : 기준점 매칭부
500 : 깊이 정보 추출부 600 : 깊이 정보 조정부
700 : 표시부
100: mesh generation unit 200: mesh simplification unit
300: reference point generating unit 400: reference point matching unit
500: depth information extracting unit 600: depth information adjusting unit
700:

Claims (15)

영상의 복수의 픽셀에 대응하는 복수의 정점(vertexes)과 복수의 다각형으로 구성되는 평면 메쉬를 형성하는 단계;
상기 각 정점과 대응하는 각 픽셀의 밝기 값에 상응하는 높이를 상기 복수의 정점에 설정하여 입체 메쉬를 형성하는 단계;
상기 높이의 차이가 기 설정된 범위 내에 있는 정점들을 결합하여 상기 입체 메쉬의 다각형의 개수를 감소시키는 단계;
상기 영상의 깊이 값들을 갖는 복수의 기준점을 상기 영상의 시점(view point)으로 상기 영상에 매칭하는 단계; 및
상기 매칭된 기준점에 상기 다각형의 개수가 감소된 입체 메쉬의 정점들을 대응시켜 상기 정점들의 깊이 값을 추출하는 단계;
를 포함하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
Forming a planar mesh comprising a plurality of vertices and a plurality of polygons corresponding to a plurality of pixels of an image;
Forming a three-dimensional mesh by setting a height corresponding to a brightness value of each pixel corresponding to each of the vertices to the plurality of vertices;
Reducing the number of polygons of the stereoscopic mesh by combining vertices whose difference in height is within a predetermined range;
Matching a plurality of reference points having depth values of the image with the image at a view point of the image; And
Extracting a depth value of the vertexes by associating vertices of the stereoscopic mesh with the number of the polygons decreased at the matched reference point;
Wherein the depth information is obtained by using an image.
제 1 항에 있어서,
이웃하는 두 개의 정점의 깊이 값 차이가 상기 두 개의 정점에 대응하는 픽셀들의 밝기 값 차이에 대응하도록 상기 두 개의 정점의 깊이 값을 조정하는 단계를 추가로 포함하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
The method according to claim 1,
Adjusting the depth values of the two vertices so that the depth value difference between the two neighboring vertices corresponds to the brightness value difference between the pixels corresponding to the two vertices. An image processing method for acquiring information.
제 2 항에 있어서,
상기 두 개의 정점의 깊이 값을 조정하는 단계는 상기 두 개의 정점에 대응하는 두 개의 픽셀의 밝기 값 차이가 기 설정된 범위 이내인 경우, 상기 두 개의 정점의 깊이 값 차이가 상기 기 설정된 범위 이내가 되도록 상기 두 개의 정점의 깊이 값을 조정하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
3. The method of claim 2,
The step of adjusting the depth values of the two vertices may include adjusting the depth values of the two vertices such that when the difference in brightness values of the two pixels corresponding to the two vertices is within a predetermined range, And adjusting the depth values of the two vertices to obtain depth information using the image.
제 1 항에 있어서,
상기 추출된 깊이 값을 기초로 하여 상기 다각형의 개수가 감소된 입체 메쉬의 정점들의 높이를 설정함으로써 또 다른 입체 메쉬를 형성하는 단계를 추가로 포함하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
The method according to claim 1,
Further comprising the step of forming another stereoscopic mesh by setting the height of the vertexes of the stereoscopic mesh whose number of polygons has been reduced based on the extracted depth value to acquire depth information / RTI >
제 1 항에 있어서,
상기 입체 메쉬를 형성하는 단계는 상기 평면 메쉬의 법선 방향으로 높이를 설정하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
The method according to claim 1,
Wherein the step of forming the solid mesh sets a height in a normal direction of the plane mesh.
제 1 항에 있어서,
상기 입체 메쉬의 다각형의 개수를 감소시키는 단계는,
상기 높이의 차이가 상기 다각형의 법선 벡터의 방향 차이에 비례하는 경우,
이웃하는 상기 다각형의 법선 벡터의 방향 차이가 기 설정된 범위 내 일 때, 상기 이웃하는 다각형이 공유하는 에지(edge)를 제거함으로써 상기 입체 메쉬의 다각형의 개수를 줄이는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
The method according to claim 1,
Wherein the step of reducing the number of polygons of the three-
If the height difference is proportional to the direction difference of the normal vector of the polygon,
Wherein the number of polygons of the three-dimensional mesh is reduced by removing an edge shared by the neighboring polygons when a direction difference of a normal vector of the neighboring polygon is within a predetermined range, An image processing method for acquiring information.
제 1 항에 있어서,
상기 입체 메쉬의 다각형의 개수를 감소시키는 단계는 QEM(Quadric Error Metric) 알고리즘을 이용하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
The method according to claim 1,
Wherein the step of reducing the number of polygons of the stereoscopic mesh uses a quadric error metric (QEM) algorithm.
제 1 항에 있어서,
상기 복수의 기준점을 상기 영상에 매칭하는 단계는 상기 각 기준점에 대해 상기 다각형의 개수가 감소된 입체 메쉬의 다각형이 매칭되는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
The method according to claim 1,
Wherein the step of matching the plurality of reference points with the image matches the polygons of the three-dimensional mesh whose number of polygons is reduced with respect to each reference point.
제 1 항에 있어서,
상기 복수의 기준점을 상기 영상에 매칭하는 단계는 상기 입체 메쉬를 또 다른 평면 메쉬로 인식하여 상기 복수의 기준점을 상기 영상에 매칭하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
The method according to claim 1,
Wherein the step of matching the plurality of reference points with the image further comprises recognizing the stereoscopic mesh as another plane mesh and matching the plurality of reference points with the image, wherein the depth information is obtained using the image.
제 9 항에 있어서,
상기 정점들의 깊이 값을 추출하는 단계는,
상기 매칭된 기준점과 상기 또 다른 평면 메쉬의 평면 사이의 거리가 상기 매칭된 기준점의 깊이 값에 상응하도록 상기 매칭된 기준점을 상기 영상에 투사하는 단계; 및
상기 투사된 기준점과 대응하는 다각형의 정점들의 깊이 값을 상기 투사된 기준점의 깊이 값으로부터 추출하는 단계;
를 포함하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
10. The method of claim 9,
The step of extracting the depth values of the vertices includes:
Projecting the matched reference point onto the image such that a distance between the matched reference point and a plane of another plane mesh corresponds to a depth value of the matched reference point; And
Extracting a depth value of a vertex of a polygon corresponding to the projected reference point from a depth value of the projected reference point;
Wherein the depth information is obtained by using an image.
제 10 항에 있어서,
상기 정점들의 깊이 값을 추출하는 단계는 상기 추출된 정점들을 상기 기준점의 위치로 보간(interpolation)하였을 때, 상기 추출된 정점들의 깊이 값은 상기 기준점의 깊이 값과 동일하게 되는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
11. The method of claim 10,
Wherein the step of extracting the depth values of the vertices comprises interpolating the extracted vertices to the position of the reference point so that the depth value of the extracted vertices becomes equal to the depth value of the reference point. A method of image processing for acquiring depth information by utilizing the method.
제 1 항에 있어서,
상기 평면 메쉬의 다각형은 삼각형인 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리방법.
The method according to claim 1,
Wherein the polygon of the plane mesh is a triangle, and the depth information is obtained using the image.
단일 영상의 복수의 픽셀에 대응하는 복수의 정점(vertexes)과 복수의 다각형으로 구성되는 평면 메쉬를 형성하는 메쉬 생성부;
상기 평면 메쉬의 복수의 정점에 상기 각 정점과 대응하는 각 픽셀의 밝기 값에 상응하는 높이를 설정하여 입체 메쉬를 형성하고, 상기 높이의 차이가 기 설정된 범위 내에 있는 정점들을 결합하여 상기 입체 메쉬의 다각형의 개수를 감소시키는 메쉬 단순화부;
상기 영상의 깊이 값들을 갖는 복수의 기준점을 상기 영상에 투사하되, 상기 각 기준점의 깊이 값이 상기 영상과 상기 각 기준점 간의 거리에 상응하도록 투사하는 기준점 매칭부; 및
상기 투사된 기준점에 상기 다각형의 개수가 감소된 입체 메쉬의 정점들을 대응시켜 상기 각 정점의 깊이 값을 추출하는 깊이 정보 추출부;
를 포함하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리장치.
A mesh generation unit for forming a plane mesh composed of a plurality of vertices and a plurality of polygons corresponding to a plurality of pixels of a single image;
Forming a stereoscopic mesh by setting a height corresponding to a brightness value of each pixel corresponding to each of the vertices at a plurality of vertices of the plane mesh and combining the vertices whose height difference is within a predetermined range, A mesh simplification unit for reducing the number of polygons;
A reference point matching unit for projecting a plurality of reference points having depth values of the image on the image so that a depth value of each reference point corresponds to a distance between the image and each reference point; And
A depth information extracting unit for extracting a depth value of each of the vertexes by associating vertices of the stereoscopic mesh with the number of the polygons reduced at the projected reference point;
And acquiring depth information using the image.
제 13 항에 있어서,
이웃하는 두 개의 정점의 깊이 값 차이가 상기 두 개의 정점에 대응하는 픽셀들의 밝기 값 차이에 대응하도록 상기 두 개의 정점의 깊이 값을 조정하는 깊이정보 조정부를 추가로 포함하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리장치.
14. The method of claim 13,
And adjusting a depth value of the two vertices so that a depth value difference between two neighboring vertices corresponds to a brightness value difference between pixels corresponding to the two vertices. To acquire depth information.
제 13 항에 있어서,
상기 깊이정보 추출부는 하나의 기준점의 깊이 값으로부터 상기 기준점과 매칭하는 다각형의 정점들의 깊이 값을 추출하는 것을 특징으로 하는 영상을 활용하여 깊이 정보를 획득하는 영상처리장치.
14. The method of claim 13,
Wherein the depth information extraction unit extracts depth values of vertices of a polygon matching the reference point from depth values of one reference point.
KR1020120085116A 2012-07-13 2012-08-03 Image Processing Apparatus and Method for obtaining depth information using an image KR101439406B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120076740 2012-07-13
KR1020120076740 2012-07-13

Publications (2)

Publication Number Publication Date
KR20140010844A KR20140010844A (en) 2014-01-27
KR101439406B1 true KR101439406B1 (en) 2014-09-15

Family

ID=50143359

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120085116A KR101439406B1 (en) 2012-07-13 2012-08-03 Image Processing Apparatus and Method for obtaining depth information using an image

Country Status (1)

Country Link
KR (1) KR101439406B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101998397B1 (en) * 2017-12-22 2019-07-09 한국기술교육대학교 산학협력단 Method for vertex optimization using depth image in workspace modeling and system thereof
KR102370776B1 (en) 2020-08-24 2022-03-08 에스큐엔지니어링(주) System for facility inspection using smart mobility
KR102700729B1 (en) * 2022-11-09 2024-08-28 네이버 주식회사 Method and system for generating 3d street view model using 3d building model and road model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060087662A (en) * 2005-01-31 2006-08-03 (주) 써니그라피 Single-rate geometry coding for 3d quad meshes
KR20060087647A (en) * 2005-01-31 2006-08-03 (주) 써니그라피 Single-rate connectivity codec for triangle meshes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060087662A (en) * 2005-01-31 2006-08-03 (주) 써니그라피 Single-rate geometry coding for 3d quad meshes
KR20060087647A (en) * 2005-01-31 2006-08-03 (주) 써니그라피 Single-rate connectivity codec for triangle meshes

Also Published As

Publication number Publication date
KR20140010844A (en) 2014-01-27

Similar Documents

Publication Publication Date Title
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
EP2854099B1 (en) Information processing device and information processing method
KR101554241B1 (en) A method for depth map quality enhancement of defective pixel depth data values in a three-dimensional image
TWI469087B (en) Method for depth map generation
US20100328308A1 (en) Three Dimensional Mesh Modeling
EP2869263A1 (en) Method and apparatus for generating depth map of a scene
US20140340486A1 (en) Image processing system, image processing method, and image processing program
JP2014106543A (en) Image processor, image processing method and program
JP2013235537A (en) Image creation device, image creation program and recording medium
Alexiadis et al. Real-time, realistic full-body 3D reconstruction and texture mapping from multiple Kinects
JP7140209B2 (en) Detection device, information processing device, detection method, and information processing program
JPWO2020075252A1 (en) Information processing equipment, programs and information processing methods
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
JP4354708B2 (en) Multi-view camera system
KR101439406B1 (en) Image Processing Apparatus and Method for obtaining depth information using an image
JPWO2012111404A1 (en) Image processing apparatus, program thereof, and image processing method
JP2005275646A (en) Three-dimensional plotting model generation method, three-dimensional model plotting method, and program therefor
CN111742352A (en) 3D object modeling method and related device and computer program product
JP5422538B2 (en) Image processing apparatus, display apparatus, method and program thereof
CN115733936A (en) Image processing apparatus, image processing method, and storage medium
WO2011096136A1 (en) Simulated image generating device and simulated image generating method
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
JP2020098421A (en) Three-dimensional shape model generation device, three-dimensional shape model generation method and program
JP7476511B2 (en) Image processing system, image processing method and program
US9998724B2 (en) Image processing apparatus and method for processing three-dimensional data that describes a space that includes physical objects

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170828

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180903

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190902

Year of fee payment: 6