[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20000068660A - 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 - Google Patents

3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 Download PDF

Info

Publication number
KR20000068660A
KR20000068660A KR1019997002694A KR19997002694A KR20000068660A KR 20000068660 A KR20000068660 A KR 20000068660A KR 1019997002694 A KR1019997002694 A KR 1019997002694A KR 19997002694 A KR19997002694 A KR 19997002694A KR 20000068660 A KR20000068660 A KR 20000068660A
Authority
KR
South Korea
Prior art keywords
depth
vertex
voxels
scene
reconstruction
Prior art date
Application number
KR1019997002694A
Other languages
English (en)
Inventor
듀포르세실레
Original Assignee
요트.게.아. 롤페즈
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 요트.게.아. 롤페즈, 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 요트.게.아. 롤페즈
Publication of KR20000068660A publication Critical patent/KR20000068660A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 3차원 장면 재구성의 새로운 방법에 관한 것이다. 종래의 방법은 종종 관련된 물체의 경계 부피의 3D 재구성에 제한되는 반면, 각각의 뷰에서 숨겨진 부분에 대한 정보를 제공하는, 단일의 카메라에 의해 취해진 2D 뷰로부터 3D 기하학적 모델의 복원의 제안된 방법은 초기화 및 프로젝션 부단계와 후속하는 개선 프로세스를 포함하는 부시스템(11)에서 구현되는 제 1의 깊이 라벨링 단계, 및 부시스템(12)에서 구현되는 제 2의 재구성 단계에 따라 구현된다. 장면이 두 뷰에 대해 얻어진 3D 깊이 맵의 근접한 좌표에 의해, 3D 모델이 식별되고 추출된다. 멀디미디어 서비스에서 부가적인 기능의 응용이 있다.

Description

3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템{Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system}
본 발명은 N 개의 연속하는 실제 장면(real scene)의 이미지에 대응하는 2차원 비디오 시퀀스로부터 3차원 장면을 재구성하는 방법과, 그 재구성 장치 및 디코딩 시스템에 관한 것이다.
최근의 기술적 경향에서(그리고 시간과 공간에서 소정의 관계를 갖는 객체로서의 그래픽과 비디오 자료를 인코딩하기 위한 수단을 제공하기 위해 의도된 미래의 MPEG-4 표준안에 관련된 모든 관점에서) 입체 이미지(stereo image)와 가상 환경에 관련된 모든 것은, 예를 들면 엔지니어링, 디자인 또는 제조업에서 중요한 툴이 되고 있다. 두 개의 약간 상이한 조망 각도(view angles)에서 동일한 장면을 기록함으로써 일반적으로 생성되는 입체 이미지는 상기 이미지가 쌍으로 고려되고 입체 쌍의 각 이미지가 각각의 눈에 의해 관측되는 경우 3차원(3D)으로 인식된다. 또한, 이러한 입체 및 가상 현실의 상황에서, 생성되는 환경으로의 자유로운 워크스루(free walkthrough)가 요구되고 가능하다. 이러한 가상 환경의 생성은, 통상적으로 하기의 단계에 따른 화상 합성 툴(picture synthesis tools)에 의해 수행된다:
(a) (예를 들면, 상 표현(facet representation)을 사용함으로써) 관련된 장면의 3D 기하학적 모델의 복원 단계;
(b) 특정 관점에 따른 장면을 계산하고 모든 공지의 요소(예를 들면, 빛, 상(facet)의 반사 특성, 실제 장면의 요소 사이의 일치 등등)를 고려하기 위해 제공되는 렌더링 단계.
그러나, 장면의 3D 기하학적 모델의 재구성은 모든 유효한 장면 사이의 이미지 매칭을 수행하는 것을 필요로 한다. "Multiframe image point matching and 3D sruface reconstruction"(R.Y.Tsai, IEEE Trans. on Pattern Analysis and Machine Intelligence, vol.PAMI-5, no2, March 1983,pp.159-174)의 문헌에서, 이러한 일치 문제점은 (입력 화상의 샘플링 그리드에 대응하는 축을 따라, 한정된 검색 윈도우(search window) 내에서) 한 번의 단일의 과정(pass)에서 모든 다른 장면의 정보를 고려하는 상관 함수를 계산하여, 이러한 방식으로 노이즈와 주기적인 구조에 대해 보다 확고한 방법을 제공함으로써 해결된다. 이러한 함수의 극소는 검색 윈도우 중앙에서 픽셀의 깊이의 평가를 제공한다. 불행하게도, 이러한 깊이 평가는 샘플링 그리드에 대해 비선형 의존성(가장 간단한 경우에 1/x)을 갖는다. 또한, 한 화상으로부터 얻어진 표면에 대한 깊이 맵 평가는 다른 화상으로부터 얻어진 동일한 표면의 깊이 맵 평가와 쉽게 비교될 수 없는데, 그 이유는 이들이 동일한 기준 그리드를 공유하지 않기 때문이다(이들은 각각의 화상 샘플링 그리드에만 참조된다).
본 발명의 목적은 이러한 결점을 더 이상 나타내지 않는 장면 재구성 방법을 제공하는 것이다.
이 때문에 본 발명은 본원의 서두에서 규정된 재구성 방법에 관련되며, 각각의 이미지에 대해, 3각형 영역으로 분할된, 일련의 시퀀스에서,
(A) 각각의 장면이 연속하는 3D 시트의 프로젝션으로 간주되고, 상기 3D 시트의 깊이 맵에 대응하는 불일치 맵을 얻기 위해서 다중-장면 매칭이 각각의 장면에 대해 독립적으로 수행되는 제 1의 깊이 라벨링 단계와;
(B) 3D 공간의 옥트리 구획(octree subdivision)이 수행되고 모든 3D 깊이 시트(depth sheet)의 교차점에 놓여 있는 복셀(voxels)(부피 요소)이 유지되는 제 2의 3D 모델 추출 단계를 포함한다. 옥트리는 경계 입방체(bounding cube)에 의해 둘러싸이고 각각의 입방체를, 단일의 큰 입방체인 루트 노드에서 시작하는 8개의 부입방체(subcubes)로 반복적으로 분할함으로써 구성되는 2진값 용적 측정 데이터(binary volumetric data)의 집합을 설명하기 위해 사용되는 트리 구조의 표현이다: 옥트리는 통상적인 객체의 인접한 복셀 사이에 큰 일관성이 존재하기 때문에 많은 용적 측정의 객체에 대해 유효한 표현이다.
이러한 접근으로, 3D 세계 좌표 시스템에서 깊이의 샘플링 값에 대응하는 축을 따른 상관 함수(사용자에 의해 임의적으로 제공되는 깊이 샘플링 그리드(depth sampling grid)를 구성한다)는 모든 장면을 고려하여 계산되고, 이 함수의 최소는 상기 좌표 시스템에서의 깊이의 적절한 값에 직접적으로 관련된다(이것은 다중 깊이 측정이 상이한 관점(view point)으로부터 얻어질 때 아주 유익하다). 깊이 샘플링 그리드는 사용자에 의해 임의적으로 제공되며 재구성된 표면에 대한 약간의 사전 지식을 고려하여 규칙적으로 간격을 가지고 선택된다(예를 들면 상기 표면이 실내 장면의 경우와 같이 소정의 경계 박스 내에 놓여 있는 경우).
미국 특허 제 5,598515호는 다수의 2차원 장면 이미지로부터 이러한 장면의 요소 또는 3차원 장면을, 복잡한 절차에 따라 재구성하는 시스템 및 방법을 상술하는데, 본 발명의 경우, 상기 복잡한 절차는 수렴이 얻어질 때까지 연속하는 개선(successive refinements)에 제공되는 아주 단순한 절차에 의해 대체된다.
본 발명에 따르면, 상기 깊이 라벨링 단계는 관련된 이미지에 대한 예비 3D 깊이 시트를 제 1의 반복동안 정의하기 위해 제공되는 초기화 부단계, 및 각각의 영역의 각각의 정점(vertex)에 대해, 상기 정점에 대해 특별하게 정의된 윈도우 상의 각각의 (N-1) 쌍의 장면 사이의 상관 비용의 합에 대응하는 각각의 샘플링된 깊이에 대한 에러 벡터를 정의하고 최소 상관 비용을 제공하는 인덱스를 저장하기 위한 개선 부단계를 연속적으로 포함하고, 상기 제 1의 반복 이후에 상기 초기화 부단계를 이미지 평면 근처의 정점 맵과 파라미터에 따른 이미지 획득 장치의 위치와 시야(field of view)를 먼저 조정하고 그 다음 각각의 정점에 대해 상기 획득 장치의 광학 중심과 상기 정점을 통과하는 라인을 교차하는 복셀을 조망 방향에서 열거하며, 상기 이미지 평면에 가장 가까운 복셀을 선택하기 위한 프로젝션 부단계로 대체하기 위해 의도된 부가적인 단계를 포함하는 것이 바람직하다.
본 발명의 다른 목적은 이러한 방법을 실행하는 재구성 장치를 제안하는 것이다.
이 때문에, 본 발명은 실제 장면의 N 개의 연속하는 이미지에 대응하는 2 차원 비디오 시퀀스로부터 3 차원 장면을 재구성하기 위한 장치에 관련되는데,
(Ⅰ) 상기 시퀀스의 N 개의 이미지의 각각은 3각형 영역으로 분할되고;
(Ⅱ) 상기 장치는, 상기 시퀀스의 각각의 이미지를 처리하기 위해,
(A) 깊이 라벨링 부시스템으로서,
(1) 제 1의 반복동안 각각의 (N-1) 쌍의 장면 사이의 상관 비용의 합에 대응하는 샘플링된 깊이에 대한 에러 벡터와 최소 상관 비용을 제공하는 인덱스를 정의하기 위해 제공된 초기화 장치로서, 상기 영역의 각각의 정점의 깊이 값은 이웃하는 영역에 대해 얻어진 깊이 사이의 보간에 의해 계산되는 상기 초기화 장치와;
(2) 각각의 정점의 정점에 대해 이전에 범위가 정해진 윈도우 상의 에러 벡터와, 최소 상관 비용을 제공하는 인덱스를 정의하기 위해 제공되는 개선 장치를 연속하여 포함하는 상기 깊이 라벨링 부시스템과;
(B) 복셀 그리드의 해상도를 선택하고, 각각의 장면에 대해, 각각의 깊이 맵에 의해 제공되는 비어 있지 않은 공간 내부에 놓여 있는 복셀과, 최종적으로, 모든 비어 있지 않은 공간의 교차선에 놓여 있는 복셀만을 유지하기 위해 제공되는 재구성 부시스템을 포함하며;
(Ⅲ) 상기 깊이 라벨링 부시스템은 후속하는 반복동안 상기 초기화 장치를 대체하기 위해 의도되고 이미지 획득 장치의 시야와 위치를 조정하기 위해 제공되는 프로젝션 장치, 및 각각의 정점에 대해, 조망 방향에서 상기 획득 장치의 광학 중심과 정점을 통과하는 라인을 교차하는 복셀을 열거하고 상기 이미지 평면에 가장 가까운 복셀을 선택하기 위한, 상기 이미지 평면에 아주 근접한 정점 맵을 또한 포함하는 것을 특징으로 한다.
본 발명의 이점은 첨부된 도면을 참조한 하기의 설명으로부터 더 잘 이해되어질 것이다.
도 1은 본 발명에 따른 재구성 장치의 개략도.
도 2는 도 1의 장치의 초기화 장치에서 수행되는 동작을 설명하는 도면.
도 3은 도 1의 장치의 개선 장치에서 수행되는 동작을 설명하는 도면.
도 4는 도 1의 장치의 3D 재구성 부시스템에서 수행되는 동작을 설명하는 도면.
도 5는 도 1의 장치의 프로젝션 장치에서 수행되는 동작을 설명하는 도면.
도 1에 도시된 장치는, 본 발명에 따라, N 개의 연속하는 2차원 이미지(2D)의 장면의 시퀀스에 기초해서, 3차원 형태(3D)로 상기 장면의 재구성을 허용하도록 의도된 것이다. 상기 복원은 반복하도록 이도된 두 단계에서의 구현에 따라 두 부시스템(11, 12)에서 실현된다. 상기 제 1의 단계는 깊이 라벨링 단계인데; 각각의 뷰는 연속하는 3D 시트의 프로젝션으로서 간주되고, 다중-뷰 매칭은 그 불일치 맵을 얻기 위해 각각의 뷰에 대해 독립적으로 수행되며, 각각의 불일치 맵은 3D 시트의 깊이 맵에 대응한다(상기 불일치의 측정은 깊이 산정을 제공하는데, 상기 불일치는 우측(좌측) 이미지에 대한 좌측(우측) 이미지에 대한 패치의 시프트이며, 임의의 일치 문제의 출력이 불일치 맵이다). 두 번째 단계는 3D 모델 추출 단계인데, 3D 공간의 옥트리 구획이 수행되고 모든 3D 깊이 시트의 교차점에 놓여 있는 복셀은 유지된다.
따라서, 도 1의 장치는 두 부분으로 더 나누어진다: 상기 제 1의 깊이 라벨링 단계를 수행하기 위한 깊이 라벨링 부시스템(11)과 상기 제 2의 모델 추출 단계를 수행하기 위한 3D 재구성 부시스템(12). 상기 깊이 라벨링 부시스템(11) 자체는 초기화 장치, 프로젝션 장치(112), 및 개선 장치(refinement device; 113)를 포함한다.
상기 초기화 장치는, 도 1에 도시된 바와 같이, 테스트 회로(1111)와 후속하는 초기화 회로(1112)를 포함한다. 상기 테스트 회로(1111)는 프로시져의 시작에서, 반복이 첫 번째인 경우 회로(1112)로 향하거나(YES) 또는 상기 초기화가 이미 수행된 경우 장치(112)로 향하도록(NO) 전환하기 위해 제공된다.
만약 I가 깊이 시트를 복원하기를 희망하는 이미지이고 I1 내지 IN이 다중-뷰 매칭을 위해 사용되는 화상이라면, 관련된 시야(field of view) 내에서, I의 이미지 평면과 평행하게 놓여 있는 것으로 가정되는 삼각형 영역으로 I가 분할되는 것으로 가정된다. 각각의 영역(R(I))에 대해서, 현재의 시야에서 소정의 깊이(D1, D2, …, Di, …, DM)의 집합(S) 중에서 이 영역의 깊이를 얻기 위해, 세 동작이 부단계(1112a, 1112b)에서 계속적으로 수행된다.
상기 부단계(1112a)(도 2의 상부)는 각각의 영역에 대해 규정된 길이의 에러 벡터(V(i))를 계산하는 것을 허용하며, 상기 벡터는 각각의 샘플링된 깊이(C는 기준 광학 중심이다)는 하기의 수학식에 의해 표현되는 (N-1) 쌍의 뷰의 각각의 뷰(이미지(i), 이미지(j)) 사이의 상관 비용의 합이다:
V(i)의 각 좌표는 각각의 뷰에서 깊이(Di)에서 마주치게되는 에러의 합에 대응한다. 상관 측정 에러(err(i)[Ik, Ij])는 깊이(Di)에 놓여 있는 것으로 가정되는 이미지(Ij)에서 영역(R(Ij))의 픽셀과 R(I)의 픽셀 사이의 평방근 에러이며 뷰(I 및 Ij)의 좌표 시스템에 관련하는 프로젝션 매트릭스를 사용하여 얻어진다. 부단계(1112b)(도 2의 중간 부분)는 각각의 영역에 대해 최소의 상관 비용을 제공하는 인텍스를 탐색하고, 부단계(1112c)(도 2의 하부)는, 이웃한 영역에 대해 얻어진 깊이 사이의 보간에 의해, 각각의 영역의 각 정점에 대한 그 깊이 값을 계산한다(즉, 삼각형 영역의 각 정점의 깊이는 정점을 공유하는 영역의 깊이의 평균일 것이다).
초기화로 인해, 예비 3D 깊이 시트가 이미지(I)에 대해 얻어진다. 각 영역(R(I))은 이제, 세 정점의 3D 좌표에 의해 주어지는 그 3D 위치와 방향의 평가를 갖는다. 그러나 상기 영역의 방향은 이미지(I)의 이미지 평면과 평행하게 놓여 있다는 초기 가정에 더 이상 따르지 않는다.
초기화 장치는 반복적으로 사용되고 이미지(I)의 각 영역의 방향의 새로운 평가를 고려하면서 다시 수행된다. 다른 접근법이 최종적으로 선호된다: 각각의 영역에 독립적으로 에러 벡터를 검색하는 대신, 에러 벡터는 I에서의 정점에 대해 독립적으로 검색된다(깊이 평가는 이웃한 정점에 대한 깊이 평가를 변경시키지 않으면서 각각이 정점에 대해 검색된다). 이러한 접근법은 개선 장치(113)에서 수행된다.
도 1에 도시된 바와 같이(그리고 도 3에서 상기 장치에서 수행되는 부단계를 도시한다), 상기 회로(1112)의 출력에서 유효한 깊이 맵을 수신하는 이 장치(113)는, 각각의 정점에 대해, 상관 비용이 측정될 윈도우(W)를 정의하는(도 3의 상부) 벡터 계산 회로(1131)를 포함한다. 각각의 정점에 대해, 에러 벡터가 계산되고(도 3의 중간 부분), 이것은 각각의 샘플링된 깊이에 대해, 범위가 정해진 윈도우 상의 (N-1)개 쌍의 뷰(이미지(i), 이미지(j))의 각각의 뷰 사이의 상관 비용의 합에 대응한다. 판정 회로(1132)에서, 각각의 정점에 대한 최소 상관 비용을 제공하는 인덱스가 발견된다(도 3의 하부). 개량된 3D 깊이 시트는 이제 유효하게 된다.
상기 장치(113)의 출력에서 유효한 깊이 맵은 깊이 라벨링 부시스템(11)의 출력 신호이고 3D 재구성 부시스템(12)으로 전송되는데, 상기 3D 재구성 부시스템(12)은, 도 1에 도시된 바와 같이(그리고 도 4에는 상기 장치에서 수행되는 부단계를 도시한다), 해상도 정의 장치(121)와 후속하는 일련의 복셀 선택 장치(122) 및 테스트 회로(123)를 포함한다. 상기 장치(121)에서, 복셀 그리드의 해상도가 선택된다(도 4의 상부). 상기 장치(122)에서, 각각의 뷰에 대해, 각각의 깊이 맵에 의해 제공되는 비어 있지 않은 공간 내부에 놓여 있는 복셀은 유지되고(도 4의 중간 부분), 모든 비어있지 않은 공간의 교차점에 놓여 있는 복셀만이 최종적으로 유지된다(도 4의 하부). 그 다음 수렴의 테스트가 테스트 회로(123)에서 수행되는데, 이전 단계의 일부는 상기 수렴이 얻어질 때까지 반복되어야 한다.
이전에 상술된 첫 번째 반복동안 초기화가 수행되었기 때문에, 두 번째 반복의 시작에서 상기 테스트 회로(1111)는 이제 프로젝션 장치(112)로 향해 전환한다. 상기 회로(11112)에서 수행되는 상기 제 1의 부단계(1112a, 1112b, 1112c)에 관해서, 상기 장치(112)에 제공되고 도 5에 도시된 상기 부단계(1121a, 1121b)는, (a) 카메라 파라미터에 따라 카메라의 시야와 위치, 및 상기 정점 맵을 이미지 평면에 아주 가깝게 조정하고, (b) 각각의 정점에 대해, 관측 방향에서, 카메라의 광학적 중심과 정점을 통과하는 라인을 교차하는 복셀을 열거하고, 상기 이미지 평면에 가장 가까운 복셀을 선택한다. 도 5의 하부에 도시된 바와 같이, 상기 장치(112)의 출력은 이미 상술된 바와 같이 동작하는 개선 장치(113)를 향해 (제 1의 반복의 경우 상기 장치(112)의 출력과 같이) 전송된다.

Claims (5)

  1. N 개의 연속하는 실제 장면의 이미지에 대응하는 2차원 비디오 시퀀스로부터 3차원 장면을 재구성하는 방법에 있어서,
    삼각형 영역으로 분할된 상기 시퀀스의 각각의 이미지에 대해, 직렬로,
    (A) 각각의 장면이 연속하는 3D 시트의 프로젝션으로 간주되고, 상기 3D 시트의 깊이 맵에 대응하는 불일치 맵을 얻기 위해서 다중-장면 매칭이 각각의 장면에 대해 독립적으로 수행되는 제 1의 깊이 라벨링 단계와;
    (B) 3D 공간의 옥트리 구획(octree subdivision)이 수행되고 모든 3D 깊이 시트(depth sheet)의 교차점에 놓여 있는 복셀(voxels)(부피 요소)이 유지되는 제 2의 3D 모델 추출 단계를 포함하는 3차원 장면 재구성 방법.
  2. 제 1항에 있어서,
    상기 깊이 라벨링 단계는 관련된 이미지에 대한 예비 3D 깊이 시트를 제 1의 반복동안 정의하기 위해 제공되는 초기화 부단계, 및 각각의 영역의 각각의 정점(vertex)에 대해, 상기 정점에 대해 특별하게 정의된 윈도우 상의 각각의 (N-1) 쌍의 장면 사이의 상관 비용의 합에 대응하는 각각의 샘플링된 깊이에 대한 에러 벡터를 정의하고 최소 상관 비용을 제공하는 인덱스를 저장하기 위한 개선 부단계를 연속적으로 포함하고, 상기 제 1의 반복 이후에 상기 초기화 부단계를 이미지 평면 근처의 정점 맵과 파라미터에 따른 이미지 획득 장치의 위치와 시야(field of view)를 먼저 조정하고 그 다음 각각의 정점에 대해 상기 획득 장치의 광학 중심과 상기 정점을 통과하는 라인을 교차하는 복셀을 조망 방향에서 열거하며, 상기 이미지 평면에 가장 가까운 복셀을 선택하기 위한 프로젝션 부단계로 대체하기 위해 의도된 부가적인 단계를 포함하는 3차원 장면 재구성 방법.
  3. 제 2항에 있어서,
    상기 3D 모델 추출 단계는 복셀 그리드의 해상도를 정의하기 위해 제공되는 해상도 정의 부단계, 및 각각의 뷰에 대해 각각의 깊이 맵에 의해 제공되는 비어 있지 않은 공간 내부에 놓여 있는 복셀을 유지하고 그 다음 모든 비어 있지 않은 공간의 교차선에 놓여 있는 복셀만을 유지하기 위해 제공되는 복셀 선택 부단계를 포함하는 3차원 장면 재구성 방법.
  4. N 개의 연속하는 실제 장면의 이미지에 대응하는 2차원 비디오 시퀀스로부터 3차원 장면을 재궝하기 위한 장치에 있어서,
    (Ⅰ) 상기 시퀀스의 N 개의 이미지의 각각은 3각형 영역으로 분할되고;
    (Ⅱ) 상기 장치는, 상기 시퀀스의 각각의 이미지를 처리하기 위해,
    (A) 깊이 라벨링 부시스템으로서,
    (1) 제 1의 반복동안 각각의 (N-1) 쌍의 장면 사이의 상관 비용의 합에 대응하는 샘플링된 깊이에 대한 에러 벡터와 최소 상관 비용을 제공하는 인덱스를 정의하기 위해 제공된 초기화 장치로서, 상기 영역의 각각의 정점의 깊이 값은 이웃하는 영역에 대해 얻어진 깊이 사이의 보간에 의해 계산되는 상기 초기화 장치와;
    (2) 각각의 정점의 정점에 대해 이전에 범위가 정해진 윈도우 상의 에러 벡터와, 최소 상관 비용을 제공하는 인덱스를 정의하기 위해 제공되는 개선 장치를 연속하여 포함하는 상기 깊이 라벨링 부시스템과;
    (B) 복셀 그리드의 해상도를 선택하고, 각각의 장면에 대해, 각각의 깊이 맵에 의해 제공되는 비어 있지 않은 공간 내부에 놓여 있는 복셀과, 최종적으로, 모든 비어 있지 않은 공간의 교차선에 놓여 있는 복셀만을 유지하기 위해 제공되는 재구성 부시스템을 포함하며;
    (Ⅲ) 상기 깊이 라벨링 부시스템은 후속하는 반복동안 상기 초기화 장치를 대체하기 위해 의도되고 이미지 획득 장치의 시야와 위치를 조정하기 위해 제공되는 프로젝션 장치, 및 각각의 정점에 대해, 조망 방향에서 상기 획득 장치의 광학 중심과 정점을 통과하는 라인을 교차하는 복셀을 열거하고 상기 이미지 평면에 가장 가까운 복셀을 선택하기 위한, 상기 이미지 평면에 아주 근접한 정점 맵을 또한 포함하는 것을 특징으로 하는 3차원 장면 재구성 장치.
  5. 제 4항에 따른 재구성 장치를 포함하는 비디오 디코딩 시스템.
KR1019997002694A 1997-07-29 1998-06-25 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 KR20000068660A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP97401822 1997-07-29
EP97401822.8 1997-07-29

Publications (1)

Publication Number Publication Date
KR20000068660A true KR20000068660A (ko) 2000-11-25

Family

ID=8229829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019997002694A KR20000068660A (ko) 1997-07-29 1998-06-25 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템

Country Status (6)

Country Link
US (2) US6351572B1 (ko)
EP (1) EP0928460B1 (ko)
JP (1) JP2001501348A (ko)
KR (1) KR20000068660A (ko)
DE (1) DE69811050T2 (ko)
WO (1) WO1999006956A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446635B1 (ko) * 2001-11-27 2004-09-04 삼성전자주식회사 깊이 이미지 기반 3차원 객체 표현 장치 및 방법
KR100601989B1 (ko) * 2005-02-07 2006-07-18 삼성전자주식회사 3차원 형상 생성 장치와 방법 및 컴퓨터 프로그램을저장한 컴퓨터로 읽을 수 있는 기록매체
US8155386B2 (en) 2007-10-23 2012-04-10 Samsung Electronics Co., Ltd. Method and apparatus for obtaining depth information
WO2013105783A1 (ko) * 2012-01-11 2013-07-18 삼성전자주식회사 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999073B1 (en) * 1998-07-20 2006-02-14 Geometrix, Inc. Method and system for generating fully-textured 3D
US6871167B1 (en) * 1999-10-26 2005-03-22 Agere Systems Inc. System and method for determining capacitance for large-scale integrated circuits
US6990228B1 (en) * 1999-12-17 2006-01-24 Canon Kabushiki Kaisha Image processing apparatus
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
JP4550221B2 (ja) * 2000-04-24 2010-09-22 パナソニック株式会社 三次元空間再構成装置及び三次元空間再構成方法
US20030206652A1 (en) * 2000-06-28 2003-11-06 David Nister Depth map creation through hypothesis blending in a bayesian framework
US6868191B2 (en) * 2000-06-28 2005-03-15 Telefonaktiebolaget Lm Ericsson (Publ) System and method for median fusion of depth maps
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
US6914600B2 (en) * 2001-06-26 2005-07-05 Hewlett-Packard Development Company, L.P. Volumetric warping for voxel coloring on an infinite domain
JP3794681B2 (ja) * 2001-11-29 2006-07-05 株式会社スクウェア・エニックス ビデオゲーム処理方法及びビデオゲーム処理装置及びビデオゲームのプログラム及びビデオゲームのプログラムを記録した記録媒体
AUPS283602A0 (en) * 2002-06-07 2002-06-27 Dynamic Digital Depth Research Pty Ltd Improved conversion and encoding techniques
US7489812B2 (en) * 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7092484B1 (en) 2002-06-14 2006-08-15 Iowa State University Research Foundation, Inc. Model-assisted reconstruction of volumetric data
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US8160269B2 (en) 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7854655B2 (en) * 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US7277599B2 (en) * 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
DE10253617B4 (de) * 2002-11-15 2005-06-30 Siemens Ag Verfahren zur Darstellung eines ineinem Volumendatensatz abgebildeten Objektes
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US7660472B2 (en) * 2004-02-10 2010-02-09 Headplay (Barbados) Inc. System and method for managing stereoscopic viewing
CA2557534A1 (en) * 2004-02-27 2005-09-09 Td Vision Corporation S.A. De C.V. Method and system for digital decoding 3d stereoscopic video images
WO2005083636A1 (es) * 2004-02-27 2005-09-09 Td Vision Corporation, S.A. De C.V. Método y sistema de codificación digital de imágenes de video 3d estereoscópicas
KR100601958B1 (ko) 2004-07-15 2006-07-14 삼성전자주식회사 3차원 객체 인식을 위한 양안차 추정 방법
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
EP2087466B1 (en) * 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
KR100866491B1 (ko) * 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
JP5156837B2 (ja) * 2007-11-09 2013-03-06 トムソン ライセンシング 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
US8351685B2 (en) * 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US8233077B2 (en) 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
JP5684577B2 (ja) 2008-02-27 2015-03-11 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
WO2009131703A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Coding of depth signal
WO2010018880A1 (en) * 2008-08-11 2010-02-18 Postech Academy-Industry Foundation Apparatus and method for depth estimation from single image in real time
BRPI0916963A2 (pt) 2008-08-20 2015-11-24 Thomson Licensing mapa de profundidade refinado
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
KR20110126103A (ko) 2009-01-07 2011-11-22 톰슨 라이센싱 조인트 깊이 추정
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
KR101975247B1 (ko) * 2011-09-14 2019-08-23 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
FR2988504B1 (fr) * 2012-03-23 2014-05-09 Commissariat Energie Atomique Procede de determination d'un plan du sol a partir d'une image de profondeur
RU2479039C1 (ru) * 2012-03-26 2013-04-10 Закрытое акционерное общество "БОУ Лабораториз" Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройство для реализации способа
US8855442B2 (en) * 2012-04-30 2014-10-07 Yuri Owechko Image registration of multimodal data using 3D-GeoArcs
US10134134B2 (en) 2012-05-24 2018-11-20 Qatar Foundation Method and system for creating depth signatures
US9025860B2 (en) 2012-08-06 2015-05-05 Microsoft Technology Licensing, Llc Three-dimensional object browsing in documents
WO2014178047A1 (en) 2013-04-30 2014-11-06 Inuitive Ltd. System and method for video conferencing
US9779508B2 (en) 2014-03-26 2017-10-03 Microsoft Technology Licensing, Llc Real-time three-dimensional reconstruction of a scene from a single camera
US9846963B2 (en) 2014-10-03 2017-12-19 Samsung Electronics Co., Ltd. 3-dimensional model generation using edges
US9866815B2 (en) 2015-01-05 2018-01-09 Qualcomm Incorporated 3D object segmentation
JP6632443B2 (ja) * 2016-03-23 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US10402675B2 (en) 2016-08-30 2019-09-03 The Boeing Company 2D vehicle localizing using geoarcs
US10013798B2 (en) * 2016-08-30 2018-07-03 The Boeing Company 3D vehicle localizing using geoarcs
US20180075614A1 (en) * 2016-09-12 2018-03-15 DunAn Precision, Inc. Method of Depth Estimation Using a Camera and Inertial Sensor
CN111788610B (zh) 2017-12-22 2021-11-26 奇跃公司 用于生成场景中的表面的三维重建的方法和设备
US10679372B2 (en) 2018-05-24 2020-06-09 Lowe's Companies, Inc. Spatial construction using guided surface detection
FR3082979B1 (fr) * 2018-06-26 2020-10-16 Quantificare Procede et dispositif pour la simulation et la visualisation de modeles surfaciques
CN112802303A (zh) * 2021-02-09 2021-05-14 成都视海芯图微电子有限公司 一种基于3d视觉的实时风险预测方法及系统
US11961184B2 (en) * 2021-09-17 2024-04-16 Samsung Electronics Co., Ltd. System and method for scene reconstruction with plane and surface reconstruction

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4694404A (en) * 1984-01-12 1987-09-15 Key Bank N.A. High-speed image generation of complex solid objects using octree encoding
US5448687A (en) * 1988-09-13 1995-09-05 Computer Design, Inc. Computer-assisted design system for flattening a three-dimensional surface and for wrapping a flat shape to a three-dimensional surface
US5283837A (en) * 1991-08-27 1994-02-01 Picker International, Inc. Accurate estimation of surface normals in 3-D data sets
US5307292A (en) * 1992-06-24 1994-04-26 Christopher A. Brown Method of quantifying the topographic structure of a surface
JP2762000B2 (ja) * 1992-06-25 1998-06-04 株式会社日立製作所 曲面生成方法および曲面生成装置
DE69430153T2 (de) * 1993-06-21 2002-09-05 Nippon Telegraph & Telephone Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten
US5479603A (en) * 1993-07-21 1995-12-26 Xerox Corporation Method and apparatus for producing a composite second image in the spatial context of a first image
US5598515A (en) 1994-01-10 1997-01-28 Gen Tech Corp. System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene
US5684890A (en) * 1994-02-28 1997-11-04 Nec Corporation Three-dimensional reference image segmenting method and apparatus
US5530774A (en) * 1994-03-25 1996-06-25 Eastman Kodak Company Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields
US5689577A (en) * 1994-10-14 1997-11-18 Picker International, Inc. Procedure for the simplification of triangular surface meshes for more efficient processing
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US5751852A (en) * 1996-04-29 1998-05-12 Xerox Corporation Image structure map data structure for spatially indexing an imgage
US6137492A (en) * 1997-04-03 2000-10-24 Microsoft Corporation Method and system for adaptive refinement of progressive meshes
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446635B1 (ko) * 2001-11-27 2004-09-04 삼성전자주식회사 깊이 이미지 기반 3차원 객체 표현 장치 및 방법
KR100601989B1 (ko) * 2005-02-07 2006-07-18 삼성전자주식회사 3차원 형상 생성 장치와 방법 및 컴퓨터 프로그램을저장한 컴퓨터로 읽을 수 있는 기록매체
US8155386B2 (en) 2007-10-23 2012-04-10 Samsung Electronics Co., Ltd. Method and apparatus for obtaining depth information
KR101327794B1 (ko) * 2007-10-23 2013-11-11 삼성전자주식회사 깊이 정보 획득 방법 및 장치
WO2013105783A1 (ko) * 2012-01-11 2013-07-18 삼성전자주식회사 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법
US9508152B2 (en) 2012-01-11 2016-11-29 Samsung Electronics Co., Ltd. Object learning and recognition method and system
US10163215B2 (en) 2012-01-11 2018-12-25 Samsung Electronics Co., Ltd. Object learning and recognition method and system
US10867405B2 (en) 2012-01-11 2020-12-15 Samsung Electronics Co., Ltd. Object learning and recognition method and system

Also Published As

Publication number Publication date
DE69811050D1 (de) 2003-03-06
DE69811050T2 (de) 2003-11-06
WO1999006956A1 (en) 1999-02-11
JP2001501348A (ja) 2001-01-30
US6661914B2 (en) 2003-12-09
EP0928460A1 (en) 1999-07-14
EP0928460B1 (en) 2003-01-29
US6351572B1 (en) 2002-02-26
US20020110273A1 (en) 2002-08-15

Similar Documents

Publication Publication Date Title
KR20000068660A (ko) 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템
US8217931B2 (en) System and method for processing video images
Labatut et al. Robust and efficient surface reconstruction from range data
US9082224B2 (en) Systems and methods 2-D to 3-D conversion using depth access segiments to define an object
US7046840B2 (en) 3-D reconstruction engine
US20080259073A1 (en) System and method for processing video images
US20080225045A1 (en) Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion
US20080225042A1 (en) Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters
US20080226160A1 (en) Systems and methods for filling light in frames during 2-d to 3-d image conversion
WO2008112794A2 (en) Systems and methods for 2-d to 3-d conversion using depth access segments to define an object
WO2008112804A2 (en) System and method for processing video images for camera recreation using point clouds
WO2008112762A1 (en) Systems amd methods for depth peeling using stereoscopic variables during the rendering of 2-d to 3-d images
WO2008112781A2 (en) Systems and methods for treating occlusions in 2-d to 3-d image conversion
US6373487B1 (en) Methods and apparatus for constructing a 3D model of a scene from calibrated images of the scene
US11394945B2 (en) System and method for performing 3D imaging of an object
Lin et al. Vision system for fast 3-D model reconstruction
Koch Automatic reconstruction of buildings from stereoscopic image sequences
Yang Towards Efficient, Accurate and Self-trained Multi-view Stereopsis
Naik 3D Mesh Simplification Techniques for Enhanced Image Based Rendering
Brik Generation of volumetric models from video data
Yao et al. Interpolating novel views from image sequences by probabilistic depth carving
Hisatomi Overview of Multi-View Image Technology
Rosen Improved 3-D scene sampling by camera model design
WO2008112786A2 (en) Systems and method for generating 3-d geometry using points from image sequences
GB2358308A (en) Determining the position and orientation at which images are recorded

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application