KR20000068660A - 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 - Google Patents
3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 Download PDFInfo
- Publication number
- KR20000068660A KR20000068660A KR1019997002694A KR19997002694A KR20000068660A KR 20000068660 A KR20000068660 A KR 20000068660A KR 1019997002694 A KR1019997002694 A KR 1019997002694A KR 19997002694 A KR19997002694 A KR 19997002694A KR 20000068660 A KR20000068660 A KR 20000068660A
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- vertex
- voxels
- scene
- reconstruction
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000002372 labelling Methods 0.000 claims abstract description 16
- 230000006872 improvement Effects 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000007796 conventional method Methods 0.000 abstract 1
- 238000005070 sampling Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000005314 correlation function Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/005—Tree description, e.g. octree, quadtree
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Abstract
본 발명은 3차원 장면 재구성의 새로운 방법에 관한 것이다. 종래의 방법은 종종 관련된 물체의 경계 부피의 3D 재구성에 제한되는 반면, 각각의 뷰에서 숨겨진 부분에 대한 정보를 제공하는, 단일의 카메라에 의해 취해진 2D 뷰로부터 3D 기하학적 모델의 복원의 제안된 방법은 초기화 및 프로젝션 부단계와 후속하는 개선 프로세스를 포함하는 부시스템(11)에서 구현되는 제 1의 깊이 라벨링 단계, 및 부시스템(12)에서 구현되는 제 2의 재구성 단계에 따라 구현된다. 장면이 두 뷰에 대해 얻어진 3D 깊이 맵의 근접한 좌표에 의해, 3D 모델이 식별되고 추출된다. 멀디미디어 서비스에서 부가적인 기능의 응용이 있다.
Description
본 발명은 N 개의 연속하는 실제 장면(real scene)의 이미지에 대응하는 2차원 비디오 시퀀스로부터 3차원 장면을 재구성하는 방법과, 그 재구성 장치 및 디코딩 시스템에 관한 것이다.
최근의 기술적 경향에서(그리고 시간과 공간에서 소정의 관계를 갖는 객체로서의 그래픽과 비디오 자료를 인코딩하기 위한 수단을 제공하기 위해 의도된 미래의 MPEG-4 표준안에 관련된 모든 관점에서) 입체 이미지(stereo image)와 가상 환경에 관련된 모든 것은, 예를 들면 엔지니어링, 디자인 또는 제조업에서 중요한 툴이 되고 있다. 두 개의 약간 상이한 조망 각도(view angles)에서 동일한 장면을 기록함으로써 일반적으로 생성되는 입체 이미지는 상기 이미지가 쌍으로 고려되고 입체 쌍의 각 이미지가 각각의 눈에 의해 관측되는 경우 3차원(3D)으로 인식된다. 또한, 이러한 입체 및 가상 현실의 상황에서, 생성되는 환경으로의 자유로운 워크스루(free walkthrough)가 요구되고 가능하다. 이러한 가상 환경의 생성은, 통상적으로 하기의 단계에 따른 화상 합성 툴(picture synthesis tools)에 의해 수행된다:
(a) (예를 들면, 상 표현(facet representation)을 사용함으로써) 관련된 장면의 3D 기하학적 모델의 복원 단계;
(b) 특정 관점에 따른 장면을 계산하고 모든 공지의 요소(예를 들면, 빛, 상(facet)의 반사 특성, 실제 장면의 요소 사이의 일치 등등)를 고려하기 위해 제공되는 렌더링 단계.
그러나, 장면의 3D 기하학적 모델의 재구성은 모든 유효한 장면 사이의 이미지 매칭을 수행하는 것을 필요로 한다. "Multiframe image point matching and 3D sruface reconstruction"(R.Y.Tsai, IEEE Trans. on Pattern Analysis and Machine Intelligence, vol.PAMI-5, no2, March 1983,pp.159-174)의 문헌에서, 이러한 일치 문제점은 (입력 화상의 샘플링 그리드에 대응하는 축을 따라, 한정된 검색 윈도우(search window) 내에서) 한 번의 단일의 과정(pass)에서 모든 다른 장면의 정보를 고려하는 상관 함수를 계산하여, 이러한 방식으로 노이즈와 주기적인 구조에 대해 보다 확고한 방법을 제공함으로써 해결된다. 이러한 함수의 극소는 검색 윈도우 중앙에서 픽셀의 깊이의 평가를 제공한다. 불행하게도, 이러한 깊이 평가는 샘플링 그리드에 대해 비선형 의존성(가장 간단한 경우에 1/x)을 갖는다. 또한, 한 화상으로부터 얻어진 표면에 대한 깊이 맵 평가는 다른 화상으로부터 얻어진 동일한 표면의 깊이 맵 평가와 쉽게 비교될 수 없는데, 그 이유는 이들이 동일한 기준 그리드를 공유하지 않기 때문이다(이들은 각각의 화상 샘플링 그리드에만 참조된다).
본 발명의 목적은 이러한 결점을 더 이상 나타내지 않는 장면 재구성 방법을 제공하는 것이다.
이 때문에 본 발명은 본원의 서두에서 규정된 재구성 방법에 관련되며, 각각의 이미지에 대해, 3각형 영역으로 분할된, 일련의 시퀀스에서,
(A) 각각의 장면이 연속하는 3D 시트의 프로젝션으로 간주되고, 상기 3D 시트의 깊이 맵에 대응하는 불일치 맵을 얻기 위해서 다중-장면 매칭이 각각의 장면에 대해 독립적으로 수행되는 제 1의 깊이 라벨링 단계와;
(B) 3D 공간의 옥트리 구획(octree subdivision)이 수행되고 모든 3D 깊이 시트(depth sheet)의 교차점에 놓여 있는 복셀(voxels)(부피 요소)이 유지되는 제 2의 3D 모델 추출 단계를 포함한다. 옥트리는 경계 입방체(bounding cube)에 의해 둘러싸이고 각각의 입방체를, 단일의 큰 입방체인 루트 노드에서 시작하는 8개의 부입방체(subcubes)로 반복적으로 분할함으로써 구성되는 2진값 용적 측정 데이터(binary volumetric data)의 집합을 설명하기 위해 사용되는 트리 구조의 표현이다: 옥트리는 통상적인 객체의 인접한 복셀 사이에 큰 일관성이 존재하기 때문에 많은 용적 측정의 객체에 대해 유효한 표현이다.
이러한 접근으로, 3D 세계 좌표 시스템에서 깊이의 샘플링 값에 대응하는 축을 따른 상관 함수(사용자에 의해 임의적으로 제공되는 깊이 샘플링 그리드(depth sampling grid)를 구성한다)는 모든 장면을 고려하여 계산되고, 이 함수의 최소는 상기 좌표 시스템에서의 깊이의 적절한 값에 직접적으로 관련된다(이것은 다중 깊이 측정이 상이한 관점(view point)으로부터 얻어질 때 아주 유익하다). 깊이 샘플링 그리드는 사용자에 의해 임의적으로 제공되며 재구성된 표면에 대한 약간의 사전 지식을 고려하여 규칙적으로 간격을 가지고 선택된다(예를 들면 상기 표면이 실내 장면의 경우와 같이 소정의 경계 박스 내에 놓여 있는 경우).
미국 특허 제 5,598515호는 다수의 2차원 장면 이미지로부터 이러한 장면의 요소 또는 3차원 장면을, 복잡한 절차에 따라 재구성하는 시스템 및 방법을 상술하는데, 본 발명의 경우, 상기 복잡한 절차는 수렴이 얻어질 때까지 연속하는 개선(successive refinements)에 제공되는 아주 단순한 절차에 의해 대체된다.
본 발명에 따르면, 상기 깊이 라벨링 단계는 관련된 이미지에 대한 예비 3D 깊이 시트를 제 1의 반복동안 정의하기 위해 제공되는 초기화 부단계, 및 각각의 영역의 각각의 정점(vertex)에 대해, 상기 정점에 대해 특별하게 정의된 윈도우 상의 각각의 (N-1) 쌍의 장면 사이의 상관 비용의 합에 대응하는 각각의 샘플링된 깊이에 대한 에러 벡터를 정의하고 최소 상관 비용을 제공하는 인덱스를 저장하기 위한 개선 부단계를 연속적으로 포함하고, 상기 제 1의 반복 이후에 상기 초기화 부단계를 이미지 평면 근처의 정점 맵과 파라미터에 따른 이미지 획득 장치의 위치와 시야(field of view)를 먼저 조정하고 그 다음 각각의 정점에 대해 상기 획득 장치의 광학 중심과 상기 정점을 통과하는 라인을 교차하는 복셀을 조망 방향에서 열거하며, 상기 이미지 평면에 가장 가까운 복셀을 선택하기 위한 프로젝션 부단계로 대체하기 위해 의도된 부가적인 단계를 포함하는 것이 바람직하다.
본 발명의 다른 목적은 이러한 방법을 실행하는 재구성 장치를 제안하는 것이다.
이 때문에, 본 발명은 실제 장면의 N 개의 연속하는 이미지에 대응하는 2 차원 비디오 시퀀스로부터 3 차원 장면을 재구성하기 위한 장치에 관련되는데,
(Ⅰ) 상기 시퀀스의 N 개의 이미지의 각각은 3각형 영역으로 분할되고;
(Ⅱ) 상기 장치는, 상기 시퀀스의 각각의 이미지를 처리하기 위해,
(A) 깊이 라벨링 부시스템으로서,
(1) 제 1의 반복동안 각각의 (N-1) 쌍의 장면 사이의 상관 비용의 합에 대응하는 샘플링된 깊이에 대한 에러 벡터와 최소 상관 비용을 제공하는 인덱스를 정의하기 위해 제공된 초기화 장치로서, 상기 영역의 각각의 정점의 깊이 값은 이웃하는 영역에 대해 얻어진 깊이 사이의 보간에 의해 계산되는 상기 초기화 장치와;
(2) 각각의 정점의 정점에 대해 이전에 범위가 정해진 윈도우 상의 에러 벡터와, 최소 상관 비용을 제공하는 인덱스를 정의하기 위해 제공되는 개선 장치를 연속하여 포함하는 상기 깊이 라벨링 부시스템과;
(B) 복셀 그리드의 해상도를 선택하고, 각각의 장면에 대해, 각각의 깊이 맵에 의해 제공되는 비어 있지 않은 공간 내부에 놓여 있는 복셀과, 최종적으로, 모든 비어 있지 않은 공간의 교차선에 놓여 있는 복셀만을 유지하기 위해 제공되는 재구성 부시스템을 포함하며;
(Ⅲ) 상기 깊이 라벨링 부시스템은 후속하는 반복동안 상기 초기화 장치를 대체하기 위해 의도되고 이미지 획득 장치의 시야와 위치를 조정하기 위해 제공되는 프로젝션 장치, 및 각각의 정점에 대해, 조망 방향에서 상기 획득 장치의 광학 중심과 정점을 통과하는 라인을 교차하는 복셀을 열거하고 상기 이미지 평면에 가장 가까운 복셀을 선택하기 위한, 상기 이미지 평면에 아주 근접한 정점 맵을 또한 포함하는 것을 특징으로 한다.
본 발명의 이점은 첨부된 도면을 참조한 하기의 설명으로부터 더 잘 이해되어질 것이다.
도 1은 본 발명에 따른 재구성 장치의 개략도.
도 2는 도 1의 장치의 초기화 장치에서 수행되는 동작을 설명하는 도면.
도 3은 도 1의 장치의 개선 장치에서 수행되는 동작을 설명하는 도면.
도 4는 도 1의 장치의 3D 재구성 부시스템에서 수행되는 동작을 설명하는 도면.
도 5는 도 1의 장치의 프로젝션 장치에서 수행되는 동작을 설명하는 도면.
도 1에 도시된 장치는, 본 발명에 따라, N 개의 연속하는 2차원 이미지(2D)의 장면의 시퀀스에 기초해서, 3차원 형태(3D)로 상기 장면의 재구성을 허용하도록 의도된 것이다. 상기 복원은 반복하도록 이도된 두 단계에서의 구현에 따라 두 부시스템(11, 12)에서 실현된다. 상기 제 1의 단계는 깊이 라벨링 단계인데; 각각의 뷰는 연속하는 3D 시트의 프로젝션으로서 간주되고, 다중-뷰 매칭은 그 불일치 맵을 얻기 위해 각각의 뷰에 대해 독립적으로 수행되며, 각각의 불일치 맵은 3D 시트의 깊이 맵에 대응한다(상기 불일치의 측정은 깊이 산정을 제공하는데, 상기 불일치는 우측(좌측) 이미지에 대한 좌측(우측) 이미지에 대한 패치의 시프트이며, 임의의 일치 문제의 출력이 불일치 맵이다). 두 번째 단계는 3D 모델 추출 단계인데, 3D 공간의 옥트리 구획이 수행되고 모든 3D 깊이 시트의 교차점에 놓여 있는 복셀은 유지된다.
따라서, 도 1의 장치는 두 부분으로 더 나누어진다: 상기 제 1의 깊이 라벨링 단계를 수행하기 위한 깊이 라벨링 부시스템(11)과 상기 제 2의 모델 추출 단계를 수행하기 위한 3D 재구성 부시스템(12). 상기 깊이 라벨링 부시스템(11) 자체는 초기화 장치, 프로젝션 장치(112), 및 개선 장치(refinement device; 113)를 포함한다.
상기 초기화 장치는, 도 1에 도시된 바와 같이, 테스트 회로(1111)와 후속하는 초기화 회로(1112)를 포함한다. 상기 테스트 회로(1111)는 프로시져의 시작에서, 반복이 첫 번째인 경우 회로(1112)로 향하거나(YES) 또는 상기 초기화가 이미 수행된 경우 장치(112)로 향하도록(NO) 전환하기 위해 제공된다.
만약 I가 깊이 시트를 복원하기를 희망하는 이미지이고 I1 내지 IN이 다중-뷰 매칭을 위해 사용되는 화상이라면, 관련된 시야(field of view) 내에서, I의 이미지 평면과 평행하게 놓여 있는 것으로 가정되는 삼각형 영역으로 I가 분할되는 것으로 가정된다. 각각의 영역(R(I))에 대해서, 현재의 시야에서 소정의 깊이(D1, D2, …, Di, …, DM)의 집합(S) 중에서 이 영역의 깊이를 얻기 위해, 세 동작이 부단계(1112a, 1112b)에서 계속적으로 수행된다.
상기 부단계(1112a)(도 2의 상부)는 각각의 영역에 대해 규정된 길이의 에러 벡터(V(i))를 계산하는 것을 허용하며, 상기 벡터는 각각의 샘플링된 깊이(C는 기준 광학 중심이다)는 하기의 수학식에 의해 표현되는 (N-1) 쌍의 뷰의 각각의 뷰(이미지(i), 이미지(j)) 사이의 상관 비용의 합이다:
V(i)의 각 좌표는 각각의 뷰에서 깊이(Di)에서 마주치게되는 에러의 합에 대응한다. 상관 측정 에러(err(i)[Ik, Ij])는 깊이(Di)에 놓여 있는 것으로 가정되는 이미지(Ij)에서 영역(R(Ij))의 픽셀과 R(I)의 픽셀 사이의 평방근 에러이며 뷰(I 및 Ij)의 좌표 시스템에 관련하는 프로젝션 매트릭스를 사용하여 얻어진다. 부단계(1112b)(도 2의 중간 부분)는 각각의 영역에 대해 최소의 상관 비용을 제공하는 인텍스를 탐색하고, 부단계(1112c)(도 2의 하부)는, 이웃한 영역에 대해 얻어진 깊이 사이의 보간에 의해, 각각의 영역의 각 정점에 대한 그 깊이 값을 계산한다(즉, 삼각형 영역의 각 정점의 깊이는 정점을 공유하는 영역의 깊이의 평균일 것이다).
초기화로 인해, 예비 3D 깊이 시트가 이미지(I)에 대해 얻어진다. 각 영역(R(I))은 이제, 세 정점의 3D 좌표에 의해 주어지는 그 3D 위치와 방향의 평가를 갖는다. 그러나 상기 영역의 방향은 이미지(I)의 이미지 평면과 평행하게 놓여 있다는 초기 가정에 더 이상 따르지 않는다.
초기화 장치는 반복적으로 사용되고 이미지(I)의 각 영역의 방향의 새로운 평가를 고려하면서 다시 수행된다. 다른 접근법이 최종적으로 선호된다: 각각의 영역에 독립적으로 에러 벡터를 검색하는 대신, 에러 벡터는 I에서의 정점에 대해 독립적으로 검색된다(깊이 평가는 이웃한 정점에 대한 깊이 평가를 변경시키지 않으면서 각각이 정점에 대해 검색된다). 이러한 접근법은 개선 장치(113)에서 수행된다.
도 1에 도시된 바와 같이(그리고 도 3에서 상기 장치에서 수행되는 부단계를 도시한다), 상기 회로(1112)의 출력에서 유효한 깊이 맵을 수신하는 이 장치(113)는, 각각의 정점에 대해, 상관 비용이 측정될 윈도우(W)를 정의하는(도 3의 상부) 벡터 계산 회로(1131)를 포함한다. 각각의 정점에 대해, 에러 벡터가 계산되고(도 3의 중간 부분), 이것은 각각의 샘플링된 깊이에 대해, 범위가 정해진 윈도우 상의 (N-1)개 쌍의 뷰(이미지(i), 이미지(j))의 각각의 뷰 사이의 상관 비용의 합에 대응한다. 판정 회로(1132)에서, 각각의 정점에 대한 최소 상관 비용을 제공하는 인덱스가 발견된다(도 3의 하부). 개량된 3D 깊이 시트는 이제 유효하게 된다.
상기 장치(113)의 출력에서 유효한 깊이 맵은 깊이 라벨링 부시스템(11)의 출력 신호이고 3D 재구성 부시스템(12)으로 전송되는데, 상기 3D 재구성 부시스템(12)은, 도 1에 도시된 바와 같이(그리고 도 4에는 상기 장치에서 수행되는 부단계를 도시한다), 해상도 정의 장치(121)와 후속하는 일련의 복셀 선택 장치(122) 및 테스트 회로(123)를 포함한다. 상기 장치(121)에서, 복셀 그리드의 해상도가 선택된다(도 4의 상부). 상기 장치(122)에서, 각각의 뷰에 대해, 각각의 깊이 맵에 의해 제공되는 비어 있지 않은 공간 내부에 놓여 있는 복셀은 유지되고(도 4의 중간 부분), 모든 비어있지 않은 공간의 교차점에 놓여 있는 복셀만이 최종적으로 유지된다(도 4의 하부). 그 다음 수렴의 테스트가 테스트 회로(123)에서 수행되는데, 이전 단계의 일부는 상기 수렴이 얻어질 때까지 반복되어야 한다.
이전에 상술된 첫 번째 반복동안 초기화가 수행되었기 때문에, 두 번째 반복의 시작에서 상기 테스트 회로(1111)는 이제 프로젝션 장치(112)로 향해 전환한다. 상기 회로(11112)에서 수행되는 상기 제 1의 부단계(1112a, 1112b, 1112c)에 관해서, 상기 장치(112)에 제공되고 도 5에 도시된 상기 부단계(1121a, 1121b)는, (a) 카메라 파라미터에 따라 카메라의 시야와 위치, 및 상기 정점 맵을 이미지 평면에 아주 가깝게 조정하고, (b) 각각의 정점에 대해, 관측 방향에서, 카메라의 광학적 중심과 정점을 통과하는 라인을 교차하는 복셀을 열거하고, 상기 이미지 평면에 가장 가까운 복셀을 선택한다. 도 5의 하부에 도시된 바와 같이, 상기 장치(112)의 출력은 이미 상술된 바와 같이 동작하는 개선 장치(113)를 향해 (제 1의 반복의 경우 상기 장치(112)의 출력과 같이) 전송된다.
Claims (5)
- N 개의 연속하는 실제 장면의 이미지에 대응하는 2차원 비디오 시퀀스로부터 3차원 장면을 재구성하는 방법에 있어서,삼각형 영역으로 분할된 상기 시퀀스의 각각의 이미지에 대해, 직렬로,(A) 각각의 장면이 연속하는 3D 시트의 프로젝션으로 간주되고, 상기 3D 시트의 깊이 맵에 대응하는 불일치 맵을 얻기 위해서 다중-장면 매칭이 각각의 장면에 대해 독립적으로 수행되는 제 1의 깊이 라벨링 단계와;(B) 3D 공간의 옥트리 구획(octree subdivision)이 수행되고 모든 3D 깊이 시트(depth sheet)의 교차점에 놓여 있는 복셀(voxels)(부피 요소)이 유지되는 제 2의 3D 모델 추출 단계를 포함하는 3차원 장면 재구성 방법.
- 제 1항에 있어서,상기 깊이 라벨링 단계는 관련된 이미지에 대한 예비 3D 깊이 시트를 제 1의 반복동안 정의하기 위해 제공되는 초기화 부단계, 및 각각의 영역의 각각의 정점(vertex)에 대해, 상기 정점에 대해 특별하게 정의된 윈도우 상의 각각의 (N-1) 쌍의 장면 사이의 상관 비용의 합에 대응하는 각각의 샘플링된 깊이에 대한 에러 벡터를 정의하고 최소 상관 비용을 제공하는 인덱스를 저장하기 위한 개선 부단계를 연속적으로 포함하고, 상기 제 1의 반복 이후에 상기 초기화 부단계를 이미지 평면 근처의 정점 맵과 파라미터에 따른 이미지 획득 장치의 위치와 시야(field of view)를 먼저 조정하고 그 다음 각각의 정점에 대해 상기 획득 장치의 광학 중심과 상기 정점을 통과하는 라인을 교차하는 복셀을 조망 방향에서 열거하며, 상기 이미지 평면에 가장 가까운 복셀을 선택하기 위한 프로젝션 부단계로 대체하기 위해 의도된 부가적인 단계를 포함하는 3차원 장면 재구성 방법.
- 제 2항에 있어서,상기 3D 모델 추출 단계는 복셀 그리드의 해상도를 정의하기 위해 제공되는 해상도 정의 부단계, 및 각각의 뷰에 대해 각각의 깊이 맵에 의해 제공되는 비어 있지 않은 공간 내부에 놓여 있는 복셀을 유지하고 그 다음 모든 비어 있지 않은 공간의 교차선에 놓여 있는 복셀만을 유지하기 위해 제공되는 복셀 선택 부단계를 포함하는 3차원 장면 재구성 방법.
- N 개의 연속하는 실제 장면의 이미지에 대응하는 2차원 비디오 시퀀스로부터 3차원 장면을 재궝하기 위한 장치에 있어서,(Ⅰ) 상기 시퀀스의 N 개의 이미지의 각각은 3각형 영역으로 분할되고;(Ⅱ) 상기 장치는, 상기 시퀀스의 각각의 이미지를 처리하기 위해,(A) 깊이 라벨링 부시스템으로서,(1) 제 1의 반복동안 각각의 (N-1) 쌍의 장면 사이의 상관 비용의 합에 대응하는 샘플링된 깊이에 대한 에러 벡터와 최소 상관 비용을 제공하는 인덱스를 정의하기 위해 제공된 초기화 장치로서, 상기 영역의 각각의 정점의 깊이 값은 이웃하는 영역에 대해 얻어진 깊이 사이의 보간에 의해 계산되는 상기 초기화 장치와;(2) 각각의 정점의 정점에 대해 이전에 범위가 정해진 윈도우 상의 에러 벡터와, 최소 상관 비용을 제공하는 인덱스를 정의하기 위해 제공되는 개선 장치를 연속하여 포함하는 상기 깊이 라벨링 부시스템과;(B) 복셀 그리드의 해상도를 선택하고, 각각의 장면에 대해, 각각의 깊이 맵에 의해 제공되는 비어 있지 않은 공간 내부에 놓여 있는 복셀과, 최종적으로, 모든 비어 있지 않은 공간의 교차선에 놓여 있는 복셀만을 유지하기 위해 제공되는 재구성 부시스템을 포함하며;(Ⅲ) 상기 깊이 라벨링 부시스템은 후속하는 반복동안 상기 초기화 장치를 대체하기 위해 의도되고 이미지 획득 장치의 시야와 위치를 조정하기 위해 제공되는 프로젝션 장치, 및 각각의 정점에 대해, 조망 방향에서 상기 획득 장치의 광학 중심과 정점을 통과하는 라인을 교차하는 복셀을 열거하고 상기 이미지 평면에 가장 가까운 복셀을 선택하기 위한, 상기 이미지 평면에 아주 근접한 정점 맵을 또한 포함하는 것을 특징으로 하는 3차원 장면 재구성 장치.
- 제 4항에 따른 재구성 장치를 포함하는 비디오 디코딩 시스템.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP97401822 | 1997-07-29 | ||
EP97401822.8 | 1997-07-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20000068660A true KR20000068660A (ko) | 2000-11-25 |
Family
ID=8229829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019997002694A KR20000068660A (ko) | 1997-07-29 | 1998-06-25 | 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 |
Country Status (6)
Country | Link |
---|---|
US (2) | US6351572B1 (ko) |
EP (1) | EP0928460B1 (ko) |
JP (1) | JP2001501348A (ko) |
KR (1) | KR20000068660A (ko) |
DE (1) | DE69811050T2 (ko) |
WO (1) | WO1999006956A1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100446635B1 (ko) * | 2001-11-27 | 2004-09-04 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 객체 표현 장치 및 방법 |
KR100601989B1 (ko) * | 2005-02-07 | 2006-07-18 | 삼성전자주식회사 | 3차원 형상 생성 장치와 방법 및 컴퓨터 프로그램을저장한 컴퓨터로 읽을 수 있는 기록매체 |
US8155386B2 (en) | 2007-10-23 | 2012-04-10 | Samsung Electronics Co., Ltd. | Method and apparatus for obtaining depth information |
WO2013105783A1 (ko) * | 2012-01-11 | 2013-07-18 | 삼성전자주식회사 | 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법 |
Families Citing this family (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6999073B1 (en) * | 1998-07-20 | 2006-02-14 | Geometrix, Inc. | Method and system for generating fully-textured 3D |
US6871167B1 (en) * | 1999-10-26 | 2005-03-22 | Agere Systems Inc. | System and method for determining capacitance for large-scale integrated circuits |
US6990228B1 (en) * | 1999-12-17 | 2006-01-24 | Canon Kabushiki Kaisha | Image processing apparatus |
US6674877B1 (en) * | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
JP4550221B2 (ja) * | 2000-04-24 | 2010-09-22 | パナソニック株式会社 | 三次元空間再構成装置及び三次元空間再構成方法 |
US20030206652A1 (en) * | 2000-06-28 | 2003-11-06 | David Nister | Depth map creation through hypothesis blending in a bayesian framework |
US6868191B2 (en) * | 2000-06-28 | 2005-03-15 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for median fusion of depth maps |
FI109633B (fi) * | 2001-01-24 | 2002-09-13 | Gamecluster Ltd Oy | Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi |
US6914600B2 (en) * | 2001-06-26 | 2005-07-05 | Hewlett-Packard Development Company, L.P. | Volumetric warping for voxel coloring on an infinite domain |
JP3794681B2 (ja) * | 2001-11-29 | 2006-07-05 | 株式会社スクウェア・エニックス | ビデオゲーム処理方法及びビデオゲーム処理装置及びビデオゲームのプログラム及びビデオゲームのプログラムを記録した記録媒体 |
AUPS283602A0 (en) * | 2002-06-07 | 2002-06-27 | Dynamic Digital Depth Research Pty Ltd | Improved conversion and encoding techniques |
US7489812B2 (en) * | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
US7092484B1 (en) | 2002-06-14 | 2006-08-15 | Iowa State University Research Foundation, Inc. | Model-assisted reconstruction of volumetric data |
US7161579B2 (en) | 2002-07-18 | 2007-01-09 | Sony Computer Entertainment Inc. | Hand-held computer interactive device |
US7102615B2 (en) | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US8947347B2 (en) * | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US7850526B2 (en) * | 2002-07-27 | 2010-12-14 | Sony Computer Entertainment America Inc. | System for tracking user manipulations within an environment |
US9174119B2 (en) | 2002-07-27 | 2015-11-03 | Sony Computer Entertainement America, LLC | Controller for providing inputs to control execution of a program when inputs are combined |
US8160269B2 (en) | 2003-08-27 | 2012-04-17 | Sony Computer Entertainment Inc. | Methods and apparatuses for adjusting a listening area for capturing sounds |
US7803050B2 (en) * | 2002-07-27 | 2010-09-28 | Sony Computer Entertainment Inc. | Tracking device with sound emitter for use in obtaining information for controlling game program execution |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US8139793B2 (en) | 2003-08-27 | 2012-03-20 | Sony Computer Entertainment Inc. | Methods and apparatus for capturing audio signals based on a visual image |
US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US7854655B2 (en) * | 2002-07-27 | 2010-12-21 | Sony Computer Entertainment America Inc. | Obtaining input for controlling execution of a game program |
US7918733B2 (en) * | 2002-07-27 | 2011-04-05 | Sony Computer Entertainment America Inc. | Multi-input game control mixer |
US8233642B2 (en) * | 2003-08-27 | 2012-07-31 | Sony Computer Entertainment Inc. | Methods and apparatuses for capturing an audio signal based on a location of the signal |
US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
US7277599B2 (en) * | 2002-09-23 | 2007-10-02 | Regents Of The University Of Minnesota | System and method for three-dimensional video imaging using a single camera |
DE10253617B4 (de) * | 2002-11-15 | 2005-06-30 | Siemens Ag | Verfahren zur Darstellung eines ineinem Volumendatensatz abgebildeten Objektes |
WO2004071102A1 (ja) * | 2003-01-20 | 2004-08-19 | Sanyo Electric Co,. Ltd. | 立体視用映像提供方法及び立体映像表示装置 |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US7663689B2 (en) | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
US7660472B2 (en) * | 2004-02-10 | 2010-02-09 | Headplay (Barbados) Inc. | System and method for managing stereoscopic viewing |
CA2557534A1 (en) * | 2004-02-27 | 2005-09-09 | Td Vision Corporation S.A. De C.V. | Method and system for digital decoding 3d stereoscopic video images |
WO2005083636A1 (es) * | 2004-02-27 | 2005-09-09 | Td Vision Corporation, S.A. De C.V. | Método y sistema de codificación digital de imágenes de video 3d estereoscópicas |
KR100601958B1 (ko) | 2004-07-15 | 2006-07-14 | 삼성전자주식회사 | 3차원 객체 인식을 위한 양안차 추정 방법 |
US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
JP2008021092A (ja) * | 2006-07-12 | 2008-01-31 | Fanuc Ltd | ロボットシステムのシミュレーション装置 |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
EP2087466B1 (en) * | 2006-11-21 | 2020-06-17 | Koninklijke Philips N.V. | Generation of depth map for an image |
KR100866491B1 (ko) * | 2007-01-30 | 2008-11-03 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
JP5156837B2 (ja) * | 2007-11-09 | 2013-03-06 | トムソン ライセンシング | 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法 |
US8351685B2 (en) * | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
US8233077B2 (en) | 2007-12-27 | 2012-07-31 | Qualcomm Incorporated | Method and apparatus with depth map generation |
JP5684577B2 (ja) | 2008-02-27 | 2015-03-11 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法 |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
WO2009131703A2 (en) * | 2008-04-25 | 2009-10-29 | Thomson Licensing | Coding of depth signal |
WO2010018880A1 (en) * | 2008-08-11 | 2010-02-18 | Postech Academy-Industry Foundation | Apparatus and method for depth estimation from single image in real time |
BRPI0916963A2 (pt) | 2008-08-20 | 2015-11-24 | Thomson Licensing | mapa de profundidade refinado |
US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
KR20110126103A (ko) | 2009-01-07 | 2011-11-22 | 톰슨 라이센싱 | 조인트 깊이 추정 |
US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
US8933925B2 (en) * | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
KR101975247B1 (ko) * | 2011-09-14 | 2019-08-23 | 삼성전자주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
FR2988504B1 (fr) * | 2012-03-23 | 2014-05-09 | Commissariat Energie Atomique | Procede de determination d'un plan du sol a partir d'une image de profondeur |
RU2479039C1 (ru) * | 2012-03-26 | 2013-04-10 | Закрытое акционерное общество "БОУ Лабораториз" | Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройство для реализации способа |
US8855442B2 (en) * | 2012-04-30 | 2014-10-07 | Yuri Owechko | Image registration of multimodal data using 3D-GeoArcs |
US10134134B2 (en) | 2012-05-24 | 2018-11-20 | Qatar Foundation | Method and system for creating depth signatures |
US9025860B2 (en) | 2012-08-06 | 2015-05-05 | Microsoft Technology Licensing, Llc | Three-dimensional object browsing in documents |
WO2014178047A1 (en) | 2013-04-30 | 2014-11-06 | Inuitive Ltd. | System and method for video conferencing |
US9779508B2 (en) | 2014-03-26 | 2017-10-03 | Microsoft Technology Licensing, Llc | Real-time three-dimensional reconstruction of a scene from a single camera |
US9846963B2 (en) | 2014-10-03 | 2017-12-19 | Samsung Electronics Co., Ltd. | 3-dimensional model generation using edges |
US9866815B2 (en) | 2015-01-05 | 2018-01-09 | Qualcomm Incorporated | 3D object segmentation |
JP6632443B2 (ja) * | 2016-03-23 | 2020-01-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
US10402675B2 (en) | 2016-08-30 | 2019-09-03 | The Boeing Company | 2D vehicle localizing using geoarcs |
US10013798B2 (en) * | 2016-08-30 | 2018-07-03 | The Boeing Company | 3D vehicle localizing using geoarcs |
US20180075614A1 (en) * | 2016-09-12 | 2018-03-15 | DunAn Precision, Inc. | Method of Depth Estimation Using a Camera and Inertial Sensor |
CN111788610B (zh) | 2017-12-22 | 2021-11-26 | 奇跃公司 | 用于生成场景中的表面的三维重建的方法和设备 |
US10679372B2 (en) | 2018-05-24 | 2020-06-09 | Lowe's Companies, Inc. | Spatial construction using guided surface detection |
FR3082979B1 (fr) * | 2018-06-26 | 2020-10-16 | Quantificare | Procede et dispositif pour la simulation et la visualisation de modeles surfaciques |
CN112802303A (zh) * | 2021-02-09 | 2021-05-14 | 成都视海芯图微电子有限公司 | 一种基于3d视觉的实时风险预测方法及系统 |
US11961184B2 (en) * | 2021-09-17 | 2024-04-16 | Samsung Electronics Co., Ltd. | System and method for scene reconstruction with plane and surface reconstruction |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4694404A (en) * | 1984-01-12 | 1987-09-15 | Key Bank N.A. | High-speed image generation of complex solid objects using octree encoding |
US5448687A (en) * | 1988-09-13 | 1995-09-05 | Computer Design, Inc. | Computer-assisted design system for flattening a three-dimensional surface and for wrapping a flat shape to a three-dimensional surface |
US5283837A (en) * | 1991-08-27 | 1994-02-01 | Picker International, Inc. | Accurate estimation of surface normals in 3-D data sets |
US5307292A (en) * | 1992-06-24 | 1994-04-26 | Christopher A. Brown | Method of quantifying the topographic structure of a surface |
JP2762000B2 (ja) * | 1992-06-25 | 1998-06-04 | 株式会社日立製作所 | 曲面生成方法および曲面生成装置 |
DE69430153T2 (de) * | 1993-06-21 | 2002-09-05 | Nippon Telegraph & Telephone | Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten |
US5479603A (en) * | 1993-07-21 | 1995-12-26 | Xerox Corporation | Method and apparatus for producing a composite second image in the spatial context of a first image |
US5598515A (en) | 1994-01-10 | 1997-01-28 | Gen Tech Corp. | System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene |
US5684890A (en) * | 1994-02-28 | 1997-11-04 | Nec Corporation | Three-dimensional reference image segmenting method and apparatus |
US5530774A (en) * | 1994-03-25 | 1996-06-25 | Eastman Kodak Company | Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields |
US5689577A (en) * | 1994-10-14 | 1997-11-18 | Picker International, Inc. | Procedure for the simplification of triangular surface meshes for more efficient processing |
US5818959A (en) * | 1995-10-04 | 1998-10-06 | Visual Interface, Inc. | Method of producing a three-dimensional image from two-dimensional images |
US6009188A (en) * | 1996-02-16 | 1999-12-28 | Microsoft Corporation | Method and system for digital plenoptic imaging |
US5751852A (en) * | 1996-04-29 | 1998-05-12 | Xerox Corporation | Image structure map data structure for spatially indexing an imgage |
US6137492A (en) * | 1997-04-03 | 2000-10-24 | Microsoft Corporation | Method and system for adaptive refinement of progressive meshes |
US5917937A (en) * | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
-
1998
- 1998-06-25 KR KR1019997002694A patent/KR20000068660A/ko not_active Application Discontinuation
- 1998-06-25 EP EP98924529A patent/EP0928460B1/en not_active Expired - Lifetime
- 1998-06-25 DE DE69811050T patent/DE69811050T2/de not_active Expired - Fee Related
- 1998-06-25 JP JP11510702A patent/JP2001501348A/ja active Pending
- 1998-06-25 WO PCT/IB1998/000983 patent/WO1999006956A1/en not_active Application Discontinuation
- 1998-07-29 US US09/124,629 patent/US6351572B1/en not_active Expired - Fee Related
-
2001
- 2001-11-20 US US09/989,245 patent/US6661914B2/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100446635B1 (ko) * | 2001-11-27 | 2004-09-04 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 객체 표현 장치 및 방법 |
KR100601989B1 (ko) * | 2005-02-07 | 2006-07-18 | 삼성전자주식회사 | 3차원 형상 생성 장치와 방법 및 컴퓨터 프로그램을저장한 컴퓨터로 읽을 수 있는 기록매체 |
US8155386B2 (en) | 2007-10-23 | 2012-04-10 | Samsung Electronics Co., Ltd. | Method and apparatus for obtaining depth information |
KR101327794B1 (ko) * | 2007-10-23 | 2013-11-11 | 삼성전자주식회사 | 깊이 정보 획득 방법 및 장치 |
WO2013105783A1 (ko) * | 2012-01-11 | 2013-07-18 | 삼성전자주식회사 | 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법 |
US9508152B2 (en) | 2012-01-11 | 2016-11-29 | Samsung Electronics Co., Ltd. | Object learning and recognition method and system |
US10163215B2 (en) | 2012-01-11 | 2018-12-25 | Samsung Electronics Co., Ltd. | Object learning and recognition method and system |
US10867405B2 (en) | 2012-01-11 | 2020-12-15 | Samsung Electronics Co., Ltd. | Object learning and recognition method and system |
Also Published As
Publication number | Publication date |
---|---|
DE69811050D1 (de) | 2003-03-06 |
DE69811050T2 (de) | 2003-11-06 |
WO1999006956A1 (en) | 1999-02-11 |
JP2001501348A (ja) | 2001-01-30 |
US6661914B2 (en) | 2003-12-09 |
EP0928460A1 (en) | 1999-07-14 |
EP0928460B1 (en) | 2003-01-29 |
US6351572B1 (en) | 2002-02-26 |
US20020110273A1 (en) | 2002-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20000068660A (ko) | 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템 | |
US8217931B2 (en) | System and method for processing video images | |
Labatut et al. | Robust and efficient surface reconstruction from range data | |
US9082224B2 (en) | Systems and methods 2-D to 3-D conversion using depth access segiments to define an object | |
US7046840B2 (en) | 3-D reconstruction engine | |
US20080259073A1 (en) | System and method for processing video images | |
US20080225045A1 (en) | Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion | |
US20080225042A1 (en) | Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters | |
US20080226160A1 (en) | Systems and methods for filling light in frames during 2-d to 3-d image conversion | |
WO2008112794A2 (en) | Systems and methods for 2-d to 3-d conversion using depth access segments to define an object | |
WO2008112804A2 (en) | System and method for processing video images for camera recreation using point clouds | |
WO2008112762A1 (en) | Systems amd methods for depth peeling using stereoscopic variables during the rendering of 2-d to 3-d images | |
WO2008112781A2 (en) | Systems and methods for treating occlusions in 2-d to 3-d image conversion | |
US6373487B1 (en) | Methods and apparatus for constructing a 3D model of a scene from calibrated images of the scene | |
US11394945B2 (en) | System and method for performing 3D imaging of an object | |
Lin et al. | Vision system for fast 3-D model reconstruction | |
Koch | Automatic reconstruction of buildings from stereoscopic image sequences | |
Yang | Towards Efficient, Accurate and Self-trained Multi-view Stereopsis | |
Naik | 3D Mesh Simplification Techniques for Enhanced Image Based Rendering | |
Brik | Generation of volumetric models from video data | |
Yao et al. | Interpolating novel views from image sequences by probabilistic depth carving | |
Hisatomi | Overview of Multi-View Image Technology | |
Rosen | Improved 3-D scene sampling by camera model design | |
WO2008112786A2 (en) | Systems and method for generating 3-d geometry using points from image sequences | |
GB2358308A (en) | Determining the position and orientation at which images are recorded |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |