KR20150013709A - 컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템 - Google Patents
컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템 Download PDFInfo
- Publication number
- KR20150013709A KR20150013709A KR1020147034271A KR20147034271A KR20150013709A KR 20150013709 A KR20150013709 A KR 20150013709A KR 1020147034271 A KR1020147034271 A KR 1020147034271A KR 20147034271 A KR20147034271 A KR 20147034271A KR 20150013709 A KR20150013709 A KR 20150013709A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- real
- time
- video
- tracking
- Prior art date
Links
- 238000002156 mixing Methods 0.000 title claims abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 143
- 238000004422 calculation algorithm Methods 0.000 claims description 60
- 230000003190 augmentative effect Effects 0.000 claims description 28
- 238000011835 investigation Methods 0.000 claims description 22
- 238000004519 manufacturing process Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 20
- 238000009877 rendering Methods 0.000 claims description 20
- 238000013519 translation Methods 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims description 19
- 230000003287 optical effect Effects 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 claims description 15
- 239000011521 glass Substances 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 5
- 239000000835 fiber Substances 0.000 claims description 4
- 230000005484 gravity Effects 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims description 2
- 238000010845 search algorithm Methods 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims description 2
- 230000003068 static effect Effects 0.000 claims description 2
- 238000012800 visualization Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 24
- 238000013459 approach Methods 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 18
- 230000014616 translation Effects 0.000 description 16
- 239000013598 vector Substances 0.000 description 13
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000004148 unit process Methods 0.000 description 2
- 241000086550 Dinosauria Species 0.000 description 1
- 241001284366 Koumansetta rainfordi Species 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- MOYKHGMNXAOIAT-JGWLITMVSA-N isosorbide dinitrate Chemical compound [O-][N+](=O)O[C@H]1CO[C@@H]2[C@H](O[N+](=O)[O-])CO[C@@H]21 MOYKHGMNXAOIAT-JGWLITMVSA-N 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Processing Of Solid Wastes (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Cultivation Of Plants (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
컴퓨터 생성된 3D 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하는 방법이 개시되고, 필름 카메라의 몸체는 3D 내에서 움직일 수 있고, 카메라 내의 또는 그것에 부착된 센서들은 카메라의 3D 포지션 및 3D 방향을 정의하거나 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공한다.
Description
본 발명은 TV 방송, 영화, 또는 비디오 게임들을 위한 실시간 증강 현실 비디오를 생성하기 위해, 컴퓨터 생성된 3D 객체들과 비디오 카메라와 같은 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템에 관한 것이다.
지난 20년 동안, 본 분야에서 상당한 연구 및 상업적 활동이 있었고, 시청자들이 보는 가상의 제 1 다운 라인을 피치(pitch) 상에 중첩시켜 추가하는, 미국 풋볼과 같은 스포츠 경기들에 대한 텔레비전 시청 개선들을 개발해온, 스포츠비전, 인크.와 같은 회사들로부터의 비디오 삽입 또는 증강 현실 시스템에 대한 기준이 만들어졌다. 이 영역에서 시스템들을 개발한 다른 회사들에는 PVI, Inc.가 포함된다. 알려진 시스템들의 하나의 공통 특징은, 그 시스템들이 원칙적으로, 카메라가 실세계 장면 중 어느 부분을 가리키고 있는지를 결정하기 위해 카메라로부터의 비디오 공급 내의 특징들을 분석하는 것에 의존한다는 것인데; 장면에서 카메라가 가리키는 곳을 시스템이 알게 되면, 객체의 포지션(position) 및 방향이 그것을 장면의 자연스러운 부분으로 보이게 하는 방식으로 비디오 공급 상에 (상기 가상의 제 1 다운 라인과 같은) 컴퓨터 생성된 객체들을 추가 또는 합성할 수 있도록, 시스템은 미리 그 장면의 3D 지도를 구축할 것이다. 이 방식에서 오직 광학 흐름에만 의존하는 것에 대한 하나의 단점은 이러한 시스템들이 신뢰적이지 않을 수 있다는 것이다.
다른 시스템들은 순수한 마커(marker)-기반 접근법들(예를 들면, 라이트크래프트 기술들(Lightcraft Technologies))에 의존한다. 그들은 시스템에 의해 검출되도록 세트 상에 실제 물리적 마커들(1m x 1m 큼)을 놓도록 오퍼레이터(operator)에게 요청한다. 그것은 매우 비효율적인데, 이는 준비하는데 몇 시간 또는 몇 일이 걸리고, 이는 간혹 영화 제작을 위해 작용하지 않을 가능성이 크기 때문이다. 그것은 또한, 물리적 마커들이 항상 그들의 시스템의 시계(field of view) 내에 있어야 하기 때문에 많은 제약사항들을 갖는다. 또한 색인 1에 인용된 것들을 과학적으로 참조할 수 있다.
이 기술은 실시간 컴퓨터 생성된 3D 객체들과,영화 촬영 세트, TV 방송, 또는 비디오 게임 상의 실제 카메라(본원의 나머지 부분에서 필름 카메라로 불리는)로부터의 실제 비디오 공급을 믹싱하는 것에 대한 것이다. 이 시스템의 주요 목적들은:
세트-상 촬영 및 영화 후반-제작에 필름 카메라의 포지션의 정확한 추정(카메라 추적으로 불리는)을 제공하고 (모든 필름 카메라들은 손잡이가 있음: 크레인 카메라들, 스테디 캠, 핸드-헬드 카메라, 삼각대 상의 카메라 등),
본 발명은 하나의 양태에서, TV 방송, 영화, 또는 비디오 게임들을 위한 증강 현실 비디오를 생성하기 위해, 실시간, 컴퓨터 생성된 3D 객체들 및 비디오 카메라와 같은, 필름 카메라로부터의 비디오 공급을 믹싱 또는 합성하기 위한 시스템에 있어서,
(a) 필름 카메라의 몸체는 3D 내에서 움직일 수 있고, 필름 카메라 내의 및 필름 카메라에 직접 또는 간접적으로 부착된 센서들은 필름 카메라의 3D 포지션 및 3D 방향을 정의하거나, 필름 카메라의 3D 포지션 및 3D 방향이 계산되게 할 수 있는 실시간 포지셔닝 데이터를 제공하고,
(b) 실시간 포지셔닝 데이터는 그 후 컴퓨터 생성된 3D 객체들을 생성하거나, 다시 불러내거나, 렌더링(rendering)하거나, 수정하기 위해 시스템에 의해 자동으로 사용되고,
(c) 결과로 발생한 컴퓨터 생성된 3D 객체들은 그 후, TV 방송, 영화 또는 비디오 게임들에 증강 현실 비디오를 제공하기 위해 필름 카메라로부터의 비디오 공급에 믹싱 또는 합성된다.
선택적인 특징들(그들 중 몇몇 또는 그들 모두는 서로 조합될 수 있음)에는 다음이 포함된다:
필름 카메라의 실시간 줌(zoom), 초점, 조리개 설정들이 측정되고, 실시간 포지셔닝 데이터와 함께 사용되어, 3D 객체들이 3D 장면에서 원하는 위치 및 방향으로 올바르게 렌더링되게 함.
센서들은 3D 내에서의 병진 가속(translational acceleration)을 측정하는 3-축 가속도계, 3D 내에서의 각속도를 측정하는 3-축 자이로, 및 3D 내에서의 절대적인 방향지시(absolute heading)를 측정하는 자력계를 포함하고, 따라서 9DOF 센서를 구성함.
o 유닛은 1개 또는 2개의 위트니스 카메라들(witness cameras)을 포함함.
o 유닛은 비디오 출력 내의 각각의 화소의 심도를 캡쳐하는 3D 거리 센서를 포함함.
o 유닛은 6DOF 또는 9DOF 센서를 포함함.
o 유닛은 그것이 상이한 크기들 및 디자인들의 필름 카메라들 및 로드들(rods)에 고정되게 허용하도록 하기 위해 스위칭가능한 행어(hanger)들을 사용함.
o 유닛은 다른 형태들의 센서들을 포함하도록 확장가능함.
o 유닛은 복잡한 장면을 조사(survey)하고, 조사되는 3D 장면을 정의하는 데이터를 무선으로 컴퓨터로 송신하기 위해 사용될 수 있는 조사 장치를 형성할 수 있으며, 상기 컴퓨터는 후에 장면을 추적하거나 장면의 추적을 복원함.
o 필름 카메라는 카메라 줌, 초점, 및 조리개를 읽기 위해 종래의 인코더들을 포함함.
위트니스 카메라(들)는 필름 카메라로부터 오프-세트(off-set)되고, 오프-세트는 제 1 및 제 2 그룹의 원들을 포함하는 교정 차트를 사용하여 획득되고, 각각의 원은 하나 이상의 다른 원들에 대하여 알려진 위치에 있고, 각각의 원은 블롭(blob) 이미지 알고리즘을 사용하여 인식됨.
필름 카메라의 렌즈는 몇 개의 원들을 포함하는 교정 차트를 사용하여 광학 왜곡에 대해 교정되고, 각각의 원은 하나 이상의 다른 원들에 대하여 알려진 위치에 있고, 각각의 원은 블롭 이미지 알고리즘을 사용하여 인식됨.
필름 카메라는 크레인 카메라(crane camera); 스테디 캠(steady cam); 핸드-핼드-카메라(hand-held-camera); 돌리 장착 카메라(dolly mounted camera), 삼각대-장착 카메라(tripod-mounted camera), 스마트폰, 증강 현실 안경 중 임의의 것임.
필름 카메라의 3D 포지션 및 방향은 센서들로부터의 실시간 3D 포지셔닝 데이터와, 위트니스 카메라(들)가 장면을 조사하고 처리기 상에서 실행되는 소프트웨어가 장면에 수동으로 또는 인위적으로 추가된 것이 아닌 자연스러운 마커들("특징 점들")을 그 장면에서 검출하는 광학 흐름을 부분적으로 사용함으로써 생성된 실세계의 3D 지도를 참조하여 결정됨.
시스템은 추적될 장면을 오직 조사하는('인스턴트(instant) 조사'로 불리는) 별개의 단계가 없지만, (대신, 카메라가 비디오를 캡쳐하기 위해 사용되는 동안 계속 발생되는 조사를 통해) 시스템이 완벽히 개시되게 하기 위해 1개 또는 2개의 고속(적어도 100 fps와 같은) 위트니스 카메라들을 사용함.
입체적인 시스템은, 소프트웨어가 이미지들을 처리하게 하고, 카메라 시스템이 전혀 움직이지 않더라도 인스턴트 3D 점 클라우드(cloud)를 생성하게 함(예를 들면, 2개의 카메라와 등극선 기하 사이의 분리에 대한 지식을 사용하여 장면 내의 다수의 점들을 3D 공간 내의 그들의 포지션에 연관시키는).
결합 알고리즘은 카메라의 포지션 및 방향을 결정하기 위해, 가속도계, 자이로스코프(gyroscope), 자력계, 3D 거리 센서를 포함할 수 있는 모든 센서들로부터의 출력들을 통합하고 재교정하기 위해 확장형 칼만(Kalman) 필터 예측/정정 기술에 기초함.
시스템은 (a) 가상 인물들, 객체들, 및 장소들의 3D 컴퓨터 생성된 애니메이션을 제공하는 콘텐트 생성 컴퓨터, 및 (b) (콘텐트 생성 컴퓨터로부터 분리될 수 있거나 분리되지 않을 수 있는) 렌더링 컴퓨터를 포함하고, 필름 카메라의 3D 포지션을 정의하는 실시간 포지셔닝 데이터는, 비디오 공급에서 보여지는 장면의 자연스러운 부분을 형성하기 위해 필름 카메라로부터의 그 비디오 공급에 실시간으로 삽입되고 그것에 믹싱될 수 있는 실시간 컴퓨터 생성된 3D 객체들로 하여금 생성되도록 하기 위해, 콘텐트 생성 컴퓨터 및 렌더링 컴퓨터 중 하나 또는 그 둘 모두에 의해 사용될 수 있음.
컴퓨터 생성된 3D 객체들은 장면에 믹싱될 때 현실적인 방식으로 움직이는 (예를 들면, 달리기, 춤추기, 걷기, 싸우기, 날기, 점프하기...) 사람 또는 생명체들의 애니메이션된 인물들임.
시스템은 장면 내에 위치된, 알려진 크기의 및 알려진 패턴으로 커버된 게시판과 같은 소형 카메라 등록 객체를 사용하여, 검출된 패턴의 코너가 3D 점 클라우드(및 그에 따라 상기 세계)에 대한 근원으로서 처리되게 함.
시스템은 자기 N극을 나타내기 위한 자력계, 중력 방향을 나타내기 위한 (그리고 그에 따라 실제 수직을 제공하는) 가속도계, 시스템이 위로/아래로 기울어졌는지나 좌측 또는 우측으로 팬(pan)되었거나 광학 축에 대하여 회전되었는지를 나타내기 위한 자이로, 및 시작 포지션으로부터의 3D 내에서의 병진(translation)이 추론되게 하기 위한 3-축 가속도계를 포함함.
소프트웨어는 추적 손실들을 상당히 줄이고 추적 정확도를 높이기 위해 3D 지도에 균일하게 분포된 점 클라우드를 생성하고자함(시차(parallax)가 보다 많이 생성될수록, 추정된 카메라 포지션은 보다 정확함).
카메라 추적 시스템은 카메라 시스템에 무선으로 연결될 수 있으므로, 3D 점 클라우드를 생성할 때 세트 주변을 빠르게 움직일 수 있다. 이전의 위트니스 카메라 시스템들과는 달리, 세트에 걸친 케이블들을 뒤쫓을 필요가 없다.
카메라 추적 시스템은, 감독/촬영기사가 필름 카메라에 부착된 카메라 추적 시스템을 추적, 팬, 기울일 때, 필름 카메라를 추적하는 인스턴트 조사(입체적인 경우) 또는 3D 장면의 실시간 조사(평면적인 경우)를 조합함.
시스템은 회전, 병진, 초점, 조리개, 초점 거리를 포함하는 필름 카메라 추적에 대한 모든 양태들을 완전히 자동화하고; 비디오에 믹싱될 3D 컴퓨터 생성된 콘텐트의 스케일링, 포지셔닝 및 방향설정을 자동화함.
시스템은 추적의 복원을 용이하게 하기 위해, 예를 들면, ORB를 사용하는 회전 불변 서술자들(rotation invariant descriptors)을 장면에서 검출된 특징 점들에 부착함.
시스템은 이전에 올바르게 컴퓨팅되거나 확인된 포지션을 사용하여 필름 카메라의 다음 포지션을 예측하기 위해 센서들에 의해 제공된 정보에 연관된 고정 속도 모델을 사용함. 점 매칭 알고리즘이 위트니스 카메라 시스템으로부터의 실시간 비디오 공급에 식별된 점들과 새로운 3D 점 클라우드 내의 투영된 점들을 매칭시킬 수 있게 하기 위해 3D 점 클라우드를 현재의 프레임 상에 다시 투영하도록 상기 예측을 사용함.
시스템은 위트니스 카메라 시스템으로부터의 실시간 비디오 공급에 식별된 점들과 새로운 3D 점 클라우드 내의 투영된 점들 간의 오류를 최소화하기 위해 카메라 추적에 대해 레벤버그-마콰트(Levenberg-Marquardt) 촤소화 방식을 사용함.
사용자는 3D 가비지 매팅 마스크들(3D Garbage Matting masks)과 같은 3D 마스크들을 정의하기 위해 카메라 추적 시스템에 의해 생성된 3D 점 클라우드를 사용할 수 있음.
3D 객체들은 정적인 객체들, 동적인 애니메이션들, 가상 세계들, 가상 사람, 가상 건물들, 가상 경치, 가상 영화 세트들, 및 애니메이션 데이터베이스 내의 임의의 데이터를 포함함.
다른 개념들 - 각각은 앞에서 정의된 인물들 중 임의의 것 또는 다음에 정의된 임의의 다른 개념들과 조합될 수 있다:
실시간, 컴퓨터 생성된 3D 객체들 및 필름 카메라로부터의 비디오 공급을 믹싱 또는 합성하는 방법으로서, 필름 카메라의 몸체는 3D 내에서 움직일 수 있고, 카메라 내의 또는 그것에 부착된 센서들은 카메라의 3D 포지션 및 3D 방향을 정의하거나 3D 포지션이 계산될 수 있게 하는 실시간 포지셔닝 데이터를 제공한다.
TV 방송, 영화, 또는 비디오 게임들을 위한 증강 현실 비디오를 생성하기 위해, 실시간, 컴퓨터 생성된 3D 객체들 및 비디오 카메라와 같은 필름 카메라로부터의 비디오 공급을 믹싱 또는 합성하기 위한 방법에 있어서,
(a) 필름 카메라의 몸체는 3D 내에서 움직일 수 있으며, 필름 카메라 내의 또는 그것에 직접 또는 간접적으로 부착된 센서들은 필름 카메라의 3D 포지션 및 3D 방향을 정의하거나 필름 카메라의 3D 포지션 및 3D 방향이 계산되게 할 수 있는 실시간 포지셔닝 데이터를 제공하고,
(b) 실시간 포지셔닝 데이터는 그 후 컴퓨터 생성된 3D 객체들을 생성하거나, 다시 불러내거나, 렌더링하거나, 수정하기 위해 시스템에 의해 자동으로 사용되고,
(c) 결과로 발생한 컴퓨터 생성된 3D 객체들은 그 후, TV 방송, 영화, 또는 비디오 게임들에 증강 현실 비디오를 제공하기 위해 필름 카메라로부터의 비디오 공급에 믹싱 또는 합성된다.
앞서 정의된 바와 같은 그리고 감독(또는 사진 감독)이 카메라 내의 사전-제작 컴퓨터 생성된 3D 자산들, 전형적으로 사전 가시화 또는 시각 효과들의 자산들을 카메라에 의해 캡쳐된 비디오 이미지들 또는 실제 액션 영화 플레이트(live action film plate) 상에서 실시간으로 조작(frame-up)하게 하기 위해 사용되는 방법들 및 시스템들은, 감독이 감독에 의해 보여지는 것과 같은 비디오로 자동으로 믹싱되는 컴퓨터 생성된 3D 자산들과 함께 실시간으로 가능한 카메라 각도들 및 움직임들을 조사하게 한다.
앞서 정의된 바와 같은 방법들 또는 시스템들에 있어서, 실시간 포지셔닝 데이터는 후반-제작 처리들에 매칭-움직임 데이터를 제공하기 위해 기록되고 시간-코드 스탬핑된다.
앞서 정의된 바와 같은 방법들 또는 시스템들은 가상 객체들 또는 이미지들을 방송 비디오 스트림에 삽입되도록 하기 위해 사용된다.
앞서 정의된 바와 같은 방법 또는 시스템은 다음의 것들 중 하나 이상을 가능하게 한다:
앞서 정의된 바와 같은 방법들 또는 시스템들에 있어서, 필름 카메라는 다음 중 하나이다:
- 표준 테더(tether)를 갖는 모든 카메라들
- 전략적인 광섬유 접속을 필요로 하는 카메라들
- RF/무선 접속을 필요로 하는 카메라
앞서 정의된 바와 같은 방법 또는 시스템들에 있어서, 다음의 시장들 중 하나에 사용된다:
- 영화/TV (라이브(live) 아님)
- 광고 (라이브 아님)
- 광고들 라이브
- 방송 (스포츠 아님)
- 방송 OB
- 스포츠 스튜디오 기반
- 스포츠 OB 기반
- TV 간접 광고 라이브
- 인터넷 사용 (라이브 아님)
- 인터넷 라이브
- 인터넷 라이브 영역 기반
- 인터넷 간접 광고 라이브
- 박물관/문화유산 콘텐트
- 박물관/문화유산 광고들
- 건축학
- 게임들.
증강 현실 이미지들이 스마트폰, 및 증강 현실 안경을 포함하는, 임의의 디스플레이 장치에 의해 디스플레이되게 하는 앞서 정의된 바와 같은 방법들 또는 시스템들에 있어서, 증강 현실 이미지들의 겉모습은 실시간 포지셔닝 데이터에 의존하여 자동으로 바뀐다.
실시간 컴퓨터 생성된 3D 객체들이 카메라로부터의 비디오 공급과 믹싱되는 필름, 영화, TV 쇼 또는 비디오 게임에 있어서, 카메라의 몸체는 3D 내에서 움직일 수 있고, 카메라 내의 또는 그것에 부착된 센서들은 카메라의 3D 포지션을 정의하거나 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공한다.
종래의 카메라에 부착되도록 적응된 장면 조사 및 추적 장치에 있어서, 카메라의 몸체는 3D 내에서 움직일 수 있고, 장면 조사 및 추적 장치 내의 하드웨어 센서들은 카메라의 3D 포지션을 정의하거나 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공한다.
카메라 내의 또는 카메라에 부착된 센서들을 포함하는 핸드-헬드 또는 휴대용 카메라는 3D 기준 프레임에 대한 카메라의 3D 포지션 및 3D 방향을 정의하거나 광학 흐름 데이터와 같은 다른 데이터를 분석하는 시스템의 전체 또는 부분으로서 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공한다.
입체적 위트니스 카메라 시스템을 포함하거나 그것에 부착된 필름 카메라에 있어서, 위트니스 카메라 시스템은 광각(예를 들면, 180도) 입체적 이미지들을 생성하고, 상기 필름 카메라는 소프트웨어가 이미지들을 처리하게 하고, 카메라 시스템이 전혀 추적/움직여지지 않으면서, 인스턴트 3D 점 클라우드를 생성하게 한다.
필름 카메라에 부착되기 위한 카메라 추적 시스템은 입체적 이미지들을 생성하고, 소프트웨어가 이미지들을 처리하게 하고, 카메라 시스템이 전혀 움직이지 않으면서, 인스턴트 3D 점 클라우드를 생성하고 필름 카메라의 실시간 추적(포지션, 방향, 줌, 초점, 및 조리개)을 제공하게 하는 위트니스 카메라 시스템을 갖는다.
증강 현실 안경 내에 또는 그것에 부착된 센서들을 포함하는 증강 현실 안경은 3D 기준 프레임에 대한 안경의 3D 포지션 및 3D 방향을 정의하거나, 광학 흐름 데이터와 같은, 다른 데이터를 분석하는 시스템의 전체 또는 부분으로서 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공한다.
본 시스템은 N캠이라 불리는 시스템 내에 구현된다. N캠의 다양한 응용들에는 다음이 포함된다:
영화,
TV
, 및 광고들 내의 시각 효과들
사전-제작 및 제작 내의 시각 효과들: N캠은 촬영 처리(제작) 동안 프리비즈(previs)(사전-제작)와 VFX(후반-제작) 간의 틈을 채우는 것을 도우려고 한다. N캠은 실시간으로 촬영하면서 카메라 내의 VFX 상에서 조작하고자 하는 것들에 대한 솔루션을 제공한다. 이전에 생성된 콘텐트를 사용하여, 종종 프리비즈 처리로부터, N캠은 그러한 프리비즈 자산들, 보통 3D 모델들, 및 애니메이션을 실시간으로 라이브 액션 영화 플레이트 상에 합성할 수 있다.
신중하게 만들어지고 입증된 프리비즈를 세트 상에 놓으면 시간을 상당히 많이 절약할 수 있다. 영화 제작자들은, 초록색 화면 상에서 촬영하고 가상 배경을 합성하거나 전경에 생명체 또는 객체를 중첩시키든 아니든, 프리비즈 또는 VFX를 조작할 수 있다. 영화 제작자들은 그 후, 통상의 제약사항들 없이, 그때 그때 및 실시간으로, 가능한 카메라 각도들 및 움직임들을 연구하면서 프리비즈 및 VFX의 제어를 되돌려받을 수 있다.
다음으로, 데이터가 기록 및 시간-코드 스탬핑되어, 사설(editorial)에 최종 VFX의 '템프(temp)'를 제공하는 동시에, VFX 부분에 카메라 매칭-움직임 데이터(6 DOF 트랙)를 제공한다.
인-카메라(in-camera)로 '템프' VFX를 촬영함으로써 및 처리 내에서 보다 일찍 VFX를 디자인함으로써, 후반-제작 처리로서 VFX 이외의 많은 추측 작업을 할 수 있다. 우리는 VFX 디자인 처리를 줄일 수 있으므로, 낭비를 줄일 수 있다.
가상 광고 - 라이브 방송
N캠 기술은 방송 공간을 갖는 실시간 가상 광고에 잘 제공된다. 인-카메라인 실제의 물리적 제품과 반대로, 촬영 후 후반-제작 동안 제품이 삽입되는 디지털 간접 광고는 더욱 인기있어지고 있다. 그러나, 디지털 간접 광고 라이브(live)를 증대시기 위한 능력으로, 우리는 다양한 가능성들을 시작할 수 있다. 예들에는 경기장의 상표 로고들 또는 드라마 내의 캔 음료수들이 포함될 수 있다. 이것은 사진-실제 CG 이미지들을 촬영 환경 조명에 기초하여 실시간으로 렌더링하는 능력이 필수적이되는 경우이다.
홀로그램
게임하기
N캠의 기술을 홀로그램 디스플레이 및 (구글 안경과 같은) 아이-웨어(eye-wear)와 조합하면, 완전히 이머시브한(immersive) 게임 경험이 제공될 수 있다. 실세계를 가상 세계 및 인물들과 조합한다. 그 가능성은 다소 끝이 없다.
박물관 & 문화유산
N캠의 기술은 박물관 및 문화유산 분야들에 광대한 가능한 응용들을 제공한다.
발굴 도구로서, 그것은 폐허들과 같은 유적지들의 재구성을 위해 사용되어, 그 유적지가 그것을 옛날 영광의 시대에 어떠했는지를 보여줄 수 있다.
박물관에서, N캠은 아마도 공룡의 크기 및 움직임, 그것의 내부 장기들 또는 해골 구조를 보여주기 위한 교육 도구로서 사용될 수 있다. 또 다른 예는 분해된 애니메이션된 다이어그램을 효율적으로 보여주지만 완전히 이멀시브한 3D 공간 내에서 내연 기관의 동작을 탐험하기 위한 것일 수 있다.
가상 카메라 -
VCS
N캠 기술은 이 응용에 완전히 제공된다. 가상 카메라는 반드시 완벽한 CG 3D 환경을 보여주는 LCD 화면이다. 오퍼레이터가 LCD 화면을 움직이면, 그것은 움직임의 면에서 단지 물리적 카메라처럼 동작한다. LCD 카메라는 XYZ 병진들 및 회전들 내에서 추적되고 CG 엔진으로부터의 완전한 GC 환경을 실시간으로 보여준다. 현재 다양한 VCS(가상 카메라 시스템) 솔루션들이 사용가능하지만, 모두가 기술적인 면에서 제한사항들을 갖는다. 그들은 셋업하기 위해 시간 소모적인 경향이 있고, 그들이 동작할 공간 및 환경에 제한되고, 고가이다. N캠 기반 VCS는 테블릿의 모양을 취할 수 있으므로, 처리는 LCD 화면과 국부적으로 조합되어 계산될 것이다. CG 컴퓨팅들은 원격 PC로부터 취해지거나 요구조건들에 따라 국부적으로 취해질 수 있다. 그 아이디어는 사용가능성 및 기준 소매 가격들을 통해 이전에 이러한 도구들에 대한 액세스를 가질 수 없었던 필름 내의 많은 부분들에 대한 오픈 액세스(open access)를 가능하게 하기 위한 것이다. 이것은 디자이너들, 건축가들, VFX, 게임 회사들, CG 및 애니메이션 팀들 등에게 매우 유익하다.
이 VCS는 또한 잠재적인 박물관 및 문화유산 솔루션에 대한 백본(backbone)을 형성할 것이다.
가상 스카우트 시스템 -
VSS
당신이 영화를 촬영하고, 그것이 대부분 파란색 화면/녹색 화면 상에서라고 상상하자. 그러나, 영화 제작사 또는 감독으로서, 나는 어떤 각도들 또는 샷들(shots)이 최고일 것이란 것을 어떻게 알아낼까? 어쨌든, 나는 적은 양의 물리적인 세트 및 적은 연기자들을 가질 수 있지만, 나는 내 상상과 달리, 어떤 카메라 각도들이 최고인지, 팀 전체에게 우리가 어디에 카메라들을 설치해야하는지 설명하고 유효한 렌즈들을 선택하는 것에 대한 아이디어가 거의 없을 수 있다. 현재 우리는 필름 카메라 및 모든 그것의 장비들을 세트 상의 위치로 움직이고, N캠을 설치하고, 단지 그것이 다른 포지션에서 더 나은지를 인식하기 위해 관찰할 것이다. 우리가 이러한 결정들을 빠르고 효율적으로 하기 위해 가벼운 휴대용 시스템을 유일하게 갖는다면, 이것이 N캠 VSS이다.
VSS는 오늘날의 N캠이지만 소형 폼 팩터 카메라(form factor camera)로 통합된다 - DSLR을 생각해보자. 그것은 반드시 N캠의 이점들을 갖는 디지털 뷰파인더(viewfinder)이다. 우리는 오늘날의 N캠의 모든 요소들을 필름 세트 상에서, 그러나 휴대용 장치 내에 조합한다. 박물관/유적지 및 건축가들이 잠재적인 투자자들에게 그들의 새로운 생성물을 보여주길 원하기 때문에, TV 드라마를 위한 가상 제작은 또한 이 도구로부터 상당히 득을 볼 것이다.
도 1은 배치(configuration) 2.3에 대한 하드웨어 설명을 도시한 도면. 그려진 버전은 추적 워크스테이션(workstation) 및 렌더링 워크스테이션이 병합된 것임에 주의한다.
도 2는 필름 카메라의 포지션 및 회전을 실시간으로 획득하기 위한 글로벌 추적 알고리즘을 도시한 도면.
도 3은 우리의 시스템을 위해 생성된 3D 자동-순위화 등록 객체를 도시한 도면. 그 객체는 우리의 소프트웨어 내에서 실세계의 근원, 방향, 및 크기를 자동으로 컴퓨팅하기 위해 실제 장면에서 사용된다. 평면 버전이 도 5의 우측 도면에 보여진다.
도 4는 자연스러운 마커들의 검출를 위해 사용되는 이미지 피라미드를 도시한 도면. 이 도면은 또한 그 마커들에 연관된 몇몇의 2D 질감 패치들을 보여준다.
도 5는 N캠 내에서 현상 및 사용되는 교정 차트들을 도시한 도면. 좌측: 모든 렌즈들의 눈금을 매기기 위해 사용되는 교정 차트이다. 중간: 필름 카메라와 위트니스 카메라 사이에 컴퓨팅하는 라인업 또는 사용되는 교정 차트. 좌측 상의 교정 차트는 또한 필름 카메라 상의 초점 거리가 충분히 짧은 경우들에 대하여 사용될 수 있다(세트 상에서 실험적으로 결정됨). 우측: 등록 객체의 평면 버전이다. 보다 다루기 용이하고 바닥 표면 상에 어디든 위치될 수 있다. 가상 객체들이 실제 장면에 추가될 때, 원들은 그 세계에 방향, 스케일, 및 근원(0,0,0)을 제공하는 정규직교 기저를 제공한다. 상부 좌측 원의 중심은 세계의 근원이다.
도 6은 (15mm 및 19mm 로드들에 대한) 상이한 행어 크기들을 갖고 필름 카메라에 장착되는 카메라 바(bar)를 도시한 도면.
도 7은 무선 조사 장치를 도시한 도면. 조사가 요청되면(즉, 예를 들면, 평면적인 경우(2.1 섹션을 참조) 또는 매우 복잡한 세트(2.1.3 섹션의 끝부분을 참조)), 그 후 그 조사 장치를 사용하여 전체 추적 처리가 달성된다. 조사가 완료되면, 모든 추적 데이터(점 클라우드, 키포인트들 등)는 추적/렌더링 워크스테이션으로 무선으로 송신되고, 추적/렌더링 워크스테이션은 즉시 추적을 복원하고 추적 데이터 및 최종 합성된 결과 모두를 스트리밍 출력하기 시작한다.
도 8은 카메라/컴퓨터 브레이크아웃 박스(Breakout Box)를 도시한 도면. 다수의 RJ45 케이블들을 사용하는 버전이 여기에 나타나 있다는 것에 주의한다. 모든 이들 브레이크아웃 박스들은 또한 그들의 케이블들이 단일의 전략적인 광섬유 케이블들로 대체되는 이형(variant)을 갖는다.
도 2는 필름 카메라의 포지션 및 회전을 실시간으로 획득하기 위한 글로벌 추적 알고리즘을 도시한 도면.
도 3은 우리의 시스템을 위해 생성된 3D 자동-순위화 등록 객체를 도시한 도면. 그 객체는 우리의 소프트웨어 내에서 실세계의 근원, 방향, 및 크기를 자동으로 컴퓨팅하기 위해 실제 장면에서 사용된다. 평면 버전이 도 5의 우측 도면에 보여진다.
도 4는 자연스러운 마커들의 검출를 위해 사용되는 이미지 피라미드를 도시한 도면. 이 도면은 또한 그 마커들에 연관된 몇몇의 2D 질감 패치들을 보여준다.
도 5는 N캠 내에서 현상 및 사용되는 교정 차트들을 도시한 도면. 좌측: 모든 렌즈들의 눈금을 매기기 위해 사용되는 교정 차트이다. 중간: 필름 카메라와 위트니스 카메라 사이에 컴퓨팅하는 라인업 또는 사용되는 교정 차트. 좌측 상의 교정 차트는 또한 필름 카메라 상의 초점 거리가 충분히 짧은 경우들에 대하여 사용될 수 있다(세트 상에서 실험적으로 결정됨). 우측: 등록 객체의 평면 버전이다. 보다 다루기 용이하고 바닥 표면 상에 어디든 위치될 수 있다. 가상 객체들이 실제 장면에 추가될 때, 원들은 그 세계에 방향, 스케일, 및 근원(0,0,0)을 제공하는 정규직교 기저를 제공한다. 상부 좌측 원의 중심은 세계의 근원이다.
도 6은 (15mm 및 19mm 로드들에 대한) 상이한 행어 크기들을 갖고 필름 카메라에 장착되는 카메라 바(bar)를 도시한 도면.
도 7은 무선 조사 장치를 도시한 도면. 조사가 요청되면(즉, 예를 들면, 평면적인 경우(2.1 섹션을 참조) 또는 매우 복잡한 세트(2.1.3 섹션의 끝부분을 참조)), 그 후 그 조사 장치를 사용하여 전체 추적 처리가 달성된다. 조사가 완료되면, 모든 추적 데이터(점 클라우드, 키포인트들 등)는 추적/렌더링 워크스테이션으로 무선으로 송신되고, 추적/렌더링 워크스테이션은 즉시 추적을 복원하고 추적 데이터 및 최종 합성된 결과 모두를 스트리밍 출력하기 시작한다.
도 8은 카메라/컴퓨터 브레이크아웃 박스(Breakout Box)를 도시한 도면. 다수의 RJ45 케이블들을 사용하는 버전이 여기에 나타나 있다는 것에 주의한다. 모든 이들 브레이크아웃 박스들은 또한 그들의 케이블들이 단일의 전략적인 광섬유 케이블들로 대체되는 이형(variant)을 갖는다.
여기에 설명된 기술은 우선 강력한 센서 결합 알고리즘이므로, 3개의 (입체적인 경우) 또는 2개의 (평면적인 경우) 상이한 광학 흐름들로부터 컴퓨팅된 자연스러운 마커들(즉, 물리적인 장면에 수동으로 추가되지 않음)과 4개의 다른 센서들(자이로스코프, 가속도계, 자력계, 3D 거리 센서)의 물리적인 측정을 병합한다. 그것은 또한 어떤 물리적인 마커들 또는 그것의 작업을 수행하기 위해 실제 장면에서 바로 보여지는 어떤 것도 수동으로 추가하도록 요청하지 않는 완전히 거슬리지 않는(non-intrusive) 시스템이다.
1. 하드웨어
이 기술은 스트리밍 출력해야하는 데이터의 종류에 따라 2개의 상이한 가능한 하드웨어 배치들을 갖는다.
모든 이들 2개의 배치들은 카메라 바로 불리는 장치 상에 장착되는 다음의 하드웨어(상세한 도시를 위해 도 6을 참조) 및 필수적으로 모든 상이한 케이블들을 하나 또는 몇 개의 독립적인 룸들(looms)로 병합 또는 분리하는 블레이크아웃 박스인 개별적인 접속 상자(상세한 도시를 위해 도 8을 참조)를 공통으로 갖는다:
카메라 바들 이외에, 모든 배치들은 줌, 초점, 및 조리개 값들을 읽기 위해 필름 카메라 상에 장착된 정규 렌즈 인코더들을 갖는다. 그들은 또한 장면을 조사하고 그것을 학습하기 위해 무선 조사 장치(상세한 도시를 위해 도 7을 참조)를 공통으로 갖는다. 그러나, 완전히 입체적인 접근법의 경우(2.5 섹션을 참조), 그리고 보다 정확하게 인스턴트 조사인 경우(2.5.1 섹션을 참조), 그 조사 장치는 불필요하다.
이들 공유된 인물들 외에, 다음과 같은 2개의 배치들이 설명된다:
배치 1: 카메라 스트리밍
1. 무선 내장형 컴퓨터:
(a) 내장형 추적 컴퓨터가 필름 카메라 상에 장착된다. 그것은 인코더들로부터의 줌, 초점, 및 조리개(ZFI) 뿐만 아니라, 필름 카메라 병진 및 회전(RT)을 외장형 렌더링 워크스테이션에 무선 스트리밍 출력한다.
(b) 외장형 콘텐트 생성 워크스테이션. 이 기계는 전형적으로 최종 합성에 3D 컴퓨터 생성된 애니메이션 및 관련 CG 콘텐트를 제공하기 위한 컴퓨터 그래픽 소프트웨어를 실행한다. 그것은 또한 애니메이션된 데이터를 외장형 렌더링 워크스테이션(1-1c)에 스트리밍 출력한다.
(c) 한편으로는 내장형 컴퓨터(1-1a)로부터 데이터를 수신하고 다른 한편으로는 또한 콘텐트 생성 워크스테이션(1-1b)으로부터의 애니메이션된 데이터를 처리하는 외장형 렌더링 워크스테이션. 이 렌더링 워크스테이션은 1-1a로부터의 필름 카메라 RT+ZFI를 사용하여 1-1b로부터의 3D 가상 환경을 디스플레이하고, 필름 카메라로부터의 실제 비디오 흐름 내에 결과를 믹싱한다. 그것은 또한 필름 카메라의 접안 렌즈 또는 제어 모니터에 최종 합성된 결과를 무선으로 스트리밍한다.
2. 유선 내장형 컴퓨터
(a) 내장형 추적 컴퓨터는 필름 카메라 상에 장착된다. 그것은 전략적인 광섬유 케이블들을 사용하여 필름 카메라 병진, 회전(RT), 및 인코더 데이터(ZFI)를 외장형 렌더링 워크스테이션에 스트리밍 출력한다.
(b) 배치 1-1b과 유사함.
(c) 최종 합성된 결과가 HD-SDI 케이블을 통해 카메라에 다시 송신되는 것만 제외하고, 배치 1-1c와 유사함.
배치 2: 전체 스트리밍
1. 무선 내장형 컴퓨터:
(a) 내장형 추적 컴퓨터는 필름 카메라 상에 장작된다. 어떤 실제적인 처리도 그 유닛 상에서는 달성되지 않는다. 그것은 단지 모든 센서 데이터를 외장형 추적 워크스테이션에 무선 스트리밍 출력한다. 위트니스 카메라들의 2x 비디오 흐름들, 1x9DOF 데이터, 1x 거리 센서 데이터가 스트리밍 출력된다. 총 데이터 양은 142MB/초보다 큰 최소 대역폭을 요청한다(위트니스 카메라들은 63MB/초를 요청하고, 거리 센서는 74MB/초를 요청하고, 9DOF 센서는 4.4MB/초를 요청함).
(b) 내장형 추적 컴퓨터로부터 데이터를 수신하는 외장형 추적 워크스테이션. 이 유닛은 필름 카메라의 회전 및 이동 행렬들을 컴퓨팅하도록 모든 센서 데이터를 처리한다. 그것은 카메라 RT+ZFI를 외장형 렌더링 워크스테이션(2-1d)에 스트리밍 출력한다.
(c) 외장형 콘텐트 생성 워크스테이션. 이 기계는 전형적으로 최종 합성에 3D 컴퓨터 생성된 애니메이션 및 관련 CG 콘텐트를 제공하도록 컴퓨터 그래픽 소프트웨어를 실행한다. 그것은 또한 애니메이션된 데이터를 외장형 렌더링 워크스테이션(2-1d)에 스트리밍 출력한다.
(d) 한편으로는 내장형 컴퓨터(2-1b)로부터 데이터를 수신하고, 다른 한편으로는 또한 콘텐트 생성 워크스테이션(2-1c)으로부터의 애니메이션된 데이터를 처리하는 외장형 렌더링 워크스테이션. 이 렌더링 워크스테이션은 2-1c로부터의 3D 가상 환경을 디스플레이하도록 2-1b로부터의 필름 카메라 RT+ZFI를 사용하고, 필름 카메라로부터의 실제 비디오 흐름 내에 결과를 믹생한다. 그것은 또한 최종 합성된 결과를 무선으로 필름 카메라 접안 렌즈 또는 제어 모니터에 다시 스트리밍한다.
2. 유선 내장형 컴퓨터:
(a) 내장형 추적 컴퓨터는 필름 카메라 상에 장착된다. 그것은 전략적 광섬유 케이블들 또는 다수의 Cat-6 RJ45 케이블들을 사용하여 필름 카메라 병진 및 회전(RT)을 외장형 렌더링 워크스테이션(2-2c)에 스트리밍 출력한다. 인코더들은 또다시 줌, 초점, 및 조리개(ZFI)를 위해 사용된다.
(b) 배치(2-1c)와 유사함.
(c) 최종 합성된 결과가 HD-SDI 케이블을 통해 카메라에 다시 송신되는 것만 제외하고, 배치(2-1d)와 유사함.
3. 내장형 컴퓨터 없음(그래픽 표현을 위해 도 1을 참조: 모든 다른 버전들이 그것으로부터 용이하게 도출될 수 있음):
(a) 단일 카메라 추적 장치(카메라 바)가 필름 카메라에 부착되고, 브레이크아웃 박스에 접속된다.
(b) 내장형 추적 장치로부터 데이터를 수신하는 외장형 추적 워크스테이션. 이 유닛은 필름 카메라의 회전 및 이동 행렬들을 컴퓨팅하기 위해 모든 센서 데이터를 처리한다. 인코더들은 또다시 줌, 초점, 및 조리개(ZFI)를 위해 사용된다. 그것은 렌더링 워크스테이션(2-3d)에 카메라 RT+ZFI를 스트리밍 출력한다.
(c) 배치(2-1c)와 유사함.
(d) 최종 합성된 결과가 HD-SDI 케이블을 통해 카메라에 다시 송신되는 것만 제외하고, 배치(2-1d)와 유사함.
이전 배치들 이외에, 모든 버전은 또한 2개의 다른 이형들을 갖는다. 하나는 실제로 외장형 렌더링 워크스테이션과 병합된 콘텐트 생성 워크스테이션을 갖고, 두번째 이형은 추적 워크스테이션과 병합된 외장형 렌더링 워크스테이션을 갖는다.
2. 소프트웨어
정확한 추적 결과들 및 실시간 증강 현실을 달성하기 위해 몇몇의 새로운 과학적인 방법들 및 소프트웨어들이 생성되었다[19]. 이들 방법들은 다음 섹션들에서 설명된다.
2.1 비디오 공급으로부터의 평면적인
마커없는
추적
2.1.1 처리 개요
이 기술에서 사용되는 평면적인 기술은, 하나는 사용자 개입을 요청하는 반면 다른 것은 완전히 자동적이란 점만 제외하고, 실제로 기술적으로 거의 동일한 2개의 개별적인 패스( pass )들로 구축된다.
제 1 패스는 조사로 불린다. 사용자는 실제 장면 및 등록 객체를 스캔하기 위해 1 섹션의 두번째 문단에서 설명된 하드웨어 상에 구축된 장치를 사용한다(또한 도 7 참조). 그 단계 동안, 사용자가 주변을 걸어다니면서 환경을 스캔하므로, 자연스러운 마커들이 시스템에 의해 3D 내에서 자동으로 학습 및 컴퓨팅된다. 사용자가 조사하기 시작하자마자, 그는 또한 자동으로 그 세계의 스케일, 근원, 및 방향을 추정하기 위해 등록 객체를 캡쳐해야 한다(2.1.3.2 섹션을 참조). 이것이 달성되면, 사용자는 자연스러운 마커들의 최고의 가능한 3D 점 클라우드를 구축하기 위해 장면의 나머지를 계속 스캔할 수 있다(자연스러운 마커는 사람 눈에 보이지 않는 특징 점이고 우리 알고리즘들에 의해 컴퓨팅됨). 이 조사가 보다 철저하게 달성되면, 최종 결과가 더 양호해질 것이다. 조사 부분은 모든 것들 중에서 가장 중요한 작업이고 그것은 매우 중요하다.
제 2 패스는 필름 카메라 상에 놓인 추적 장치로부터 수행되는 필름 카메라 추적(2.1.4 섹션들 참조)이다. 제목이 "하드웨어"인 이전 섹션의 설명을 뒤따르고 다양한 상황들에 따라 상이한 배치들이 적용된다. 이 단계는 완전히 자동이고 보통 어떠한 사람의 개입도 요청하지 않는다.
2.1.2 알고리즘 개요
여기에 설명된 기술은 다수의 센서들 결합 기술(2.3 섹션을 참조)에 기초한 증강 현실 프레임워크이다.
실제로, 그것은 카메라를 추적하고 가상 객체를 삽입하기 위해 통상의 단독 광학 흐름 데이터에 의존하지 않는다. 이러한 기술들은 많은 경우들에서 그들의 과학적이고 실질적인 제한사항들을 나타낸다. 예를 들면, 사용자가 추적을 위해 사용되는 카메라를 숨기면, 추적은 실패하고 길을 잃게 된다. 카메라가 조사되지 않은 영역을 가리킬 때, 그것은 정확히 동일한 문제이다(2.1.3 섹션을 참조). 게다가, 필름 카메라가 전혀 움직이지 않으면, 완전히 가시적 추적 알고리즘에 의해 컴퓨팅된 검출된 자연스러운 마커들의 정확도 때문에 몇몇의 불가피한 약간의 흔들림 쟁점들이 여전히 존재한다. 데이터를 필터링하는 것을 그 쟁점을 부분적으로 해결하지만, 당신은 특히 매우 긴 초점 렌즈를 사용할 때 완전히 안정적인 가상 객체를 갖지 못한다. 우리의 기술은 카메라가 움직이는지 아닌지를 알기 위해 다른 센서들을 사용하므로, 우리의 추적 알고리즘은 그 쟁점을 갖지 않는다.
SLAM[9], PTAM[8], RSLAM[13] 등과 같은 정규 광학 흐름 기술들은 카메라에 의해 캡쳐된 비디오에 포함된 정보를 사용하여 그것의 포지션 및 방향의 근사치를 낸다. 우리의 기술은, 한편으로는, 추적의 핵심이 그것이 길을 잃었을 때 단순한 키프레임 탐색이 아니고, 다른 한편으로는, 그것이 카메라의 정확한 포지션 및 방향을 컴퓨팅하기 위해 7개의 사용가능한 센서들(1개의 필름 카메라, 2개의 위트니스 카메라들, 자이로스코프, 가속도계, 자력계, 및 3D 거리 센서)의 데이터 모두를 사용한다는 점만 제외하고, 그것의 가시적 추적 부분(가시적 추적이라 불리는)에 대해 유사한 접근법을 갖는다.
우리는 다음의 센서들을 통합하기 위해 확장형 칼만 필터(EKF, 2.3.2 섹션을 참조)[7, 21]를 사용한다: 자이로스코프, 가속도계, 자력계 센서들 및 위트니스 카메라들. EKF 기술은 우리의 소프트웨어의 핵심이고 모든 예측/정정 알고리즘은 각각의 센서 중 최고를 사용하도록 허용하는 데이터 병합 방법에 기초한다. 이것은 모든 다른 기술들이 실패하는 단순하고 중요한 경우들에 비할대 없는 강력함을 제공한다. 실제로 센서가 추적을 잃게 되면(실제로 그것의 측정들이 더이상 신뢰적이지 않다는 것을 의미함), EKF는 다른 신뢰적인 및 남아있는 센서들의 데이터를 병합함으로써 포지션/방향의 추정을 여전히 획득할 수 있다. 그것 이외에, 모든 센서가 신뢰의 수준을 가지므로, 이것은 시스템이 부정확한 정보들을 사용할 것을 방지하도록 병합 알고리즘에 영향을 준다. 예를 들면, 정규 자이로스코프는 그것이 움직이지 않더라도 그것의 방향을 수정하는 경향이 있는 드리프트(drift)라 불리는 자연스러운 흐름을 갖는다. 시간이 지날수록, 보다 많은 오류들이 자이로스코프에 의해 생성된다. 가시적 추적에 의해 자이로스코프의 드리프트가 정정되고, 그것의 오류가 너무 커지면, 가시적 추적은 자이로스코프에 의해 정정된다. 따라서 EKF는 이전에 올바르게 추정된 값들을 사용하여 필름 카메라의 움직임들을 예측한 후 모든 센서들에 의해 주어지는 새로운 측정들에 따라 그것의 예측을 정정함으로써 필름 카메라의 최고의 포지션 및 회전을 찾아낼 수 있다.
게다가, 가장 완전한 광학-기반 추적 기술들은 그것이 길을 잃었을 때 카메라의 위치를 지정하기 위해 키프레임(즉, 스냅샷들(snapshots))을 사용한다. 당신이 카메라로 가리키고 있는 현재의 뷰의 키프레임을 갖고 있지 않으면, 복원은 실패한다. 예를 들면, 당신이 카메라를 단순히 수직으로 회전시킬 경우들을 해결하기 위해 SIFT[11] 또는 SURF[l] 기술들과 같은 보다 강력한 기술들이 물론 사용될 수 있다. 실제로 모든 이들 시스템들은 현재의 프레임을 가장 유사한 키프레임과 비교하므로, 보다 양호하고 빠른 매칭을 획득하기 위해 회전 및 스케일링 불변 서술자들을 사용하는 것에 매우 관심이 있다. 그러나, 당신이 카메라가 존재하는 포지션으로부터 어떠한 키프레임도 갖지 않으면, 당신의 시스템이 그것의 포지션을 복원할 수 있는 방법은 없다. 우리의 기술은 모든 기술 중 가장 최고를 취하고(우리는 핵심 서술자들로서 ORB[18]을 사용할 것임의 주의), 우리는 잃어버린 추적을 복원하기 위해 3개의 상이한 스레드들(threads)을 동시에 실행시킨다(보다 상세한 설명을 위해 2.1.4.4 섹션을 참조). 복원 처리는 확률론적인 및 확률적인 접근법에 기초한 글로벌 알고리즘(global algorithm)을 보여줄 수 있다. 추적이 길을 잃으면, 3D 공간은 타원 접근법을 사용하여 가장 나중에 알려진 포지션들 주변이 즉각적으로 샘플링되고, 그 타원 내부의 모든 키프레임들이 현재의 키프레임과 비교된다. 게다가, 나머지 센서들(자이로스코프, 가속도계, 자력계, 3D 거리 센서)로부터의 모든 다른 데이터는, 우리의 소프트웨어가 모든 타당한 양호한 후보자들을 명확하게 하는 탐색에 여전히 병합된다. 물론, 양호한 충분한 후보인 키프레임이 없으면, 시스템은 현재의 포지션의 근사치를 컴퓨팅하기 위해 가시적 추적 이외에 모든 다른 센서들을 사용할 것이다. 그 기술의 자명한 결과는 우리의 기술이 사용자로 하여금 추적을 잃어버리지 않으면서 조사하지 않은 장소로 카메라를 가리키게 하는 것을 허용하는 것이다. 그러나, 우리의 알고리즘들은 현재의 스냅샷과 매칭하는 키프레임(즉, RT에 대한 보다 양호한 근사치)을 찾기 위해 3D 공간을 샘플링하는 것을 절대 멈추지 않는다. 가시적 추적이 복원되면, 모든 다른 센서 데이터는 사용되고 카메라 것을 이외에 그들의 정보들을 정정하기 위해 갱신된다(확장형 칼만 필터(2.3.2 섹션)를 참조).
우리 기술의 최신 (즉, 정규) 버전은 입체적인데(2.5 섹션을 참조), 이는 그것이 21 센티미터 떨어져 있는 2개의 위트니스 카메라들을 사용하는 것을 의미한다(도 6을 참조). 이 기술은 비디오 공급에서 검출된 자연스러운 마커들의 심도 정보를 컴퓨팅하기 위해 단일의 위트니스 카메라의 어떠한 수동적인 병진 또는 호모그래피(homography)의 임의의 컴퓨팅을 요청하지 않는다(2.1.3 섹션을 참조). 이 방법은 대부분의 경우들에서 조사 단계를 더 이상 쓸모없게 만들어서 우리의 주요 알고리즘을 단순화시킨다(2.5 섹션을 참조). 평면적인 기술에서, 가시적 추적 자체는 시스템이 이미지 피라미드의 4개의 상이한 수준들(도 4를 참조)로의 카메라에서의 포지션을 추적하도록 허용하는 완벽한 하위-화소 접근법을 갖는 반면에, 모든 다른 광학-흐름 기반 기술들은 특징 점들을 탐색할 때 이미지들의 단지 2개의 상이한 해상도 상에서 화소 접근법을 잘못 사용한다.
2.1.3 제 1 단계: 조사
2.1.3.1
개시화
단계
제 1 단계는 사용자가 2개의 프레임들을 캡쳐하기 위해 장치를 물리적/수동적 수평 병진하게 하는 것이다. 알고리즘은 FASTER[17]라 불리는 코너 검출 방법을 사용하여 이미지들 내의 자연스러운 마커들(즉, 특징 점들)을 자동으로 검출한다. 한 쌍의 점들 사이의 대응관계를 찾기 위해 매칭이 적용된다. 하나의 이미지에 대하여, 모든 검출된 점들은 동일한 3D 평면 상에 남아 있어야 하는데 그 평면으로부터 사진으로의 올바른 호모그래피를 컴퓨팅할 수 있기 위해서이다. 이것은 3D 평면에 대한 카메라의 회전 및 병진을 제공한다. 두번째 사진은 동일한 원리를 따르고, 우리는 현재의 사진에 대한 카메라의 두번째 포지션 및 병진을 획득한다. 하나의 카메라에서 다른 카메라로의 변환을 컴퓨팅하고 첫번째 3D 점 클라우드를 획득하는 것이 이제 가능하다.
카메라에 의해 캡쳐되는 2개의 뷰들(좌측 및 우측)을 고려하자. 각각의 뷰에 대하여, 위트니스 카메라는 평면 상에 있는 점 M을 목표로 삼았다. ML 및 MR은 각각의 좌측 및 우측 뷰들 내의 M의 각각의 투영들이다.
우리는 다음을 작성할 수 있는데:
여기서:
수학식 1에서 H에 대해 풀면 다음이 산출된다:
우리의 알고리즘은 최소한 4개의 공면 점들에 정확한 개시화를 수행하도록 요청한다. 우리가 실제로 그것보다 훨씬 많은 점들을 갖는 것이 매우 통상적이다. 그것은 우리가 모든 호모그래피에 대한 점들의 전체 세트 중에서 4개의 점들을 사용하여 n개의 가능한 호모그래피들을 컴퓨팅하기 때문이다. 따라서 우리는 RANSAC[4] 방법을 사용하여 최고의 가능한 호모그래피를 실제로 찾고 인라이어들(inliers) 및 아웃라이어들(outliers) 후보들의 세트를 구축한다. 점들을 2개의 뷰들 내로 다시 투영하는 오류들을 최소화하는 가우스-뉴튼 방법에 의해 인라이어들은 개선될 것이지만, 아웃라이어들은 거부될 것이다. 최고의 호모그래피가 필터링된 점들의 세트로부터 컴퓨팅되면, 이제 좌측 및 우측 뷰들 사이에 회전 및 이동 행렬들을 추정하는 것이 필수적이 된다. 이것은 2개의 수직 행렬들 U 및 V와 대각선 행렬 로 단일 값 분해(decomposition)를 사용함으로써 용이하게 달성된다. 행렬 H는 이제 로 작성될 수 있다.
우리는 미결정된 호모그래피 경우들은 처리하지 않으므로, 수학식 3은 2개의 가능한 솔루션들을 갖는다:
λ1, λ2, 및 λ3은 수학식 2로부터의 행렬 H의 고유치들이고, λ1λ2λ3 및 λ1≠λ2≠λ3과 같이 정렬된다.
λ1, λ2, 및 λ3은 수학식 2로부터의 행렬 H의 고유치들이고, λ1λ2λ3 및 λ1≠λ2≠λ3과 같이 정렬된다.
특징들 점들의 세트 이외에, 알고리즘은 또한 위트니스 카메라들이 모든 시점에서 무엇을 보는지의 스냅샷들과 같은 2개의 키 포지션들을 캡쳐한다. 추가적인 점들의 학습은 항상 새롭게 검출된 점들, 키 포지션들, 및 패치들(2.1.3.3 섹션에 설명됨)의 3개의 구성요소들의 합이다.
마지막으로, 입체적인 접근법의 경우(2.5 섹션을 참조), 조사 단계는 자동적이고 일시적이 된다는 것을 주의하자. 수동적인 조사는 매우 복잡한 경우들(세트에 대해 실험적으로 결정됨)에 대하여 여전히 사용될 수 있지만, 이것은 입증되지 않은 채로 남아있게 된다.
2.1.3.2 3D 세계의 자동의 스케일, 근원, 및 방향
평면적인 조사 동안, 그 세계의 정확한 근원, 스케일, 및 방향을 컴퓨팅하는 것이 불가능한데, 이는 그것의 정확한 모양 및 차원들을 포함하는 실제 객체에 대한 이전 지식 또는 호모그래피를 컴퓨팅하기 위한 2개의 뷰들 사이에 사용되는 거리를 요청할 것이기 때문이다. 마지막 경우에, 이것은 그 세계의 근원 또는 방향을 제공하지 않을 것임을 주의하자. 대부분의 시스템들을 그 부분을 고려하지 않는다. 그들은 종종 비디오들 내에 가시적인 3D 객체의 치수들을 입력함으로써 수동으로 스케일을 하도록 사용자에게 요청한다. 다른 옵션들은 사용자가 촬영 동안 특정 모델링/애니메이션 소프트웨어 내에서 3D 가상 인물들을 스케일링하게 하고 또한 그것을 실세계에 올바르게 정렬하는 것이다. 그러나, 비록 작더라도 임의의 스케일 오류는 최종 합성의 품질에 상당한 영향을 끼치므로 그것은 그것이 우리의 기술에서 매우 신중하게 달성되는 이유이다(아래를 참조). 불량 스케일링의 가장 일반적인 관측되는 결과들 중 하나는 객체들이 바닥에 완전히 부착되어 남아있지 않고 바닥에서 미끄러진다고 사용자가 느끼는 것이다.
우리는 조사를 수행할 때 장면 내에 올바른 등록 객체를 놓도록 요청하는 새로운 방법을 제안한다. 이 객체는 매우 잘 알려진 모양을 갖고 그것의 모든 치수들도 또한 알려져있기 때문에 자동으로 검출된다. 사용자 개입은 전혀 요청되지 않는다.
우리의 등록 객체는 반드시 도 3에 나타낸 것과 같은 구들 및 다리들인 몇몇의 부분들로 구성된다. 구들은 우리의 시스템 내의 그 객체의 중요한 부분들인데, 이는 그들이 비디오에 걸친 패턴을 인식하기 위해 블롭 검출 알고리즘들을 사용하도록 허용하기 때문이다. 그 후 투영된 구들(즉, 원들)의 중력 중심들이 컴퓨팅되고, 우리가 모든 구들 사이의 거리 및 치수들을 정확히 알고 있으므로, 시스템은 그 세계에 대한 매우 정확한 스케일을 제공할 수 있다. 우리는 또한 평면 버전의 등록 객체를 갖는데(도 5의 우측 도면을 참조), 그것은 종종 실제 스테이지 상에서 하나의 장소에서 다른 장소로 이동하기에 보다 편하다.
이것이 달성되면, 사용자는 예를 들면, 1.80m 높이의 가상 객체를 실제 비디오에 놓을 수 있고, 그것은 정말로 그 높이로 보이고 올바를 것임을 보증한다. 다른 접근법들은 작업의 수동적인 양태로 인해 이러한 품질을 획득하는 것에 실패한다.
자동적인 스케일링은 실제로 조사 자체 동안 수행되는 것이지만, 그것은 조사의 시작시에 행해지므로, 그것을 개시화 단계로서 또한 고려하는 것이 중요하다. 컴퓨팅된 스케일은 실제로 3D 자연스러운 마커들의 정확한 세트를 구축하기 위해 다음의 조사 단계들에서 사용된다. 이제 조사 자체를 상세하게 살펴보자.
2.1.3.3 조사 처리 및 점
클라우드
구조
조사는 사용자가 조사 장치를 사용하여 장면에 걸쳐 움직이도록 요청한다. 시스템은 항상 그것이 이전에 학습된 것들에서 가진 신뢰에 따라 새로운 점들을 컴퓨팅하므로, 조사는 항상 위트니스 카메라가 새로운 후보자들을 추가하기 위해 이전 세트로부터 충분한 점들을 보는 방식으로 구축된다.
위트니스 카메라 움직임들 동안, 알고리즘은 이미지 피라미드의 4개의 상이한 수준들에서 학습된 3개의 세트들의 데이터로 구성된 지도를 생성한다(도 4를 참조):
키 포지션. 키 포지션은 위트니스 카메라가 보는 것의 4개의 상이한 해상도들로의 스냅샷을 포함한다. 피라미드의 보다 낮은 수준은 위트니스 카메라의 기초 해상도이다(우리 경우에 640 x 480). 그 키 포지션은 또한 추적이 잘못될 때 카메라 포지션을 복원하기 위해 알고리즘에 의해 사용된다.
키 포지션의 모든 이미지들 내의 FASTER[17]에 의해 추정된 한 세트의 2D 특징 점들. FASTER는 주요 특징이 코너 검출기 알고리즘인 매우 알 알려진 알고리즘이다. 모든 키포인트는 추적을 잃어버렸을 때 훨씬 빠른 복원을 보증하기 위해 부착된 ORB 서술자를 갖는다(2.1.4.4 섹션을 참조).
이전 단계에 의해 검출된 모든 특징 점 상에 중심이 맞춰진 한 세트의 패치들(16 x 16 2D 질감들). 새로운 점들의 검출 동안, 그들의 심도를 컴퓨팅하기 위해 단일 뷰로부터 시작할 방법이 없다. 그것은 패치들이 무엇에 유용한지 이다. 등극선 탐색(도 2의, 점 클라우드 구축자 직사각형을 참조)은 2개의 가능한 가까운 키 포지션들로 2개의 패치들 간의 대응관계를 찾음으로써 키 포지션들의 4개의 이미지들에 걸쳐 적용될 수 있다. 한 점(즉, 한 패치)이 두 뷰들 모두에서 검출되면, 3D 특징 점을 컴퓨팅하는 것이 가능하다. 3D 특징 점의 세트는 지도로 불린다. 또한 키 포지션 A와 B 사이의 이 탐색이 동일한 수준의 피라미드 A 및 B을 여행함으로써 (그러나, B는 피라미드 하위-수준임) 달성된다는 것을 이해하는 것이 중요하다(도 4를 참조).
지도를 구성하는 동안, 카메라는 조사 오퍼레이터의 변위에 따라 움직인다. 이 때, 우리의 소프트웨어는 이전에 컴퓨팅된(즉, 추적된) 카메라의 매개변수들만을 알고 있다. 카메라의 새로운 포지션을 컴퓨팅하기 위해, 우리는 자연스러운 마커들의 3D 점 클라우드 및 현재의 프레임이 필요하다. 한편으로는, FASTER가 이미지 피라미드의 몇몇의 수준들에서 (현재의 수준 및 현재의 수준+1) 2D 마커들의 세트를 컴퓨팅하고, 다른 한편으로는, 3D 점 클라우드가 현재의 프레임 상에 다시 투영된다. 이 마지막 단계는, 단지 점들이 그것의 관점(viewpoint)으로부터 다시 투영될 때 우리가 카메라의 포지션을 알게 되면 달성될 수 있다. 그러나 그것은 정확히 우리가 컴퓨팅하고자 하는 것이다. 그러므로, 우리의 소프트웨어는 이전에 정확하게 컴퓨팅된 포지션을 사용하여 카메라의 다음 포지션을 예측하기 위해 우리의 9-DOF 센서(2.3 섹션을 참조)에 의해 제공된 정보에 연관된 일정한 속도 모델을 사용한다. 그 예측을 하용하여, 3D 점 클라우드는 현재의 프레임 상으로 다시 투영될 수 있고, 점 매칭 알고리즘이 FASTER에 의해 검출된 2D 점들과 3D 점 클라우드의 투영된 점들 사이의 대응관계를 찾기 위해 적용된다. 2개의 세트의 마커들 간의 오류는 레벤버그-마쿼트[10, 12, 15] 알고리즘을 사용하여 최소화되는데, 이는 그것이 그 종류의 문제들에 대한 최고의 최적화 알고리즘이라고 알려져있기 때문이다. 매칭된 점들의 개수를 투영된 점들의 총 개수로 나눈 것이 주어진 임계보다 크면, 시스템은 카메라를 성공적으로 추적할 수 있고(추적이 양호함) 새로운 키 포지션들을 추가하도록 허용된다. 3D 점 클라우드 내에서 매칭을 찾지 못한 FASTER에 의해 검출된 2D 점들 및 그들의 관련된 2D 16 x 16 질감 패치들은 나중의 사용자를 위해 메모리에 저장된다. 그들은 새로운 3D 특징 점들을 생성하도록 요청될 것이다(다음 문단을 참조).
3개의 조건들이 만족되면, 새로운 키 포지션들(및 새로운 특징 점들)이 추가된다. 첫째, 우리가 이전 문단에서 언급한 바와 같이, 추적은 양호해야 하는데, 이는 그것이 충분히 정확하고 길을 잃지 않았다는 것을 의미한다. 둘째, 너무 많은 데이터 세트가 구축되지 않기 위해 키 포지션은 매 30 프레임들마다 추가된다(초당 1개). 셋째, 새로운 키 포지션은 가장 가까운 키 포지션으로부터 10cm의 최소의 거리에 있어야 한다. 이것은 시스템이 비유동적일 때 추가의 점들을 학습하는 것을 방지한다.
모든 이들 테스트들을 성공적으로 통과하면, 소프트웨어는 새로운 스냅샷 및 새로운 3D 특징 점들을 추가할 수 있다. 첫번째 단계는 새로운 프레임(스냅샷) 내에서 새로운 관련된 2D 점들을 검출하기 위해 FASTER를 또다시 사용하는 것이다. 우리는 추적으로부터의 매칭되지 않은 한 세트의 2D 특징 점들을 가지므로, 우리는 이제 "오래된" 2D 특징 점 세트와 새롭게 컴퓨팅된 것를 매칭시키고자 한다. 이것은 새로운 점들의 세트의 2D 질감 패치들을 사용하여 전형적인 등극선 탐색에 의해 수행된다. 그 패치들은 "오래된" 세트의 점들의 2D 패치들의 세트를 매칭시키고자하는 등극선들(도 2를 참조)을 따라 움직인다. 등극선 제약 때문에, 2개의 2D 점들의 매칭으로부터의 3D 점의 심도를 컴퓨팅하는 것이 가능하다. 이것은 호모그래피 단계(2 섹션을 참조)의 매칭 단계와 실제로 유사하다. 새로운 점들이 지도에 추가되면, 로컬 번들( bundle ) 조정이 적용된다. 이들 새로운 특징 점들을 사용하여 카메라의 포지션 및 회전을 개선한 후, 모든 특징 점들의 3D 포지션들을 개선하기 위해 레벤버그-마콰트 최소화 알고리즘이 사용된다. 이것은 k+1개의 프레임들 윈도우 상에서 수행되고, 이는 카메라의 현재 포지션 및 회전을 올바르게 추정하기 위해 (로컬 번들 조정) 그 최소화가 현재의 스냅샷과 k개의 가장 가까운 것들을 고려한다는 것을 의미한다. k의 값은 그 최소화 알고리즘에 대해 주어진 오류 임계에 따라 경험적으로 결정되거나 적응적으로 컴퓨팅될 수 있다.
로컬 번들 조정 이외에, 글로벌 번들 조정이 또한 모든 기존의 키 포지션들에 적용된다. 키 포지션들의 세트가 시간이 지남에 따라 점점 더 커지므로, 시스템은 글로벌 조정을 수행하기 위해 점점 더 많은 시간을 취한다. 새로운 키 포지션들이 추가되고 우리의 소프트웨어가 로컬 및/또는 글로벌 번들 조정들을 수행하기에 충분한 시간을 갖지 못하면, 새로운 키 포지션들의 추가에 우선순위를 주기 위해 조정들은 취소된다. 그들은, 새로운 키 포지션들이 추가되자마자, 또다시 적용될 것이다.
기존의 점 클라우드가 존재하면, 카메라는 추적될 수 있다. 이것은 다음 섹션에 설명되어 있다.
2.1.4
두번째
단계: 필름 카메라 추적
2.1.4.1 기하학적인 카메라 눈금
카메라 눈금은 몇 개의 목표들을 갖는다. 한편으로는, 그것은 이미지가 센서들 상에서 어떻게 생성되는지를 설명하기 위한 수학적인 관계를 우리에게 제공한다. 다른 한편으로는, 그것은 3D 점들과 카메라의 이미지 평면 상으로의 그들의 투영 사이의 이동 행렬을 컴퓨팅한다.
조사 및 추적 처리의 이 중요한 전제 조건은 우리가 본질적인 및 외적인 매개변수들의 2개의 상이한 종류의 속성들을 컴퓨팅해야 한다는 것을 의미한다. 본질적인 매개변수들은 카메라 및 렌즈 속성들에 관련되고, 그들이 물리적으로 구축되는 방식에 따라 움직인다. 그들은 이미지 포맷, 카메라의 광학적 중심과 이미지 평면 사이의 거리, 및 주점을 포함한다. 이미지 포맷은 화소들을 거리에 관련시키는 2개의 스케일 인자들로 구성된다. 주점은 이미지 평면(이상적으로 이미지의 중간에 있음) 상으로의 광학적 중심의 투영이다. 그것 이외에, 몇몇의 렌즈들은 그들의 광학적 왜곡이 컴퓨팅되고 추적을 고려할 것을 요청한다. 눈금 처리 동안, 몇개의 원 패턴들을 갖는 평면 표면이 카메라에 의해 연속적으로 캡쳐된다(도 5를 참조). 모든 포지션들에 대하여, 외적인 매개변수들(즉, 카메라의 포지션 및 회전) 및 본질적인 매개변수들(광학 왜곡을 포함함)은 모든 스냅샷들 간의 재투영의 오류를 최소화하는 레벤버그-마콰트 최소화 알고리즘을 통해 컴퓨팅된다.
이 처리는 데버네이 및 포즈하의 워크들(works)[3]에 기초하는 매우 유명한 기술이다.
2.1.4.2 필름 카메라 오프셋
여기서 개발된 글로벌 시스템은 추적 장치를 목표된 필름 카메라에 직접 부착되게 놓도록 요청한다. 위트니스 카메라 포지션 및 방향은 이전 서술자 추적 기술을 사용하여 추정된다. 그러나, 필름 카메라와 위트니스 카메라 모두에 대하여 동일한 패턴을 사용함으로써 스케일의 문제가 존재한다. 실제로, 우리의 위트니스 카메라들은 180도 렌즈들을 사용하므로, 눈금 패턴 내의 원 모양들이 위트니스 카메라 뷰 내에서는 정말로 작게 보이는 경향이 있어서 그들을 검출하기 어려워진다.
우리는 실제로 2개의 상이한 크기 및 대조적인 패턴들로 구성된 우리의 교정 차트를 만들었다. 그 차트의 한 부분은 완전히 흰색의 배경 상에 완전히 검은색의 원들을 갖는다(위트니스 카메라들 용). 그 차트의 두번째 부분은 완전히 검은색의 배경 상에 완전히 흰색의 원들로 구성된다(필름 카메라). 따라서 우리는 매우 간단한 패턴 검출기를 사용하여 위트니스 및 필름 카메라들에 대한 두 패턴들 모두를 찾는다. 우리가 두 패턴들 모두의 정확한 관련 포지셔닝을 알기 때문에, 필름 카메라의 포지션 및 회전은 위트니스 카메라의 계산된 포지션 및 회전을 "전파"함으로써 찾아질 수 있고, 그 반대일 수 있다. 실제로, 두 카메라들 모두가 서로 직접 부착되므로, 우리는 그들 간의 3D 오프셋(R, T)을 정확하게 컴퓨팅하기 위해 라인업(lineup) 알고리즘을 사용할 수 있다. 우리는 이전에 설명된 원 패턴들에 기초하여 라인업 알고리즘을 개발했다. 정확한 크기들, 모양들, 및 포지션들이 알려진 패턴들은 두 카메라들 모두에 의해 개별적으로 인식되며, 따라서, 위트니스 카메라와 필름 카메라 사이의 사소한 수학적인 관계(회전 및 병진)가 높아진다.
2.1.4.3 추적 단계
조사를 추적 처리로부터 분리시키는 것은 시스템이 세트 상에서 사용되는 방법을 설명하는 단지 실용적인 방식이다. 실제로, 추적 처리는 도 2에 설명된 추적과 상이하지 않으며 조사 동안 사용된다. 그러나, 그것은 자명한 이유들을 위해 터치스크린을 포함하지 않다는 점을 제외하고 조사 장치와 상당이 유사한 보다 단순한 장치(도 6을 참조)를 사용한다.
도 2의 가시적 추적 직사각형은 새로운 프레임 내의 FASTER에 의해 검출된 2D 자연스러운 마커들과 기존의 3D 점 클라우드 사이에 어떻게 매칭이 발견되는지를 나타낸다. 모든 자연스러운 마커와 연관되고 두 데이터 세트들 모두로부터의 2D 질감 패치들은 선형적으로 비교된다. 모든 특징 점들이 처리되면, 최고의 가능한 매치를 찾고 카메라의 포지션 및 방향을 컴퓨팅하기 위해 가우스 뉴튼 알고리즘이 적용된다. 이러한 최소화 알고리즘은 솔루션을 모으기 위해 대략 10 회 반복을 보통 요청한다. 최소화하기 위한 기준을 강력하게 하기 위해, 우리는 고정적인 터키(Tukey)-M 추정기(최대 가능성 유형 추정기)[6]를 사용한다. 이것은 또한 모으는 것이 아웃라이어들에 의해 방해되지 않음을 보증한다.
모든 추적은 카메라의 최종 매개변수들을 획득하기 전에 피라미드의 2개의 상이한 수준들 상에서 2번 수행된다. 첫째, 알고리즘의 모으기는 이미지 피라미드의 거친(coarse) 수준을 통해 카메라의 포지션 및 방향의 근사치를 컴퓨팅하고 자연스러운 마카들의 하위세트를 사용하여 상당히 증가된다. 둘째, 동일한 컴퓨팅이 매우 보다 큰 세트(대략 20배 큼) 상에서 수행되고 최종의 정확한 결과를 획득하기 위해 이전의 근사치들과 병합된다.
2.1.4.4 추적 실패들 및 복원
실제 세트 상에서의 카메라 추적 동안, 가시적 추적이 길을 잃는 많은 상황이 발생할 수 있다. 이것은, 예를 들면, 사람이 위트니스 카메라 앞에 서있거나 바가 객체들에 의해 단순히 가려져있을 때 종종 발생한다. 우리가 가시적 추적을 잃어버리는 모든 경우들에 대하여, 3개의 상이한 복원 스레드들이 동시에 시작되고 첫번째로 복원을 획득하는 것이 받아들여진다.
확장형 칼만 필터의 예측 기능을 사용하여(2.3.2 섹션을 참조), EKF 예측된 매개변수들로부터 탐색을 시작하는 카메라 포지션 복원을 첫번째로 시도하는 것이 가능하다. 실제로, EKF가 예측-정정 알고리즘이므로, 그것은 항상 카메라가 다음 포지션으로 움직이기 전에 무엇이 카메라의 다음 포지션이 될지를 예측고자 한다. 예측이 올바르면, 인스턴트 복원을 획득하는 것이 가능하다. 실제로, 그 예측은 위트니스 카메라가 숨겨지고 시스템이 IMU를 사용하여 추적할 때 매우 잘 동작한다. 그러나, 그것은, 위트니스 카메라들을 숨기면서 필름 카메라가 상당히 병진되면, 종종 실패한다.
제 2 수준의 복원은 매우 상이하다. 모든 특징 점은 그것에 연관된 회전 불변 서술자를 가지며, ORB(지향성 FAST 및 회전된 BRIEF) 기술[18]을 따른다. 그것은 우선 해리스(Harris) 점수[5]에 연관된 다중-스케일 특징들(즉, 이미지 피라미드의 상이한 수준들로의)을 컴퓨팅하기 위해 유명한 FAST[16] 기술에 의존한다. 서술자의 방향은 세기 도심(intensity centroid)을 사용하여 컴퓨팅된다. 제 2 서술자는 키포인트의 방향을 따라 회전된 BRIEF 서술자[2]인 rBRIEF이다. 이들 2개의 서술자들을 사용하여, 우리의 기술은 정규 가시적 추적 기술들이 실패하는 포지션들로부터 복원할 수 있다. 예를 들면, 우리가 임의의 이유로 가시적 추적을 잃어버렸다고 하자. 여전히 잃어버린 동안, 우리가 이제 카메라를 Z 축 주변에서 병진시키고 90도 회전시켰다고 가정하자. 카메라에 의해 보여지는 현재의 이미지는 이전에 절대 학습되지 않았었지만, 그것은 우리가 이전에 학습된 키 포인트들 및 키 포지션들을 추가하는 방향을 여전히 가리키고 있다. 그러나, 정규 복원 처리는 회전 불변적이므로, 그들 시스템들은 추적을 복원하는데 실패한다. 우리의 경우, 모든 키 포인트에 연관된 회전 불변적 서술자들의 사용은, 필름 카메라가 이전에 그 포지션으로 어느 곳을 가리키자마자(회전은 관련 없음), (무작위(brute force) 매칭 기술을 사용하여) 빠른 복원을 허용한다.
마지막으로, 제 3 복원 스레드는 보다 무작위하고 컴퓨팅적으로 집약적이다. 타원체(3D 타원)는 마지막으로 알려진 카메라 포지션 주변에 구축된다. 그 타원체는 그러나 확장형 칼만 필터에 의해 컴퓨팅된 매개변수 공분산으로 구성된 크기를 갖는다. 그 후 다수의 샘플들이 EKF의 오류 공분산을 따르는 타원체 내에서 생성된다. 탐색된 카메라 포지션 및 방향에 대한 최고의 가능한 매칭을 찾기 위해 RANSAC 알고리즘이 그 세트에 적용된다.
2.2 동적인 줌, 초점, 및 조리개
글로벌 추적 처리 동안, 감독 또는 사진 감독은 예를 들면, 장면 내의 인물/객체를 줌하거나 그것에 초점을 맞추도록 결정할 수 있다. 우리의 기술은 알리(Arri)에 의해 제안된 것과 같은 몇몇의 정규 인코더들을 통합하지만, 또한 실시간으로 줌, 초점, 및 조리개 값을 캡쳐하기 위해 임의의 다른 인코더를 다룰 수도 있다. 이것은 세트 상의 동적인 주밍(zooming) 및 피사계 심도를 허용한다.
2.3 센서 결합 기술
모든 완전한 광학 기반 마커없는 기술들은 많은 상황들에서 추적을 실패할 수 있다. 가장 일반적인 경우는 위트니스 카메라의 현재의 뷰에 충분한 자연스러운 마커들이 남아있지 않은 것이다. 이상적인 상황들에서, 이것은 거의 일어나지 않는데, 이는, 예를 들면, 사용자들은 그의 손으로 렌즈를 가리지 않도록 주의를 기울이기 때문이다. 실제 세트들에서, 그 상황은 많이 발생하는데, 이는 단순히 카메라 팀원이 종종 렌즈를 바꾸고, 카메라 리그(rig)를 변경하고, 렌즈를 청소하고, 다른 촬영 장소로 움직이는 등을 할 필요가 있기 때문이다. 정규 마커-기반 및 마커없는 (광학 흐름 기반) 기술 상에서, 이것은 추적 시스템이 카메라의 포지션 및 회전에 대한 양호한 추정을 찾지 못하게 한다.
우리는 위트니스 카메라들, 자이로스코프, 가속도계, 및 자력계의 다수의 센서들을 사용하여 위트니스 카메라의 포지션 및 회전을 자동으로 정정하는 센서 결합 방법을 만들었다. 그 기술은 우리 기술의 핵심이다. 제 1 단계는 시스템의 눈금 매기기인데, 이는 카메라에 상대적으로 9-DOF IMU의 눈금을 매기는 것을 의미한다. 그것은 모든 센서들이 실제로 동일한 기반에서 동작한다는 것을 보증하기 위해 중요한 단계이다. 9-DOF 센서와 위트니스 카메라들 간의 관계는 손-눈 기술[20]와 비슷하지만, 우리는 그것을 우리의 추적 알고리즘에 맞게 하기 위해 몇몇의 관심있는 과학적인 의견들을 추가했다.
2.3.1
IMU
-
위트니스
카메라 눈금
9-DOF 센서(IMU)로부터 2개의 위트니스 카메라들(C) 중 하나로의 회전을 컴퓨팅하는 변형 을 고려하자. RIMU는 그것을 국부적인 기반에 알려져있고, RC도 또한 그것의 국부적인 기반에서 알려져있다. 그 목적은 에 대하여 를 푸는 것이다.
우리는 이전 수학식들로부터
자이로스코프에 의해 제공된 회전 측정 및 가시적 추적은 같도록 제안된다. 따라서, RIMU 및 RC가 동일한 회전 각도를 (그러나 상이한 기반들 내에서) 기술한다고 고려하는 것이 논리적이다. 로 정의되는 리대수(Algebra Lie) 내에서 회전 행렬의 로그 지도를 사용하면, 행렬 RC를 축-각도 표현으로 변환하는 것이 가능한데:
임의의 중복 결정된 시스템에 대하여, 의 단일 값 분해(Singular Value Decomposition(SVD))을 사용하는 이전의 직사각형 행렬을 풀 수 있는데, 여기서, U는 의 고유 벡터들의 m x n 행렬이고, V는 고유 벡터들 의 n x n 행렬이고, D는 S의 순서화된 단일 값들의 n x n 대각선 행렬이다.
수학식의 이전 해(solution)은 측정들로부터의 잡음에 영향을 받았다. 따라서, 우리는 오류를 최소화하기 위해 레벨버그-마쿼트 최소화 방식을 적용한다:
이제 우리는 IMU과 위트니스 카메라들 사이의 수학적인 관계를 가지므로, 모든 센서 중 최고를 추출하고 필름 카메라의 회전 및 병진을 컴퓨팅하기 위해 확장형 칼만 필터에 모든 측정을 주입할 수 있다.
2.3.2 확장형 칼만 필터
확장형 칼만 필터(EKF)는 다수의 상이한 센서들로부터의 상이한 데이터를 병합하기 위한, 항공우주 및 로보틱 산업 영역에서 매우 잘 알려진 기술이다. 그것은, 추정 오류를 컴퓨팅하고 예측 및 정정의 2개의 단계들을 적용함으로써 잡음 측정들로부터 비선형 시스템의 매개변수들을 추정하기 위해 반드시 사용된다. 예측 단계에서, 칼만 필터는 새로운 매개변수들 뿐만 아니라, 그 매개변수들을 사용하는 한 시간 단계(timestep)로의 관련된 오류 및 이전 시간 단계에서 추정된 오류를 컴퓨팅한다. 정정 단계는 새로운 잡음 측정들을 사용하여 예측을 갱신한다. 그들 새로운 측정들은 예측된 매개변수들 및 오류로부터 새로운 추정된 매개변수들 및 오류를 컴퓨팅하도록 허용한다. 오류가 주어진 임계보다 크면, 매개변수들은 정정된다.
여기 우리의 경우에서, 우리가 3D 회전들에 관련된 다수의 측정들을 갖고(자이로스코프 + 위트니스 카메라들) 그들이 용이하게 보간되지 못하므로, EKF는 매우 특정한 방식으로 개발된다.
우리의 기술에 대한 EKF의 아이디어는 모든 측정(위트니스 카메라, 자이로스코프, 자력계, 가속도계)에 몇몇 종류의 신뢰 값을 주고 최고의 신뢰 점수를 획득하는 센서를 사용하여 현재의 추정된 포지션 및 회전을 반복적으로 정정하는 것이다. 실제로, EKF는 그것보다 약간 복잡하고, 비선형 시스템들에 대하여 수학적으로 예측-정정 알고리즘으로 기술될 수 있다. 시간 단계(t)에서의 상태 벡터()를 고려하면, 그 알고리즘은 가 되는 벡터()의 새로운 상태를 예측하기 위해 우리의 움직임 수학식들의 현재의 물리적 모델을 적용한다. 정정 단계는 그 후 시간 단계()에서 새로운 상태 벡터()를 생성한다.
우리의 경우에, EKF 모델은 다음과 같이 작성될 수 있는데:
여기서, h는 우리의 가측치(observables)에 대한 상태 방정식들이고, Xt는 글로벌 기반 내의 병진, 회전, 병진 속도 및 각속도의 벡터이고, f는 상태 벡터의 갱신 함수이다. B는 시스템 내의 글로벌 잡음이다.
h의 정의
한편으로는 우리가 hwitness와 같은 마커없는 가시적 추적으로부터의 측정들을 고려하고(즉, 여기서 위트니스 카메라들), 다른 한편으로는 hIMU와 같은 IMU로부터의 측정들을 고려하면, 우리는 h는 두 종류의 가측치 hwitness 및 hIMU로 구성된다고 말할 수 있다. 정의에 의해, h는 사소한 함수이고 그것의 일반적인 형태는 식별: 및 에 의해 주어진다. 측정들을 송신하는 센서들의 종류에 따라, 우리는 이제 2개의 상이한 버전의 h를 작성할 수 있고 따라서 가시적 추적 경우에 대하여 수학식 (11)을 다음과 같이 다시 작성할 수 있는데:
센서가 자이로스코프인 경우, 수학식 (11)은 다음과 같이 되는데:
f의 정의
함수 f는 상태 벡터의 갱신 함수이고 다음과 같이 정의된다:
예측 단계
예측 단계는 칼만 필터의 정의를 사용하여 작성될 수 있는데:
여기서,
정정 단계
칼만 정의에 따라, 우리의 경우의 정정은 다음과 같이 작성되는데:
여기서,
우리의 경우, 야코비안은 유한 차분법의 합으로 컴퓨팅되고
는 현재 선택된 센서(위트니스 카메라 또는 IMU)의 잡음 측정들의 공분산 행렬이다. 그 값은 측정의 품질(신뢰 값)에 따라 수정된다. 가시적 추적의 경우, 그것을 추적 오류 ε에 의존하고
2.4 3D 재구성 및 심도 키잉(
keying
)
실시간 3D 재구성은 우리의 카메라 바에 통합된 3D 거리 센서를 사용하여 달성된다. 그 거리 센서는 구조된 가벼운 장치(예를 들면, 마이크로소프트 키넥트(Kinect), 에이수스 액션(Asus Xtion)), 또는 플래시 라이더(Flash Lidar)로도 알려진 ToF 카메라(예를 들면, 개선된 과학적 개념의 타이거아이(TigerEye)와 같음)일 수 있다. 두 기술들 모두는 제한사항들을 가지며, 우리의 기술은 우선은 단지 단거리 센서 에이수스 액션을 사용한다. 보통, 눈금 매기는 단계는 위트니스 카메라들에 상대적으로 에이수스 액션의 포지션을 알기 위해 요청된다. 우리는 단순히 필름 라인업에 대하여 위트니스에 대해서와 정확히 동일한 기술을 사용한다(2.1.4.2 섹션을 참조). 거리 센서는 그레이스케일 카메라를 가지므로, 우리는 거리 센서의 카메라 및 우리의 위트니스 카메라들 중 하나의 두 카메라들 모두에서 검출된 눈금 패턴을 갖기 위해 우리의 통상의 눈금 패턴을 사용한다. 그 처리는 매우 간단하고 2.1.4.2와 유사하다.
거리 센서는 우리의 기술에서 2가지 목적을 위해 사용된다. 한편으로는, 예를 들면, 그것은 객체들 뒤로 멀리 떨어져 생성된 불량 특징 점들을 삭제하는 것을 돕는다. 거리 센서의 심도 지도 상으로 특징 점들을 간단히 재투영하는 것은, 특징 점이 올바른지 아닌지를 알려줄 수 있다. 입체적인 추적 동안(2.5 섹션을 참조), 등극선 기하에 의해 생성된 모든 점은 여전히 등극선들에 의해 주어진 추정보다 가깝거나 멀 수 있다. 우리는 재구성된 3D 점을 거리 센서의 심도 지도로의 그것의 재투영의 현재의 값과 비교하여, 그것의 정확도를 향상시키고 간단히 그것을 거부한다.
거리 센서의 두번째 사용은 심도 지도 자체에 의존한다. 그것이 12m의 최대 거리에서 심도를 제공하면, 우리는 가상 인물들/객체들에 의해 세트 내에서 그 거리 내에 있는 모든 사람(연기자)을 폐색할 수 있고, 그 반대일 수도 있다. 이것은 동적인 폐색이라고 불리고 영화 및 생방송에서 시각 효과들에 대한 또 다른 현실감 수준을 높인다. 우리의 기술은, 심도를 필름 카메라 상으로 다시 투영하고 결과를 개선시킴으로써 거리 센서의 해상도를 향상시키도록 (가장자리 향상) 주요 필름 카메라 공급을 사용한다(이것은 또한 추가적인 고해상도 위트니스 카메라를 추가하여 달성될 수 있음). 이러한 기술은 실시간 심도 키잉을 제공할 수 있으며, 따라서, 특히 보다 강력한 거리 센서가 사용될 때(플래시 라이더), 바인딩(binding) 녹색 화면을 제거한다.
2.5 입체적인
마커없는
기술
평면적인 접근법을 사용하는 이전에 설명된 기술은 실제로 실제 상황들에 충분히 효율적이지 않다. 그것은 알려진 실제 객체가 그 세계의 스케일, 방향, 및 포지션을 컴퓨팅하기 위해 등록으로서 사용될 것을 요청하므로, 당신이 객체를 등록(검출)하고자 할 때 많은 사람들이 항상 당신의 경로 상에 있는 영화들 상에서 그것을 사용하기가 종종 어렵다. 그러나, 그 평면적인 접근법의 주요 제한사항은 그것이 장면을 조사하도록 요청한다는 사실이다. 모노그래피가 그 시스템의 개시화를 위해 사용되야 하므로, 그것은 기술자가 그것을 조사하기 시작하기 위해 세트로 와야한다는 것을 의미한다. 사실, 세트 상에서 걸어다니는 사람들은 가장 마지막 초들 이전에 그 장소를 절대로 떠나지 않으므로, 그 동작은 성공적으로 달성되기 힘들다. 우리는 그 제한사항을 제거하기 위해 입체적인 접근법을 구축하므로, 인스턴트 조사 및 추적의 완전히 근본적인 개념을 가져온다.
2.5.1 인스턴트 조사
카메라 추적 내에 내장된 입체적인 기술은 이전에 설명된 우리의 평면적인 접근법을 포함하는 임의의 다른 기술에 비교되는 중대한 진일보이다. 실제로, 2개의 사전-눈금 매겨진 위트니스 카메라들의 사용은 몇몇의 장점들을 가져온다. 첫번째 것은 인스턴트 조사이다. 평면적인 접근법에서 설명된 기술과 달리, 장면에 대해 사전 조사가 요청되지 않는다. 2개의 위트니스 카메라들 간의 정확한 거리를 완전히 알고 그들이 그들의 내부 겐록(genlock) 하드웨어 성능들을 사용하여 동기화되므로, 우리는 바를 움직이지 않고 즉시 점 클라우드를 획득할 수 있다. 점의 3D 재구성이 입체시각(Stereovision)의 이론을 통해 2개의 위트니스 카메라에 의해 불려와지므로, 문단에서 설명된 모로그래피는 더이상 사용되지 않는다. 두번째 주요점은 수동 스케일이 요구되지 않는다는 것이다. 2개의 비디오 스트림들의 캡쳐 동안, 우리는 등극선 기하에 의해 추정된 3D 점의 투영과 현재의 비디오 내에서 검출된 2D 특징 점 간의 화소 오류의 합을 최소화하기 위해 레벨버그-마쿼트 최소화 방식을 실행한다.
2.5.2 자동-등록
그러나, 인스턴트 조사를 사용하면, 평면적인 접근법에서 검출되었던 것과 같은 등록 객체를 사용하지 못하는 새로운 쟁점이 발생한다. 그 제한사항의 주요 이유는, 카메라 바가 필름 카메라에 직접 부착되고 등록 객체를 학습하기 위해 카메라 팀원에게 그들의 카메라 주변에서 움직이도록 요청하지 못한다는 사실에 기인한다. 그것은, 우리가 임의의 물리적인 등록 객체가 장면에 추가되도록 요구하지 않는 제 2 자동 등록을 추가한 이유이다. 그러나, 그것은 사용자가 점 클라우드와의 2개의 상이한 상호작용들을 갖도록 요구한다: 무엇이 우리가 바닥 기준으로 사용하고자 하는 점인지를 시스템에게 알려주는 점 선택, 및 CG 콘텐트를 비교적으로 장면에 올바르게 향하게하기 위한 Y (수직) 축 주변에서의 수동 회전.
단지 이들 2개의 매우 빠르고 매우 단순한 사용자 상호작용들만을 갖도록 하기 위해, 우리는 모든 다른 남아있는 자유도들을 컴퓨팅해야 하는데, 이는 올바른 스케일링 및 완전히 수직인 Y 축을 갖는 정규직교 기저를 컴퓨팅하는 것을 의미한다. 우리의 기술은 단순히 중력 방향, 즉, Y 축을 컴퓨팅하기 위해 바 내의 내장형 가속도계의 장점을 취한다. 자력계는 N극 방향을 제공하므로, 우리가 정규의 벡터의 외적들을 사용하여 정규직교 기저를 컴퓨팅하도록 허용하는 근사 벡터를 제공한다.
스케일은 컴퓨팅하기 훨씬 용이하다. 그것은 완전히 일시적이고 자동적이며 임의의 사용자 상호작용을 요구하지 않는다. 위트니스 카메라들 사이의 거리가 정확하게 알려져 있으므로, 모든 3D 재구성된 점들은 올바른 스케일을 바로 갖게되고, 따라서, 정규의 완벽한 SFM(structure from motion) 알고리즘에서 검출되는 것과 같은 추가적인 객체가 없다.
2.5.3 인스턴트 추적
추적 처리는 2.1.4.3 섹션의 평면적인 접근법에 대하여 설명된 것과 약간 상이하다. 모든 새로운 점은 3D 특징 점의 스케일 및 심도가 항상 올바르다는 것을 보증하는 등극선 기하를 사용하여 생성된다. 이것은, 우리의 시스템이 시작되자마자, 그 광속의 정확하고 인스턴트 조사로 인해 이미 추적을 하고 있다는 것을 의미한다.
우리는 추적 처리의 최대 안정성을 보장하기 위해 좌측 및 우측 카메라들로부터 보여지는 모든 재투영된 3D 점들의 결합(union)을 컴퓨팅한다. 점 클라우드는 단순히 특징 매칭을 위해 ORB 서술자와 조합된 등극선들의 3D 교차에 의해 생성된다(2.1.4.4 섹션을 참조). 특징 매칭 및 글로벌 최소화 방식은 평면적인 접근법에서 사용되는 것과 유사하다.
인스턴트 조사에 의존하기 위해, 우리는 또한 새로운 점들이 점 클라우드 내에 구축되는 방식을 많이 수정한다. 점들의 입체적인 재구성 이외에, 특징 점들의 균일성 및 그리드 분포의 개념을 추가했다. 정규 추적 알고리즘 동안, 2D 측징 검출 알고리즘이 시작되고 점들은 2.1.3.3 및 2.1.4.4 섹션에서 설명된 바와 같이 3D 내에서 재구성된다. 그러나, 많은 이들 점들은 비신뢰적이고(불량한 심도, 가장자리 점들, 움직이는 점들, 어두운 점들 등) 알고리즘은 매우 대조적인 영역들 내에 많은 점을 학습할 경향이 있고, 낮은 대조적인 영역들 내에는 아무것도 없다. 이것은 추적 데이터 내에 카메라가 흔들리는 느낌을 주는 많은 잡음을 생성한다. 우리가 생성한 그리드 분포 기술은 시스템에 의해 가장 균일한 방식으로 학습된 자연스러운 마커들을 분포시키고자한다. 우리는 우선 매우 높은 임계를 사용함으로써 최대 특징 점들을 생성하기 시작한다. 그 후 우리는 해리스 점수를 사용하여 (우리는 예를 들면, 2개의 최상의 점들을 선택함) 사용자에 의해 주어진 임계에 따라 특징 점들을 수를 줄인다(예를 들면, 16 x 16 그리드, 셀당 2개의 샘플들). 따라서 모든 점은 그것이 어떻게 신뢰적인지를 알리기 위해 사용되는 품질 기준을 갖는다. 균일성이 충분히 양호하지 않으면, 시스템은 또한 낮은 대조적인 영역들 내에서도 점들을 캐치(catch)할 수 있다는 것을 보장하기 위해 대조적인 임계를 국부적으로 변경시킨다. 우리의 알고리즘이 특징 점들을 사진에 걸쳐 분포시킨다는 사실은 또한 시스템이 쉽게 추적을 잃어버리지 않게 한다. 실제로, 우리의 것과 같은 그리드 분포 기술이 없는 정규의 평면적인 접근법들은 예를 들면, 사진의 보다 아래쪽의 좌측 부분에 추적할 점들을 많이 가질 수 있다. 연기자가 모든 이들 자연스러운 마커들을 가리기 시작하면, 추적이 즉시 잃어버려지는데, 이것은 우리는 전체 사진 상에 특징을 분포시켰기 때문에 우리의 경우에는 발생하지 않을 수 있는 것이다.
2.6 증강하는 실세계
2.6.1 카메라/
위트니스
지연 문제
필름 카메라 및 위트니스 카메라들은 상이한 속도들에서 동작하므로, 그들은 프레임 획득 처리에서 상이한 지연들을 생성할 수 있다. 필름 카메라는 실제로 실시계를 올바르게 증강시키기 위해 우리가 지연을 컴퓨팅하게 하는 훨씬 최고의 지연을 생성하는 것이다.
우리는 2개의 카메라들 사이의 지연을 자동으로 컴퓨팅하기 위해 또다시 우리의 눈금매기기 장치를 사용한다. 1Hz에서 플래싱하는 소형 태양-밝기 led가 두 카메라들 모두 앞에서 사용된다. 세기 임계화 기술에 의해 개선된 블롭 검출기 알고리즘은 두 카메라들 모두에서 led를 검출하도록 개발됐다. 카메라들 내의 led 세기의 캡쳐로부터 생성된 관련 세기 커브들은 샘플들 간의 최고의 인스턴트 간섭성(coherency)을 찾기 위해 최소화 알고리즘을 사용하여 비교된다. 따라서, 몇몇의 고정의 매개변수들이 최소화되고 1000분의 1초 내의 지연이 대략 10초 동안 눈금으로부터 자동으로 추출된다.
2.6.2 렌더링 및 증강 현실
우리가 카메라 추적 작업을 하면, 우리의 소프트웨어는, 예를 들면, 오토데스크 모션빌더(Autodesk MotionBuilder)와 같은 상이한 CG 콘텐트 생성기 소프트웨어들로부터 데이터를 수신할 수 있다. 그들 데이터는 실제 배경 또는 전경(녹색 스테이지의 경우)과 함께 합성되도록 우리의 소프트웨어 내에서 바로 통합 및 렌더링된다(추적 및 렌더링 워크스테이션이 병합되는 경우, 도 1을 참조).
우리의 기술에 고유한 또 다른 관심있는 특징은 3D 가비지 매팅이다. 가비지 매팅은 분명히 우리의 발명이 아니지만 그것은 혁신적인 방식으로 우리의 경우에서 수행된다. 실제로, 우리의 추적 알고리즘은 정확한 3D 점 클라우드를 생성하기 때문에(입체적인 접근법으로 인해), 모든 이들 점들은 필름 카메라 비디오 상으로 다시 투영될 때 3D 및 2D 모두에서의 표현을 갖는다. 우리는 사용자가 3D 점 클라우드 내에서 다수의 점들을 선택하도록 허용하는 간단한 사용자 인터페이스를 개발했다. 따라서, 우리는 이어 삼각분할(Ear Triangulation) 알고리즘[14]을 사용하여 모든 선택된 점들을 삼각분할함으로써 3D 객체를 생성한다. 그 새롭게 생성된 표면은 이제 가비지 매팅 객체로서 활성화될 수 있으며, 이는 필름 카메라 비디오 상으로의 그 객체의 2D 투영에 의해 커버된 모든 화소가 이제 3D 콘텐트 생성 워크스테이션에 의해 생성된 3D 가상 환경에 의해 대체된다(1 섹션을 참조). 긴 거리(즉, 적어도 50m) 심도 센서의 사용의 경우, 가비지 매팅 기술은 쓸모 없는데, 이는 우리의 심도 키잉 방법이 그것을 용이하게 대체하기 때문이다(2.4 섹션을 참조).
부록 1
참고 문헌들
[1] 헤르베르트 베이(Herbert Bay), 틴 투이텔라르스(Tinne Tuytelaars), 및 루크 반 쿨(Luc Van Gool). 속도가 높아진 강력한 특징들(Surf: speeded up robust features). 9차 유럽 컴퓨터 비전 협회의 의사록 내 - 볼륨 파트 I, ECCV'06, 404-417쪽, 베를린, 하이델베르그, 2006년. 스프링거 - 출판사.
[2] 마이클 칼론더(Michael Calonder), 빈센트 레페티트(Vincent Lepetit), 크리스토프 스트레차(Christoph Strecha), 및 파스칼 푸아(Pascal Fua). 이진의 강력한 독립 기초 특징(Brief: binary robust independent elementary features). 11차 유럽 컴퓨터 비전 협회의 의사록 내 : 파트 IV, ECCV'IO, 778-792쪽, 베를린, 하이델베르그, 2010년, 스프링거 - 출판사.
[3] 프레데릭 데버네이( Devernay) 및 올리비아 포츠하(Olivier Faugeras). 직선들은 곧아야 함(Straight lines have to be straight). SPIE 내, 볼륨 2567, 2001년.
[4] 마틴 에이. 피슬러(Martin A. Fischler) 및 로베르트 씨. 볼레스(Robert C. Bolles). 무작위 샘플 합의들: 이미지 분석들 및 자동화된 지도학에 대한 응용들을 갖는 모델 피팅을 위한 패러다임(Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography). ACM의 커뮤니케이션스 ( Communications of the ACM ), 24(6):381-395, 1981년.
[5] 크리스 해리스(Chris Harris) 및 마이크 스테판(Mike Stephens). 조합된 코너 및 가장자리 검출기(A combined corner and edge detector). 4차 엘비 비전 회의 내( In Proc . of Fourth Alvey Vision Conference ), 147-151쪽, 1988년.
[6] 디. 씨. 호그린(D.C. Hoaglin), 에프. 모스텔러(F. Mosteller), 및 제이.더블유. 터키(J.W. Tukey). 강력하고 탐구적인 데이터 분석 이해하기( Understanding Robust and Exploratory Data Analysis ). 가능성 및 수학적 분석들 내의 와일리 시리즈들: 적용된 가능성 및 분석들(Wiley series in probability and mathematical statistics: applied probability and statistics). 존 와일리(John Wiley) 및 선스(Sons), 1983년.
[7] 루돌프 에밀 칼만(Rudolph Emil Kalman). 선형 필터링 및 예측 문제들에 대한 새로운 접근법(A new approach to linear filtering and prediction problems). ASME 의 트랜젝션스 - 기초 엔지니어링 저널( Transactions of the ASME - Journal of Basic Engineering ), 82(시리즈 D):35-45, 1960년.
[8] 게오르그 클레인(Georg Klein) 및 데이비드 머레이(David Murray). 소형 ar 작업공간들에 대한 평행 추적 및 매핑(Parallel tracking and mapping for small ar workspaces). 믹싱 및 증강된 현실에 대한 2007년 6차 IEEE 및 ACM 국제 심포지움의 의사록 내( In Proceedings of the 2007 6 th IEEE 및 ACM International Symposium on Mixed and Augmented Reality ), ISMAR '07, 1-10쪽, 워싱턴, DC, 미국, 2007년. IEEE 컴퓨터 학회.
[9] 제이. 제이. 레오나르드(J. J. Leonard) 및 두란트 에이치. 와이트(Durrant H. Whyte). 기하학 비콘들 추적에 의한 모바일 로보트 위치지정(Mobile robot localization by tracking geometric beacons). 로보틱스 및 자동화에 대한 IEEE 트렌젝션들 ( IEEE Transactions on Robotics and Automation ), 7(3), 1991년.
[10] 케이. 레벤버그(K. Levenberg). 최소 제곱 내의 특정 문제들의 솔루션에 대한 방법(A method for the solution of certain problems in least squares). Quart. Appl . Math, 2:164-168, 1944년.
[11] 데이비드 지. 로우(David G. Lowe). 국부적 스케일-불변적인 특징들로부터의 객체 인식(Object recognition from local scale-invariant features). 컴퓨터 비전에 대한 국제 회의의 의사록 내 - 볼륨 2 - 볼륨 2, ICCV '99, 1150쪽부터, 워싱턴, DC, 미국, 1999년. IEEE 컴퓨터 학회.
[12] 디. 마콰트(D. Marquardt). 선형 매개변수들의 최소-제곱들 추정에 대한 알고리즘(An algorithm for least-squares estimation of nonlinear parameters). SIAM J. Appl . Math, 11:431-441, 1963년.
[13] 크리스토퍼 메이(Christopher Mei), 가베 시블리(Gabe Sibley), 마크 쿠민스(Mark Cummins), 폴 뉴맨(Paul Newman), 및 이안 레이드(Ian Reid). 스테레오를 사용하는 고정-시간 내의 큰-스케일 매핑을 위한 시스템(Rslam: A system for large-scale mapping in constant-time using stereo). Int . J. Comput . 비전, 94(2):198-214, 2011년 9월.
[14] 게리 호시어 메이스터스(Gary Hosier Meisters). 다각형들은 귀들을 가짐(Polygons have ears). Amer . Math . Monthly , 82:648-651, 1975년.
[15] 제이. 제이. 모어'(J. J. More'). 레벤버그 - 마콰트 알고리즘: 구현 및 이론( The Levenberg - Marquardt algorithm : implementation and theory ), 105-116쪽. 수학 630의 강의록. 스프링거, 1977년.
[16] 에드워드 로스턴(Edward Rosten) 및 톰 드루몬드(Tom Drummond). 고속 코너 검출에 대한 기계 학습(Machine learning for high-speed corner detection). 컴퓨터 비전에 대한 9차 유럽 회의의 의사록 내 - 볼륨 파트 I, ECCV'06, 430-443쪽, 베를린, 하이델베르그, 2006년. 스프링거-출판사.
[17] 에드워드 로스턴, 레이드 포터(Reid Porter), 및 톰 드루몬드. 보다 빠르고 보다 양호한: 코너 검출에 대한 기계 학습 접근법(Faster and better: A machine learning approach to corner detection). IEEE 트랜젝션스 . 패턴 분석 및 기계 지능, 32:105-119, 2010년.
[18] 이든 루블리(Ethan Rublee). 빈센트 라바우드(Vincent Rabaud), 커트 코노리게(Kurt Konolige), 및 게리 브라드스키(Gary Bradski). Orb: sift 또는 surf에 대한 효율적인 대안(Orb: An efficient alternative to sift or surf). 컴퓨터 비전에 대한 2011년 국제 회의의 의사록 내, ICCV '11, 2564-2571쪽, 워싱턴, DC, 미국, 2011년. IEEE 컴퓨터 학회.
[19] 이반 이. 서덜랜드(Ivan E. Sutherland). 머리-장착 3차원 디스플레이(A head-mounted three dimensional display). 1968년 12월 9-11일 추계연합컴퓨터회의 의사록 내( In Proceedings of the December 9-11, 1968, fall joint computer conference ), 파트 I, AFIPS '68 (가을, 파트 I), 757-764쪽, 뉴욕, NY, 미국, 1968년. ACM.
[20] 로저 와이. 차이(Roger Y. Tsai) 및 레이미르 케이. 렌즈(Reimer K. Lenz). 완벽히 자율적이고 효율적인 3d 로보틱스 손-눈 눈금 매기기에 대한 새로운 기술(A new technique for fully autonomous and efficient 3d robotics hand-eye calibration). 로보틱스 연구에 대한 4차 국제 심포지엄의 의사록 내, 287-297쪽, 캠프리지, MA, 미국, 1988년. MIT 프레스.
[21] 제이.케이. 울만(J.K. Ulhmann). 복수의 목표 추적에 대한 알고리즘들(Algorithms for multiple target tracking). 아메리칸 사이언티스트(American Scientist), 80(2):128-141, 1992년.
Claims (60)
- TV 방송, 영화, 또는 비디오 게임들을 위한 실시간 증강 현실 비디오를 생성하기 위해, 컴퓨터 생성된 3D 객체들 및 비디오 카메라와 같은, 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템에 있어서,
(a) 상기 필름 카메라의 몸체는 3D 내에서 움직일 수 있고, 상기 필름 카메라 내의 또는 상기 필름 카메라에 직접 또는 간접적으로 부착된 센서들은 상기 필름 카메라의 3D 포지션(position) 및 3D 방향을 정의하거나, 상기 필름 카메라의 3D 포지션 및 3D 방향이 계산되게 할 수 있는 실시간 포지셔닝 데이터를 제공하고,
(b) 상기 실시간 포지셔닝 데이터는 그 후, 컴퓨터 생성된 3D 객체들을 생성하거나, 다시 불러내거나, 렌더링(rendering)하거나, 수정하도록 상기 시스템에 의해 자동으로 사용되고,
(c) 결과로 발생한 상기 컴퓨터 생성된 3D 객체들은 그 후, TV 방송, 영화 또는 비디오 게임들에 증강 현실 비디오를 제공하기 위해 상기 필름 카메라로부터의 상기 비디오공급에 믹싱 또는 합성되는, 시스템. - 제 1 항에 있어서,
상기 컴퓨터 생성된 3D 객체들은 상기 필름 카메라로부터의 상기 실시간 비디오 공급과 함께 실시간으로 믹싱 또는 합성되는, 시스템. - 제 1 항 또는 제 2 항에 있어서,
상기 필름 카메라의 실시간 줌(zoom), 초점, 및 조리개 설정들은 예를 들면, 종래의 인코더들을 사용하여 측정되고, 상기 실시간 포지셔닝 데이터와 함께 사용되어, 상기 3D 객체들이 3D 장면에서 원하는 위치 및 방향으로 올바르게 렌더링되게 하는, 시스템. - 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 센서들은 가속도계 및 자이로(gyro)(6DOF 센서)를 포함하는, 시스템. - 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 센서들은 3D 내에서의 병진 가속(translational acceleration)을 측정하는 3-축 가속도계, 3D 내에서의 각속도를 측정하는 3-축 자이로, 및 3D 내에서의 절대적인 방향지시(absolute heading)를 측정하는 자력계를 포함하고, 따라서 9DOF 센서를 구성하는, 시스템. - 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
상기 센서들은 구조화된 광 또는 ToF(time-of-flight) 카메라와 같은, 3D 거리 센서를 포함하는, 시스템. - 제 6 항에 있어서,
상기 3D 거리 센서는 상기 카메라로부터의 비디오 출력 내의 각각의 화소의 심도를 캡쳐하는, 시스템. - 제 7 항에 있어서,
가장자리들의 심도는 3D 거리 센서 심도들을 상기 필름 카메라의 고해상도 비디오 공급 상으로 다시 투영함으로써 개선되는, 시스템. - 제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
상기 센서들은 상기 필름 카메라에 안전하게 고정될 수 있는 유닛으로 형성되는, 시스템. - 제 9 항에 있어서,
상기 유닛은 1개 또는 2개의 위트니스 카메라들(witness cameras)을 포함하는, 시스템. - 제 9 항에 있어서,
상기 유닛은 비디오 출력 내의 각각의 화소의 심도를 캡쳐하는 3D 거리 센서를 포함하는, 시스템. - 제 9 항에 있어서,
상기 유닛은 복잡한 장면을 조사하고, 조사되는 상기 3D 장면을 정의하는 데이터를 무선으로 컴퓨터로 송신하기 위해 사용될 수 있는 조사 장치를 형성할 수 있고, 상기 컴퓨터는 후에 상기 장면을 추적하거나 상기 장면의 추적을 복원하는, 시스템. - 제 1 항 내지 제 12 항 중 어느 한 항에 있어서,
180도 어안 렌즈들일 수 있는 렌즈들이 구비된, 하나의 단일 위트니스 카메라(평면적인 경우) 또는 2개의 위트니스 카메라들(입체적인 경우)을 포함하는, 시스템. - 제 13 항에 있어서,
상기 위트니스 카메라(들)는 상기 필름 카메라로부터 오프-세트(off-set)되고, 상기 오프-세트는 제 1 및 제 2 그룹의 원들을 포함하는 교정 차트를 사용하여 획득되고, 각각의 원은 하나 이상의 다른 원들에 대하여 알려진 위치에 있고, 각각의 원은 블롭(blob) 이미지 알고리즘을 사용하여 인식되는, 시스템. - 제 1 항 내지 제 14 항 중 어느 한 항에 있어서,
상기 필름 카메라의 렌즈는 몇개의 원들을 포함하는 교정 차트를 사용하여 광학 왜곡에 대해 교정되고, 각각의 원은 하나 이상의 다른 원들에 대하여 알려진 위치에 있고, 각각의 원은 블롭 이미지 알고리즘을 사용하여 인식되는, 시스템. - 제 1 항 내지 제 15 항 중 어느 한 항에 있어서,
상기 필름 카메라의 3D 포지션 및 3D 방향은 상기 센서들로부터의 상기 실시간 3D 포지셔닝 데이터와, 광학 흐름을 사용함으로써 부분적으로 생성된 실세계의 3D 지도를 참조하여 결정되고, 상기 광학 흐름 내에서 위트니스 카메라(들)가 장면을 조사하고 처리기 상에서 실행되는 소프트웨어가 상기 장면에 수동으로 또는 인위적으로 추가된 것이 아닌 상기 장면 내의 자연스러운 마커들('특징 점들')을 검출하는, 시스템. - 제 1 항 내지 제 16 항 중 어느 한 항에 있어서,
추적될 상기 장면을 오직 조사하는('인스턴트(instant) 조사'로 불리는) 별개의 단계 없이 상기 시스템이 완전히 개시되게 하기 위해 1개 또는 2개의 (적어도 100 fps와 같은) 고속 위트니스 카메라들을 사용하지만, 대신 조사는 상기 카메라가 비디오를 캡쳐하기 위해 사용되는 동안 계속 발생하는, 시스템. - 제 17 항에 있어서,
상기 2개의 고속 위트니스 카메라들은 소프트웨어가 상기 이미지들을 처리할 수 있게 하고, 상기 카메라 시스템이 전혀 움직이지 않더라도, 인스턴트 3D 점 클라우드를 생성할 수 있게 하는 (예를 들면, 상기 2개의 카메라와 등극선 기하 간의 분리에 대한 지식을 사용하여 상기 장면 내의 다수의 점들을 3D 공간 내의 그들의 포지션에 연관시키는) 입체적인 시스템을 형성하는, 시스템. - 제 17 항에 있어서,
상기 3D 점 클라우드 내의 각각의 화소의 심도는 각각의 입체적인 위트니스 카메라 및 등극선 탐색 알고리즘으로부터 획득된 대응하는 2D 질감 패치들(patches)을 사용하여 획득되는, 시스템. - 제 1 항 내지 제 19 항 중 어느 한 항에 있어서,
상기 위트니스 카메라 시스템으로부터의 광학 흐름 데이터와 상기 하드웨어 센서들로부터의 상기 실시간 포지셔닝 데이터를 조합하는 결합 알고리즘을 실행시키는, 시스템. - 제 20 항에 있어서,
상기 결합 알고리즘은 상기 카메라의 포지션 및 방향을 결정하기 위해 가속도계, 자이로스코프, 자력계, 3D 거리 센서를 포함할 수 있는 상기 센서들 모두로부터의 출력들을 통합하고 상기 센서들 모두를 재교정하기 위해 확장형 칼만(Kalman) 필터 예측/정정 기술에 기초하는, 시스템. - 제 21 항에 있어서,
상기 확장형 칼만 필터 결합 알고리즘은 각각의 센서로부터의 상기 데이터를 어떻게 병합할지를 결정할 때, 각각의 센서로부터의 상기 출력에 연관된 신뢰 수준 데이터를 사용하는, 시스템. - 제 1 항 내지 제 22 항 중 어느 한 항에 있어서,
상기 위트니스 카메라(들)에 의해 생성된 키프레임들은 상기 가시적 추적 처리의 부분이고 상기 위트니스 카메라 비디오 공급의 4개의 상이한 해상도 수준들에서 컴퓨팅된 실시간 이미지들인, 시스템. - 제 1 항 내지 제 23 항 중 어느 한 항에 있어서,
(a) 가상 인물들, 객체들, 및 장소들의 3D 컴퓨터 생성된 애니메이션을 제공하는 콘텐트 생성 컴퓨터 및 (b) (상기 콘텐트 생성 컴퓨터로부터 분리될 수 있거나 분리되지 않을 수 있는) 렌더링 컴퓨터를 포함하고, 상기 필름 카메라의 3D 포지션을 정의하는 상기 실시간 포지셔닝 데이터는 상기 비디오 공급에서 보여지는 상기 장면의 자연스러운 부분을 형성하기 위해 상기 필름 카메라로부터의 상기 비디오 공급에 실시간으로 삽입되고 상기 비디오 공급에 믹싱될 수 있는 실시간, 컴퓨터 생성된 3D 객체들로 하여금 생성되도록 하기 위해, 상기 콘텐트 생성 컴퓨터 및 상기 렌더링 컴퓨터 중 하나 또는 그 둘 모두에 의해 사용되는, 시스템. - 제 1 항 내지 제 24 항 중 어느 한 항에 있어서,
상기 컴퓨터 생성된 3D 객체들은 상기 콘텐트 생성 컴퓨터에 의해 결정된 방식으로 상기 장면 내의 어느 곳으로나 움직일 수 있고 그들의 모양 및 겉모습을 바꿀 수 있는 애니메이션들인, 시스템. - 제 1 항 내지 제 25 항 중 어느 한 항에 있어서,
상기 컴퓨터 생성된 3D 객체들은 상기 장면에 믹싱될 때 현실적인 방식으로 움직이는(예를 들면, 달리기, 춤추기, 걷기, 싸우기, 날기, 점프하기...) 사람 또는 생명체들의 애니메이션된 인물들인, 시스템. - 제 1 항 내지 제 26 항 중 어느 한 항에 있어서,
상기 카메라 포지셔닝 또는 추적 데이터는 또한 후반-제작 CGI를 용이하게 하기 위해 후반-제작에서 사용될 수 있게 만들어진, 시스템. - 제 1 항 내지 제 27 항 중 어느 한 항에 있어서,
3D 거리 센서는 재구성된 3D 점과 연관된 심도 측정의 정확도를 개선시키거나, 상기 재구성된 3D 점을 거부하기 위해 사용되는, 시스템. - 제 28 항에 있어서,
상기 3D 거리 센서는 동적인 폐색을 가능하게 하고 녹색 스테이지의 궁극적인 사용을 억제하기 위해 실시간 심도 키잉(keying)을 위해 사용되는, 시스템. - 제 1 항 내지 제 29 항 중 어느 한 항에 있어서,
상기 장면 내에 위치된, 알려진 크기의 및 알려진 패턴으로 커버된 게시판과 같은, 소형 카메라 등록 객체를 사용하여, 상기 검출된 패턴의 코너가 상기 3D 점 클라우드(및 따라서 상기 세계)에 대한 근원으로서 처리되게 하는, 시스템. - 제 30 항에 있어서,
상기 카메라 등록 객체는 실제 수직으로 정렬되고 블롭 이미지 인식 알고리즘을 사용하여 인식되는 알려진 크기의 적어도 2개의 구들을 포함하는, 시스템. - 제 1 항 내지 제 31 항 중 어느 한 항에 있어서,
자기 N극을 나타내기 위한 자력계, 중력 방향을 나타내기 위한 (그리고 그에 따라 실제 수직을 제공하는) 가속도계, 상기 시스템이 위로/아래로 기울어졌는지나 좌측 또는 우측으로 팬(pan)되었거나 광학 축에 대하여 회전되었는지를 나타내기 위한 자이로, 및 시작 포지션으로부터의 3D 내에서의 병진이 추론되게 하기 위한 3-축 가속도계를 포함하는, 시스템. - 제 1 항 내지 제 32 항 중 어느 한 항에 있어서,
소프트웨어는 추적 손실들을 상당히 줄이고 추적 정확도를 높이기 위해 상기 3D 지도에 균일하게 분포된 점 클라우드를 생성하는 것을 시도하여, 시차(parallax)가 보다 많이 생성되어, 추정된 카메라 포지션이 보다 정확한, 시스템. - 제 1 항 내지 제 33 항 중 어느 한 항에 있어서,
카메라 추적 시스템은 상기 필름 카메라에 무선으로 연결될 수 있으므로, 상기 3D 점 클라우드를 생성할 때 상기 세트 주변을 빠르게 움직일 수 있는, 시스템. - 제 1 항 내지 제 34 항 중 어느 한 항에 있어서,
감독/촬영기사가 상기 필름 카메라에 부착된 상기 카메라 추적 시스템을 추적, 팬(pan), 기울일 때, 상기 필름 카메라를 추적하는 인스턴트 조사(입체적인 경우) 또는 3D 장면의 실시간 조사(평면적인 경우)를 조합하는 카메라 추적 시스템을 제공하는, 시스템. - 제 1 항 내지 제 35 항 중 어느 한 항에 있어서,
회전, 병진, 초점, 조리개, 초점 거리를 포함하는 필름 카메라 추적에 대한 모든 양태들을 완벽히 자동화하고; 상기 비디오에 믹싱될 상기 3D 컴퓨터 생성된 콘텐트의 스케일링, 포지셔닝 및 방향설정을 자동화하는, 시스템. - 제 1 항 내지 제 36 항 중 어느 한 항에 있어서,
장면의 실시간, 계속적인 조사가 상기 장면을 정의하는 보다 완벽한 점 클라우드를 생성하게 하는, 시스템. - 제 1 항 내지 제 37 항 중 어느 한 항에 있어서,
추적의 복원을 용이하게 하기 위해, 예를 들면, ORB를 사용하는 회전 불변 서술자들(rotation invariant descriptors)을 상기 장면에서 검출된 특징 점들에 부착하는, 시스템. - 제 1 항 내지 제 38 항 중 어느 한 항에 있어서,
이전에 올바르게 컴퓨팅되거나 확인된 포지션을 사용하여 상기 필름 카메라의 다음 포지션을 예측하기 위해 상기 센서들에 의해 제공된 정보에 연관된 고정 속도 모델을 사용하는, 시스템. - 제 39 항에 있어서,
점 매칭 알고리즘이 상기 위트니스 카메라 시스템으로부터의 상기 실시간 비디오 공급 내의 식별된 점들과 새로운 3D 점 클라우드 내의 상기 투영된 점들을 매칭하게 하도록, 3D 점 클라우드를 현재의 프레임 상에 다시 투영하기 위해 상기 예측을 사용하는, 시스템. - 제 40 항에 있어서,
상기 위트니스 카메라 시스템으로부터의 상기 실시간 비디오 공급 내의 식별된 상기 점들과 상기 새로운 3D 점 클라우드 내의 상기 투영된 점들 간의 오류를 최소화하기 위해 카메라 추적에 대해 레벤버그-마콰트(Levenberg-Marquardt) 최소화 방식을 사용하는, 시스템. - 제 1 항 내지 제 41 항 중 어느 한 항에 있어서,
사용자는 3D 가비지 매팅 마스크들(3D Garbage Matting masks)과 같은, 3D 마스크들을 정의하기 위해 상기 카메라 추적 시스템에 의해 생성된 3D 점 클라우드를 사용할 수 있는, 시스템. - 제 1 항 내지 제 42 항 중 어느 한 항에 있어서,
상기 3D 객체들은 정적인 객체들, 동적인 애니메이션들, 가상 세계들, 가상 사람, 가상 건물들, 가상 경치, 가상 영화 세트들, 및 애니메이션 데이터베이스 내의 임의의 데이터를 포함하는, 시스템. - 제 1 항 내지 제 43 항 중 어느 한 항에 있어서,
상기 필름 카메라 및 위트니스 카메라는 플레싱 LED와 연관된 광 세기 커브들을 비교함으로써와 같이, 변조된 광원을 사용하여 프레임 획득 지연에 대하여 교정되는, 시스템. - 제 1 항 내지 제 44 항 중 어느 한 항에 있어서,
상기 필름 카메라는 크레인 카메라(crane camera), 스테디 캠(steady cam), 핸드-핼드-카메라(hand-held-camera), 돌리 장착 카메라(dolly mounted camera), 삼각대-장착 카메라(tripod-mounted camera), 스마트폰, 및 증강 현실 안경 중 임의의 것인, 시스템. - 실시간, 컴퓨터 생성된 3D 객체들 및 필름 카메라로부터의 비디오 공급을 믹싱 또는 합성하는 방법에 있어서,
상기 필름 카메라의 몸체는 3D 내에서 움직일 수 있고 상기 카메라 내의 또는 상기 카메라에 부착된 센서들은 상기 카메라의 3D 포지션 및 3D 방향을 정의하거나 상기 3D 포지션이 계산될 수 있게 하는 실시간 포지셔닝 데이터를 제공하는, 3D 객체들 및 비디오 공급을 믹싱 또는 합성하는 방법. - TV 방송, 영화, 또는 비디오 게임들을 위한 증강 현실 비디오를 생성하기 위해, 실시간, 컴퓨터 생성된 3D 객체들 및 비디오 카메라와 같은, 필름 카메라로부터의 비디오 공급을 믹싱 또는 합성하기 위한 방법에 있어서,
(a) 상기 필름 카메라의 몸체는 3D 내에서 움직일 수 있고, 상기 필름 카메라 내의 또는 상기 필름 카메라에 직접 또는 간접적으로 부착된 센서들은 상기 필름 카메라의 3D 포지션 및 3D 방향을 정의하거나, 상기 필름 카메라의 상기 3D 포지션 및 3D 방향이 계산되게 할 수 있는 실시간 포지셔닝 데이터를 제공하고,
(b) 상기 실시간 포지셔닝 데이터는 그 후 컴퓨터 생성된 3D 객체들을 생성하거나, 다시 불러내거나, 렌더링하거나, 수정하기 위해 시스템에 의해 자동으로 사용되고,
(c) 결과로 발생한 상기 컴퓨터 생성된 3D 객체들은 그 후, TV 방송, 영화 또는 비디오 게임들에 증강 현실 비디오를 제공하기 위해 상기 필름 카메라로부터 상기 비디오 공급에 믹싱 또는 합성되는, 3D 객체들 및 비디오 공급을 믹싱 또는 합성하기 위한 방법. - 감독(또는 사진 감독)이 카메라 내의 사전-제작 컴퓨터 생성된 3D 자산들, 전형적으로 사전 가시화 또는 시각 효과들의 자산들을 상기 카메라에 의해 캡쳐된 비디오 이미지들 또는 실제 액션 영화 플레이트(live action film plate) 상으로 실시간으로 조작(frame-up)하게 하기 위해 사용된 제 1 항 내지 제 47 항 중 어느 한 항에 따른 방법들 또는 시스템들에 있어서,
상기 감독이 상기 감독에 의해 보여지는 것과 같은 상기 비디오로 자동으로 믹싱되는 상기 컴퓨터 생성된 3D 자산들과 함께 실시간으로 가능한 카메라 각도들 및 움직임들을 조사하게 하는, 방법들 또는 시스템들. - 제 1 항 내지 제 48 항 중 어느 한 항에 있어서,
후반-제작 처리들에 매칭-움직임(match-move) 데이터를 제공하기 위해 실시간 포지셔닝 데이터가 기록되고 시간-코드 스탬핑되는, 방법들 또는 시스템들. - 제 1 항 내지 제 49 항 중 어느 한 항에 있어서,
가상 객체들 또는 이미지들이 방송 비디오 스트림에 삽입될 수 있게 하기 위해 사용된, 방법들 또는 시스템들. - 제 1 항 내지 제 50 항 중 어느 한 항에 있어서,
스튜디오 카메라들에 대한 실시간 추적
스테디캠에 대한 실시간 추적
크레인-장착 카메라들에 대한 실시간 추적
돌리-장착 카메라들에 대한 실시간 추적
스테디캠에 대한 실시간 추적
OB(Oustside Broadcast)에 대한 실시간 추적
2D 후반-제작을 위한 실시간 데이터(예를 들면, 추적 데이터)의 사용
3D 입체 콘텐트에 대한 후반-변환을 위한 실시간 데이터(예를 들면, 추적 데이터)의 사용
원시(native) 3D 입체 콘텐트를 위한 실시간 데이터(예를 들면, 추적 데이터)의 사용
3D 그래픽들 삽입
스튜디오-안 또는 세트-상 간접 광고(on-set product placement)를 위한 3D 그래픽들 삽입
OB를 위한 3D 그래픽들 삽입
다른 후원된 이미지들에 대한 3D 그래픽들 삽입
시청자-위치 특정인 3D 그래픽들 삽입
시청자-특정인 3D 그래픽들 삽입
시간-특정인 3D 그래픽들 삽입
군중 장면들을 채우기 위한 3D 그래픽들 삽입
초록색 화면 대체를 위한 3D 그래픽들 삽입
박물관들에서 및 문화, 역사, 또는 자연 현장들 내의 번역 센터들에서 학습을 돕기 위한 교육 콘텐트의 3D 그래픽들 삽입, 및
장면 내의 객체들의 절대적인 또는 상대적인 크기의 측정 중 하나 이상을 가능하게 하는, 방법 또는 시스템. - 앞서 정의된 바와 같고 증강 현실 이미지들이 스마트폰, 및 증강 현실 안경을 포함하는, 임의의 디스플레이 장치에 의해 디스플레이되게 하기 위해 사용된 제 1 항 내지 제 53 항 중 어느 한 항에 따른 방법들 또는 시스템들에 있어서,
상기 증강 현실 이미지들의 겉모습은 실시간 포지셔닝 데이터에 따라 자동으로 바뀌는, 방법들 또는 시스템들. - 실시간, 컴퓨터 생성된 3D 객체들이 카메라로부터의 비디오 공급과 믹싱되는 필름, 영화, TV 쇼 또는 비디오 게임에 있어서,
상기 카메라의 몸체는 3D 내에서 움직일 수 있고, 상기 카메라 내의 또는 상기 카메라에 부착된 센서들은 상기 카메라의 3D 포지션을 정의하거나 상기 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공하는, 필름, 영화, TV 쇼, 또는 비디오 게임. - 종래의 카메라에 부착되도록 적응된 장면 조사 및 추적 장치에 있어서,
상기 카메라의 몸체는 3D 내에서 움직일 수 있고, 상기 장면 조사 및 추적 장치 내의 하드웨어 센서들은 상기 카메라의 3D 포지션을 정의하거나 상기 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공하는, 장면 조사 및 추적 장치. - 카메라 내의 또는 상기 카메라에 부착된 센서들을 포함하는 핸드-헬드 또는 휴대용 카메라에 있어서,
3D 기준 프레임에 대한 상기 카메라의 3D 포지션 및 3D 방향을 정의하거나 광학 흐름 데이터와 같은, 다른 데이터를 분석하는 시스템의 전체 또는 부분으로서 상기 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공하는, 핸드-헬드 또는 휴대용 카메라. - 입체적 위트니스 카메라 시스템을 포함하거나 상기 입체적 위트니스 카메라 시스템에 부착된 필름 카메라에 있어서,
상기 위트니스 카메라 시스템은 광각(예를 들면, 180도) 입체적 이미지들을 생성하고, 상기 필름 카메라는 상기 카메라 시스템이 전혀 추적/움직여지지 않으면서, 인스턴트 3D 점 클라우드를 생성하도록 소프트웨어가 상기 이미지들을 처리하게 하는, 필름 카메라. - 필름 카메라에 부착되기 위한 카메라 추적 시스템에 있어서,
위트니스 카메라 시스템으로서, 입체적 이미지들을 생성하고, 소프트웨어가 이미지들을 처리하게 하고, 상기 카메라 시스템이 전혀 움직이지 않으면서, 인스턴트 3D 점 클라우드를 생성하게 하고 상기 필름 카메라의 실시간 추적(포지션, 방향, 줌, 초점, 및 조리개)을 제공하게 하는, 상기 위트니스 카메라 시스템을 포함하는, 카메라 추적 시스템. - 증강 현실 안경 내에 또는 상기 증강 현실 안경에 부착된 센서들을 포함하는 상기 증강 현실 안경에 있어서,
3D 기준 프레임에 대한 상기 증강 현실 안경의 3D 포지션 및 3D 방향을 정의하거나, 광학 흐름 데이터와 같은, 다른 데이터를 분석하는 시스템의 전체 또는 부분으로서 상기 3D 포지션이 계산되게 하는 실시간 포지셔닝 데이터를 제공하는, 증강 현실 안경.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1208088.3 | 2012-05-09 | ||
GBGB1208088.3A GB201208088D0 (en) | 2012-05-09 | 2012-05-09 | Ncam |
PCT/GB2013/051205 WO2013167901A1 (en) | 2012-05-09 | 2013-05-09 | A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150013709A true KR20150013709A (ko) | 2015-02-05 |
Family
ID=46396728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147034271A KR20150013709A (ko) | 2012-05-09 | 2013-05-09 | 컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템 |
Country Status (20)
Country | Link |
---|---|
US (4) | US9600936B2 (ko) |
EP (1) | EP2847991B1 (ko) |
JP (1) | JP2015521419A (ko) |
KR (1) | KR20150013709A (ko) |
CN (1) | CN104322052B (ko) |
AU (1) | AU2013257788B2 (ko) |
CA (1) | CA2872797A1 (ko) |
DK (1) | DK2847991T3 (ko) |
ES (1) | ES2951587T3 (ko) |
FI (1) | FI2847991T3 (ko) |
GB (3) | GB201208088D0 (ko) |
HK (1) | HK1206517A1 (ko) |
HR (1) | HRP20230832T1 (ko) |
HU (1) | HUE062417T2 (ko) |
IN (1) | IN2014DN10462A (ko) |
PL (1) | PL2847991T3 (ko) |
PT (1) | PT2847991T (ko) |
RS (1) | RS64401B1 (ko) |
SG (2) | SG11201407093UA (ko) |
WO (1) | WO2013167901A1 (ko) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106846442A (zh) * | 2017-03-06 | 2017-06-13 | 西安电子科技大学 | 基于Unity3D的三维虚拟人群场景生成方法 |
KR20180034387A (ko) * | 2015-06-11 | 2018-04-04 | 데바 엔터테인먼트 리미티드 | 가상 객체와의 상호 작용을 위한 방법 및 장치 |
WO2020130692A1 (ko) * | 2018-12-19 | 2020-06-25 | (주) 애니펜 | 애니메이션 시퀀스를 생성하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
KR102196032B1 (ko) * | 2019-10-21 | 2020-12-29 | 한국과학기술원 | 6 자유도 가상현실을 위한 다중 360 이미지 기반의 자유시점 이미지 합성 방법 및 그 시스템 |
KR20210063442A (ko) * | 2017-01-09 | 2021-06-01 | 스냅 인코포레이티드 | 표면 인식 렌즈 |
KR102453561B1 (ko) * | 2022-07-08 | 2022-10-14 | 이엑스 주식회사 | 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법 |
US11580700B2 (en) | 2016-10-24 | 2023-02-14 | Snap Inc. | Augmented reality object manipulation |
US11620791B2 (en) | 2018-11-27 | 2023-04-04 | Snap Inc. | Rendering 3D captions within real-world environments |
US11715268B2 (en) | 2018-08-30 | 2023-08-01 | Snap Inc. | Video clip object tracking |
US11823341B2 (en) | 2019-06-28 | 2023-11-21 | Snap Inc. | 3D object camera customization system |
US11908093B2 (en) | 2019-12-19 | 2024-02-20 | Snap Inc. | 3D captions with semantic graphical elements |
Families Citing this family (156)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2984057B1 (fr) | 2011-12-13 | 2014-01-03 | Solidanim | Systeme de tournage de film video |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US10075676B2 (en) | 2013-06-26 | 2018-09-11 | Touchcast LLC | Intelligent virtual assistant system and method |
US11405587B1 (en) | 2013-06-26 | 2022-08-02 | Touchcast LLC | System and method for interactive video conferencing |
US10356363B2 (en) | 2013-06-26 | 2019-07-16 | Touchcast LLC | System and method for interactive video conferencing |
US11488363B2 (en) | 2019-03-15 | 2022-11-01 | Touchcast, Inc. | Augmented reality conferencing system and method |
US11659138B1 (en) | 2013-06-26 | 2023-05-23 | Touchcast, Inc. | System and method for interactive video conferencing |
US10297284B2 (en) | 2013-06-26 | 2019-05-21 | Touchcast LLC | Audio/visual synching system and method |
US10523899B2 (en) | 2013-06-26 | 2019-12-31 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
US9852764B2 (en) | 2013-06-26 | 2017-12-26 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
US10757365B2 (en) | 2013-06-26 | 2020-08-25 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
US9787945B2 (en) | 2013-06-26 | 2017-10-10 | Touchcast LLC | System and method for interactive video conferencing |
US10084849B1 (en) | 2013-07-10 | 2018-09-25 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
CN105745915B (zh) * | 2013-09-06 | 2019-02-15 | 索尼公司 | 图像拍摄装置、方法和程序 |
US9479709B2 (en) | 2013-10-10 | 2016-10-25 | Nvidia Corporation | Method and apparatus for long term image exposure with image stabilization on a mobile device |
JP6337907B2 (ja) * | 2013-11-13 | 2018-06-06 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
US9773313B1 (en) * | 2014-01-03 | 2017-09-26 | Google Inc. | Image registration with device data |
KR101678389B1 (ko) * | 2014-02-28 | 2016-11-22 | 엔트릭스 주식회사 | 클라우드 스트리밍 기반의 영상데이터 제공 방법, 이를 위한 장치 및 시스템 |
GB201404990D0 (en) * | 2014-03-20 | 2014-05-07 | Appeartome Ltd | Augmented reality apparatus and method |
WO2015155628A1 (en) * | 2014-04-07 | 2015-10-15 | Eyeways Systems Ltd. | Apparatus and method for image-based positioning, orientation and situational awareness |
US20150289338A1 (en) | 2014-04-08 | 2015-10-08 | Revolution Display, Inc. | Automatic chroma key background generator with incident key lighting |
DE102014006732B4 (de) * | 2014-05-08 | 2016-12-15 | Audi Ag | Bildüberlagerung von virtuellen Objekten in ein Kamerabild |
US10255251B2 (en) | 2014-06-26 | 2019-04-09 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
US20150381972A1 (en) * | 2014-06-30 | 2015-12-31 | Microsoft Corporation | Depth estimation using multi-view stereo and a calibrated projector |
JP6715441B2 (ja) * | 2014-07-28 | 2020-07-01 | パナソニックIpマネジメント株式会社 | 拡張現実表示システム、端末装置および拡張現実表示方法 |
WO2016019146A1 (en) * | 2014-07-30 | 2016-02-04 | Touchcast, Llc | System and method for providing and interacting with coordinated presentations |
US20160061581A1 (en) * | 2014-08-26 | 2016-03-03 | Lusee, Llc | Scale estimating method using smart device |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
DE102014013678B3 (de) * | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
US9609200B2 (en) | 2014-09-24 | 2017-03-28 | Panavision International, L.P. | Distance measurement device for motion picture camera focus applications |
GB2533788A (en) * | 2014-12-30 | 2016-07-06 | Nokia Technologies Oy | Method for determining the position of a portable device |
US10284794B1 (en) | 2015-01-07 | 2019-05-07 | Car360 Inc. | Three-dimensional stabilized 360-degree composite image capture |
US9779512B2 (en) * | 2015-01-29 | 2017-10-03 | Microsoft Technology Licensing, Llc | Automatic generation of virtual materials from real-world materials |
JP6511283B2 (ja) * | 2015-02-12 | 2019-05-15 | 日立オートモティブシステムズ株式会社 | 物体検知装置 |
CN104883514B (zh) * | 2015-05-11 | 2018-11-23 | 北京金山安全软件有限公司 | 一种视频处理方法及装置 |
EP3104330B1 (de) | 2015-06-09 | 2019-02-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zum nachverfolgen zumindest eines objektes und verfahren zum ersetzen zumindest eines objektes durch ein virtuelles objekt in einem von einer kamera aufgenommenen bewegtbildsignal |
US9836895B1 (en) * | 2015-06-19 | 2017-12-05 | Waymo Llc | Simulating virtual objects |
US9721350B2 (en) | 2015-06-26 | 2017-08-01 | Getalert Ltd. | Methods circuits devices systems and associated computer executable code for video feed processing |
US11002856B2 (en) * | 2015-08-07 | 2021-05-11 | King Abdullah University Of Science And Technology | Doppler time-of-flight imaging |
KR101729165B1 (ko) | 2015-09-03 | 2017-04-21 | 주식회사 쓰리디지뷰아시아 | 타임 슬라이스 영상용 오차교정 유닛 |
KR101729164B1 (ko) * | 2015-09-03 | 2017-04-24 | 주식회사 쓰리디지뷰아시아 | 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법 |
US10404962B2 (en) * | 2015-09-24 | 2019-09-03 | Intel Corporation | Drift correction for camera tracking |
JP6723720B2 (ja) * | 2015-10-20 | 2020-07-15 | キヤノン株式会社 | 表示システム、情報処理方法及びプログラム |
DE102015223003A1 (de) * | 2015-11-20 | 2017-05-24 | Bitmanagement Software GmbH | Vorrichtung und Verfahren zur Überlagerung zumindest eines Teils eines Objekts mit einer virtuellen Oberfläche |
KR20170096468A (ko) * | 2016-02-16 | 2017-08-24 | 한국전자통신연구원 | 자동 음장 제어 방법 및 자동 음장 제어 장치 및 상기 자동 음장 제어 장치가 제어하는 출력 장치 |
US9883097B2 (en) * | 2016-06-03 | 2018-01-30 | Google Inc. | Optical flow based auto focus |
US10254546B2 (en) | 2016-06-06 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optically augmenting electromagnetic tracking in mixed reality |
US10249090B2 (en) | 2016-06-09 | 2019-04-02 | Microsoft Technology Licensing, Llc | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking |
NO20161132A1 (en) * | 2016-07-07 | 2017-10-30 | Real Training As | Training system |
US20180046874A1 (en) * | 2016-08-10 | 2018-02-15 | Usens, Inc. | System and method for marker based tracking |
IT201600086859A1 (it) * | 2016-08-24 | 2018-02-24 | Osram Gmbh | Procedimento per controllare sorgenti di illuminazione, sistema e prodotto informatico corrispondenti |
IT201600086875A1 (it) * | 2016-08-24 | 2018-02-24 | Osram Gmbh | Procedimento per controllare sorgenti di illuminazione, sistema e prodotto informatico corrispondenti |
US11450064B2 (en) | 2016-09-06 | 2022-09-20 | Carnegie Mellon University | Gaussian mixture model based approximation of continuous belief distributions |
CN106231292B (zh) * | 2016-09-07 | 2017-08-25 | 深圳超多维科技有限公司 | 一种立体虚拟现实直播方法、装置及设备 |
TWI612795B (zh) | 2016-09-13 | 2018-01-21 | 財團法人工業技術研究院 | 場景掃描方法及系統 |
JP2019534606A (ja) * | 2016-09-19 | 2019-11-28 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | ライトフィールドデータを使用して場面を表す点群を再構築するための方法および装置 |
CN107945198B (zh) * | 2016-10-13 | 2021-02-23 | 北京百度网讯科技有限公司 | 用于标注点云数据的方法和装置 |
DE102016119637A1 (de) * | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | Fernsehübertragungssystem zur Erzeugung angereicherter Bilder |
CN107038758B (zh) * | 2016-10-14 | 2020-07-17 | 北京联合大学 | 一种基于orb算子的增强现实三维注册方法 |
CN106507091A (zh) * | 2016-11-14 | 2017-03-15 | 墨宝股份有限公司 | 一种利用3d动漫拍摄制作真人主题秀影片的方法 |
WO2018089040A1 (en) * | 2016-11-14 | 2018-05-17 | Lightcraft Technology Llc | Spectator virtual reality system |
KR20180075732A (ko) | 2016-12-26 | 2018-07-05 | 엘지디스플레이 주식회사 | 헤드 마운티드 디스플레이 및 그 제어 방법 |
US10373342B1 (en) * | 2017-01-10 | 2019-08-06 | Lucasfilm Entertainment Company Ltd. | Content generation in an immersive environment |
WO2018134947A1 (ja) * | 2017-01-19 | 2018-07-26 | 株式会社ソニー・インタラクティブエンタテインメント | 画像配信装置 |
US10192111B2 (en) | 2017-03-10 | 2019-01-29 | At&T Intellectual Property I, L.P. | Structure from motion for drone videos |
JP6969121B2 (ja) * | 2017-03-17 | 2021-11-24 | 株式会社リコー | 撮像システム、画像処理装置および画像処理プログラム |
CN107330911B (zh) * | 2017-05-08 | 2022-01-11 | 上海交通大学 | 基于相交约束的纯旋转运动判定方法 |
US10339714B2 (en) * | 2017-05-09 | 2019-07-02 | A9.Com, Inc. | Markerless image analysis for augmented reality |
CN110869980B (zh) | 2017-05-18 | 2024-01-09 | 交互数字Vc控股公司 | 将内容分发和呈现为球形视频和3d资产组合 |
JP6812579B2 (ja) * | 2017-06-02 | 2021-01-13 | アップル インコーポレイテッドApple Inc. | 仮想基体として使用するための平面及び/又は四分木を検出するための方法及びデバイス |
US10726570B2 (en) * | 2017-06-28 | 2020-07-28 | Magic Leap, Inc. | Method and system for performing simultaneous localization and mapping using convolutional image transformation |
JP7000050B2 (ja) * | 2017-06-29 | 2022-01-19 | キヤノン株式会社 | 撮像制御装置及びその制御方法 |
CN107463757B (zh) * | 2017-08-22 | 2020-07-28 | 中国有色金属长沙勘察设计研究院有限公司 | 一种基于断面结构与转向角度约束的断面插值方法 |
CN111093907B (zh) * | 2017-08-30 | 2023-07-04 | 高通股份有限公司 | 机器人式运载工具的稳健导航 |
US10257436B1 (en) * | 2017-10-11 | 2019-04-09 | Adobe Systems Incorporated | Method for using deep learning for facilitating real-time view switching and video editing on computing devices |
US10497122B2 (en) | 2017-10-11 | 2019-12-03 | Adobe Inc. | Image crop suggestion and evaluation using deep-learning |
US10516830B2 (en) | 2017-10-11 | 2019-12-24 | Adobe Inc. | Guided image composition on mobile devices |
CN110249626B (zh) * | 2017-10-26 | 2020-07-31 | 腾讯科技(深圳)有限公司 | 增强现实图像的实现方法、装置、终端设备和存储介质 |
US11146775B2 (en) * | 2017-11-07 | 2021-10-12 | Symbol Technologies, Llc | Methods and apparatus for dimensioning an object using proximate devices |
US10643320B2 (en) | 2017-11-15 | 2020-05-05 | Toyota Research Institute, Inc. | Adversarial learning of photorealistic post-processing of simulation with privileged information |
US10528684B1 (en) * | 2017-12-04 | 2020-01-07 | Synopsys, Inc. | TCAD design template for fast prototyping of 2D and 3D CMOS image sensors |
CN108257206B (zh) * | 2017-12-06 | 2021-04-13 | 石化盈科信息技术有限责任公司 | 信息展板展示方法和装置 |
CN109931923B (zh) * | 2017-12-15 | 2023-07-07 | 阿里巴巴集团控股有限公司 | 一种导航引导图的生成方法和装置 |
WO2019123509A1 (ja) | 2017-12-18 | 2019-06-27 | ガンホー・オンライン・エンターテイメント株式会社 | 端末装置、システム、プログラム及び方法 |
KR102166372B1 (ko) * | 2017-12-20 | 2020-10-15 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
US10510145B2 (en) * | 2017-12-27 | 2019-12-17 | Industrial Technology Research Institute | Medical image comparison method and system thereof |
CN108419090A (zh) * | 2017-12-27 | 2018-08-17 | 广东鸿威国际会展集团有限公司 | 三维直播流展示系统和方法 |
CN108289220B (zh) * | 2018-01-15 | 2020-11-27 | 深圳市奥拓电子股份有限公司 | 虚拟图像处理方法、图像处理系统及存储介质 |
CN108280882B (zh) * | 2018-01-24 | 2021-12-31 | 北京德火新媒体技术有限公司 | 一种在虚拟显示空间植入ar前景物品位置的方法及系统 |
CA3031276A1 (en) | 2018-02-08 | 2019-08-08 | Ascension Technology Corporation | Compensating for distortion in an electromagnetic tracking system |
CN108447116A (zh) * | 2018-02-13 | 2018-08-24 | 中国传媒大学 | 基于视觉slam的三维场景重建方法和装置 |
CN108540731A (zh) * | 2018-04-17 | 2018-09-14 | 北京艾沃次世代文化传媒有限公司 | 实拍摄影机与虚拟场景实时同步显示方法 |
CN108259780A (zh) * | 2018-04-17 | 2018-07-06 | 北京艾沃次世代文化传媒有限公司 | 用于虚拟片场抗干扰特效视频同步显示方法 |
CN108551557B (zh) * | 2018-04-20 | 2022-02-08 | 北京艾沃次世代文化传媒有限公司 | 后期前置数字虚拟片场系统 |
KR102567947B1 (ko) * | 2018-05-03 | 2023-08-17 | 한국전자통신연구원 | G-code를 이용한 3D 프린팅 관리 방법 및 장치 |
US10818093B2 (en) | 2018-05-25 | 2020-10-27 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US10984600B2 (en) | 2018-05-25 | 2021-04-20 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US10475248B1 (en) | 2018-06-08 | 2019-11-12 | Microsoft Technology Licensing, Llc | Real-time compositing in mixed reality |
CN110148178B (zh) * | 2018-06-19 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 相机定位方法、装置、终端及存储介质 |
CN108921791A (zh) * | 2018-07-03 | 2018-11-30 | 苏州中科启慧软件技术有限公司 | 基于自适应重要性学习的轻量级图像超分辨率改进方法 |
US10580218B1 (en) * | 2018-07-12 | 2020-03-03 | Facebook, Inc. | Augmented-reality image processing |
CN109064536B (zh) * | 2018-07-27 | 2022-12-06 | 电子科技大学 | 一种基于双目结构光的书页三维重建方法 |
US11212506B2 (en) * | 2018-07-31 | 2021-12-28 | Intel Corporation | Reduced rendering of six-degree of freedom video |
US10887574B2 (en) | 2018-07-31 | 2021-01-05 | Intel Corporation | Selective packing of patches for immersive video |
US11178373B2 (en) | 2018-07-31 | 2021-11-16 | Intel Corporation | Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments |
US10762394B2 (en) | 2018-07-31 | 2020-09-01 | Intel Corporation | System and method for 3D blob classification and transmission |
US10893299B2 (en) | 2018-07-31 | 2021-01-12 | Intel Corporation | Surface normal vector processing mechanism |
CN109089100B (zh) * | 2018-08-13 | 2020-10-23 | 西安理工大学 | 一种双目立体视频的合成方法 |
CN109168034B (zh) * | 2018-08-28 | 2020-04-28 | 百度在线网络技术(北京)有限公司 | 商品信息显示方法、装置、电子设备和可读存储介质 |
DE102019127349A1 (de) | 2018-10-10 | 2020-04-16 | Intel Corporation | Punktwolkencodierungsstandard-konformitätsdefintion in computerumgebungen |
US11057631B2 (en) | 2018-10-10 | 2021-07-06 | Intel Corporation | Point cloud coding standard conformance definition in computing environments |
CN109509261B (zh) * | 2018-11-26 | 2023-07-25 | 端美科技(中山)有限公司 | 一种增强现实的方法、装置及计算机存储介质 |
US11092966B2 (en) * | 2018-12-14 | 2021-08-17 | The Boeing Company | Building an artificial-intelligence system for an autonomous vehicle |
WO2020131037A1 (en) * | 2018-12-18 | 2020-06-25 | Rovi Guides, Inc. | Systems and methods for automated tracking on a handheld device using a remote camera |
US20200210676A1 (en) | 2018-12-27 | 2020-07-02 | Simplex Mapping Solutions Sb Ltd. | Compact interval sweeping imaging system and method |
CN113196337B (zh) * | 2019-01-09 | 2023-08-29 | 株式会社富士 | 图像处理装置、作业机器人、基板检查装置及检体检查装置 |
CN109816764B (zh) * | 2019-02-02 | 2021-06-25 | 深圳市商汤科技有限公司 | 图像生成方法及装置、电子设备和存储介质 |
GB2581792B (en) * | 2019-02-25 | 2023-01-04 | Mo Sys Engineering Ltd | Lens calibration system |
CN109859256B (zh) * | 2019-03-13 | 2023-03-31 | 大连理工大学 | 一种基于自动对应点匹配的三维点云配准方法 |
US11212514B2 (en) * | 2019-03-25 | 2021-12-28 | Light Field Lab, Inc. | Light field display system for cinemas |
CN109842811B (zh) * | 2019-04-03 | 2021-01-19 | 腾讯科技(深圳)有限公司 | 一种在视频中植入推送信息的方法、装置及电子设备 |
US11601603B2 (en) * | 2019-04-24 | 2023-03-07 | Matthew Walker | System and method for real-time camera tracking to form a composite image |
CN110123453B (zh) * | 2019-05-31 | 2021-07-23 | 东北大学 | 一种基于无标记增强现实的手术导航系统 |
CN110446020A (zh) * | 2019-08-03 | 2019-11-12 | 魏越 | 沉浸式堪景方法、装置、存储介质及设备 |
GB2586831A (en) * | 2019-09-05 | 2021-03-10 | Wolf In Motion Ltd | Three-Dimensional Content Generation using real-time video compositing |
WO2021086328A1 (en) * | 2019-10-29 | 2021-05-06 | Abb Schweiz Ag | System and method for robotic calibration and tuning |
CN111222401B (zh) * | 2019-11-14 | 2023-08-22 | 北京华捷艾米科技有限公司 | 一种手部关键点三维坐标的识别方法及装置 |
CN110931121A (zh) * | 2019-11-29 | 2020-03-27 | 重庆邮电大学 | 一种基于Hololens的远程手术指导装置及操作方法 |
CN111008305B (zh) * | 2019-11-29 | 2023-06-23 | 百度在线网络技术(北京)有限公司 | 一种视觉搜索方法、装置以及电子设备 |
US12106427B2 (en) | 2019-12-13 | 2024-10-01 | Sony Group Corporation | Rendering back plates |
AU2020404610A1 (en) * | 2019-12-20 | 2022-08-18 | Niantic, Inc. | Location determination and mapping with 3D line junctions |
CN111080629B (zh) * | 2019-12-20 | 2021-10-22 | 河北工业大学 | 一种图像拼接篡改的检测方法 |
US11748844B2 (en) | 2020-01-08 | 2023-09-05 | Carvana, LLC | Systems and methods for generating a virtual display of an item |
US11957974B2 (en) | 2020-02-10 | 2024-04-16 | Intel Corporation | System architecture for cloud gaming |
EP4107605A1 (en) * | 2020-02-20 | 2022-12-28 | Arti D2 Ltd. | Apparatus and methods for publishing video content |
CN111461981B (zh) * | 2020-03-30 | 2023-09-01 | 北京百度网讯科技有限公司 | 点云拼接算法的误差估计方法和装置 |
IL275163B (en) * | 2020-06-04 | 2022-07-01 | Elbit Systems Ltd | System and method for displaying scene information |
US11043041B1 (en) * | 2020-07-10 | 2021-06-22 | Mindshow Inc. | Systems and methods configured to facilitate animation |
US11514674B2 (en) * | 2020-09-04 | 2022-11-29 | Zillow, Inc. | Automated analysis of image contents to determine the acquisition location of the image |
CN112367514B (zh) * | 2020-10-30 | 2022-12-09 | 京东方科技集团股份有限公司 | 三维场景构建方法、装置、系统和存储介质 |
CN112767412B (zh) * | 2020-12-31 | 2024-04-12 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆部件级分割方法、装置以及电子设备 |
KR20230174237A (ko) * | 2021-04-21 | 2023-12-27 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
US11762481B2 (en) * | 2021-04-23 | 2023-09-19 | Lucasfilm Entertainment Company Ltd. | Light capture device |
US11978154B2 (en) | 2021-04-23 | 2024-05-07 | Lucasfilm Entertainment Company Ltd. | System and techniques for lighting adjustment for an immersive content production system |
US11887251B2 (en) | 2021-04-23 | 2024-01-30 | Lucasfilm Entertainment Company Ltd. | System and techniques for patch color correction for an immersive content production system |
CN113286163B (zh) * | 2021-05-21 | 2022-07-08 | 成都威爱新经济技术研究院有限公司 | 一种用于虚拟拍摄直播的时间戳误差标定方法及系统 |
CN113240782B (zh) * | 2021-05-26 | 2024-03-22 | 完美世界(北京)软件科技发展有限公司 | 基于虚拟角色的流媒体生成方法及装置 |
EP4348375A4 (en) * | 2021-06-03 | 2024-04-10 | Elbit Systems Ltd. | SYSTEM AND METHOD FOR PROVIDING SCENE INFORMATION |
TWI771086B (zh) * | 2021-06-29 | 2022-07-11 | 新加坡商鴻運科股份有限公司 | 一種擴增實境環境中物件的展示方法與系統 |
CN115543065A (zh) | 2021-06-29 | 2022-12-30 | 富联国基(上海)电子有限公司 | 一种扩增实境环境中物件的展示方法与系统 |
CN113345022B (zh) * | 2021-07-05 | 2023-02-17 | 湖南快乐阳光互动娱乐传媒有限公司 | 动态三维广告植入方法、装置、电子设备及存储介质 |
CN113627983A (zh) * | 2021-08-10 | 2021-11-09 | 广州六六网络科技有限公司 | 一种基于视频创意的网络广告推广方法及系统 |
US20230230152A1 (en) * | 2022-01-14 | 2023-07-20 | Shopify Inc. | Systems and methods for generating customized augmented reality video |
US11948257B2 (en) * | 2022-05-09 | 2024-04-02 | Rovi Guides, Inc. | Systems and methods for augmented reality video generation |
EP4369700A1 (en) * | 2022-11-08 | 2024-05-15 | Hexagon Geosystems Services AG | Method and system for tracking camera poses |
WO2024190223A1 (en) * | 2023-03-15 | 2024-09-19 | Sony Group Corporation | Cinema camera tracking using an ir tracking camera and calibration for virtual production |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0497376B1 (en) * | 1991-02-01 | 1998-04-22 | Canon Kabushiki Kaisha | Converter for interchangeable lens type camera apparatus |
US5991085A (en) * | 1995-04-21 | 1999-11-23 | I-O Display Systems Llc | Head-mounted personal visual display apparatus with image generator and holder |
US6373489B1 (en) * | 1999-01-12 | 2002-04-16 | Schlumberger Technology Corporation | Scalable visualization for interactive geometry modeling |
JP2000222116A (ja) | 1999-01-29 | 2000-08-11 | Sony Corp | 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置 |
WO2000060571A1 (en) * | 1999-04-02 | 2000-10-12 | Massachusetts Institute Of Technology | Haptic interface system for collision detection and applications therefore |
US6563105B2 (en) * | 1999-06-08 | 2003-05-13 | University Of Washington | Image acquisition with depth enhancement |
DE10044032A1 (de) * | 2000-09-06 | 2002-03-14 | Deutsche Telekom Ag | 3-D Sehen |
JP4878083B2 (ja) * | 2001-03-13 | 2012-02-15 | キヤノン株式会社 | 画像合成装置及び方法、プログラム |
US20030076981A1 (en) * | 2001-10-18 | 2003-04-24 | Smith Gregory Hugh | Method for operating a pre-crash sensing system in a vehicle having a counter-measure system |
JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
US20030202120A1 (en) * | 2002-04-05 | 2003-10-30 | Mack Newton Eliot | Virtual lighting system |
US7138963B2 (en) * | 2002-07-18 | 2006-11-21 | Metamersion, Llc | Method for automatically tracking objects in augmented reality |
US7002551B2 (en) * | 2002-09-25 | 2006-02-21 | Hrl Laboratories, Llc | Optical see-through augmented reality modified-scale display |
JP4235522B2 (ja) * | 2003-09-25 | 2009-03-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US7391424B2 (en) | 2003-08-15 | 2008-06-24 | Werner Gerhard Lonsing | Method and apparatus for producing composite images which contain virtual objects |
JP4401727B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
JP4227561B2 (ja) * | 2004-06-03 | 2009-02-18 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
JP2006003263A (ja) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
US7671893B2 (en) * | 2004-07-27 | 2010-03-02 | Microsoft Corp. | System and method for interactive multi-view video |
US20060244831A1 (en) * | 2005-04-28 | 2006-11-02 | Kraft Clifford H | System and method for supplying and receiving a custom image |
US7912257B2 (en) * | 2006-01-20 | 2011-03-22 | 3M Innovative Properties Company | Real time display of acquired 3D dental data |
US20070248283A1 (en) * | 2006-04-21 | 2007-10-25 | Mack Newton E | Method and apparatus for a wide area virtual scene preview system |
JP4810295B2 (ja) * | 2006-05-02 | 2011-11-09 | キヤノン株式会社 | 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体 |
US7558771B2 (en) * | 2006-06-07 | 2009-07-07 | Gm Global Technology Operations, Inc. | System and method for selection of prediction tools |
US20080158345A1 (en) * | 2006-09-11 | 2008-07-03 | 3Ality Digital Systems, Llc | 3d augmentation of traditional photography |
JP2008219788A (ja) | 2007-03-07 | 2008-09-18 | Toshiba Corp | 立体画像表示装置、方法およびプログラム |
US8274530B2 (en) * | 2007-03-12 | 2012-09-25 | Conversion Works, Inc. | Systems and methods for filling occluded information for 2-D to 3-D conversion |
JP4689639B2 (ja) * | 2007-04-25 | 2011-05-25 | キヤノン株式会社 | 画像処理システム |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
JP2009139995A (ja) * | 2007-12-03 | 2009-06-25 | National Institute Of Information & Communication Technology | ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム |
CN101464999B (zh) * | 2007-12-19 | 2011-01-05 | 鸿富锦精密工业(深圳)有限公司 | 三维色阶比对系统及方法 |
GB2456802A (en) * | 2008-01-24 | 2009-07-29 | Areograph Ltd | Image capture and motion picture generation using both motion camera and scene scanning imaging systems |
US8401276B1 (en) * | 2008-05-20 | 2013-03-19 | University Of Southern California | 3-D reconstruction and registration |
EP2297705B1 (fr) * | 2008-06-30 | 2012-08-15 | Thomson Licensing | Procede de composition temps reel d'une video |
US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
US8654251B2 (en) * | 2008-09-11 | 2014-02-18 | University Of Malta | Method and apparatus for generating and transmitting synchronized video data |
JP5328810B2 (ja) * | 2008-12-25 | 2013-10-30 | パナソニック株式会社 | 情報表示装置および情報表示方法 |
EP2382791B1 (en) * | 2009-01-27 | 2014-12-17 | Telefonaktiebolaget L M Ericsson (PUBL) | Depth and video co-processing |
US20100208033A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
US8494225B2 (en) * | 2010-02-19 | 2013-07-23 | Julian L. Center | Navigation method and aparatus |
US20110214082A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20110222757A1 (en) * | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
KR101335391B1 (ko) * | 2010-04-12 | 2013-12-03 | 한국전자통신연구원 | 영상 합성 장치 및 그 방법 |
US8553989B1 (en) * | 2010-04-27 | 2013-10-08 | Hrl Laboratories, Llc | Three-dimensional (3D) object recognition system using region of interest geometric features |
US9699438B2 (en) | 2010-07-02 | 2017-07-04 | Disney Enterprises, Inc. | 3D graphic insertion for live action stereoscopic video |
JP5110138B2 (ja) | 2010-09-22 | 2012-12-26 | カシオ計算機株式会社 | Ar処理装置、ar処理方法及びプログラム |
US8600194B2 (en) * | 2011-05-17 | 2013-12-03 | Apple Inc. | Positional sensor-assisted image registration for panoramic photography |
US9325960B2 (en) * | 2011-11-07 | 2016-04-26 | Autodesk, Inc. | Maintenance of three dimensional stereoscopic effect through compensation for parallax setting |
US20130145434A1 (en) | 2011-12-06 | 2013-06-06 | William Wells | Unattended Authentication in a Secondary Authentication Service for Wireless Carriers |
FR2984057B1 (fr) * | 2011-12-13 | 2014-01-03 | Solidanim | Systeme de tournage de film video |
US9529426B2 (en) * | 2012-02-08 | 2016-12-27 | Microsoft Technology Licensing, Llc | Head pose tracking using a depth camera |
US20130215229A1 (en) * | 2012-02-16 | 2013-08-22 | Crytek Gmbh | Real-time compositing of live recording-based and computer graphics-based media streams |
US8633970B1 (en) * | 2012-08-30 | 2014-01-21 | Google Inc. | Augmented reality with earth data |
-
2012
- 2012-05-09 GB GBGB1208088.3A patent/GB201208088D0/en not_active Ceased
-
2013
- 2013-05-09 ES ES13726815T patent/ES2951587T3/es active Active
- 2013-05-09 US US14/399,632 patent/US9600936B2/en active Active
- 2013-05-09 FI FIEP13726815.7T patent/FI2847991T3/fi active
- 2013-05-09 SG SG11201407093UA patent/SG11201407093UA/en unknown
- 2013-05-09 GB GB1308377.9A patent/GB2503563B/en active Active
- 2013-05-09 SG SG10201600233SA patent/SG10201600233SA/en unknown
- 2013-05-09 GB GB1521863.9A patent/GB2535596B/en active Active
- 2013-05-09 PL PL13726815.7T patent/PL2847991T3/pl unknown
- 2013-05-09 PT PT137268157T patent/PT2847991T/pt unknown
- 2013-05-09 RS RS20230594A patent/RS64401B1/sr unknown
- 2013-05-09 EP EP13726815.7A patent/EP2847991B1/en active Active
- 2013-05-09 CA CA2872797A patent/CA2872797A1/en not_active Abandoned
- 2013-05-09 KR KR1020147034271A patent/KR20150013709A/ko not_active Application Discontinuation
- 2013-05-09 WO PCT/GB2013/051205 patent/WO2013167901A1/en active Application Filing
- 2013-05-09 IN IN10462DEN2014 patent/IN2014DN10462A/en unknown
- 2013-05-09 HR HRP20230832TT patent/HRP20230832T1/hr unknown
- 2013-05-09 JP JP2015510876A patent/JP2015521419A/ja active Pending
- 2013-05-09 AU AU2013257788A patent/AU2013257788B2/en active Active
- 2013-05-09 HU HUE13726815A patent/HUE062417T2/hu unknown
- 2013-05-09 DK DK13726815.7T patent/DK2847991T3/da active
- 2013-05-09 CN CN201380024596.2A patent/CN104322052B/zh active Active
-
2015
- 2015-07-21 HK HK15106965.1A patent/HK1206517A1/xx unknown
- 2015-08-19 US US14/830,494 patent/US11182960B2/en active Active
-
2021
- 2021-11-22 US US17/532,066 patent/US11721076B2/en active Active
-
2023
- 2023-08-07 US US18/230,721 patent/US20230386148A1/en active Pending
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180034387A (ko) * | 2015-06-11 | 2018-04-04 | 데바 엔터테인먼트 리미티드 | 가상 객체와의 상호 작용을 위한 방법 및 장치 |
US11580700B2 (en) | 2016-10-24 | 2023-02-14 | Snap Inc. | Augmented reality object manipulation |
US11704878B2 (en) | 2017-01-09 | 2023-07-18 | Snap Inc. | Surface aware lens |
KR20210063442A (ko) * | 2017-01-09 | 2021-06-01 | 스냅 인코포레이티드 | 표면 인식 렌즈 |
KR20220028169A (ko) * | 2017-01-09 | 2022-03-08 | 스냅 인코포레이티드 | 표면 인식 렌즈 |
KR20230006040A (ko) * | 2017-01-09 | 2023-01-10 | 스냅 인코포레이티드 | 표면 인식 렌즈 |
CN106846442B (zh) * | 2017-03-06 | 2019-07-02 | 西安电子科技大学 | 基于Unity3D的三维虚拟人群场景生成方法 |
CN106846442A (zh) * | 2017-03-06 | 2017-06-13 | 西安电子科技大学 | 基于Unity3D的三维虚拟人群场景生成方法 |
US11715268B2 (en) | 2018-08-30 | 2023-08-01 | Snap Inc. | Video clip object tracking |
US11620791B2 (en) | 2018-11-27 | 2023-04-04 | Snap Inc. | Rendering 3D captions within real-world environments |
US12020377B2 (en) | 2018-11-27 | 2024-06-25 | Snap Inc. | Textured mesh building |
US12106441B2 (en) | 2018-11-27 | 2024-10-01 | Snap Inc. | Rendering 3D captions within real-world environments |
US11645802B2 (en) | 2018-12-19 | 2023-05-09 | Anipen Co., Ltd. | Method, system, and non-transitory computer-readable recording medium for generating animation sequence |
WO2020130692A1 (ko) * | 2018-12-19 | 2020-06-25 | (주) 애니펜 | 애니메이션 시퀀스를 생성하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
US11823341B2 (en) | 2019-06-28 | 2023-11-21 | Snap Inc. | 3D object camera customization system |
KR102196032B1 (ko) * | 2019-10-21 | 2020-12-29 | 한국과학기술원 | 6 자유도 가상현실을 위한 다중 360 이미지 기반의 자유시점 이미지 합성 방법 및 그 시스템 |
US11908093B2 (en) | 2019-12-19 | 2024-02-20 | Snap Inc. | 3D captions with semantic graphical elements |
KR102453561B1 (ko) * | 2022-07-08 | 2022-10-14 | 이엑스 주식회사 | 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법 |
KR102549811B1 (ko) * | 2022-07-08 | 2023-06-30 | 이엑스 주식회사 | 복수의 스테레오 카메라 장치를 활용한 포지셔닝 정보에 대한 보정 방법, 컴퓨터 프로그램 |
KR20240007591A (ko) * | 2022-07-08 | 2024-01-16 | 이엑스 주식회사 | 6 dof와 slam 기반의 복수의 스테레오 카메라 장치의 포지셔닝 정보 추정 방법, 장치 및 프로그램 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230386148A1 (en) | System for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera | |
US20220020210A1 (en) | System and methodfor virtual modeling of indoor scenes from imagery | |
Wagner et al. | Real-time panoramic mapping and tracking on mobile phones | |
Klein | Visual tracking for augmented reality | |
US20120300020A1 (en) | Real-time self-localization from panoramic images | |
US20200334842A1 (en) | Methods, devices and computer program products for global bundle adjustment of 3d images | |
WO2004042662A1 (en) | Augmented virtual environments | |
Oskiper et al. | Augmented reality binoculars | |
Yu et al. | A tracking solution for mobile augmented reality based on sensor-aided marker-less tracking and panoramic mapping | |
Simon | Tracking-by-synthesis using point features and pyramidal blurring | |
Baker et al. | Splat: Spherical localization and tracking in large spaces | |
Chandaria et al. | The MATRIS project: real-time markerless camera tracking for augmented reality and broadcast applications | |
Kaur et al. | Computer vision and sensor fusion for efficient hybrid tracking in augmented reality systems | |
Caarls | Pose estimation for mobile devices and augmented reality | |
Azzari et al. | Markerless augmented reality using image mosaics | |
EP1796048A2 (en) | Augmented virtual environments | |
Wang | Hybrid panoramic visual SLAM and point cloud color mapping | |
BR112014027853B1 (pt) | Sistema e método sem marcadores para mixagem ou composição em tempo real de objetos 3d gerados em computador e um sinal de vídeo de uma câmera de vídeo | |
Simões | Augmented reality applied to the industry | |
Van Wyk | Markerless augmented reality on ubiquitous mobile devices with integrated sensors | |
Bingham | An Interest Point Based Illumination Condition Matching Approach to Photometric Registration Within Augmented Reality Worlds | |
Lieberknecht | Contributions to Real-time Visual Tracking and Live Environment Modeling for Augmented Reality Applications: Design and Implementation of New Methods and Evaluations on Real Image-based Ground Truth Data | |
Ventura | Wide-Area Visual Modeling and Tracking for Mobile Augmented Reality | |
Habbecke | Interactive image-based 3D reconstruction techniques for application scenarios at different scales | |
Rachmielowski | Concurrent acquisition, reconstruction, and visualization with monocular video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |