KR20130054181A - 시준화 입체표시시스템 - Google Patents
시준화 입체표시시스템 Download PDFInfo
- Publication number
- KR20130054181A KR20130054181A KR20120128527A KR20120128527A KR20130054181A KR 20130054181 A KR20130054181 A KR 20130054181A KR 20120128527 A KR20120128527 A KR 20120128527A KR 20120128527 A KR20120128527 A KR 20120128527A KR 20130054181 A KR20130054181 A KR 20130054181A
- Authority
- KR
- South Korea
- Prior art keywords
- stereoscopic image
- eye images
- images
- image
- stereoscopic
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/30—Collimators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/23—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/25—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/02—Simulators for teaching or training purposes for teaching control of vehicles or other craft
- G09B9/08—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
- G09B9/30—Simulation of view from aircraft
- G09B9/32—Simulation of view from aircraft by projected image
- G09B9/326—Simulation of view from aircraft by projected image the image being transformed by optical means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/341—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/371—Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
시준화 입체표시시스템이 제공된다. 본 시스템은: 좌안영상들 및 우안영상들을 포함하는 입체영상스트림을 제공하는 영상생성기; 영상생성기로부터 입체영상스트림을 수신하고, 좌안영상들 및 우안영상들로 각각 여과되어 시청기구를 통하여 시청될 때 입체영상의 3차원 렌더링이 제공되도록 시청기구에서 시청되는 입체영상에 광을 형성시키는 최소한 하나의 영상변조기; 및, 최소한 하나의 영상변조기로부터 광을 수신하여 입체영상이 시청기구에 수신될 때 광선들이 실질적으로 평행하도록 시준하는 시준기구로 구성된다.
Description
포괄적으로 본 발명은 3차원 디스플레이, 및 특히 시준화 입체표시시스템에 관한 것이다.
일반적으로 3차원적 표시는 입체시(stereopsis)의 정확한 표현, 폭주 (vergence) 및 조절 (accommodation) 간의 충돌 현상으로 인하여 일부 시청자들에게 시각 피로를 유발시키는 문제가 있다. 예를들면, 일반적으로 3D 디스플레이에서 시청자는 초점에 맺히는 화면에 언제나 집중하여야 하지만, 조절에 의한 깊이단서는 폭주에 의한 깊이단서와 일치하지 않는다.
예를들면, 초점 면은 화면에 유지되므로, 시청자의 눈은 스크린 면과는 다른 공간 위치에 시차가 부여하는 입체적 피사체로 수렴된다. 화면이 시청자로부터 10 피트 떨어져 있다고 가정한다. 시청자 눈은 화면에 집중되지만, 피사체는 시청자로부터 15 피트 떨어져 입체적으로 연출된다. 피사체는 이후 시청자로부터 15 피트 떨어진 위치에서 시청자로부터 7 피트 떨어진 거리로 이동한다. 이 과정에서 눈은 10 피트 떨어진 고정된 화면에 조절/집중된다.
인간의 뇌는 학습반응, 또는 조절/집중에 대한 근육 수준을 기대할 수 있는 능력을 가진다. 따라서 통상 폭주 및 집중 시스템은 연동된다. 평면 디스플레이의 입체 방식에서 시청자는 측정 거리를 학습하는 이러한 연동 관계를 분리하도록 요구된다. 이러한 분리 현상으로 시간이 경과할수록 피로 및 스트레스가 유발된다.
본 발명의 일 양태는 시스템을 제공하며, 시스템은: 좌안영상들 및 우안영상들을 포함하는 입체영상스트림을 제공하는 영상생성기; 영상생성기로부터 입체영상스트림을 수신하고, 좌안영상들 및 우안영상들로 각각 여과되어 시청기구를 통하여 시청될 때 입체영상의 3차원 렌더링이 제공되도록 시청기구에서 시청되는 입체영상에 광을 형성시키는 최소한 하나의 영상변조기; 및, 최소한 하나의 영상변조기로부터 광을 수신하여 입체영상이 시청기구에 수신될 때 광선들이 실질적으로 평행하도록 시준하는 시준기구로 구성된다.
본 시스템은: 최소한 하나의 영상변조기를 포함하고 입체영상을 투사하는 최소한 하나의 영사기; 입체영상이 투사되는 최소한 하나의 스크린; 및 최소한 하나의 스크린으로부터의 입체영상을 시준되도록 반사하는 최소한 하나의 시준 거울을 더욱 포함하고, 시준기구는 최소한 하나의 스크린 및 최소한 하나의 시준 거울을 포함한다. 최소한 하나의 시준 거울은 구면 및 포물면 중 하나이고, 최소한 하나의 스크린은 최소한 하나의 시준 거울의 상보적 형태이다.
시준기구는 입체영상이 제공되는 최소한 하나의 스크린; 및 최소한 하나의 스크린으로부터의 입체영상이 시준되도록 반사하는 최소한 하나의 시준 거울로 구성된다.
본 시스템은: 최소한 하나의 영상변조기가 입체영상에 광을 형성하기 전에 입체영상을 신축 (warping); 시준기구에 대한 시청기구의 변경 위치에 기반한 신축을 반복; 좌안영상들 및 우안영상들 사이 양안 거리 변경; 및 입체영상스트림으로의2차원 영상들 삽입 중 최소한 하나를 위한 연산장치를 더욱 포함한다.
본 시스템은 입체영상이 실감나도록 몰입 환경을 더욱 포함한다. 몰입 환경은 하나 이상의 모의 환경, 및 모의 비행장치, 및 모의 운전장치로 구성된다. 몰입 환경은 하나 이상의 가시화 환경, 현미경 가시화 환경, 의료 영상 가시화 환경, 및 오일 및 가스 가시화 환경, 및 지진 가시화 환경을 포함한다. 몰입 환경은 훈련 환경을 포함할 수 있다.
본 시스템은: 시청기구 위치 획득이 가능한 머리 추적 기구; 및 시청기구의 하나 이상의 위치 및 방향에 기반하여 시청되는 입체영상을 조정하는 처리기를 더욱 포함한다. 입체영상은 시청 곡면에 투사되고 처리기는 곡면 기하공간에 기반하여 입체영상을 조절할 수 있다. 본 시스템은 기하공간 표시 데이터 저장 메모리를 더욱 포함한다. 처리기는: 평면 스크린에 제공될 때의 입체영상으로 구성되는 표시 영상들을 결정; 곡면 기하공간 및 시청기구 위치 표시 데이터에 기반하여 평면 스크린 왜곡을 결정; 및 입체영상이 곡면에 투사될 때 왜곡되지 않게 보이도록 왜곡에 기반하여 영상들을 조정하여, 곡면 기하공간에 기반하여 입체영상을 조정할 수 있다. 시청기구 위치 변경이 결정될 때마다 입체영상 조정은 반복된다. 시준기구는 시준 거울을 포함하며 시준 거울은 반사광이 시준되도록 곡면으로부터의 광을 반사할 수 있다.
본 시스템은: 좌안영상들 및 우안영상들의 양안 거리 변경에 따라 입체영상을 조정할 수 있는 처리기를 더욱 포함한다. 양안 거리는 입체영상 시청자 및 입체영상에서의 최소한 하나의 부여 특징부 (given feature) 사이의 가상 거리에 기반하여 가변된다. 양안거리는 좌안영상들 및 우안영상들이 초입체 (hyperstereo)로 제공되도록 가변된다. 가상 거리가 제1 부여 한계값 이상 및 제2 부여 한계값 이하 중 하나 이상인 경우 좌안영상들 및 우안영상들은 초입체로 제공된다.
본 시스템은: 입체영상 시청자 및 입체영상에서의 최소한 하나의 부여 특징부 (given feature) 사이의 가상 거리에 기반하여 2차원 영상들을 입체영상스트림에 삽입할 수 있는 처리기를 더욱 포함한다. 처리기는 좌안영상들 및 우안영상들 중 하나를 우안영상들 및 좌안영상들 중 다른 하나로 대체함으로써 2차원 영상들을 입체영상스트림에 삽입할 수 있다. 처리기는 가상 거리가 제1 부여 한계값 이상 및 제2 부여 한계값 이하 중 하나 이상인 경우 2차원 영상들을 입체영상스트림에 삽입할 수 있다.
본원에 기술되는 다양한 구현들을 더욱 양호하게 이해하고 이에 따른 효과를 보이기 위하여 단지 예시적 방식으로 첨부 도면을 참조한다:
도 1은 비-제한적 구현예들에 따른 시준화 입체표시시스템을 도시한 것이다.
도 2는 비-제한적 구현예들에 따라 작동중인 도 1의 시스템을 도시한 것이다.
도 3 내지 5는 비-제한적 구현예들 에 따라 스크린에 투사된 입체영상들의 가상 피사체에 집중할 때 사람 눈의 폭주 거동을 도시한 것이다.
도 6 내지 8은 비-제한적 구현예들에 따라 스크린에 투사된 입체영상들의 가상 피사체에 집중할 때 사람 눈의 조절 거동을 도시한 것이다.
도 9 내지 10은 비-제한적 구현예들에 따른 시준화 입체표시시스템을 도시한 것이다.
도 11은 비-제한적 구현예들에 따른 머리 위치 추적이 가능한 시준화 입체표시시스템을 도시한 것이다.
도 12는 비-제한적 구현예들에 따라 작동중인 도 11 의 시스템을 도시한 것이다.
도 13은 비-제한적 구현예들에 따라 시청기구 위치가 변경될 때 도 11의 시스템에서 입체영상을 조정하는 방법을 도시한 것이다.
도 14는 비-제한적 구현예들에 따른 양안 거리 변동이 있는 시준화 입체표시시스템의 작동을 도시한 것이다.
도 15는 비-제한적 구현예들에 따라 도 14의 시스템에서 사용되는 가상 풍경을 도시한 것이다.
도 16은 비-제한적 구현예들에 따라 도 14의 시스템에서 양안 거리가 변경될 때 입체영상의 변경을 도시한 것이다.
도 17은 비-제한적 구현예들에 따라 2차원 영상들을 도 14 시스템의 3차원 영상들 스트림으로 삽입하는 것을 도시한 것이다.
도 18은 비-제한적 구현예들에 따라 스크린에 투사된 입체영상들의 가상 피사체에 집중할 때 사람 눈의 조절 거동을 도시한 것이다.
도 1은 비-제한적 구현예들에 따른 시준화 입체표시시스템을 도시한 것이다.
도 2는 비-제한적 구현예들에 따라 작동중인 도 1의 시스템을 도시한 것이다.
도 3 내지 5는 비-제한적 구현예들 에 따라 스크린에 투사된 입체영상들의 가상 피사체에 집중할 때 사람 눈의 폭주 거동을 도시한 것이다.
도 6 내지 8은 비-제한적 구현예들에 따라 스크린에 투사된 입체영상들의 가상 피사체에 집중할 때 사람 눈의 조절 거동을 도시한 것이다.
도 9 내지 10은 비-제한적 구현예들에 따른 시준화 입체표시시스템을 도시한 것이다.
도 11은 비-제한적 구현예들에 따른 머리 위치 추적이 가능한 시준화 입체표시시스템을 도시한 것이다.
도 12는 비-제한적 구현예들에 따라 작동중인 도 11 의 시스템을 도시한 것이다.
도 13은 비-제한적 구현예들에 따라 시청기구 위치가 변경될 때 도 11의 시스템에서 입체영상을 조정하는 방법을 도시한 것이다.
도 14는 비-제한적 구현예들에 따른 양안 거리 변동이 있는 시준화 입체표시시스템의 작동을 도시한 것이다.
도 15는 비-제한적 구현예들에 따라 도 14의 시스템에서 사용되는 가상 풍경을 도시한 것이다.
도 16은 비-제한적 구현예들에 따라 도 14의 시스템에서 양안 거리가 변경될 때 입체영상의 변경을 도시한 것이다.
도 17은 비-제한적 구현예들에 따라 2차원 영상들을 도 14 시스템의 3차원 영상들 스트림으로 삽입하는 것을 도시한 것이다.
도 18은 비-제한적 구현예들에 따라 스크린에 투사된 입체영상들의 가상 피사체에 집중할 때 사람 눈의 조절 거동을 도시한 것이다.
도 1을 참조하면, 비-제한적 구현예들에 따른 시준화 입체표시시스템 (100)이 도시되고, 도 2는 작동중인 시스템 (100)이 도시된다. 포괄적으로 시스템 (100)은 최소한 하나의 영상변조기 (103)과 통신하는 영상생성기 (101)를 포함한다. 포괄적으로 영상생성기 (101)는 좌안영상들 (106a) 및 우안영상들 (106b)을 포함하는 입체영상스트림 (105)을 제공한다. 좌안영상들 (106a) 및 우안영상들 (106b)은 도 1및 다음 도면들에 1회만 도시되지만, 입체영상 (105)에 존재한다.
도시된 바와 같이, 영상생성기 (101)는 하기되는 바와 같이 입체영상 (105)을 처리하는 선택적 연산장치를 통하여 최소한 하나의 영상변조기 (103)와 통신한다. 연산장치 (104)는 제한적이지 않지만 신축 엔진, 비디오 처리장치, 개인용 컴퓨터 (PC), 서버, 기타 등을 포함한 임의의 적합한 연산장치를 포함할 수 있다. 일반적으로, 연산장치 (104)는 처리기 (112) 및 메모리 (114) (휘발성 및 비-휘발성 저장장치 포함), 및 임의의 적합한 통신 인터페이스, 입력장치 및 디스플레이 장치를 포함한다.
영상생성기 (101)는 제한적이지 않지만, 3차원 영화파일, 3차원 비디오 파일, 3차원 디스플레이 파일, 비디오 게임 시스템, 모의 시스템, 가시화 시스템, 훈련 시스템, 및 기타 등을 저장하는 저장장치를 포함하는 임의의 적합한 영상생성기로 구성된다.
일반적으로 최소한 하나의 영상변조기 (103)는 영상생성기 (101)로부터 입체영상스트림 (105)을 수신하여 시청기구 (109)에서 시청되는 입체영상 (105)에 광 (107)을 형성한다. 예를들면, 도시된 구현예에서, 최소한 하나의 영상변조기 (103)는 입체영상 (105)을 투사하는 영사기로 구성된다. 이하 최소한 하나의 영상변조기 (103)는 시스템 (100)이 하나 이상의 영상변조기 (103)를 포함하므로 제한됨이 없이 영상변조기 (103)로 칭한다. 또한, 이러한 약속은 명세서 전반에 적용된다.
영상변조기 (103), 영상생성기 (101) 및 존재하는 경우 연산장치 (104)는 임의의 적합한 프로토콜을 사용하여 필요하다면 유선 또는 무선 통신되고 상호 로컬 또는 원격에 위치할 수 있다.
일반적으로 시청기구 (109)는 광 (107)을 좌안영상들 (106a) 및 우안영상들 (106b)로 각각 여과하여, 시청기구 (109)를 통하여 시청될 때 입체영상 (105)의 3차원 렌더링을 제공한다.
즉, 일반적으로 시스템은 영상들을 3차원으로 시청하기 위한 “3D” (“three-dimensional”) 시스템으로 구성되며, 따라서 영상변조기 (103)는, 임의의 적합한 기법을 이용하여 시청기구 (109) (“3D” 안경)로 좌안영상들 (106a) 및 우안영상들 (106b)으로 분리될 수 있는 입체영상 (105)을 투사하는 “3D” 영사기를 포함한다. 일반적으로 시청기구 (109)는 영상변조기 (105)와 양립될 수 있다. 예를들면, 영상변조기 (103)가 다른 편광상태 (제한되지 않지만 직교 선형 편광상태 및 시계방향/반-시계방향 원형 편광상태를 포함)의 좌안영상들 (106a) 및 우안영상들 (106b)을 투사하는 구현예에서, 시청기구 (109)는 좌안영상들 (106a) 및 우안영상들 (106b)을 시청자 (111)의 각각의 눈으로 여과하는 적합한 편광 필터들을 포함한다. 유사하게, 영상변조기 (103)가 차례로 교대로 좌안영상들 (106a) 및 우안영상들 (106b)을 투사하는 구현예에서, 시청기구 (109)는 좌안영상들 (106a) 및 우안영상들 (106b) 각각이 투사됨에 따라 개폐되어 좌안영상들 (106a) 및 우안영상들 (106b)을 시청자 (111)의 각각의 눈으로 여과하는 적합한 전자 셔터 (제한되지 않지만 LCD (액정디스플레이) 기반 셔터)를 포함한다. 어떤 경우에도, 시청기구 (109)를 통하여 시청되는 입체영상 (105)를 제공하는 방법은 특정 예에 국한되지 않는다. 예를들면, 다른 구현예에서는 제한적이지 않지만 색채 빗형 필터 및/또는 편광 필터를 이용하는 능동 또는 수동 입체 디스플레이를 포함한다.
시청기구 (109)는 도 1에서 페이지를 향하도록 도시되지만, 이러한 도시는 개략적인 것이고 통상 시청자 (111)는 영상들 (105)을 시청하기 위하여 실질적으로 거울 (117)을 향한다.
일반적으로 입체영상 (105)은 스크린과 같은 적합한 시청 표면에 제공된다. 그러나, 종래 3D 시스템과는 달리, 시스템 (100)은 영상변조기 (103)로부터 광 (107)을 수신하고, 입체영상 (105)이 시청기구 (109)에 수신될 때 광 (107)의 광선 (121)이 실질적으로 평행하도록 시준하는 시준기구 (113)를 더욱 포함한다. 비-제한적 구현예에서, 시준기구 (113)는: 입체영상 (105)이 투사되는 최소한 하나의 스크린 (115); 및 반사광 (119)이 시준되도록 스크린 (115)으로부터 입체영상 (105)을 반사하는 최소한 하나의 시준 거울 (117)을 포함한다.
스크린 (115)은 시준 거울 (117)에 의해 계속하여 반사될 수 있는 광 (107)을 산란/반사할 수 있는 임의의 적합한 스크린을 포함한다. 일반적으로 스크린 (115)은 제한적이지 않지만 구면 및 포물면을 포함한 볼록 형상일 수 있다. 볼록 스크린을 사용하면 영상들이 시청되는 오목 스크린이 사용되는 종래 2차원 모의장치에 비하여 이점을 제공한다. 예를들면, 오목 스크린은 일측에서 나오는 광이 반대쪽에서 반사되므로 좌우 및 상하 간에 교란이 발생된다. 이로 인하여 명암 저하, 플레어 및 고스팅으로 이어진다. 또한 오목 스크린으로 배경투사 및/또는 후면투사를 적용하는 경우 이러한 문제들은 더욱 악화된다. 예를들면, 통상 모의 비행장치에 적용되는 후면투사 오목 스크린에 대하여는 크게 오해가 있다. 정면투사 시스템보다 더욱 밝고 명암이 좋다고 잘못 알려져 있지만, 이는 높은 주변조도에서만 그러하다. 반대로, 많은 후면투사 스크린은 기하학적 산란 및 스크린 흡수로 인하여 광선축을 벗어난 심각한 고스팅의 문제가 있고, 이는 이중 영상들 및 플레어를 유발시킨다. 반대로, 볼록 정면투사 스크린을 사용하면, 교란 문제가 제거되고, 개선된 명암, 개선된 휘도, 개선된 해상도, 단가 저하, 여유로운 영사기 배치, 플레어 감소, 고스팅 감소 및 기타 등을 달성할 수 있다.
시준 거울 (117)은 제한적이지 않지만 실질적인 평행 광선 (121)을 반사하는 특성을 가지는 구면 거울 및 포물면 거울을 포함한 임의의 적합한 오목 거울을 포함한다. 따라서, 종래 3D 시스템과는 반대로, 입체영상 (105)을 형성하는 광/평행 광선 (121)은 시청기구 (109)에 도달할 때 시준되어 시청자 (111)의 눈은 스크린 (115) 또는 시준 거울 (117)에 집중되지 않고 무한대 (infinity)에 있다. 이러한 이점들은 도 3 내지 8을 참조하여 하기된다.
그러나, 포물면 거울이 구면 거울보다 더욱 양호한 시준을 제공한다. 그러나 포물면 거울은 제조 비용이 높은 반면 구면 거울은 저렴하고 제조하기 쉽지만 구면 거울은 모서리에서 일부 수차 (coma)를 유발한다. 그렇지만, 구면 거울은 시준화 정도 및 비용과의 적절한 타협 형태일 수 있다. 따라서, 시준 거울 (117)의 시준화는 완전할 필요는 없다.
또한, 시준 거울 (117)은 제한적이지는 않지만 유리, 및 마일라 (Mylar)™ 필름을 포함한 임의의 적합한 재료로 구성될 수 있다. 후자의 경우, 실질적으로 완전한 포물면 또는 완전한 구면인 마일라™ 필름 거울을 제조하는 것은 어렵고, 일반적으로 마일라™ 필름 거울은 대체로 교차 조정석 광시야 디스플레이를 위한 중간에 어느 정도의 안장형 돌출부가 있는 경계 및 압력 한정 현수선 (catenary curve)을 포함한다. 그러나, 저 품질의 거울에는 더 많은 수차가 출현하고 효율 및 편리성은 줄어들지만, 시준화 정도는 대체로 적합하다.
또한 스크린 (115)은 시준 거울 (117)과 상보적 형태를 가질 수 있고, 따라서 스크린 (115)은 대체로 곡면이다. 예를들면, 시준 거울 (117)이 대체로 오목하면, 스크린 (115)은 대체로 볼록하고: 예를들면 시준 거울 (117)이 대체로 구면이고 오목한 구현예에서, 스크린 (115) 역시 대체로 구면이고 볼록하고, 시준 거울 (117)이 대체로 포물면이고 오목하면, 스크린 (115)은 대체로 포물면이고 볼록하다. 그러나, 스크린 (115)은 시준 거울 (117)과 정확하게 상보적일 필요는 없다. 예를들면, 시준 거울 (117)이 구면인 구현예에서, 스크린 (115)은 포물면일 수 있고 및 그 역도 가능하며, 연산장치 (104)에 의해 수행되는 영상들 (105)에 대한 보정으로 시청 영상들에 나타나는 수차들이 보정된다.
또한 이상적인 오목 거울 및 볼록 스크린에서 벗어나는 것 역시 본 발명의 범위에 속하는 것이다. 이러한 시스템은 이상적이지는 않지만, 이러한 시스템은 본원에 기재된 시준화 입체 디스플레이의 이점들을 제공할 수 있다. 예를들면, 일부 구현예들에서, 평면 스크린 (즉 스크린 (115))으로부터의 영상들 (105)은 넓은 반경의 포물면 거울 (즉 시준거울 (117))로 시청될 수 있다. 일부 이들 구현예들에서, 연산장치 (104)에 의해 영상들 (105)에 대한 보정이 수행되어 시청 영상들 수차가 보정된다.
또한 시청자 (111)의 눈과 대체로 정렬되는 설계눈위치점 (design eye point, (DEP) 123)에 평행 광선 (121)이 도달되도록 시준 거울 (117)이 배치된다. 또한 DEP (123)로부터 평행 광선 (121)을 역추적하면, 시청자 (111)가 집중하는 스크린 (115) 점들로 폭주된다. 즉, 도시된 바와 같이, 각각의 평행 광선 (121)은 각자의 반사광 (119)을 통하여 스크린 (115)으로 역 추적될 수 있다.
또한, 일부 구현예들에서, 시준 거울 (117) 최상부에서 스크린 (115) 바닥부는 막히지 않거나 (clear) 거의 막힘이 존재하지 않는다는 것을 이해할 수 있다. 즉, 스크린 (115) 및 시준 거울 (117)은, 시준 거울 (117) 최상부가 스크린 (115)에 의해 막히지 않아, 스크린 (115)에 투사되는 입체영상 (105)을 시청자 (111)가 시청할 수 있도록 배치된다.
도시된 구현예들에서, 시스템 (100)은 영상변조기 (103)가 입체영상 (105)에 광 (107)을 형성시키기 전에 입체영상 (105)을 신축시킬 수 있는 연산장치 (104)를 포함한다. 예를들면, 연산장치 (104)에서 입체영상 (105)이 신축되어, 입체영상 (105)이 곡면 스크린 (115)에 투사되고 평행 광선 (121)을 통하여 시청기구 (109)에서 시청될 때, 입체영상 (105)이 만곡되어 보이지 않는다.
추가 구현예들에서, 하기되는 바와 같이, 연산장치 (104)는 또한 시준기구 (113)에 대한 시청기구 (109) 변경 위치에 기반하여 신축을 반복할 수 있다. 즉, 시스템 (100)은 도 11 및 12를 참조하여 기술되는, 시청기구 (109) 및/또는 시청자 (111) 머리 위치를 추적하는 머리 추적 기구를 더욱 포함하고, 시청기구 (109) 및/또는 시청자 (111) 머리 위치에 기반하여 입체영상 (105)을 동적으로 신축하여, 변경된 시점을 제공한다.
또 다른 구현예들에서, 하기되는 바와 같이, 연산장치 (104)는 또한: 좌안영상들 (106a) 및 우안영상들 (106b) 사이 양안 거리 (동공간 거리라고도 칭함) 변경; 및, 입체영상스트림 (105)으로의2차원 영상들 삽입 중 최소한 하나를 수행할 수 있다.
그러나, 다른 구현예들에서, 영상생성기 (101)는 연산장치 (104)의 모든 기능을 수행할 수 있다; 따라서, 이들 구현예에서, 영상생성기 (101) 및 연산장치 (104)는 하나의 장치로 결합되고 영상생성기 (101)는 연산장치 (104)를 포함한다.
일부 구현예들에서, 시스템 (100)은 제한적이지는 않지만, 3D 시준화 시네마 어플리케이션, 시준화 3D 디스플레이, 개인용 데스크톱 시준화 3D 디스플레이, 3D 시준화 텔레비전, 및 3D 시준화 비디오 게임 시스템을 포함한 총괄적3D 비디오 어플리케이션에 사용된다.
또한 시스템 (100)은 몰입 환경에서 입체영상 (105)이 실감날 수 있는 몰입 환경을 더욱 포함한다.
예를들면, 몰입 환경은 제한적이지는 않지만 모의 비행장치, 모의 운전장치, 모의 우주선 장치, 및 기타 등을 포함한 모의 환경으로 구성된다. 따라서, 시스템 (100)은 모의 비행장치에서와 같이 “실세계” 조정간을 포함하여 시청자 (111)는, 예를들면, 모의 비행을 제공하는 입체영상 (105)을 조정할 수 있다. 따라서 영상생성기 (101) (및 선택적으로 연산장치 (104))와의 피드백 루프로 입체영상 (105)은 동적으로 갱신되어, 실세계를 대체하는 “실세계” 모의 영상을 구성하여, 시청자 (111)는 실세계와 작용하는 것과 유사한 방식으로 모의 환경과 상호 작용한다.
시준화 광은 대체로 약 9 미터 (약 30 피트) 떨어진 “광학적 무한대”로부터 도달된다고 가정되었으므로, 지금까지는 모의 비행장치를 포함한 모의 환경에서와 같은 시준화 표시시스템에서 3차원 효과는 유용하지 않다고 통상 이해되었다. 예를들면 광학적 무한대는 피사체 화면 각이 좌안 및 우안 모두로부터 실질적으로 동일한 거리 (평균 성인의 경우)로 가정하고, 따라서 또한 2-채널 화상 및 입체 표시시스템을 사용하는 것은 이점이 거의 없다고 가정한다 그러나, 모의 비행장치로 구현된 시스템 (100)의 작업 프로토콜을 시험한 결과 이러한 종래 가정은 잘못된 것이라는 것을 보였다. 실제로는, 시준화 입체표시시스템에 의해 제공되는 상호작용 실감이 시준화 비-입체 표시시스템보다 더욱 현실감이 있다는 것을 알았다.
첫째, 약 4 피트에서 최소한 약 400 미터 (예를들면 약 ¼ 마일) 범위의 거리에서도 모의 형상들은 좌안 및 우안에 대한 다른 화면들로 생성될 수 있고, 개선된 3차원 효과를 더욱 양호한 깊이로 인식할 수 있었다.
둘째, 주로 초-해상도 효과로 인하여 2차원 영상들보다 입체영상들을 사용할 때 모의 비행장치는 더욱 양호한 해상도로 인식되었다; 즉, 인간의 뇌는 입체적 좌안 및 우안영상들을 중첩시킬 수 있고, 단일 영상이 좌안 및 우안 모두에 대하여 사용되었을 때(즉 2차원)보다 더 높은 해상도의 영상으로 보간된다.
셋째, 설계눈위치점으로부터 약 9 미터에서 제한적이지는 않지만, 공중연료보급 (mid-air refuelling booms), 저공비행헬리콥터, 모의 운전장치 및 모의 착륙시 풍경 형상들을 포함한 형상들이 모의 비행장치에 제공될 수 있다. 그러나, 이러한 형상들은 9 미터 이상 및 이하에서 제공될 수 있다. 이러한 상황에서 비행사는 3차원 입체영상이 2차원 화상보다 더욱 현실감을 제공하였다고 확인하였다.
추가 구현예들에서, 몰입 환경은 실세계 환경과 반드시 연관되지 않는 가시화 환경을 포함한다. 예를들면, 가시화 환경은, 제한적이지 않지만 하나 이상의 CAVE (동굴형 자동화 가상 환경), 의료 영상 가시화 환경, 오일 및 가스 가시화 환경, 지진 가시화 환경 및 기타 등을 포함한다. 이들 구현예에서, 시스템 (100)은 가시화 환경을 “조작”할 수 있는 조정간을 포함한다. 예를들면 이러한 가시화 환경, 및 연관된 조정간으로 입체영상 (105)에 있는 가상 의료 분자 /약물 등, 오일 매장량, 지진판 및 기타 등을 시각화하고 조작할 수 있다. 또한 이전에는 시준화 표시시스템이 가시화 환경에 사용되지 않았고, 입체영상과도 조합되지 않았다는 것을 이해할 것이다. 실제로, 포괄적인 표시시스템 분야에서, 모의 환경 및 가시화 환경 사이에는 거의 겹치는 것이 없다.
또 다른 구현예들에서, 몰입 환경은 제한적이지는 않지만 장비 수리 및/또는 장비 제조 및 기타 등 (예를들면 비-제한적인 예로써 산업용 수송기구 제조 및 수리)를 위한 훈련 환경을 포함한 훈련 환경을 포함한다. 예를들면, 이러한 훈련 환경, 및 연관된 조정간이 사용되어 장비 수리 및/또는 제조를 위한 입체영상 (105a)에 있는 가상 물품들을 가시화하고 조작할 수 있다. 또한 이제까지는 시준화 표시시스템이 훈련 환경에 사용되지 않았고, 입체영상과도 조합되지 않았다는 것을 이해할 것이다.
시준화 입체 표시의 포괄적인 이점들이 도 3 내지 5 및 도 6 내지 8, 및 도 18을 참조하여 논의될 것이다. 특히, 도 3 및 도 4는 사람 눈이 스크린에 투사된 입체영상들의 가상 피사체를 집중할 때, 가상 피사체가 각각 스크린 전방 및 후방에 “위치”할 때의 사람 눈의 폭주 거동을 도시한다. 도 3에서 피사체 P3는 스크린 전방에 나타나지만 동시에 좌안 영상 P1 및 우안 영상 P2은 실제로 스크린 상에 투사될 때 좌안 및 우안은 교차한다는 것을 보이고 (즉 폭주), 이것들은 시청자로 하여금 두통 및 구역질을 유발시키는 충돌 입체 단서이다. 불쾌함 정도는 시청자 마다 다를 수 있다. 도 4를 참조하면, 피사체 P3가 스크린 후방에 위치하고, 눈이 여전히 수렴되는 경우이며 문제는 덜 심각하다. 그러나, 도 5를 참조하면, 본 구현예들에서와 같이, 피사체 P3 (도 5에 도시되지 않음)가 명목상 광학적 무한대에 위치할 때, 폭주 단서는 일반적으로 영상들 P1, P2 실제 위치 (즉 스크린)와 일치하고 시축은 대체로 평행하므로, 시각피로는 감소한다. 실제로, 이러한 화상은 일반적으로 실제 창 밖 실제 화면을 모의하고 - 즉 양안 (예를들면 동공간) 거리에 의해 분리되고 편안하게 이완된 화면, 실질적으로 평행한 축들로, 시각피로가 줄어든다.
또한, 눈의 초점 (조절) 역시 입체영상의 가상 피사체가 각각 스크린 전방 및 후방에 “위치”할 때 충돌되고 예를들면, 도 6 및 7은 가상 피사체가 각각 스크린 전방 및 후방에 위치할 때 사람 눈이 스크린에 투사된 입체영상들의 가상 피사체를 집중할 때 사람 눈의 조절 거동을 도시한 것이다. 도 6을 참조하면, 피사체는 가상적으로 스크린 전방에 위치하고, 눈은 스크린 전방에 집중하고 망막에 영상 초점을 맞추려고 모양체 근육이 수정체를 만곡시키므로 눈의 전면은 긴장된다.
도 7을 참조하면, 피사체가 스크린 후방에 “위치”하고, 눈 및 모양체 근육은 보통으로 긴장되므로 문제는 덜 심각하다. 그러나, 조절 및 폭주 간의 충돌은 여전히 존재한다.
그러나, 도 8을 참조하면, 본 구현예들에서와 같이, 피사체 (도 8에 도시되지 않음)는 명목상 광학적 무한대에 위치하고, 조절 단서는 대체로 좌안 및 우안영상들의 실제 위치 (즉 스크린)과 일치하고 모양체 근육은 대체로 이완되므로, 시각피로를 줄일 수 있다.
그러나, 상기된 바와 같이, 시준화 입체표시시스템 (100)을 제공함으로써 많은 피사체가 명목상 광학적 무한대에 위치할 때에도 조차, 좌안 및 우안영상들을 시청에는 현저한 차이가 존재하고, 양호한 입체영상이 시스템 (100)에 형성될 수 있고, 따라서 피로감 없이 장기간에 걸쳐 더욱 편안한 3차원 시청이 가능하다.
즉, 도 6, 7, 및 8은 창문 밖을 바라보는 3 가지의 “정상 케이스들이다. 본 명세서에서 언급하는 문제들을 더욱 도시화하기 위하여, 창문 또는 화면에 눈 초점이 맞추어진 도 18을 참조한다 (이것은 모든 현존 3D 디스플레이에서 정상적인 케이스이다). 실제로, 사람의 눈은 피사체 가까이에 집중되며, 3D 디스플레이에서 특히, 영상은 실제로 스크린에 존재하면서 피사체가 “가상적으로” 스크린 전방에 표현되면 깊이단서가 충돌된다.
예를들면, 시청자가 전방 약 18 인치에 있는 컴퓨터 스크린상에서 3D 영상들 예를들면 게임을 시청할 때, 시청자의 초점은 고정되고, 수정체 정면은 상당히 경사가 급해지고 도 6에서와 같이 모양체 근육은 수축된다. 그러나 입체 게임, 또는 모의, 또는 현미경 또는 3D에서 표시되는 어떤 것도 도 5에 도시된 바와 같이 적당한 폭주 단서로 피사체 (예를들면 비행기)를 무한대에 묘사할 수 있다. 망막의 입체 시차에 대한 폭주 단서가 강할수록 영상은 무한대에 있다고 말하지만, 조절에 의한 깊이 단서가 약할수록 실제로 18 인치 떨어져 있다고 말한다. 이것이 시각피로를 유발시키는 깊이단서 충돌이다.
폭주 단서가 도 3의 것과 유사하면, 초점 조절 단서가 시청자의 뇌에 피사체는 여전히 약 18 인치 떨어져 있다고 말할 때 컴퓨터 스크린 정면에 있는 예를들면 약 12 인치 떨어진 피사체에 대하여 더욱 시각피로를 일으키고 “비-자연스럽다”.
이러한 충돌은 본 구현예들에 의해 어느 정도 해소되며, 조절 및 폭주 단서 모두가 대체로 조화를 이루고 피사체가 시준 거울 (117)에 의해 더욱 멀리 “밀려날 때” 더욱 편안하고 더욱 자연스러운 원격 피사체 화상이 달성되고 무한대는 창문 밖 실제 무한대와 비슷하여 - 폭주 (비-교차 또는 평행) 및 초점 (즉 이완되어 더욱 평탄한 수정체)에 있어서 눈은 이완된다. 이로 인하여 통상 3D 영상 시청이 상당히 어려웠던 시청자 조차도 시각피로를 덜 느끼며 수 시간 동안 모의 화면을 시청할 수 있다.
다음으로, 시스템 (100)에 실질적으로 유사하고, 동일 요소는 동일 부호를 가지지만, “a”가 부가된 시스템 (100a)가 도시된 도 9를 참조한다. 예를들면 영상변조기 (103a)는 영상변조기 (103)과 유사하다. 그러나, 이들 구현예에서, 스크린 (115a)은 후면투사 스크린 (때로는 배경투사 스크린 (BPS)으로 칭함)을 포함하며 영상변조기 (103a)는 스크린 (115a) 후면에 투사하고, 각각의 입체영상은 시준 거울 (117a)에 의해 반사된다. 즉, 시스템 (100a)은 시스템 (100)과 유사하지만, 정면투사 기하공간보다는 후면투사 기하공간을 가진다.
다음으로, 시스템 (100)에 실질적으로 유사하고, 동일 요소는 동일 부호를 가지지만, “b”가 부가된 시스템 (100b)가 도시된 도 10을 참조한다. 예를들면 시준 거울 (117b)은 시준 거울 (117)과 유사하다. 그러나, 이들 구현예에서, 영상변조기 (103b)는 스크린과 통합된다: 즉, 영상변조기 (103b)는 곡면 디스플레이 (예를들면, 발광다이오드 (LED), 유기 LED 또는 곡면 디스플레이 생산을 위한 기타 임의의 적합한 기술에 기반)를 포함하고, 여기에 형성된 각각의 입체영상은 다시 시준 거울 (117b)에 의해 반사된다. 즉, 시스템 (100b)은 시스템 (100)와 유사하나, 투사 구성요소는 곡면 패널 디스플레이 기술로 대체된다. 실제로, 곡면 패널 디스플레이 기술을 이용하면 오늘날 모의 비행장치에 사용되는 큰 BPS 스크린의 모의장치보다 더욱 작고 눈에-인접한 저전력 및 소형의 디스플레이를 가능하게 한다.
다음, 시스템 (100)에 실질적으로 유사하고, 동일 요소는 동일 부호를 가지지만, “c”가 부가된 시스템 (100c)이 도시된 도 11을 참조한다. 예를들면 영상변조기 (103c)는 영상변조기 (103)과 유사하다. 도 12는 작동중인 시스템 (100c)를 도시한다. 그러나, 시스템 (100c)는 연산장치 (104c)와 통신하는 머리 추적 기구 (1101)를 더욱 포함하며, 머리 추적 기구는 제한적이지는 않지만 시청자 (111c) 머리 위치를 포함한 시청기구 (109c) 위치를 획득할 수 있다. 시청기구 (109c) 위치는 제한적이지 않지만 시준 거울 (117c) 전방 영역에 있는 시청기구 (109c) 위치 및 시청기구 (109c) 방향 (예를들면, 시청자 (111c)가 좌우, 상하, 바로 앞 및 기타 등을 주시)을 포함한다. 도 11 및 12는 이하 더욱 기술되는 연산장치 (104c)를 더욱 상세하게 도시한다. 그러나, 연산장치 (104c)는 각각 처리기 (112) 및 메모리 (114)와 유사한 처리기 (1103) 및 메모리 (1105)를 포함한다는 것을 이해할 것이다.
비-제한적 예시 구현예들에서 도시된, 머리 추적 기구 (1101)는 시청기구 (109c) 및/또는 시청자 (111c) 머리 (예를들면 시준 거울 (117c) 전방 영역)를 촬영하도록 배향되는 하나 이상의 디지털 카메라 및 디지털 비디오 카메라 (포괄적으로 카메라)를 포함한다. 그러나, 임의의 적합한 머리 추적 기구도 본 구현예들의 범위에 있으며, 본 명세서는 카메라에 과도하게 국한하지 않는다는 것을 이해할 수 있다. 일부 구현예들에서, 머리 추적 기구는 시청기구 (109c) 위치를 결정하기 위하여 머리 추적 데이터를 처리하는 연산장치 (미도시)를 더욱 포함하고; 시청기구 (109c) 위치 데이터는 연산장치 (104c)로 통신된다.
그러나, 다른 구현예들에서, 머리 추적 기구 (1101)가 시청기구 (109c) 위치를 획득하면, 획득된 데이터는 처리되도록 연산장치 (104c)로 전송되고, 처리기 (1103)는 획득 데이터를 처리하여 시청기구 (109c) 위치를 결정한다.
실제로, 처리기 (1103)는, 시청기구 (109c) 위치에 기반하여 시청되는 입체영상 (105c)을 조정할 수 있다. 예를들면, 시청기구 (109c) 위치가 변경되면, 위치 변경에 따른 화면이 시청자 (111c)에게 제시되도록 입체영상 (105c)이 조정된다. 예를들면, 시청자 (111c)가 좌우로 이동하거나, 및/또는 머리를 상하로 움직이면, 위치 및/또는 방향을 반영하여 입체영상 (105c) 의 시차 및 화면 (view)은 조정된다.
또한, 입체영상 (105c)은 곡면 (즉 스크린 (115c))에 투사되므로 처리기 (1103) 또한 입체영상 (105c)을 곡면 기하공간에 기반하여 조정할 수 있다. 즉, 처리기 (1103)는 입체영상 (105c)으로 표현되는 화면을 변경하고 변경된 화면을 곡면에 대하여 조정할 수 있다.
또한 머리 추적 기구 (1101)는 시청기구 (109c) 위치 변경이 감지될 때 1회 이상 연산장치 (104c)와 통신하고, 위치 변경 유무와 무관하게 주기적으로 시청기구 (109c) 위치를 연산장치 (104c)로 전송하여, 전송될 때의 위치 차이로 위치 변경이 결정될 수 있다.
시청기구 (109c) 위치가 변경될 때 입체영상 (105c)을 조정하는 방법 (1300)을 도시한 도 13을 참조한다. 본 방법 (1300) 설명을 위하여, 본 방법 (1300)은 시스템 (100c)을 이용하여 수행된다고 가정한다. 또한, 본 방법 (1300)에 대한 설명으로 시스템 (100c) 및 이의 다양한 구성요소들에 대한 이해가 깊어질 것이다. 그러나, 시스템 (100c) 및/또는 방법 (1300)은 변경될 수 있고, 반드시 본원에 기술된 것과 동일하게 구현될 필요는 없고, 이러한 변경은 본 구현예의 범위에 속한다는 것을 이해하여야 한다.
또한 본 방법 (1300)은 시스템 (100) 기하공간 표시 데이터 (1201)가 메모리 (1105)에 저장되고, 데이터 (1201)는 제한적이지는 않지만 곡면 기하공간 (즉 스크린 (115c)) 표시 데이터, 제한적이지는 않지만 예를들면 스크린 (115c) 곡률, 및 영상변조기 (103c), 스크린 (115c), 및 시준 거울 (117c)의 상대 위치(들), 및 시청기구 (109c)의 위치 및/또는 방향이 변경되면 변경되는 명목상 DEP (111c)의 위치를 포함한다고 가정한다.
블록 (1301)에서, 처리기 (1103)는 시청기구 (109c) 위치가 변경된 것을 표시하는 데이터를 수신한다. 예를들면, 머리 추적 기구 (1101)는 시청기구 (109c) 위치 변경을 감지하고 이러한 변경을 표시하는 데이터를 처리기 (1103)로 전송한다.
블록 (1303)에서, 처리기 (1103)는 표시되는 영상들을 결정하고, 이때 영상들은 변경된 위치에 기반하여 평면 스크린에 투사될 때의 입체영상 (105c)로 구성된다. 예를들면, 시청기구 (109c)가 상하좌우 등으로 이동될 때, DEP (123c)는 변경되고, 이것은 입체영상 (105c)의 가상 형상들에 대한 시야각 변경, 및 시차 변경 및 기타 등으로 반영된다. 처리기 (1103)는 따라서 이러한 변경을 반영하여 입체영상 (105c)이 (즉, 곡면이 아닌) 평면에 제공되는 것으로 입체영상 (105c)을 처리한다.
블록 (1305)에서, 처리기 (1103)는 곡면 기하공간 (즉 스크린 (115c)) 및 시청기구 (109c) 위치를 표시하는 데이터에 기반하여 평면 왜곡을 결정한다. 즉, 평면은 뒤틀릴 수 있는 메쉬 (mesh)와 같이 처리되고, 입체영상 (105c)이 시청기구 (109c) 변경 위치에서 시청될 때, 스크린 (115c) 형태를 반영하여 왜곡 처리된다.
블록 (1307)에서, 블록 (1305)에서의 왜곡에 기반하여 블록 (1301)에서 형성된 영상들이 조정되어, 입체영상 (105c)은 곡면에 투사될 때 왜곡되지 않도록 나타난다.
이와는 달리, 종래 디스플레이 생성기는 단일 관점에 대하여 표현되는 컨텐츠를 생성한다. 이러한 컨텐츠는 통상 화면이 평면이고, 시청자는 공간 위치에 고정되어 모의 장면의 기하공간 표현을 단순화하여, 간단한 시각 절두체로 화면 시야각을 표현할 수 있다는 가정에서 생성된다.
광시야각을 달성하기 위하여, 시준화 디스플레이는 일반적으로 투사 곡면을 적용한다. 영상 신축을 통하여 일반적인 평면 표적은 신축성 메쉬와 같이 처리되어, 영상은 균일하고 적당히 왜곡되어 곡면 스크린으로부터 시준화 디스플레이 기술의 곡면 광학계, 예를들면 시준 거울로 전달되면, 시청자 관점에서 휨 및 일그러진 왜곡 없는 영상이 나타난다.
그러나, 이러한 시스템은 시청자 위치가 가변 될 수 있다는 것을 고려하지 않는다. 이러한 문제에 대하여, 방법 (1300)에서와 같이 본 명세서는 공간에서의 시청자 위치 추적 및 그때마다 영상 왜곡 보정을 조합하여 이동을 수용하는 해결책을 제공한다.
입체시는, 3차원 깊이 단서를 위하여: 2개의 유일한 원근 화면 (two unique perspective views) (즉 좌안 및 우안)의 통합; 조절 (초점)의 단안 깊이 단서; 및 폭주의 양안 깊이 단서를 이용한다. 운동 시차가 더해지면 (본원에 기재된 인지 추적 포인트를 통하여), 인간이 가지는 모든 단안 깊이단서는 입체적 깊이단서를 보강하기 위하여 이용될 수 있다.
따라서 입체감에 구속될 수 있는 단안 깊이단서는 다음을 포함한다:
- 원근 (공간에서 시청자의 위치로부터의 시점. 본 발명은 시청자 이동에 따라 실세계에서와 같이 원근이 변경될 수 있다).
- 운동으로 인한 깊이 (일반적으로 원근과 통합되는, 가시화 화면에서 운동 시차 및 피사체 크기 변경. 예를들면, 숲 속 나무들을 바라볼 때, 시청자 위치에 대하여 나무들은 다른 면들에 위치한다; 시청자가 이동하면, 가까운 나무들은 시청자 시야에서 신속하게 이동하는 것으로 보이고, 멀리 있는 나무들은 느리게 이동하는 것으로 보인다)
- 차폐 (다른 것들에 의해 가려지는 피사체 가시화 변화에 대한 운동 효과. 예를들면, 숲 속 나무들은 시청자 위치에 대하여 다른 면들에 위치한다; 시청자가 이동하면, 멀리 있는 나무들은 시청자와 가까운 나무들에 의해 차폐된다).
따라서, 시청자 (111c) 위치에 기반하여 영상들 (105)을 조정함으로써, 상기 모든 깊이단서는 시스템 (100c)에 통합되어, 가상 경험은 더욱 현실감 있게 나타날 수 있다.
본 방법 (1300)은 시청기구 (109c) 위치 변경이 결정될 때마다 반복될 수 있다. 따라서, 시청자 (111c)가 시준 거울 (117c)에 대하여 움직일 때 입체영상 (105c)은 동적으로 조정되어, 전체적으로 개선된 3D 환경을 제공한다.
실제로, 운동 시차 단서를 추가하는 것은, 좋은 조명에서 2mm 동공에서부터 계산되는 초점 깊이에 의해 대체로 1 각분으로 제한되는 조절 (accommodation)이상으로 연장되는 매우 강력한 깊이 단서일 수 있다. 입체 시차를 가지는 영상들에 대한 “기준선”은 더욱 길기 때문에 머리 움직임으로부터의 운동 시차는 양안 간격 (eye separation) 및 폭주보다 더욱 강력한 단서를 제공할 수 있다. 예를들면 시청자가 주어진 화면을 보기 위하여 머리를 2 또는 3 회 움직이면, 운동 시차로 인하여 통상 64mm 명목상 양안 간격에 걸쳐 더욱 큰 깊이 및 배열시력 (vernier acuity)이 결정된다. 예를들면, 양호한 머리 추적이 가능하다면 한쪽 눈이 나뿐 시청자라도 머리 움직임 및 조절에 의해 깊이를 인지할 수 있다. 이후 운동 시차는 폭주 단서를 대체할 수 있다.
또한, 일부 구현예들에서, 머리 추적 기능은 꺼지거나 켜질 수 있다. 예를들면, 다중 시청자 시스템 (비-제한적인 예로 조종사 및 보조-조종사의 교차 조정석 시준화 모의장치)의 경우, 단일 시청자가 본 시스템을 이용하지 않는다면 머리 추적 기능은 바람직하지 않을 수 있다. 따라서, 이들 구현예에서, 머리 추적 기능은 단일 시청자의 경우 가동되고 다중 시청자들의 경우 커질 수 있다.
다음으로, 시스템 (100c)와 실질적으로 유사하고, 동일 요소는 동일 부호를 가지지만, “c” 대신 “d”가 부가된 작동중인 시스템 (100d)이 도시된 도 14를 참조한다. 예를들면 연산장치 (104d)는 연산장치 (104c)와 유사하다. 그러나, 이들 구현예에서, 머리 추적 기구는 선택적이고 (실제로 도시되지 않음), 처리기 (1103d) 는 좌안영상들 (106ad) 및 우안영상들 (106bd) 사이 양안 거리를 변경시켜 입체영상 (105d)을 조절할 수 있다. 예를들면, 도 15 프로필에 도시된 바와 같이, “가상” 풍경 (1500)은 예를들면 지리적 형상 예를들면 언덕 또는 산과 같은 가상 형상 (1501)을 포함한다. DEP (123d)는 도 15에서 “하늘”에 있는 것으로 도시되고 풍경 (1500)은 비행 모의 시스템 일부이고 따라서 시청자 (111d)는 풍경 (1500) 상부에 위치하는 것으로 가정된다. 가상 거리 (1503)는 DEP (123d) (즉 시청자 (111d)) 및 형상 (1501) 사이로 결정된다.
풍경 (1500)은 도 15에 도시된 바와 같이 시청자 (111d)에 의해 “보여”지지 않을 것이고, DEP (123d)에서 볼 때 풍경 (1500) 화면이 나타나도록 입체영상 (105d)이 생성될 것이다. 일반적으로, 입체영상 (105d)은 사람의 표준 양안 거리 약 64mm (사람의 표준 양안 거리는 대체로 약 62mm 내지 약 65mm 범위이고 따라서 임의의 적합한 양안 거리가 표준으로 선택될 수 있다; 그러나 사람의 양안 거리는 약 58mm 내지 약 71mm 범위일 수 있다)에 기반하여 생성된다. 그러나, 도 16에 도시된 바와 같이, 좌안영상들 (106ad) 및 우안영상들 (106bd) 사이 양안 거리는 가상 거리 (1503)에 따라 변경될 수 있고, 예를들면 증가하거나 감소하여, 새로운 양안 거리에 기반한 갱신된 좌안영상들 (106ad') 및 우안영상들 (106bd')을 생성한다. 예를들면, 도 16에 도시된 바와 같이, 양안 거리는 증가하여 좌안영상들 (106ad’) 및 우안영상들 (106bd’)은 초입체로 제공되고, 이것은 일반적으로 표준 입체영상들보다 시청자에게 더욱 광학적인 깊이 정보를 제공한다. 즉, 이들 구현예에서, 시스템 (100d)은 초입체 방식으로 구현될 수 있다.
초입체 상태는 척도감에 영향을 미치지만, 먼 피사체의 입체 시차를 증가시키는데 유용하다. 예를들면, 초입체는 매우 긴 기준선들로 지형도 제작을 위한 항공사진에 사용된다. 또한 양안 거리 및 기준선을 효과적으로 증가시켜 상대 깊이를 판단하기 위하여 쌍안경 또는 거리계에 유용하다. 또한, 약 100 m 이상의 거리에서, 수백 피트의 양안 거리는 거리 인식에 크게 영향을 주지 않지만, 먼 피사체의 입체 시차를 증가시킬 수 있다. 따라서, 풍경에 대한 초입체영상들을 제공하면, 예를들면, 가상 형상들에 대한 개선된 상세를 제공할 수 있다. 실제로 (예를들면 행성 궤도 일면에서 다른 면으로의)지구 궤도의 초입체 기준선 영상들은 달의 과학적 3D 연구에 사용되고 있다.
일부 구현예들에서, 가상 거리 (1503)가 제1 부여 한계값 이상 및 제2 부여 한계값 이하 중 하나 이상인 경우 처리기 (1103d)는 좌안영상들 (106ad) 및 우안영상들 (106bd)을 초입체로 제공할 수 있다. 예를들면, 제1 부여 한계값은 약 100 미터, 제2 부여 한계값은 약 1000 미터일 수 있으나, 임의의 적합한 한계값은 본 구현예들의 범위에 있다.
예를들면, 64mm 이하의 기준선들은 곤충 또는 혈액세포를 검사하는 것과 같은 마이크로 및 마크로 작업 모두에 유용할 수 있다. 그러나, 예를들면, 은하계 가시화가 제공될 때, 광년 및/또는 파섹 및/또는 천문단위 기준선들도 본 구현예들의 범위에 속할 수 있다. 따라서, 본 구현예들에서 양안 거리에 대한 제한이 없으며, 이는 (하기된 바와 같이 2차원 영상들에 대한) 0에서 극히 먼 거리까지일 수 있다. 또한 시점은 “표준” 양안 거리 좌안 약 -32mm 및 우안 +32mm로 균등하게 증가 및 감소할 수 있다 (예를들면 총 약 64mm). 또한 제2 한계값은 제1 한계값보다 작을 수 있어 초입체 화상은 가까운 거리 및 먼 거리에서 제공될 수 있다: 예를들면, 제2 한계값은 9 미터 미만이고 DEP (123d)에 가까운 가상 형상들은 실제보다 크게 보여 양안 거리가 인간의 표준일 때 보다 더욱 광학적인 상세를 제공한다.
또한 양안 거리 변경의 예시가 모두 모의 비행장치에 적용되지만, 양안 거리 변경은 상기된 바와 같이 임의의 적합한 몰입 환경에 적용될 수 있다. 예를들면, 가변 양안 거리는 수동으로 다이얼로 조절되거나 모의 장면에서 보여지는 실제 거리에 따라 자동으로 변경된다 (예를들면 시청자가 지면에 더욱 가까울 때, 더욱 자연스러운 양안 거리가 적용되고, 시청자가 더 높은 고도에 있을 때 초입체 설정이 적용된다).
일부 이들 구현예들에서, 도 16에 도시된 바와 같이 (좌안영상들 (106ad") 및 우안영상들 (106bd") 참고) 사람 표준보다 좁은 양안 거리가 사용될 수 있다. 사람의 표준으로는 적합한 형상을 보일 수 없는 예를들면 의료 가시화 환경에서 약물을 영상화, 또는 임의의 기타 적합한 몰입 환경에서 기타 매우 작은 형상을 영상화할 때, 인간의 표준 이하의 양안 거리가 적용될 수 있다. 즉, 시스템 (100d)은 준입체 방식으로 구현될 수 있고 이는 현미경 또는 마크로 애플리케이션, 또는 기타 등과 같은 작업에서 미세한 시각 작업에 유용할 수 있다.
일반적으로, 양안 거리는 제한적이지는 않지만 임의의 적합한 몰입 환경을 위한 한계값 및/또는 가상 거리에 기반한 것을 포함한 임의의 적합한 방식으로 변경될 수 있다.
또한 사람의 양안 거리는 사람마다 다르므로, 시스템 (100d)에서의 양안 거리는 시청자 양안 거리에 기반하여 변경될 수 있다. 예를들면, 시스템 (100d) 양안 거리는 일 시청자에 대하여 고정될 수 있지만, 다른 시청자에 대하여 변경될 수 있어 시청자에 따라 양안 거리가 변경될 수 있다. 이들 구현예에서, 시청자가 시스템 (100d)을 이용하기 전에 기본 양안 거리가 시스템 (100d) 예를들면 연산장치 (104d)에 입력된다.
다른 구현예들에서, 도 17에 도시된 바와 같이, 처리기 (1103d)는 가상 거리 (1503)에 기반하여 2차원 영상들 (1701)을 입체영상 (105d) 스트림 (1703)에 삽입할 수 있다. 실제로, 2차원 영상들 (1701)을 삽입하는 것은 양안 거리를 0 mm로 감소시키는 것을 의미한다. 일부 구현예들에서, 가상 거리 (1503)가 제1 부여 한계값 이상 및 제2 부여 한계값 이하 중 하나 이상인 경우 처리기 (1103d)는 2차원 영상들 (1701)을 입체영상 (105d) 스트림 (1703)에 삽입할 수 있다. 예를들면, 부여된 가상 거리 (1503) 한계값, 예를들면 1000 미터 이상에서, 입체영상 (105c)에 거의 시차가 존재하지 않고, 따라서 2차원 영상들 (1701)의 입체영상 (105d) 스트림 (1703) 삽입을 통한 2차원 화면으로의 전환은 처리 시간을 줄일 수 있다. 임의의 적합한 개수의 2차원 영상들 (1701)이, 예를들면, 가상 거리 (1703)에 따라 임의의 적합한 시간 동안 스트림 (1703)에 삽입될 수 있다.
유사하게, 제2 부여 한계값 이하에서 3차원 영상이 적합하거나 바람직하지 않은 경우가 있고, 따라서 시스템 (100d)은 2차원 방식으로 전환될 수 있다. 2차원 방식으로 전환하면, 예를들면 더 높은 프레임 속도의 경우 및/또는 장면에서 많은 형상들을 처리할 때 (예를들면 수많은 다각형 처리) 처리 시간을 절약할 수 있다.
일부 구현예에서 처리기 (1103d)는 좌안영상들 (106ad) 및 우안영상들 (106bd) 중 하나를 우안영상들 (106bd) 및 좌안영상들 (106ad) 중 다른 것으로 대체하여 2차원 영상들 (1701)을 입체영상 (105c) 스트림 (1703)에 삽입할 수 있다. 즉, 각각의 좌안 및 우안에는 동일 영상이 제공된다.
실제로, 제한적 이지는 않지만 2차원 방식을 위하여 양안 거리를 0 mm로 설정하는 것을 포함한 양안 거리 변경은 양안 거리의 상호 작용적 실시간 조절을 포함하고, 제한적이지는 않지만 다음을 포함하는 여러 특징을 가능하게 한다:
1. 시청자 평생 동안 특정 양안 거리에서의 생애 척도 효과 (life time scaling effect) 및 거리 판단은 지정된 시청자 훈련과 연관되도록 서로 다른 양안 거리를 가지는 시청자마다 신속한 전환 및 재조정.
2. 매우 먼 거리만이 보이는 대역폭을 절약하기 위하여 “표준” 양안 거리에서의 3차원 방식으로부터 2차원 방식으로 신속한 전환.
3. 표준 방식 (기준선에서의 양안 거리) 및 초입체 방식 (기준선보다 긴 양안 거리) 또는 준입체 방식 (기준선보다 짧은 양안 거리) 간의 전환에 의한 시스템 (100d)의 “감” 및/또는 화면 변화.
다양한 구현 예들이 본원에서 개별적으로 기술되지만, 예를들면, 필요한 경우 머리 추적 및 양안 거리 변경 기능은 임의의 적합한 방식으로 조합될 수 있다.
본원에 기재된 시준화 입체표시시스템은 3차원 영상들 시청에 있어서 시각피로를 개선하기 위하여 제공되지만, 3차원 시청 느낌을 개선하기 위한 여러 개선점도 더욱 제공하기 위한 것이다.
일부 구현예들에서, 시스템 (100, 100a, 100b, 100c, 100d) 기능은 소정의 프로그램화 하드웨어 또는 펌웨어 요소들 (예를들면, 주문형반도체 (ASIC), 전기적 소거 및 프로그램 가능 읽기용 메모리 (EEPROM), 등), 또는 기타 관련 요소들을 적용하여 구현될 수 있다는 것을 본 분야의 숙련가는 이해할 것이다. 다른 구현예들에서, 시스템 (100, 100a, 100b, 100c, 100d) 기능은 전산장치를 운영하기 위한 컴퓨터-판독가능 프로그램 코드를 저장하는 코드 메모리(미도시)에 접근하는 전산장치를 이용하여 달성될 수 있다. 컴퓨터-판독가능 프로그램 코드는 이들 요소에 의해 고정, 유형 및 직접 판독될 수 있는, (예를들면, 제거 가능한 디스켓, CD-ROM, ROM, 고정 디스크, USB 드라이브) 컴퓨터 판독가능 저장매체에 저장될 수 있다. 또한, 컴퓨터-판독가능 프로그램은 컴퓨터 이용가능 매체를 포함한 컴퓨터 프로그램 제조물로 저장될 수 있다. 또한, 영구 저장장치는 컴퓨터 판독가능 프로그램 코드를 포함할 수 있다. 또한 컴퓨터-판독가능 프로그램 코드 및/또는 컴퓨터 이용가능 매체는 비-일시적 컴퓨터-판독가능 프로그램 코드 및/또는 비-일시적 컴퓨터 이용가능 매체를 포함한다. 달리, 컴퓨터-판독가능 프로그램 코드는 전송 매체로 네트워크 (제한적이지 않지만 인터넷 포함)에 연결된 모뎀 또는 기타 인터페이스장치를 통하여 이들 요소로 전송되어 원격으로 저장될 수 있다. 전송 매체는 비-이동성 매체 (예를들면, 광학 및/또는 디지털 및/또는 아날로그 통신 라인들) 또는 이동성 매체 (예를들면, 극초단파, 적외선, 자유 공간 광학적 또는 기타 전송 매체) 또는 이들의 조합을 포함한다.
본 분야의 숙련가는 또 다른 추가적인 대안적 구현예들 및 변형들이 가능하고 상기 예시들은 단지 하나 이상의 구현예들의 예시라는 것을 이해할 것이다. 따라서 범위는 단지 첨부된 청구범위에 의해서만 제한된다.
Claims (22)
- 좌안영상들 및 우안영상들을 포함하는 입체영상스트림을 제공하는 영상생성기; 영상생성기로부터 입체영상스트림을 수신하고, 좌안영상들 및 우안영상들로 각각 여과되어 시청기구를 통하여 시청될 때 입체영상의 3차원 렌더링이 제공되도록 시청기구에서 시청되는 입체영상에 광을 형성시키는 최소한 하나의 영상변조기; 및, 최소한 하나의 영상변조기로부터 광을 수신하여 입체영상이 시청기구에 수신될 때 광선들이 실질적으로 평행하도록 시준하는 시준기구로 구성되는, 시스템.
- 제1항에 있어서, 최소한 하나의 영상변조기를 포함하고 입체영상을 투사하는 최소한 하나의 영사기; 입체영상이 투사되는 최소한 하나의 스크린; 및 최소한 하나의 스크린으로부터의 입체영상이 시준되도록 반사하는 최소한 하나의 시준 거울을 더욱 포함하고, 시준기구는 최소한 하나의 스크린 및 최소한 하나의 시준 거울로 구성되는, 시스템.
- 제1항에 있어서, 최소한 하나의 시준 거울은 구면 및 포물면 중 하나이고, 최소한 하나의 스크린은 최소한 하나의 시준 거울의 상보적 형태를 가지는, 시스템.
- 제1항에 있어서, 시준기구는, 입체영상이 제공되는 최소한 하나의 스크린; 및 최소한 하나의 스크린으로부터의 입체영상이 시준되도록 반사하는 최소한 하나의 시준 거울로 구성되는, 시스템.
- 제1항에 있어서, 시스템은: 최소한 하나의 영상변조기가 입체영상에 광을 형성하기 전에 입체영상을 신축 (warping); 시준기구에 대한 시청기구의 변경 위치에 기반한 신축을 반복; 좌안영상들 및 우안영상들 사이 양안 거리 변경; 및 입체영상스트림으로의2차원 영상들 삽입 중 최소한 하나를 위한 연산장치를 더욱 포함하는, 시스템.
- 제1항에 있어서, 시스템은 입체영상이 실감나도록 몰입 환경을 더욱 포함하는, 시스템.
- 제6항에 있어서, 몰입 환경은 하나 이상의 모의 환경, 및 모의 비행장치, 및 모의 운전장치로 구성되는, 시스템.
- 제6항에 있어서, 몰입 환경은 하나 이상의 가시화 환경, 현미경 가시화 환경, 의료 영상 가시화 환경, 및 오일 및 가스 가시화 환경, 및 지진 가시화 환경을 포함하는, 시스템.
- 제6항에 있어서, 몰입 환경은 훈련 환경을 포함하는, 시스템.
- 제1항에 있어서, 시스템은: 시청기구 위치 획득이 가능한 머리 추적 기구; 및 시청기구의 하나 이상의 위치 및 방향에 기반하여 시청되는 입체영상을 조정하는 처리기를 더욱 포함하는, 시스템.
- 제10항에 있어서, 입체영상은 시청 곡면에 투사되고 처리기는 곡면 기하공간에 기반하여 입체영상을 조절하는, 시스템.
- 제11항에 있어서, 시스템은 기하공간 표시 데이터 저장 메모리를 더욱 포함하는, 시스템.
- 제12항에 있어서, 처리기는: 평면 스크린에 제공될 때의 입체영상으로 구성되는 표시 영상들을 결정; 곡면 기하공간 및 시청기구 위치 표시 데이터에 기반하여 평면 스크린 왜곡을 결정; 및 입체영상이 곡면에 투사될 때 왜곡되지 않게 보이도록 왜곡에 기반하여 영상들을 조정하여, 곡면 기하공간에 기반하여 입체영상을 조정하는, 시스템.
- 제13항에 있어서, 시청기구 위치 변경이 결정될 때마다 입체영상 조정은 반복되는, 시스템.
- 제10항에 있어서, 시준기구는 시준 거울을 포함하며, 시준 거울은 반사광이 시준되도록 곡면으로부터의 광을 반사하는, 시스템.
- 제1항에 있어서, 시스템은: 좌안영상들 및 우안영상들의 양안 거리 변경에 따라 입체영상을 조정할 수 있는 처리기를 더욱 포함하는, 시스템.
- 제16항에 있어서, 양안 거리는 입체영상 시청자 및 입체영상에서의 최소한 하나의 부여 특징부 (given feature) 사이의 가상 거리에 기반하여 가변되는, 시스템.
- 제16항에 있어서, 양안거리는 좌안영상들 및 우안영상들이 초입체 (hyperstereo)로 제공되도록 가변되는, 시스템.
- 제18항에 있어서, 가상 거리가 제1 부여 한계값 이상 및 제2 부여 한계값 이하 중 하나 이상인 경우 좌안영상들 및 우안영상들은 초입체로 제공되는, 시스템.
- 제1항에 있어서, 시스템은: 입체영상 시청자 및 입체영상에서의 최소한 하나의 부여 특징부 (given feature) 사이의 가상 거리에 기반하여 2차원 영상들을 입체영상스트림에 삽입할 수 있는 처리기를 더욱 포함하는, 시스템.
- 제20항에 있어서, 처리기는 좌안영상들 및 우안영상들 중 하나를 우안영상들 및 좌안영상들 중 다른 하나로 대체함으로써 2차원 영상들을 입체영상스트림에 삽입하는, 시스템.
- 제20항에 있어서, 처리기는 가상 거리가 제1 부여 한계값 이상 및 제2 부여 한계값 이하 중 하나 이상인 경우 2차원 영상들을 입체영상스트림에 삽입하는, 시스템.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/297,814 | 2011-11-16 | ||
US13/297,814 US9191659B2 (en) | 2011-11-16 | 2011-11-16 | Collimated stereo display system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130054181A true KR20130054181A (ko) | 2013-05-24 |
KR102071077B1 KR102071077B1 (ko) | 2020-01-29 |
Family
ID=47294673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120128527A KR102071077B1 (ko) | 2011-11-16 | 2012-11-14 | 시준화 입체표시시스템 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9191659B2 (ko) |
EP (1) | EP2595397B1 (ko) |
JP (1) | JP2013106355A (ko) |
KR (1) | KR102071077B1 (ko) |
CN (1) | CN103118265B (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160047144A (ko) * | 2014-10-22 | 2016-05-02 | 엘지전자 주식회사 | 영상 투사 시스템 |
KR20190122258A (ko) * | 2017-03-07 | 2019-10-29 | 8259402 캐나다 인크. | 디스플레이에서 가상 이미지를 제어하기 위한 방법 |
US11327317B2 (en) | 2018-01-30 | 2022-05-10 | Sony Corporation | Information processing apparatus and information processing method |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102812420B (zh) * | 2010-03-18 | 2016-01-20 | 富士胶片株式会社 | 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法 |
US8704879B1 (en) * | 2010-08-31 | 2014-04-22 | Nintendo Co., Ltd. | Eye tracking enabling 3D viewing on conventional 2D display |
JP5510431B2 (ja) * | 2011-11-21 | 2014-06-04 | 株式会社デンソー | 車両用表示装置 |
US20130285919A1 (en) * | 2012-04-25 | 2013-10-31 | Sony Computer Entertainment Inc. | Interactive video system |
DE102013212667A1 (de) * | 2013-06-28 | 2014-12-31 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Darstellen eines dreidimensionalen Bildes unter Verwendung eines Bildgebers einer Blickfeldanzeigeeinrichtung für ein Fahrzeug |
CN103336678B (zh) * | 2013-07-17 | 2015-11-25 | 天脉聚源(北京)传媒科技有限公司 | 一种资源展示方法、装置和终端 |
CN103325135B (zh) * | 2013-07-17 | 2017-04-12 | 天脉聚源(北京)传媒科技有限公司 | 一种资源展示方法、装置和终端 |
CN103442243A (zh) * | 2013-07-31 | 2013-12-11 | 北京智谷睿拓技术服务有限公司 | 便携式3d显示装置及3d显示方法 |
KR102170182B1 (ko) * | 2014-04-17 | 2020-10-26 | 한국전자통신연구원 | 패턴 프로젝션을 이용한 왜곡 보정 및 정렬 시스템, 이를 이용한 방법 |
US9280887B2 (en) | 2014-05-13 | 2016-03-08 | Christopher H. Son | Systems and methods for detection and management of viewing conditions using distance and other factors |
KR20160067518A (ko) * | 2014-12-04 | 2016-06-14 | 삼성전자주식회사 | 영상 생성 방법 및 장치 |
IL236420A (en) | 2014-12-23 | 2016-06-30 | Ron Schneider | Methods and systems for producing an enlarged 3D image |
JP6636252B2 (ja) * | 2015-03-19 | 2020-01-29 | 株式会社メガチップス | 投影システム、プロジェクター装置、撮像装置、および、プログラム |
CN105044912B (zh) * | 2015-08-12 | 2018-04-27 | 中国人民解放军95995部队 | 一种3d旁轴虚像显示系统 |
US9916768B2 (en) * | 2016-01-15 | 2018-03-13 | The Boeing Company | Systems and methods for providing sunlight simulation in a vehicle simulator |
CN110114710B (zh) | 2016-10-31 | 2020-11-27 | 德遁公司 | 毫微微投影仪光学系统 |
CN106781832A (zh) * | 2017-01-06 | 2017-05-31 | 上海大学 | 一种飞机驾驶舱视景高亮度显示系统 |
US10613334B2 (en) * | 2018-05-21 | 2020-04-07 | Tectus Corporation | Advanced femtoprojector optical systems |
DE102018213820A1 (de) * | 2018-08-16 | 2020-02-20 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahrzeug |
US10942360B2 (en) * | 2018-09-18 | 2021-03-09 | Disney Enterprises, Inc. | Free-viewpoint collimated display systems for collimated effects |
CN110060291B (zh) * | 2019-04-04 | 2023-01-31 | 长春理工大学 | 一种考虑人因的立体视在距离解算方法 |
KR20220110185A (ko) * | 2019-12-03 | 2022-08-05 | 소니그룹주식회사 | 화상표시장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH099300A (ja) * | 1995-06-26 | 1997-01-10 | Matsushita Electric Ind Co Ltd | 立体表示装置 |
JPH11133350A (ja) * | 1997-10-31 | 1999-05-21 | Hitachi Ltd | 映像表示設備、これを構成する凹面鏡装置及びスクリーン装置、これらの製造方法 |
JPH11338457A (ja) * | 1998-05-26 | 1999-12-10 | Nippon Telegr & Teleph Corp <Ntt> | 両眼視差式立体表示方法及び記録媒体 |
JP2007323093A (ja) * | 1999-02-23 | 2007-12-13 | Matsushita Electric Works Ltd | 仮想環境体験表示装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4826287A (en) | 1987-01-20 | 1989-05-02 | Hughes Aircraft Company | Display system having coma-control plate in relay lens |
JP2690857B2 (ja) | 1994-03-09 | 1997-12-17 | パイオニア株式会社 | 反射ミラー |
US5584696A (en) | 1994-07-28 | 1996-12-17 | Evans & Sutherland Computer Corp. | Hang gliding simulation system with a stereoscopic display and method of simulating hang gliding |
US5483307A (en) * | 1994-09-29 | 1996-01-09 | Texas Instruments, Inc. | Wide field of view head-mounted display |
JP4149037B2 (ja) | 1998-06-04 | 2008-09-10 | オリンパス株式会社 | 映像システム |
JP4128008B2 (ja) | 2000-05-19 | 2008-07-30 | ティボル・バログ | 3d画像を表示するための方法及び装置 |
US6752498B2 (en) * | 2001-05-14 | 2004-06-22 | Eastman Kodak Company | Adaptive autostereoscopic display system |
WO2003079272A1 (en) * | 2002-03-15 | 2003-09-25 | University Of Washington | Materials and methods for simulating focal shifts in viewers using large depth of focus displays |
US7180663B2 (en) | 2002-06-19 | 2007-02-20 | Robert Bruce Collender | 3D motion picture theatre |
GB0310702D0 (en) | 2003-05-09 | 2003-06-11 | Seos Ltd | Image display apparatus |
JP2005167310A (ja) * | 2003-11-28 | 2005-06-23 | Sharp Corp | 撮影装置 |
JP2006133252A (ja) * | 2004-11-02 | 2006-05-25 | Matsushita Electric Works Ltd | 仮想現実感生成装置 |
US7675513B2 (en) * | 2008-03-14 | 2010-03-09 | Evans & Sutherland Computer Corp. | System and method for displaying stereo images |
US8403502B2 (en) * | 2008-11-18 | 2013-03-26 | Barco N.V. | Collimated visual display with elliptical front projection screen |
KR101296900B1 (ko) * | 2009-01-07 | 2013-08-14 | 엘지디스플레이 주식회사 | 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치 |
EP2418865A3 (en) * | 2010-08-09 | 2014-08-06 | LG Electronics Inc. | 3D viewing device, image display apparatus, and method for operating the same |
-
2011
- 2011-11-16 US US13/297,814 patent/US9191659B2/en active Active
-
2012
- 2012-11-12 EP EP12192213.2A patent/EP2595397B1/en active Active
- 2012-11-14 KR KR1020120128527A patent/KR102071077B1/ko active IP Right Grant
- 2012-11-14 JP JP2012250650A patent/JP2013106355A/ja active Pending
- 2012-11-15 CN CN201210459109.2A patent/CN103118265B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH099300A (ja) * | 1995-06-26 | 1997-01-10 | Matsushita Electric Ind Co Ltd | 立体表示装置 |
JPH11133350A (ja) * | 1997-10-31 | 1999-05-21 | Hitachi Ltd | 映像表示設備、これを構成する凹面鏡装置及びスクリーン装置、これらの製造方法 |
JPH11338457A (ja) * | 1998-05-26 | 1999-12-10 | Nippon Telegr & Teleph Corp <Ntt> | 両眼視差式立体表示方法及び記録媒体 |
JP2007323093A (ja) * | 1999-02-23 | 2007-12-13 | Matsushita Electric Works Ltd | 仮想環境体験表示装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160047144A (ko) * | 2014-10-22 | 2016-05-02 | 엘지전자 주식회사 | 영상 투사 시스템 |
KR20190122258A (ko) * | 2017-03-07 | 2019-10-29 | 8259402 캐나다 인크. | 디스플레이에서 가상 이미지를 제어하기 위한 방법 |
US11327317B2 (en) | 2018-01-30 | 2022-05-10 | Sony Corporation | Information processing apparatus and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2013106355A (ja) | 2013-05-30 |
EP2595397B1 (en) | 2019-09-11 |
US9191659B2 (en) | 2015-11-17 |
CN103118265A (zh) | 2013-05-22 |
KR102071077B1 (ko) | 2020-01-29 |
CN103118265B (zh) | 2017-04-12 |
US20130120362A1 (en) | 2013-05-16 |
EP2595397A3 (en) | 2013-11-13 |
EP2595397A2 (en) | 2013-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20130054181A (ko) | 시준화 입체표시시스템 | |
JP7213002B2 (ja) | アドレス指定可能な焦点手がかりを用いた立体視ディスプレイ | |
US20110032482A1 (en) | 3d autostereoscopic display with true depth perception | |
CN111869204B (zh) | 为基于积分成像的光场显示来渲染光场图像的方法 | |
KR102116697B1 (ko) | 3차원 가상 및 증강 현실 디스플레이 시스템 | |
US11683472B2 (en) | Superstereoscopic display with enhanced off-angle separation | |
CN109683335A (zh) | 使用眼睛位置的无三维眼镜光场显示 | |
CN103261943A (zh) | 采用一个或多个菲涅尔透镜的头戴式显示装置 | |
JP2011501822A (ja) | 表示装置及びその表示方法 | |
CN110447224A (zh) | 在显示器中控制虚像的方法 | |
JP2020514810A (ja) | 拡大視野を伴う自由曲面プリズムおよびヘッドマウントディスプレイ | |
US20210294119A1 (en) | Display apparatus for rendering three-dimensional image and method therefor | |
CN111751988B (zh) | 一种景深调节方法、装置及双目近眼显示设备 | |
US20120188226A1 (en) | Method and system for displaying stereoscopic images | |
US20220163816A1 (en) | Display apparatus for rendering three-dimensional image and method therefor | |
Zhang et al. | Design and implementation of an optical see-through near-eye display combining Maxwellian-view and light-field methods | |
US20130176538A1 (en) | Multi-view autostereoscopic display | |
US20140285484A1 (en) | System of providing stereoscopic image to multiple users and method thereof | |
Kovacs et al. | 3D Display technologies and effects on the human vision system | |
Vishwanath | Immersion, tangibility, and realism: explaining the qualitative experience of stereopsis | |
Batchko et al. | A variable-collimation display system | |
Sluka | 42‐1: Invited Paper: High‐Resolution Light‐Field AR at Comparable Computing Cost to Stereo 3D | |
Ding et al. | 39.2: Invited Paper: Ultra‐high Definition Remote Stereo Real‐time Broadcasting Monitoring System | |
JP2011033820A (ja) | 3次元画像表示装置 | |
Yu et al. | Modern Display Technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |