KR101560474B1 - Apparatus and method for providing 3d user interface using stereoscopic image display device - Google Patents
Apparatus and method for providing 3d user interface using stereoscopic image display device Download PDFInfo
- Publication number
- KR101560474B1 KR101560474B1 KR1020140018520A KR20140018520A KR101560474B1 KR 101560474 B1 KR101560474 B1 KR 101560474B1 KR 1020140018520 A KR1020140018520 A KR 1020140018520A KR 20140018520 A KR20140018520 A KR 20140018520A KR 101560474 B1 KR101560474 B1 KR 101560474B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- user
- stereoscopic display
- stereoscopic
- dimensional
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 35
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 41
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 210000001508 eye Anatomy 0.000 description 28
- 230000006870 function Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명의 실시예들에 따른 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치는 스테레오스코픽 디스플레이와 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 3차원 깊이 센서, 3차원 깊이 영상을 이용하여, 사용자 얼굴 또는 안구의 위치 정보를 각각 획득하는 3차원 동작 분석부, UI 컨트롤들을 포함하는 UI 영상을 생성하는 UI 처리부 및 UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하고, UI 깊이 정보에 따라 UI 영상을 스테레오스코픽 UI 영상으로 변환하는 포맷터를 포함할 수 있다.A stereoscopic display device for providing a three-dimensional user interface according to embodiments of the present invention includes a stereoscopic display and a three-dimensional depth sensor for acquiring a three-dimensional depth image for a three-dimensional real space in front of a stereoscopic display, A 3D motion analyzer for acquiring positional information of a user's face or an eyeball using a depth image, a UI processor for generating a UI image including UI controls, and a stereoscopic UI image converted from the UI image, And a formatter for converting the UI image into the stereoscopic UI image according to the UI depth information.
Description
본 발명은 스테레오스코픽 영상 기술에 관한 것으로, 더욱 상세하게는, 스테레오스코픽 영상을 위한 사용자 인터페이스 기술에 관한 것이다.The present invention relates to stereoscopic image technology, and more particularly, to a user interface technique for stereoscopic images.
스테레오스코픽 영상(stereoscopic image) 기술은 대표적인 입체 영상 기술로서, 사람의 좌안과 우안에 서로 간섭을 일으키지 않도록 분리된 두 종류의 영상들을 각각 입력하고, 사람의 두뇌가 좌안과 우안에 각각 입력된 영상들을 합성하여 가상의 입체감이 느껴지도록 만드는 기술이다.Stereoscopic image technology is a typical stereoscopic image technology. In this stereoscopic image technology, two separated images are inputted so that they do not interfere with each other's left and right eyes. It is a technique to make a virtual three-dimensional feeling to be synthesized.
좌안과 우안에 각각 입력되기 위한 두 종류의 영상들은 사람의 양안 거리만큼 이격되도록 배치된 두 개의 카메라들로 촬영한 좌영상과 우영상을 기반으로 얻을 수 있다. 두 개의 카메라들에 의해 획득되는 두 스테레오스코픽 영상들은 동일한 피사체에 상응하는 픽셀들 사이에 디스패리티(disparity)를 가지는데, 디스패리티에 의해 피사체의 깊이 정보(뎁스, depth)가 생성되며, 이들 스테레오스코픽 영상들이 각각 좌안과 우안에 입력되면 시청자는 서로 다른 깊이 정보를 가지는 피사체들에 의해 입체감을 느낄 수 있게 된다.The two kinds of images to be inputted to the left eye and the right eye can be obtained based on the left and right images taken by two cameras arranged so as to be separated from each other by the binocular distance of the person. Two stereoscopic images obtained by two cameras have a disparity between pixels corresponding to the same subject. Depth of the subject is generated by the disparity, When the scopic images are input to the left and right eyes respectively, the viewer can feel the three-dimensional feeling by the subjects having different depth information.
좌안과 우안에 각각 간섭을 일으키지 않는 영상들을 입력하는 방법으로 편광 방식, 시분할 방식 및 스펙트럼 분할 방식이 사용되고 있다. A polarization method, a time division method, and a spectrum division method are used as methods for inputting images that do not cause interference to the left eye and the right eye, respectively.
편광 방식은 스테레오스코픽 디스플레이에는 좌안을 위한 좌영상 라인들에서 발산되는 빛과 우안을 위한 우영상 라인들에서 발산되는 빛을 각각 서로 직교하도록 편광시키는 편광 필터가 부착되고, 시청자는 편광 안경을 착용하여 좌영상과 우영상을 분리 인식하는 방식이다. 좌영상 라인들에서 발산하는 빛은 편광 안경의 좌안 편광 필터만을 통과하여 좌안에만 입사하고 우영상 라인들에서 발산하는 빛은 편광 안경의 우안 편광 필터만을 통과하여 우안에만 입사하므로, 시청자는 좌영상과 우영상을 결합하여 입체감을 느끼게 된다.In the polarization scheme, a polarizing filter for polarizing the light emitted from the left video lines for the left eye and the light emitted from the right video lines for the right eye to orthogonally cross each other is attached to the stereoscopic display. The left and right images are separated and recognized. The light emitted from the left image lines passes through only the left eye polarizing filter of the polarizing glasses and enters the left eye only and the light emitted from the right image lines passes through only the right eye polarizing filter of the polarizing glasses and enters only the right eye, And the right image is combined to feel a three-dimensional feeling.
시분할 방식은 스테레오스코픽 디스플레이에서 좌안을 위한 좌영상과 우안을 위한 우영상을 각각 번갈아가며 표시하고 사용자는 능동식 셔터 안경을 착용하여 좌영상과 우영상을 분리 인식하는 방식이다. 능동식 셔터 안경은 스테레오스코픽 디스플레이와 동기되어, 좌영상이 표시될 때에는 좌안 셔터를 열어 좌안이 좌영상을 인식하게 하고 우영상이 표시될 때에는 우안 셔터를 열어 우안이 우영상을 인식하게 하며, 시청자는 좌영상과 우영상을 결합하여 입체감을 느끼게 된다.In the time-division method, the left image for the left eye and the right image for the right eye are alternately displayed on the stereoscopic display, and the user sees the left image and the right image separately by wearing active shutter glasses. The active shutter glasses are synchronized with the stereoscopic display. When the left image is displayed, the left eye shutter is opened to allow the left eye to recognize the left image. When the right image is displayed, the right eye shutter is opened to allow the right eye to recognize the right image. The left image and the right image are combined and the three-dimensional image is sensed.
스펙트럼 방식은 RGB 스펙트럼에서 서로 중첩되지 않는 스펙트럼 대역을 가지는 스펙트럼 필터를 통해 좌우 영상을 스테레오스코픽 디스플레이가 표시하고 사용자는 스펙트럼 필터 안경을 착용하여 좌우 영상을 분리 인식하는 방식이다.In the spectral method, the stereoscopic display displays the left and right images through a spectral filter having a spectrum band that does not overlap with each other in the RGB spectrum, and the user sees the left and right images by wearing the spectral filter glasses.
어떤 방식의 스테레오스코픽 방식이든, 사용자가 입체감을 느끼는 것은 피사체의 디스패리티에 따라 깊이 정보가 발생하기 때문이다.In any stereoscopic method, the user feels stereoscopic because the depth information is generated according to the disparity of the subject.
한편 전통적으로 디스플레이 장치는 사용자 인터페이스와 매우 밀접한 관계를 가지고 있다. 종래의 디스플레이용 사용자 인터페이스는 2D 디스플레이 장치에 표시되는 영상에 각종 사용자 인터페이스 오브젝트들이나 컨트롤들을 중첩하여 표시하고, 사용자가 마우스, 키보드, 무선 포인터, 손가락 터치 스크린 등을 이용하여 사용자 인터페이스 오브젝트들이나 컨트롤들을 조작하는 방식이다.Traditionally, display devices have a close relationship with the user interface. Conventional display user interfaces display various user interface objects or controls superimposed on an image displayed on a 2D display device and allow the user to manipulate user interface objects or controls using a mouse, a keyboard, a wireless pointer, a finger touch screen, .
통상적으로 스테레오스코픽 디스플레이 장치에도 이러한 2D 인터페이스가 사용되는데, 깊이감이 있는 스테레오스코픽 영상에 중첩된 평면적인 2D 인터페이스 화면은 사용자가 느끼는 입체감에 혼란을 줄 수 있다. 또한 스테레오스코픽 영상의 감상 중에 마우스나 무선 포인터, 또는 터치 스크린을 이용하려고 시선을 돌리거나 또는 TV 리모컨을 찾으려고 하다 보면 주의가 흐트러져 사용자의 만족감이 떨어질 수 밖에 없다.Such a 2D interface is usually used for a stereoscopic display device. A 2D interface screen superimposed on a stereoscopic image having a deep feeling can confuse the stereoscopic feeling that the user feels. Also, if you try to use a mouse, a wireless pointer, or a touch screen to look at stereoscopic images, or try to find a TV remote control, you will not be satisfied with the user's satisfaction.
본 발명이 해결하고자 하는 과제는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a stereoscopic display apparatus and method for providing a three-dimensional user interface.
본 발명이 해결하고자 하는 과제는 사용자에게 자연스러운 깊이감을 주는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a stereoscopic display device and a method for providing a three-dimensional user interface that gives a natural depth to a user.
본 발명이 해결하고자 하는 과제는 사용자에게 3차원 컨트롤들에 관한 자연스러운 피드백을 주는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a stereoscopic display apparatus and method that provide a three-dimensional user interface that gives a user natural feedback on three-dimensional controls.
본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확히 이해될 수 있을 것이다.The solution to the problem of the present invention is not limited to those mentioned above, and other solutions not mentioned can be clearly understood by those skilled in the art from the following description.
본 발명의 일 측면에 따른 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치는,A stereoscopic display apparatus for providing a three-dimensional user interface according to an aspect of the present invention includes:
스테레오스코픽 디스플레이;A stereoscopic display;
상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 3차원 깊이 센서;A three-dimensional depth sensor for obtaining a three-dimensional depth image of a frontal three-dimensional real space of the stereoscopic display;
상기 3차원 깊이 영상을 이용하여, 사용자 얼굴 또는 안구의 위치 정보를 각각 획득하는 3차원 동작 분석부;A 3D motion analyzer for acquiring positional information of a user's face or eyeball using the 3D depth image;
UI 컨트롤들을 포함하는 UI 영상을 생성하는 UI 처리부; 및A UI processing unit for generating a UI image including UI controls; And
상기 UI 영상에서 변환되는 상기 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하고, 상기 UI 깊이 정보에 따라 상기 UI 영상을 상기 스테레오스코픽 UI 영상으로 변환하는 포맷터를 포함할 수 있다.The UI depth information is determined so that the stereoscopic UI image converted from the UI image is recognized at a predetermined position within a user's arm length and the UI image is converted into the stereoscopic UI image according to the UI depth information .
일 실시예에 따라, 상기 3차원 동작 분석부는 According to one embodiment, the 3D motion analyzer
사용자 손가락 끝의 위치 정보 및 동작 정보를 획득하도록 동작하고,To obtain position information and motion information of a user's fingertip,
상기 UI 처리부는 The UI processing unit
사용자의 손가락 끝의 위치 정보 및 동작 정보가 스테레오스코픽 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하며, 판단 결과에 따라 특정한 UI 컨트롤을 시각적으로 변형한 UI 영상을 생성하도록 동작할 수 있다.It is possible to determine whether the position information and operation information of the user's fingertip corresponds to a specific UI control in the stereoscopic UI image and generate a UI image in which a specific UI control is visually modified according to the determination result.
일 실시예에 따라, 상기 3차원 깊이 센서는According to one embodiment, the 3D depth sensor
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 상기 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하도록 동작하고,Wherein the stereoscopic display comprises at least two image sensors arranged to face the user on a plane of the stereoscopic display or on a plane parallel to the screen so that a three dimensional depth image of the front three- Lt; / RTI >
상기 3차원 동작 분석부는 The 3D motion analyzer
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작할 수 있다.Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and obtaining position information of the user's face or eyeball from the identified face region have.
일 실시예에 따라, 상기 3차원 깊이 센서는 According to one embodiment, the 3D depth sensor
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 상기 스테레오스코픽 디스플레이의 정면의 현실 공간에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득하도록 동작하고,At least two image sensors arranged to face the user on a plane of the stereoscopic display screen or on a plane parallel to the screen so that the three dimensional depth image and the two dimensional image of the front real space of the stereoscopic display Respectively,
상기 3차원 동작 분석부는 The 3D motion analyzer
상기 2차원 영상에서 사용자의 얼굴로 식별되는 영역을 먼저 추출하고, 상기 2차원 영상에서 추출된 얼굴 영역에 상응하는 3차원 깊이 영상 내의 특정 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작할 수 있다.Dimensional image, and to obtain positional information of the user's face or eyeball from a specific region within the three-dimensional depth image corresponding to the face region extracted from the two-dimensional image have.
일 실시예에 따라, 상기 3차원 깊이 센서는 According to one embodiment, the 3D depth sensor
구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 상기 3차원 깊이 영상을 획득하도록 동작하고,Dimensional depth image by emitting a structured light and detecting reflected light reflected from the subject and analyzing the deformed shape of the detected reflected light,
상기 3차원 동작 분석부는 The 3D motion analyzer
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작할 수 있다.Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and obtaining position information of the user's face or eyeball from the identified face region have.
일 실시예에 따라, 상기 스테레오스코픽 UI 영상은 According to one embodiment, the stereoscopic UI image is
사용자의 안구를 정점으로 하고 사용자의 안구로부터 상기 스테레오스코픽 디스플레이의 스크린을 향하는 시야각이 이루는 사각뿔과, 상기 UI 깊이 정보에 의해 특정되고 상기 스테레오스코픽 디스플레이의 스크린과 평행한 평면이 만나 이루어지는 다각형 내에서, 상기 UI 컨트롤이 인식되도록 형성될 수 있다.In a polygon in which a quadrangular pyramid of a viewing angle from a user's eyeball to a screen of the stereoscopic display from a user's eye and a plane specified by the UI depth information and parallel to the screen of the stereoscopic display meet, The UI control may be recognized.
일 실시예에 따라, 상기 UI 깊이 정보는 사용자와 상기 스테레오스코픽 디스플레이 사이의 거리에 따라 결정될 수 있다.According to one embodiment, the UI depth information may be determined according to the distance between the user and the stereoscopic display.
일 실시예에 따라, 상기 스테레오스코픽 디스플레이 장치는,According to one embodiment, the stereoscopic display apparatus includes:
표시 중이던 스테레오스코픽 컨텐츠 영상에 상기 포맷터로부터 전달된 상기 스테레오스코픽 UI 영상을 합성하고, 합성된 스테레오스코픽 영상을 상기 스테레오스코픽 디스플레이에 전달하는 영상 합성부를 더 포함할 수 있다.The stereoscopic image display apparatus may further include an image synthesizing unit synthesizing the stereoscopic UI image transmitted from the formatter on the stereoscopic content image being displayed and transmitting the synthesized stereoscopic image to the stereoscopic display.
일 실시예에 따라, 상기 UI 처리부는 According to one embodiment, the UI processing unit
사용자에게 상기 UI 컨트롤이 상기 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록, 상기 UI 컨트롤을 배치하도록 동작할 수 있다.The UI control may be arranged to place the UI control such that the UI control overlaps over the background layer by avoiding the object layers that are seen to be protruding from the stereoscopic content image.
본 발명의 다른 측면에 따라, 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법은,According to another aspect of the present invention, there is provided a method of providing a 3D user interface using a stereoscopic display device,
UI 컨트롤들을 포함하는 UI 영상을 생성하는 단계;Generating a UI image including UI controls;
상기 UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하는 단계; 및Determining UI depth information such that a stereoscopic UI image transformed from the UI image is recognized at a predetermined position within a user's arm length; And
상기 UI 깊이 정보에 따라 상기 UI 영상으로부터 변환된 스테레오스코픽 UI 영상을 상기 스테레오스코픽 디스플레이에 표시하는 단계를 포함할 수 있다.And displaying the stereoscopic UI image converted from the UI image on the stereoscopic display according to the UI depth information.
일 실시예에 따라, 상기 UI 깊이 정보를 결정하는 단계는,According to one embodiment, determining the UI depth information comprises:
상기 스테레오스코픽 디스플레이의 스크린과 동일한 평면 또는 평행하는 평면에 배치된 3차원 깊이 센서를 이용하여 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계;Obtaining a three-dimensional depth image of a frontal three-dimensional real space of the stereoscopic display using a three-dimensional depth sensor disposed in a plane that is the same as or parallel to the screen of the stereoscopic display;
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계; 및 Acquiring position information of a user's face or eyeball from the 3D depth image; And
상기 사용자 얼굴 또는 안구의 위치 정보로부터 상기 UI 깊이 정보를 결정하는 단계를 포함할 수 있다.And determining the UI depth information from the position information of the user's face or eyeball.
일 실시예에 따라, 상기 3차원 사용자 인터페이스 제공 방법은,According to an embodiment, the 3D user interface providing method includes:
상기 3차원 깊이 영상으로부터 사용자 손가락 끝의 위치 정보 및 동작 정보를 획득하는 단계; 및Obtaining position information and operation information of a user's fingertip from the 3D depth image; And
상기 사용자의 손가락 끝의 위치 정보 및 동작 정보가 스테레오스코픽 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하고, 판단 결과에 따라 특정한 UI 컨트롤을 시각적으로 변형한 UI 영상을 생성하는 단계를 더 포함할 수 있다.Determining whether the position information and the operation information of the fingertip of the user corresponds to a specific UI control in the stereoscopic UI image and generating a UI image in which a specific UI control is visually modified according to the determination result .
일 실시예에 따라, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는According to one embodiment, acquiring a 3D depth image for the 3D real space of the front of the stereoscopic display
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 상기 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 이용하여, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계를 포함하고,Dimensional depth image for the three-dimensional real space in front of the stereoscopic display using at least two image sensors arranged to face the user on a plane formed by the screen of the stereoscopic display or parallel to the screen Comprising:
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는The step of acquiring the position information of the user's face or eyeball from the 3D depth image
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함할 수 있다.Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and acquiring position information of the user's face or eyeball from the identified face region can do.
일 실시예에 따라, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는According to one embodiment, acquiring a 3D depth image for the 3D real space of the front of the stereoscopic display
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 이용하여, 상기 스테레오스코픽 디스플레이의 정면의 현실 공간에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득하는 단계를 포함하고,Dimensional depth image and a two-dimensional image of the real space of the front face of the stereoscopic display using at least two image sensors arranged to face the user on a plane of the stereoscopic display screen or on a plane parallel to the screen, Respectively,
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는The step of acquiring the position information of the user's face or eyeball from the 3D depth image
상기 2차원 영상에서 사용자의 얼굴로 식별되는 영역을 먼저 추출하고, 상기 2차원 영상에서 추출된 얼굴 영역에 각각 상응하는 3차원 깊이 영상 내의 특정 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함할 수 있다.A step of first extracting an area identified by the user's face in the two-dimensional image and acquiring position information of the user's face or eyeball from a specific area in the three-dimensional depth image corresponding to the face area extracted from the two- .
일 실시예에 따라, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는According to one embodiment, acquiring a 3D depth image for the 3D real space of the front of the stereoscopic display
구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 상기 3차원 깊이 영상을 획득하는 단계를 포함하고,Extracting the structured light, detecting reflected light reflected from the subject, and analyzing the deformed shape of the detected reflected light to obtain the 3D depth image,
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는The step of acquiring the position information of the user's face or eyeball from the 3D depth image
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함할 수 있다.Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and acquiring position information of the user's face or eyeball from the identified face region can do.
일 실시예에 따라, 상기 스테레오스코픽 UI 영상은 According to one embodiment, the stereoscopic UI image is
사용자의 안구를 정점으로 하고 사용자의 안구로부터 상기 스테레오스코픽 디스플레이의 스크린을 향하는 시야각이 이루는 사각뿔과, 상기 UI 깊이 정보에 의해 특정되고 상기 스테레오스코픽 디스플레이의 스크린과 평행한 평면이 만나 이루어지는 다각형 내에서, 상기 UI 컨트롤이 인식되도록 형성될 수 있다.In a polygon in which a quadrangular pyramid of a viewing angle from a user's eyeball to a screen of the stereoscopic display from a user's eye and a plane specified by the UI depth information and parallel to the screen of the stereoscopic display meet, The UI control may be recognized.
일 실시예에 따라, 상기 UI 깊이 정보는 사용자와 상기 스테레오스코픽 디스플레이 사이의 거리에 따라 결정될 수 있다.According to one embodiment, the UI depth information may be determined according to the distance between the user and the stereoscopic display.
일 실시예에 따라, 상기 3차원 사용자 인터페이스 제공 방법은According to one embodiment, the 3D user interface providing method comprises:
상기 스테레오스코픽 디스플레이에 표시 중이던 스테레오스코픽 컨텐츠 영상에 상기 스테레오스코픽 UI 영상을 합성하고, 상기 합성된 스테레오스코픽 영상을 상기 스테레오스코픽 디스플레이에 표시하는 단계를 더 포함할 수 있다.Synthesizing the stereoscopic UI image on the stereoscopic content image being displayed on the stereoscopic display, and displaying the synthesized stereoscopic image on the stereoscopic display.
일 실시예에 따라, 상기 UI 컨트롤들을 포함하는 UI 영상을 생성하는 단계는According to one embodiment, the step of generating a UI image comprising the UI controls
사용자에게 상기 UI 컨트롤이 상기 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록, 상기 UI 컨트롤을 배치하여 상기 UI 영상을 생성하는 단계를 포함할 수 있다.And creating the UI image by disposing the UI control so that the UI control overlaps the object layers of the stereoscopic content image that appear to be overlaid on the background layer.
본 발명의 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법에 따르면, 사용자에게 자연스러운 깊이감을 주는 3차원 사용자 인터페이스를 제공할 수 있다.According to the stereoscopic display apparatus and method for providing a three-dimensional user interface of the present invention, it is possible to provide a three-dimensional user interface that gives a natural depth to a user.
본 발명의 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법에 따르면, 사용자에게 3차원 컨트롤들에 관한 자연스러운 피드백을 주는 3차원 사용자 인터페이스를 제공할 수 있다.According to a stereoscopic display apparatus and method for providing a three-dimensional user interface of the present invention, it is possible to provide a three-dimensional user interface that gives a user natural feedback about three-dimensional controls.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치를 예시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 스테레오스코픽 디스플레이 장치가 제공하는 3차원 사용자 인터페이스를 예시한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법을 예시한 순서도이다.1 is a block diagram illustrating a stereoscopic display apparatus providing a three-dimensional user interface according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a 3D user interface provided by a stereoscopic display apparatus according to an exemplary embodiment of the present invention.
3 is a flowchart illustrating a method for providing a 3D user interface using a stereoscopic display apparatus according to an embodiment of the present invention.
본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.For the embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be practiced in various forms, The present invention should not be construed as limited to the embodiments described in Figs.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.
도 1은 본 발명의 일 실시예에 따른 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치를 예시한 블록도이다.1 is a block diagram illustrating a stereoscopic display apparatus providing a three-dimensional user interface according to an embodiment of the present invention.
도 1을 참조하면, 3차원 사용자 인터페이스(UI, user interface)를 제공하는 스테레오스코픽 디스플레이 장치(10)는 3차원 깊이 센서(11), 3차원 동작 분석부(12), UI 처리부(13), 포맷터(formatter)(14), 영상 합성부(15) 및 스테레오스코픽 디스플레이(16)를 포함할 수 있다.Referring to FIG. 1, a
사용자는 스테레오스코픽 디스플레이(16)의 정면에 일정 거리 떨어진 위치의 편안한 영역(comfort zone) 내에서 스테레오스코픽 디스플레이(16)에 표시되는 스테레오스코픽 영상들을 감상할 수 있다.The user can appreciate the stereoscopic images displayed on the
또한 사용자는 스테레오스코픽 영상과 조화를 이루면서 표시되는 3차원 오브젝트들 또는 3차원 컨트롤들(이하, UI 컨트롤로 통칭함)에 대해 소정의 깊이감을 느끼는 상태에서 조작할 수 있고, 조작의 결과를 오브젝트의 위치나 형태의 변화에 의해 즉각적으로 스트레오스코픽하게 인식함으로써, 자신의 조작에 대한 피드백을 자연스럽게 인지할 수 있다.Further, the user can manipulate the 3D object or 3D control (hereinafter referred to as UI control) displayed in harmony with the stereoscopic image in a state of feeling a predetermined depth, By instantly recognizing it stereoscopically by the change of the position or the form, it can naturally perceive the feedback on the operation of the user.
일 실시예에서, 3차원 깊이 센서(11)는 스테레오스코픽 디스플레이(16)의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 스테레오스코픽 디스플레이(16)의 정면의 3차원 현실 공간 및 사용자의 신체에 대한 3차원 깊이 영상을 획득한다.In one embodiment, the three-
이 경우, 일 실시예에서, 3차원 동작 분석부(12)는, 3차원 깊이 영상을 분석하여, 사용자의 얼굴 또는 안구의 위치 정보와, 사용자 손가락 끝의 위치 정보 및 동작 정보를 각각 획득한다. In this case, in one embodiment, the
예를 들어, 3차원 동작 분석부(12)는 예를 들어 사용자가 스테레오스코픽 디스플레이(16) 앞에 일정 거리 떨어진 위치에 편안한 감상 자세로 곧게 앉아 있다고 가정하고, 스테레오스코픽 디스플레이(16)의 정면의 현실 공간에 대한 3차원 깊이 영상 내에서 신체 부위에 관한 특징점들(features)을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역 및 손가락 끝 영역을 각각 식별하며, 식별된 영역들로부터 사용자 얼굴 또는 안구의 위치 정보와, 손가락 끝의 위치 정보 및 동작 정보를 획득할 수 있다.For example, assuming that the user is sitting in a comfortable listening position at a certain distance from the
여기서, 위치 정보는 3차원 깊이 영상 내에서의 위치 정보이므로, 사용자 얼굴 또는 안구의 위치 정보는 사용자 얼굴 또는 안구의 깊이 정보를 포함하고, 사용자 손가락 끝의 위치 정보는 사용자 손가락 끝의 깊이 정보를 포함한다.Here, since the position information is position information in the 3D depth image, the position information of the user's face or eyeball includes depth information of the user's face or eyeball, and the position information of the user's fingertip includes depth information of the user's fingertip do.
다른 실시예에서, 3차원 깊이 센서(11)는 스테레오스코픽 디스플레이(16)의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 스테레오스코픽 디스플레이(16)의 정면의 현실 공간과 사용자 신체에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득할 수 있다. 이때, 3차원 깊이 영상은 두 개의 영상 센서들에서 촬영된 영상들을 스테레오 정합하여 획득될 수 있고, 2차원 영상은 두 개의 영상 센서들 중 적어도 하나에서 촬영된 영상을 기초로 획득될 수 있다.In another embodiment, the
이 경우, 일 실시예에서, 3차원 동작 분석부(12)는, 3차원 깊이 영상과 2차원 영상을 함께 이용하여, 사용자 얼굴 또는 안구의 위치 정보와, 사용자 손가락 끝의 위치 정보 및 동작 정보를 각각 획득할 수 있다.In this case, in one embodiment, the three-dimensional
다른 실시예에서, 3차원 동작 분석부(12)는 스테레오스코픽 디스플레이(16)의 정면의 현실 공간과 사용자 신체에 대한 2차원 영상에서 사용자의 얼굴로 식별되는 영역 및 손가락으로 식별되는 영역을 먼저 추출하고, 2차원 영상에서 추출된 식별 영역들에 각각 상응하는 3차원 깊이 영상 내의 특정 영역들로부터 사용자 얼굴 또는 안구의 위치 정보와 사용자 손가락 끝의 위치 정보 및 동작 정보를 각각 획득할 수 있다.In another embodiment, the three-
또 다른 실시예에서, 3차원 깊이 센서(11)는 구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 3차원 깊이 영상을 획득할 수 있다.In another embodiment, the
이를 위해, 일 실시예에서, 3차원 동작 분석부(12)는 스테레오스코픽 디스플레이(16)의 정면의 현실 공간과 사용자 신체에 대한 3차원 깊이 영상 내에서 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역 및 손가락 끝 영역을 각각 식별하며, 식별된 영역들로부터 사용자 얼굴 또는 안구의 위치 정보와, 손가락 끝의 위치 정보 및 동작 정보를 획득할 수 있다.To this end, in one embodiment, the three-
3차원 동작 분석부(12)가 생성한 사용자 얼굴 또는 안구의 위치 정보와 사용자 손가락 끝의 위치 정보 및 동작 정보는 사용자가 어떤 UI 컨트롤을 어떻게 조작하였는지 여부를 판단할 수 있도록 UI 처리부(13)에 전달되고, 또한 사용자에게 UI 컨트롤들이 사용자의 손이 닿는 범위 내에서 시각적으로 인식되는 스테레오스코픽 UI 영상이 생성되도록 포맷터(14)에도 전달된다.The position information of the user's face or eyes generated by the three-dimensional
한편, 스테레오스코픽 UI 영상에 대한 사용자의 조작은 먼저 스테레오스코픽 UI 기능이 그 전에 활성화되는 것을 전제로 하는데, 그러한 스테레오스코픽 UI 기능의 활성화 또는 초기화는 사용자의 리모컨 조작에 의존하여 구현될 수도 있고 또는 3차원 동작 분석부(12)의 사용자 제스처 분석 결과에 기초하도록 구현될 수도 있다. 예를 들어, 사용자가 UI 조작을 원할 경우에 TV 스크린을 응시하면서 마치 허공에서 어떤 가상적인 버튼을 누르고 싶다는 듯이 검지 손가락만 내민 상태로 네 손가락들을 쥐고 팔을 살짝 앞으로 펴는 자세를 소정 시간, 예를 들어 몇 초간 취할 수 있는데, 이러한 소정의 제스처 조건이 만족되면, 3차원 동작 분석부(12)는 UI 활성화 신호를 UI 처리부(13) 및 포맷터(14)로 전달할 수 있다.On the other hand, the user's operation on the stereoscopic UI image is assumed to be activated before the stereoscopic UI function, and activation or initialization of such stereoscopic UI function may be implemented depending on the remote control operation of the user, or 3 Dimensional
UI 처리부(13)는, 사용자의 리모컨 조작에 따라 또는 제스처에 따라 UI 표시 기능이 활성화되면, 예를 들어 사용자가 3D 영화를 감상 중인지, 화상 회의를 하는 중인지, 게임을 하는 중인지 등의 상황에 따라 적절한 UI 컨트롤들을 포함하는 UI 영상을 생성하고, 생성된 UI 영상을 포맷터(14)에 전달한다.When the UI display function is activated in accordance with the user's remote control operation or according to the gesture, the
이때, UI 컨트롤들은 현재 표시 중인 스테레오스코픽 컨텐츠 영상의 감상에 대한 방해를 최소화할 수 있도록, 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록 의도적으로 배치될 수 있다.At this time, the UI controls may be intentionally disposed so as to overlap over the background layer in such a manner as to avoid the protruding object layers of the stereoscopic content image so as to minimize disturbance to the viewing of the currently displayed stereoscopic content image.
UI 표시 기능이 활성화되면, 포맷터(14)는 사용자 얼굴 또는 안구 위치 정보 또는 사용자 손가락 끝 위치 정보에 포함되는 깊이 정보에 기초하여, 사용자가 손을 편안하게 뻗으면 닿을 정도의 깊이감을 느끼는 위치에 소정의 UI 컨트롤들이 입체감을 가지고 인식될 수 있도록 UI 컨트롤들을 위한 UI 깊이 정보를 결정할 수 있다.When the UI display function is activated, the
나아가 포맷터(14)는 UI 처리부(13)로부터 UI 컨트롤들을 포함하는 UI 영상을 수신하며, 결정된 UI 깊이 정보를 따라, 수신된 UI 영상을 스테레오스코픽 변환하여 스테레오스코픽 UI 영상을 생성할 수 있다.Further, the
또한 UI 깊이 정보는 사용자와 스테레오스코픽 디스플레이 사이의 거리에 따라, 다시 말해 사용자의 감상 공간의 크기를 감안하여 상황에 따라 적응적으로 결정될 수 있다. 예를 들어 사용자가 책상 위에 세워진 스테레오스코픽 디스플레이(16)에 가까이 앉아 있다면 UI 깊이 정보는 사용자가 넓은 거실에서 안락하게 스테레오스코픽 디스플레이(16)를 마주하고 있는 경우의 UI 깊이 정보보다 짧게 결정되는 것이 적절할 것이다.Also, the UI depth information can be adaptively determined according to the distance between the user and the stereoscopic display, that is, taking into account the size of the user's listening space. For example, if the user is sitting close to the
스테레오스코픽 영상에서 깊이 정보는 오브젝트의 좌우 디스패리티 값과 반비례하므로, 깊이 정보가 결정되면 그 깊이 정보에 상응하는 위치에서 오브젝트를 인식시킬 수 있는 좌우 영상의 디스패리티 값이 결정된다. 따라서, UI 깊이 정보가 결정되면 포맷터(14)는 UI 컨트롤을 그 위치에서 사용자로 하여금 인식시킬 수 있다.Since the depth information is in inverse proportion to the left and right disparity values of the object in the stereoscopic image, when the depth information is determined, the disparity values of the left and right images capable of recognizing the object at positions corresponding to the depth information are determined. Thus, if the UI depth information is determined, the
이때, UI 깊이 정보, 사용자 얼굴 또는 안구의 위치 정보나 사용자 손가락 끝의 위치 정보는 모두 깊이 정보라는 용어에 기초하여 표현되지만, UI 깊이 정보는 스테레오스코픽 영상 내의 배경 레이어가 인식되는 위치로부터 스테레오스코픽 UI 영상 내의 UI 컨트롤들이 인식되는 위치까지의 기하학적인 거리를 의미하는 반면에, 사용자 얼굴 또는 안구의 위치 정보에 포함되는 깊이 정보와 사용자 손가락 끝 위치 정보에 포함되는 깊이 정보는 3차원 깊이 센서(11)에 의해 측정되는, 스테레오스코픽 디스플레이(16)로부터 사용자까지의 측정 거리를 의미한다는 점을 주의한다.At this time, the UI depth information, the position information of the user's face or eyeball, and the position information of the user's fingertip are all expressed on the basis of the term depth information. However, the UI depth information is expressed by a stereoscopic UI The depth information included in the position information of the user's face or eyeball and the depth information included in the user's fingertip position information indicate the geometric distance from the
구체적으로, 포맷터(14)는 사용자가 인식하는 스테레오스코픽 영상의 시야각 내에 사용자가 조작하고자 하는 UI 컨트롤들이 모두 위치하도록, UI 처리부(13)로부터 수신된 UI 영상을 변환하여 스테레오스코픽 UI 영상을 생성할 수 있다.Specifically, the
나아가, 포맷터(14)는 사용자가 인식하는 스테레오스코픽 영상의 시야각 내에 사용자가 조작하고자 하는 UI 컨트롤들이 서로 혼동없이 구별되도록, UI 영상을 변환하여 스테레오스코픽 UI 영상을 생성할 수 있다.Further, the
여기서, 사용자가 인식하는 스테레오스코픽 영상의 시야각은 사용자의 위치에서 바라본 스테레오스코픽 디스플레이(16)의 스크린이 차지하는 시야각이다. 소정의 기초적인 기하학적인 관계에 따라, 사용자의 안구를 정점으로 하고 사용자의 안구로부터 스테레오스코픽 디스플레이(16)의 스크린을 향하는 시야각이 이루는 사각뿔과, UI 깊이 정보에 의해 특정되고 스테레오스코픽 디스플레이(16)의 스크린과 평행한 평면이 만나는 다각형, 즉 사각형을 생각해 볼 수 있다. 스테레오스코픽 UI 영상은 이러한 다각형 내에서 UI 컨트롤이 인식되도록 생성될 수 있다. 설명의 편의를 위해 본 명세서에서는 이러한 가상의 다각형을 UI 조작 다각형이라고 부르기로 한다.Here, the viewing angle of the stereoscopic image recognized by the user is a viewing angle occupied by the screen of the
UI 컨트롤들은 스테레오스코픽 디스플레이(16) 상의 스테레오스코픽 영상 내에서만 존재하므로, 사용자는 스테레오스코픽 디스플레이(16)의 스크린이 차지하는 시야각을 벗어나서는 결코 UI 컨트롤들을 인식할 수 없다. 결국, 이 UI 조작 다각형 내에서만 사용자의 손동작에 의한 유의미한 조작이 일어날 것이고, UI 조작 다각형을 벗어난 위치에서는 어떠한 사용자의 손동작도 UI 컨트롤의 조작과 관련되어 해석될 수 없다. 따라서 사용자가 UI 조작과 무관하게 수행하는 손동작이나 움직임이 UI 컨트롤에 관련된 조작으로 이해될 가능성은 줄어든다.Since the UI controls are only present in the stereoscopic image on the
또한 UI 컨트롤들이 시각적으로 인식되는 3차원 공간 상의 위치는 스테레오스코픽 변환의 기하학적 원리에 기초하여 쉽게 파악될 수 있으므로, 이러한 UI 컨트롤들이 인식되는 위치와 손가락 끝의 위치 정보를 비교함으로써 UI 처리부(13)는 사용자가 어떤 UI 컨트롤을 조작하려는 중인지 판단할 수 있다.Since the positions on the three-dimensional space where the UI controls are visually recognized can be easily grasped based on the geometric principle of the stereoscopic transformation, the
이에 따라, UI 처리부(13)는 사용자의 손가락 끝의 위치 정보 및 동작 정보가 스테레오스코픽 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하고, 판단 결과에 따라 특정한 UI 컨트롤을 시각적으로 변형한 UI 영상을 생성할 수 있다.Accordingly, the
구체적으로, UI 처리부(13)는 사용자 얼굴(좀더 바람직하게는 사용자의 안구)의 위치 정보 및 UI 깊이 정보에 따라 UI 조작 다각형을 특정하고, 사용자 손가락 끝의 위치 정보에 따라 UI 조작 다각형 내에서 사용자가 조작을 의도한 UI 컨트롤을 식별하며, 사용자 손가락 끝의 동작 정보에 따라 사용자의 UI 컨트롤에 대한 조작 의도를 식별하고, 식별된 조작 의도에 따라 사용자에게 피드백을 제공할 수 있도록 UI 컨트롤들을 시각적으로 변형하면서 UI 영상을 계속 생성한다. 예를 들어, 사용자의 손가락 끝의 위치 정보에 상응하는 위치의 UI 컨트롤이 버튼 형태이고 사용자 손가락 끝의 동작 정보가 손가락을 앞으로 더 돌출시키는 동작에 상응한다면, UI 컨트롤은 버튼이 눌러지거나 색상이 변화하는 시각적 효과를 나타내도록 변형될 수 있다.Specifically, the
이어서, 포맷터(14)는 UI 깊이 정보에 따라 결정된 디스패리티를 가지고 UI 영상으로부터 스테레오스코픽 UI 영상을 생성하고, 생성된 스테레오스코픽 UI 영상을 영상 합성부(15)에 전달한다.Then, the
영상 합성부(15)는 원래 표시 중이던 스테레오스코픽 컨텐츠 영상에 스테레오스코픽 UI 영상을 합성하고 합성된 스테레오스코픽 영상을 스테레오스코픽 디스플레이(16)에 전달한다.The
3차원 사용자 인터페이스의 생성과 피드백을 예시하기 위해 도 2를 참조하면, 도 2는 본 발명의 일 실시예에 따른 스테레오스코픽 디스플레이 장치가 제공하는 3차원 사용자 인터페이스를 예시한 개념도이다.2 is a conceptual diagram illustrating a 3D user interface provided by a stereoscopic display apparatus according to an exemplary embodiment of the present invention.
도 2에서, 좌측에 스테레오스코픽 디스플레이(16)에 소정의 스테레오스코픽 영상이 표시되고 있는 중에, 사용자의 UI 활성화 제스처 또는 리모콘 조작에 의해 스테레오스코픽 UI 영상 기능이 활성화된다.2, a stereoscopic UI image function is activated by a user's UI activation gesture or remote control operation while a predetermined stereoscopic image is displayed on the
먼저 스테레오스코픽 UI 영상 내의 UI 컨트롤들이 사용자에 의해 인식될 위치를 결정하기 위해, 3차원 깊이 센서(11)에 의해 스테레오스코픽 디스플레이(16)를 기준으로 사용자의 얼굴 또는 안구의 위치 정보가 결정되고, 사용자의 얼굴 또는 안구 위치로부터 사용자가 편안하게 조작할 수 있는 거리에 기초하여, 또한 경우에 따라서는 사용자의 감상 공간의 크기를 감안하여, UI 깊이 정보가 결정된다. 예를 들어 UI 깊이 정보는 사용자 얼굴, 즉 안구에서 50 cm 떨어진 위치에 상응하는 깊이로 결정될 수 있다.First, the position information of the user's face or eye is determined by the three-
이에 따라, UI 처리부(13)가 생성한 2차원 UI 영상은 포맷터(14)에서 결정된 UI 깊이 정보에 따라 스테레오스코픽 UI 영상으로 변환된다.Accordingly, the two-dimensional UI image generated by the
사용자는 스테레오스코픽 UI 영상이 마치 자신의 얼굴 앞에 50 cm 정도 떨어진 위치에 떠있는 것처럼 인식할 것이며 정면으로 50 cm 정도 손을 뻗어 손가락 끝을 UI 컨트롤이 인식되는 지점에 위치시켰을 때에 해당 위치의 UI 컨트롤이 시각적으로 변형되는 것을 확인함으로써, UI 컨트롤의 정상적인 조작 여부에 관하여 피드백받을 수 있다.The user will perceive the stereoscopic UI image as if it is floating about 50 cm in front of his or her face and extend the hand about 50 cm in front of the face to place the finger tip at the point where the UI control is recognized, It is possible to receive feedback as to whether or not the UI control is normally operated.
도 3은 본 발명의 일 실시예에 따른 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법을 예시한 순서도이다.3 is a flowchart illustrating a method for providing a 3D user interface using a stereoscopic display apparatus according to an embodiment of the present invention.
도 3을 참조하면, 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법은 스테레오스코픽 디스플레이(16)의 스크린과 동일한 평면 또는 평행하는 평면에 배치된 3차원 깊이 센서(11)를 가지는 도 1의 스테레오스코픽 디스플레이 장치(10)를 이용한다.Referring to FIG. 3, a method for providing a 3D user interface using a stereoscopic display device includes the steps of providing a
이에 따라, 3차원 사용자 인터페이스 제공 방법은, 단계(S31)에서, UI 컨트롤들을 포함하는 UI 영상을 생성한다.Accordingly, in step S31, the 3D user interface providing method generates a UI image including UI controls.
이어서, 단계(S32)에서, UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정한다. Subsequently, in step S32, the UI depth information is determined such that the stereoscopic UI image converted in the UI image is recognized at a predetermined position within the arm length of the user.
구체적으로, 단계(S32)에서, 스테레오스코픽 디스플레이(16)의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하고, 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하며, 사용자 얼굴 또는 안구의 위치 정보로부터 UI 깊이 정보를 결정할 수 있다.Specifically, in step S32, a three-dimensional depth image for the three-dimensional real space on the front face of the
단계(S33)에서, UI 깊이 정보에 따라 UI 영상으로부터 변환된 스테레오스코픽 UI 영상을 스테레오스코픽 디스플레이(16)에 표시한다.In step S33, the stereoscopic UI image converted from the UI image is displayed on the
단계(S34)에서, 사용자의 손가락 끝의 위치 정보 및 동작 정보가 스테레오스코픽 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하고, 판단 결과에 따라 특정한 UI 컨트롤을 시각적으로 변형한 UI 영상을 생성한다.In step S34, it is determined whether the position information and the operation information of the user's fingertip correspond to a specific UI control in the stereoscopic UI image, and a UI image in which a specific UI control is visually modified in accordance with the determination result is generated.
UI 영상이 생성된 후에, 절차는 단계(S32)로 되돌아가 반복될 수 있다. After the UI image is generated, the procedure may return to step S32 and repeat.
또한, 언제라도 UI 표시 기능이 비활성화되거나 또는 UI 컨트롤에 대한 조작 목적이 달성되면, UI 영상을 생성하는 단계 또는 표시하는 단계에서 절차는 종료될 수 있다.Also, if the UI display function is deactivated at any time, or if the operation objective for the UI control is achieved, the procedure may be terminated at the step of creating or displaying the UI image.
본 실시예 및 본 명세서에 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형예와 구체적인 실시예는 모두 본 발명의 권리범위에 포함되는 것이 자명하다고 할 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. It will be understood that variations and specific embodiments which may occur to those skilled in the art are included within the scope of the present invention.
또한, 본 발명에 따른 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, 광학 디스크, 자기 테이프, 플로피 디스크, 하드 디스크, 비휘발성 메모리 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Further, the apparatus according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include ROM, RAM, optical disk, magnetic tape, floppy disk, hard disk, nonvolatile memory and the like. The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.
10 스테레오스코픽 디스플레이 장치
11 3차원 깊이 센서
12 3차원 동작 분석부
13 UI 처리부
14 포맷터
15 영상 합성부
16 스테레오스코픽 디스플레이10 stereoscopic display device
11 3D depth sensor
12 Three-dimensional motion analysis unit
13 UI processing section
14 formatter
15 image synthesis unit
16 Stereoscopic Display
Claims (19)
상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 3차원 깊이 센서;
상기 3차원 깊이 영상을 이용하여, 사용자 얼굴 또는 안구의 위치 정보, 사용자 손가락 끝의 위치 정보 및 동작 정보를 각각 획득하는 3차원 동작 분석부;
UI 컨트롤들을 포함하는 UI 영상을 생성하되, 사용자의 손가락 끝의 위치 정보 및 동작 정보가 상기 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하며, 판단 결과에 따라 상기 특정 UI 컨트롤이 시각적으로 변형되도록 상기 UI 영상을 생성하는 UI 처리부; 및
상기 UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하고, 상기 UI 깊이 정보에 따라 상기 UI 영상을 상기 스테레오스코픽 UI 영상으로 변환하는 포맷터를 포함하고,
상기 스테레오스코픽 UI 영상은 사용자의 안구를 정점으로 하고 사용자의 안구로부터 상기 스테레오스코픽 디스플레이의 스크린을 향하는 시야각이 이루는 사각뿔과, 상기 UI 깊이 정보에 의해 특정되고 상기 스테레오스코픽 디스플레이의 스크린과 평행한 평면이 만나 이루어지는 다각형 내에서, 상기 UI 컨트롤이 인식되도록 형성되고,
상기 3차원 동작 분석부는 상기 3차원 깊이 영상에서 상기 사각뿔 내의 공간 내에 상응하는 영역 내에서 상기 사용자 손가락 끝의 위치 정보 및 동작 정보를 획득하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.A stereoscopic display;
A three-dimensional depth sensor for obtaining a three-dimensional depth image of a frontal three-dimensional real space of the stereoscopic display;
A three-dimensional motion analyzer for obtaining positional information of a user's face or eyeball, positional information of a user's fingertip, and motion information using the 3D depth image;
The UI control unit generates UI images including UI controls, determines whether the position information and operation information of a user's fingertip corresponds to a specific UI control in the UI image, and controls the UI A UI processing unit for generating an image; And
And a formatter for determining the UI depth information such that the stereoscopic UI image converted from the UI image is recognized at a predetermined position within the arm length of the user and converting the UI image into the stereoscopic UI image according to the UI depth information and,
Wherein the stereoscopic UI image includes a quadrangular pyramid of a viewing angle formed by a viewing angle of a user's eyeball from a user's eyeball toward a screen of the stereoscopic display and a plane that is specified by the UI depth information and is parallel to the screen of the stereoscopic display The UI control is formed so as to be recognized in the polygon where the UI control is performed,
Wherein the 3D motion analyzing unit is operable to obtain position information and operation information of the user's fingertip in a region corresponding to a space in the quadrangular pyramid in the 3D depth image, Display device.
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 상기 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하도록 동작하고,
상기 3차원 동작 분석부는
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.The apparatus of claim 1, wherein the three-dimensional depth sensor
Wherein the stereoscopic display comprises at least two image sensors arranged to face the user on a plane of the stereoscopic display or on a plane parallel to the screen so that a three dimensional depth image of the front three- Lt; / RTI >
The 3D motion analyzer
Extracting feature points related to a user's body part in the 3D depth image, identifying the face region of the user by the extracted feature points, and obtaining position information of the user's face or eyeball from the identified face region Wherein the stereoscopic display device is a stereoscopic display device.
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 상기 스테레오스코픽 디스플레이의 정면의 현실 공간에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득하도록 동작하고,
상기 3차원 동작 분석부는
상기 2차원 영상에서 사용자의 얼굴로 식별되는 영역을 먼저 추출하고, 상기 2차원 영상에서 추출된 얼굴 영역에 상응하는 3차원 깊이 영상 내의 특정 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.The apparatus of claim 1, wherein the three-dimensional depth sensor
At least two image sensors arranged to face the user on a plane of the stereoscopic display screen or on a plane parallel to the screen so that the three dimensional depth image and the two dimensional image of the front real space of the stereoscopic display Respectively,
The 3D motion analyzer
Extracting an area identified by the face of the user from the two-dimensional image, and obtaining position information of the user's face or eyeball from a specific area within the three-dimensional depth image corresponding to the face area extracted from the two- Wherein the stereoscopic display device is a stereoscopic display device.
구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 상기 3차원 깊이 영상을 획득하도록 동작하고,
상기 3차원 동작 분석부는
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.The apparatus of claim 1, wherein the three-dimensional depth sensor
Dimensional depth image by emitting a structured light and detecting reflected light reflected from the subject and analyzing the deformed shape of the detected reflected light,
The 3D motion analyzer
Extracting feature points related to a user's body part in the 3D depth image, identifying the face region of the user by the extracted feature points, and obtaining position information of the user's face or eyeball from the identified face region Wherein the stereoscopic display device is a stereoscopic display device.
표시 중이던 스테레오스코픽 컨텐츠 영상에 상기 포맷터로부터 전달된 상기 스테레오스코픽 UI 영상을 합성하고, 합성된 스테레오스코픽 영상을 상기 스테레오스코픽 디스플레이에 전달하는 영상 합성부를 더 포함하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.The method according to claim 1,
Further comprising an image synthesizing unit synthesizing the stereoscopic UI image transmitted from the formatter on the stereoscopic content image being displayed and transmitting the synthesized stereoscopic image to the stereoscopic display / RTI >
사용자에게 상기 UI 컨트롤이 상기 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록, 상기 UI 컨트롤을 배치하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.The system according to claim 8, wherein the UI processing unit
Wherein the UI control is arranged to place the UI control so that the UI control overlaps the background layer by avoiding the protruding object layers of the stereoscopic content image.
UI 컨트롤들을 포함하는 UI 영상을 생성하는 단계;
상기 UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하는 단계; 및
상기 UI 깊이 정보에 따라 상기 UI 영상으로부터 변환된 스테레오스코픽 UI 영상을 상기 스테레오스코픽 디스플레이에 표시하는 단계를 포함하고,
상기 UI 깊이 정보를 결정하는 단계는,
상기 스테레오스코픽 디스플레이의 스크린과 동일한 평면 또는 평행하는 평면에 배치된 3차원 깊이 센서를 이용하여 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계;
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계;
상기 사용자 얼굴 또는 안구의 위치 정보로부터 상기 UI 깊이 정보를 결정하는 단계;
상기 3차원 깊이 영상으로부터 사용자 손가락 끝의 위치 정보 및 동작 정보를 획득하는 단계; 및
상기 사용자의 손가락 끝의 위치 정보 및 동작 정보가 상기 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하고, 판단 결과에 따라 상기 특정 UI 컨트롤이 시각적으로 변형되도록 UI 영상을 생성하는 단계를 포함하며,
상기 스테레오스코픽 UI 영상은 사용자의 안구를 정점으로 하고 사용자의 안구로부터 상기 스테레오스코픽 디스플레이의 스크린을 향하는 시야각이 이루는 사각뿔과, 상기 UI 깊이 정보에 의해 특정되고 상기 스테레오스코픽 디스플레이의 스크린과 평행한 평면이 만나 이루어지는 다각형 내에서, 상기 UI 컨트롤이 인식되도록 형성되며,
상기 사용자 손가락 끝의 위치 정보 및 동작 정보는 상기 3차원 깊이 영상에서 상기 사각뿔 내의 공간 내에 상응하는 영역 내에서 획득되는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.A three-dimensional user interface providing method using a stereoscopic display apparatus,
Generating a UI image including UI controls;
Determining UI depth information such that a stereoscopic UI image transformed from the UI image is recognized at a predetermined position within a user's arm length; And
And displaying the stereoscopic UI image converted from the UI image on the stereoscopic display according to the UI depth information,
Wherein the step of determining the UI depth information comprises:
Obtaining a three-dimensional depth image of a frontal three-dimensional real space of the stereoscopic display using a three-dimensional depth sensor disposed in a plane that is the same as or parallel to the screen of the stereoscopic display;
Acquiring position information of a user's face or eyeball from the 3D depth image;
Determining the UI depth information from position information of the user's face or eyeball;
Obtaining position information and operation information of a user's fingertip from the 3D depth image; And
Determining whether the position information and the operation information of the fingertip of the user corresponds to a specific UI control in the UI image and generating a UI image so that the specific UI control is visually modified according to the determination result;
Wherein the stereoscopic UI image includes a quadrangular pyramid of a viewing angle formed by a viewing angle of a user's eyeball from a user's eyeball toward a screen of the stereoscopic display and a plane that is specified by the UI depth information and is parallel to the screen of the stereoscopic display The UI control is formed so as to be recognized in the polygon where the UI control is performed,
Wherein the position information and operation information of the user's fingertip is obtained in a region corresponding to a space in the quadrangular pyramid in the 3D depth image.
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 상기 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 이용하여, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계를 포함하고,
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.11. The method of claim 10, wherein obtaining the 3D depth image for the 3D real space of the front of the stereoscopic display
Dimensional depth image for the three-dimensional real space in front of the stereoscopic display using at least two image sensors arranged to face the user on a plane formed by the screen of the stereoscopic display or parallel to the screen Comprising:
The step of acquiring the position information of the user's face or eyeball from the 3D depth image
Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and acquiring position information of the user's face or eyeball from the identified face region Dimensional user interface using the stereoscopic display device.
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 이용하여, 상기 스테레오스코픽 디스플레이의 정면의 현실 공간에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득하는 단계를 포함하고,
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는
상기 2차원 영상에서 사용자의 얼굴로 식별되는 영역을 먼저 추출하고, 상기 2차원 영상에서 추출된 얼굴 영역에 각각 상응하는 3차원 깊이 영상 내의 특정 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.11. The method of claim 10, wherein obtaining the 3D depth image for the 3D real space of the front of the stereoscopic display
Dimensional depth image and a two-dimensional image of the real space of the front face of the stereoscopic display using at least two image sensors arranged to face the user on a plane of the stereoscopic display screen or on a plane parallel to the screen, Respectively,
The step of acquiring the position information of the user's face or eyeball from the 3D depth image
A step of first extracting an area identified by the user's face in the two-dimensional image and acquiring position information of the user's face or eyeball from a specific area in the three-dimensional depth image corresponding to the face area extracted from the two- Dimensional user interface using a stereoscopic display device.
구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 상기 3차원 깊이 영상을 획득하는 단계를 포함하고,
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.11. The method of claim 10, wherein obtaining the 3D depth image for the 3D real space of the front of the stereoscopic display
Extracting the structured light, detecting reflected light reflected from the subject, and analyzing the deformed shape of the detected reflected light to obtain the 3D depth image,
The step of acquiring the position information of the user's face or eyeball from the 3D depth image
Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and acquiring position information of the user's face or eyeball from the identified face region Dimensional user interface using the stereoscopic display device.
상기 스테레오스코픽 디스플레이에 표시 중이던 스테레오스코픽 컨텐츠 영상에 상기 스테레오스코픽 UI 영상을 합성하고, 상기 합성된 스테레오스코픽 영상을 상기 스테레오스코픽 디스플레이에 표시하는 단계를 더 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.The method of claim 10,
Further comprising synthesizing the stereoscopic UI image on the stereoscopic content image being displayed on the stereoscopic display and displaying the synthesized stereoscopic image on the stereoscopic display. A method for providing a 3D user interface.
사용자에게 상기 UI 컨트롤이 상기 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록, 상기 UI 컨트롤을 배치하여 상기 UI 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.19. The method of claim 18, wherein generating a UI image including the UI controls comprises:
And creating the UI image by disposing the UI control so that the UI control overlaps the object layers of the stereoscopic content image that appear to be overlaid on the background layer. A method for providing a three-dimensional user interface using the method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140018520A KR101560474B1 (en) | 2014-02-18 | 2014-02-18 | Apparatus and method for providing 3d user interface using stereoscopic image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140018520A KR101560474B1 (en) | 2014-02-18 | 2014-02-18 | Apparatus and method for providing 3d user interface using stereoscopic image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150097245A KR20150097245A (en) | 2015-08-26 |
KR101560474B1 true KR101560474B1 (en) | 2015-10-14 |
Family
ID=54059283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140018520A KR101560474B1 (en) | 2014-02-18 | 2014-02-18 | Apparatus and method for providing 3d user interface using stereoscopic image display device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101560474B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102511495B1 (en) * | 2020-12-01 | 2023-03-17 | 서울과학기술대학교 산학협력단 | Method for generating realistic content |
WO2024263008A1 (en) * | 2023-06-22 | 2024-12-26 | 주식회사 브이터치 | Hologram image control method, apparatus, and recording medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101272572B1 (en) | 2011-11-11 | 2013-06-10 | 재단법인대구경북과학기술원 | Apparatus and Method for Estimating Depth Using 3D Image-Based Feature |
KR101284797B1 (en) | 2008-10-29 | 2013-07-10 | 한국전자통신연구원 | Apparatus for user interface based on wearable computing environment and method thereof |
-
2014
- 2014-02-18 KR KR1020140018520A patent/KR101560474B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101284797B1 (en) | 2008-10-29 | 2013-07-10 | 한국전자통신연구원 | Apparatus for user interface based on wearable computing environment and method thereof |
KR101272572B1 (en) | 2011-11-11 | 2013-06-10 | 재단법인대구경북과학기술원 | Apparatus and Method for Estimating Depth Using 3D Image-Based Feature |
Also Published As
Publication number | Publication date |
---|---|
KR20150097245A (en) | 2015-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11782513B2 (en) | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments | |
US12050757B2 (en) | Multi-user content sharing in immersive virtual reality environments | |
US10437347B2 (en) | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments | |
CN110647237B (en) | Gesture-based content sharing in an artificial reality environment | |
CN109564472B (en) | Method, medium, and system for selecting an interaction method with a virtual object | |
JP6057396B2 (en) | 3D user interface device and 3D operation processing method | |
KR102413561B1 (en) | Virtual user input controls in a mixed reality environment | |
JP5936155B2 (en) | 3D user interface device and 3D operation method | |
CN105637559B (en) | Use the structural modeling of depth transducer | |
KR101822471B1 (en) | Virtual Reality System using of Mixed reality, and thereof implementation method | |
US20130154913A1 (en) | Systems and methods for a gaze and gesture interface | |
US20110107216A1 (en) | Gesture-based user interface | |
KR101892735B1 (en) | Apparatus and Method for Intuitive Interaction | |
KR20170026164A (en) | Virtual reality display apparatus and display method thereof | |
WO2019069536A1 (en) | Information processing device, information processing method, and recording medium | |
US20150033157A1 (en) | 3d displaying apparatus and the method thereof | |
KR101560474B1 (en) | Apparatus and method for providing 3d user interface using stereoscopic image display device | |
JP2012038025A (en) | Display device, control method for display device, and program | |
KR20200120467A (en) | Head mounted display apparatus and operating method thereof | |
CN101751116A (en) | Interactive three-dimensional image display method and related three-dimensional display device | |
US20240377918A1 (en) | Information processing system | |
KR102156175B1 (en) | Interfacing device of providing user interface expoliting multi-modality and mehod thereof | |
KR20240092971A (en) | Display device for glasses-free stereoscopic image with function of air touch |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20140218 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20141217 Patent event code: PE09021S01D |
|
E90F | Notification of reason for final refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Final Notice of Reason for Refusal Patent event date: 20150810 Patent event code: PE09021S02D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20150924 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20151007 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20151007 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20190905 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20190905 Start annual number: 5 End annual number: 5 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20210718 |