[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101560474B1 - Apparatus and method for providing 3d user interface using stereoscopic image display device - Google Patents

Apparatus and method for providing 3d user interface using stereoscopic image display device Download PDF

Info

Publication number
KR101560474B1
KR101560474B1 KR1020140018520A KR20140018520A KR101560474B1 KR 101560474 B1 KR101560474 B1 KR 101560474B1 KR 1020140018520 A KR1020140018520 A KR 1020140018520A KR 20140018520 A KR20140018520 A KR 20140018520A KR 101560474 B1 KR101560474 B1 KR 101560474B1
Authority
KR
South Korea
Prior art keywords
image
user
stereoscopic display
stereoscopic
dimensional
Prior art date
Application number
KR1020140018520A
Other languages
Korean (ko)
Other versions
KR20150097245A (en
Inventor
조준동
박명덕
박종률
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020140018520A priority Critical patent/KR101560474B1/en
Publication of KR20150097245A publication Critical patent/KR20150097245A/en
Application granted granted Critical
Publication of KR101560474B1 publication Critical patent/KR101560474B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시예들에 따른 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치는 스테레오스코픽 디스플레이와 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 3차원 깊이 센서, 3차원 깊이 영상을 이용하여, 사용자 얼굴 또는 안구의 위치 정보를 각각 획득하는 3차원 동작 분석부, UI 컨트롤들을 포함하는 UI 영상을 생성하는 UI 처리부 및 UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하고, UI 깊이 정보에 따라 UI 영상을 스테레오스코픽 UI 영상으로 변환하는 포맷터를 포함할 수 있다.A stereoscopic display device for providing a three-dimensional user interface according to embodiments of the present invention includes a stereoscopic display and a three-dimensional depth sensor for acquiring a three-dimensional depth image for a three-dimensional real space in front of a stereoscopic display, A 3D motion analyzer for acquiring positional information of a user's face or an eyeball using a depth image, a UI processor for generating a UI image including UI controls, and a stereoscopic UI image converted from the UI image, And a formatter for converting the UI image into the stereoscopic UI image according to the UI depth information.

Description

3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING 3D USER INTERFACE USING STEREOSCOPIC IMAGE DISPLAY DEVICE}TECHNICAL FIELD [0001] The present invention relates to a stereoscopic display device and a stereoscopic display device,

본 발명은 스테레오스코픽 영상 기술에 관한 것으로, 더욱 상세하게는, 스테레오스코픽 영상을 위한 사용자 인터페이스 기술에 관한 것이다.The present invention relates to stereoscopic image technology, and more particularly, to a user interface technique for stereoscopic images.

스테레오스코픽 영상(stereoscopic image) 기술은 대표적인 입체 영상 기술로서, 사람의 좌안과 우안에 서로 간섭을 일으키지 않도록 분리된 두 종류의 영상들을 각각 입력하고, 사람의 두뇌가 좌안과 우안에 각각 입력된 영상들을 합성하여 가상의 입체감이 느껴지도록 만드는 기술이다.Stereoscopic image technology is a typical stereoscopic image technology. In this stereoscopic image technology, two separated images are inputted so that they do not interfere with each other's left and right eyes. It is a technique to make a virtual three-dimensional feeling to be synthesized.

좌안과 우안에 각각 입력되기 위한 두 종류의 영상들은 사람의 양안 거리만큼 이격되도록 배치된 두 개의 카메라들로 촬영한 좌영상과 우영상을 기반으로 얻을 수 있다. 두 개의 카메라들에 의해 획득되는 두 스테레오스코픽 영상들은 동일한 피사체에 상응하는 픽셀들 사이에 디스패리티(disparity)를 가지는데, 디스패리티에 의해 피사체의 깊이 정보(뎁스, depth)가 생성되며, 이들 스테레오스코픽 영상들이 각각 좌안과 우안에 입력되면 시청자는 서로 다른 깊이 정보를 가지는 피사체들에 의해 입체감을 느낄 수 있게 된다.The two kinds of images to be inputted to the left eye and the right eye can be obtained based on the left and right images taken by two cameras arranged so as to be separated from each other by the binocular distance of the person. Two stereoscopic images obtained by two cameras have a disparity between pixels corresponding to the same subject. Depth of the subject is generated by the disparity, When the scopic images are input to the left and right eyes respectively, the viewer can feel the three-dimensional feeling by the subjects having different depth information.

좌안과 우안에 각각 간섭을 일으키지 않는 영상들을 입력하는 방법으로 편광 방식, 시분할 방식 및 스펙트럼 분할 방식이 사용되고 있다. A polarization method, a time division method, and a spectrum division method are used as methods for inputting images that do not cause interference to the left eye and the right eye, respectively.

편광 방식은 스테레오스코픽 디스플레이에는 좌안을 위한 좌영상 라인들에서 발산되는 빛과 우안을 위한 우영상 라인들에서 발산되는 빛을 각각 서로 직교하도록 편광시키는 편광 필터가 부착되고, 시청자는 편광 안경을 착용하여 좌영상과 우영상을 분리 인식하는 방식이다. 좌영상 라인들에서 발산하는 빛은 편광 안경의 좌안 편광 필터만을 통과하여 좌안에만 입사하고 우영상 라인들에서 발산하는 빛은 편광 안경의 우안 편광 필터만을 통과하여 우안에만 입사하므로, 시청자는 좌영상과 우영상을 결합하여 입체감을 느끼게 된다.In the polarization scheme, a polarizing filter for polarizing the light emitted from the left video lines for the left eye and the light emitted from the right video lines for the right eye to orthogonally cross each other is attached to the stereoscopic display. The left and right images are separated and recognized. The light emitted from the left image lines passes through only the left eye polarizing filter of the polarizing glasses and enters the left eye only and the light emitted from the right image lines passes through only the right eye polarizing filter of the polarizing glasses and enters only the right eye, And the right image is combined to feel a three-dimensional feeling.

시분할 방식은 스테레오스코픽 디스플레이에서 좌안을 위한 좌영상과 우안을 위한 우영상을 각각 번갈아가며 표시하고 사용자는 능동식 셔터 안경을 착용하여 좌영상과 우영상을 분리 인식하는 방식이다. 능동식 셔터 안경은 스테레오스코픽 디스플레이와 동기되어, 좌영상이 표시될 때에는 좌안 셔터를 열어 좌안이 좌영상을 인식하게 하고 우영상이 표시될 때에는 우안 셔터를 열어 우안이 우영상을 인식하게 하며, 시청자는 좌영상과 우영상을 결합하여 입체감을 느끼게 된다.In the time-division method, the left image for the left eye and the right image for the right eye are alternately displayed on the stereoscopic display, and the user sees the left image and the right image separately by wearing active shutter glasses. The active shutter glasses are synchronized with the stereoscopic display. When the left image is displayed, the left eye shutter is opened to allow the left eye to recognize the left image. When the right image is displayed, the right eye shutter is opened to allow the right eye to recognize the right image. The left image and the right image are combined and the three-dimensional image is sensed.

스펙트럼 방식은 RGB 스펙트럼에서 서로 중첩되지 않는 스펙트럼 대역을 가지는 스펙트럼 필터를 통해 좌우 영상을 스테레오스코픽 디스플레이가 표시하고 사용자는 스펙트럼 필터 안경을 착용하여 좌우 영상을 분리 인식하는 방식이다.In the spectral method, the stereoscopic display displays the left and right images through a spectral filter having a spectrum band that does not overlap with each other in the RGB spectrum, and the user sees the left and right images by wearing the spectral filter glasses.

어떤 방식의 스테레오스코픽 방식이든, 사용자가 입체감을 느끼는 것은 피사체의 디스패리티에 따라 깊이 정보가 발생하기 때문이다.In any stereoscopic method, the user feels stereoscopic because the depth information is generated according to the disparity of the subject.

한편 전통적으로 디스플레이 장치는 사용자 인터페이스와 매우 밀접한 관계를 가지고 있다. 종래의 디스플레이용 사용자 인터페이스는 2D 디스플레이 장치에 표시되는 영상에 각종 사용자 인터페이스 오브젝트들이나 컨트롤들을 중첩하여 표시하고, 사용자가 마우스, 키보드, 무선 포인터, 손가락 터치 스크린 등을 이용하여 사용자 인터페이스 오브젝트들이나 컨트롤들을 조작하는 방식이다.Traditionally, display devices have a close relationship with the user interface. Conventional display user interfaces display various user interface objects or controls superimposed on an image displayed on a 2D display device and allow the user to manipulate user interface objects or controls using a mouse, a keyboard, a wireless pointer, a finger touch screen, .

통상적으로 스테레오스코픽 디스플레이 장치에도 이러한 2D 인터페이스가 사용되는데, 깊이감이 있는 스테레오스코픽 영상에 중첩된 평면적인 2D 인터페이스 화면은 사용자가 느끼는 입체감에 혼란을 줄 수 있다. 또한 스테레오스코픽 영상의 감상 중에 마우스나 무선 포인터, 또는 터치 스크린을 이용하려고 시선을 돌리거나 또는 TV 리모컨을 찾으려고 하다 보면 주의가 흐트러져 사용자의 만족감이 떨어질 수 밖에 없다.Such a 2D interface is usually used for a stereoscopic display device. A 2D interface screen superimposed on a stereoscopic image having a deep feeling can confuse the stereoscopic feeling that the user feels. Also, if you try to use a mouse, a wireless pointer, or a touch screen to look at stereoscopic images, or try to find a TV remote control, you will not be satisfied with the user's satisfaction.

본 발명이 해결하고자 하는 과제는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a stereoscopic display apparatus and method for providing a three-dimensional user interface.

본 발명이 해결하고자 하는 과제는 사용자에게 자연스러운 깊이감을 주는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a stereoscopic display device and a method for providing a three-dimensional user interface that gives a natural depth to a user.

본 발명이 해결하고자 하는 과제는 사용자에게 3차원 컨트롤들에 관한 자연스러운 피드백을 주는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a stereoscopic display apparatus and method that provide a three-dimensional user interface that gives a user natural feedback on three-dimensional controls.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확히 이해될 수 있을 것이다.The solution to the problem of the present invention is not limited to those mentioned above, and other solutions not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명의 일 측면에 따른 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치는,A stereoscopic display apparatus for providing a three-dimensional user interface according to an aspect of the present invention includes:

스테레오스코픽 디스플레이;A stereoscopic display;

상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 3차원 깊이 센서;A three-dimensional depth sensor for obtaining a three-dimensional depth image of a frontal three-dimensional real space of the stereoscopic display;

상기 3차원 깊이 영상을 이용하여, 사용자 얼굴 또는 안구의 위치 정보를 각각 획득하는 3차원 동작 분석부;A 3D motion analyzer for acquiring positional information of a user's face or eyeball using the 3D depth image;

UI 컨트롤들을 포함하는 UI 영상을 생성하는 UI 처리부; 및A UI processing unit for generating a UI image including UI controls; And

상기 UI 영상에서 변환되는 상기 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하고, 상기 UI 깊이 정보에 따라 상기 UI 영상을 상기 스테레오스코픽 UI 영상으로 변환하는 포맷터를 포함할 수 있다.The UI depth information is determined so that the stereoscopic UI image converted from the UI image is recognized at a predetermined position within a user's arm length and the UI image is converted into the stereoscopic UI image according to the UI depth information .

일 실시예에 따라, 상기 3차원 동작 분석부는 According to one embodiment, the 3D motion analyzer

사용자 손가락 끝의 위치 정보 및 동작 정보를 획득하도록 동작하고,To obtain position information and motion information of a user's fingertip,

상기 UI 처리부는 The UI processing unit

사용자의 손가락 끝의 위치 정보 및 동작 정보가 스테레오스코픽 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하며, 판단 결과에 따라 특정한 UI 컨트롤을 시각적으로 변형한 UI 영상을 생성하도록 동작할 수 있다.It is possible to determine whether the position information and operation information of the user's fingertip corresponds to a specific UI control in the stereoscopic UI image and generate a UI image in which a specific UI control is visually modified according to the determination result.

일 실시예에 따라, 상기 3차원 깊이 센서는According to one embodiment, the 3D depth sensor

상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 상기 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하도록 동작하고,Wherein the stereoscopic display comprises at least two image sensors arranged to face the user on a plane of the stereoscopic display or on a plane parallel to the screen so that a three dimensional depth image of the front three- Lt; / RTI >

상기 3차원 동작 분석부는 The 3D motion analyzer

상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작할 수 있다.Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and obtaining position information of the user's face or eyeball from the identified face region have.

일 실시예에 따라, 상기 3차원 깊이 센서는 According to one embodiment, the 3D depth sensor

상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 상기 스테레오스코픽 디스플레이의 정면의 현실 공간에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득하도록 동작하고,At least two image sensors arranged to face the user on a plane of the stereoscopic display screen or on a plane parallel to the screen so that the three dimensional depth image and the two dimensional image of the front real space of the stereoscopic display Respectively,

상기 3차원 동작 분석부는 The 3D motion analyzer

상기 2차원 영상에서 사용자의 얼굴로 식별되는 영역을 먼저 추출하고, 상기 2차원 영상에서 추출된 얼굴 영역에 상응하는 3차원 깊이 영상 내의 특정 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작할 수 있다.Dimensional image, and to obtain positional information of the user's face or eyeball from a specific region within the three-dimensional depth image corresponding to the face region extracted from the two-dimensional image have.

일 실시예에 따라, 상기 3차원 깊이 센서는 According to one embodiment, the 3D depth sensor

구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 상기 3차원 깊이 영상을 획득하도록 동작하고,Dimensional depth image by emitting a structured light and detecting reflected light reflected from the subject and analyzing the deformed shape of the detected reflected light,

상기 3차원 동작 분석부는 The 3D motion analyzer

상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작할 수 있다.Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and obtaining position information of the user's face or eyeball from the identified face region have.

일 실시예에 따라, 상기 스테레오스코픽 UI 영상은 According to one embodiment, the stereoscopic UI image is

사용자의 안구를 정점으로 하고 사용자의 안구로부터 상기 스테레오스코픽 디스플레이의 스크린을 향하는 시야각이 이루는 사각뿔과, 상기 UI 깊이 정보에 의해 특정되고 상기 스테레오스코픽 디스플레이의 스크린과 평행한 평면이 만나 이루어지는 다각형 내에서, 상기 UI 컨트롤이 인식되도록 형성될 수 있다.In a polygon in which a quadrangular pyramid of a viewing angle from a user's eyeball to a screen of the stereoscopic display from a user's eye and a plane specified by the UI depth information and parallel to the screen of the stereoscopic display meet, The UI control may be recognized.

일 실시예에 따라, 상기 UI 깊이 정보는 사용자와 상기 스테레오스코픽 디스플레이 사이의 거리에 따라 결정될 수 있다.According to one embodiment, the UI depth information may be determined according to the distance between the user and the stereoscopic display.

일 실시예에 따라, 상기 스테레오스코픽 디스플레이 장치는,According to one embodiment, the stereoscopic display apparatus includes:

표시 중이던 스테레오스코픽 컨텐츠 영상에 상기 포맷터로부터 전달된 상기 스테레오스코픽 UI 영상을 합성하고, 합성된 스테레오스코픽 영상을 상기 스테레오스코픽 디스플레이에 전달하는 영상 합성부를 더 포함할 수 있다.The stereoscopic image display apparatus may further include an image synthesizing unit synthesizing the stereoscopic UI image transmitted from the formatter on the stereoscopic content image being displayed and transmitting the synthesized stereoscopic image to the stereoscopic display.

일 실시예에 따라, 상기 UI 처리부는 According to one embodiment, the UI processing unit

사용자에게 상기 UI 컨트롤이 상기 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록, 상기 UI 컨트롤을 배치하도록 동작할 수 있다.The UI control may be arranged to place the UI control such that the UI control overlaps over the background layer by avoiding the object layers that are seen to be protruding from the stereoscopic content image.

본 발명의 다른 측면에 따라, 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법은,According to another aspect of the present invention, there is provided a method of providing a 3D user interface using a stereoscopic display device,

UI 컨트롤들을 포함하는 UI 영상을 생성하는 단계;Generating a UI image including UI controls;

상기 UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하는 단계; 및Determining UI depth information such that a stereoscopic UI image transformed from the UI image is recognized at a predetermined position within a user's arm length; And

상기 UI 깊이 정보에 따라 상기 UI 영상으로부터 변환된 스테레오스코픽 UI 영상을 상기 스테레오스코픽 디스플레이에 표시하는 단계를 포함할 수 있다.And displaying the stereoscopic UI image converted from the UI image on the stereoscopic display according to the UI depth information.

일 실시예에 따라, 상기 UI 깊이 정보를 결정하는 단계는,According to one embodiment, determining the UI depth information comprises:

상기 스테레오스코픽 디스플레이의 스크린과 동일한 평면 또는 평행하는 평면에 배치된 3차원 깊이 센서를 이용하여 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계;Obtaining a three-dimensional depth image of a frontal three-dimensional real space of the stereoscopic display using a three-dimensional depth sensor disposed in a plane that is the same as or parallel to the screen of the stereoscopic display;

상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계; 및 Acquiring position information of a user's face or eyeball from the 3D depth image; And

상기 사용자 얼굴 또는 안구의 위치 정보로부터 상기 UI 깊이 정보를 결정하는 단계를 포함할 수 있다.And determining the UI depth information from the position information of the user's face or eyeball.

일 실시예에 따라, 상기 3차원 사용자 인터페이스 제공 방법은,According to an embodiment, the 3D user interface providing method includes:

상기 3차원 깊이 영상으로부터 사용자 손가락 끝의 위치 정보 및 동작 정보를 획득하는 단계; 및Obtaining position information and operation information of a user's fingertip from the 3D depth image; And

상기 사용자의 손가락 끝의 위치 정보 및 동작 정보가 스테레오스코픽 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하고, 판단 결과에 따라 특정한 UI 컨트롤을 시각적으로 변형한 UI 영상을 생성하는 단계를 더 포함할 수 있다.Determining whether the position information and the operation information of the fingertip of the user corresponds to a specific UI control in the stereoscopic UI image and generating a UI image in which a specific UI control is visually modified according to the determination result .

일 실시예에 따라, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는According to one embodiment, acquiring a 3D depth image for the 3D real space of the front of the stereoscopic display

상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 상기 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 이용하여, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계를 포함하고,Dimensional depth image for the three-dimensional real space in front of the stereoscopic display using at least two image sensors arranged to face the user on a plane formed by the screen of the stereoscopic display or parallel to the screen Comprising:

상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는The step of acquiring the position information of the user's face or eyeball from the 3D depth image

상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함할 수 있다.Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and acquiring position information of the user's face or eyeball from the identified face region can do.

일 실시예에 따라, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는According to one embodiment, acquiring a 3D depth image for the 3D real space of the front of the stereoscopic display

상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 이용하여, 상기 스테레오스코픽 디스플레이의 정면의 현실 공간에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득하는 단계를 포함하고,Dimensional depth image and a two-dimensional image of the real space of the front face of the stereoscopic display using at least two image sensors arranged to face the user on a plane of the stereoscopic display screen or on a plane parallel to the screen, Respectively,

상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는The step of acquiring the position information of the user's face or eyeball from the 3D depth image

상기 2차원 영상에서 사용자의 얼굴로 식별되는 영역을 먼저 추출하고, 상기 2차원 영상에서 추출된 얼굴 영역에 각각 상응하는 3차원 깊이 영상 내의 특정 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함할 수 있다.A step of first extracting an area identified by the user's face in the two-dimensional image and acquiring position information of the user's face or eyeball from a specific area in the three-dimensional depth image corresponding to the face area extracted from the two- .

일 실시예에 따라, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는According to one embodiment, acquiring a 3D depth image for the 3D real space of the front of the stereoscopic display

구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 상기 3차원 깊이 영상을 획득하는 단계를 포함하고,Extracting the structured light, detecting reflected light reflected from the subject, and analyzing the deformed shape of the detected reflected light to obtain the 3D depth image,

상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는The step of acquiring the position information of the user's face or eyeball from the 3D depth image

상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함할 수 있다.Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and acquiring position information of the user's face or eyeball from the identified face region can do.

일 실시예에 따라, 상기 스테레오스코픽 UI 영상은 According to one embodiment, the stereoscopic UI image is

사용자의 안구를 정점으로 하고 사용자의 안구로부터 상기 스테레오스코픽 디스플레이의 스크린을 향하는 시야각이 이루는 사각뿔과, 상기 UI 깊이 정보에 의해 특정되고 상기 스테레오스코픽 디스플레이의 스크린과 평행한 평면이 만나 이루어지는 다각형 내에서, 상기 UI 컨트롤이 인식되도록 형성될 수 있다.In a polygon in which a quadrangular pyramid of a viewing angle from a user's eyeball to a screen of the stereoscopic display from a user's eye and a plane specified by the UI depth information and parallel to the screen of the stereoscopic display meet, The UI control may be recognized.

일 실시예에 따라, 상기 UI 깊이 정보는 사용자와 상기 스테레오스코픽 디스플레이 사이의 거리에 따라 결정될 수 있다.According to one embodiment, the UI depth information may be determined according to the distance between the user and the stereoscopic display.

일 실시예에 따라, 상기 3차원 사용자 인터페이스 제공 방법은According to one embodiment, the 3D user interface providing method comprises:

상기 스테레오스코픽 디스플레이에 표시 중이던 스테레오스코픽 컨텐츠 영상에 상기 스테레오스코픽 UI 영상을 합성하고, 상기 합성된 스테레오스코픽 영상을 상기 스테레오스코픽 디스플레이에 표시하는 단계를 더 포함할 수 있다.Synthesizing the stereoscopic UI image on the stereoscopic content image being displayed on the stereoscopic display, and displaying the synthesized stereoscopic image on the stereoscopic display.

일 실시예에 따라, 상기 UI 컨트롤들을 포함하는 UI 영상을 생성하는 단계는According to one embodiment, the step of generating a UI image comprising the UI controls

사용자에게 상기 UI 컨트롤이 상기 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록, 상기 UI 컨트롤을 배치하여 상기 UI 영상을 생성하는 단계를 포함할 수 있다.And creating the UI image by disposing the UI control so that the UI control overlaps the object layers of the stereoscopic content image that appear to be overlaid on the background layer.

본 발명의 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법에 따르면, 사용자에게 자연스러운 깊이감을 주는 3차원 사용자 인터페이스를 제공할 수 있다.According to the stereoscopic display apparatus and method for providing a three-dimensional user interface of the present invention, it is possible to provide a three-dimensional user interface that gives a natural depth to a user.

본 발명의 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치 및 방법에 따르면, 사용자에게 3차원 컨트롤들에 관한 자연스러운 피드백을 주는 3차원 사용자 인터페이스를 제공할 수 있다.According to a stereoscopic display apparatus and method for providing a three-dimensional user interface of the present invention, it is possible to provide a three-dimensional user interface that gives a user natural feedback about three-dimensional controls.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치를 예시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 스테레오스코픽 디스플레이 장치가 제공하는 3차원 사용자 인터페이스를 예시한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법을 예시한 순서도이다.
1 is a block diagram illustrating a stereoscopic display apparatus providing a three-dimensional user interface according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a 3D user interface provided by a stereoscopic display apparatus according to an exemplary embodiment of the present invention.
3 is a flowchart illustrating a method for providing a 3D user interface using a stereoscopic display apparatus according to an embodiment of the present invention.

본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.For the embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be practiced in various forms, The present invention should not be construed as limited to the embodiments described in Figs.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1은 본 발명의 일 실시예에 따른 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치를 예시한 블록도이다.1 is a block diagram illustrating a stereoscopic display apparatus providing a three-dimensional user interface according to an embodiment of the present invention.

도 1을 참조하면, 3차원 사용자 인터페이스(UI, user interface)를 제공하는 스테레오스코픽 디스플레이 장치(10)는 3차원 깊이 센서(11), 3차원 동작 분석부(12), UI 처리부(13), 포맷터(formatter)(14), 영상 합성부(15) 및 스테레오스코픽 디스플레이(16)를 포함할 수 있다.Referring to FIG. 1, a stereoscopic display apparatus 10 for providing a 3D user interface (UI) includes a 3D depth sensor 11, a 3D motion analyzer 12, a UI processor 13, A formatter 14, an image synthesizer 15, and a stereoscopic display 16, as shown in FIG.

사용자는 스테레오스코픽 디스플레이(16)의 정면에 일정 거리 떨어진 위치의 편안한 영역(comfort zone) 내에서 스테레오스코픽 디스플레이(16)에 표시되는 스테레오스코픽 영상들을 감상할 수 있다.The user can appreciate the stereoscopic images displayed on the stereoscopic display 16 within a comfort zone at a distance from the front of the stereoscopic display 16. [

또한 사용자는 스테레오스코픽 영상과 조화를 이루면서 표시되는 3차원 오브젝트들 또는 3차원 컨트롤들(이하, UI 컨트롤로 통칭함)에 대해 소정의 깊이감을 느끼는 상태에서 조작할 수 있고, 조작의 결과를 오브젝트의 위치나 형태의 변화에 의해 즉각적으로 스트레오스코픽하게 인식함으로써, 자신의 조작에 대한 피드백을 자연스럽게 인지할 수 있다.Further, the user can manipulate the 3D object or 3D control (hereinafter referred to as UI control) displayed in harmony with the stereoscopic image in a state of feeling a predetermined depth, By instantly recognizing it stereoscopically by the change of the position or the form, it can naturally perceive the feedback on the operation of the user.

일 실시예에서, 3차원 깊이 센서(11)는 스테레오스코픽 디스플레이(16)의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 스테레오스코픽 디스플레이(16)의 정면의 3차원 현실 공간 및 사용자의 신체에 대한 3차원 깊이 영상을 획득한다.In one embodiment, the three-dimensional depth sensor 11 includes at least two image sensors arranged to face the user on a plane of the screen of the stereoscopic display 16 or on a plane parallel to the screen, such that the stereoscopic display 16) and a three-dimensional depth image of the user's body.

이 경우, 일 실시예에서, 3차원 동작 분석부(12)는, 3차원 깊이 영상을 분석하여, 사용자의 얼굴 또는 안구의 위치 정보와, 사용자 손가락 끝의 위치 정보 및 동작 정보를 각각 획득한다. In this case, in one embodiment, the 3D motion analyzer 12 analyzes the 3D depth image to obtain position information of the user's face or eyeball, position information of the user's finger tip, and motion information, respectively.

예를 들어, 3차원 동작 분석부(12)는 예를 들어 사용자가 스테레오스코픽 디스플레이(16) 앞에 일정 거리 떨어진 위치에 편안한 감상 자세로 곧게 앉아 있다고 가정하고, 스테레오스코픽 디스플레이(16)의 정면의 현실 공간에 대한 3차원 깊이 영상 내에서 신체 부위에 관한 특징점들(features)을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역 및 손가락 끝 영역을 각각 식별하며, 식별된 영역들로부터 사용자 얼굴 또는 안구의 위치 정보와, 손가락 끝의 위치 정보 및 동작 정보를 획득할 수 있다.For example, assuming that the user is sitting in a comfortable listening position at a certain distance from the stereoscopic display 16 in front of the stereoscopic display 16, Extracts features of the body part in the 3D depth image for the space, identifies the face area and the fingertip area of the user by the extracted feature points, Position information of the fingertip, and operation information.

여기서, 위치 정보는 3차원 깊이 영상 내에서의 위치 정보이므로, 사용자 얼굴 또는 안구의 위치 정보는 사용자 얼굴 또는 안구의 깊이 정보를 포함하고, 사용자 손가락 끝의 위치 정보는 사용자 손가락 끝의 깊이 정보를 포함한다.Here, since the position information is position information in the 3D depth image, the position information of the user's face or eyeball includes depth information of the user's face or eyeball, and the position information of the user's fingertip includes depth information of the user's fingertip do.

다른 실시예에서, 3차원 깊이 센서(11)는 스테레오스코픽 디스플레이(16)의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 스테레오스코픽 디스플레이(16)의 정면의 현실 공간과 사용자 신체에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득할 수 있다. 이때, 3차원 깊이 영상은 두 개의 영상 센서들에서 촬영된 영상들을 스테레오 정합하여 획득될 수 있고, 2차원 영상은 두 개의 영상 센서들 중 적어도 하나에서 촬영된 영상을 기초로 획득될 수 있다.In another embodiment, the 3D depth sensor 11 includes at least two image sensors arranged to face the user on a plane of the screen of the stereoscopic display 16 or on a plane parallel to the screen, such that the stereoscopic display 16) and the three-dimensional depth image and the two-dimensional image of the user's body, respectively. At this time, the 3D depth image can be acquired by stereo matching the images captured by the two image sensors, and the 2D image can be acquired based on the image captured by at least one of the two image sensors.

이 경우, 일 실시예에서, 3차원 동작 분석부(12)는, 3차원 깊이 영상과 2차원 영상을 함께 이용하여, 사용자 얼굴 또는 안구의 위치 정보와, 사용자 손가락 끝의 위치 정보 및 동작 정보를 각각 획득할 수 있다.In this case, in one embodiment, the three-dimensional motion analyzing unit 12 uses the three-dimensional depth image and the two-dimensional image together to calculate the position information of the user's face or eyeball, Respectively.

다른 실시예에서, 3차원 동작 분석부(12)는 스테레오스코픽 디스플레이(16)의 정면의 현실 공간과 사용자 신체에 대한 2차원 영상에서 사용자의 얼굴로 식별되는 영역 및 손가락으로 식별되는 영역을 먼저 추출하고, 2차원 영상에서 추출된 식별 영역들에 각각 상응하는 3차원 깊이 영상 내의 특정 영역들로부터 사용자 얼굴 또는 안구의 위치 정보와 사용자 손가락 끝의 위치 정보 및 동작 정보를 각각 획득할 수 있다.In another embodiment, the three-dimensional motion analyzer 12 first extracts the area identified by the user's face and the area identified by the finger in the two-dimensional image of the user's body in front of the real space of the stereoscopic display 16 And acquire positional information of the user's face or eyeball and positional information and operation information of the user's fingertip, respectively, from the specific regions in the three-dimensional depth image corresponding to the identification regions extracted from the two-dimensional image.

또 다른 실시예에서, 3차원 깊이 센서(11)는 구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 3차원 깊이 영상을 획득할 수 있다.In another embodiment, the 3D depth sensor 11 emits structured light, detects reflected light reflected from the subject, and analyzes the deformed shape of the detected reflected light to obtain a 3D depth image.

이를 위해, 일 실시예에서, 3차원 동작 분석부(12)는 스테레오스코픽 디스플레이(16)의 정면의 현실 공간과 사용자 신체에 대한 3차원 깊이 영상 내에서 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역 및 손가락 끝 영역을 각각 식별하며, 식별된 영역들로부터 사용자 얼굴 또는 안구의 위치 정보와, 손가락 끝의 위치 정보 및 동작 정보를 획득할 수 있다.To this end, in one embodiment, the three-dimensional motion analyzer 12 extracts minutiae points about the body part within the real space of the front of the stereoscopic display 16 and the three-dimensional depth image for the user's body, The face region and the fingertip region of the user are respectively identified by the minutiae points and the position information of the user's face or eyeball, the position information of the fingertip and the operation information can be obtained from the identified regions.

3차원 동작 분석부(12)가 생성한 사용자 얼굴 또는 안구의 위치 정보와 사용자 손가락 끝의 위치 정보 및 동작 정보는 사용자가 어떤 UI 컨트롤을 어떻게 조작하였는지 여부를 판단할 수 있도록 UI 처리부(13)에 전달되고, 또한 사용자에게 UI 컨트롤들이 사용자의 손이 닿는 범위 내에서 시각적으로 인식되는 스테레오스코픽 UI 영상이 생성되도록 포맷터(14)에도 전달된다.The position information of the user's face or eyes generated by the three-dimensional motion analysis unit 12, the position information of the user's fingertip, and the motion information are input to the UI processing unit 13 so as to determine how the UI control is performed by the user And is also passed to the formatter 14 so that the UI controls are created visually perceptually within the reach of the user.

한편, 스테레오스코픽 UI 영상에 대한 사용자의 조작은 먼저 스테레오스코픽 UI 기능이 그 전에 활성화되는 것을 전제로 하는데, 그러한 스테레오스코픽 UI 기능의 활성화 또는 초기화는 사용자의 리모컨 조작에 의존하여 구현될 수도 있고 또는 3차원 동작 분석부(12)의 사용자 제스처 분석 결과에 기초하도록 구현될 수도 있다. 예를 들어, 사용자가 UI 조작을 원할 경우에 TV 스크린을 응시하면서 마치 허공에서 어떤 가상적인 버튼을 누르고 싶다는 듯이 검지 손가락만 내민 상태로 네 손가락들을 쥐고 팔을 살짝 앞으로 펴는 자세를 소정 시간, 예를 들어 몇 초간 취할 수 있는데, 이러한 소정의 제스처 조건이 만족되면, 3차원 동작 분석부(12)는 UI 활성화 신호를 UI 처리부(13) 및 포맷터(14)로 전달할 수 있다.On the other hand, the user's operation on the stereoscopic UI image is assumed to be activated before the stereoscopic UI function, and activation or initialization of such stereoscopic UI function may be implemented depending on the remote control operation of the user, or 3 Dimensional motion analysis unit 12 based on the user gesture analysis result. For example, if the user wishes to operate the UI, while gazing at the TV screen, as if he or she wanted to press a virtual button in the air, holding the four fingers with the index finger only, The 3D motion analyzing unit 12 can transmit the UI activation signal to the UI processing unit 13 and the formatter 14 when the predetermined gesture condition is satisfied.

UI 처리부(13)는, 사용자의 리모컨 조작에 따라 또는 제스처에 따라 UI 표시 기능이 활성화되면, 예를 들어 사용자가 3D 영화를 감상 중인지, 화상 회의를 하는 중인지, 게임을 하는 중인지 등의 상황에 따라 적절한 UI 컨트롤들을 포함하는 UI 영상을 생성하고, 생성된 UI 영상을 포맷터(14)에 전달한다.When the UI display function is activated in accordance with the user's remote control operation or according to the gesture, the UI processing unit 13 determines whether the user is watching a 3D movie, a video conference, playing a game, or the like Generates a UI image including appropriate UI controls, and transfers the generated UI image to the formatter 14. [

이때, UI 컨트롤들은 현재 표시 중인 스테레오스코픽 컨텐츠 영상의 감상에 대한 방해를 최소화할 수 있도록, 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록 의도적으로 배치될 수 있다.At this time, the UI controls may be intentionally disposed so as to overlap over the background layer in such a manner as to avoid the protruding object layers of the stereoscopic content image so as to minimize disturbance to the viewing of the currently displayed stereoscopic content image.

UI 표시 기능이 활성화되면, 포맷터(14)는 사용자 얼굴 또는 안구 위치 정보 또는 사용자 손가락 끝 위치 정보에 포함되는 깊이 정보에 기초하여, 사용자가 손을 편안하게 뻗으면 닿을 정도의 깊이감을 느끼는 위치에 소정의 UI 컨트롤들이 입체감을 가지고 인식될 수 있도록 UI 컨트롤들을 위한 UI 깊이 정보를 결정할 수 있다.When the UI display function is activated, the formatter 14 displays, on the basis of the depth information included in the user's face or eye position information or the user's fingertip position information, a predetermined (predetermined) The UI depth information for the UI controls can be determined so that the UI controls of the UI can be recognized in a cubic sense.

나아가 포맷터(14)는 UI 처리부(13)로부터 UI 컨트롤들을 포함하는 UI 영상을 수신하며, 결정된 UI 깊이 정보를 따라, 수신된 UI 영상을 스테레오스코픽 변환하여 스테레오스코픽 UI 영상을 생성할 수 있다.Further, the formatter 14 receives a UI image including UI controls from the UI processing unit 13, and generates a stereoscopic UI image by performing a stereoscopic conversion of the received UI image according to the determined UI depth information.

또한 UI 깊이 정보는 사용자와 스테레오스코픽 디스플레이 사이의 거리에 따라, 다시 말해 사용자의 감상 공간의 크기를 감안하여 상황에 따라 적응적으로 결정될 수 있다. 예를 들어 사용자가 책상 위에 세워진 스테레오스코픽 디스플레이(16)에 가까이 앉아 있다면 UI 깊이 정보는 사용자가 넓은 거실에서 안락하게 스테레오스코픽 디스플레이(16)를 마주하고 있는 경우의 UI 깊이 정보보다 짧게 결정되는 것이 적절할 것이다.Also, the UI depth information can be adaptively determined according to the distance between the user and the stereoscopic display, that is, taking into account the size of the user's listening space. For example, if the user is sitting close to the stereoscopic display 16 erected on the desk, the UI depth information may be appropriate to be determined to be shorter than the UI depth information when the user is comfortably facing the stereoscopic display 16 in a spacious living room will be.

스테레오스코픽 영상에서 깊이 정보는 오브젝트의 좌우 디스패리티 값과 반비례하므로, 깊이 정보가 결정되면 그 깊이 정보에 상응하는 위치에서 오브젝트를 인식시킬 수 있는 좌우 영상의 디스패리티 값이 결정된다. 따라서, UI 깊이 정보가 결정되면 포맷터(14)는 UI 컨트롤을 그 위치에서 사용자로 하여금 인식시킬 수 있다.Since the depth information is in inverse proportion to the left and right disparity values of the object in the stereoscopic image, when the depth information is determined, the disparity values of the left and right images capable of recognizing the object at positions corresponding to the depth information are determined. Thus, if the UI depth information is determined, the formatter 14 can allow the user to recognize the UI control at that location.

이때, UI 깊이 정보, 사용자 얼굴 또는 안구의 위치 정보나 사용자 손가락 끝의 위치 정보는 모두 깊이 정보라는 용어에 기초하여 표현되지만, UI 깊이 정보는 스테레오스코픽 영상 내의 배경 레이어가 인식되는 위치로부터 스테레오스코픽 UI 영상 내의 UI 컨트롤들이 인식되는 위치까지의 기하학적인 거리를 의미하는 반면에, 사용자 얼굴 또는 안구의 위치 정보에 포함되는 깊이 정보와 사용자 손가락 끝 위치 정보에 포함되는 깊이 정보는 3차원 깊이 센서(11)에 의해 측정되는, 스테레오스코픽 디스플레이(16)로부터 사용자까지의 측정 거리를 의미한다는 점을 주의한다.At this time, the UI depth information, the position information of the user's face or eyeball, and the position information of the user's fingertip are all expressed on the basis of the term depth information. However, the UI depth information is expressed by a stereoscopic UI The depth information included in the position information of the user's face or eyeball and the depth information included in the user's fingertip position information indicate the geometric distance from the 3D depth sensor 11 to the position where the UI controls in the image are recognized, Quot; refers to the measured distance from the stereoscopic display 16 to the user, as measured by the user.

구체적으로, 포맷터(14)는 사용자가 인식하는 스테레오스코픽 영상의 시야각 내에 사용자가 조작하고자 하는 UI 컨트롤들이 모두 위치하도록, UI 처리부(13)로부터 수신된 UI 영상을 변환하여 스테레오스코픽 UI 영상을 생성할 수 있다.Specifically, the formatter 14 converts the UI image received from the UI processing unit 13 to generate a stereoscopic UI image so that all the UI controls the user wants to operate are located within the viewing angle of the stereoscopic image recognized by the user .

나아가, 포맷터(14)는 사용자가 인식하는 스테레오스코픽 영상의 시야각 내에 사용자가 조작하고자 하는 UI 컨트롤들이 서로 혼동없이 구별되도록, UI 영상을 변환하여 스테레오스코픽 UI 영상을 생성할 수 있다.Further, the formatter 14 may convert the UI image to generate a stereoscopic UI image so that the UI controls that the user wants to manipulate are distinguished from each other without confusion within the viewing angle of the stereoscopic image recognized by the user.

여기서, 사용자가 인식하는 스테레오스코픽 영상의 시야각은 사용자의 위치에서 바라본 스테레오스코픽 디스플레이(16)의 스크린이 차지하는 시야각이다. 소정의 기초적인 기하학적인 관계에 따라, 사용자의 안구를 정점으로 하고 사용자의 안구로부터 스테레오스코픽 디스플레이(16)의 스크린을 향하는 시야각이 이루는 사각뿔과, UI 깊이 정보에 의해 특정되고 스테레오스코픽 디스플레이(16)의 스크린과 평행한 평면이 만나는 다각형, 즉 사각형을 생각해 볼 수 있다. 스테레오스코픽 UI 영상은 이러한 다각형 내에서 UI 컨트롤이 인식되도록 생성될 수 있다. 설명의 편의를 위해 본 명세서에서는 이러한 가상의 다각형을 UI 조작 다각형이라고 부르기로 한다.Here, the viewing angle of the stereoscopic image recognized by the user is a viewing angle occupied by the screen of the stereoscopic display 16 viewed from the user's position. A quadrangular pyramid of viewing angles formed by the viewing angle of the user's eye from the user's eye to the screen of the stereoscopic display 16 in accordance with a predetermined basic geometric relationship and a stereoscopic display 16, A polygon where a plane in parallel with a screen of the polygon meets, that is, a square. Stereoscopic UI images can be generated to recognize UI controls within these polygons. For convenience of explanation, this virtual polygon will be referred to as a UI operation polygon in the present specification.

UI 컨트롤들은 스테레오스코픽 디스플레이(16) 상의 스테레오스코픽 영상 내에서만 존재하므로, 사용자는 스테레오스코픽 디스플레이(16)의 스크린이 차지하는 시야각을 벗어나서는 결코 UI 컨트롤들을 인식할 수 없다. 결국, 이 UI 조작 다각형 내에서만 사용자의 손동작에 의한 유의미한 조작이 일어날 것이고, UI 조작 다각형을 벗어난 위치에서는 어떠한 사용자의 손동작도 UI 컨트롤의 조작과 관련되어 해석될 수 없다. 따라서 사용자가 UI 조작과 무관하게 수행하는 손동작이나 움직임이 UI 컨트롤에 관련된 조작으로 이해될 가능성은 줄어든다.Since the UI controls are only present in the stereoscopic image on the stereoscopic display 16, the user will never be able to recognize the UI controls beyond the viewing angle occupied by the screen of the stereoscopic display 16. As a result, meaningful manipulation by the user's hand gestures will occur only within this UI manipulation polygon, and no user's manipulation can be interpreted in relation to the manipulation of the UI control at positions outside the UI manipulation polygon. Therefore, it is less likely that the hand movements or movements that the user performs irrespective of UI manipulation are understood as manipulations related to the UI control.

또한 UI 컨트롤들이 시각적으로 인식되는 3차원 공간 상의 위치는 스테레오스코픽 변환의 기하학적 원리에 기초하여 쉽게 파악될 수 있으므로, 이러한 UI 컨트롤들이 인식되는 위치와 손가락 끝의 위치 정보를 비교함으로써 UI 처리부(13)는 사용자가 어떤 UI 컨트롤을 조작하려는 중인지 판단할 수 있다.Since the positions on the three-dimensional space where the UI controls are visually recognized can be easily grasped based on the geometric principle of the stereoscopic transformation, the UI processing unit 13 compares the position where the UI controls are recognized with the position information of the fingertip, Can determine which UI control the user is trying to manipulate.

이에 따라, UI 처리부(13)는 사용자의 손가락 끝의 위치 정보 및 동작 정보가 스테레오스코픽 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하고, 판단 결과에 따라 특정한 UI 컨트롤을 시각적으로 변형한 UI 영상을 생성할 수 있다.Accordingly, the UI processing unit 13 determines whether the position information and the operation information of the fingertip of the user corresponds to the specific UI control in the stereoscopic UI image, and generates a UI image in which specific UI control is visually modified according to the determination result can do.

구체적으로, UI 처리부(13)는 사용자 얼굴(좀더 바람직하게는 사용자의 안구)의 위치 정보 및 UI 깊이 정보에 따라 UI 조작 다각형을 특정하고, 사용자 손가락 끝의 위치 정보에 따라 UI 조작 다각형 내에서 사용자가 조작을 의도한 UI 컨트롤을 식별하며, 사용자 손가락 끝의 동작 정보에 따라 사용자의 UI 컨트롤에 대한 조작 의도를 식별하고, 식별된 조작 의도에 따라 사용자에게 피드백을 제공할 수 있도록 UI 컨트롤들을 시각적으로 변형하면서 UI 영상을 계속 생성한다. 예를 들어, 사용자의 손가락 끝의 위치 정보에 상응하는 위치의 UI 컨트롤이 버튼 형태이고 사용자 손가락 끝의 동작 정보가 손가락을 앞으로 더 돌출시키는 동작에 상응한다면, UI 컨트롤은 버튼이 눌러지거나 색상이 변화하는 시각적 효과를 나타내도록 변형될 수 있다.Specifically, the UI processing unit 13 specifies the UI manipulation polygon according to the position information of the user's face (more preferably the user's eye) and the UI depth information, Identifies UI controls intended for manipulation, identifies manipulation intentions for the user's UI controls according to the motion information of the user's fingertip, and visually displays UI controls to provide feedback to the user based on the identified manipulation intent. The UI image is continuously generated while deforming. For example, if the UI control at the position corresponding to the position information of the user's fingertip is button-shaped and the operation information of the user's finger corresponds to the operation of further projecting the finger forward, the UI control may be changed To show a visual effect to the user.

이어서, 포맷터(14)는 UI 깊이 정보에 따라 결정된 디스패리티를 가지고 UI 영상으로부터 스테레오스코픽 UI 영상을 생성하고, 생성된 스테레오스코픽 UI 영상을 영상 합성부(15)에 전달한다.Then, the formatter 14 generates a stereoscopic UI image from the UI image with the disparity determined according to the UI depth information, and transmits the generated stereoscopic UI image to the image synthesizer 15.

영상 합성부(15)는 원래 표시 중이던 스테레오스코픽 컨텐츠 영상에 스테레오스코픽 UI 영상을 합성하고 합성된 스테레오스코픽 영상을 스테레오스코픽 디스플레이(16)에 전달한다.The image synthesis unit 15 synthesizes the stereoscopic UI image with the stereoscopic content image which is originally displayed and transmits the synthesized stereoscopic image to the stereoscopic display 16. [

3차원 사용자 인터페이스의 생성과 피드백을 예시하기 위해 도 2를 참조하면, 도 2는 본 발명의 일 실시예에 따른 스테레오스코픽 디스플레이 장치가 제공하는 3차원 사용자 인터페이스를 예시한 개념도이다.2 is a conceptual diagram illustrating a 3D user interface provided by a stereoscopic display apparatus according to an exemplary embodiment of the present invention.

도 2에서, 좌측에 스테레오스코픽 디스플레이(16)에 소정의 스테레오스코픽 영상이 표시되고 있는 중에, 사용자의 UI 활성화 제스처 또는 리모콘 조작에 의해 스테레오스코픽 UI 영상 기능이 활성화된다.2, a stereoscopic UI image function is activated by a user's UI activation gesture or remote control operation while a predetermined stereoscopic image is displayed on the stereoscopic display 16 on the left side.

먼저 스테레오스코픽 UI 영상 내의 UI 컨트롤들이 사용자에 의해 인식될 위치를 결정하기 위해, 3차원 깊이 센서(11)에 의해 스테레오스코픽 디스플레이(16)를 기준으로 사용자의 얼굴 또는 안구의 위치 정보가 결정되고, 사용자의 얼굴 또는 안구 위치로부터 사용자가 편안하게 조작할 수 있는 거리에 기초하여, 또한 경우에 따라서는 사용자의 감상 공간의 크기를 감안하여, UI 깊이 정보가 결정된다. 예를 들어 UI 깊이 정보는 사용자 얼굴, 즉 안구에서 50 cm 떨어진 위치에 상응하는 깊이로 결정될 수 있다.First, the position information of the user's face or eye is determined by the three-dimensional depth sensor 11 on the stereoscopic display 16 in order to determine the position at which the UI controls in the stereoscopic UI image are to be recognized by the user, The UI depth information is determined on the basis of the distance that the user can comfortably operate from the user's face or eye position, and in some cases, in consideration of the size of the user's listening space. For example, the UI depth information can be determined to correspond to a depth of 50 cm from the user's face, i.e., the eyeball.

이에 따라, UI 처리부(13)가 생성한 2차원 UI 영상은 포맷터(14)에서 결정된 UI 깊이 정보에 따라 스테레오스코픽 UI 영상으로 변환된다.Accordingly, the two-dimensional UI image generated by the UI processing unit 13 is converted into the stereoscopic UI image according to the UI depth information determined by the formatter 14. [

사용자는 스테레오스코픽 UI 영상이 마치 자신의 얼굴 앞에 50 cm 정도 떨어진 위치에 떠있는 것처럼 인식할 것이며 정면으로 50 cm 정도 손을 뻗어 손가락 끝을 UI 컨트롤이 인식되는 지점에 위치시켰을 때에 해당 위치의 UI 컨트롤이 시각적으로 변형되는 것을 확인함으로써, UI 컨트롤의 정상적인 조작 여부에 관하여 피드백받을 수 있다.The user will perceive the stereoscopic UI image as if it is floating about 50 cm in front of his or her face and extend the hand about 50 cm in front of the face to place the finger tip at the point where the UI control is recognized, It is possible to receive feedback as to whether or not the UI control is normally operated.

도 3은 본 발명의 일 실시예에 따른 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법을 예시한 순서도이다.3 is a flowchart illustrating a method for providing a 3D user interface using a stereoscopic display apparatus according to an embodiment of the present invention.

도 3을 참조하면, 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법은 스테레오스코픽 디스플레이(16)의 스크린과 동일한 평면 또는 평행하는 평면에 배치된 3차원 깊이 센서(11)를 가지는 도 1의 스테레오스코픽 디스플레이 장치(10)를 이용한다.Referring to FIG. 3, a method for providing a 3D user interface using a stereoscopic display device includes the steps of providing a stereoscopic display 16 having a stereoscopic display 16, The scopic display device 10 is used.

이에 따라, 3차원 사용자 인터페이스 제공 방법은, 단계(S31)에서, UI 컨트롤들을 포함하는 UI 영상을 생성한다.Accordingly, in step S31, the 3D user interface providing method generates a UI image including UI controls.

이어서, 단계(S32)에서, UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정한다. Subsequently, in step S32, the UI depth information is determined such that the stereoscopic UI image converted in the UI image is recognized at a predetermined position within the arm length of the user.

구체적으로, 단계(S32)에서, 스테레오스코픽 디스플레이(16)의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하고, 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하며, 사용자 얼굴 또는 안구의 위치 정보로부터 UI 깊이 정보를 결정할 수 있다.Specifically, in step S32, a three-dimensional depth image for the three-dimensional real space on the front face of the stereoscopic display 16 is acquired, location information of the user's face or eye is obtained from the three-dimensional depth image, Or the UI depth information from the position information of the eyeball.

단계(S33)에서, UI 깊이 정보에 따라 UI 영상으로부터 변환된 스테레오스코픽 UI 영상을 스테레오스코픽 디스플레이(16)에 표시한다.In step S33, the stereoscopic UI image converted from the UI image is displayed on the stereoscopic display 16 according to the UI depth information.

단계(S34)에서, 사용자의 손가락 끝의 위치 정보 및 동작 정보가 스테레오스코픽 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하고, 판단 결과에 따라 특정한 UI 컨트롤을 시각적으로 변형한 UI 영상을 생성한다.In step S34, it is determined whether the position information and the operation information of the user's fingertip correspond to a specific UI control in the stereoscopic UI image, and a UI image in which a specific UI control is visually modified in accordance with the determination result is generated.

UI 영상이 생성된 후에, 절차는 단계(S32)로 되돌아가 반복될 수 있다. After the UI image is generated, the procedure may return to step S32 and repeat.

또한, 언제라도 UI 표시 기능이 비활성화되거나 또는 UI 컨트롤에 대한 조작 목적이 달성되면, UI 영상을 생성하는 단계 또는 표시하는 단계에서 절차는 종료될 수 있다.Also, if the UI display function is deactivated at any time, or if the operation objective for the UI control is achieved, the procedure may be terminated at the step of creating or displaying the UI image.

본 실시예 및 본 명세서에 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형예와 구체적인 실시예는 모두 본 발명의 권리범위에 포함되는 것이 자명하다고 할 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. It will be understood that variations and specific embodiments which may occur to those skilled in the art are included within the scope of the present invention.

또한, 본 발명에 따른 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, 광학 디스크, 자기 테이프, 플로피 디스크, 하드 디스크, 비휘발성 메모리 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Further, the apparatus according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include ROM, RAM, optical disk, magnetic tape, floppy disk, hard disk, nonvolatile memory and the like. The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

10 스테레오스코픽 디스플레이 장치
11 3차원 깊이 센서
12 3차원 동작 분석부
13 UI 처리부
14 포맷터
15 영상 합성부
16 스테레오스코픽 디스플레이
10 stereoscopic display device
11 3D depth sensor
12 Three-dimensional motion analysis unit
13 UI processing section
14 formatter
15 image synthesis unit
16 Stereoscopic Display

Claims (19)

스테레오스코픽 디스플레이;
상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 3차원 깊이 센서;
상기 3차원 깊이 영상을 이용하여, 사용자 얼굴 또는 안구의 위치 정보, 사용자 손가락 끝의 위치 정보 및 동작 정보를 각각 획득하는 3차원 동작 분석부;
UI 컨트롤들을 포함하는 UI 영상을 생성하되, 사용자의 손가락 끝의 위치 정보 및 동작 정보가 상기 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하며, 판단 결과에 따라 상기 특정 UI 컨트롤이 시각적으로 변형되도록 상기 UI 영상을 생성하는 UI 처리부; 및
상기 UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하고, 상기 UI 깊이 정보에 따라 상기 UI 영상을 상기 스테레오스코픽 UI 영상으로 변환하는 포맷터를 포함하고,
상기 스테레오스코픽 UI 영상은 사용자의 안구를 정점으로 하고 사용자의 안구로부터 상기 스테레오스코픽 디스플레이의 스크린을 향하는 시야각이 이루는 사각뿔과, 상기 UI 깊이 정보에 의해 특정되고 상기 스테레오스코픽 디스플레이의 스크린과 평행한 평면이 만나 이루어지는 다각형 내에서, 상기 UI 컨트롤이 인식되도록 형성되고,
상기 3차원 동작 분석부는 상기 3차원 깊이 영상에서 상기 사각뿔 내의 공간 내에 상응하는 영역 내에서 상기 사용자 손가락 끝의 위치 정보 및 동작 정보를 획득하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.
A stereoscopic display;
A three-dimensional depth sensor for obtaining a three-dimensional depth image of a frontal three-dimensional real space of the stereoscopic display;
A three-dimensional motion analyzer for obtaining positional information of a user's face or eyeball, positional information of a user's fingertip, and motion information using the 3D depth image;
The UI control unit generates UI images including UI controls, determines whether the position information and operation information of a user's fingertip corresponds to a specific UI control in the UI image, and controls the UI A UI processing unit for generating an image; And
And a formatter for determining the UI depth information such that the stereoscopic UI image converted from the UI image is recognized at a predetermined position within the arm length of the user and converting the UI image into the stereoscopic UI image according to the UI depth information and,
Wherein the stereoscopic UI image includes a quadrangular pyramid of a viewing angle formed by a viewing angle of a user's eyeball from a user's eyeball toward a screen of the stereoscopic display and a plane that is specified by the UI depth information and is parallel to the screen of the stereoscopic display The UI control is formed so as to be recognized in the polygon where the UI control is performed,
Wherein the 3D motion analyzing unit is operable to obtain position information and operation information of the user's fingertip in a region corresponding to a space in the quadrangular pyramid in the 3D depth image, Display device.
삭제delete 청구항 1에 있어서, 상기 3차원 깊이 센서는
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 상기 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하도록 동작하고,
상기 3차원 동작 분석부는
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.
The apparatus of claim 1, wherein the three-dimensional depth sensor
Wherein the stereoscopic display comprises at least two image sensors arranged to face the user on a plane of the stereoscopic display or on a plane parallel to the screen so that a three dimensional depth image of the front three- Lt; / RTI >
The 3D motion analyzer
Extracting feature points related to a user's body part in the 3D depth image, identifying the face region of the user by the extracted feature points, and obtaining position information of the user's face or eyeball from the identified face region Wherein the stereoscopic display device is a stereoscopic display device.
청구항 1에 있어서, 상기 3차원 깊이 센서는
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 포함하여, 상기 스테레오스코픽 디스플레이의 정면의 현실 공간에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득하도록 동작하고,
상기 3차원 동작 분석부는
상기 2차원 영상에서 사용자의 얼굴로 식별되는 영역을 먼저 추출하고, 상기 2차원 영상에서 추출된 얼굴 영역에 상응하는 3차원 깊이 영상 내의 특정 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.
The apparatus of claim 1, wherein the three-dimensional depth sensor
At least two image sensors arranged to face the user on a plane of the stereoscopic display screen or on a plane parallel to the screen so that the three dimensional depth image and the two dimensional image of the front real space of the stereoscopic display Respectively,
The 3D motion analyzer
Extracting an area identified by the face of the user from the two-dimensional image, and obtaining position information of the user's face or eyeball from a specific area within the three-dimensional depth image corresponding to the face area extracted from the two- Wherein the stereoscopic display device is a stereoscopic display device.
청구항 1에 있어서, 상기 3차원 깊이 센서는
구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 상기 3차원 깊이 영상을 획득하도록 동작하고,
상기 3차원 동작 분석부는
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.
The apparatus of claim 1, wherein the three-dimensional depth sensor
Dimensional depth image by emitting a structured light and detecting reflected light reflected from the subject and analyzing the deformed shape of the detected reflected light,
The 3D motion analyzer
Extracting feature points related to a user's body part in the 3D depth image, identifying the face region of the user by the extracted feature points, and obtaining position information of the user's face or eyeball from the identified face region Wherein the stereoscopic display device is a stereoscopic display device.
삭제delete 청구항 1에 있어서, 상기 UI 깊이 정보는 사용자와 상기 스테레오스코픽 디스플레이 사이의 거리에 따라 결정되는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.The stereoscopic display apparatus of claim 1, wherein the UI depth information is determined according to a distance between a user and the stereoscopic display. 청구항 1에 있어서,
표시 중이던 스테레오스코픽 컨텐츠 영상에 상기 포맷터로부터 전달된 상기 스테레오스코픽 UI 영상을 합성하고, 합성된 스테레오스코픽 영상을 상기 스테레오스코픽 디스플레이에 전달하는 영상 합성부를 더 포함하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.
The method according to claim 1,
Further comprising an image synthesizing unit synthesizing the stereoscopic UI image transmitted from the formatter on the stereoscopic content image being displayed and transmitting the synthesized stereoscopic image to the stereoscopic display / RTI >
청구항 8에 있어서, 상기 UI 처리부는
사용자에게 상기 UI 컨트롤이 상기 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록, 상기 UI 컨트롤을 배치하도록 동작하는 것을 특징으로 하는 3차원 사용자 인터페이스를 제공하는 스테레오스코픽 디스플레이 장치.
The system according to claim 8, wherein the UI processing unit
Wherein the UI control is arranged to place the UI control so that the UI control overlaps the background layer by avoiding the protruding object layers of the stereoscopic content image.
스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법으로서,
UI 컨트롤들을 포함하는 UI 영상을 생성하는 단계;
상기 UI 영상에서 변환되는 스테레오스코픽 UI 영상이 사용자의 팔 길이 이내의 소정 위치에서 인식되도록 UI 깊이 정보를 결정하는 단계; 및
상기 UI 깊이 정보에 따라 상기 UI 영상으로부터 변환된 스테레오스코픽 UI 영상을 상기 스테레오스코픽 디스플레이에 표시하는 단계를 포함하고,
상기 UI 깊이 정보를 결정하는 단계는,
상기 스테레오스코픽 디스플레이의 스크린과 동일한 평면 또는 평행하는 평면에 배치된 3차원 깊이 센서를 이용하여 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계;
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계;
상기 사용자 얼굴 또는 안구의 위치 정보로부터 상기 UI 깊이 정보를 결정하는 단계;
상기 3차원 깊이 영상으로부터 사용자 손가락 끝의 위치 정보 및 동작 정보를 획득하는 단계; 및
상기 사용자의 손가락 끝의 위치 정보 및 동작 정보가 상기 UI 영상 내의 특정 UI 컨트롤에 상응하는지 판단하고, 판단 결과에 따라 상기 특정 UI 컨트롤이 시각적으로 변형되도록 UI 영상을 생성하는 단계를 포함하며,
상기 스테레오스코픽 UI 영상은 사용자의 안구를 정점으로 하고 사용자의 안구로부터 상기 스테레오스코픽 디스플레이의 스크린을 향하는 시야각이 이루는 사각뿔과, 상기 UI 깊이 정보에 의해 특정되고 상기 스테레오스코픽 디스플레이의 스크린과 평행한 평면이 만나 이루어지는 다각형 내에서, 상기 UI 컨트롤이 인식되도록 형성되며,
상기 사용자 손가락 끝의 위치 정보 및 동작 정보는 상기 3차원 깊이 영상에서 상기 사각뿔 내의 공간 내에 상응하는 영역 내에서 획득되는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.
A three-dimensional user interface providing method using a stereoscopic display apparatus,
Generating a UI image including UI controls;
Determining UI depth information such that a stereoscopic UI image transformed from the UI image is recognized at a predetermined position within a user's arm length; And
And displaying the stereoscopic UI image converted from the UI image on the stereoscopic display according to the UI depth information,
Wherein the step of determining the UI depth information comprises:
Obtaining a three-dimensional depth image of a frontal three-dimensional real space of the stereoscopic display using a three-dimensional depth sensor disposed in a plane that is the same as or parallel to the screen of the stereoscopic display;
Acquiring position information of a user's face or eyeball from the 3D depth image;
Determining the UI depth information from position information of the user's face or eyeball;
Obtaining position information and operation information of a user's fingertip from the 3D depth image; And
Determining whether the position information and the operation information of the fingertip of the user corresponds to a specific UI control in the UI image and generating a UI image so that the specific UI control is visually modified according to the determination result;
Wherein the stereoscopic UI image includes a quadrangular pyramid of a viewing angle formed by a viewing angle of a user's eyeball from a user's eyeball toward a screen of the stereoscopic display and a plane that is specified by the UI depth information and is parallel to the screen of the stereoscopic display The UI control is formed so as to be recognized in the polygon where the UI control is performed,
Wherein the position information and operation information of the user's fingertip is obtained in a region corresponding to a space in the quadrangular pyramid in the 3D depth image.
삭제delete 삭제delete 청구항 10에 있어서, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 상기 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 이용하여, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계를 포함하고,
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.
11. The method of claim 10, wherein obtaining the 3D depth image for the 3D real space of the front of the stereoscopic display
Dimensional depth image for the three-dimensional real space in front of the stereoscopic display using at least two image sensors arranged to face the user on a plane formed by the screen of the stereoscopic display or parallel to the screen Comprising:
The step of acquiring the position information of the user's face or eyeball from the 3D depth image
Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and acquiring position information of the user's face or eyeball from the identified face region Dimensional user interface using the stereoscopic display device.
청구항 10에 있어서, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는
상기 스테레오스코픽 디스플레이의 스크린이 이루는 평면 또는 스크린과 평행한 평면 상에서 사용자를 향하도록 배치되는 적어도 두 개의 영상 센서들을 이용하여, 상기 스테레오스코픽 디스플레이의 정면의 현실 공간에 대한 3차원 깊이 영상 및 2차원 영상을 각각 획득하는 단계를 포함하고,
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는
상기 2차원 영상에서 사용자의 얼굴로 식별되는 영역을 먼저 추출하고, 상기 2차원 영상에서 추출된 얼굴 영역에 각각 상응하는 3차원 깊이 영상 내의 특정 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.
11. The method of claim 10, wherein obtaining the 3D depth image for the 3D real space of the front of the stereoscopic display
Dimensional depth image and a two-dimensional image of the real space of the front face of the stereoscopic display using at least two image sensors arranged to face the user on a plane of the stereoscopic display screen or on a plane parallel to the screen, Respectively,
The step of acquiring the position information of the user's face or eyeball from the 3D depth image
A step of first extracting an area identified by the user's face in the two-dimensional image and acquiring position information of the user's face or eyeball from a specific area in the three-dimensional depth image corresponding to the face area extracted from the two- Dimensional user interface using a stereoscopic display device.
청구항 10에 있어서, 상기 스테레오스코픽 디스플레이의 정면의 3차원 현실 공간에 대한 3차원 깊이 영상을 획득하는 단계는
구조화광을 방출하고 피사체에서 반사되는 반사광을 검출하며, 검출된 반사광의 변형된 형태를 분석하여 상기 3차원 깊이 영상을 획득하는 단계를 포함하고,
상기 3차원 깊이 영상으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계는
상기 3차원 깊이 영상 내에서 사용자의 신체 부위에 관한 특징점들을 추출하고, 추출된 특징점들에 의해 사용자의 얼굴 영역을 식별하며, 식별된 얼굴 영역으로부터 사용자 얼굴 또는 안구의 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.
11. The method of claim 10, wherein obtaining the 3D depth image for the 3D real space of the front of the stereoscopic display
Extracting the structured light, detecting reflected light reflected from the subject, and analyzing the deformed shape of the detected reflected light to obtain the 3D depth image,
The step of acquiring the position information of the user's face or eyeball from the 3D depth image
Extracting feature points related to a user's body part in the 3D depth image, identifying a face region of the user by the extracted feature points, and acquiring position information of the user's face or eyeball from the identified face region Dimensional user interface using the stereoscopic display device.
삭제delete 청구항 10에 있어서, 상기 UI 깊이 정보는 사용자와 상기 스테레오스코픽 디스플레이 사이의 거리에 따라 결정되는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.11. The method of claim 10, wherein the UI depth information is determined according to a distance between a user and the stereoscopic display. 청구항 10에 있어서,
상기 스테레오스코픽 디스플레이에 표시 중이던 스테레오스코픽 컨텐츠 영상에 상기 스테레오스코픽 UI 영상을 합성하고, 상기 합성된 스테레오스코픽 영상을 상기 스테레오스코픽 디스플레이에 표시하는 단계를 더 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.
The method of claim 10,
Further comprising synthesizing the stereoscopic UI image on the stereoscopic content image being displayed on the stereoscopic display and displaying the synthesized stereoscopic image on the stereoscopic display. A method for providing a 3D user interface.
청구항 18에 있어서, 상기 UI 컨트롤들을 포함하는 UI 영상을 생성하는 단계는
사용자에게 상기 UI 컨트롤이 상기 스테레오스코픽 컨텐츠 영상의 돌출되어 보이는 물체 레이어들을 피해 배경 레이어 위에 겹쳐 보이도록, 상기 UI 컨트롤을 배치하여 상기 UI 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 스테레오스코픽 디스플레이 장치를 이용한 3차원 사용자 인터페이스 제공 방법.
19. The method of claim 18, wherein generating a UI image including the UI controls comprises:
And creating the UI image by disposing the UI control so that the UI control overlaps the object layers of the stereoscopic content image that appear to be overlaid on the background layer. A method for providing a three-dimensional user interface using the method.
KR1020140018520A 2014-02-18 2014-02-18 Apparatus and method for providing 3d user interface using stereoscopic image display device KR101560474B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140018520A KR101560474B1 (en) 2014-02-18 2014-02-18 Apparatus and method for providing 3d user interface using stereoscopic image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140018520A KR101560474B1 (en) 2014-02-18 2014-02-18 Apparatus and method for providing 3d user interface using stereoscopic image display device

Publications (2)

Publication Number Publication Date
KR20150097245A KR20150097245A (en) 2015-08-26
KR101560474B1 true KR101560474B1 (en) 2015-10-14

Family

ID=54059283

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140018520A KR101560474B1 (en) 2014-02-18 2014-02-18 Apparatus and method for providing 3d user interface using stereoscopic image display device

Country Status (1)

Country Link
KR (1) KR101560474B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102511495B1 (en) * 2020-12-01 2023-03-17 서울과학기술대학교 산학협력단 Method for generating realistic content
WO2024263008A1 (en) * 2023-06-22 2024-12-26 주식회사 브이터치 Hologram image control method, apparatus, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272572B1 (en) 2011-11-11 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Using 3D Image-Based Feature
KR101284797B1 (en) 2008-10-29 2013-07-10 한국전자통신연구원 Apparatus for user interface based on wearable computing environment and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101284797B1 (en) 2008-10-29 2013-07-10 한국전자통신연구원 Apparatus for user interface based on wearable computing environment and method thereof
KR101272572B1 (en) 2011-11-11 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Using 3D Image-Based Feature

Also Published As

Publication number Publication date
KR20150097245A (en) 2015-08-26

Similar Documents

Publication Publication Date Title
US11782513B2 (en) Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US12050757B2 (en) Multi-user content sharing in immersive virtual reality environments
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
CN110647237B (en) Gesture-based content sharing in an artificial reality environment
CN109564472B (en) Method, medium, and system for selecting an interaction method with a virtual object
JP6057396B2 (en) 3D user interface device and 3D operation processing method
KR102413561B1 (en) Virtual user input controls in a mixed reality environment
JP5936155B2 (en) 3D user interface device and 3D operation method
CN105637559B (en) Use the structural modeling of depth transducer
KR101822471B1 (en) Virtual Reality System using of Mixed reality, and thereof implementation method
US20130154913A1 (en) Systems and methods for a gaze and gesture interface
US20110107216A1 (en) Gesture-based user interface
KR101892735B1 (en) Apparatus and Method for Intuitive Interaction
KR20170026164A (en) Virtual reality display apparatus and display method thereof
WO2019069536A1 (en) Information processing device, information processing method, and recording medium
US20150033157A1 (en) 3d displaying apparatus and the method thereof
KR101560474B1 (en) Apparatus and method for providing 3d user interface using stereoscopic image display device
JP2012038025A (en) Display device, control method for display device, and program
KR20200120467A (en) Head mounted display apparatus and operating method thereof
CN101751116A (en) Interactive three-dimensional image display method and related three-dimensional display device
US20240377918A1 (en) Information processing system
KR102156175B1 (en) Interfacing device of providing user interface expoliting multi-modality and mehod thereof
KR20240092971A (en) Display device for glasses-free stereoscopic image with function of air touch

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20140218

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20141217

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20150810

Patent event code: PE09021S02D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20150924

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20151007

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20151007

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20190905

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20190905

Start annual number: 5

End annual number: 5

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20210718