KR20170026164A - Virtual reality display apparatus and display method thereof - Google Patents
Virtual reality display apparatus and display method thereof Download PDFInfo
- Publication number
- KR20170026164A KR20170026164A KR1020160106177A KR20160106177A KR20170026164A KR 20170026164 A KR20170026164 A KR 20170026164A KR 1020160106177 A KR1020160106177 A KR 1020160106177A KR 20160106177 A KR20160106177 A KR 20160106177A KR 20170026164 A KR20170026164 A KR 20170026164A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual reality
- user
- object information
- display device
- reality display
- Prior art date
Links
Images
Classifications
-
- G02B27/225—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
가상 현실 디스플레이 장치 및 그 장치의 표시 방법에 관한 것이다.A virtual reality display apparatus and a display method of the apparatus.
최근 가상 현실 관련 기술과 장치가 발전함에 따라, 이를 활용한 장치들이 각광받고 있다. 이러한 가상 현실 장치는 엔터테인먼트, 교육, 사무, 의료 등 다양한 분야에 폭넓게 적용되고 있다. As technologies and devices related to virtual reality are developed in recent years, devices utilizing such technologies are attracting attention. Such a virtual reality apparatus is widely applied to a variety of fields such as entertainment, education, office work, and medical care.
가상 현실 장치의 대표적인 예로, 헤드-마운티드 디스플레이(head-mounted display) 장치가 있다. 헤드-마운티드 디스플레이 장치는 가상 현실 이미지를 생성하여 표시하고, 사용자는 가상 현실 디스플레이 장치를 착용하여 생성된 가상 현실 이미지를 보게 된다. 사용자가 가상 현실 디스플레이 장치를 통해 가상 현실 이미지를 보는 도중에도, 주변 실제 환경이나, 실제 물체를 볼 필요가 있는 상황이 발생할 수 있다. 예를 들어, 주변 환경에 위험한 상황이 발생하거나, 음식물을 섭취하는 상황 등이 그러하다. 하지만, 사용자가 주변 실제 환경이나, 실제 물체를 보기 위하여 착용한 가상 현실 디스플레이 장치를 벗는 것은 불편할 뿐만 아니라, 가상 현실의 몰입감을 떨어뜨리게 된다. A representative example of a virtual reality device is a head-mounted display device. The head-mounted display device generates and displays a virtual reality image, and the user views the generated virtual reality image by wearing the virtual reality display device. Even when a user views the virtual reality image through the virtual reality display device, there may be a situation where the surrounding real environment or the actual object needs to be viewed. For example, a dangerous situation may arise in the surrounding environment, or a situation in which food is consumed. However, it is inconvenient for the user to take off the virtual reality display device worn for viewing the surrounding real environment or the real object, and the immersion feeling of the virtual reality is lowered.
따라서, 사용자가 가상 현실 장치를 계속해서 사용하면서도 현실 정보를 사용자에게 제공할 수 있는 방법 및 장치가 필요하다.Therefore, there is a need for a method and apparatus that allows the user to continue to use the virtual reality device while still providing real-world information to the user.
개시된 일 실시예는 가상 현실 디스플레이 장치 및 그 장치의 디스플레이 방법을 제공할 수 있다. 보다 구체적으로, 보다 편리하고 몰입감을 향상시킬 수 있는 가상 현실 디스플레이 장치 및 그 장치의 표시 방법을 제공할 수 있다.One disclosed embodiment can provide a virtual reality display device and a display method thereof. More specifically, it is possible to provide a virtual reality display device and a display method of the virtual reality display device which are more convenient and can improve the immersion feeling.
개시된 일 실시예에 따른 가상 현실 디스플레이 장치의 표시 방법은, 가상 현실 디스플레이 장치의 가상 시점에 따라 사용자에게 가상 현실을 표시하는 단계, 상기 사용자의 양안 시점을 바탕으로 현실 세계의 물체에 대한 물체 정보를 획득하는 단계 및 상기 사용자에게 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시하는 단계를 포함한다. According to another aspect of the present invention, there is provided a display method of a virtual reality display device including displaying a virtual reality to a user according to a virtual viewpoint of a virtual reality display device, displaying object information on an object in a real world based on the binocular viewpoint of the user, And displaying the obtained object information together with the virtual reality to the user.
또한, 개시된 일 실시예에 따른 가상 현실 디스플레이 장치는, 사용자의 양안 시점을 바탕으로 현실 세계의 물체에 대한 물체 정보를 획득하는 물체 정보 획득부, 가상 현실 및 상기 획득한 물체 정보를 표시하는 디스플레이부 및 상기 물체 정보를 획득하고, 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시하도록 상기 물체 정보 획득부 및 상기 디스플레이부를 제어하는 제어부를 포함한다. In addition, the virtual reality display apparatus according to one embodiment includes an object information acquisition unit that acquires object information on an object in the real world based on the binocular viewpoint of the user, a display unit that displays the obtained virtual object, And a control unit for obtaining the object information, and controlling the object information obtaining unit and the display unit to display the obtained object information together with the virtual reality.
도 1은 가상 현실 장치의 사용하는 일 예를 나타내는 도면이다.
도 2는 일 실시예에 따른 가상 현실 디스플레이 장치의 내부 구성을 나타내는 블록도이다.
도 3은 일 실시예에 따른 가상 현실 디스플레이 장치의 표시 방법을 나타내는 순서도이다.
도 4는 일 실시예에 따라 가상 현실 디스플레이 장치에 물리 키보드를 표시하는 방법을 나타내는 순서도이다.
도 5는 가상 현실 디스플레이 장치에 물리 키보드가 사용자에게 표시되도록 요구되는 일 실시예를 나타내는 도면이다.
도 6은 일 실시예에 따라 사용자를 키보드의 방향으로 회전하도록 유도하는 화면을 나타내는 도면이다.
도 7(a) 내지 도 7(d)는 일 실시예에 따라 가상 현실 디스플레이 장치에 물리 키보드의 양안 시점을 나타내는 도면이다.
도 8(a) 내지 도 8(d)는 일 실시예에 따라 가상 현실 내에 물리 키보드를 표시하는 도면이다.
도 9는 일 실시예에 따라 가상 현실 디스플레이 장치에서 가상 현실 내에 음식을 표시하는 방법을 나타내는 순서도이다.
도 10은 일 실시예에 따른 버튼을 나타내는 도면이다.
도 11은 일 실시예에 따른 프레이밍 동작을 나타내는 도면이다.
도 12는 일 실시예에서 사용자에게 표시할 물체를 선택하는 화면을 나타내는 도면이다.
도 13(a) 및 13(b)는 일 실시예에서 가상 현실과 실제 물체의 간섭을 피하기 위한 방법을 도시한 도면이다.
도 14는 일 실시예에 따라 가상 현실 내에 디스플레이 되는 실제 물체를 삭제하는 방법을 나타내는 도면이다.
도 15는 일 실시예에 따라 가상 현실 디스플레이 장치에 디스플레이 아이템을 표시하는 방법을 나타내는 도면이다.
도 16은 일 실시예에 따라 가상 현실 디스플레이 장치에 외부 장치의 화면을 표시하는 방법을 나타내는 도면이다.1 is a diagram showing an example of using a virtual reality apparatus.
2 is a block diagram illustrating an internal configuration of a virtual reality display apparatus according to an exemplary embodiment of the present invention.
3 is a flowchart illustrating a display method of a virtual reality display apparatus according to an exemplary embodiment.
4 is a flowchart illustrating a method of displaying a physical keyboard on a virtual reality display device according to an embodiment.
5 is a diagram showing an embodiment in which a physical keyboard is required to be displayed to a user in a virtual reality display device.
6 is a diagram illustrating a screen for guiding the user to rotate in the direction of the keyboard according to an embodiment.
7A to 7D are views showing the binocular viewpoints of a physical keyboard on a virtual reality display device according to an embodiment.
8 (a) to 8 (d) are views showing a physical keyboard in a virtual reality according to an embodiment.
9 is a flowchart illustrating a method of displaying food in a virtual reality in a virtual reality display device according to an embodiment.
10 is a diagram illustrating a button according to an embodiment.
11 is a diagram illustrating a framing operation according to an embodiment.
12 is a diagram illustrating a screen for selecting an object to be displayed to a user in an embodiment.
13 (a) and 13 (b) are diagrams illustrating a method for avoiding interference between a virtual reality and an actual object in an embodiment.
14 is a diagram illustrating a method for deleting an actual object displayed in a virtual reality according to an embodiment.
15 is a diagram illustrating a method of displaying a display item on a virtual reality display device according to an embodiment.
16 is a diagram illustrating a method of displaying a screen of an external device on a virtual reality display device according to an embodiment.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.
일 실시예에서 가상 시점(virtual view)은 가상 현실 장치에서 사용자가 바라보는 시점(view)을 의미한다. In one embodiment, a virtual view refers to a view viewed by a user in a virtual reality apparatus.
일 실시예에서 양안 시점(binocular view)은 가상 현실 장치를 사용하는 사용자의 양 눈이 바라보는 시점을 의미한다. In one embodiment, a binocular view refers to a viewpoint viewed by both eyes of a user using a virtual reality apparatus.
도 1은 가상 현실 장치의 사용하는 일 예를 나타내는 도면이다. 1 is a diagram showing an example of using a virtual reality apparatus.
도 1을 참조하면, 사용자(110)는 가상 현실 디스플레이 장치(100)는 사용자(110)가 있는 공간과 다른 공간의 이미지를 사용자에게 제공한다. 예를 들어, 사용자(110)는 집 안에서 가상 현실 디스플레이 장치(100)를 착용하고, 게임 속의 공간이나, 외국의 도시 등을 가상 현실을 통해 경험할 수 있다. Referring to FIG. 1, a
가상 현실 디스플레이 장치(100)는 사용자(110)의 움직임에 따라 이미지를 표시할 수 있다. 사용자(110)는 몸 전체를 움직이거나, 머리만 움직일 수도 있다. 이 경우, 가상 현실 디스플레이 장치(100)는 사용자(110)의 움직임에 따라 다른 이미지를 표시할 수 있다. The virtual
일 실시예에 따르면, 가상 현실 디스플레이 장치(100)는 헤드 마운트 디스플레이(Head Mounted Display) 또는 헤드셋(headset) 등으로 명명될 수도 있다.According to one embodiment, the virtual
도 2는 일 실시예에 따른 가상 현실 디스플레이 장치의 내부 구성을 나타내는 블록도이다. 2 is a block diagram illustrating an internal configuration of a virtual reality display apparatus according to an exemplary embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 가상 현실 디스플레이 장치(200)는 물체 정보 획득부(210), 디스플레이부(220) 및 제어부(230)를 포함할 수 있다. Referring to FIG. 2, the virtual
물체 정보 획득부(210)는 사용자의 양안 시점을 바탕으로 현실 세계의 물체(object)에 대한 물체 정보를 획득한다. 본 발명의 일 실시예에 따른 물체 정보 획득부(210)는 센서, 통신부, 촬영 장치 중 적어도 하나 이상을 포함할 수 있다. The object
센서는, 모션 센서, 근접 센서, 위치 센서, 음향 센서 등 외부 정보를 감지할 수 있는 각종 센서를 포함하고, 센싱 동작을 통해 물체 정보를 획득할 수 있다. 통신부는 유선 또는 무선으로 네트워크와 연결되어 외부 장치와의 통신을 통해 데이터를 수신하여 물체 정보를 획득할 수 있다. 통신부는 근거리 통신 모듈, 이동 통신 모듈, 유무선 인터넷 모듈 등을 포함할 수 있다. 또한, 통신부는 하나 이상의 구성 요소를 포함할 수도 있다. 촬영 장치는 이미지를 캡쳐하여 물체 정보를 획득할 수 있다. 이때, 촬영 장치는 카메라, 비디오 카메라, 깊이 카메라 등을 포함할 수 있으며, 복수 개의 카메라를 포함할 수 있다. The sensor includes various sensors capable of detecting external information such as a motion sensor, a proximity sensor, a position sensor, and an acoustic sensor, and can acquire object information through a sensing operation. The communication unit may be connected to the network by wire or wirelessly, and may receive the object information by receiving data through communication with the external apparatus. The communication unit may include a short-range communication module, a mobile communication module, a wired / wireless Internet module, and the like. Further, the communication unit may include one or more components. The photographing apparatus can acquire object information by capturing an image. At this time, the photographing apparatus may include a camera, a video camera, a depth camera, or the like, and may include a plurality of cameras.
디스플레이부(220)는 가상 현실 및 획득한 물체 정보를 표시한다. 디스플레이부(220)는 제어부(230)의 제어에 따라 가상 현실을 표시하거나, 가상 현실과 획득한 물체 정보를 함께 표시할 수 있다. The
제어부(230)는 가상 현실 디스플레이 장치(200)의 전체적인 동작을 제어함으로써 물체 정보를 획득하고, 가상 현실과 함께 획득한 물체 정보를 표시할 수 있다. 이때, 제어부(230)는 물체의 실제 위치에 대응되는 위치에 물체 정보를 표시하도록 디스플레이부(220)를 제어할 수 있다. The
제어부(230)는 가상 현실 디스플레이 장치(200)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 전자 장치에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램, 주변기기의 제어를 위한 제어 프로그램이 저장된 롬(ROM) 및 프로세서(Processor)를 포함할 수 있다. 이때, 프로세서는 코어(core)와 GPU를 통합한 SoC(System On Chip)로 구현될 수 있다. 또한, 프로세서는 복수의 프로세서를 포함할 수도 있다. 나아가, 프로세서는 그래픽 처리 장치(GPU, Graphic Processing Unit)을 포함할 수도 있다. The
일 실시예에 따르면, 제어부(230)는 물체 정보 획득부(210)를 제어하여 현실 세계의 물체에 대한 데이터를 수집함으로써 물체 정보를 획득할 수 있다. 또한, 제어부(230)는 가상 현실 및 물체 정보와 관련된 데이터를 처리하여 이미지를 생성하고, 생성한 이미지를 표시하도록 디스플레이부(220)를 제어할 수 있다. According to one embodiment, the
지금까지는 일 실시예에 따른 가상 현실 디스플레이 장치(200)의 구성에 대해서 살펴 보았다. 아래에서는 가상 현실 디스플레이 장치(200)의 표시 방법을 보다 구체적으로 살펴보도록 한다. The configuration of the virtual
도 3은 일 실시예에 따른 가상 현실 디스플레이 장치의 표시 방법을 나타내는 순서도이다. 3 is a flowchart illustrating a display method of a virtual reality display apparatus according to an exemplary embodiment.
먼저, 310 단계에서 가상 현실 디스플레이 장치(200)는 가상 시점에 따라 사용자에게 가상 현실을 표시한다. 일 실시예에서 가상 시점은 가상 현실 장치에서 사용자가 바라보는 시점을 의미한다. 310 단계에서는 도 1에 도시한 것과 같이 가상 현실 디스플레이 장치(200)가 사용자가 있는 공간과 다른 공간의 이미지를 사용자에게 가상 현실로 제공하는 것이다. First, in
그 후, 320 단계에서 가상 현실 디스플레이 장치(200)는 사용자의 양안 시점을 바탕으로 현실 세계의 물체(object)에 대한 물체 정보를 획득한다. 일 실시예에서 양안 시점(binocular view)은 가상 현실 장치를 사용하는 사용자의 양 눈이 바라보는 시점을 의미한다. 사람은 양 눈이 바라보는 시점을 통해 공간감을 인지할 수 있다. 따라서, 가상 현실 디스플레이 장치(200)는 사용자에게 물체에 대한 공간감을 제공하기 위하여 사용자의 양안 시점을 바탕으로 현실 세계의 물체에 대한 물체 정보를 획득하는 것이다. 일 실시예에 따르면, 물체 정보는 현실 세계의 물체의 이미지를 포함할 수 있다. 또한, 물체 정보는 물체의 깊이 정보, 3D 공간에서의 물체의 위치 및 자세에 대한 정보를 포함할 수 있다. 가상 현실 디스플레이 장치(200)는 획득한 물체 정보를 이용하여 가상 현실 내에 물체를 표시함으로써 사용자에게 실제 물체를 보여주는 것과 동일한 경험을 제공할 수 있다. Thereafter, in
일 실시예에 따르면, 물체는 물체의 속성 또는 애플리케이션 시나리오에 따라 사전에 구성되는 물체일 수 있고, 상기 사용자 주변의 물체, 기 설정된 라벨을 갖는 물체, 상기 사용자에 의해 지정된 물체, 상기 가상 현실 디스플레이 장치에서 실행되는 애플리케이션이 사용하도록 요구하는 물체 및 상기 가상 현실 디스플레이 장치의 제어를 수행하기 위해 요구되는 물체 중 적어도 하나 이상을 포함할 수 있다.According to one embodiment, an object may be an object previously configured according to an attribute of an object or an application scenario, and may be an object around the user, an object with a predetermined label, an object designated by the user, And an object required to perform the control of the virtual reality display device.
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 촬영 장치를 이용하여 물체의 이미지를 캡쳐하고, 캡쳐한 이미지를 바탕으로 다른 시점에서의 물체의 이미지를 획득하며, 다른 시점에서 물체의 이미지 및 캡쳐한 이미지를 바탕으로 물체에 대한 양안 시점 이미지를 획득할 수 있다. 이때, 가상 현실 디스플레이 장치(200)는 사용자의 눈과 촬영 장치 사이의 위치 관계에 기반하여 캡쳐한 이미지와 획득한 다른 시점에서 물체의 이미지에 대하여 시점 보정(view point correction)을 수행할 수 있다. According to one embodiment, the virtual
보다 구체적으로, 일 실시예에 따르면, 현실 세계의 물체의 이미지는 단일 촬영 장치에 의해 획득될 수 있고, 물체에 대한 양안 시점 이미지는 캡쳐한 이미지를 바탕으로 획득될 수 있다. 단일 촬영 장치는 하나의 시점을 갖는 일반적인 촬영 장치일 수 있다. 단일 촬영 장치를 이용하여 캡쳐한 이미지는 깊이 정보를 갖지 않으므로, 다른 시점에서 현실 세계의 물체의 이미지는 캡쳐한 이미지로부터 획득될 수 있다. 현실 세계의 물체에 대한 양안 시점 이미지는 캡쳐한 이미지 및 다른 시점에서 현실 세계의 물체의 이미지를 바탕으로 획득될 수 있다. More specifically, according to one embodiment, an image of an object in the real world can be acquired by a single imaging device, and a binocular view image for an object can be acquired based on the captured image. The single photographing apparatus may be a general photographing apparatus having one viewpoint. Since an image captured using a single imaging device does not have depth information, an image of a real-world object at another point in time can be obtained from the captured image. The binocular vision image for an object in the real world can be acquired based on the captured image and the image of the object in the real world at another point in time.
일 실시예에 따르면, 현실 세계의 물체의 이미지는 캡쳐된 전체 이미지에서 현실 세계의 물체가 위치한 영역의 이미지일 수 있다. 다양하게 존재하는 이미지 인식 방법들이 캡쳐된 이미지에서 실제 물체의 이미지를 감지하는데 사용될 수 있다. According to one embodiment, an image of an object in the real world may be an image of an area in which the object in the real world is located in the captured whole image. Various existing image recognition methods can be used to detect an image of an actual object in the captured image.
일 실시예에 따르면, 현실 세계의 물체의 양안 시점 이미지는 깊이 정보를 가지는 스테레오 이미지 샷에 기반하여 획득될 수도 있다. 이 경우, 촬영 장치는 깊이 카메라 또는 적어도 두 개 이상의 단일 시점 카메라들을 포함할 수 있다. 여기서, 적어도 두 개 이상의 단일 시점 카메라는 겹쳐진 시야를 갖도록 구성될 수 있다. According to one embodiment, a binocular view image of an object in the real world may be obtained based on a stereo image shot having depth information. In this case, the photographing apparatus may include a depth camera or at least two or more single view cameras. Here, at least two or more single-view cameras may be configured to have overlapping fields of view.
일 실시예에 따르면, 단일 촬영 장치, 깊이 카메라 또는 단일 시점 카메라는 가상 현실 디스플레이 장치(200) 내의 내부 촬영 장치일 수도 있고, 가상 현실 디스플레이 장치(200)와 연결된 외부 장치, 예를 들어, 다른 장치의 카메라일 수도 있다. According to one embodiment, a single imaging device, a depth camera, or a single viewpoint camera may be an internal imaging device within the virtual
또한, 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 표시되도록 예측되는 현실 세계의 물체의 이미지가 감지되지 않는 경우, 표시되도록 예측되는 현실 세계의 물체를 포함하는 이미지를 캡쳐하기 위하여 촬영 화각을 확대할 수 있다. 또는, 가상 현실 디스플레이 장치(200)는 표시되도록 예측되는 현실 세계의 물체의 이미지가 감지되지 않는 경우, 표시되도록 예측되는 현실 세계의 물체를 포함하는 이미지를 캡쳐하기 위하여 사용자가 표시되도록 예측되는 현실 세계의 물체의 방향으로 회전하도록 사용자를 유도할 수도 있다. 예를 들어, 사용자는 이미지, 텍스트, 오디오 또는 비디오를 통해 표시되도록 예측되는 현실 세계의 물체의 방향으로 유도될 수 있다. 일 실시예에서, 현실 세계의 물체에 대한 기 저장된 3D 공간 위치 또는 위치 장치에 의해 획득된 현실 세계의 물체의 3D 공간 위치를 바탕으로, 표시되도록 예측되는 현실 세계의 물체를 포함하는 이미지를 획득하기 위하여 사용자가 표시되도록 예측되는 현실 세계의 물체의 방향으로 회전하도록 사용자를 유도할 수도 있다.In addition, according to one embodiment, when an image of a real-world object predicted to be displayed is not sensed, the virtual
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 물체 정보가 사용자에게 표시되도록 요구되는지 여부를 판단하고, 물체 정보가 사용자에게 표시되도록 요구된다고 판단하는 경우, 물체 정보를 획득할 수 있다. 특히, 물체 정보를 표시하도록 요구하는 사용자 입력을 수신하는 경우, 물체 정보가 사용자에게 표시되도록 설정된 물체 정보라고 판단하는 경우, 가상 현실 내의 애플리케이션 인터페이스에서 물체가 특정 동작을 수행하도록 요구하는 제어 명령이 감지되는 경우, 사용자의 신체 일부가 물체에 가깝다는 것이 감지되는 경우, 사용자의 신체 일부가 물체 방향으로 이동하는 것이 감지되는 경우, 가상 현실 디스플레이 장치에서 실행되는 애플리케이션이 물체 정보를 지금 사용하도록 요구한다고 판단되는 경우, 사용자 주변의 물체와 상호작용하도록 설정된 시간에 도달한 것으로 판단되는 경우 중 적어도 하나의 경우, 가상 현실 디스플레이 장치(200)는 물체 정보가 사용자에게 표시되도록 요구된다고 판단할 수 있다. According to one embodiment, the virtual
예를 들어, 가상 현실 디스플레이 장치(200)는 사용자가 현실 세계의 물체를 이용하여 입력 동작을 수행하는 경우(예를 들어, 키보드, 마우스, 핸들 등을 이용하여 입력 동작을 수행하는 경우), 현실 세계의 물체와 충돌이 방지되어야 하는 경우, 사용자가 현실 세계의 물체를 손으로 잡아야 하는 경우(예를 들어, 음식을 먹거나 물을 마시는 경우)에 물체 정보가 사용자에게 표시되도록 요구된다고 판단할 수 있다.For example, when the user performs an input operation using an object in the real world (for example, when performing an input operation using a keyboard, a mouse, a steering wheel, etc.) When a collision with an object of the world is to be prevented, it can be determined that the object information is required to be displayed to the user when the user has to hold the object of the real world by hand (for example, when eating food or drinking water) .
이때, 물체 정보를 표시하도록 하는 사용자 입력은 터치 스크린 입력, 물리 버튼 입력, 원격 제어 명령, 음성 제어, 제스처, 머리 움직임, 신체 움직임, 눈 움직임, 홀드 동작 중 적어도 하나에 의해 수행될 수 있다.At this time, a user input for displaying object information may be performed by at least one of a touch screen input, a physical button input, a remote control command, a voice control, a gesture, a head movement, a body movement, an eye movement and a hold operation.
또한, 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 외부 장치로부터 이벤트가 발생하였다는 알림 및 이벤트의 내용 중 적어도 하나 이상을 획득할 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)는 사물 인터넷(IoT) 디바이스로부터 디스플레이 아이템을 획득하여, 표시할 수 있다. 이때, 디스플레이 아이템은 조작 인터페이스, 조작 상태, 알림 정보 및 지시 정보 중 적어도 하나를 포함할 수 있다. In addition, according to one embodiment, the virtual
이때, 알람 정보는 텍스트, 오디오, 비디오, 이미지 또는 다른 정보일 수 있다. 예를 들어, 사물 인터넷 디바이스가 통신 디바이스인 경우, 알람 정보는 부재중 통화에 대한 텍스트 정보일 수 있다. 또한, 사물 인터넷 디바이스가 접속 제어 디바이스인 경우, 알람 정보는 캡쳐된 모니터링 이미지일 수 있다. 또한, 지시 정보는 사용자가 사물 인터넷 디바이스를 검색하도록 지시하는데 사용되는 텍스트, 오디오, 비디오, 이미지 또는 이미지일 수 있다. 예를 들어, 지시 정보가 화살표 기호인 경우, 사용자는 화살표가 가리키는 방향에 따라 사용자와 관련 있는 사물 인터넷 디바이스의 위치를 획득할 수 있다. 지시 정보는 사용자와 사물 인터넷 디바이스 간의 위치 관계를 지시하는 텍스트일 수도 있다(예를 들어, 통신 디바이스가 너의 2미터 앞에 있다).At this time, the alarm information may be text, audio, video, image or other information. For example, if the thing Internet device is a communication device, the alarm information may be textual information about the missed call. Further, if the object Internet device is a connection control device, the alarm information may be a captured monitoring image. In addition, the indication information may be text, audio, video, image or image used to direct the user to search for the object Internet device. For example, if the instruction information is an arrow symbol, the user can obtain the location of the object Internet device associated with the user according to the direction indicated by the arrow. The indication information may be text indicating the positional relationship between the user and the object Internet device (e.g., the communication device is in front of your 2 meters).
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 다음의 처리 방법을 통해 사물 인터넷 디바이스의 디스플레이 아이템을 획득할 수 있다. 가상 현실 디스플레이 장치(200)는 사물 인터넷 디바이스의 이미지를 캡쳐하고, 캡쳐된 사물 인터넷 디바이스의 이미지로부터 사물 인터넷 디바이스의 디스플레이 아이템을 검색하며, 사용자의 시야의 안 또는 밖의 사물 인터넷 디바이스로부터 사물 인터넷 디바이스의 디스플레이 아이템을 수신하고, 가상 현실 디스플레이 장치(200)와의 관계에서 사용자의 시야의 밖의 사물 인터넷 디바이스의 위치를 센싱하고 위치를 지시 정보로 획득할 수 있다. 나아가, 가상 현실 디스플레이 장치(200)는 사용자의 조작에 따라 대응되는 프로세스를 수행하도록 원격으로 사물 인터넷 디바이스를 제어할 수도 있다. According to one embodiment, the virtual
일 실시예에 따르면, 사용자는 가상 현실 디스플레이 장치(200)를 착용하는 경우, 주변 사물 인터넷 디바이스와 관련된 정보를 획득할 수 있다. 또한, 사용자는 가상 현실 디스플레이 장치(200)를 이용하여 사용자 조작에 대응되는 프로세스를 수행하도록 원격으로 사물 인터넷 디바이스를 제어할 수도 있다. According to one embodiment, when a user wears the virtual
나아가, 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 현실 정보의 중요도 및 긴급도 중 적어도 하나 이상을 바탕으로 사용자에게 물체 정보를 제공할 것인지 여부를 결정할 수 있다. In addition, according to one embodiment, the virtual
마지막으로, 330 단계에서 가상 현실 디스플레이 장치(200)는 사용자에게 가상 현실과 함께 획득한 물체 정보를 표시한다. 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 물체의 실제 위치에 대응되는 위치에 물체 정보를 표시할 수 있다. 사용자는 가상 현실 내에서 현실 세계의 물체의 물체 정보를 볼 수 있다. 보다 구체적으로 사용자는 가상 현실 내에서 현실 세계의 물체를 볼 수 있다. Finally, in
또한, 가상 현실 디스플레이 장치(200)는 가상 현실과 표시하는 물체 정보가 서로를 가리는 경우, 가상 현실 및 물체 정보 중 적어도 하나 이상의 표시 방법을 조정할 수 있다. In addition, when the virtual reality and object information to be displayed overlap each other, the virtual
일 실시예에 따르면, 가상 현실과 물체 정보는 겹쳐서 표시될 수 있다. 즉, 사용자에게 표시되는 가상 현실에 물체 정보가 공간적으로 합쳐져 표시될 수 있다. 이 경우, 사용자는 가상 현실 디스플레이 장치(200)의 일반적인 가상 현실 내에서 피드백이 요구되는 현실 세계의 물체와 상호작용을 구현할 수 있다. According to one embodiment, the virtual reality and object information can be displayed in a superimposed manner. That is, the object information can be spatially combined and displayed in the virtual reality displayed to the user. In this case, the user can implement an interaction with a real-world object requiring feedback in a general virtual reality of the virtual
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)에서 표시하는 가상 현실은 가상 현실 디스플레이 장치(200) 내에서 실행되는 애플리케이션에서의 사용자의 가상 시점에 따라 사용자에게 표시되는 이미지일 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200) 내에서 현재 실행되고 있는 애플리케이션이 가상 모션 감지 게임, 예를 들어, 복싱 또는 골프인 경우, 사용자에게 표시되는 가상 현실은 게임 내에서 사용자의 가상 시점에 따른 이미지일 수 있다. 가상 현실 디스플레이 장치(200) 내에서 현재 실행되고 있는 애플리케이션이 영화 상영을 위한 애플리케이션인 경우, 가상 현실은 사용자의 가상 시점에 따라 사용자에게 표시되는 가상의 영화 스크린 장면을 반영할 수 있다. According to one embodiment, the virtual reality displayed on the virtual
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 다음 방법 중 하나를 선택하여 가상 현실과 함께 획득한 물체 정보를 표시할 수 있다. 즉, 가상 현실 디스플레이 장치(200)는 가상 현실과 물체 정보를 공간적으로 합쳐 표시하거나 물체 정보를 가상 현실 내에 화면 속의 화면(PIP, Picture in Picture)으로 표시하거나 또는 가상 현실을 물체 정보 위에 화면 속의 화면으로 표시할 수 있다. According to one embodiment, the virtual
일 실시예에서 물체 정보는 반투명, 윤곽선 및 3D 격자선 중 적어도 하나 이상의 방법으로 표시될 수 있다. 예를 들어, 가상 현실 내의 가상 물체와 물체 정보가 3D 공간에서 서로를 가리는 경우, 사용자가 가상 현실 내의 가상 물체를 보는 것을 방해하지 않기 위하여, 가상 현실 내의 가상 물체의 셰이딩을 감소시키고, 물체 정보는 반투명, 윤곽선 및 3D 격자선 중 적어도 하나 이상의 방법으로 표시할 수 있다.In one embodiment, the object information may be displayed in at least one of semi-transparent, contour, and 3D grid lines. For example, when a virtual object and object information in a virtual reality overlap each other in a 3D space, shading of a virtual object in the virtual reality is reduced in order to prevent the user from viewing the virtual object in the virtual reality, It can be displayed by at least one of translucent, outline, and 3D grid lines.
나아가, 일 실시예에 따르면, 가상 현실 내의 가상 물체와 물체 정보가 3D 공간에서 서로를 가리는 경우, 가상 물체가 줌 되거나 및/또는 이동될 수 있다. 이때, 가상 현실 내에 모든 가상 물체를 줌 하거나 및/또는 이동시키는 것도 가능하다. Further, according to an embodiment, when a virtual object and object information in a virtual reality cover each other in 3D space, the virtual object can be zoomed and / or moved. At this time, it is also possible to zoom and / or move all the virtual objects in the virtual reality.
가상 현실 디스플레이 장치(200)는 가상 현실 내의 가상 물체와 물체 정보가 3D 공간에서 서로를 가리는 상황을 판단하고, 가상 물체 또는 물체 정보의 표시 방법을 조정할 수 있다. 나아가, 사용자의 입력에 의해 가상 물체 또는 물체 정보의 표시 방법을 조정하는 것도 가능하다.The virtual
또한, 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 표시하는 물체 정보를 제외하고, 가상 현실을 표시할 수도 있다. 가상 현실 디스플레이 장치(200)는 현실 세계의 물체와 더 이상 상호작용할 필요가 없다고 판단하는 경우, 표시하는 물체 정보 제외하고, 가상 현실을 표시할 수도 있다. 특히, 물체 정보를 표시하지 않도록 하는 사용자 입력을 수신하는 경우, 물체 정보가 사용자에게 표시되도록 설정된 것이 아니라고 판단하는 경우, 가상 현실 내의 애플리케이션 인터페이스에서 물체 정보가 특정 동작을 수행하도록 요구하는 제어 명령이 감지되지 않는 경우, 사용자의 신체 일부가 물체 정보에 대응되는 물체와 멀다는 것이 감지되는 경우, 사용자의 신체 일부가 물체 정보에 대응되는 물체에서 멀어지는 방향으로 이동하는 것이 감지되는 경우, 가상 현실 디스플레이 장치(200)에서 실행되는 애플리케이션이 물체 정보를 사용할 필요가 없다고 판단하는 경우, 기 설정된 시간 동안 사용자가 물체 정보를 이용하여 동작을 수행하지 않는 경우, 사용자가 물체 정보를 보지 않고도 동작을 수행하는 것이 가능하다고 판단되는 경우 중 적어도 하나의 경우, 가상 현실 디스플레이 장치(200)는 표시하는 물체 정보 제외하고, 가상 현실을 표시할 수 있다. In addition, according to one embodiment, the virtual
이때, 물체 정보를 표시하지 않도록 하는 사용자 입력은 터치 스크린 입력, 물리 버튼 입력, 원격 제어 명령, 음성 제어, 제스처, 머리 움직임, 신체 움직임, 눈 움직임, 홀드 동작 중 적어도 하나에 의해 수행될 수 있다.At this time, the user input for not displaying the object information may be performed by at least one of a touch screen input, a physical button input, a remote control command, a voice control, a gesture, a head movement, a body movement, an eye movement and a hold operation.
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 가상 물체 또는 물체 정보의 표시 방법을 조정하거나, 물체 정보를 삭제하고 가상 현실을 표시함으로써, 사용자가 가상 현실을 원활하게 경험할 수 있도록 할 수 있다. According to one embodiment, the virtual
또한, 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)가 외부 장치로부터 상기 이벤트가 발생하였다는 알림 및 상기 이벤트의 내용 중 적어도 하나 이상을 획득한 경우, 외부 장치의 위치를 표시할 수도 있다. According to an embodiment, when the virtual
나아가, 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 현실 정보의 중요도 및 긴급도 중 적어도 하나 이상을 바탕으로 물체 정보를 표시하는 표시 방법을 결정하고, 결정된 표시 방법에 따라 물체 정보를 사용자에게 표시할 수 있다. 특히, 가상 현실 내의 가상 물체와 현실 세계의 물체가 서로를 가리는 경우, 가상 현실 디스플레이 장치(200)는 표시 우선 순위를 결정하여 표시 방법을 결정할 수 있다. 이때, 표시 우선 순위 리스트가 미리 설정될 수 있고, 가상 현실 디스플레이 장치(200)는 가상 현실 내의 가상 물체와 현실 세계의 물체의 표시 우선 순위가 중요도 및 긴급도에 따라 분류할 수 있다. 표시 우선 순위 리스트는 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정되거나 또는 사용 습관에 따라 사용자에 의해 설정될 수도 있다. In addition, according to one embodiment, the virtual
아래에서는 도 4 내지 7을 참조하여 일 실시예에 따라 가상 현실 디스플레이 장치(200)에 물리 키보드를 표시하는 방법을 설명하도록 한다. Hereinafter, a method of displaying a physical keyboard on the virtual
도 4는 일 실시예에 따라 가상 현실 디스플레이 장치(200)에 물리 키보드를 표시하는 방법을 나타내는 순서도이다. 4 is a flowchart showing a method of displaying a physical keyboard on the virtual
도 4를 참조하면, 410 단계에서 현실 디스플레이 장치(200)는 사용자 주변의 물리 키보드가 사용자에게 표시되도록 요구되는지 여부를 판단한다. 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 가상 현실 내의 애플리케이션 인터페이스에서 물체가 특정 동작을 수행하도록 요구하는 제어 명령이 감지되는 경우, 사용자 주변의 물리 키보드가 사용자에게 표시되도록 요구된다고 결정할 수 있다. 이 경우, 가상 현실 디스플레이 장치(200)는 가상 현실 내의 애플리케이션 인터페이스의 제어 명령의 속성 정보에 따라 해당 제어 명령이 특정 동작을 수행하기 위한 상호작용 디바이스를 사용할 필요가 있는 제어 명령인 것을 감지할 수 있다. 가상 현실 디스플레이 장치(200)가 특정 동작을 수행하기 위한 상호작용 디바이스를 사용할 필요가 있는 제어 명령이 있다고 감지하는 경우, 가상 현실 디스플레이 장치(200)는 사용자 주변의 상호작용 디바이스가 표시되도록 요구된다고 결정할 수 있다. 이때, 물리 키보드가 사용자에게 표시될 상호작용 디바이스로 구성될 수 있다. 도 5를 참조하여 설명하도록 한다. Referring to FIG. 4, in
도 5는 가상 현실 디스플레이 장치(200)에 물리 키보드가 사용자에게 표시되도록 요구되는 일 실시예를 나타내는 도면이다. 5 is a diagram showing an embodiment in which a physical keyboard is required to be displayed to a user in the virtual
도 5를 참조하면, 가상 현실 디스플레이 장치(200)의 디스플레이(510)에 텍스트 정보를 입력하도록 유도하는 대화 상자(520)이 표시된다. 이 경우, 가상 현실 디스플레이 장치(200)는 대화 상자(520)를 표시하도록 지시한 애플리케이션 인터페이스의 제어 명령의 속성 정보를 분석하고, 해당 제어 명령은 텍스트 정보 입력을 위해서 물리 키보드를 사용할 필요가 있는 제어 명령임을 감지할 수 있다. 따라서, 가상 현실 디스플레이 장치(200)는 디스플레이(510)에 텍스트 정보를 입력하도록 유도하는 대화 상자(520)이 표시되는 경우, 물리 키보드가 표시되도록 요구된다고 결정할 수 있다. Referring to FIG. 5, a
여기서는 사용자에게 표시될 상호작용 디바이스로 물리 키보드를 예를 들어 설명하였으나, 애플리케이션에 따라 다양한 디바이스가 사용자에게 표시될 상호작용 디바이스로 결정될 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)에서 실행되고 있는 애플리케이션이 가상 게임 애플리케이션인 경우, 물리 키보드 외에 조이스틱 또는 마우스 등이 사용자에게 표시될 상호작용 디바이스가 될 수 있다. Although a physical keyboard has been described as an example of an interactive device to be displayed to a user, various devices may be determined as an interactive device to be displayed to the user depending on the application. For example, when the application being executed in the virtual
나아가, 사용자에게 표시되도록 결정된 상호작용 디바이스, 즉, 물리 키보드는 향후 이용을 위하여 표시할 물체 리스트에 추가되어 관리될 수 있다. Furthermore, the interaction device determined to be displayed to the user, i.e., the physical keyboard, can be added and managed in the object list to be displayed for future use.
도 5에 도시된 실시예와 달리, 일 실시예에 따르면, 물리 키보드를 요구하는 사용자 입력을 수신하는 경우에도 가상 현실 디스플레이 장치(200)는 사용자 주변의 상호작용 디바이스가 표시되도록 요구된다고 결정할 수 있다. 나아가, 가상 현실 디스플레이 장치(200)는 물체 정보를 표시하지 않도록 하는 사용자 입력을 수신하는 경우, 가상 현실 디스플레이 장치(200)에 표시되고 있는 사용자 주변의 상호작용 디바이스를 제외하고, 가상 현실을 표시할 수도 있다.5, according to one embodiment, the virtual
여기서, 사용자 입력은 터치 스크린 입력, 물리 버튼 입력, 원격 제어 명령, 음성 제어, 제스처, 머리 움직임, 신체 움직임, 눈 움직임, 홀드 동작 중 적어도 하나일 수 있다. Here, the user input may be at least one of a touch screen input, a physical button input, a remote control command, a voice control, a gesture, a head movement, a body movement, an eye movement, and a hold operation.
일 실시예에 따르면, 터치 스크린 입력 및 물리 버튼 입력은 가상 현실 디스플레이 장치(200)에 구비되는 터치 스크린 또는 물리 버튼을 이용한 입력일 수 있다. 또한, 및 원격 제어 명령은 가상 현실 디스플레이 장치(200)를 원격으로 제어할 수 있는 다른 디바이스(예를 들어, 핸들과 같은)에 있는 물리 버튼 입력으로부터 수신된 제어 명령일 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)가 물리 버튼 A의 입력 이벤트를 감지하는 경우, 가상 현실 디스플레이 장치(200)는 사용자 주변의 물리 키보드가 사용자에게 표시되도록 요구된다고 결정할 수 있다. 가상 현실 디스플레이 장치(200)가 물리 버튼 B의 입력 이벤트를 감지하는 경우, 사용자 주변의 물리 키보드가 사용자에게 표시되도록 요구되지 않는다고 결정된다. 또한, 하나의 물리 버튼을 통해 물리 키보드를 표시하거나 표시하지 않도록 스위치 하는 것도 가능하다. According to one embodiment, the touch screen input and the physical button input may be inputs using a touch screen or a physical button provided in the virtual
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 촬영 장치를 통해 물리 키보드를 표시하도록 지시하는 사용자 제스처를 감지하여 물리 키보드가 사용자에게 표시되도록 요구되는지 여부를 결정할 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)가 물리 키보드가 표시되도록 요구된다고 지시하는데 사용되는 제스처 A를 감지하는 경우, 가상 현실 디스플레이 장치(200)는 물리 키보드가 표시되도록 요구된다고 결정할 수 있다. 가상 현실 디스플레이 장치(200)가 물리 키보드가 표시되도록 요구되지 않는다고 지시하는데 사용되는 제스처 B를 감지하는 경우, 가상 현실 디스플레이 장치(200)는 물리 키보드가 표시되지 않는다고 결정할 수 있다. 또한, 동일한 제스처를 통해 물리 키보드를 표시하거나 표시하지 않도록 스위칭하는 것도 가능하다.According to one embodiment, the virtual
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 촬영 장치를 통해 물리 키보드를 표시하도록 지시하는 사용자의 머리 움직임, 신체 움직임 및 눈 움직임을 감지하여 물리 키보드가 사용자에게 표시되도록 요구되는지 여부를 결정할 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200) 사용자의 머리 회전 또는 시선을 감지하여 물리 키보드가 사용자에게 표시되도록 요구되는지 여부를 결정할 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)가 사용자의 시선이 조건 A(예를 들어, 가상 현실 내에서 사용자가 텍스트 정보를 입력하도록 유도하기 위한 대화 상자를 보는 경우)를 만족하는 것이 감지되는 경우, 가상 현실 디스플레이 장치(200)는 물리 키보드가 사용자에게 표시되도록 요구된다고 결정할 수 있다. 가상 현실 디스플레이 장치(200)가 사용자의 시선이 조건 B(예를 들어, 사용자가 가상 현실 내에서 가상 물체 또는 가상 영화 스크린을 보는 경우)를 만족하는 것이 감지되는 경우, 가상 현실 디스플레이 장치(200)는 물리 키보드가 사용자에게 표시되도록 요구되지 않는다고 결정할 수 있다. 이때, 조건 A 및 B는 상호보완적인 조건일 수도 있고, 아닐 수도 있다. According to one embodiment, the virtual
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 촬영 장치를 통해 물리 키보드 위에 손이 올려진 것이 감지되는 경우, 물리 키보드가 사용자에게 표시되도록 요구된다고 결정할 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)는 사용자 주변의 손이 있는지 여부, 사용자 주변에 키보드가 있는지 여부, 손이 키보드 위에 올려져 있는지 여부를 촬영 장치를 통해 감지할 수 있다 (예를 들어, 피부색을 감지). 가상 현실 디스플레이 장치(200)는 위 3가지 조건이 모두 만족되는 경우, 물리 키보드가 사용자에게 표시되도록 요구된다고 결정할 수 있다. 가상 현실 디스플레이 장치(200)는 위 3가지 조건 중 어느 하나가 만족되지 않는 경우, 물리 키보드가 사용자에게 표시되도록 요구되지 않는다고 결정할 수 있다. 사용자 주변에 손이 있는지 여부 및 사용자 주변에 키보드가 있는지 여부의 조건은 동시에 또는 순차적으로 결정될 수 있으며, 순서는 제한되지 않는다. 사용자 주변에 손과 키보드가 있다고 결정되는 경우, 추가적으로, 손이 키보드 위에 올려져 있는지 여부를 결정할 수도 있다.According to one embodiment, the virtual
다시 도 4의 설명으로 돌아와서, 410 단계에서 가상 현실 디스플레이 장치(200)가 물리 키보드가 사용자에게 표시되도록 요구되지 않는다고 판단하는 경우, 가상 현실 디스플레이 장치(200)는 계속해서 물리 키보드가 사용자에게 표시되도록 요구되는지 여부를 판단한다. 4, when the virtual
410 단계에서 가상 현실 디스플레이 장치(200)가 물리 키보드가 사용자에게 표시되도록 요구된다고 판단하는 경우, 가상 현실 디스플레이 장치(200)는 420 단계로 진행하여 물리 키보드의 이미지를 캡쳐한다. 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 촬영 장치를 사용하여 사용자 주변의 이미지를 캡쳐하고, 캡쳐된 이미지로부터 물리 키보드 이미지를 감지하여, 해당 물리 키보드의 이미지를 캡쳐할 수 있다. If the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 캡쳐된 이미지 내의 특징점을 감지하고, 감지된 특징점을 기저장된 키보드 이미지의 특징점과 비교하여 물리 키보드의 이미지를 감지할 수 있다. 예를 들어, 물리 키보드의 네 모서리의 좌표는 기저장된 물리 키보드 이미지의 특징점과 기저장된 물리 키보드 이미지의 특징점의 좌표와 매칭되는 캡쳐된 이미지 내의 특징점의 좌표에 따라 결정될 수 있다. 그 후, 물리 키보드의 윤곽선이 캡쳐된 이미지 내의 네 모서리의 좌표에 따라 결정될 수 있고, 결과적으로 가상 현실 디스플레이 장치(200) 는 캡쳐된 이미지 내의 키보드의 이미지를 결정할 수 있다. 여기서, 특징점은 스케일 불변의 특징 변환점(Scale-Invariant Feature Transform, SIFT) 또는 통상의 기술자에게 알려진 다른 특징점일 수 있다. 따라서, 캡쳐된 이미지 내의 어떠한 물체의 윤곽선의 점(즉, 물체의 윤곽선 위의 점)의 좌표는 동일 도는 유사한 방법에 따라 계산될 수 있다. 나아가, 키보드 이미지는 캡쳐된 이미지로부터 다른 방법에 의해 감지될 수 있음을 이해할 수 있을 것이다. In one embodiment, the virtual
여기서, 캡쳐된 이미지 내의 키보드의 윤곽선의 계산은 아래에서 키보드의 네 모서리 점을 예로 들어 상세히 설명할 것이다. 기저장된 키보드 이미지 특징점의 좌표를 Pworld(키보드의 지역 좌표 시스템 내에서)라 하고, 기저장된 키보드 이미지의 윤곽선 위의 좌상 모서리의 좌표를 Pcorner(키보드의 지역 좌표 시스템 내에서)라 하며, 저장된 키보드 이미지 내의 특징점과 매치되는 캡쳐된 이미지 내의 특징점의 좌표를 Pimage라 하고, 키보드의 지역 좌표 시스템에서 촬영 장치의 좌표 시스템으로 변환을 R 및 t라 하며, 이때, R은 회전, t는 이동, 촬영 장치의 프로젝션 매트릭스를 K라 하면, 다음과 같은 수학식(1)을 얻을 수 있다.Here, the calculation of the outline of the keyboard in the captured image will be described in detail below with four corner points of the keyboard as an example. The coordinates of the pre-stored keyboard image feature points are referred to as P world (within the local coordinate system of the keyboard), the coordinates of the upper left corner above the contour of the pre-stored keyboard image are referred to as P corner (within the local coordinate system of the keyboard) The coordinates of the minutiae in the captured image that match the minutiae in the keyboard image are called P image and the conversion from the local coordinate system of the keyboard to the coordinate system of the imaging device is called R and t, If the projection matrix of the photographing apparatus is K, the following equation (1) can be obtained.
Pimage = K * (R * Pworld + t) 수학식(1)P image = K * (R * P world + t) Equation (1)
기저장된 키보드 이미지 내의 특징점의 좌표 및 기저장된 물리 키보드 이미지의 특징점의 좌표와 매칭되는 캡쳐된 이미지 내의 특징점의 좌표는 각각 R 및 t를 획득하기 위하여 수학식 (1)에 대입된다. 그 후, 캡쳐된 이미지 내의 좌상 모서리의 좌표는 K * (R * Pcorner + t)로 획득될 수 있다. 동일한 방법으로, 캡쳐된 이미지 내의 키보드의 다른 세 모서리 역시 획득될 수 있다. 캡쳐된 이미지 내의 키보드의 윤곽선은 모서리의 연결을 통해 획득될 수 있다. 따라서, 가상 현실 디스플레이 장치(200)는 캡쳐된 이미지 내의 물체의 투영된 윤곽선을 획득하기 위하여 캡쳐된 이미지 내의 어떠한 물체의 윤곽선 점의 좌표도 계산될 수 있다. The coordinates of the minutiae point in the pre-stored keyboard image and the coordinates of the minutiae point in the captured image matching the coordinates of the minutiae point of the pre-stored physical keyboard image are substituted into equation (1) to obtain R and t, respectively. Thereafter, the coordinates of the upper left corner in the captured image may be obtained as K * (R * P corner + t). In the same way, three other corners of the keyboard in the captured image can also be obtained. The outline of the keyboard in the captured image can be obtained through the connection of edges. Thus, the virtual
나아가, 물리 키보드의 이미지가 캡쳐된 이미지 내에서 감지되지 않은 경우, 가상 현실 디스플레이 장치(200)는 사용자 주변의 이미지를 다시 캡쳐하고, 캡쳐한 이미지로부터 물리 키보드를 감지하기 위하여 촬영 화각을 확대할 수 있다(예를 들어, 광각 촬영 장치를 이용). 또한, 가상 현실 디스플레이 장치(200)는 물리 키보드를 포함하는 이미지를 다시 캡쳐하기 위하여 사용자를 물리 키보드의 방향을 회전하도록 유도할 수 있다. 도 6을 참조하여 설명하도록 한다.Further, if an image of the physical keyboard is not detected within the captured image, the virtual
도 6은 일 실시예에 따라 사용자를 키보드의 방향으로 회전하도록 유도하는 화면을 나타내는 도면이다.6 is a diagram illustrating a screen for guiding the user to rotate in the direction of the keyboard according to an embodiment.
도 6을 참조하면, 가상 현실 디스플레이 장치(200)는 사용자의 시선을 무리 키보드의 방향으로 회전하도록 유도하기 위하여 가상 현실(610) 내에 방향 지시 이미지(620)를 표시할 수 있다. 이때, 방향 지시 이미지(620)는 화살표, 손가락 등의 이미지를 포함할 수 있다. 도 6에서는 화살표를 이용하여 방향 지시 이미지(620)를 나타내었다. Referring to FIG. 6, the virtual
또한, 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 이전에 캡쳐되어 메모리에 저장된 이미지 또는 무선 포지셔닝 방법(예를 들어, 블루투스 전송, RFID 라벨, 적외선, 초음파, 자기장 등)으로부터 감지되는 위치 정보에 따라 물리 키보드의 위치를 결정할 수도 있다.In addition, according to one embodiment, the virtual
430 단계에서 가상 현실 디스플레이 장치(200)는 캡쳐한 물리 키보드 이미지를 바탕으로 다른 시점에서 물리 키보드의 이미지 및 양안 시점 이미지를 획득한다. 일 실시예에서, 가상 현실 디스플레이 장치(200)는 사용자의 눈과 촬영 장치 사이의 위치 관계에 기반하여 캡쳐한 물리 키보드의 이미지와 획득한 다른 시점에서 물리 키보드의 이미지에 대하여 시점 보정(view point correction)을 수행할 수도 있다. In
일 실시예에서, 가상 현실 디스플레이 장치(200)는 물리 키보드의 양안 시점 이미지를 획득하기 위하여, 사용자의 눈의 좌표 시스템과 촬영 장치의 좌표 시스템 사이의 회전 및 이동(shift) 관계에 따라 감지된 물리 키보드 이미지에 호모그래피 변환(homograph transform)을 수행할 수 있다. 사용자의 눈의 좌표 시스템과 촬영 장치의 좌표 시스템 사이의 회전 및 이동 관계는 오프라인 방법에 따라 결정되거나 또는 제조사에 의해 제공되는 데이터를 읽고 사용하는 것을 통해 결정될 수 있다. In one embodiment, the virtual
또한, 일 실시예에서, 촬영 장치가 단일 시점 촬영 장치인 경우, 가상 현실 디스플레이 장치(200)는 캡쳐한 물리 키보드 이미지를 바탕으로 다른 시점에서 물리 키보드 이미지를 획득할 수 있다. 그 후, 물리 키보드의 양안 시점 이미지를 획득하기 위하여, 가상 현실 디스플레이 장치(200)는 사용자의 눈과 단일 촬영 장치 사이의 위치 관계에 기반하여 캡쳐한 물리 키보드 이미지 및 다른 시점에서 물리 키보드 이미지에 대하여 시점 보정을 수행한다. 이때, 촬영 장치가 단일 시점 촬영 장치이므로, 캡쳐된 물리 키보드 이미지는 하나의 시점만을 갖는다. 따라서, 물리 키보드 이미지를 깊이 정보와 함께 스테레오 이미지로 변환하는 방법이 필요하다. Further, in one embodiment, when the photographing apparatus is a single-view photographing apparatus, the virtual
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 스테레오 이미지를 획득하기 위하여, 현재 시점의 물리 키보드 이미지를 바탕으로 계산을 통해 다른 시점에서 물리 키보드 이미지를 획득할 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)는 물리 키보드에 대하여 모델을 생성하기 위하여 평면의 직사각형을 사용할 수 있다. 특히, 단일 시점 촬영 장치의 3D 좌표 시스템 내에서 물리 키보드의 위치 및 자세는 호모그래피 변환 관계를 바탕으로 획득할 수 있다. 단일 촬영 장치의 회전 및 이동과 사용자의 눈의 두 시점을 알고 있는 경우, 물리 키보드는 사용자의 왼쪽 눈 시야와 오른쪽 눈 시야 각각으로 투영될 수 있다. 따라서, 가상 현실 내에 표시되는 사용자의 양안 시점은 물리 키보드의 실제 자세를 올바르게 반영하는 스테레오 효과 및 시각 신호(visual cue)를 갖도록 형성될 수 있다. According to one embodiment, the virtual
나아가, 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 더 복잡한 형태를 갖는 물체에 대하여, 부분 평면 모델에 의해 물체 표현의 형태를 근사화할 수도 있다. 그리고, 물체의 위치 및 자세를 추정하는데 유사한 방법이 사용될 수 있고, 투영을 통해 물체의 양안 시점을 생성할 수 있다. Further, according to one embodiment, the virtual
아래에서는, 하나의 시점에서 물리 키보드 이미지를 물리 키보드의 양안 시점의 계산을 설명하기 위한 예시로 사용하도록 한다. In the following, we will use the physical keyboard image at one point as an example to illustrate the computation of the binocular viewpoint of the physical keyboard.
일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 사전에 측정되거나 또는 다른 시점에서 복수 이미지 촬영 및 스테레오 시각 방법(stereo visual method)을 사용한 3D 복원을 수행 등을 통해 물리 키보드의 특징점의 3D 좌표(키보드의 지역 좌표 시스템에서)를 획득할 수 있다. 물리 키보드의 지역 좌표 시스템에서 물리 키보드의 특징점의 3D 좌표를 Pobj라 하고, 촬영 장치의 좌표 시스템에서 물리 키보드의 특징점의 좌표를 Pcam이라 하며, 물리 키보드의 지역 좌표 시스템에서 촬영 장치의 좌표 시스템으로 회전 및 이동을 각각 R 및 t라 하고, 촬영 장치의 좌표 시스템으로 사용자의 왼쪽 및 오른쪽 눈의 회전 및 이동을 각각 R1, t1, Rr 및 tr 이라 하며, 물리 키보드의 특징점에 대응하는 캡쳐 이미지 내의 투영점을 Pimg라 할 수 있다. 또한, 촬영 장치의 내부 파라미터 매트릭스 K는 사전에 설정을 통해 획득될 수 있다. According to one embodiment, the virtual
R 및 t는 관찰된 투영점 통제를 통해 획득될 수 있다. R and t can be obtained through the controlled projection point control.
Pimg = K * Pcam = K*(Pobj * R + t) 수학식(2)P img = K * P cam = K * (P obj * R + t)
이때, 왼쪽 눈의 투영 공식은 다음과 같다. At this time, the projection formula of the left eye is as follows.
Pleft = K * (Pobj * Rl + tl) 수학식(3) Left = K * P (P obj Rl * t + l) Equation (3)
Pobj가 하나의 평면에 있으므로, Pimg와 Pleft가 호모그래피 변환을 만족한다. 따라서, 변환 매트릭스 H는 Pleft =H * Pimg 를 통해 획득될 수 있다. 변환 매트릭스 H에 따르면, 캡쳐된 물리 키보드 이미지 Icam 는 왼쪽 눈에 의해 보여지는 이미지 Ileft로 변환될 수 있다. 오른쪽 눈의 이미지는 왼쪽 눈의 이미지를 획득한 방법과 비슷한 방법으로 획득될 수 있다.Since P obj is in one plane, P img and P left satisfy the homography transformation. Thus, the transformation matrix H can be obtained through P left = H * P img . According to the transformation matrix H, the captured physical keyboard image Icam can be converted to the image I left shown by the left eye. The image of the right eye can be obtained in a similar way to the method of acquiring the image of the left eye.
도 7(a) 내지 도 7(d)는 일 실시예에 따라 가상 현실 디스플레이 장치에 캡쳐된 물리 키보드 이미지를 바탕으로 물리 키보드의 양안 시점을 나타내는 도면이다.7A to 7D are views showing the binocular viewpoints of the physical keyboard based on the physical keyboard image captured by the virtual reality display device according to an embodiment.
먼저, 도 7(a)에 도시한 것과 같이, 가상 현실 디스플레이 장치(200)는 촬영 장치를 사용하여 사용자 주변의 이미지(710)를 캡쳐하여 물리 키보드 이미지(720)를 감지한다. 이때, 가상 현실 디스플레이 장치(200)는 단일 시점에 따라 3D 공간 내에서 물리 키보드의 위치 및 자세를 감지할 수 있다. 그 후, 도 7(b)에 도시한 것과 같이 가상 현실 디스플레이 장치(200)는 도 7(a)에서의 시점(730)과 다른 시점(740)에 따라 3D 공간 내에서 물리 키보드의 위치 및 자세를 감지한다. 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 사용자의 눈과 촬영 장치 사이의 위치 관계에 기반하여 캡쳐한 이미지와 획득한 다른 시점에서 물체의 이미지에 대하여 시점 보정을 수행할 수 있다. 도 7(c)에 다른 시점(740)에서 감지한 3D 공간 내에서 물리 키보드(750)의 위치 및 자세가 도시되어 있다. 마지막으로, 도 7(d)를 참조하면, 가상 현실 디스플레이 장치(200)는 시점 보정을 통해 획득한 물리 키보드의 양안 시점을 가상 현실 내에 표시(760)한다. First, as shown in FIG. 7 (a), the virtual
도 7에서 설명한 실시예는 단일 시점 촬영 장치를 이용하여 물리 키보드의 양안 시점을 가상 현실 내에 표시하는 방법을 설명한 것이다. 이와 달리 깊이 카메라 또는 적어도 2개 이상의 단일 시점 카메라를 촬영 장치로 사용하는 것도 가능하다. 예를 들어, 촬영 장치가 깊이 카메라인 경우, 물리 키보드의 위치 및 자세는 3D 이미지와 깊이 카메라와의 관계에서 획득될 수 있다. 또한, 촬영 장치가 적어도 2개의 단일 시점 카메라를 포함하는 경우, 물리 키보드의 위치 및 자세는 적어도 2개의 단일 시점 카메라를 통해 획득될 수도 있다. The embodiment described with reference to FIG. 7 describes a method of displaying the binocular viewpoint of a physical keyboard in a virtual reality using a single viewpoint imaging device. Alternatively, it is also possible to use a depth camera or at least two or more single-view cameras as a photographing device. For example, when the photographing apparatus is a depth camera, the position and posture of the physical keyboard can be obtained in relation to the 3D image and the depth camera. Further, when the photographing apparatus includes at least two single viewpoint cameras, the position and posture of the physical keyboard may be obtained through at least two single viewpoint cameras.
다시 도 4의 설명으로 돌아가면, 440 단계에서, 가상 현실 디스플레이 장치(200)는 사용자에게 가상 현실과 함께 물리 키보드의 이미지를 표시 한다. 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 가상 현실을 먼저 표시하고, 물리 키보드를 가상 현실 내에 겹쳐서 표시할 수 있다. 도 8을 참조하여 설명한다. Referring again to FIG. 4, in
도 8(a) 내지 도 8(d)는 일 실시예에 따라 가상 현실 내에 물리 키보드를 표시하는 도면이다.8 (a) to 8 (d) are views showing a physical keyboard in a virtual reality according to an embodiment.
먼저, 도 8(a)에 도시한 것과 같이, 가상 현실 디스플레이 장치(200)는 촬영 장치를 사용하여 사용자 주변의 이미지(810)를 캡쳐하여, 도 8(b)와 같이 물리 키보드 이미지(820)를 획득한다. 또한, 도 8(c)에 도시한 것과 같이, 가상 현실 디스플레이 장치(200)는 물리 키보드와 별개로, 가상 현실(830)을 표시한다. 마지막으로 가상 현실 디스플레이 장치(200)는 도 8(d)에 도시한 것과 같이 가상 현실 내에 물리 키보드를 표시한다. 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)는 물리 키보드 이미지(820)를 먼저 획득할 수도 있고, 가상 현실(830)을 먼저 표시하는 것도 가능하다. First, as shown in FIG. 8A, the virtual
다시 도 4의 설명으로 돌아가면, 450 단계에서, 가상 현실 디스플레이 장치(200)는 물리 키보드가 계속해서 사용자에게 표시되도록 요구되는지 여부를 판단한다. 일 실시예에서 가상 현실 디스플레이 장치(200)는 물리 키보드의 사용이 종료되었음을 감지하는 경우, 물리 키보드가 더 이상 사용자에게 표시되도록 요구되지 않는다고 판단할 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)는 사용자의 키보드 입력 상황을 계속적으로 감지하여 물리 키보드의 사용 종료 여부를 감지할 수 있다. 기설정된 시간 동안 사용자가 물리 키보드를 사용하여 아무런 입력도 하지 않는 경우, 가상 현실 디스플레이 장치(200)는 사용자가 물리 키보드의 사용을 종료하였다고 감지할 수 있다. 짧은 멈춤을 감지하는 경우에 가상 현실 디스플레이 장치(200)는 사용자가 물리 키보드의 사용을 종료하였다고 판단하지 않을 수 있다. 가상 현실 디스플레이 장치(200)는 기설정된 시간 이상으로 물리 키보드의 사용을 중지한 경우에만, 사용자가 물리 키보드의 사용을 종료하였다고 판단할 수 있다. 여기서, 기설정된 시간은 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정되거나, 사용자에 의해 설정될 수 있다. 예를 들어, 기설정된 시간은 5분일 수 있다. Referring again to FIG. 4, in
사용자가 물리 키보드를 사용하여 입력하는 경우, 사용자의 손이 물리 키보드로부터 멀리 떨어져 있지 않다. 따라서, 일 실시예에서, 가상 현실 디스플레이 장치(200)는 사용자의 손과 물리 키보드 간의 거리가 기설정된 임계 사용 거리를 초과하는 것이 감지되는 경우, 사용자가 물리 키보드의 사용을 종료하였다고 판단할 수 있다. 예를 들어, 사용자의 각 손과 물리 키보드 간의 거리가 제1 임계 사용 거리를 초과하는 것이 감지되는 경우, 가상 현실 디스플레이 장치(200)는 사용자가 물리 키보드의 사용을 종료하였다고 판단할 수 있다. 일 실시예에서, 사용자의 한 손은 물리 키보드로부터 멀리 떨어져 있으나 다른 손은 계속해서 물리 키보드 위에 있는 경우가 있을 수 있다. 이 경우에도, 가상 현실 디스플레이 장치(200)는 사용자는 더 이상 물리 키보드를 사용하지 않는다고 판단할 수 있다. 따라서, 사용자의 한 손과 물리 키보드 간의 거리가 제2 임계 사용 거리를 초과하는 것이 감지되는 경우, 가상 현실 디스플레이 장치(200)는 사용자가 물리 키보드의 사용을 종료하였다고 판단할 수 있다. When a user types using the physical keyboard, the user's hand is not far from the physical keyboard. Thus, in one embodiment, the virtual
일 실시예에서 제1 임계 사용 거리 및 제2 임계 사용 거리는 동일하거나 다를 수 있다. 제1 임계 사용 거리 및 제2 임계 사용 거리는 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정되거나, 사용자에 의해 설정될 수 있다. 나아가, 손과 물리 키보드 사이의 거리를 측정하는 방법은 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정되거나, 사용자에 의해 설정될 수 있다. In one embodiment, the first critical usable distance and the second critical usable distance may be the same or different. The first threshold use distance and the second threshold use distance can be set automatically by the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 물리 키보드를 표시하는 것을 멈추도록 하는 사용자 입력이 수신된 것이 감지된 경우, 사용자가 물리 키보드의 사용을 종료하였다고 판단할 수 있다. 사용자는 특정 버튼을 누르는 것과 같은 입력 방법으로 가상 현실 디스플레이 장치(200)에 물리 키보드의 표시를 멈추도록 하는 신호를 입력할 수 있다. 또한, 일 실시예에서, 가상 현실 디스플레이 장치(200)는 가상 현실 디스플레이 장치(200)에서 실행되는 애플리케이션이 현재 물리 키보드를 요구하지 않는 경우, 사용자가 물리 키보드의 사용을 종료하였다고 판단할 수 있다. 예를 들어, 가상 현실 내에서 애플리케이션 인터페이스의 동작을 수행하기 위해 물리 키보드의 사용을 요구하는 제어 명령이 존재하지 않는 것이 감지되는 경우(가상 현실 내에 표시된 텍스트 입력 박스가 사라진 경우) 또는 물리 키보드가 요구되는 애플리케이션이 종료된 것이 감지되는 경우에 가상 현실 디스플레이 장치(200)는 사용자가 물리 키보드의 사용을 종료하였다고 판단할 수 있다. In one embodiment, the virtual
나아가, 일 실시예에서, 사용자가 물리 키보드를 사용하여 입력을 하는 동안 다른 애플리케이션으로 스위치 하는 것이 감지되는 경우, 가상 현실 디스플레이 장치(200)는 스위치 된 애플리케이션에서 물리 키보드를 사용할 필요가 있는지 여부를 판단할 수도 있다.Further, in one embodiment, when it is sensed that the user is switching to another application while making input using the physical keyboard, the virtual
450 단계에서 가상 현실 디스플레이 장치(200)가 물리 키보드가 계속해서 사용자에게 표시되도록 요구된다고 판단하는 경우, 가상 현실 디스플레이 장치(200)는 계속해서 물리 키보드가 사용자에게 표시되도록 요구되는지 여부를 판단한다. If the virtual
450 단계에서 가상 현실 디스플레이 장치(200)가 물리 키보드가 계속해서 사용자에게 표시되도록 요구되지 않는다고 판단하는 경우, 가상 현실 디스플레이 장치(200)는 460 단계로 진행하여 물리 키보드를 제외하고 가상 현실을 표시한다. If the virtual
지금까지는 가상 현실 디스플레이 장치(200)에 물리 키보드를 표시하는 방법을 예로 들었으나, 이에 한정되지 않고 다양한 물체를 표시하는 것도 가능하다. Although the method of displaying the physical keyboard on the virtual
예를 들어, 위에서 설명한 방법은 가상 현실 디스플레이 장치(200)를 사용하는 가상 게임을 플레이 할 때 사용되는 핸들에도 적용될 수 있다. 먼저, 가상 현실 디스플레이 장치(200)에서 실행되는 가상 게임의 실행 상황을 감지하여 가상 현실 디스플레이 장치(200)가 가상 게임이 현재 핸들을 사용하여 동작할 필요가 있다고 판단하는 경우, 사용자가 핸들을 잡고 있는지 여부를 감지한다. 사용자가 핸들을 잡고 있는 경우, 가상 현실 디스플레이 장치(200)는 가상 게임만을 사용자에게 표시하고, 사용자가 핸들을 잡고 있지 않는 경우, 사용자 주변의 이미지를 촬영 장치를 통해 캡쳐하고, 캡쳐한 이미지 내에 핸들을 표시할 수 있다. For example, the above-described method may be applied to a handle used when playing a virtual game using the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 핸들의 주위 온도 및/또는 습도를 감지하여 사용자가 핸들을 잡고 있는지 여부를 결정할 수 있다. 일반적으로 사용자 주변의 온도는 사용자의 신체보다 낮고, 사용자 손의 습도는 사용자 주변의 습도보다 높으므로, 핸들에 온도 센서 및/또는 습도 센서를 구비하여 사용자가 핸들을 잡고 있는지 여부를 결정할 수 있다. 보다 구체적으로, 기설정된 임계 온도 및/또는 임계 습도와 측정된 주위 온도 및/또는 습도의 비교를 통해 사용자가 핸들을 잡고 있는지 여부를 결정할 수 있다. In one embodiment, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 핸들의 움직임을 감지하여 사용자가 핸들을 잡고 있는지 여부를 결정할 수도 있다. 예를 들어, 핸들에 모션 센서(자이로스코프, 관성 가속계 등)를 구비하여 움직임의 강도 및 지속 시간 등을 통해 사용자가 핸들을 잡고 있는지 여부를 결정할 수 있다. In one embodiment, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 전류 및/또는 인덕턴스를 감지하여 사용자가 핸들을 잡고 있는지 여부를 결정할 수 있다. 인체는 수분을 포함하는 전기 도체이므로, 핸들 표면에 전극을 구비하고 전극 사이의 전류를 측정하거나 단일 전극의 인덕턴스를 측정하여 전극이 사용자의 신체에 연결되어 있는지 여부를 결정할 수 있다. In one embodiment, the virtual
또한, 캡쳐된 이미지에서 핸들이 감지되지 않는 경우, 가상 현실 디스플레이 장치(200)는 사용자 주변에 핸들이 없다는 알림을 표시할 수 있다. 이때, 가상 현실 디스플레이 장치(200)는 사용자의 결정에 따라 사용자 주변의 실제 물체의 양안 시점은 사용자에게 표시하여 사용자가 주위에서 핸들을 찾아볼 수 있도록 하거나, 핸들 없이 가상 게임을 조작할 수 있도록 애플리케이션의 상황을 스위치 할 수 있다. Further, when no handle is detected in the captured image, the virtual
가상 현실 디스플레이 장치(200)가 캡쳐된 이미지에서 핸들을 감지하는 경우, 핸들이 사용자의 실제 시야(즉, 가상 현실 디스플레이 장치(200)를 착용하지 않은 상태의 사용자의 시야) 내에 있는지 여부를 결정할 수 있다. 핸들이 사용자의 시야 내에 있는 경우, 가상 현실 디스플레이 장치(200)는 가상 현실과 함께 핸들의 양안 시점을 표시할 수 있다. 핸들이 사용자의 시야에 있지 않은 경우, 가상 현실 디스플레이 장치(200)는 사용자의 현재 시야에 핸들이 없다는 알림을 표시할 수 있다. 이때, 가상 현실 디스플레이 장치(200)는 사용자의 시야에 핸들이 포함될 수 있도록 사용자를 핸들이 위치한 방향으로 회전하도록 유도할 수 있다. 일 실시예에서, 사용자는 이미지, 텍스트, 오디오 및 비디오를 통해 유도될 수 있다. When the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 사용자가 주위에서 핸들을 찾을 수 있도록 가상 현실 내에 유도 박스를 표시할 수 있다. 유도 박스는 사용자가 핸들을 찾을 수 있도록 핸들과 사용자 간의 위치 관계에 따라 시점을 조절하도록 사용자를 유도할 수 있다. 또한, 가상 현실 디스플레이 장치(200)는 음성, 화살표 등을 통해 사용자를 유도할 수도 있다. In one embodiment, the virtual
지금까지 가상 현실 디스플레이 장치(200)를 이용하여 현실 세계의 물체를 표시하는 방법을 구체적인 예를 들어 설명하였다. 일 실시예에 따르면, 가상 현실 디스플레이 장치(200)를 이용 시, 보다 편리하고 몰입감을 향상시킬 수 있다.A method of displaying an object in the real world using the virtual
아래에서는 도 9 내지 도 19를 참조하여 가상 현실 디스플레이 장치(200)를 착용하고 음식을 먹는 방법을 설명하도록 한다. Hereinafter, a method of wearing the virtual
도 9는 일 실시예에 따라 가상 현실 디스플레이 장치에서 가상 현실 내에 음식을 표시하는 방법을 나타내는 순서도이다.9 is a flowchart illustrating a method of displaying food in a virtual reality in a virtual reality display device according to an embodiment.
도 9를 참조하면, 910 단계에서 가상 현실 디스플레이 장치(200)는 음식이 사용자에게 표시되도록 요구되는지 여부를 판단한다. Referring to FIG. 9, in
일 실시예에서, 현실 디스플레이 장치(200)는 기설정된 버튼 동작이 감지되는 경우, 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 도 10을 참조하여 일 실시예에 따른 버튼을 설명한다. In one embodiment, the real-
도 10은 일 실시예에 따른 버튼을 나타내는 도면이다. 10 is a diagram illustrating a button according to an embodiment.
도 10을 참조하면, 버튼은 가상 현실 디스플레이 장치(200)에 포함된 하드웨어 버튼이(1030, 1040)거나 또는 가상 현실 디스플레이 장치(200)의 화면(1010)에 표시되는 가상 버튼(1020)일 수 있다. 10, the button may be a
가상 현실 디스플레이 장치(200)는 사용자가 기설정된 버튼을 기설정된 방법으로 누르는 것을 감지하는 경우, 사용자에게 음식 및/또는 음료가 표시되도록 요구된다고 판단할 수 있다. 여기서, 기설정된 방법은, 짧은 누름, 긴 누름, 기 설정된 횟수만큼 짧은 누름, 짧고 길게 번갈아 누름 등, 중 적어도 하나 이상의 방법일 수 있다. The virtual
다시 도 9의 설명으로 돌아가면, 일 실시예에서, 가상 현실 디스플레이 장치(200)는 사용자 주변에 특정 라벨을 갖는 물체가 감지되는 경우, 특정 라벨을 갖는 물체가 사용자에게 표시되도록 요구된다고 판단될 수 있다. 이때, 사용자에게 표시되도록 요구되는 모든 물체는 동일한 특정 라벨을 가지고 있을 수 있다. 또는 사용자에게 표시되도록 요구되는 다른 물체는 다른 종류의 물체를 식별하기 위하여 다른 종류의 라벨을 가지고 있을 수도 있다. 예를 들어, 첫번째 종류의 라벨은 테이블을 식별하기 위해 테이블에 부착될 수 있다. 두번째 종류의 라벨은 의자를 식별하기 위하여 의자에 부착될 수 있다. 세번째 종류의 라벨은 식기를 식별하기 위하여 식기에 부착될 수 있다. 세번째 종류의 라벨이 사용자 주변에 감지되는 경우, 가상 현실 디스플레이 장치(200)는 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 특정 라벨은 다양한 방법으로 인식 및 감지될 수 있다. Referring again to the description of FIG. 9, in one embodiment, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 기설정된 식사 시간이 도달한 것을 감지하는 경우, 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 이때, 기 설정된 식사 시간은 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정될 수도 있고, 사용자에 의해 설정될 수도 있다. 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정된 식사 시간과 사용자에 의해 설정된 식사 시간이 모두 존재하는 경우, 우선 순위에 따라 음식이 사용자에게 표시되도록 요구된다고 판단될 수 있다. 예를 들어, 사용자에 의해 설정된 식사 시간의 우선 순위가 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정된 식사 시간의 우선 순위보다 높은 경우, 사용자에 의해 설정된 식사 시간이 도달하는 경우에만 사용자가 음식을 먹고 싶다고 판단할 수 있다. 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정된 식사 시간과 사용자에 의해 설정된 식사 시간 모두에 반응하는 것도 가능하다. In one embodiment, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)에 실제 물체의 타입을 결정하기 위하여 주변의 물체를 인식할 수 있다. 가상 현실 디스플레이 장치(200)는 음식, 음료 및 식기 중 적어도 하나가 감지되는 경우, 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 가상 현실 디스플레이 장치(200)는 음식, 음료 및 식기를 감지하기 위하여 이미지 인식 방법을 사용할 수 있다. 나아가, 가상 현실 디스플레이 장치(200)는 음식, 음료 및 식기를 감지하기 위하여 다른 방법들을 사용할 수도 있다. In one embodiment, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 기설정된 식사 시간 중 사용자 주변의 음식, 음료 및 식기 중 적어도 하나가 감지되는 경우, 사용자가 음식을 먹고 싶다고 판단할 수도 있다. 즉, 두 가지 이상의 조건을 함께 고려하여 판단을 내릴 수도 있다. In one embodiment, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 기설정된 제스처를 감지하는 경우, 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 이때, 기설정된 제스처는 한 손 또는 두 손에 의해 구현될 수 있다. 기설정된 제스처는 손 흔들기, 원 그리기, 사각형 그리기, 삼각형 그리기, 프레이밍 제스처 등, 중 적어도 하나일 수 있다. 또한, 가상 현실 디스플레이 장치(200)는 기설정된 자세를 감지하는 경우, 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 이때, 기 설정된 자세는, 머리 회전, 몸을 왼쪽으로 기대기, 몸을 오른쪽으로 기대기 등 중 적어도 하나일 수 있다. 도 11에 일 실시예에 따른 프레이밍 동작을 나타내고 있다. In one embodiment, when the virtual
도 11은 일 실시예에 따른 프레이밍 동작을 나타내는 도면이다. 11 is a diagram illustrating a framing operation according to an embodiment.
도 11을 참조하면, 가상 현실 디스플레이 장치(200)는 사용자(1110)의 프레이밍 제스처에 의해 사각형으로 표시된 프레이밍 영역(1120)에 포함된 물체들을 사용자에게 표시할 물체로 결정할 수 있다. 제스처나 자세는 제스처 감지 디바이스 또는 자세 감지 디바이스를 통해 감지될 수 있다. Referring to FIG. 11, the virtual
다시 도 9의 설명으로 돌아가면, 일 실시예에서, 가상 현실 디스플레이 장치(200)는 기 설정된 원격 제어 명령이 감지되는 경우, 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 특히, 가상 현실 디스플레이 장치(200)는 사용자가 다른 디바이스에 입력한 원격 제어 명령을 감지하여 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 이때, 다른 디바이스는 모바일 단말, 태블릿 PC, 개인 컴퓨터, 외부 키보드, 웨어러블 디바이스, 핸들 등 중 적어도 하나 이상을 포함할 수 있다. 이때, 웨어러블 디바이스는 스마트 팔찌, 스마트 와치 등 중 적어도 하나 이상을 포함할 수 있다. 다른 디바이스는 유선 또는 무선으로 가상 현실 디스플레이 장치(200)와 연결될 수 있고, 이때, 무선 연결은, 블루투스, 울트라 와이드 밴드, 지그비, 와이파이, 매크로 네트워크 등을 포함할 수 있다. Returning to the description of FIG. 9, in one embodiment, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 음성 제어 동작이 되는 경우, 음식이 사용자에게 표시되도록 요구된다고 판단할 수 있다. 사용자의 음성 또는 다른 소리 신호는 마이크로폰을 통해 수집될 수 있다. 가상 현실 디스플레이 장치(200)는 음성 인식 기술을 사용하여 사용자의 음성 명령 또는 소리 제어 명령을 인식할 수 있다. 예를 들어, 사용자가 “먹기 시작” 이라는 음성 명령을 내리는 경우, 가상 현실 디스플레이 장치(200)는 음성 명령을 수신 및 인식할 수 있다. 이때, 음성 명령과 음식을 사용자에게 표시하는 명령 간의 대응되는 관계는 가상 현실 디스플레이 장치(200)에 미리 테이블 형태로 저장될 수 있다. 이때, 가상 현실 디스플레이 장치(200)는 언어에 구애 받지 않으며, 음성 명령 역시 위 예시에 한정되지 않고 다양하게 적용할 수 있다. 음성 명령은 가상 현실 디스플레이 장치(200)에 의해 설정될 수도 있고, 사용자에 의해 미리 설정될 수도 있다. In one embodiment, the virtual
910 단계에서 가상 현실 디스플레이 장치(200)가 음식이 사용자에게 표시되도록 요구되지 않는다고 판단하는 경우, 가상 현실 디스플레이 장치(200)는 계속해서 음식이 사용자에게 표시되도록 요구되는지 여부를 판단한다.If the virtual
910 단계에서 가상 현실 디스플레이 장치(200)가 음식이 사용자에게 표시되도록 요구된다고 판단하는 경우, 가상 현실 디스플레이 장치(200)는 920 단계로 진행하여 사용자에게 표시할 음식을 결정한다. If the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 미리 다양한 종류의 물체(음식과 같은)의 이미지를 저장하고 있고, 실제 물체의 감지된 이미지를 미리 저장된 음식의 이미지와 비교한다. 실제 물체의 감지된 이미지와 미리 저장된 음식의 이미지가 일치하는 경우, 가상 현실 디스플레이 장치(200)는 캡쳐된 이미지로부터 감지된 실제 물체가 음식을 포함한다고 판단하고, 캡쳐된 이미지로부터 감지된 음식을 사용자에게 표시할 물체로 결정한다. In one embodiment, the virtual
일 실시예에서, 사용자는 캡쳐된 이미지로부터 감지된 실제 물체가 가능한 적게 표시될 것을 희망할 수 있다. 따라서, 캡쳐된 이미지로부터 감지된 실제 물체가 음식을 포함하는 경우, 가상 현실 디스플레이 장치(200)는 해당 음식을 캡쳐된 이미지 내의 다른 실제 물체들로부터 분리하여 단지 음식만을 사용자에게 표시할 물체로 결정하고 다른 실제 물체들은 사용자에게 표시하지 않을 수 있다. 나아가, 손과 음식과의 상대 위치는 음식을 정확히 잡기 위하여 중요하므로, 가상 현실 디스플레이 장치(200)는 손의 이미지를 다양한 알고리즘에 따라 캡쳐된 이미지로부터 감지할 수 있다. 손이 감지되는 경우, 가상 현실 디스플레이 장치(200)는 손을 사용자에게 표시할 물체로 결정할 수 있다. In one embodiment, the user may desire that the actual object sensed from the captured image be displayed as few as possible. Accordingly, when the actual object sensed from the captured image includes food, the virtual
일 실시예에서는, 라벨, 제스처, 음성 명령 및 원격 제어 명령 중 적어도 하나 이상을 이용하여 사용자에게 표시할 물체를 결정하는 것도 가능하다. 또한, 도 12에 도시한 것과 같이 가상 현실 디스플레이 장치(200)는 사용자에게 표시할 물체를 선택할 수도 있다. In one embodiment, it is also possible to determine an object to be displayed to a user using at least one of a label, a gesture, a voice command, and a remote control command. In addition, as shown in Fig. 12, the virtual
도 12는 일 실시예에서 사용자에게 표시할 물체를 선택하는 화면을 나타내는 도면이다. 12 is a diagram illustrating a screen for selecting an object to be displayed to a user in an embodiment.
도 12를 참조하면, 가상 현실 디스플레이 장치(200) 내에 표시되는 화면(1210)에서 체크박스(1220)를 통해 사용자에게 표시할 물체를 선택할 수 있는 화면이 도시되어 있다. 도 12에서는 물체를 선택하기 위한 수단으로 체크박스(1220)를 도시하고 있지만, 이에 한정되지 않고 사용자에게 표시할 물체를 선택할 수 있는 다양한 수단을 제공할 수 있다. Referring to FIG. 12, there is shown a screen for selecting an object to be displayed to a user through a
또한, 일 실시예에서 가상 현실 디스플레이 장치(200)는 마우스를 통해 사용자 입력을 수신할 수 있다. 이때, 마우스는 물리 마우스일 수도 있고, 가상의 마우스 일 수도 있다. 사용자는 가상 현실 디스플레이 장치(200) 내에 표시되는 화면(1210)에서 체크박스(1220)를 이용하여 여러 물체를 선택하기 위하여 가상 마우스를 조작할 수 있고, 가상 현실 디스플레이 장치(200)는 이를 감지하여 사용자에게 표시할 물체를 선택할 수 있다. Also, in one embodiment, the virtual
다시 도 9의 설명으로 돌아오면, 930 단계에서 가상 현실 디스플레이 장치(200)는 사용자에게 표시할 음식의 양안 시점 이미지를 획득한다. 일 실시예에서, 사용자 주변의 이미지는 촬영 장치를 이용하여 캡쳐되고, 사용자에게 표시할 음식의 이미지는 캡쳐된 이미지로부터 감지되며, 사용자에게 표시할 음식의 양안 시점은 사용자에게 표시할 음식의 감지된 이미지로부터 획득될 수 있다. 9, the virtual
그 후, 940 단계에서 가상 현실 디스플레이 장치(200)는 사용자에게 가상 현실과 함께 음식을 표시하고 사용자 입력에 따라 표시되는 실제 물체를 삭제할 수 있다. Then, in
일 실시예에서 가상 현실 디스플레이 장치(200)는 가상 현실 내에 음식을 겹쳐서 표시할 수 있다. 이 경우, 가상 현실과 음식이 3D 공간에서 서로를 가릴 수 있어, 서로 간에 셰이딩 및 간섭을 감소시키기 위하여 다양한 방법으로 표시될 수 있다. In one embodiment, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 가상 현실 내에 디스플레이 되는 음식을 화면 속의 화면으로 표시(즉, 줌아웃된 실제 물체의 양안 시점을 가상 장면 이미지의 특정 위치에 표시), 가상 현실을 표시하지 않고, 음식만을 표시(즉, 사용자가 안경을 통해 실제 물체를 보는 것과 같이 가상 장면 이미지 내에 실제 물체의 양안 시점만을 표시), 가상 현실을 화면 속의 화면으로 표시(즉, 줌아웃된 가상 장면 이미지를 음식의 양안 시점의 특정 위치에 표시), 음식의 양안 시점과 가상 현실을 공간적으로 합쳐서 표시(즉, 실제 물체의 양안 시점을 가상 장면 이미지 위에 반투명하게 표시)하는 방식으로 가상 현실과 음식의 셰이딩 및 간섭을 감소시킬 수 있다. In one embodiment, the virtual
보다 구체적으로, 가상 현실 디스플레이 장치(200)는 음식을 반투명하게 표시할 수 있다. 이때, 가상 현실 디스플레이 장치(200)는 가상 현실 내에 표시되는 애플리케이션 인터페이스의 컨텐츠 타입 및/또는 애플리케이션 인터페이스와 사용자 간의 상호작용 상황에 따라 음식을 반투명하게 표시할지 여부를 결정하는 것이 가능하다. 예를 들어, 사용자가 가상 현실 디스플레이 장치(200)를 사용하여 가상 게임을 플레이 하는 경우, 가상 게임의 인터페이스 내에서 잦은 이동과 많은 양의 사용자 상호작용 입력이 요구되는 경우, 가상 현실 디스플레이 장치(200)는 음식을 반투명하게 표시될 수 있다. 또한, 가상 현실 내에 표시되는 애플리케이션 인터페이스가 가상 영화관 또는 사용자의 입력 제어 빈도가 감소하는 경우, 음식은 반투명하게 표시하는 것을 종료할 수 있다. 이와 유사한 방법으로 가상 현실 디스플레이 장치(200)는 음식을 윤곽선 또는 3D 격자선으로 표시할 수도 있다. More specifically, the virtual
일 실시예에서, 가상 현실 내의 가상 물체와 표시되는 음식 간에 셰이딩을 효과적으로 피하기 위하여, 가상 물체 또는 음식 중 적어도 하나 이상이 줌 되거나 및/또는 이동될 수 있다. 예를 들어, 가상 현실 디스플레이 장치(200)에 가상 영화관 애플리케이션이 실행되는 경우, 가상 현실 내에 표시되는 가상 스크린은 음식을 가리는 것을 피하기 위하여 줌-아웃 되거나 이동될 수 있다. 도 13을 참조하여 설명한다. In one embodiment, in order to effectively avoid shading between the virtual object in the virtual reality and the displayed food, at least one of the virtual object or the food may be zoomed and / or moved. For example, when a virtual cinema application is run on the virtual
도 13(a) 및 13(b)는 일 실시예에서 가상 현실과 실제 물체의 간섭을 피하기 위한 방법을 도시한 도면이다. 13 (a) and 13 (b) are diagrams illustrating a method for avoiding interference between a virtual reality and an actual object in an embodiment.
도 13(a)을 참조하면, 가상 현실(1311)과 음식을 포함하는 실제 물체(1321)가 겹쳐서 표시되어 사용자가 가상 현실(1311)과 음식을 포함하는 실제 물체(1321)를 명확히 식별하기 어렵다. 따라서, 가상 현실 디스플레이 장치(200)는 도 13(b)와 같이 음식을 포함하는 실제 물체(1321)는 그대로 두고, 가상 현실(1311)을 줌-아웃 시켜 이동시킬 수 있다. 다만 이는 하나의 실시예에 불과하며, 다양한 방법으로 가상 현실과 실제 물체의 간섭을 피할 수 있다. 예를 들어, 실제 물체(1321)를 줌-아웃 시키거나 이동 시킬 수도 있다. 13A, it is difficult for the user to clearly identify the
다시 도 9의 설명으로 돌아가면, 가상 현실 디스플레이 장치(200)는 디스플레이 우선 순위를 결정하여 표시 방법을 결정할 수 있다. 이때, 표시 우선 순위 리스트가 미리 설정될 수 있고, 가상 현실 디스플레이 장치(200)는 가상 현실 내의 가상 물체와 현실 세계의 물체의 표시 우선 순위가 중요도 및 긴급도에 따라 분류할 수 있다. 표시 우선 순위 리스트는 가상 현실 디스플레이 장치(200)에 의해 자동적으로 설정되거나 또는 사용 습관에 따라 사용자에 의해 설정될 수도 있다. Referring again to FIG. 9, the virtual
사용자 주변에 많은 수의 실제 물체가 존재하는 경우, 모든 실제 물체가 가상 현실과 함께 표시되면 사용자가 가상 현실을 보는 것을 방해할 수 있다. 따라서, 일 실시예에서 가상 현실 디스플레이 장치(200)는 사용자 입력을 수신하여 가상 현실 내에 어떤 물체가 표시할 것인지 또는 삭제할 것인지를 선택할 수 있다. 도 14를 참조하여 설명하도록 한다. When a large number of real objects exist around a user, if all real objects are displayed together with the virtual reality, the user may be prevented from seeing the virtual reality. Thus, in one embodiment, the virtual
도 14는 일 실시예에 따라 가상 현실 내에 표시되는 실제 물체를 삭제하는 방법을 나타내는 도면이다. 14 is a diagram illustrating a method for deleting an actual object displayed in a virtual reality according to an embodiment.
도 14를 참조하면, 가상 현실 디스플레이 장치(200)는 삭제할 물체를 스윕(sweep)하는 제스처를 통한 사용자 입력을 수신하여 표시되고 있는 실제 물체를 삭제할 수 있다. Referring to FIG. 14, the virtual
추가적으로, 가상 현실 디스플레이 장치(200)는 음식이 계속해서 사용자에게 표시되도록 요구되는지 여부를 판단하여, 더 이상 실제 물체가 사용자에게 표시되도록 요구되지 않는다고 판단하면 해당 음식을 삭제하고 더 이상 표시하지 않을 수 있다. 일 실시예에서 가상 현실 디스플레이 장치(200)는 사용자가 음식 섭취 종료를 감지하여 더 이상 음식이 사용자에게 표시되도록 요구되지 않는다고 판단할 수 있다. 이때, 현실 디스플레이 장치(200)는 버튼, 제스처, 라벨, 원격 제어 명령, 음성 명령 중 적어도 하나 이상을 통해 사용자 입력을 수신하여 음식이 계속해서 사용자에게 표시되도록 요구되는지 여부를 판단할 수 있다. In addition, the virtual
지금까지 가상 현실 디스플레이 장치(200)를 착용하고 음식을 먹는 방법을 구체적인 예를 들어 설명하였다. 다만, 가상 현실 디스플레이 장치(200)는 이에 한정되지 않고 다양한 상황에 맞추어 가상 현실을 표시할 수 있다. The method of wearing the virtual
일 실시예에서 가상 현실 디스플레이 장치(200)를 착용한 상태에서 현실 세계의 물체와의 충돌을 방지하는 방법을 설명하도록 한다. A method of preventing a collision with an object in the real world while wearing the virtual
사용자가 가상 현실 디스플레이 장치(200)를 착용한 상태에서, 현실 세계의 물체를 향해 이동하거나 신체의 일부가 현실 세계의 물체에 가까워 지는 경우, 사용자와 현실 세계의 물체의 충돌이 일어날 수 있다. 따라서, 가상 현실 디스플레이 장치(200)는 이러한 충돌을 방지하기 위하여, 가상 현실 디스플레이 장치(200)에 사용자가 이동하는 방향 또는 신체의 일부와 가까워진 현실 세계의 물체를 가상 현실과 함께 표시할 수 있다. When a user wears the virtual
먼저, 가상 현실 디스플레이 장치(200)는 사용자 주변에 사용자가 충돌할만한 물체가 있는지 여부를 판단한다. First, the virtual
일 실시예에서, 가상 현실 디스플레이 장치(200)는 촬영 장치 및 센서 중 적어도 하나 이상을 이용하여 사용자 주변의 물체, 사용자의 위치, 동작, 사용자의 움직임 등을 획득할 수 있다. 가상 현실 디스플레이 장치(200)가 사용자와 주변 물체가 너무 가깝다고 판단하는 경우 (예를 들어, 거리가 위험 거리 임계값보다 작은 경우), 가상 현실 디스플레이 장치(200)는 사용자 주변의 물체를 표시하도록 요구된다고 판단할 수 있다. In one embodiment, the virtual
그 후, 가상 현실 디스플레이 장치(200)는 사용자가 충돌할 수 있는 물체의 이미지를 캡쳐하고, 촬영 장치와 사용자의 눈 간의 위치 관계를 바탕으로 사용자가 충돌할 수 있는 물체의 이미지에 시점 보정을 수행하며, 물체의 양안 시점을 생성하여 가상 현실과 함께 표시할 수 있다. Thereafter, the virtual
일 실시예에서, 사용자가 충돌할 수 있는 물체는 반투명, 윤곽선 및 3D 격자선 중 적어도 하나 이상으로 표시될 수 있다. 가상 현실 디스플레이 장치(200)는 사용자가 충돌할 수 있는 물체의 가장자리만 표시할 수도 있다. 또한, 가상 현실 디스플레이 장치(200)는 사용자에게 텍스트, 이미지, 오디오, 비디오를 통해 사용자가 충돌할 수 있는 물체에 대하여 상기시킬 수도 있다. 예를 들어, 가상 현실 디스플레이 장치(200)는 사용자와 사용자가 충돌할 수 있는 물체 사이의 거리를 유도 정보(예를 들어, 텍스트 및/또는 그래픽 형태의)로 표시할 수도 있다. In one embodiment, an object from which a user may collide may be represented by at least one of translucent, contour, and 3D grid lines. The virtual
아래에서는 도 15 및 도 16을 참조하여 가상 현실 디스플레이 장치(200)에 디스플레이 아이템을 표시하는 방법을 설명하도록 한다. 특히, 외부 장치의 디스플레이 아이템을 가상 현실 디스플레이 장치(200)에서 표시하는 방법을 설명하도록 한다. 외부 장치의 디스플레이 아이템을 가상 현실 디스플레이 장치(200)에서 표시함으로써, 사용자는 해당 외부 장치와 관련된 정보 및 외부 장치의 작업 상태 등을 알 수 있다. Hereinafter, a method of displaying a display item on the virtual
도 15는 일 실시예에 따라 가상 현실 디스플레이 장치에 디스플레이 아이템을 표시하는 방법을 나타내는 도면이다. 15 is a diagram illustrating a method of displaying a display item on a virtual reality display device according to an embodiment.
도 15를 참조하면, 사용자 주변에는 전자레인지(1510), 보안 카메라(1520), 에어컨(1530), 시계(1540), 모바일 단말(1550) 등과 같은 다양한 외부 장치가 존재할 수 있다. 가상 현실 디스플레이 장치(200)는 이러한 외부 장치로부터 디스플레이 아이템을 수신하여 가상 현실(1560) 내에 표시할 수 있다. 여기서, 디스플레이 아이템은 조작 인터페이스, 조작 상태, 알림 정보 및 지시 정보 등을 나타내는 아이템이다. 또한, 외부 장치는 가상 현실 디스플레이 장치(200)와 통신 가능한 장치, 예를 들어, IoT 장치일 수 있다. 15, various external devices such as a
일 실시예에서, 가상 현실 디스플레이 장치(200)는 사용자의 실제 시야를 실시간으로 모니터링 할 수 있다. 가상 현실 디스플레이 장치(200)는 외부 장치가 사용자의 실제 시야에 들어오는 경우, 외부 장치의 타입에 따라 대응되는 디스플레이 아이템을 획득할 수 있다. 일 실시예에서 가상 현실 디스플레이 장치(200)는 각종 센서 등을 통해 측정 되는 정보 및 사용자가 위치한 방의 시설물 지도 등의 정보를 이용하여 사용자의 시야를 실시간으로 모니터링 할 수 있다. 또한, 가상 현실 디스플레이 장치(200)는 가상 현실 디스플레이 장치(200)에 설치된 촬영 장치의 시점을 분석하여 사용자의 시야를 획득할 수도 있다. In one embodiment, the virtual
일 실시예에서 가상 현실 디스플레이 장치(200)가 사용자의 실제 시야에 전자레인지(1510), 보안 카메라(1520), 에어컨(1530), 시계(1540), 모바일 단말(1550)과 같은 외부 장치가 감지된다고 판단하는 경우, 각 외부 장치에 대응되는 정보, 예를 들어, 요리 완료 알림(1511), 보안 카메라(1520)에 의해 보여지는 화면(1521), 에어컨(1530)의 온도(1531), 시간(1541), 모바일 단말 인터페이스(1551) 등을 획득하여 표시할 수 있다. In one embodiment, the virtual
일 실시예에서 가상 현실 디스플레이 장치(200)는 사용자의 실제 시야 밖의 외부 장치로부터 디스플레이 아이템을 수신하여 표시할 수도 있다. 예를 들어, 손님이 문에 도착한 경우, 문에 설치된 인텔리젼스 초인종은 가상 현실 디스플레이 장치(200)에 알람 및 문 밖의 이미지를 전송할 수 있다. 또한, 가상 현실 디스플레이 장치(200)는 사용자의 모바일 단말은 서로 통신하여 모바일 단말의 인터페이스를 조작할 수도 있다. 도 16을 참조하여 설명한다. In one embodiment, the virtual
도 16은 일 실시예에 따라 가상 현실 디스플레이 장치에 외부 장치의 화면을 표시하는 방법을 나타내는 도면이다.16 is a diagram illustrating a method of displaying a screen of an external device on a virtual reality display device according to an embodiment.
도 16을 참조하면, 가상 현실 디스플레이 장치(200)는 디스플레이 아이템에 대한 조작을 수행하여 모바일 단말(1640)을 원격으로 제어할 수도 있다. 이때, 모바일 단말(1640)과 가상 현실 디스플레이 장치(200)는 통신하는 것을 전제로 한다. Referring to FIG. 16, the virtual
일 실시예에서, 모바일 단말(1640)에 전화벨이 울리는 경우, 가상 현실 디스플레이 장치(200)는 모바일 단말(1640)의 인터페이스(1620)를 표시하고, 사용자는 가상 현실 디스플레이 장치(200)에 표시되는 모바일 단말(1640)의 인터페이스(1620)를 조작하여 전화를 수신할 수 있다. 가상 현실 디스플레이 장치(200)는 사용자가 전화를 수신하지 않기로 결정하는 경우, 사용자 입력을 수신하여 직접 전화를 끊거나, 모바일 단말(1640)을 원격으로 제어하여 끊을 수도 있다. 나아가, 사용자는 아무런 동작을 수행하지 않을 수도 있으며, 사용자가 나중에 다시 전화를 걸기를 원하는 경우, 가상 현실 디스플레이 장치(200)는 통해 다시 전화를 걸도록 설정되거나, 다시 전화를 거는 리마인더를 설정하도록 모바일 단말(1640)을 원격으로 제어할 수도 있다. In one embodiment, when the mobile terminal 1640 rings, the virtual
또한, 일 실시예에서, 모바일 단말(1640)이 사용자로부터 응답이 필요한 메시지를 수신한 경우, 모바일 단말(1640)의 인터페이스(1620)를 가상 현실 디스플레이 장치(200)에 표시할 수 있다. 사용자는 가상 현실 디스플레이 장치(200)에 표시되는 인터페이스(1620)를 조작하여 메시지에 응답할 수 있다. 사용자가 나중에 메시지에 회신하고자 하는 경우, 가상 현실 디스플레이 장치(200)는 회신 작업 정보를 설정하거나 또는 모바일 단말(1640)을 원격 제어하여 회신 리마인더를 설정할 수도 있다. 사용자가 메시지 전송자에게 전화를 걸고자 하는 경우, 가상 현실 디스플레이 장치(200)는 사용자의 조작에 따라 가상 현실 디스플레이 장치(200)를 사용하여 전화를 걸 수도 있다(예를 들어, 헤드-마운티드 디스플레이를 블루투스 이어폰으로 사용하는 경우).Also, in one embodiment, the mobile terminal 1640 may display the
일 실시예에 따르면, 사용자는 가상 현실 디스플레이 장치(200)를 착용하여 가상 현실(1610)을 체험하면서도, 가상 현실 디스플레이 장치(200)를 이용하여 모바일 단말(1640)을 조작할 수 있어 편리하고 몰입감을 향상시킬 수 있다. According to one embodiment, the user can operate the mobile terminal 1640 using the virtual
또한, 일 실시예에서, 가상 현실 디스플레이 장치(200)는 모바일 단말(1640)이 사용자의 시야 밖에 존재하는 경우, 화살표, 지시 기호, 텍스트와 같은 지시자(1630)를 표시하여 모바일 단말(1640)의 위치를 표시할 수도 있다. 나아가, 가상 현실 디스플레이 장치(200)는 사용자가 모바일 단말(1640)의 사용을 종료하는 경우, 더 이상 디스플레이 아이템이 표시되지 않도록 제거할 수도 있다. Also, in one embodiment, the virtual
다시 도 15의 설명으로 돌아오면, 가상 현실 디스플레이 장치(200)는 획득한 디스플레이 아이템을 다양한 방법으로 표시할 수 있다. 일 실시예에서 디스플레이 아이템은 가상 현실과 겹쳐져서 표시될 수 있다. 그러나, 이러한 방법은 하나의 실시예에 불과하며, 디스플레이 아이템은 사용자가 외부 장치와 보다 나은 상호작용이 가능하도록 적절한 레이아웃에 따라 표시될 수 있다. 이때, 사용자와 가상 현실 및 외부 장치 간의 상호작용이 동시에 이루어지도록 고려되는 것이 바람직 할 것이다. Returning to the description of FIG. 15, the virtual
나아가, 가상 현실 디스플레이 장치(200)는 표시되는 디스플레이 아이템의 종류를 선택할 수도 있다. 일 실시예에서 각 외부 장치들은 목록화 되어 리스트로 관리될 수 있고, 가상 현실 디스플레이 장치(200)는 사용자 입력에 따라 리스트에서 선택된 외부 장치에서 획득한 디스플레이 아이템만을 표시할 수 있다. 또한, 각 외부 장치에 대해 상세한 설정을 하는 것도 가능하다. 예를 들어, 외부 장치로부터 수신할 수 있는 메시지의 형태가 목록화 되어 리스트로 관리될 수 있다. 가상 현실 디스플레이 장치(200)는 사용자 입력에 따라 선택된 메시지만을 표시할 수 있다. Further, the virtual
추가적으로, 가상 현실 디스플레이 장치(200)는 가상 현실 디스플레이 장치(200)에서 실행되고 있는 애플리케이션이 방해될 수 있는지 여부에 따라 정보를 수신할 수 있는 차단 레벨을 설정하여, 설정한 레벨에 따라 디스플레이 아이템을 표시할 수 있다. 예를 들어, 애플리케이션 실행 시 방해 받고 싶지 않은 애플리케이션(예를 들어 실시간 가상 네트워크 게임의 격렬한 싸움)의 경우, 높은 차단 레벨로 설정하여 가능한 적은 영향을 주는 방법(번쩍이는 점과 같은)으로 디스플레이 아이템을 표시할 수 있다. 낮은 차단 레벨을 갖는 애플리케이션은 자유롭게 디스플레이 아이템을 표시할 수 있다. 하나의 애플리케이션에 상황에 따라 복수의 차단 레벨을 설정하는 것도 가능하다. In addition, the virtual
일 실시예에서는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. But may be embodied in the form of a computer-readable recording medium, such as a program module, which is executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium can include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
210: 물체 정보 획득부
220: 디스플레이부
230: 제어부210: Object information acquisition unit
220:
230:
Claims (17)
상기 사용자의 양안 시점(binocular view)을 바탕으로 현실 세계의 물체(object)에 대한 물체 정보를 획득하는 단계; 및
상기 사용자에게 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시하는 단계를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
Displaying virtual reality to a user according to a virtual view of the virtual reality display device;
Acquiring object information on an object in the real world based on a binocular view of the user; And
And displaying the obtained object information together with the virtual reality to the user.
상기 사용자에게 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시하는 단계는,
상기 물체의 실제 위치에 대응되는 위치에 상기 물체 정보를 표시하는 단계를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
The method according to claim 1,
The step of displaying the obtained object information together with the virtual reality to the user includes:
And displaying the object information at a position corresponding to an actual position of the object.
상기 사용자의 양안 시점을 바탕으로 현실 세계의 물체에 대한 물체 정보를 획득하는 단계는,
상기 촬영 장치를 이용하여 물체의 이미지를 캡쳐하는 단계; 및
상기 캡쳐한 이미지를 바탕으로 다른 시점에서의 상기 물체의 이미지를 획득하는 단계; 및
상기 다른 시점에서 상기 물체의 이미지 및 상기 캡쳐한 이미지를 바탕으로 상기 물체에 대한 양안 시점 이미지를 획득하는 단계를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
The method according to claim 1,
The step of acquiring object information on an object in the real world based on the binocular viewpoint of the user includes:
Capturing an image of an object using the photographing apparatus; And
Obtaining an image of the object at another viewpoint based on the captured image; And
And acquiring a binocular viewpoint image for the object based on the image of the object and the captured image at the different viewpoints.
상기 다른 시점에서의 상기 물체의 이미지 및 상기 캡쳐한 이미지를 바탕으로 상기 물체에 대한 양안 시점 이미지를 획득하는 단계는,
상기 사용자의 눈과 상기 촬영 장치 사이의 위치 관계에 기반하여 상기 캡쳐한 이미지와 상기 획득한 다른 시점에서의 상기 물체의 이미지에 대하여 시점 보정(view point correction)을 수행하는 단계를 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
Acquiring a binocular viewpoint image for the object based on the image of the object at the different viewpoint and the captured image,
And performing a view point correction on the captured image and the image of the object at the acquired other view point based on a positional relationship between the user's eyes and the photographing apparatus How to.
상기 사용자에게 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시하는 단계는,
상기 현실 정보의 중요도 및 긴급도 중 적어도 하나 이상을 바탕으로 상기 사용자에게 상기 물체 정보를 제공할 것인지 여부를 결정하는 단계를 포함하는 것을 특징으로 하는 가상 현실 내 현실 정보 표시 방법.
The method according to claim 1,
The step of displaying the obtained object information together with the virtual reality to the user includes:
And determining whether to provide the object information to the user based on at least one of importance and urgency of the real information.
상기 사용자에게 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시 하는 단계는,
상기 현실 정보의 중요도 및 긴급도 중 적어도 하나 이상을 바탕으로 상기 물체 정보를 표시하는 표시 방법을 결정하는 단계; 및
상기 결정된 표시 방법에 따라 상기 물체 정보를 상기 사용자에게 표시하는 단계를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
6. The method of claim 5,
The step of displaying the obtained object information together with the virtual reality to the user includes:
Determining a display method of displaying the object information based on at least one of importance and urgency of the real information; And
And displaying the object information to the user according to the determined display method.
상기 사용자에게 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시하는 단계는,
상기 가상 현실과 상기 물체 정보가 서로를 가리는 경우, 상기 가상 현실 및 상기 물체 정보 중 적어도 하나 이상의 표시 방법을 조정하는 단계를 포함하는 것을 특징으로 하는 가상 현실 내 현실 정보 표시 방법.
The method according to claim 1,
The step of displaying the obtained object information together with the virtual reality to the user includes:
And adjusting the display method of at least one of the virtual reality and the object information when the virtual reality and the object information overlap each other.
상기 사용자의 양안 시점을 바탕으로 현실 세계의 물체에 대한 물체 정보를 획득하는 단계는,
상기 물체 정보가 상기 사용자에게 표시되도록 요구되는지 여부를 판단하는 단계; 및
상기 물체 정보가 상기 사용자에게 표시되도록 요구된다고 판단하는 경우, 상기 물체 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
The method according to claim 1,
The step of acquiring object information on an object in the real world based on the binocular viewpoint of the user includes:
Determining whether the object information is required to be displayed to the user; And
And acquiring the object information when it is determined that the object information is required to be displayed to the user.
상기 물체 정보가 상기 사용자에게 표시되도록 요구되는지 여부를 판단하는 단계는,
상기 물체 정보를 표시하도록 요구하는 사용자 입력을 수신하는 경우, 상기 물체 정보가 상기 사용자에게 표시되도록 설정된 물체 정보라고 판단하는 경우, 상기 가상 현실 내의 애플리케이션 인터페이스에서 상기 물체가 특정 동작을 수행하도록 요구하는 제어 명령이 감지되는 경우, 상기 사용자의 신체 일부가 상기 물체에 가깝다는 것이 감지되는 경우, 상기 사용자의 신체 일부가 상기 물체 방향으로 이동하는 것이 감지되는 경우, 상기 가상 현실 디스플레이 장치에서 실행되는 애플리케이션이 상기 물체 정보를 지금 사용하도록 요구한다고 판단되는 경우, 상기 사용자 주변의 상기 물체와 상호작용하도록 설정된 시간에 도달한 것으로 판단되는 경우 중 적어도 하나의 경우, 상기 물체 정보가 상기 사용자에게 표시되도록 요구된다고 판단하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
The method of claim 3,
Wherein the step of determining whether the object information is required to be displayed to the user comprises:
And a control unit that, when receiving a user input requesting display of the object information, determines that the object information is object information set to be displayed to the user, When an instruction is detected, when it is detected that the body part of the user is close to the object, when it is detected that the body part of the user moves in the direction of the object, When it is determined that the object information is requested to be used now, or when it is determined that the predetermined time is set to interact with the object around the user, it is determined that the object information is required to be displayed to the user that And displaying the virtual reality display device.
상기 표시되는 물체 정보를 제외하고, 상기 가상 현실을 표시하는 단계를 더 포함하는 것을 특징으로 하는 가상 현실 표시 장치의 표시 방법.
The method according to claim 1,
Further comprising the step of displaying the virtual reality except for the displayed object information.
상기 표시되는 물체 정보를 제외하고, 상기 가상 현실을 표시하는 단계는,
상기 물체 정보를 표시하지 않도록 하는 사용자 입력을 수신하는 경우, 상기 물체 정보가 상기 사용자에게 표시되도록 설정된 것이 아니라고 판단하는 경우, 상기 가상 현실 내의 애플리케이션 인터페이스에서 상기 물체가 특정 동작을 수행하도록 요구하는 제어 명령이 감지되지 않는 경우, 상기 사용자의 신체 일부가 상기 물체와 멀다는 것이 감지되는 경우, 사용자의 신체 일부가 상기 물체에서 멀어지는 방향으로 이동하는 것이 감지되는 경우, 상기 가상 현실 디스플레이 장치에서 실행되는 애플리케이션이 상기 물체 정보를 사용할 필요가 없다고 판단하는 경우, 기 설정된 시간 동안 상기 사용자가 상기 물체 정보를 이용하여 동작을 수행하지 않는 경우, 상기 사용자가 상기 물체 정보를 보지 않고도 동작을 수행하는 것이 가능하다고 판단되는 경우 중 적어도 하나의 경우, 상기 표시되는 물체 정보를 제외하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
11. The method of claim 10,
Displaying the virtual reality, excluding the displayed object information,
When receiving a user input for not displaying the object information, when it is determined that the object information is not set to be displayed to the user, a control command for requesting the object to perform a specific operation in an application interface in the virtual reality When it is detected that a part of the body of the user is distant from the object, if it is detected that a part of the user's body moves in a direction away from the object, When it is determined that it is not necessary to use the object information and the user does not perform the operation using the object information for a preset time period, it is determined that it is possible for the user to perform the operation without viewing the object information If at least one of the right, the display method of the virtual reality display device, characterized in that except for the object information to the display.
상기 사용자의 양안 시점을 바탕으로 현실 세계의 물체에 대한 물체 정보를 획득하는 단계는,
상기 사용자 주변의 물체, 기 설정된 라벨을 갖는 물체, 상기 사용자에 의해 지정된 물체, 상기 가상 현실 디스플레이 장치에서 실행되는 애플리케이션이 사용하도록 요구하는 물체 및 상기 가상 현실 디스플레이 장치의 제어를 수행하기 위해 요구되는 물체 중 적어도 하나 이상을 포함하는 물체에 대한 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
The method according to claim 1,
The step of acquiring object information on an object in the real world based on the binocular viewpoint of the user includes:
An object to be used by the application executed in the virtual reality display device and an object required to perform the control of the virtual reality display device, The method comprising the steps of: acquiring information about an object including at least one of the virtual reality object and the virtual reality object.
상기 사용자의 양안 시점을 바탕으로 현실 세계의 물체에 대한 물체 정보를 획득하는 단계는,
외부 장치로부터 상기 이벤트가 발생하였다는 알림 및 상기 이벤트의 내용 중 적어도 하나 이상을 획득하는 단계를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
The method according to claim 1,
The step of acquiring object information on an object in the real world based on the binocular viewpoint of the user includes:
And receiving at least one of a notification that the event has occurred from the external device and the content of the event.
상기 사용자에게 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시하는 단계는,
상기 외부 장치의 위치를 표시하는 단계를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치의 표시 방법.
14. The method of claim 13,
The step of displaying the obtained object information together with the virtual reality to the user includes:
And displaying the position of the external device on the display unit.
가상 현실 및 상기 획득한 물체 정보를 표시하는 디스플레이부; 및
가상 현실상기 물체 정보를 획득하고, 상기 가상 현실과 함께 상기 획득한 물체 정보를 표시하도록 상기 물체 정보 획득부 및 상기 디스플레이부를 제어하는 제어부를 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치.
An object information acquiring unit that acquires object information on an object in the real world based on the binocular viewpoint of the user;
A display unit for displaying the virtual reality and the obtained object information; And
And a controller for controlling the object information obtaining unit and the display unit to obtain the object information and display the obtained object information together with the virtual reality.
상기 물체 정보 획득부는,
센서, 통신부, 촬영 장치 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 가상 현실 디스플레이 장치.
16. The method of claim 15,
The object information obtaining unit obtains,
A sensor, a communication unit, and a photographing device.
상기 제어부는,
상기 물체의 실제 위치에 대응되는 위치에 상기 물체 정보를 표시 하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 가상 현실 디스플레이 장치.16. The method of claim 15,
Wherein,
And controls the display unit to display the object information at a position corresponding to an actual position of the object.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2016/009711 WO2017039308A1 (en) | 2015-08-31 | 2016-08-31 | Virtual reality display apparatus and display method thereof |
US15/252,853 US20170061696A1 (en) | 2015-08-31 | 2016-08-31 | Virtual reality display apparatus and display method thereof |
EP16842274.9A EP3281058A4 (en) | 2015-08-31 | 2016-08-31 | Virtual reality display apparatus and display method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510549225.7 | 2015-08-31 | ||
CN201510549225.7A CN106484085B (en) | 2015-08-31 | 2015-08-31 | The method and its head-mounted display of real-world object are shown in head-mounted display |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170026164A true KR20170026164A (en) | 2017-03-08 |
Family
ID=58236359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160106177A KR20170026164A (en) | 2015-08-31 | 2016-08-22 | Virtual reality display apparatus and display method thereof |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3281058A4 (en) |
KR (1) | KR20170026164A (en) |
CN (2) | CN110275619B (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019027556A1 (en) * | 2017-08-02 | 2019-02-07 | Microsoft Technology Licensing, Llc | Transitioning into a vr environment and warning hmd users of real-world physical obstacles |
KR20190043049A (en) * | 2017-10-17 | 2019-04-25 | 삼성전자주식회사 | Electronic device and method for executing function using input interface displayed via at least portion of content |
KR20190119206A (en) * | 2018-03-30 | 2019-10-22 | 데이터얼라이언스 주식회사 | IoT Device Control System And Method Using Virtual reality And Augmented Reality |
KR20200062287A (en) * | 2017-10-12 | 2020-06-03 | 아우디 아게 | Method for operating a head mounted electronic display device and display system for displaying virtual content |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110402578B (en) * | 2017-03-22 | 2022-05-03 | 索尼公司 | Image processing apparatus, method and recording medium |
CN107168515A (en) * | 2017-03-31 | 2017-09-15 | 北京奇艺世纪科技有限公司 | The localization method and device of handle in a kind of VR all-in-ones |
CN106896925A (en) * | 2017-04-14 | 2017-06-27 | 陈柳华 | The device that a kind of virtual reality is merged with real scene |
CN107222689B (en) * | 2017-05-18 | 2020-07-03 | 歌尔科技有限公司 | Real scene switching method and device based on VR (virtual reality) lens |
CN108960008B (en) * | 2017-05-22 | 2021-12-14 | 华为技术有限公司 | VR display method and device and VR equipment |
CN107229342A (en) * | 2017-06-30 | 2017-10-03 | 宇龙计算机通信科技(深圳)有限公司 | Document handling method and user equipment |
CN107577337A (en) * | 2017-07-25 | 2018-01-12 | 北京小鸟看看科技有限公司 | A kind of keyboard display method for wearing display device, device and wear display device |
CN107422942A (en) * | 2017-08-15 | 2017-12-01 | 吴金河 | A kind of control system and method for immersion experience |
WO2019067642A1 (en) * | 2017-09-29 | 2019-04-04 | Zermatt Technologies Llc | Environment-based application presentation |
CN108169901A (en) * | 2017-12-27 | 2018-06-15 | 北京传嘉科技有限公司 | VR glasses |
CN108040247A (en) * | 2017-12-29 | 2018-05-15 | 湖南航天捷诚电子装备有限责任公司 | A kind of wear-type augmented reality display device and method |
CN108572723B (en) * | 2018-02-02 | 2021-01-29 | 陈尚语 | Carsickness prevention method and equipment |
CN108519676B (en) * | 2018-04-09 | 2020-04-28 | 杭州瑞杰珑科技有限公司 | Head-wearing type vision-aiding device |
CN108764152B (en) * | 2018-05-29 | 2020-12-04 | 北京物灵智能科技有限公司 | Method and device for realizing interactive prompt based on picture matching and storage equipment |
CN108922115B (en) * | 2018-06-26 | 2020-12-18 | 联想(北京)有限公司 | Information processing method and electronic equipment |
CN112771473A (en) * | 2018-09-07 | 2021-05-07 | 苹果公司 | Inserting imagery from a real environment into a virtual environment |
JP6739847B2 (en) | 2018-09-12 | 2020-08-12 | 株式会社アルファコード | Image display control device and image display control program |
EP3671410B1 (en) * | 2018-12-19 | 2022-08-24 | Siemens Healthcare GmbH | Method and device to control a virtual reality display unit |
US10992926B2 (en) * | 2019-04-15 | 2021-04-27 | XRSpace CO., LTD. | Head mounted display system capable of displaying a virtual scene and a real scene in a picture-in-picture mode, related method and related non-transitory computer readable storage medium |
US20200327867A1 (en) * | 2019-04-15 | 2020-10-15 | XRSpace CO., LTD. | Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium |
US11137908B2 (en) * | 2019-04-15 | 2021-10-05 | Apple Inc. | Keyboard operation with head-mounted device |
US11265487B2 (en) * | 2019-06-05 | 2022-03-01 | Mediatek Inc. | Camera view synthesis on head-mounted display for virtual reality and augmented reality |
CN110475103A (en) * | 2019-09-05 | 2019-11-19 | 上海临奇智能科技有限公司 | A kind of wear-type visual device |
CN111124112A (en) * | 2019-12-10 | 2020-05-08 | 北京一数科技有限公司 | Interactive display method and device for virtual interface and entity object |
JP6754908B1 (en) * | 2020-02-07 | 2020-09-16 | 株式会社ドワンゴ | Viewing terminal, viewing method, viewing system and program |
CN111427447B (en) * | 2020-03-04 | 2023-08-29 | 青岛小鸟看看科技有限公司 | Virtual keyboard display method, head-mounted display device and system |
CN112445341B (en) | 2020-11-23 | 2022-11-08 | 青岛小鸟看看科技有限公司 | Keyboard perspective method and device of virtual reality equipment and virtual reality equipment |
CN112462937B (en) | 2020-11-23 | 2022-11-08 | 青岛小鸟看看科技有限公司 | Local perspective method and device of virtual reality equipment and virtual reality equipment |
CN112581054B (en) * | 2020-12-09 | 2023-08-29 | 珠海格力电器股份有限公司 | Material management method and material management device |
CN114827338A (en) * | 2021-01-29 | 2022-07-29 | 北京外号信息技术有限公司 | Method and electronic device for presenting virtual objects on a display medium of a device |
CN114035732A (en) * | 2021-11-04 | 2022-02-11 | 海南诺亦腾海洋科技研究院有限公司 | Method and device for controlling virtual experience content of VR head display equipment by one key |
CN114327044A (en) * | 2021-11-30 | 2022-04-12 | 歌尔光学科技有限公司 | Head-mounted display device control method and device, head-mounted display device and medium |
WO2023130435A1 (en) * | 2022-01-10 | 2023-07-13 | 深圳市闪至科技有限公司 | Interaction method, head-mounted display device, and system and storage medium |
CN114372179A (en) * | 2022-01-12 | 2022-04-19 | 乌鲁木齐涅墨西斯网络科技有限公司 | Space visualization community management system and method based on AR technology |
CN114419292A (en) * | 2022-01-21 | 2022-04-29 | 北京字跳网络技术有限公司 | Image processing method, device, equipment and storage medium |
CN114972692B (en) * | 2022-05-12 | 2023-04-18 | 北京领为军融科技有限公司 | Target positioning method based on AI identification and mixed reality |
WO2024190187A1 (en) * | 2023-03-14 | 2024-09-19 | パナソニックIpマネジメント株式会社 | Display control device, display control method, and program |
CN116744195B (en) * | 2023-08-10 | 2023-10-31 | 苏州清听声学科技有限公司 | Parametric array loudspeaker and directional deflection method thereof |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6037882A (en) * | 1997-09-30 | 2000-03-14 | Levy; David H. | Method and apparatus for inputting data to an electronic system |
GB2376397A (en) * | 2001-06-04 | 2002-12-11 | Hewlett Packard Co | Virtual or augmented reality |
JP2005044102A (en) * | 2003-07-28 | 2005-02-17 | Canon Inc | Image reproduction method and device |
JP2009025918A (en) * | 2007-07-17 | 2009-02-05 | Canon Inc | Image processor and image processing method |
CN101893935B (en) * | 2010-07-14 | 2012-01-11 | 北京航空航天大学 | Cooperative construction method for enhancing realistic table-tennis system based on real rackets |
US8884984B2 (en) * | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
JP2012173772A (en) * | 2011-02-17 | 2012-09-10 | Panasonic Corp | User interaction apparatus, user interaction method, user interaction program and integrated circuit |
WO2012135554A1 (en) * | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | System for the rendering of shared digital interfaces relative to each user's point of view |
US20120249587A1 (en) * | 2011-04-04 | 2012-10-04 | Anderson Glen J | Keyboard avatar for heads up display (hud) |
US9547438B2 (en) * | 2011-06-21 | 2017-01-17 | Empire Technology Development Llc | Gesture based user interface for augmented reality |
JP5765133B2 (en) * | 2011-08-16 | 2015-08-19 | 富士通株式会社 | Input device, input control method, and input control program |
US8941560B2 (en) * | 2011-09-21 | 2015-01-27 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
CN103018905A (en) * | 2011-09-23 | 2013-04-03 | 奇想创造事业股份有限公司 | Head-mounted somatosensory manipulation display system and method thereof |
US9081177B2 (en) * | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
US9041622B2 (en) * | 2012-06-12 | 2015-05-26 | Microsoft Technology Licensing, Llc | Controlling a virtual object with a real controller device |
JP6079614B2 (en) * | 2013-12-19 | 2017-02-15 | ソニー株式会社 | Image display device and image display method |
EP3098689B1 (en) * | 2014-01-23 | 2019-04-03 | Sony Corporation | Image display device and image display method |
-
2015
- 2015-08-31 CN CN201910549634.5A patent/CN110275619B/en active Active
- 2015-08-31 CN CN201510549225.7A patent/CN106484085B/en active Active
-
2016
- 2016-08-22 KR KR1020160106177A patent/KR20170026164A/en not_active Application Discontinuation
- 2016-08-31 EP EP16842274.9A patent/EP3281058A4/en not_active Ceased
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019027556A1 (en) * | 2017-08-02 | 2019-02-07 | Microsoft Technology Licensing, Llc | Transitioning into a vr environment and warning hmd users of real-world physical obstacles |
CN110998491A (en) * | 2017-08-02 | 2020-04-10 | 微软技术许可有限责任公司 | Transitioning into a VR environment and alerting HMD users of real-world physical obstacles |
US10627635B2 (en) | 2017-08-02 | 2020-04-21 | Microsoft Technology Licensing, Llc | Transitioning into a VR environment and warning HMD users of real-world physical obstacles |
KR20200062287A (en) * | 2017-10-12 | 2020-06-03 | 아우디 아게 | Method for operating a head mounted electronic display device and display system for displaying virtual content |
KR20190043049A (en) * | 2017-10-17 | 2019-04-25 | 삼성전자주식회사 | Electronic device and method for executing function using input interface displayed via at least portion of content |
WO2019078595A1 (en) * | 2017-10-17 | 2019-04-25 | Samsung Electronics Co., Ltd. | Electronic device and method for executing function using input interface displayed via at least portion of content |
US10754546B2 (en) | 2017-10-17 | 2020-08-25 | Samsung Electronics Co., Ltd. | Electronic device and method for executing function using input interface displayed via at least portion of content |
KR20190119206A (en) * | 2018-03-30 | 2019-10-22 | 데이터얼라이언스 주식회사 | IoT Device Control System And Method Using Virtual reality And Augmented Reality |
Also Published As
Publication number | Publication date |
---|---|
CN110275619A (en) | 2019-09-24 |
CN106484085B (en) | 2019-07-23 |
CN106484085A (en) | 2017-03-08 |
EP3281058A4 (en) | 2018-04-11 |
EP3281058A1 (en) | 2018-02-14 |
CN110275619B (en) | 2024-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170026164A (en) | Virtual reality display apparatus and display method thereof | |
US20170061696A1 (en) | Virtual reality display apparatus and display method thereof | |
US10489981B2 (en) | Information processing device, information processing method, and program for controlling display of a virtual object | |
JP5936155B2 (en) | 3D user interface device and 3D operation method | |
WO2018000200A1 (en) | Terminal for controlling electronic device and processing method therefor | |
CN110456907A (en) | Control method, device, terminal device and the storage medium of virtual screen | |
CN111886564B (en) | Information processing device, information processing method, and program | |
JPWO2014141504A1 (en) | 3D user interface device and 3D operation processing method | |
TWI701941B (en) | Method, apparatus and electronic device for image processing and storage medium thereof | |
CN111937045B (en) | Information processing apparatus, information processing method, and recording medium | |
CN113544765B (en) | Information processing device, information processing method, and program | |
US11195341B1 (en) | Augmented reality eyewear with 3D costumes | |
JP2019125215A (en) | Information processing apparatus, information processing method, and recording medium | |
US20220291744A1 (en) | Display processing device, display processing method, and recording medium | |
KR20170062439A (en) | Control device, control method, and program | |
US20240256052A1 (en) | User interactions with remote devices | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
JP2016126687A (en) | Head-mounted display, operation reception method, and operation reception program | |
CN111913560B (en) | Virtual content display method, device, system, terminal equipment and storage medium | |
WO2021241110A1 (en) | Information processing device, information processing method, and program | |
WO2016151958A1 (en) | Information processing device, information processing system, information processing method, and program | |
CN115803786A (en) | Information processing apparatus, information processing method, and program | |
US20240377918A1 (en) | Information processing system | |
CN112578983A (en) | Finger-oriented touch detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |