[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102010023B1 - Method and system for providing mixed reality service - Google Patents

Method and system for providing mixed reality service Download PDF

Info

Publication number
KR102010023B1
KR102010023B1 KR1020180003339A KR20180003339A KR102010023B1 KR 102010023 B1 KR102010023 B1 KR 102010023B1 KR 1020180003339 A KR1020180003339 A KR 1020180003339A KR 20180003339 A KR20180003339 A KR 20180003339A KR 102010023 B1 KR102010023 B1 KR 102010023B1
Authority
KR
South Korea
Prior art keywords
hmd
image
mixed reality
user
virtual image
Prior art date
Application number
KR1020180003339A
Other languages
Korean (ko)
Other versions
KR20190085335A (en
Inventor
안길재
홍준표
김상훈
Original Assignee
주식회사 동우 이앤씨
안길재
홍준표
김상훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 동우 이앤씨, 안길재, 홍준표, 김상훈 filed Critical 주식회사 동우 이앤씨
Priority to KR1020180003339A priority Critical patent/KR102010023B1/en
Publication of KR20190085335A publication Critical patent/KR20190085335A/en
Application granted granted Critical
Publication of KR102010023B1 publication Critical patent/KR102010023B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 서버의 혼합 현실 서비스를 제공하기 위한 방법으로, 혼합 현실 서비스가 구동됨에 따라 HMD로부터 트랙킹 정보를 수신하는 단계, 상기 수신된 트랙킹 정보를 기초로, 3차원 모델링 데이터 및 사용자 인터페이스 중 적어도 하나의 가상 이미지를 생성하는 단계 및 상기 가상 이미지를 상기 HMD로 전송하는 단계를 포함하되, 상기 트랙킹 정보는, 상기 HMD에서 촬영되는 현실 이미지 및 상기 현실 이미지 내의 현실 공간에 대한 식별 정보를 포함하고, 상기 가상 이미지는, 상기 HMD에서 상기 현실 이미지와 합성되어 혼합 현실 이미지로 표시되는 것을 특징으로 하는 방법 및 이를 수행하는 시스템에 관한 것이다.The present invention provides a method for providing a mixed reality service of a server, the method comprising: receiving tracking information from an HMD as a mixed reality service is driven, based on the received tracking information, at least one of three-dimensional modeling data and a user interface Generating a virtual image of the virtual image and transmitting the virtual image to the HMD, wherein the tracking information includes a real image photographed by the HMD and identification information about a real space in the real image; The virtual image relates to a method and a system for performing the same, wherein the virtual image is synthesized with the real image in the HMD and displayed as a mixed reality image.

Description

혼합 현실 서비스 제공 방법 및 시스템{Method and system for providing mixed reality service}Method and system for providing mixed reality service

본 발명은 혼합 현실 서비스 제공 방법 및 시스템에 관한 것으로, 보다 구체적으로 혼합 현실 이미지를 통하여 3차원 모델링 데이터를 처리하기 위한 사용자 인터페이스를 제공하고 핸드 제스처 입력을 통하여 3차원 모델링 데이터를 처리할 수 있도록 하는 혼합 현실 서비스 제공 방법 및 시스템에 관한 것이다. The present invention relates to a method and system for providing a mixed reality service, and more particularly, to provide a user interface for processing 3D modeling data through a mixed reality image, and to process 3D modeling data through a hand gesture input. A method and system for providing a mixed reality service.

최근 3차원 영상 처리 기술이 급속도로 발전하면서, 영화, 게임, 인테리어 등 다양한 분야에 가상 현실(Virtual Reality; VR) 또는 증강 현실(Augmented Reality; AR)을 이용한 서비스가 제공되고 있다. 증강 현실 이후에 등장한 혼합 현실(Mixed Reality; MR)은 현실의 이미지와 3차원 모델링 데이터로 구현된 가상의 이미지를 합성하여 표시함으로써, 사용자에게 현실과 가상 이미지의 경계가 없는 이미지를 제공한다. Recently, as 3D image processing technology has been rapidly developed, services using virtual reality (VR) or augmented reality (AR) have been provided to various fields such as movies, games, and interiors. Mixed reality (MR), which appeared after augmented reality, synthesizes and displays virtual images embodied with images of reality and 3D modeling data, thereby providing a user with an image without a boundary between reality and virtual images.

한편, 건축물의 설계 분야에서도 설계 데이터를 3차원 모델링 데이터화하여 보다 입체감 있게 건축물의 구조를 파악할 수 있도록 하는 기술이 개발되고 있다. On the other hand, in the field of building design, a technology has been developed that enables the design data to be three-dimensional modeled data to grasp the structure of the building in a more three-dimensional sense.

그러나 현재까지의 건축물 설계 분야에서 혼합 현실의 적용은 스마트폰 등의 화면을 통해 현실 공간에 가구와 같은 가상의 소규모 인테리어 구조물을 배치하는 수준에 그치고 있다. However, the application of mixed reality in the field of architectural design to date is only to place virtual small-scale interior structures such as furniture in the real space through the screen of a smartphone.

인테리어 또는 건축물의 설계에 있어서, 보다 현실감 있게 공간을 창작하고 편집하기 위한 사용자의 욕구는 증가하고 있으며, 그에 따라 장치와 사용자 간 효율적인 인터랙션을 제공하는 방법이 요구된다. In the design of interiors or buildings, the user's desire to create and edit spaces more realistically is increasing, and thus a method for providing efficient interaction between the device and the user is required.

본 발명은 상기한 문제점을 해결하기 위한 것으로, 혼합 현실 이미지로 표시된 3차원 모델링 데이터를 처리하기 위한 사용자 인터페이스를 제공하는 혼합 현실 서비스 제공 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing a mixed reality service for providing a user interface for processing three-dimensional modeling data represented by a mixed reality image.

또한, 본 발명은 혼합 현실 이미지로 표시된 3차원 모델링 데이터를 핸드 제스처 입력을 통해 처리할 수 있도록 하는 혼합 현실 서비스 제공 방법 및 시스템에 관한 것이다. The present invention also relates to a method and system for providing a mixed reality service for processing three-dimensional modeling data represented by a mixed reality image through a hand gesture input.

상술한 과제를 해결하기 위한 본 발명에 따른 혼합 현실 서비스 제공 방법은, 서버의 혼합 현실 서비스를 제공하기 위한 방법으로, 혼합 현실 서비스가 구동됨에 따라 HMD로부터 트랙킹 정보를 수신하는 단계, 상기 수신된 트랙킹 정보를 기초로, 3차원 모델링 데이터 및 사용자 인터페이스 중 적어도 하나의 가상 이미지를 생성하는 단계 및 상기 가상 이미지를 상기 HMD로 전송하는 단계를 포함하되, 상기 트랙킹 정보는, 상기 HMD에서 촬영되는 현실 이미지 및 상기 현실 이미지 내의 현실 공간에 대한 식별 정보를 포함하고, 상기 가상 이미지는, 상기 HMD에서 상기 현실 이미지와 합성되어 혼합 현실 이미지로 표시되는 것을 특징으로 할 수 있다. The mixed reality service providing method according to the present invention for solving the above problems is a method for providing a mixed reality service of the server, receiving tracking information from the HMD as the mixed reality service is driven, the received tracking Generating a virtual image of at least one of 3D modeling data and a user interface based on the information, and transmitting the virtual image to the HMD, wherein the tracking information includes: a reality image captured by the HMD; It may include identification information for the real space in the reality image, wherein the virtual image is characterized in that the composite image and the composite image is synthesized with the real image in the HMD.

또한, 상기 가상 이미지를 생성하는 단계는, 상기 현실 이미지 내에서 특정 영역을 식별하는 단계 및 상기 현실 이미지 내에서 상기 특정 영역이 식별되면, 상기 식별된 특정 영역에 대응하는 사용자 인터페이스가 상기 식별된 특정 영역 상에 표시되도록 상기 가상 이미지를 생성하는 단계를 포함하는 것을 특징으로 할 수 있다. The generating of the virtual image may include identifying a specific area within the real image and when the specific area is identified within the real image, a user interface corresponding to the identified specific area may be identified. Generating the virtual image to be displayed on an area.

또한, 상기 특정 영역은, 인체의 일부 또는 상기 3차원 모델링 데이터 내의 임의의 객체인 것을 특징으로 할 수 있다. The specific area may be a part of a human body or an arbitrary object in the 3D modeling data.

또한, 상기 방법은, 사용자의 핸드 제스처 입력에 기초한 사용자 입력이 식별되면, 상기 사용자 입력에 대응하여 상기 3차원 모델링 데이터에 대한 처리를 수행하는 단계, 상기 처리된 3차원 모델링 데이터에 대한 가상 이미지를 재생성하는 단계 및 상기 재생성된 가상 이미지를 상기 HMD로 전송하는 단계를 더 포함하는 것을 특징으로 할 수 있다. The method may further include performing processing on the 3D modeling data in response to the user input when the user input based on the user's hand gesture input is identified, and generating a virtual image of the processed 3D modeling data. The method may further include regenerating and transmitting the regenerated virtual image to the HMD.

또한, 상기 핸드 제스처 입력은, 현실 공간상에 가상의 객체를 생성하거나 처리하기 위한 입력 또는 상기 3차원 모델링 데이터 내의 기생성된 객체에 대한 처리를 위한 입력 중 어느 하나인 것을 특징으로 할 수 있다. The hand gesture input may be one of an input for generating or processing a virtual object in real space or an input for processing a parasitic object in the 3D modeling data.

상술한 과제를 해결하기 위한 본 발명에 따른 혼합 현실 서비스 제공 시스템은, 혼합 현실 서비스를 이용하는 동안 트랙킹 정보를 수집하여 전송하는 HMD(Head Mounted Display) 및 상기 HMD로부터 수신되는 상기 트랙킹 정보를 기초로 3차원 모델링 데이터 및 사용자 인터페이스 중 적어도 하나의 가상 이미지를 생성하여, 상기 HMD로 전송하는 서버를 포함하되, 상기 트랙킹 정보는, 상기 HMD에서 촬영되는 현실 이미지 및 상기 현실 이미지 내의 현실 공간에 대한 식별 정보를 포함하고, 상기 가상 이미지는, 상기 HMD에서 상기 현실 이미지와 합성되어 혼합 현실 이미지로 표시되는 것을 특징으로 할 수 있다.The mixed reality service providing system according to the present invention for solving the above problems is based on a head mounted display (HMD) for collecting and transmitting tracking information while using the mixed reality service and based on the tracking information received from the HMD. And a server configured to generate at least one virtual image of dimensional modeling data and a user interface and transmit the generated virtual image to the HMD, wherein the tracking information includes identification information about a reality image photographed by the HMD and a reality space within the reality image. The virtual image may be synthesized with the reality image in the HMD and displayed as a mixed reality image.

또한, 상기 서버는, 상기 현실 이미지 내에서 특정 영역이 식별되면, 상기 식별된 특정 영역에 대응하는 사용자 인터페이스가 상기 식별된 특정 영역 상에 표시되도록 상기 가상 이미지를 생성하는 것을 특징으로 할 수 있다.The server may be further configured to generate the virtual image such that a user interface corresponding to the identified specific area is displayed on the identified specific area when a specific area is identified within the real image.

또한, 상기 특정 영역은, 인체의 일부 또는 상기 3차원 모델링 데이터 내의 임의의 객체인 것을 특징으로 할 수 있다. The specific area may be a part of a human body or an arbitrary object in the 3D modeling data.

또한, 상기 서버는, 사용자의 핸드 제스처 입력에 기초한 사용자 입력이 식별되면, 상기 사용자 입력에 대응하여 상기 3차원 모델링 데이터를 처리하고, 상기 처리된 3차원 모델링 데이터에 대한 가상 이미지를 재생성하여 상기 HMD로 전송하는 것을 특징으로 할 수 있다. In addition, when a user input based on a user's hand gesture input is identified, the server processes the 3D modeling data in response to the user input, and regenerates a virtual image of the processed 3D modeling data to generate the HMD. It may be characterized in that the transmission to.

또한, 상기 핸드 제스처 입력은, 현실 공간상에 가상의 객체를 생성하거나 처리하기 위한 입력 또는 상기 3차원 모델링 데이터 내의 기생성된 객체에 대한 처리를 위한 입력 중 어느 하나인 것을 특징으로 할 수 있다. The hand gesture input may be one of an input for generating or processing a virtual object in real space or an input for processing a parasitic object in the 3D modeling data.

본 발명에 따른 혼합 현실 서비스 제공 방법 및 시스템은 사용자의 필요에 따라 3차원 모델링 데이터를 처리하기 위한 사용자 인터페이스를 동적으로 제공함으로써 혼합 현실 서비스를 이용하는 사용자의 편의성을 증대시킨다.The mixed reality service providing method and system according to the present invention increases the convenience of a user using the mixed reality service by dynamically providing a user interface for processing 3D modeling data according to a user's needs.

또한, 본 발명에 따른 혼합 현실 서비스 제공 방법 및 시스템은 핸드 제스처 입력을 통하여 3차원 모델링 데이터를 처리함으로써, 장치와 사용자 간 인터랙션을 통해 더욱 현실감있는 혼합 현실 서비스를 제공할 수 있도록 한다. In addition, the method and system for providing a mixed reality service according to the present invention process 3D modeling data through a hand gesture input, thereby providing a more realistic mixed reality service through interaction between a device and a user.

도 1은 본 발명에 따른 혼합 현실 서비스 제공 시스템의 네트워크 구조를 나타낸 도면이다.
도 2는 본 발명에 따른 서버의 구조를 나타낸 도면이다.
도 3 및 도 4는 본 발명에 따른 헤드 마운트 디스플레이의 구조를 나타낸 도면이다.
도 5는 본 발명에 따른 혼합 현실 서비스의 제공 방법을 나타낸 흐름도이다.
도 6은 본 발명에 따른 혼합 현실 이미지의 일 예를 나타낸 도면이다.
도 7은 본 발명에 따른 사용자 인터페이스의 일 예를 나타낸 도면이다.
도 8 내지 도 10은 본 발명에 따른 핸드 제스처 입력 및 그에 따른 동작의 다양한 실시 예를 나타낸 도면이다.
1 is a diagram illustrating a network structure of a mixed reality service providing system according to the present invention.
2 is a view showing the structure of a server according to the present invention.
3 and 4 illustrate the structure of a head mounted display according to the present invention.
5 is a flowchart illustrating a method of providing a mixed reality service according to the present invention.
6 is a diagram illustrating an example of a mixed reality image according to the present invention.
7 is a diagram illustrating an example of a user interface according to the present invention.
8 to 10 illustrate various embodiments of a hand gesture input and an operation according to the present invention.

본 명세서의 실시 예를 설명함에 있어 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명은 생략될 수 있다. In the following description of embodiments of the present disclosure, when it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present disclosure, the detailed description may be omitted.

본 명세서에서 사용되는 "포함한다," "포함할 수 있다." 등의 표현은 개시된 해당 기능, 동작, 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작, 구성요소 등을 제한하지 않는다. 또한, 본 명세서에서, "포함하다." 또는 "가지다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.  As used herein, "includes," "can include." And the like refer to the existence of the corresponding function, operation, component, etc. disclosed, and do not limit one or more additional functions, operations, components, and the like. Also, in this specification, "includes." Or "have." And the like are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and that one or more other features or numbers, step, action, component, part, or It should be understood that they do not preclude the presence or possibility of adding these in advance.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.As used herein, the singular forms "a", "an" and "the" include plural forms unless the context clearly indicates otherwise.

본 발명에 따른 혼합 현실 서비스 제공 방법 및 시스템은 건축물 설계를 위해 제공될 수 있다. 보다 구체적으로, 본 발명에 따른 혼합 현실 서비스 제공 방법 및 시스템은 3차원 모델링 데이터로써 건축물의 설계 데이터를 혼합 현실 회의실에 입장한 다수의 사용자 단말에 혼합 현실로 표시하고, 설계 정보를 관리(추가/수정/삭제 등)할 수 있도록 하기 위해 구성될 수 있다. The mixed reality service providing method and system according to the present invention may be provided for building design. More specifically, the method and system for providing a mixed reality service according to the present invention display the design data of a building as mixed reality to a plurality of user terminals entering the mixed reality conference room as 3D modeling data, and manage the design information (addition / It can be configured to allow for modification / deletion, etc.).

이하, 첨부된 도면을 참조하여 본 발명을 설명한다. Hereinafter, with reference to the accompanying drawings will be described the present invention.

도 1은 본 발명에 따른 혼합 현실 서비스 제공 시스템의 네트워크 구조를 나타낸 도면이다. 1 is a diagram illustrating a network structure of a mixed reality service providing system according to the present invention.

도 1을 참조하면, 본 발명에 따른 혼합 현실 서비스 제공 시스템(1)은 혼합 현실 서비스를 제공하는 서버(10)와 혼합 현실 서비스를 제공받는 헤드 마운트 디스플레이(Head Mounted Display; 이하 HMD)(20)를 포함하여 구성될 수 있다. Referring to FIG. 1, a mixed reality service providing system 1 according to an exemplary embodiment of the present invention may include a server 10 providing a mixed reality service and a head mounted display (HMD) 20 provided with a mixed reality service. It may be configured to include.

서버(10)는 본 발명에 따른 혼합 현실 서비스를 제공하기 위하여 마련되는 것으로, 혼합 현실 서비스의 제공자에 의해 운영되는 네트워크 서버, 애플리케이션 서버, 도메인 서버 등일 수 있다. The server 10 is provided to provide the mixed reality service according to the present invention, and may be a network server, an application server, a domain server, or the like operated by a provider of the mixed reality service.

서버(10)는 HMD(20)로부터 혼합 현실 서비스 제공 요청 시, 3차원 모델링 데이터로부터 가상 이미지를 생성하여 HMD(20)에게 제공한다. HMD(20)에 제공된 가상 이미지는 HMD(20)에서 촬영되는 현실 이미지와 합성되어 혼합 현실 이미지로 표시될 수 있다. When the server 10 requests to provide the mixed reality service from the HMD 20, the server 10 generates a virtual image from the 3D modeling data and provides the generated virtual image to the HMD 20. The virtual image provided to the HMD 20 may be displayed as a mixed reality image by being synthesized with the reality image photographed by the HMD 20.

서버(10)는 또한 3차원 모델링 데이터에 대한 부가적인 처리를 수행하기 위한 다양한 사용자 인터페이스를 가상 이미지로 HMD(20)에게 제공할 수 있다. 또한, 서버(10)는 3차원 모델링 데이터를 처리하기 위한 사용자 인터페이스를 가상 이미지로 제공하거나, 사용자 인터페이스를 통하여 수신되는 사용자 입력에 따라 3차원 모델링 데이터를 처리할 수 있다. The server 10 may also provide the HMD 20 with various user interfaces as virtual images for performing additional processing on the three-dimensional modeling data. In addition, the server 10 may provide a user interface for processing the 3D modeling data as a virtual image or process the 3D modeling data according to a user input received through the user interface.

본 발명의 다양한 실시 예에서, 3차원 모델링 데이터의 처리는, 3차원 모델링 데이터에 대한 임의의 객체의 생성, 편집, 제거, 3차원 모델링 데이터의 관리, 저장, 삭제 등을 포함할 수 있다. 여기서, 임의의 객체는, 벽, 천장, 바닥, 문, 창문, 가구, 조명, 전기/가스 설비 등 건축물의 설계를 위해 필요한 다양한 객체를 포함할 수 있다. In various embodiments of the present disclosure, the processing of the 3D modeling data may include creating, editing, and removing arbitrary objects for the 3D modeling data, managing, storing, and deleting the 3D modeling data. Here, the arbitrary objects may include various objects necessary for the design of the building, such as walls, ceilings, floors, doors, windows, furniture, lighting, and electric / gas installations.

HMD(20)는 서버(10)와 데이터 통신을 수행하여 혼합 현실 서비스를 제공받는다. HMD(20)는 서버(10)로부터 수신되는 가상 이미지를 HMD(20)에서 촬영되는 현실 이미지와 합성하여 혼합 이미지를 생성하고 이를 좌안용 및 우안용 영상으로 표시함으로써, 현실 공간에서 사용자가 3차원 모델링 데이터를 사실적으로 체험할 수 있도록 한다. The HMD 20 performs data communication with the server 10 to receive a mixed reality service. The HMD 20 generates a mixed image by synthesizing the virtual image received from the server 10 with the real image photographed by the HMD 20, and displaying the mixed image as a left eye and right eye image, thereby allowing the user to three-dimensionally display the real image. Make your modeling data realistic.

본 발명의 다양한 실시 예에서 3차원 모델링 데이터는 건축물 설계를 위한 모델링 데이터일 수 있다. 특히, 3차원 모델링 데이터는 빌딩 정보 모델링(Building Information Modeling; BIM) 데이터로써 IFC(Industry Foundation Classes) 데이터일 수 있으나, 이에 한정되지는 않는다. 건축물 설계를 위한 3차원 모델링 데이터는 건축물의 구조, 형태, 치수, 재료, 재질, 색상, 무늬, 설비 등에 관련된 정보를 포함할 수 있다. In various embodiments of the present disclosure, the 3D modeling data may be modeling data for building design. In particular, the 3D modeling data may be Industry Foundation Classes (IFC) data as building information modeling (BIM) data, but is not limited thereto. The 3D modeling data for building design may include information related to the structure, form, dimensions, materials, materials, colors, patterns, and facilities of the building.

서버(10)와 HMD(20)는 네트워크를 통해 상호 연결되어 데이터 통신을 수행하며, 혼합 현실 서비스를 위한 제어 동작을 수행한다. 이에 대하여 보다 구체적인 설명은 후술한다.The server 10 and the HMD 20 are connected to each other through a network to perform data communication, and perform a control operation for a mixed reality service. This will be described later in more detail.

도 2는 본 발명에 따른 서버의 구조를 나타낸 도면이다.2 is a view showing the structure of a server according to the present invention.

도 2를 참조하면, 서버(10)는 통신부(11), 제어부(12) 및 저장부(13)를 포함하여 구성될 수 있다. Referring to FIG. 2, the server 10 may include a communication unit 11, a control unit 12, and a storage unit 13.

통신부(11)는 네트워크를 통해 외부와 데이터를 송수신할 수 있다. 일 예로 통신부(11)는 HMD(20)로부터 사용자 입력에 대응하는 요청 및 가상 이미지 생성을 위해 필요한 정보 등을 수신하고, 제어부(12)의 제어에 따라 HMD(20)로 현실 이미지 상에 합성될 가상 이미지를 전송할 수 있다. The communication unit 11 may transmit and receive data with the outside via a network. For example, the communication unit 11 receives a request corresponding to a user input and information necessary for generating a virtual image from the HMD 20, and is synthesized on the real image by the HMD 20 under the control of the controller 12. You can send a virtual image.

제어부(12)는 본 발명에 따른 혼합 현실 서비스를 제공하기 위하여, 서버(10)의 각 구성 요소들을 제어하도록 구성된다. 보다 구체적으로, 제어부(12)는 혼합 현실 서비스 제공부(121) 및 가상 이미지 생성부(122)를 포함하여 구성될 수 있다. The control unit 12 is configured to control the respective components of the server 10 to provide the mixed reality service according to the present invention. More specifically, the controller 12 may include a mixed reality service provider 121 and a virtual image generator 122.

혼합 현실 서비스 제공부(121)는 HMD(20)로 혼합 현실 서비스를 제공하기 위한 각종 제어 동작들을 수행한다. The mixed reality service provider 121 performs various control operations for providing the mixed reality service to the HMD 20.

일 실시 예에서, 혼합 현실 서비스 제공부(121)는 혼합 현실 서비스를 제공받는 HMD(20)의 사용자 계정을 생성하고 관리할 수 있다. 혼합 현실 서비스 제공부(121)는 혼합 현실 서비스를 통하여 생성되거나 획득되는 데이터를 사용자 계정과 연계하여 저장하고 관리할 수 있다. 일 예로, 혼합 현실 서비스 제공부(121)는 사용자 계정을 식별하기 위한 식별 정보로써 아이디(ID), 비밀번호(PASSWORD) 등을 저장하고 관리하며, 해당 사용자 계정과 관련된 모델링 데이터를 사용자 계정에 대응되는 데이터 디렉토리에 저장하고 관리할 수 있다. In one embodiment, the mixed reality service provider 121 may create and manage a user account of the HMD 20 that receives the mixed reality service. The mixed reality service provider 121 may store and manage data generated or acquired through the mixed reality service in association with a user account. For example, the mixed reality service provider 121 stores and manages an ID, a password, and the like as identification information for identifying a user account, and stores modeling data related to the user account corresponding to the user account. Can be stored and managed in the data directory.

혼합 현실 서비스 제공부(121)는 HMD(20)의 요청에 의해 혼합 현실 서비스가 구동됨에 따라, HMD(20)로부터 가상 이미지 생성을 위해 필요한 정보, 예를 들어 트랙킹 정보를 수신하고, 수신된 정보를 가상 이미지 생성부(122)로 전달할 수 있다. 또한, 혼합 현실 서비스 제공부(121)는 가상 이미지 생성부(122)로부터 생성되는 가상 이미지를 HMD(20)로 전달하여, HMD(20)에서 가상 이미지가 현실 이미지와 합성되어 혼합 현실 이미지로 구성될 수 있도록 한다. As the mixed reality service is driven at the request of the HMD 20, the mixed reality service provider 121 receives information necessary for generating a virtual image, for example, tracking information, from the HMD 20, and receives the received information. May be transferred to the virtual image generator 122. In addition, the mixed reality service provider 121 transmits the virtual image generated from the virtual image generator 122 to the HMD 20, and the virtual image is synthesized with the reality image in the HMD 20 to be composed of the mixed reality image. To be possible.

다양한 실시 예에서, 혼합 현실 서비스 제공부(121)는 가상 이미지 생성부(122)로부터 생성되는 가상 이미지로써, 사용자 인터페이스를 HMD(20)로 전달할 수 있다. 사용자 인터페이스는 3차원 모델링 데이터를 처리하기 위해 제공될 수 있다. 사용자 인터페이스를 위한 가상 이미지는, 트랙킹 정보를 기초로 현실 이미지상의 식별된 특정 영역 상에 표시되도록 생성될 수 있다. 여기서, 특정 영역은 화면상의 상단부, 하단부, 일측부일 수 있다. 또는, 본 발명의 다양한 실시 예에서, 특정 영역은 인체의 일부, 예를 들어 손(손바닥, 손등 등)으로 식별된 영역일 수 있다. According to various embodiments of the present disclosure, the mixed reality service provider 121 may transmit a user interface to the HMD 20 as a virtual image generated from the virtual image generator 122. The user interface may be provided for processing three-dimensional modeling data. The virtual image for the user interface may be generated to be displayed on the identified specific area on the real image based on the tracking information. Here, the specific area may be an upper part, a lower part, and one side part on the screen. Alternatively, in various embodiments of the present disclosure, the particular area may be a part of the human body, for example, an area identified as a hand (palm, hand, etc.).

혼합 현실 서비스 제공부(121)는 혼합 현실 서비스가 제공되는 동안, HMD(20)로부터 수신되는 트랙킹 정보로부터 사용자 입력을 식별하거나, 또는 HMD(20)에서 식별된 사용자 입력에 대응하는 요청을 수신할 수 있다. 혼합 현실 서비스 제공부(121)는 식별된 사용자 입력에 대응하여 3차원 모델링 데이터를 처리할 수 있다. While the mixed reality service is being provided, the mixed reality service provider 121 may identify a user input from tracking information received from the HMD 20, or may receive a request corresponding to the user input identified at the HMD 20. Can be. The mixed reality service provider 121 may process 3D modeling data in response to the identified user input.

일 실시 예에서, 사용자 입력은 핸드 제스처 입력일 수 있다. 혼합 현실 서비스 제공부(121)는 트랙킹 정보의 현실 이미지 내에서 사용자의 핸드 제스처 입력을 식별하거나, HMD(20)로부터 식별된 핸드 제스처 입력에 대응하는 요청을 수신할 수 있다. In one embodiment, the user input may be a hand gesture input. The mixed reality service provider 121 may identify a user's hand gesture input in the reality image of the tracking information, or may receive a request corresponding to the identified hand gesture input from the HMD 20.

핸드 제스처 입력은, 예를 들어 혼합 현실 이미지로 표시된 사용자 인터페이스에 대응하는 입력일 수 있다. 핸드 제스처 입력은 펜을 잡는 동작에 대응하는 제스처, 궤적을 그리는 동작에 대응하는 제스처, 손등(또는 손바닥)을 전방(HMD`(20)로부터 멀어지는 방향) 또는 후방(HMD(20)와 가까워지는 방향)으로 이동하는 제스처 등일 수 있다. 핸드 제스처 입력은, 상술한 바와 같은 하나의 제스처로 구성되거나 또는 다양한 제스처들의 조합으로 구성될 수 있다. The hand gesture input may be, for example, an input corresponding to a user interface displayed as a mixed reality image. The hand gesture input may be a gesture corresponding to an action of holding a pen, a gesture corresponding to an operation of drawing a trajectory, and a back (or a palm) of the back of the hand (a direction away from the HMD` 20) or a rearward (a direction of approaching the HMD 20). Gestures to move). The hand gesture input may consist of one gesture as described above or a combination of various gestures.

혼합 현실 서비스 제공부(121)는 사용자 입력에 대응하여 객체를 생성하거나, 이동/편집하거나, 제거할 수 있다. 혼합 현실 서비스 제공부(121)는 처리된 결과를 3차원 모델링 데이터로 저장하고, 처리된 3차원 모델링 데이터를 가상 이미지 생성부(122)로 전달하여, 처리 결과에 대응하는 가상 이미지가 생성될 수 있도록 한다. The mixed reality service provider 121 may create, move / edit, or remove an object in response to a user input. The mixed reality service provider 121 stores the processed result as 3D modeling data and transfers the processed 3D modeling data to the virtual image generator 122 to generate a virtual image corresponding to the processed result. Make sure

가상 이미지 생성부(122)는 혼합 현실 서비스 제공부(121)의 요청에 따라 가상 이미지를 생성할 수 있다. 가상 이미지 생성부(122)는 트랙킹 정보를 기초로 3차원 모델링 데이터에 대한 가상 이미지 및/또는 사용자 인터페이스에 대한 가상 이미지를 생성할 수 있다. The virtual image generator 122 may generate a virtual image at the request of the mixed reality service provider 121. The virtual image generator 122 may generate a virtual image of the 3D modeling data and / or a virtual image of the user interface based on the tracking information.

상술한 제어부(12)의 구성 요소들은 제어부(12) 내에 물리적으로 별개의 장치로써 구현될 수 있으나, 본 발명의 기술적 사상은 이에 한정되는 것은 아니다. 즉, 상술한 제어부(12)의 구성 요소들은 하나의 물리적인 프로세서 내에 모듈화되거나, 프로그램될 수 있다. 또한, 상술한 제어부(12)의 구성 요소들은 단순히 제어부(12)의 동작적인 측면으로 구분된 것에 불과하며, 상술한 구성 요소들의 적어도 하나 또는 전부는 하나의 구성 요소로 통합될 수 있다. Components of the above-described control unit 12 may be implemented as physically separate devices in the control unit 12, but the technical spirit of the present invention is not limited thereto. That is, the above-described components of the controller 12 may be modularized or programmed in one physical processor. In addition, the above-described components of the controller 12 are merely divided into operational aspects of the controller 12, and at least one or all of the above-described components may be integrated into one component.

저장부(13)는 서버(10)의 동작을 위하여 필요한 운영 체제, 프로그램, 소프트웨어 등을 저장할 수 있다. 본 발명의 다양한 실시 예에서, 저장부(13)는 적어도 하나의 3차원 모델링 데이터를 저장하고 관리할 수 있다. 일 실시 예에서, 적어도 하나의 3차원 모델링 데이터는 사용자 계정 및 지리적 위치 정보 등과 연계하여 저장될 수 있다. The storage unit 13 may store an operating system, a program, software, etc. necessary for the operation of the server 10. In various embodiments of the present disclosure, the storage unit 13 may store and manage at least one 3D modeling data. In one embodiment, the at least one three-dimensional modeling data may be stored in association with the user account and geographic location information.

도 3 및 도 4는 본 발명에 따른 HMD의 구조를 나타낸 도면이다.3 and 4 are views showing the structure of the HMD according to the present invention.

도 3 및 도 4를 참조하면, 본 발명에 따른 HMD(20)는 프레임(21)으로 구성될 수 있다. 프레임(21)은 사용자의 두부 등에 착용이 용이하도록 플렉서블한 재질로 형성될 수 있으며, 예를 들어 사용자의 안면에 착용 가능하도록 안경형으로 형성될 수 있다. 프레임(21)은 본체부 또는 바디부 등으로 명명될 수 있다. 프레임(21)에는 후술되는 구성 요소들, 예를 들어, 카메라부(22), 센서부(23), 입력부(24), 표시부(25) 및 출력부(26) 등이 마련될 수 있다. 3 and 4, the HMD 20 according to the present invention may be configured as a frame 21. The frame 21 may be formed of a flexible material so as to be easily worn on the user's head or the like, for example, may be formed in a spectacles to be worn on the user's face. The frame 21 may be referred to as a main body portion or a body portion. The frame 21 may be provided with components described below, for example, a camera unit 22, a sensor unit 23, an input unit 24, a display unit 25, and an output unit 26.

카메라부(22)는 적어도 하나의 카메라 모듈을 구비하여 사용자 전방의 영상을 촬영하도록 형성된다. 본 발명의 다양한 실시 예에서, 카메라부(22)는 사용자의 현실 공간(피사체)의 형태와 깊이감을 식별할 수 있는 깊이 카메라(depth camera)를 포함하여 구성될 수 있다. 또한, 카메라부(22)는 사용자의 핸드 제스처 등을 촬영하기 위한 적외선 카메라 등을 포함하여 구성될 수 있다. The camera unit 22 includes at least one camera module so as to capture an image in front of the user. In various embodiments of the present disclosure, the camera unit 22 may include a depth camera that can identify the shape and depth of the real space (subject) of the user. In addition, the camera unit 22 may include an infrared camera or the like for taking a user's hand gesture or the like.

센서부(23)는 HMD(20)의 동작에 관한 다양한 정보를 감지할 수 있는 적어도 하나의 센서를 포함하여 구성될 수 있다. 본 발명의 다양한 실시 예에서, 센서부(23)는 사용자의 지리적 위치를 감지하기 위한 GPS 센서를 포함할 수 있다. 또한, 센서부(23)는 HMD(20)의 3차원 회전이나 기울임, 속도와 같은 움직임을 감지하기 위한 자이로 센서, 속도 센서, 가속도 센서 등을 포함할 수 있다. The sensor unit 23 may include at least one sensor capable of sensing various information about the operation of the HMD 20. In various embodiments of the present disclosure, the sensor unit 23 may include a GPS sensor for detecting a geographical location of the user. In addition, the sensor unit 23 may include a gyro sensor, a speed sensor, an acceleration sensor, and the like, for detecting a movement such as three-dimensional rotation, tilt, and speed of the HMD 20.

입력부(24)는 사용자의 다양한 입력을 수신한다. 입력부(24)는 터치 패드, 키 패드, 조그 다이얼, 돔 스위치, 버튼 등을 포함할 수 있다. 또는, 일 실시 예에서, 카메라부(22)를 통하여 사용자의 핸드 제스처를 입력으로 수신하는 경우, 입력부(24)는 카메라부(22)를 통하여 촬영된 핸드 제스처를 식별하는 동작을 수행하도록 구성될 수 있다. 또한, 다양한 실시 예에서, 입력부(24)는 사용자의 음성과 같은 음향을 입력받아 전기적인 음성 데이터로 처리하는 마이크를 더 포함할 수 있다. The input unit 24 receives various inputs of a user. The input unit 24 may include a touch pad, a keypad, a jog dial, a dome switch, a button, and the like. Alternatively, in one embodiment, when receiving a user's hand gesture through the camera unit 22 as an input, the input unit 24 may be configured to perform an operation of identifying a hand gesture taken through the camera unit 22. Can be. In addition, in various embodiments, the input unit 24 may further include a microphone that receives a sound, such as a user's voice, and processes the sound into electrical voice data.

표시부(25)는 HMD(20)에서 처리되는 다양한 정보들을 시각적으로 표시할 수 있다. HMD(20)에서 표시부(25)는 사용자가 착용한 상태에서 좌안 및 우안에 각각 대응되는 좌안용 및 우안용 표시부(25)를 구비할 수 있다. 그에 따라, HMD(20)는 사용자로 하여금 좌안용 영상과 우안용 영상의 시차에 대응하는 깊이감을 느낄 수 있도록 하고 보다 현실성있는 혼합 현실 공간을 체험할 수 있도록 한다. The display unit 25 may visually display various information processed by the HMD 20. In the HMD 20, the display unit 25 may include a left and right eye display unit 25 corresponding to the left and right eyes, respectively, in a state worn by the user. Accordingly, the HMD 20 allows the user to feel a depth sense corresponding to the parallax of the left eye image and the right eye image, and to experience a more realistic mixed reality space.

출력부(26)는 HMD(20)에서 처리되는 정보들을 음향, 진동, 광 등의 다양한 형태로 출력하도록 구성된다. 이를 위하여, 출력부(26)는 스피커, 햅틱 모듈, LED 램프 등을 포함하여 구성될 수 있다. The output unit 26 is configured to output information processed by the HMD 20 in various forms such as sound, vibration, and light. To this end, the output unit 26 may include a speaker, a haptic module, an LED lamp, and the like.

본 발명에 따른 HMD(20)는 도 3에 도시된 것처럼 통신부(27), 제어부(28) 및 저장부(29)를 더 포함할 수 있다. The HMD 20 according to the present invention may further include a communication unit 27, a control unit 28, and a storage unit 29 as shown in FIG. 3.

통신부(27)는 네트워크를 통해 외부와 데이터를 송수신할 수 있다. 일 예로, 통신부(27)는 제어부(28)의 제어를 통하여, 서버(10)로 혼합 현실 서비스를 제공받기 위한 다양한 요청들 및/또는 정보를 전송하고, 서버(10)로부터 3차원 모델링 데이터 및/또는 다양한 오브젝트들에 대한 가상 이미지를 수신할 수 있다. The communication unit 27 may transmit and receive data with the outside through a network. For example, the communication unit 27 transmits various requests and / or information for receiving the mixed reality service to the server 10 through the control of the controller 28, and transmits the 3D modeling data and the server 10 from the server 10. And / or receive virtual images for various objects.

제어부(28)는 본 발명에 따른 혼합 현실 서비스를 제공받기 위하여, HMD(20)의 각 구성 요소들을 제어하도록 구성된다. 보다 구체적으로, 제어부(28)는 혼합 현실 서비스 관리부(281) 및 혼합 현실 생성부(282)를 포함하여 구성될 수 있다.The controller 28 is configured to control each component of the HMD 20 in order to receive the mixed reality service according to the present invention. More specifically, the controller 28 may include the mixed reality service manager 281 and the mixed reality generator 282.

혼합 현실 서비스 관리부(281)는 서버(10)를 통하여 제공되는 혼합 현실 서비스에 관련된 동작을 제어한다. The mixed reality service manager 281 controls an operation related to the mixed reality service provided through the server 10.

구체적으로, 혼합 현실 서비스 관리부(281)는 사용자 입력에 대응하여, 서버(10)로 사용자 계정을 생성/관리하거나 사용자 계정에 로그인하기 위한 요청을 전송할 수 있다. 혼합 현실 서비스 관리부(281)는 서버(10)로 사용자 계정을 생성하거나 사용자 계정에 로그인하기 위한 식별 정보로써, 아이디, 비밀번호 등을 사용자에게 입력받고 이를 서버(10)로 전송할 수 있다. In detail, the mixed reality service manager 281 may transmit a request to create / manage a user account or log in to the user account in response to a user input. The mixed reality service manager 281 may receive an ID, a password, etc. from the user as identification information for creating a user account or logging in to the user account to the server 10, and transmit the same to the server 10.

혼합 현실 서비스 관리부(281)는 사용자 입력에 대응하여, 혼합 현실 서비스를 구동하기 위한 요청을 서버(10)로 전송할 수 있다. 혼합 현실 서비스가 구동함에 따라, 혼합 현실 서비스 관리부(281)는 카메라부(22) 및/또는 센서부(23)를 통하여 트랙킹 정보를 수집하고, 수집된 트랙킹 정보를 서버(10)로 전송할 수 있다. The mixed reality service manager 281 may transmit a request for driving the mixed reality service to the server 10 in response to a user input. As the mixed reality service is driven, the mixed reality service manager 281 may collect tracking information through the camera unit 22 and / or the sensor unit 23, and transmit the collected tracking information to the server 10. .

혼합 현실 서비스 관리부(281)는 트랙킹 정보에 기초하여 생성된 가상 이미지를 서버(10)로부터 수신할 수 있다. 서버(10)로부터 수신되는 가상 이미지는 3차원 모델링 데이터를 처리하기 위한 사용자 인터페이스의 가상 이미지를 포함할 수 있다. 사용자 인터페이스의 가상 이미지는 현실 이미지상의 특정 영역 상에 표시되도록 생성된 것일 수 있다. 예를 들어, 사용자 인터페이스의 가상 이미지는, 카메라부(22)를 통하여 수집된 현실 이미지의 사용자 손(손바닥, 손등 등)으로 식별된 영역 상에 표시되도록 생성된 것일 수 있다. The mixed reality service manager 281 may receive a virtual image generated based on the tracking information from the server 10. The virtual image received from the server 10 may include a virtual image of a user interface for processing 3D modeling data. The virtual image of the user interface may be generated to be displayed on a specific area on the real image. For example, the virtual image of the user interface may be generated to be displayed on an area identified by a user's hand (palm, hand, etc.) of the real image collected through the camera unit 22.

혼합 현실 서비스 관리부(281)는 수신된 가상 이미지를 혼합 현실 생성부(282)로 전달하여, 카메라부(22)를 통해 촬영되는 현실 이미지와 가상 이미지를 합성함으로써 혼합 현실 이미지가 생성되도록 할 수 있다. The mixed reality service manager 281 may transfer the received virtual image to the mixed reality generator 282 to generate a mixed reality image by synthesizing the virtual image and the virtual image photographed through the camera unit 22. .

혼합 현실 서비스 관리부(281)는 혼합 현실 서비스가 제공되는 동안, 사용자 입력을 식별할 수 있다. 일 실시 예에서, 사용자 입력은 사용자의 핸드 제스처 입력일 수 있다. 혼합 현실 서비스 관리부(281)는 카메라부(22)를 통하여 촬영된 현실 이미지 내에서 핸드 제스처 입력을 식별하고, 식별된 핸드 제스처 입력에 대응하는 요청을 서버(10)로 전송할 수 있다. 일 실시 예에서, 핸드 제스처 입력의 식별은 혼합 현실 서비스 관리부(281)가 서버(10)로 제공하는 트랙킹 정보(보다 구체적으로, 트랙킹 정보 내의 현실 이미지 및/또는 공간 식별 정보)를 통해 서버(10)에서 수행될 수도 있다. The mixed reality service manager 281 may identify a user input while the mixed reality service is provided. In one embodiment, the user input may be a hand gesture input of the user. The mixed reality service manager 281 may identify a hand gesture input in the reality image captured by the camera unit 22, and transmit a request corresponding to the identified hand gesture input to the server 10. In one embodiment, the identification of the hand gesture input is performed by the server 10 through the tracking information provided by the mixed reality service manager 281 to the server 10 (more specifically, the reality image and / or spatial identification information in the tracking information). ) May be performed.

혼합 현실 서비스 관리부(281)는 식별된 사용자 입력에 대응하여, 객체의 생성, 이동/편집, 제거 요청 등을 서버(10)로 전송할 수 있다. The mixed reality service manager 281 may transmit a request for creating, moving / editing, or removing an object to the server 10 in response to the identified user input.

혼합 현실 생성부(282)는 카메라부(22)를 통해 촬영된 현실 이미지와 서버(10)로부터 수신된 가상 이미지를 합성하여 혼합 현실 이미지를 생성한다. 생성된 혼합 현실 이미지는 표시부(25)를 통해 표시될 수 있다. The mixed reality generator 282 generates a mixed reality image by synthesizing the virtual image received from the server 10 with the reality image photographed through the camera unit 22. The generated mixed reality image may be displayed through the display unit 25.

일 실시 예에서, 혼합 현실 생성부(282)는 혼합 현실 이미지에 대한 좌안용 영상 및 우안용 영상을 생성할 수 있다. 생성된 좌안용 영상 및 우안용 영상은 HMD(20)의 좌안용 표시부 및 우안용 표시부에 각각 표시될 수 있다. In one embodiment, the mixed reality generator 282 may generate a left eye image and a right eye image of the mixed reality image. The left eye image and the right eye image may be displayed on the left eye display unit and the right eye display unit of the HMD 20, respectively.

저장부(28)는 HMD(20)의 동작을 위하여 필요한 운영 체제, 프로그램, 소프트웨어 등을 저장할 수 있다. The storage unit 28 may store an operating system, a program, software, etc. necessary for the operation of the HMD 20.

본 발명의 다양한 실시 예에서, HMD(20)의 구조는 도 4에 도시된 것에 한정되지 않으며, 다양한 구조 및 형태를 가질 수 있다. In various embodiments of the present disclosure, the structure of the HMD 20 is not limited to that shown in FIG. 4 and may have various structures and shapes.

이하에서는, 본 발명에 따른 혼합 현실 서비스 제공 시스템(1)을 통하여 혼합 현실 서비스를 제공하는 방법을 보다 구체적으로 설명한다. 이하에서 설명되는 혼합 현실 서비스 제공 방법은, HMD(20)에 설치되는 애플리케이션, 프로그램, 소프트웨어 등을 통해 수행되거나, HTTP 기반 웹 서비스를 통하여 수행될 수 있다. 그러나 본 발명의 기술적 사상은 이에 한정되지는 않으며, 다양한 방식을 통해 본 발명에 따른 혼합 현실 서비스 제공 방법이 실행될 수 있다. Hereinafter, a method of providing the mixed reality service through the mixed reality service providing system 1 according to the present invention will be described in more detail. The mixed reality service providing method described below may be performed through an application, a program, or software installed in the HMD 20, or may be performed through an HTTP-based web service. However, the technical idea of the present invention is not limited thereto, and the mixed reality service providing method according to the present invention may be executed through various methods.

도 5는 본 발명에 따른 혼합 현실 서비스 제공 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a method of providing a mixed reality service according to the present invention.

도 5를 참조하면, HMD(20)는 혼합 현실 서비스의 구동을 위한 사용자 입력을 수신할 수 있다(501). 혼합 현실 서비스의 구동을 위한 사용자 입력은, 예를 들어 혼합 현실 서비스 제공을 위한 애플리케이션, 프로그램, 소프트웨어의 구동, 혼합 현실 서비스를 제공하는 웹 페이지로의 이동 등을 통하여 수신될 수 있다. Referring to FIG. 5, the HMD 20 may receive a user input for driving a mixed reality service (501). The user input for driving the mixed reality service may be received through, for example, driving an application, a program, or a software for providing the mixed reality service, or moving to a web page that provides the mixed reality service.

HMD(20)는 사용자 입력에 대응하여 서버(10)로 혼합 현실 서비스의 구동 요청을 전송할 수 있다(502). The HMD 20 may transmit a request for driving the mixed reality service to the server 10 in response to the user input (502).

서버(10)는 HMD(20)의 구동 요청에 대한 구동 응답을 HMD(20)에게 전송할 수 있다(503). 다양한 실시 예에서, 서버(10)는 HMD(20)에 대한 장치 인증 및/또는 보안 인증 등을 수행하여, HMD(20)에게 혼합 현실 서비스를 제공할 것인지 여부를 결정하고 HMD(20)로 구동 응답을 전송할 수 있다. The server 10 may transmit a driving response to the driving request of the HMD 20 to the HMD 20 (503). In various embodiments, the server 10 performs device authentication and / or security authentication for the HMD 20 to determine whether to provide the mixed reality service to the HMD 20 and to drive the HMD 20. You can send a response.

다양한 실시 예에서, 상기와 같은 인증 과정은 별도로 수행되지 않을 수 있다. In various embodiments, the authentication process as described above may not be performed separately.

다양한 실시 예에서, 혼합 현실 서비스의 최초 구동 이후에, 서버(10)와 HMD(20)는 사용자 계정 생성 및/또는 사용자 계정 로그인을 위한 동작을 수행할 수 있다. 구체적으로, HMD(20)는 사용자 입력에 따라 계정 생성 요청 또는 계정 로그인 요청을 서버(10)로 전송할 수 있다. 계정 생성 요청 또는 계정 로그인 요청은 사용자의 식별 정보로써, 예를 들어 아이디(ID), 비밀번호(PASSWORD) 등을 포함할 수 있다. 서버(10)는 계정 생성 요청에 포함된 사용자의 식별 정보를 저장하고, 해당 사용자에 관련된 데이터를 사용자의 식별 정보와 연계하여 저장할 수 있도록 데이터 디렉토리를 설정하고 이를 로드할 수 있다. 또는 서버(10)는 계정 로그인 요청에 포함된 사용자의 식별 정보에 매칭되는 기저장된 사용자의 식별 정보를 검색하고, 매칭되는 사용자의 식별 정보가 존재하면 검색된 사용자의 식별 정보에 대응하여 저장된 데이터 디렉토리를 로드할 수 있다.According to various embodiments of the present disclosure, after initial execution of the mixed reality service, the server 10 and the HMD 20 may perform an operation for creating a user account and / or logging in a user account. In detail, the HMD 20 may transmit an account creation request or an account login request to the server 10 according to a user input. The account creation request or the account login request may include, for example, an ID and a password as identification information of the user. The server 10 may store the identification information of the user included in the account creation request, and may set and load the data directory so that data related to the user may be stored in association with the identification information of the user. Alternatively, the server 10 searches for previously stored user identification information matching the identification information of the user included in the account login request, and if the matching user identification information exists, the server 10 stores the data directory corresponding to the retrieved user identification information. Can be loaded.

일부 실시 예들에서, 서버(10)가 사용자 계정 관련 서비스를 별도로 제공하지 않는 경우, 상기한 과정은 수행되지 않을 수 있다.In some embodiments, if the server 10 does not separately provide a service related to a user account, the above process may not be performed.

혼합 현실 서비스의 구동 응답이 수신되면, HMD(20)는 트랙킹 정보를 실시간으로 수집할 수 있다(504). 다양한 실시 예에서, HMD(20)는 카메라부(22) 및/또는 센서부(23)를 통해 트랙킹 정보를 수집할 수 있다. HMD(20)에서 수집되는 트랙킹 정보는 현실 이미지, 현실 이미지 내의 현실 공간에 대한 식별 정보(메쉬망 정보), 지리적 위치 정보, 3차원 회전 정보, 속도 정보 등을 포함할 수 있다. When the driving response of the mixed reality service is received, the HMD 20 may collect tracking information in real time (504). In various embodiments, the HMD 20 may collect tracking information through the camera unit 22 and / or the sensor unit 23. The tracking information collected by the HMD 20 may include a real image, identification information (mesh network information) about a real space in the real image, geographic location information, 3D rotation information, speed information, and the like.

일 예로, HMD(20)는 GPS 센서를 통하여 HMD(20)의 현재 지리적 위치를 판단할 수 있다. For example, the HMD 20 may determine the current geographical position of the HMD 20 through the GPS sensor.

또한, HMD(20)는 카메라부(22)를 통하여 현실 이미지를 촬영하고 이를 트랙킹 정보로 수집할 수 있다. HMD(20)는 카메라부(22)를 통하여 촬영되는 현실 이미지 내의 현실 공간에 대한 이미지를 분석하여 현실 공간의 형태, 깊이감 등을 식별할 수 있다. 공간 식별을 통해 HMD(20)는 사용자의 전방에 위치한 현실 공간의 지면, 건축물 등의 형태, 크기, 위치 등을 판단할 수 있다. HMD(20)는 현실 공간에 대한 이미지 분석 결과를 트랙킹 정보로 수집할 수 있다. In addition, the HMD 20 may capture a real image through the camera unit 22 and collect the real image as tracking information. The HMD 20 may identify the shape, depth, and the like of the real space by analyzing an image of the real space in the real image photographed by the camera unit 22. Through the space identification, the HMD 20 may determine the shape, size, location, etc. of the ground of a real space located in front of the user, a building, and the like. The HMD 20 may collect the image analysis result of the real space as tracking information.

또한, HMD(20)는 센서부(23)를 통해 HMD(20)의 3차원 회전이나 기울임, 속도(이동)와 같은 움직임을 감지할 수 있다. In addition, the HMD 20 may detect movement such as three-dimensional rotation, tilt, and speed (movement) of the HMD 20 through the sensor unit 23.

본 발명에서 HMD(20)에 의해 수집되는 트랙킹 정보는 상술한 공간 식별 정보 및 움직임 정보에 한정되는 것은 아니며, 가상 이미지를 생성하기 위해 요구되는 다양한 정보들, 예를 들어 마커 인지 정보, 핸드 제스처 식별 정보 등을 포함할 수 있다. Tracking information collected by the HMD 20 in the present invention is not limited to the above-described spatial identification information and motion information, various information required for generating a virtual image, for example marker recognition information, hand gesture identification Information and the like.

HMD(20)는 수집된 트랙킹 정보를 실시간으로 서버(10)에 전송할 수 있다(505). The HMD 20 may transmit the collected tracking information to the server 10 in real time (505).

서버(10)는 수신된 트랙킹 정보를 기초로 가상 이미지를 생성할 수 있다(506). The server 10 may generate a virtual image based on the received tracking information (506).

일 실시 예에서, 서버(10)는 임의의 로드된 3차원 모델링 데이터에 대한 가상 이미지를 생성할 수 있다. 또한, 서버(10)는 로드된 3차원 모델링 데이터의 처리를 위한 사용자 인터페이스의 가상 이미지를 생성할 수 있다. 일 실시 예에서, 서버(10)는 트랙킹 정보 내의 현실 이미지에 대응하는 가상 이미지로써, 예를 들어 현실 이미지에서 식별된 객체에 대한 사용자 인터페이스의 가상 이미지를 생성할 수 있다. In one embodiment, the server 10 may generate a virtual image for any loaded three-dimensional modeling data. In addition, the server 10 may generate a virtual image of a user interface for processing the loaded 3D modeling data. In one embodiment, the server 10 may generate a virtual image of a user interface for an object identified in the real image, for example, as a virtual image corresponding to the real image in the tracking information.

3차원 모델링 데이터에 대한 가상 이미지는 HMD(20)의 지리적 위치에 따라 가상 이미지는 건축물의 외관으로 구성되거나 건축물 내부의 일 영역으로 구성될 수 있다. 여기서 건축물 내부의 일 영역은 건축물의 외관 또는 내부 이미지로부터 트랙킹 정보, 예를 들어 3차원 회전 정보를 기초로 추출되는 HMD(20)의 정면 표시 영역(표시 방향)에 대응될 수 있다. The virtual image of the 3D modeling data may be configured as an exterior of the building or a region within the building according to the geographical position of the HMD 20. Here, an area inside the building may correspond to a front display area (display direction) of the HMD 20 extracted based on tracking information, for example, 3D rotation information, from an exterior or internal image of the building.

3차원 모델링 데이터의 처리를 위한 사용자 인터페이스는 표시된 건축물의 임의의 객체의 구조(위치), 형태, 치수, 재료, 재질, 색상, 무늬, 설비 등을 추가, 이동, 편집, 제거하기 위한 사용자 인터페이스를 포함할 수 있다. 그러나 사용자 인터페이스의 종류는 상술한 것에 한정되지 않는다. The user interface for the processing of 3D modeling data includes a user interface for adding, moving, editing, and removing structures (forms), shapes, dimensions, materials, materials, colors, patterns, and facilities of arbitrary objects of the displayed building. It may include. However, the type of user interface is not limited to the above.

사용자 인터페이스의 가상 이미지는 대응되는 객체 상에 사용자 인터페이스가 표시되도록 생성될 수 있다. 서버(10)는 현실 이미지로부터 객체를 식별하고, 식별된 객체에 대응되는 사용자 인터페이스를 식별된 객체 상에 배치하여 가상 이미지로 생성할 수 있다.The virtual image of the user interface may be generated such that the user interface is displayed on the corresponding object. The server 10 may identify the object from the real image and place a user interface corresponding to the identified object on the identified object to generate the virtual image.

사용자 인터페이스는 현실 이미지의 특정 영역 상에 표시되도록 생성될 수 있다. 서버(10)는 HMD(20)의 화면상의 특정 영역, 예를 들어 상단부, 하단부, 일측부에 사용자 인터페이스를 배치하여 가상 이미지로 생성할 수 있다. 또는, 서버(10)는 현실 이미지로부터 특정 영역, 예를 들어 인체의 일부(손, 손바닥, 손등, 손가락, 팔 등)를 식별하고, 식별된 특정 영역에 대응하는 사용자 인터페이스를 식별된 특정 영역 상에 배치하여 가상 이미지로 생성할 수 있다. The user interface may be generated to be displayed on a specific area of the real image. The server 10 may generate a virtual image by arranging a user interface in a specific area on the screen of the HMD 20, for example, an upper part, a lower part, and one side. Alternatively, the server 10 identifies a specific area, for example, a part of the human body (hand, palm, back of the hand, finger, arm, etc.) from the real image, and displays a user interface corresponding to the identified specific area on the identified specific area. Can be created in a virtual image.

서버(10)는 생성된 가상 이미지를 HMD(20)로 전송할 수 있다(507).The server 10 may transmit the generated virtual image to the HMD 20 (507).

HMD(20)는 수신된 가상 이미지를 카메라부(22)를 통하여 촬영되는 현실 이미지에 합성하여 혼합 현실 이미지를 생성할 수 있다(508). 이렇게 생성된 혼합 현실 이미지는 HMD(20)가 위치한 현실 공간 상에 3차원 모델링 데이터에 대응하는 건축물이 배치된 이미지일 수 있다. 또한, 생성된 혼합 현실 이미지는 3차원 모델링 데이터에 대응하는 건축물 또는 현실 공간에 대한 현실 이미지의 임의의 객체에 대한 처리를 수행할 수 있는 적어도 하나의 사용자 인터페이스가 배치된 이미지일 수 있다. The HMD 20 may generate a mixed reality image by synthesizing the received virtual image with the reality image captured by the camera unit 22 (508). The mixed reality image generated as described above may be an image in which a building corresponding to the 3D modeling data is disposed in the real space where the HMD 20 is located. In addition, the generated mixed reality image may be an image in which at least one user interface capable of performing processing on any object of the reality image for the building or the real space corresponding to the 3D modeling data is disposed.

HMD(20)는 생성된 혼합 현실 이미지를 표시부(25)를 통해 표시할 수 있다(509). 이렇게 표시된 혼합 현실 이미지의 일 예가 도 6 및 도 7에 도시되어 있다. 도 6 및 도 7에는 HMD(20)의 카메라부(22)를 통하여 촬영된 현실 이미지(601, 701) 상에 사용자 인터페이스의 가상 이미지들(602, 603, 702)이 표시된 예가 도시되어 있다.The HMD 20 may display the generated mixed reality image through the display unit 25 (509). An example of the mixed reality image thus displayed is illustrated in FIGS. 6 and 7. 6 and 7 illustrate examples in which virtual images 602, 603, and 702 of the user interface are displayed on the real images 601 and 701 captured by the camera unit 22 of the HMD 20.

도 6을 참조하면, 혼합 현실 이미지는 현실 이미지(601) 내의 식별된 객체 상에 표시된 사용자 인터페이스의 가상 이미지(602)를 포함할 수 있다. 또한, 혼합 현실 이미지는 화면상의 특정 영역, 예를 들어 일측부에 표시된 사용자 인터페이스의 가상 이미지(603)를 포함할 수 있다. Referring to FIG. 6, the mixed reality image may include a virtual image 602 of a user interface displayed on the identified object in the reality image 601. In addition, the mixed reality image may include a virtual image 603 of a user interface displayed on a specific area of the screen, for example, one side.

한편, 도 7을 참조하면, 혼합 현실 이미지는 화면상의 특정 영역, 즉 사용자의 식별된 손등 영역 상에 표시된 사용자 인터페이스의 가상 이미지(701)를 포함할 수 있다. 도 7에 도시된 실시 예와 같이, 본원발명은 현실 이미지 내에서 인체의 일부가 식별되는 경우에, 식별된 인체 상에 다양한 사용자 인터페이스의 가상 이미지가 표시되도록 함으로써, 사용자에게 보다 현실감있는 혼합 현실 이미지를 제공하고, 사용자와 장치(HMD(20)) 간 인터랙션을 체험할 수 있도록 한다. Meanwhile, referring to FIG. 7, the mixed reality image may include a virtual image 701 of a user interface displayed on a specific area on the screen, that is, an identified back area of the user. As shown in the embodiment shown in Figure 7, the present invention, when a part of the human body is identified in the reality image, by displaying a virtual image of the various user interface on the identified human body, a more realistic mixed reality image to the user It provides a and to experience the interaction between the user and the device (HMD 20).

혼합 현실 이미지가 표시되는 동안, HMD(20)는 계속해서 트랙킹 정보를 실시간으로 수집하고, 이를 서버(10)로 전송한다. 또한, 서버(10)는 계속해서 수신되는 트랙킹 정보를 기초로 가상 이미지를 생성하고 이를 HMD(20)로 전송한다. HMD(20)에서는 실시간 트랙킹 정보에 따라 변화하는 가상 이미지를 현실 이미지에 합성하여 혼합 현실 이미지를 사용자에게 표시할 수 있다. While the mixed reality image is displayed, the HMD 20 continues to collect tracking information in real time and send it to the server 10. In addition, the server 10 continuously generates a virtual image based on the received tracking information and transmits it to the HMD 20. The HMD 20 may display the mixed reality image to the user by synthesizing the virtual image that changes according to the real time tracking information to the reality image.

본 발명의 다양한 실시 예에서, HMD(20)는 트랙킹 정보를 수집하는 동안, 사용자 입력을 식별할 수 있다(510).In various embodiments of the present disclosure, the HMD 20 may identify a user input while collecting tracking information (510).

HMD(20)는 카메라부(22)를 통하여 촬영되는 현실 이미지 내에서, 사용자의 핸드 제스처 입력을 감지할 수 있다. 구체적으로, HMD(20)는 사용자 손의 형태, 크기, 이동 방향, 이동 거리 등을 식별할 수 있다. HMD(20)는 단일 제스처로 구성되거나 적어도 하나의 다양한 제스처들의 조합으로 구성되는 핸드 제스처 입력을 감지할 수 있다. The HMD 20 may detect a user's hand gesture input in the real image photographed by the camera unit 22. In detail, the HMD 20 may identify a shape, a size, a moving direction, a moving distance, and the like of the user's hand. The HMD 20 may sense a hand gesture input that consists of a single gesture or a combination of at least one of various gestures.

또한, HMD(20)는 식별된 핸드 제스처 입력에 대응하는 동작을 판단할 수 있다. 핸드 제스처 입력에 대응하는 동작은 미리 설정되어 HMD(20)의 저장부(29) 등에 저장될 수 있다. 본 발명의 다양한 실시 예에서 핸드 제스처 입력을 통하여 식별되는 사용자 입력은 3차원 모델링 데이터 내의 기생성된 객체에 대한 처리뿐만 아니라, 현실 공간 상에 가상의 객체를 생성하고 처리하기 위한 것일 수 있다. In addition, the HMD 20 may determine an operation corresponding to the identified hand gesture input. An operation corresponding to the hand gesture input may be preset and stored in the storage 29 of the HMD 20. According to various embodiments of the present disclosure, the user input identified through the hand gesture input may be for generating and processing a virtual object in the real space, as well as processing for the parasitic object in the 3D modeling data.

일 예로, 도 8에 도시된 바와 같이 특정 위치를 손가락으로 포인팅하는 핸드 제스처 입력(801)이 감지되는 경우, HMD(20)는 손가락이 포인팅한 위치에 표시된 사용자 인터페이스를 실행하거나, 손가락이 포인팅한 위치에 대응하는 객체를 선택하기 위한 사용자 입력을 식별할 수 있다. 또는, 도 8에 도시된 바와 같이, 특정 위치를 손가락으로 포인팅하는 핸드 제스처 입력(801) 및 임의의 궤적을 형성하는 핸드 제스처 입력(802)의 조합이 감지되는 경우, HMD(20)는 손가락이 포인팅한 위치에 표시된 객체, 사용자 인터페이스 등을 궤적의 방향에 대응하여 이동하거나, 손가락이 포인팅한 위치에 표시된 객체, 사용자 인터페이스 등을 궤적의 방향에 대응하여 확장하거나, 손가락이 포인팅한 위치 및 궤적 중 적어도 하나에 대응하는 사용자 인터페이스를 표시하거나, 궤적의 방향에 대응하여 벽을 생성하거나, 전기/가스 설비를 생성하기 위한 사용자 입력을 식별할 수 있다. 본 발명에서 핸드 제스처의 궤적은, 임의의 방향으로 이동하는 궤적, 원형, 삼각형, 사각형, 다각형 등을 이루는 궤적, 문자를 이루는 궤적 등을 포함할 수 있다. For example, as illustrated in FIG. 8, when a hand gesture input 801 that detects a specific location with a finger is detected, the HMD 20 executes a user interface displayed at a location pointed by the finger or points the finger. User input for selecting an object corresponding to a location may be identified. Alternatively, as shown in FIG. 8, when a combination of a hand gesture input 801 for pointing a specific position with a finger and a hand gesture input 802 for forming an arbitrary trajectory is detected, the HMD 20 may determine that a finger is not present. Move the object or user interface displayed at the pointed position corresponding to the direction of the trajectory, or expand the object or user interface displayed at the position pointed by the finger corresponding to the direction of the trajectory, or the position and trajectory of the finger pointing. A user input for displaying at least one user interface, generating a wall corresponding to the direction of the trajectory, or identifying an electric / gas facility may be identified. In the present invention, the trajectory of the hand gesture may include a trajectory moving in an arbitrary direction, a trajectory forming a circle, a triangle, a square, a polygon, and the like, a trajectory forming a character, and the like.

일 예로, 도 9에 도시된 바와 같이, 펜을 잡은 형태의 핸드 제스처 입력(901)이 감지되는 경우, HMD(20)는 객체 생성 모드 또는 메모 생성 모드 등으로 진입하기 위한 사용자 입력을 식별할 수 있다. 또는, 도 9에 도시된 바와 같이, 펜을 잡은 형태의 핸드 제스처 입력(901) 및 임의의 궤적을 형성하는 핸드 제스처 입력(902)의 조합이 감지되는 경우, HMD(20)는 궤적에 대응하는 사용자 인터페이스를 표시하거나, 궤적에 대응하여 벽, 천장, 바닥, 문, 창문, 가구, 조명, 전기/가스 설비 등의 객체를 생성하기 위한 사용자 입력을 식별할 수 있다. For example, as illustrated in FIG. 9, when a hand gesture input 901 in a form of holding a pen is detected, the HMD 20 may identify a user input for entering an object generation mode or a memo generation mode. have. Alternatively, as shown in FIG. 9, when a combination of the hand gesture input 901 in the form of holding a pen and the hand gesture input 902 forming an arbitrary trajectory is detected, the HMD 20 corresponds to the trajectory. The user input may be displayed or a user input for generating an object such as a wall, a ceiling, a floor, a door, a window, a furniture, a lighting, an electric / gas installation, and the like may be identified in response to the trajectory.

일 예로, 도 10에 도시된 바와 같이, 손가락을 모두 펼친 형태의 제스처 입력(1001)이 감지되는 경우, HMD(20)는 손의 위치에 대응하는 객체를 선택하거나, 상술한 바와 같이 손으로 식별되는 특정 영역에 대응되는 사용자 인터페이스를 표시하기 위한 사용자 입력을 식별할 수 있다. 또는, 도 10에 도시된 바와 같이, 손가락을 모두 펼친 형태의 핸드 제스처 입력(1001) 및 전방(또는 후방)으로 이동하는 핸드 제스처 입력(1002)이 감지되는 경우, HMD(20)는 손의 위치에 대응하는 객체를 확대/축소하거나, 이동하거나, 편집하거나, 사용자 인터페이스를 표시하기 위한 사용자 입력을 식별할 수 있다. For example, as illustrated in FIG. 10, when the gesture input 1001 having the fingers spread out is detected, the HMD 20 selects an object corresponding to the position of the hand or identifies the hand as described above. A user input for displaying a user interface corresponding to the specific area may be identified. Alternatively, as shown in FIG. 10, when the hand gesture input 1001 having the fingers spread out and the hand gesture input 1002 moving forward (or backward) are detected, the HMD 20 is located at the position of the hand. A user input for zooming, moving, editing, or displaying a user interface corresponding to an object may be identified.

일 예로, 도 9에 도시된 바와 같이 펜을 잡은 형태의 핸드 제스처 입력(901) 및 임의의 궤적을 형성하는 핸드 제스처 입력(902)의 조합이 감지된 이후에, 이어서 도 10에 도시된 바와 같이 손가락을 모두 펼친 형태의 제스처 입력(1001) 및 전방(또는 후방)으로 이동하는 핸드 제스처 입력(1002)이 감지되는 경우, HMD(20)는 궤적에 대응하는 벽 등의 객체를 생성하거나, 돌출/함몰시키기 위한 사용자 입력을 식별할 수 있다. For example, after a combination of a hand gesture input 901 in the form of holding a pen and a hand gesture input 902 forming an arbitrary trajectory is detected as shown in FIG. 9, then as shown in FIG. 10. When the gesture input 1001 in which the fingers are spread out and the hand gesture input 1002 moving forward (or backward) are detected, the HMD 20 generates an object such as a wall corresponding to the trajectory, or protrudes / Identify user input to depress.

이러한 핸드 제스처 입력의 실시 예는, HMD(20)의 카메라부(22)의 가시 영역 밖에 존재하여 HMD(20)가 식별할 수 없는 벽, 천장, 바닥 등의 객체에 대하여, 3차원 모델링 데이터 작성을 위해 사용자가 수동으로 이를 생성하는 것을 가능하게 할 수 있다. 그에 따라, 3차원 모델링 데이터의 제작자는 너무 크거나 너무 멀리 존재하여 HMD(20)로 식별되지 않는 건축물 또는 건축물 내의 객체도 수동 입력을 통해 유효하게 생성하여 3차원 모델링 데이터 작성을 위해 이용할 수 있다. An embodiment of such a hand gesture input is to create three-dimensional modeling data for an object such as a wall, a ceiling, or a floor that exists outside the visible area of the camera unit 22 of the HMD 20 and cannot be identified by the HMD 20. It may be possible for the user to create it manually. Accordingly, the producer of the three-dimensional modeling data can be used to create the three-dimensional modeling data to be effectively generated through manual input even in buildings or objects within the building that are too large or too far to be identified by the HMD 20.

그 밖에, 손가락을 오므리거나 펴는 핸드 제스처, 펼쳐진 손가락의 개수를 특정하는 핸드 제스처, 양손을 이용하는 핸드 제스처 등 다양한 핸드 제스처가 이용될 수 있다. 본 발명에서 사용자의 핸드 제스처에 대응하는 사용자 입력은 그 종류나 형태를 특별히 제한하지 않는다. In addition, various hand gestures may be used, such as a hand gesture for pinching or spreading a finger, a hand gesture for specifying the number of extended fingers, and a hand gesture using both hands. In the present invention, the user input corresponding to the user's hand gesture is not particularly limited in kind or form.

HMD(20)는 식별된 사용자 입력을 서버(10)로 전송할 수 있다(511). 또는, HMD(20)는 식별된 사용자 입력에 대응하는 요청을 서버(10)로 전송할 수 있다. The HMD 20 may send the identified user input to the server 10 (511). Alternatively, the HMD 20 may transmit a request corresponding to the identified user input to the server 10.

본 발명의 다른 실시 예에서, 상기한 사용자 입력의 식별은 서버(10)에 의해 수행될 수 있다. 즉, 서버(10)는 HMD(20)로부터 실시간으로 수신되는 트랙킹 정보를 통해 사용자 입력을 식별할 수 있다(512). 서버(10)가 사용자 입력을 식별하는 동작은 상기에서 HMD(20)가 사용자 입력을 동작과 유사하므로 구체적인 설명은 생략한다.In another embodiment of the present invention, the identification of the user input may be performed by the server 10. That is, the server 10 may identify a user input through tracking information received in real time from the HMD 20 (512). Since the operation of identifying the user input by the server 10 is similar to the operation of the user input by the HMD 20, detailed description thereof will be omitted.

서버(10)는 식별된 사용자 입력에 대응하여, 3차원 모델링 데이터를 처리할 수 있다(513). The server 10 may process 3D modeling data in response to the identified user input (513).

서버(10)는 사용자 입력에 대응하여 3차원 모델링 데이터에 대한 객체를 생성하거나, 이미 존재하는 객체를 이동하거나, 객체의 색상, 재질, 무늬, 형태 등을 편집하거나 제거할 수 있다. The server 10 may generate an object for the 3D modeling data, move an existing object, or edit or remove an object's color, material, pattern, shape, etc. in response to a user input.

서버(10)는 처리된 3차원 모델링 데이터를 저장하거나, 처리되기 이전의 3차원 모델링 데이터를 백업용으로 저장하는 등 3차원 모델링 데이터에 대한 관리 및 저장 동작을 수행할 수도 있다.The server 10 may perform management and storage operations on the 3D modeling data, such as storing the processed 3D modeling data, or storing the 3D modeling data before being processed for backup.

이후에, 서버(10)는 편집된 3차원 모델링 데이터를 기초로 가상 이미지를 생성하여(514), HMD(20)로 전송할 수 있다(515). HMD(20)는 서버(10)로부터 전송된 가상 이미지를 기초로 혼합 현실 이미지를 생성(516)하고 이를 표시함으로써(517), 3차원 모델링 데이터의 처리 결과를 실시간으로 확인할 수 있다. Thereafter, the server 10 may generate a virtual image based on the edited 3D modeling data (514) and transmit the generated virtual image to the HMD 20 (515). The HMD 20 may generate a mixed reality image based on the virtual image transmitted from the server 10 (516) and display the mixed reality image (517), thereby confirming the processing result of the 3D modeling data in real time.

본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 그리고 본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. Those skilled in the art will appreciate that various modifications and variations can be made without departing from the essential features of the present invention. In addition, the embodiments disclosed in the specification and the drawings merely present specific examples to easily explain and easily understand the contents of the present invention, and are not intended to limit the scope of the present invention. Therefore, the scope of the present invention should be construed that all changes or modifications derived based on the technical spirit of the present invention are included in the scope of the present invention in addition to the embodiments disclosed herein.

1: 혼합 현실 서비스 제공 시스템
10: 서버 11: 통신부
12: 제어부 121: 혼합 현실 서비스 제공부
122: 가상 이미지 생성부 13: 저장부
20: HMD 21: 프레임
22: 카메라부 23: 센서부
24: 입력부 25: 표시부
26: 출력부 27: 통신부
28: 제어부 281: 혼합 현실 서비스 관리부
282: 혼합 현실 생성부 29: 저장부
1: Mixed Reality Service Delivery System
10: server 11: communication unit
12: control unit 121: mixed reality service providing unit
122: virtual image generation unit 13: storage unit
20: HMD 21: frame
22: camera portion 23: sensor portion
24: input unit 25: display unit
26: output unit 27: communication unit
28: control unit 281: mixed reality service management unit
282: mixed reality generator 29: storage unit

Claims (10)

서버의 혼합 현실 서비스를 제공하기 위한 방법으로,
혼합 현실 서비스가 구동됨에 따라 HMD로부터 트랙킹 정보를 수신하는 단계;
상기 수신된 트랙킹 정보를 기초로, 3차원 모델링 데이터 및 사용자 인터페이스 중 적어도 하나의 가상 이미지를 생성하는 단계; 및
상기 가상 이미지를 상기 HMD로 전송하는 단계를 포함하되,
상기 트랙킹 정보는,
상기 HMD에서 촬영되는 현실 이미지 및 상기 현실 이미지 내의 현실 공간에 대한 식별 정보를 포함하고,
상기 가상 이미지는,
상기 HMD에서 상기 현실 이미지와 합성되어 혼합 현실 이미지로 표시되며,
상기 가상 이미지를 생성하는 단계는,
상기 현실 이미지 내에서 사용자 인체의 일부분을 식별하는 단계; 및
상기 현실 이미지 내에서 상기 사용자 인체의 일부분이 식별되면, 상기 사용자 인터페이스가 상기 식별된 사용자 인체의 일부분 상에 중첩하여 표시되도록 상기 가상 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
As a way to provide mixed reality services of servers,
Receiving tracking information from the HMD as the mixed reality service is driven;
Generating at least one virtual image of 3D modeling data and a user interface based on the received tracking information; And
Transmitting the virtual image to the HMD;
The tracking information,
A real image photographed by the HMD and identification information about a real space in the real image,
The virtual image,
The HMD is synthesized with the reality image and displayed as a mixed reality image.
Generating the virtual image,
Identifying a portion of a user's body within the reality image; And
And when the portion of the user's body is identified within the reality image, generating the virtual image such that the user interface is overlaid and displayed on the identified portion of the user's body.
삭제delete 삭제delete 제1항에 있어서,
상기 식별된 사용자 인체의 일부분을 통해 핸드 제스처 입력에 기초한 사용자 입력이 식별되면, 상기 사용자 입력에 대응하여 상기 3차원 모델링 데이터에 대한 처리를 수행하는 단계;
상기 처리된 3차원 모델링 데이터에 대한 가상 이미지를 재생성하는 단계; 및
상기 재생성된 가상 이미지를 상기 HMD로 전송하는 단계를 더 포함하는 것을 특징으로 하는 방법.
The method of claim 1,
If a user input based on a hand gesture input is identified through the identified part of the user's body, performing processing on the 3D modeling data in response to the user input;
Regenerating a virtual image of the processed three-dimensional modeling data; And
Sending the regenerated virtual image to the HMD.
제4항에 있어서, 상기 핸드 제스처 입력은,
현실 공간 상에 가상의 객체를 생성하거나 처리하기 위한 입력 또는 상기 3차원 모델링 데이터 내의 기생성된 객체에 대한 처리를 위한 입력 중 어느 하나인 것을 특징으로 하는 방법.
The method of claim 4, wherein the hand gesture input is performed.
And an input for generating or processing a virtual object in the real space or an input for processing a parasitic object in the 3D modeling data.
혼합 현실 서비스를 제공하는 시스템으로,
혼합 현실 서비스를 이용하는 동안 트랙킹 정보를 수집하여 전송하는 HMD(Head Mounted Display); 및
상기 HMD로부터 수신되는 상기 트랙킹 정보를 기초로 3차원 모델링 데이터 및 사용자 인터페이스 중 적어도 하나의 가상 이미지를 생성하여, 상기 HMD로 전송하는 서버를 포함하되,
상기 트랙킹 정보는,
상기 HMD에서 촬영되는 현실 이미지 및 상기 현실 이미지 내의 현실 공간에 대한 식별 정보를 포함하고,
상기 가상 이미지는,
상기 HMD에서 상기 현실 이미지와 합성되어 혼합 현실 이미지로 표시되며,
상기 서버는,
상기 현실 이미지 내에서 사용자 인체의 일부분이 식별되면, 상기 사용자 인터페이스가 상기 식별된 사용자 인체의 일부분 상에 중첩하여 표시되도록 상기 가상 이미지를 생성하는 것을 특징으로 하는 시스템.
A system that provides mixed reality services
A head mounted display (HMD) for collecting and transmitting tracking information while using the mixed reality service; And
A server for generating at least one virtual image of 3D modeling data and a user interface based on the tracking information received from the HMD, and transmitting the generated virtual image to the HMD;
The tracking information,
A real image photographed by the HMD and identification information about a real space in the real image,
The virtual image,
The HMD is synthesized with the reality image and displayed as a mixed reality image.
The server,
And when a portion of the user's body is identified within the reality image, generating the virtual image such that the user interface is superimposed and displayed on the identified portion of the user's body.
삭제delete 삭제delete 제6항에 있어서, 상기 서버는,
상기 식별된 사용자 인체의 일부분을 통해 핸드 제스처 입력에 기초한 사용자 입력이 식별되면, 상기 사용자 입력에 대응하여 상기 3차원 모델링 데이터를 처리하고, 상기 처리된 3차원 모델링 데이터에 대한 가상 이미지를 재생성하여 상기 HMD로 전송하는 것을 특징으로 하는 시스템.
The method of claim 6, wherein the server,
When a user input based on a hand gesture input is identified through the identified part of the user's human body, the 3D modeling data is processed in response to the user input, and the virtual image of the processed 3D modeling data is regenerated to reproduce the virtual input. System characterized in that the transmission to the HMD.
제9항에 있어서, 상기 핸드 제스처 입력은,
현실 공간 상에 가상의 객체를 생성하거나 처리하기 위한 입력 또는 상기 3차원 모델링 데이터 내의 기생성된 객체에 대한 처리를 위한 입력 중 어느 하나인 것을 특징으로 하는 시스템.
The method of claim 9, wherein the hand gesture input is
And an input for generating or processing a virtual object in the real space or an input for processing a parasitic object in the 3D modeling data.
KR1020180003339A 2018-01-10 2018-01-10 Method and system for providing mixed reality service KR102010023B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003339A KR102010023B1 (en) 2018-01-10 2018-01-10 Method and system for providing mixed reality service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003339A KR102010023B1 (en) 2018-01-10 2018-01-10 Method and system for providing mixed reality service

Publications (2)

Publication Number Publication Date
KR20190085335A KR20190085335A (en) 2019-07-18
KR102010023B1 true KR102010023B1 (en) 2019-08-12

Family

ID=67469325

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003339A KR102010023B1 (en) 2018-01-10 2018-01-10 Method and system for providing mixed reality service

Country Status (1)

Country Link
KR (1) KR102010023B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220045685A (en) * 2020-10-06 2022-04-13 삼성전자주식회사 MR(Mixed Reality) PROVIDING DEVICE FOR PROVIDING IMMERSIVE MR, AND CONTROL METHOD THEREOF
KR102661762B1 (en) * 2022-12-23 2024-05-02 국립공원공단 Park management system using wearable device
KR102755325B1 (en) * 2023-11-27 2025-01-14 (주)투에이치컴퍼니 Interior Cost Calculation System

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9746921B2 (en) * 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user

Also Published As

Publication number Publication date
KR20190085335A (en) 2019-07-18

Similar Documents

Publication Publication Date Title
KR101918262B1 (en) Method and system for providing mixed reality service
JP7079231B2 (en) Information processing equipment, information processing system, control method, program
AU2015301620B2 (en) Remote expert system
CN102609186B (en) Access information also interacts
KR102010030B1 (en) Method and system for providing mixed reality service
CN109557998B (en) Information interaction method and device, storage medium and electronic device
US10600253B2 (en) Information processing apparatus, information processing method, and program
US20160012160A1 (en) Building model user interface and method of use
CN107340853A (en) A kind of long-range presentation exchange method and system based on virtual reality and gesture identification
KR102010023B1 (en) Method and system for providing mixed reality service
JP2017047519A (en) Cloud robotics system, information processor, program, and method for controlling or supporting robot in cloud robotics system
KR20120072126A (en) Visual surrogate for indirect experience, apparatus and method for providing thereof
CN103975290A (en) Methods and systems for gesture-based petrotechnical application control
US11030359B2 (en) Method and system for providing mixed reality service
CN116670722B (en) Augmented reality collaboration system
WO2019127325A1 (en) Information processing method and apparatus, cloud processing device, and computer program product
CN113515192A (en) Information processing method, device and wearable device for wearable device
WO2022269887A1 (en) Wearable terminal device, program, and image processing method
JP7462097B1 (en) Virtual experience system and program
KR20200059854A (en) Operating method in system for providing augmented reality
Kimura et al. “Wall Hack AR”: AR See-through system with LiDAR and VPS
CN119045712A (en) Screen control method, apparatus, storage medium, and product
CN114913299A (en) Map data processing method, system and device
CN117742479A (en) Man-machine interaction method, device, equipment and medium
KR20220066531A (en) Virtual reality space comparison method and system

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20180110

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190115

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20190715

PG1501 Laying open of application
GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20190806

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20190807

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20220727

Start annual number: 4

End annual number: 4