KR20220125540A - A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space - Google Patents
A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space Download PDFInfo
- Publication number
- KR20220125540A KR20220125540A KR1020210029495A KR20210029495A KR20220125540A KR 20220125540 A KR20220125540 A KR 20220125540A KR 1020210029495 A KR1020210029495 A KR 1020210029495A KR 20210029495 A KR20210029495 A KR 20210029495A KR 20220125540 A KR20220125540 A KR 20220125540A
- Authority
- KR
- South Korea
- Prior art keywords
- character
- reality user
- augmented reality
- coordinates
- virtual
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 141
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000003190 augmentative effect Effects 0.000 claims abstract description 168
- 230000008859 change Effects 0.000 claims abstract description 26
- 230000009471 action Effects 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 230000004044 response Effects 0.000 claims abstract description 4
- 238000012937 correction Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 abstract description 14
- 230000001360 synchronised effect Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000000691 measurement method Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Human Computer Interaction (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
Abstract
Description
본 발명은 디지털 트윈 기술을 기반으로 가상현실 사용자와 증강현실 사용와의 객체간 위치를 연동시켜 상호 인터렉션 서비스를 제공해 줄 수 있는 가상공간과 현실공간의 객체간 위치 연동에 따른 가상공간 클라이언트 기반의 상호 인터렉션 서비스 제공 방법에 관한 것이다.The present invention provides a mutual interaction service based on digital twin technology based on a virtual space client-based interaction between objects in a virtual space and real space, which can provide a mutual interaction service by linking the positions between virtual reality users and augmented reality users. It relates to a method of providing a service.
인간의 경험을 공유하고 확장하는 도구로써 최근 가상현실(Virtual Reality: VR)과 증강현실(Augmented Reality: AR)이 주목을 받고 있다. Recently, virtual reality (VR) and augmented reality (AR) are attracting attention as tools for sharing and expanding human experience.
가상현실(VR)은 배경과 객체로 구성된 가상의 이미지로 가상공간을 만들어내지만, 증강현실(AR)은 현실의 이미지에 3차원 가상 이미지를 겹쳐 하나의 영상으로 보여주는 기술이다. Virtual reality (VR) creates a virtual space with a virtual image composed of a background and an object, whereas augmented reality (AR) is a technology that shows a three-dimensional virtual image over a real image as a single image.
가상현실 애플리케이션은 가상현실용 안경, 모션 인식장치 등 별도의 장비를 통해 전달된 사용자의 행위에 따라 가상의 공간에서 상호작용하며 사용자에게 체험환경을 제공한다. 증강현실 애플리케이션은 현실 세계의 객체와 가상의 객체가 상호작용하여 현실감이 높다.The virtual reality application provides an experience environment to the user by interacting in a virtual space according to the user's actions delivered through separate equipment such as virtual reality glasses and motion recognition devices. Augmented reality applications have a high sense of reality because objects in the real world and virtual objects interact.
최근에는 3차원 렌더링(Rendering) 등 컴퓨터 그래픽스(Computer Graphics) 기술, 고속/병렬 처리 기술 등 소프트웨어 및 하드웨어 기술의 발전으로 인해, 가상현실 및 증강현실 기술이 이용된 다양한 애플리케이션들이 개발되고 있다. 게임, 산업 등 다양한 업계에서도 가상현실과 증강현실 기술들을 이용한 애플리케이션 개발에 관심을 갖고 있다.Recently, due to the development of software and hardware technologies such as computer graphics technology such as 3D rendering and high-speed/parallel processing technology, various applications using virtual reality and augmented reality technology are being developed. Various industries such as games and industries are also interested in developing applications using virtual and augmented reality technologies.
본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 디지털 트윈 기술로 구축된 가상 공간을 기반으로 가상현실 사용자와 증강현실 사용자간에 다양한 상호 인터렉션 서비스를 제공해 주도록 하는 가상공간과 현실공간의 객체간 위치 연동에 따른 가상공간 클라이언트 기반의 상호 인터렉션 서비스 제공 방법을 제공함에 목적이 있다.The present invention has been proposed in view of the above-described conventional circumstances, and between objects in virtual space and real space to provide various interactive interaction services between virtual reality users and augmented reality users based on a virtual space built with digital twin technology. An object of the present invention is to provide a method for providing a virtual space client-based mutual interaction service according to location linkage.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 방법은, VR 클라이언트 기준 서비스 제공 방법으로서, 서비스 대상지역에 대해 구축된 가상공간과 대응된 현실세계의 좌표를 맵핑하여 가상공간(VR씬)을 로드시켜 채널을 생성하고, 상기 VR씬에 VR 사용자의 내 캐릭터(VR캐릭터)를 출력하는 단계; 상기 채널에 접속된 하나 이상의 증강현실 사용자 단말의 위치에 대응하여 각각 VR씬에 해당 하나 이상의 증강현실 사용자에 대응되는 타 캐릭터(AR 캐릭터)를 출력하는 단계; 상기 AR 캐릭터의 위치정보 중 LBS좌표와 GPS 좌표 변동을 기록하고, 좌표 변경 방향 및 평균 이동 속도를 연산하며, 좌표 인식 불가시 가상 이동 경로를 생성하여 이동 애니메이션 재생으로 AR캐릭터의 위치변동 오차를 보정하는 단계; 를 포함하여 상기 위치가 출력된 객체간 네트워크를 통해 행동값을 주고받아 서로의 인터렉션을 발생시키는 서비스 제공 방법이다.In order to achieve the above object, a method according to a preferred embodiment of the present invention is a method of providing a VR client standard service, by mapping the coordinates of the virtual space constructed for the service target area and the real world corresponding to the virtual space (VR). scene) to create a channel, and outputting a VR user's my character (VR character) to the VR scene; outputting other characters (AR characters) corresponding to the one or more augmented reality users to a VR scene in response to the positions of one or more augmented reality user terminals connected to the channel; Records LBS coordinates and GPS coordinate changes among the location information of the AR character, calculates the coordinate change direction and average movement speed, and creates a virtual movement path when coordinates cannot be recognized to do; It is a service providing method for generating interaction with each other by exchanging action values through a network between objects, including the location output.
상기 방법을 구현하는 장치는, 하나 이상의 디지털 트윈 영상을 저장하는 디지털 트윈 영상 저장부; 가상현실 공간에 대응하는 증강현실 사용자와의 상호 인터렉션을 처리하는 가상현실 사용자 단말과, 증강현실 공간에 대응하는 가상현실 사용자와의 상호 인터렉션을 처리하는 증강현실 사용자 단말 간 위치 및 좌표계 동기화를 처리하는 동기화부; 및 상기 동기화부를 통해 동기화된 위치 및 좌표계에 대응되는 디지털 트윈 영상을 상기 디지털 트윈 영상 저장부에서 추출하여 상기 가상현실 사용자 단말로 전송하고, 상기 증강현실 사용자 단말에는 현실 영상을 배경으로 하고, 상기 가상현실 사용자 단말에는 상기 디지털 트윈 영상을 배경으로 하여, 상기 위치 및 좌표계 동기화에 기초한 상기 증강현실 사용자 및 상기 가상현실 사용자 간 상호 인터렉션 서비스를 제공하는 인터렉션 서비스 제공부;를 포함하는, 인터렉션 서비스 제공 장치로 구성될 수 있다.An apparatus for implementing the method includes: a digital twin image storage unit for storing one or more digital twin images; A virtual reality user terminal that processes mutual interaction with an augmented reality user corresponding to a virtual reality space, and an augmented reality user terminal that processes mutual interaction with a virtual reality user corresponding to an augmented reality space. synchronizer; and extracting a digital twin image corresponding to the position and coordinate system synchronized through the synchronization unit from the digital twin image storage unit and transmitting it to the virtual reality user terminal, with a real image as a background in the augmented reality user terminal, and the virtual In the real user terminal, with the digital twin image as a background, an interaction service providing unit that provides a mutual interaction service between the augmented reality user and the virtual reality user based on the location and coordinate system synchronization; can be configured.
상기 위치 및 좌표계 동기화부는, 각각 동기화된 위치 정보 및 좌표계 정보를 상기 가상현실 사용자 단말 및 증강현실 사용자 단말에게로 전송할 수 있다.The location and coordinate system synchronizer may transmit the synchronized location information and coordinate system information to the virtual reality user terminal and the augmented reality user terminal, respectively.
상호 인터렉션을 하고자 하는 가상현실 사용자 단말 및 증강현실 사용자 단말 간의 네트워크 채널을 연결시키는 네트워크 채널 연결부;를 추가로 포함할 수 있다.It may further include; a network channel connection unit for connecting a network channel between the virtual reality user terminal and the augmented reality user terminal to interact with each other.
상기 디지털 트윈 영상은, 실제 장비 또는 공간을 가상 세계에 똑같이 구현하는 디지털 트윈 기술로 제작된 영상일 수 있다.The digital twin image may be an image produced by digital twin technology that implements real equipment or space in the virtual world.
상기 인터렉션 서비스 제공부는, 증강현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 상기 가상현실 사용자 단말에게로 다운로드할 수 있다.The interaction service providing unit may download a service app capable of mutual interaction with the augmented reality user to the virtual reality user terminal.
상기 인터렉션 서비스 제공부는, 가상현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 상기 증강현실 사용자 단말에게로 다운로드할 수 있다.The interaction service providing unit may download a service app capable of mutual interaction with the virtual reality user to the augmented reality user terminal.
한편, 본 발명의 바람직한 실시양태에 따른 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템은, 가상현실 공간에서 수행되는 증강현실 사용자와의 상호 인터렉션을 처리하는 가상현실 사용자 단말; 증강현실 공간에서 수행되는 가상현실 사용자와의 상호 인터렉션을 처리하는 증강현실 사용자 단말; 및 상기 가상현실 사용자 단말을 통해 가상현실 공간에서 수행되는 증강현실 사용자와의 상호 인터렉션 서비스를 제공하고, 상기 증강현실 사용자 단말을 통해 증강현실 공간에서 수행되는 가상현실 사용자와의 상호 인터렉션 서비스를 제공하는 서버;를 포함한다.On the other hand, a system for providing a mutual interaction service between a virtual reality user and an augmented reality user according to a preferred embodiment of the present invention includes: a virtual reality user terminal for processing mutual interaction with an augmented reality user performed in a virtual reality space; Augmented reality user terminal for processing the interaction with the virtual reality user performed in the augmented reality space; and providing a mutual interaction service with an augmented reality user performed in a virtual reality space through the virtual reality user terminal, and providing a mutual interaction service with a virtual reality user performed in an augmented reality space through the augmented reality user terminal server; includes.
상기 서버는, 상기 가상현실 사용자 단말 및 증강현실 사용자 단말의 위치와 좌표계를 각각 서로 동기화시켜 상기 가상현실 사용자 단말 및 증강현실 사용자 단말에게로 전송하고, 서로 동기화된 위치 정보가 속해 있는 해당 지역의 디지털 트윈 영상을 기저장된 디지털 트윈 영상에서 추출하여 상기 가상현실 사용자 단말 및 증강현실 사용자 단말에게로 전송할 수 있다.The server synchronizes the positions and coordinate systems of the virtual reality user terminal and the augmented reality user terminal, respectively, and transmits them to the virtual reality user terminal and the augmented reality user terminal, and the location information synchronized with each other belongs to the digital region A twin image may be extracted from a pre-stored digital twin image and transmitted to the virtual reality user terminal and the augmented reality user terminal.
상기 가상현실 사용자 단말은, 상기 가상현실 사용자의 현재 위치를 추적하는 위치 추적부; 및 상기 가상현실 사용자와 증강현실 사용자간의 동기화된 위치 및 좌표계 정보를 수신함에 따라, 서로의 위치가 동기화된 증강현실 사용자의 캐릭터를 서로 동기화된 좌표계에 근거하여 표시부상에 화면표시하는 인터렉션 서비스 제공부;를 포함할 수 있다. 이때, 상기 위치 추적부는, 통신 기지국을 통한 위도 및 경도 위치 측정 기법으로 해당 가상현실 사용자의 현재 위치를 실시간으로 추적하는 LBS 모듈부; 위성을 통한 위도 및 경도 위치 측정 기법으로 해당 가상현실 사용자의 현재 위치를 실시간으로 추적하는 GPS 모듈부; 및 상기 LBS 모듈부로부터의 LBS 좌표값과 상기 GPS 모듈부로부터의 GPS 좌표값의 오차를 지속적으로 연산하여 보정하는 오차 보정부;를 포함할 수 있다. 상기 위치 추적부는, 해당 가상현실 사용자의 위치를 추적함에 있어서 최초 LBS로 추적하고, LBS로 추적이 불가능할 경우에는 GPS로 추적할 수 있다.The virtual reality user terminal may include: a location tracking unit for tracking the current location of the virtual reality user; and an interaction service providing unit that, upon receiving the synchronized location and coordinate system information between the virtual reality user and the augmented reality user, displays the characters of the augmented reality users whose positions are synchronized with each other on the display unit based on the coordinate system synchronized with each other ; may be included. In this case, the location tracking unit may include: an LBS module unit for tracking the current location of the virtual reality user in real time using a latitude and longitude location measurement technique through a communication base station; GPS module unit for tracking the current location of the virtual reality user in real time using a latitude and longitude location measurement technique through satellite; and an error correction unit for continuously calculating and correcting an error between the LBS coordinate value from the LBS module unit and the GPS coordinate value from the GPS module unit. The location tracking unit may initially track the location of the virtual reality user with the LBS, and when tracking with the LBS is impossible, track the location with the GPS.
상기 증강현실 사용자 단말은, 상기 증강현실 사용자의 현재 위치를 추적하는 위치 추적부; 및 상기 가상현실 사용자와 증강현실 사용자간의 동기화된 위치 및 좌표계 정보를 수신함에 따라, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터를 서로 동기화된 좌표계에 근거하여 표시부상에 화면표시하는 인터렉션 서비스 제공부;를 포함할 수 있다. 이때, 상기 위치 추적부는 통신 기지국을 통한 위도 및 경도 위치 측정 기법으로 해당 증강현실 사용자의 현재 위치를 실시간으로 추적하는 LBS 모듈부; 위성을 통한 위도 및 경도 위치 측정 기법으로 해당 증강현실 사용자의 현재 위치를 실시간으로 추적하는 GPS 모듈부; 및 상기 LBS 모듈부로부터의 LBS 좌표값과 상기 GPS 모듈부로부터의 GPS 좌표값의 오차를 지속적으로 연산하여 보정하는 오차 보정부;를 포함할 수 있다. 상기 위치 추적부는 해당 증강현실 사용자의 위치를 추적함에 있어서 최초 LBS로 추적하고, LBS로 추적이 불가능할 경우에는 GPS로 추적할 수 있다.The augmented reality user terminal, a location tracking unit for tracking the current location of the augmented reality user; and an interaction service providing unit that, upon receiving the synchronized location and coordinate system information between the virtual reality user and the augmented reality user, displays the characters of the virtual reality users whose positions are synchronized with each other on the display unit based on the coordinate system synchronized with each other ; may be included. At this time, the location tracking unit LBS module unit for tracking the current location of the augmented reality user in real time by a latitude and longitude location measurement technique through a communication base station; GPS module unit for tracking the current location of the augmented reality user in real time using a latitude and longitude location measurement technique through satellite; and an error correction unit for continuously calculating and correcting an error between the LBS coordinate value from the LBS module unit and the GPS coordinate value from the GPS module unit. The location tracking unit may track the location of the augmented reality user with the first LBS, and if tracking with the LBS is not possible, track the location with GPS.
이러한 구성의 본 발명에 따르면, 디지털 트윈 기술로 구축된 가상 공간을 기반으로 가상현실 사용자와 증강현실 사용자간에 다양한 상호 인터렉션 서비스가 가능하므로, 사용자의 만족도를 향상시킬 수 있다.According to the present invention having such a configuration, various interactive interaction services are possible between a virtual reality user and an augmented reality user based on a virtual space built with digital twin technology, and thus user satisfaction can be improved.
도 1은 본 발명의 실시예에 따른 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템의 구성도이다.
도 2는 도 1에 도시된 가상현실 사용자 단말의 내부 구성도이다.
도 3은 도 1에 도시된 증강현실 사용자 단말의 내부 구성도이다.
도 4는 도 1에 도시된 서버의 내부 구성도이다.
도 5 및 도 6은 도 1에 도시된 증강현실 사용자 단말에 표시되는 화면예들이다.
도 7은 본 발명에 의한 상호 인터렉션 서비스 시스템의 인터렉션 서비스 제공 방법 설명도이다,
도 8은 본 발명에 의한 상호 인터렉션 서비스 시스템의 VR 클라이언트의 서비스 제공 방법 설명도이다.
도 9는 본 발명에 의한 상호 인터렉션 서비스 시스템의 AR 클라이언트의 서비스 제공 방법 설명도이다.1 is a block diagram of a system for providing a mutual interaction service between a virtual reality user and an augmented reality user according to an embodiment of the present invention.
FIG. 2 is an internal configuration diagram of the virtual reality user terminal shown in FIG. 1 .
3 is an internal configuration diagram of the augmented reality user terminal shown in FIG. 1 .
FIG. 4 is an internal configuration diagram of the server shown in FIG. 1 .
5 and 6 are examples of screens displayed on the augmented reality user terminal shown in FIG. 1 .
7 is an explanatory diagram of an interaction service providing method of a mutual interaction service system according to the present invention;
8 is an explanatory diagram of a service providing method of a VR client of the mutual interaction service system according to the present invention.
9 is an explanatory diagram of a service providing method of an AR client of the mutual interaction service system according to the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.
도 1은 본 발명의 실시예에 따른 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템의 구성도이다.1 is a block diagram of a system for providing a mutual interaction service between a virtual reality user and an augmented reality user according to an embodiment of the present invention.
본 발명의 실시예에 따른 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템은, 가상현실 사용자 단말(10), 증강현실 사용자 단말(20), 네트워크(30), 및 서버(40)를 포함할 수 있다.A system for providing a mutual interaction service between a virtual reality user and an augmented reality user according to an embodiment of the present invention includes a virtual
가상현실 사용자 단말(10)은 가상현실(Virtual Reality; VR) 공간을 통해 수행되는 가상현실 서비스를 제공할 수 있다.The virtual
특히, 가상현실 사용자 단말(10)은 가상현실(Virtual Reality; VR) 공간에서 수행되는 증강현실 사용자(즉, 증강현실 사용자 단말(20))와의 상호 인터렉션을 처리할 수 있다.In particular, the virtual
가상현실 사용자 단말(10)은 증강현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 서버(40)로부터 다운로드받아서 사용할 수 있다.The virtual
가상현실 사용자 단말(10)은 상호 인터렉션을 수행하는 증강현실 사용자의 캐릭터(예컨대, 3차원 객체)를 증강현실 사용자의 현재 위치를 기반으로 화면에 표시할 수 있다.The virtual
또한, 상기 가상현실 사용자 단말(20)은 동일 네트워크 채널에 접속한 복수의 타 가상현실 사용자의 캐릭터, 복수의 타 증강현실 사용자 단말에 대응된 캐릭터를 상호 인터렉션을 수행하여 화면에 표시할 수 있다.In addition, the virtual
또한, 복수의 캐릭터를 표시하는 경우에, 전체 참여자 캐릭터들을 대응 표시한 별도의 맵창으로 표시할 수 있다. In addition, in the case of displaying a plurality of characters, it is possible to display all the participant characters in a separate map window correspondingly displayed.
증강현실 사용자 단말(20)은 증강현실(Augmented Reality; AR) 공간을 통해 수행되는 증강현실 서비스를 제공할 수 있다.The augmented
특히. 증강현실 사용자 단말(20)은 증강현실(Augmented Reality; AR) 공간에서 수행되는 가상현실 사용자(즉, 가상현실 사용자 단말(10))와의 상호 인터렉션을 처리할 수 있다.Especially. The augmented
증강현실 사용자 단말(20)은 가상현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 서버(40)로부터 다운로드받아서 사용할 수 있다.The augmented
증강현실 사용자 단말(20)은 상호 인터렉션을 수행하는 가상현실 사용자의 캐릭터(예컨대, 3차원 객체)를 가상현실 사용자의 3D씬 내에서의 캐릭터 현재 위치를 기반으로 화면에 표시할 수 있다.The augmented
증강현실 사용자 단말(20)은 동일 네트워크 채널에 접속한 복수의 가상현실 사용자의 캐릭터, 복수의 타 증강현실 사용자 단말에 대응된 캐릭터를 상호 인터렉션을 수행하여 화면에 표시할 수 있다.The augmented
또한, 복수의 캐릭터를 표시하는 경우에, 전체 참여자 캐릭터들을 대응 표시한 별도의 맵창으로 표시할 수 있다.In addition, in the case of displaying a plurality of characters, it is possible to display all the participant characters in a separate map window correspondingly displayed.
상술한 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)은 휴대용 단말기 또는 휴대용 컴퓨터로 구현될 수 있다. 여기서, 휴대용 단말기는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 휴대용 컴퓨터는 노트북, 랩톱(laptop) 등을 포함할 수 있다. The above-described virtual
또한, 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)은 스마트폰, 스마트 노트, 태블릿 PC, 웨어러블(wearable) 컴퓨터 등의 각종 스마트 기기일 수도 있다.In addition, the virtual
한편, 상술한 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)은 네트워크(30)를 통해 서버(40)에 접속할 수 있다.Meanwhile, the aforementioned virtual
여기서, 네트워크(30)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network;WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크로 구현될 수 있다. 한편으로, 네트워크(30)는 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다. 필요에 따라서, 네트워크(30)는 유선 및 무선이 혼용된 네트워크일 수 있다.Here, the
서버(40)는 가상현실 사용자 단말(10)을 통해 가상현실 공간에서 수행되는 증강현실 사용자와의 상호 인터렉션 서비스를 제공할 수 있다.The
또한, 서버(40)는 증강현실 사용자 단말(20)을 통해 증강현실 공간에서 수행되는 가상현실 사용자와의 상호 인터렉션 서비스를 제공할 수 있다.In addition, the
특히, 서버(40)는 가상현실 사용자와 증강현실 사용자간의 상호 인터렉션을 위해 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 현재 위치 및 좌표계를 서로 동기화시켜 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)에게로 전송할 수 있다. In particular, the
그에 따라, 가상현실 사용자와 증강현실 사용자가 상호 인터렉션을 하는 동안에는, 가상현실 사용자 단말(10)에는 디지털 트윈 영상과 상대방(즉, 증강현실 사용자)의 캐릭터(3차원 모델)가 표시되고, 증강현실 사용자 단말(20)에는 카메라 영상(배경 영상)과 상대방(즉, 가상현실 사용자)의 캐릭터(3차원 모델)가 표시된다.Accordingly, while the virtual reality user and the augmented reality user interact with each other, the virtual
또한, 가상현실 사용자와 증강현실 사용자가 상호 인터렉션을 하는 동안에 어느 사용자가 이동하게 되면 각각의 단말에 화면표시되는 영상 및 상대방 캐릭터 역시 해당 사용자의 이동 위치에 따라 이동될 수 있다.In addition, when a user moves while the virtual reality user and the augmented reality user interact with each other, the image displayed on the screen of each terminal and the character of the other party may also be moved according to the moving position of the corresponding user.
도 1에는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)을 하나씩 도시하였으나, 실질적으로 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)은 각각 다수개가 있는 것으로 보아야 한다.Although the virtual
도 2는 도 1에 도시된 가상현실 사용자 단말의 내부 구성도이다.FIG. 2 is an internal configuration diagram of the virtual reality user terminal shown in FIG. 1 .
가상현실 사용자 단말(10)은 위치 추적부(11), 인터렉션 서비스 제공부(12), 및 표시부(13)를 포함할 수 있다.The virtual
위치 추적부(11)는 가상현실 사용자에 대응된 가상현실 캐릭터와, 증강 현실 사용자 단말에 대응된 증강현실 캐릭터의 현재 위치를 추적한다.The
위치 추적부(11)는 내 위치 추적부(11a), 타 캐릭터 위치수신부(11b) 및 오차 보정부(11c)를 포함할 수 있다.The
내 위치 추적부(11a)는 가상현실 사용자에 대응시켜 3D 씬에 로드시킨 내 캐릭터의 위치를 추적한다. 이는 3D씬의 좌표를 해당되는 현실 세계의 좌표와 맵핑시켜주고, 3D씬에서의 내 캐릭터의 위치를 추적한다.My
타 캐릭터 위치수신부(11b)는, 해당 네트워크 채널에 접속한 타 사용자에 대응된 타 캐릭터의 위치정보를 수신받는다. 즉, AR 사용자 단말의 LBS좌표값과 GPS좌표값 정보를 수신받는다.The other character
오차 보정부(11c)는 타 캐릭터 위치수신부(11b)를 통해 수신된 타 캐릭터의 위치 정보중 LBS 좌표값과 GPS 좌표값의 오차를 지속적으로 연산하여 보정할 수 있다.The
또한, LBS 좌표값과 GPS 좌표값의 오차를 지속적으로 연산하여 프로그램 구동 이후 둘의 평균 오차율을 예측, LBS 특성상 기지국 사이에 연결이 끊어졌다가 다시 접속되는 동안에 이 예측값을 대입하여 자연스럽게 위치 출력이 이어지도록 유지한다.In addition, the error between the LBS coordinate value and the GPS coordinate value is continuously calculated to predict the average error rate of the two after the program is started. keep it down
인터렉션 서비스 제공부(12)는 네트워크(30)를 통해 서버(40)에 접속하여 로그인할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 위치 추적부(11)를 통해 현재의 접속 좌표 및 최종 기록 좌표를 확인할 수 있다. 이때, 인터렉션 서비스 제공부(12)는 GPS 및 LBS로 동시 체크가능하고, 최초 실행의 경우 디폴트를 로드한다.The interaction
인터렉션 서비스 제공부(12)는 최종 기록 좌표(예컨대, 선행에 마지막으로 서버(40)와의 접속을 종료한 좌표)를 포함하는 3차원 월드 씬(scene)을 생성할 수 있다. 여기서, 씬은 가상공간의 단위를 의미한다. 가상공간은 디지털 트윈(digital twin)으로 제작된 3차원 월드를 의미한다. 좌표는 씬내의 위치정보(X,Y,Z)를 의미한다. 디지털 트윈은 실제 장비 또는 공간을 가상 세계(3차원 세계)에 쌍둥이처럼 똑같이 구현하는 기술을 의미하는 것으로서, 현실 공간의 물리적 객체(실제 사물 등)들에 대한 디지털 복제를 의미한다.The interaction
인터렉션 서비스 제공부(12)는 최종 기록 좌표가 디지털 트윈 미구현 지역에 속하는 경우에는 "서비스지역 아님" 이라는 표시를 할 수 있고, 임의의 가상 씬으로 이동할 수 있다.When the final recorded coordinates belong to a digital twin unimplemented area, the interaction
인터렉션 서비스 제공부(12)는 네트워크 채널로 입장할 수도 있고 네트워크 채널을 생성할 수도 있다. 예를 들어, 인터렉션 서비스 제공부(12)는 동일 월드 기준 빠른 입장이 가능하고, 해당 네트워크 채널로 입장한 참가자가 n명 이상일 경우에는 해당 월드로 새로운 네트워크 채널을 생성할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 해당 가상현실 사용자의 캐릭터 정보를 로드할 수 있다. 이때, 인터렉션 서비스 제공부(12)는 3차원 모델, 복장, 소지금, 인벤토리 테이블 등을 로드할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 최종 기록 좌표값과 일치하는 3차원 월드 씬 위에 VR HMD 위치를 대응시키고 해당 가상현실 사용자의 캐릭터(3차원 모델)를 생성할 수 있다. The interaction
인터렉션 서비스 제공부(12)는 1인칭 시점으로 해당 가상현실 사용자의 캐릭터 뿐만 아니라 주위를 3차원으로 표시부(13)에 표현할 수 있다. 또한, 인터렉션 서비스 제공부(12)는 1인칭 시점에 부가하여 핸드 모션 트래킹이 가능할 수 있고, PC 또는 모바일의 경우 지정된 디폴트 애니메이션을 재생할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 이동 입력값에 따라 좌표의 변동을 기록할 수 있다. 내 캐릭터의 위치정보에 대해서 일정횟수로 좌표 변동을 기록하여 움직임 및 나중에 다시 접속할때의 좌표정보로 사용할 수 있다. 예를 들어, 타 캐릭터의 좌표 정보에 대해서는, 인터렉션 서비스 제공부(12)는 변동되는 LBS 좌표값 및 GPS 좌표값을 n초 간격으로 기록할 수도 있고, 기지국 타입에 따라 유동적으로 기록할 수도 있다. 한편, 인터렉션 서비스 제공부(12)는 기록되는 LBS 좌표값 및 GPS 좌표값을 각각 누적 10회만 저장할 수 있고, 11회 초과 기록은 자동 삭제할 수 있다. 여기서, LBS 좌표값은 통신 기지국을 통한 위도 및 경도 위치 측정 기법에 의한 좌표값을 의미하고, GPS 좌표값은 위성을 통한 위도 및 경도 위치 측정 기법에 의한 좌표값을 의미한다.The interaction
인터렉션 서비스 제공부(12)는 플레이어(예컨대, 네트워크 채널이 연결된 가상현실 사용자 및 증강현실 사용자)의 좌표가 서비스 범위를 벗어날 수 없도록 이동 제한을 할 수 있다. 예를 들어, 인터렉션 서비스 제공부(12)는 가상현실 사용자 및 증강현실 사용자간의 캐릭터 충돌을 체크할 수 있고, 플레이어의 워프(warp)는 예외 처리한다.The interaction
한편, 인터렉션 서비스 제공부(12)는 네트워크 채널을 스캔하여 참여 플레이어의 좌표값을 로드(예컨대, n초 간격으로 로드)할 수 있다. Meanwhile, the interaction
인터렉션 서비스 제공부(12)는 네트워크 채널에 입장(참여)한 증강현실 사용자의 캐릭터 정보(예컨대, 외형 중심(3D 모델, 복장))를 로드할 수 있다. The
인터렉션 서비스 제공부(12)는 최종 기록 좌표값과 일치하는 3차원 월드 씬 위에 해당 증강현실 사용자의 캐릭터(3D 모델)를 생성할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 네트워크 채널 스캔 결과에 따른 증강현실 사용자의 좌표 변동을 체크할 수 있고, 그에 따라 해당 증강현실 사용자의 캐릭터의 출력 위치를 변경할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 증강현실 사용자에 대한 새로운 좌표 기록 시 이전 출력값과 차이점을 비교할 수 있다.The
인터렉션 서비스 제공부(12)는 증강현실 사용자의 좌표 변동 이벤트가 발생한 경우에는 해당 증강현실 사용자의 캐릭터(3D 모델)에 "이동 애니메이션"을 재생하고, 그에 따른 경로를 연결 처리할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 증강현실 사용자의 새로운 좌표와 이전의 좌표간에 차이가 없는 경우 해당 증강현실 사용자의 캐릭터(3D 모델)에 "디폴트 애니메이션"을 재생할 수 있다. 해당 플레이어가 가상현실(VR)일 경우 HMD 및 핸드 트래킹 모션을 출력할 수 있다.If there is no difference between the new coordinates of the augmented reality user and the previous coordinates, the interaction
인터렉션 서비스 제공부(12)는 위치가 출력된 가상현실 사용자와 증강현실 사용자간 네트워크(30)를 통한 행동값을 주고 받아 서로의 인터렉션(예컨대, 음성대화, 모션, 채팅, 이동 등)을 발생시킨다. The
인터렉션 서비스 제공부(12)는 LBS 좌표 인식 불가시 기록된 GPS 데이터를 로드한다. 한편, 인터렉션 서비스 제공부(12)는 GPS 데이터 로드도 불가능한 경우, 최종 기록값에 3D 모델을 출력하고 디폴트 애니메이션을 재생하거나 HMD 및 핸드 트래킹 모션을 출력할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 기록된 GPS 10회의 좌표 변경 방향 및 평균 이동 속도를 연산할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 LBS 좌표 인식 불가 상태의 3D 모델에 적용하여 좌표의 가상 이동 경로 생성 및 "이동 애니메이션"을 재생할 수 있다.The
인터렉션 서비스 제공부(12)는 신규 LBS 좌표값 수신시 가상 경로 처리를 중지하고, 정상 출력 프로세스로 보정 프로세스에 덮어쓰기를 수행한다(즉, 기존 연산값 삭제).The interaction
인터렉션 서비스 제공부(12)는 최초 네트워크 채널 생성시 예컨대 "채널 생성"과 같은 시스템 메시지를 표시부(13)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 해당 채널 플레이어의 참가시 예컨대 "#name 참가"와 같은 시스템 메시지를 표시부(13)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction
인터렉션 서비스 제공부(12)는 해당 채널 플레이어의 이탈시 예컨대 "#name 이탈"과 같은 시스템 메시지를 표시부(13)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction
특히, 인터렉션 서비스 제공부(12)는 서버(40)로부터 가상현실 사용자와 증강현실 사용자간의 동기화된 위치 및 좌표계 정보를 수신함에 따라, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터를 서로 동일한 좌표계에 근거하여 표시부(13)상에 화면표시할 수 있다.In particular, as the
표시부(13)는 내 캐릭터 화면 시야각 기준(디폴트 : ±60도) 안쪽에 플레이어가 존재하는 경우 도 3에 예시한 바와 같이 해당 캐릭터(3D 모델)의 머리 위에 "#name"와 같은 표시를 디스플레이할 수 있다. The
표시부(13)는 내 캐릭터 화면 시야각 기준(디폴트 : ±60도)을 벗어난 플레이어가 존재하는 경우 도 4에 예시한 바와 같이 61도 ~ 180도는 시야각 우측 끝라인에 순서대로 정렬해서 오른쪽 화살표 및 "#name"와 같은 표시를 디스플레이할 수 있다. 이때, 표시부(13)는 해당 플레이어의 "#name"이 아닌 각 화살표 앞에 상태아이콘을 표시할 수 있다.In the case of a player out of the standard of the viewing angle of my character screen (default: ±60 degrees), the
표시부(13)는 내 캐릭터 화면 시야각 기준(디폴트 : ±60도)을 벗어난 플레이어가 존재하는 경우 도 4에 예시한 바와 같이 181도 ~ 300도는 시야각 좌측 끝라인에 순서대로 정렬해서 왼쪽 화살표 및 "#name"와 같은 표시를 디스플레이할 수 있다. 이때, 표시부(13)는 해당 플레이어의 "#name"이 아닌 각 화살표 앞에 상태아이콘을 표시할 수 있다.In the case of a player out of the standard of the viewing angle of my character screen (default: ±60 degrees), the
표시부(13)는 플레이어가 음성 출력 상태일 때 플레이어 #name 앞에 "확성기 아이콘"을 표시할 수 있다.The
표시부(13)는 플레이어가 텍스트 채팅 박스 출력 상태일 때 플레이어 #name 앞에 "말풍선 아이콘"을 표시할 수 있다.The
도 3은 도 1에 도시된 증강현실 사용자 단말의 내부 구성도이고, 도 5 및 도 6은 도 1에 도시된 증강현실 사용자 단말에 표시되는 화면예들이다.3 is an internal configuration diagram of the augmented reality user terminal shown in FIG. 1 , and FIGS. 5 and 6 are examples of screens displayed on the augmented reality user terminal shown in FIG. 1 .
증강현실 사용자 단말(20)은 위치 추적부(21), 인터렉션 서비스 제공부(22), 및 표시부(23)를 포함할 수 있다.The augmented
위치 추적부(21)는 증강현실 사용자의 현재 위치를 추적한다.The
위치 추적부(21)는 LBS 모듈부(21a), GPS 모듈부(21b), 및 오차 보정부(21c)를 포함할 수 있다.The
LBS 모듈부(21a)는 통신 기지국을 통한 위도 및 경도 위치 측정 기법으로 해당 증강현실 사용자의 현재 위치를 실시간으로 추적할 수 있다.The
LBS 모듈부(21a)는 해당 증강현실 사용자에 대한 LBS 좌표값(예컨대, XYZ)을 출력한다. The
GPS 모듈부(21b)는 위성을 통한 위도 및 경도 위치 측정 기법으로 해당 증강현실 사용자의 현재 위치를 실시간으로 추적할 수 있다.The
GPS 모듈부(21b)는 해당 증강현실 사용자에 대한 GPS 좌표값(예컨대, XYZ)을 출력한다.The
오차 보정부(21c)는 LBS 모듈부(21a)로부터의 LBS 좌표값과 GPS 모듈부(21b)로부터의 GPS 좌표값의 오차를 지속적으로 연산하여 보정할 수 있다.The
다시 말해서, 위치 추적부(21)는 해당 증강현실 사용자의 위치를 추적함에 있어서 최초 LBS 모듈부(21a)로 추적하고, LBS 모듈부(21a)로 추적이 불가능할 경우에는 GPS 모듈부(21b)로 추적한다. 즉, 위치 추적부(21)는 LBS를 기준으로 해당 증강현실 사용자의 위치를 추적하되, GPS의 값은 뒤에서 계속 측정하고 기록한다.In other words, the
또한, 위치 추적부(21)는 LBS 좌표값과 GPS 좌표값의 오차를 지속적으로 연산하여 프로그램 구동 이후 둘의 평균 오차율을 예측, LBS 특성상 기지국 사이에 연결이 끊어졌다가 다시 접속되는 동안에 이 예측값을 대입하여 자연스럽게 위치 출력이 이어지도록 유지한다.In addition, the
인터렉션 서비스 제공부(22)는 네트워크(30)를 통해 서버(40)에 접속하여 로그인할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 위치 추적부(21)를 통해 현재의 접속 좌표 및 최종 기록 좌표를 확인할 수 있다. 이때, 인터렉션 서비스 제공부(22)는 GPS 및 LBS로 동시 체크가능하고, 최초 실행의 경우 디폴트를 로드한다.The interaction
인터렉션 서비스 제공부(22)는 최종 기록 좌표(예컨대, 선행에 마지막으로 서버(40)와의 접속을 종료한 좌표)를 포함하는 3차원 월드 지역을 구분할 수 있고, 전방 카메라 기능을 온(ON)할 수 있다. The interaction
인터렉션 서비스 제공부(22)는 최종 기록 좌표가 디지털 트윈 미구현 지역에 속하는 경우에는 "서비스지역 아님" 이라는 표시 및 미확인 지역으로 별도 분류할 수 있다.When the final recorded coordinates belong to a digital twin unimplemented area, the interaction
인터렉션 서비스 제공부(22)는 네트워크 채널로 입장할 수도 있고 네트워크 채널을 생성할 수도 있다. 예를 들어, 인터렉션 서비스 제공부(12)는 동일 월드 기준 빠른 입장이 가능하고, 해당 네트워크 채널로 입장한 참가자가 n명 이상일 경우에는 해당 월드로 새로운 네트워크 채널을 생성할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 해당 가상현실 사용자의 캐릭터 정보를 로드할 수 있다. 이때, 인터렉션 서비스 제공부(22)는 3차원 모델, 복장, 소지금, 인벤토리 테이블 등을 로드할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 이동 입력값에 따라 LBS 및 GPS 좌표의 변동을 기록할 수 있다. 예를 들어, 인터렉션 서비스 제공부(22)는 변동되는 LBS 좌표값 및 GPS 좌표값을 n초 간격으로 기록할 수도 있고, 기지국 타입에 따라 유동적으로 기록할 수도 있다. 한편, 인터렉션 서비스 제공부(22)는 기록되는 LBS 좌표값 및 GPS 좌표값을 각각 누적 10회만 저장할 수 있고, 11회 초과 기록은 자동 삭제할 수 있다. 여기서, LBS 좌표값은 통신 기지국을 통한 위도 및 경도 위치 측정 기법에 의한 좌표값을 의미하고, GPS 좌표값은 위성을 통한 위도 및 경도 위치 측정 기법에 의한 좌표값을 의미한다.The interaction
인터렉션 서비스 제공부(22)는 플레이어의 좌표가 디지털트윈 구현 지역 범위를 벗어날 경우 "서비스 지역 아님"이라는 메시지를 표시부(23)의 화면 중앙에 출력할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 서비스 지역이 아닌 구역에 n초 이상 체류 시 미확인 지역으로 자동 이동 및 네트워크 채널을 변경할 수 있다.The interaction
한편, 인터렉션 서비스 제공부(22)는 네트워크 채널을 스캔하여 참여 플레이어의 좌표값을 로드(예컨대, n초 간격으로 로드)할 수 있다. Meanwhile, the interaction
인터렉션 서비스 제공부(22)는 네트워크 채널에 입장(참여)한 가상현실 사용자의 캐릭터 정보(예컨대, 외형 중심(3D 모델, 복장))를 로드할 수 있다. The
인터렉션 서비스 제공부(22)는 최종 기록 좌표값과 일치하는 실제 지점과 대응하는 화면상의 좌표에 가상현실 사용자의 캐릭터(3D 모델)를 생성할 수 있다. 이때, 인터렉션 서비스 제공부(22)는 자이로 센서(도시 생략)를 통해 가상현실 사용자의 캐릭터(3D 모델)가 세로로 서 있을 수 있도록 수평 조절한다.The interaction
인터렉션 서비스 제공부(22)는 네트워크 채널 스캔 결과에 따른 가상현실 사용자의 좌표 변동을 체크할 수 있고, 그에 따라 해당 가상현실 사용자의 캐릭터의 출력 위치를 변경할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 가상현실 사용자에 대한 새로운 좌표 기록 시 이전 출력값과 차이점을 비교할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 가상현실 사용자의 좌표 변동 이벤트가 발생한 경우에는 해당 가상현실 사용자의 캐릭터(3D 모델)에 "이동 애니메이션"을 재생하고, 그에 따른 경로를 연결 처리할 수 있다.When the virtual reality user's coordinate change event occurs, the interaction
인터렉션 서비스 제공부(22)는 가상현실 사용자의 새로운 좌표와 이전의 좌표간에 차이가 없는 경우 해당 가상현실 사용자의 캐릭터(3D 모델)에 "디폴트 애니메이션"을 재생할 수 있다. 해당 플레이어가 가상현실(VR)일 경우 HMD 및 핸드 트래킹 모션을 출력할 수 있다.When there is no difference between the new coordinates of the virtual reality user and the previous coordinates, the interaction
인터렉션 서비스 제공부(22)는 위치가 출력된 가상현실 사용자와 증강현실 사용자간 네트워크(30)를 통한 행동값을 주고 받아 서로의 인터렉션(예컨대, 음성대화, 모션, 채팅, 이동 등)을 발생시킨다. The
인터렉션 서비스 제공부(22)는 LBS 좌표 인식 불가시 기록된 GPS 데이터를 로드한다. 한편, 인터렉션 서비스 제공부(22)는 GPS 데이터 로드도 불가능한 경우, 최종 기록값에 3D 모델을 출력하고 디폴트 애니메이션을 재생하거나 HMD 및 핸드 트래킹 모션을 출력할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 기록된 GPS 10회의 좌표 변경 방향 및 평균 이동 속도를 연산할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 LBS 좌표 인식 불가 상태의 3D 모델에 적용하여 좌표의 가상 이동 경로 생성 및 "이동 애니메이션"을 재생할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 신규 LBS 좌표값 수신시 가상 경로 처리를 중지하고, 정상 출력 프로세스로 보정 프로세스에 덮어쓰기를 수행한다(즉, 기존 연산값 삭제).The interaction
인터렉션 서비스 제공부(22)는 최초 네트워크 채널 생성시 예컨대 "채널 생성"과 같은 시스템 메시지를 표시부(23)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction
인터렉션 서비스 제공부(22)는 해당 채널 플레이어의 참가시 예컨대 "#name 참가"와 같은 시스템 메시지를 표시부(23)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction
인터렉션 서비스 제공부(22)는
해당 채널 플레이어의 이탈시 예컨대 "#name 이탈"과 같은 시스템 메시지를 표시부(23)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction
특히, 인터렉션 서비스 제공부(22)는 서버(40)로부터 가상현실 사용자와 증강현실 사용자간의 동기화된 위치 및 좌표계 정보를 수신함에 따라, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터를 서로 동일한 좌표계에 근거하여 표시부(23)상에 화면표시할 수 있다.In particular, as the
표시부(23)는 해당 증강현실 사용자 단말(20)의 어플리케이션 화면안에 플레이어가 존재하는 경우 도 6에 예시한 바와 같이 해당 캐릭터(3D 모델)의 머리 위에 "#name"와 같은 표시를 디스플레이할 수 있다. When the player exists in the application screen of the augmented
표시부(23)는 해당 증강현실 사용자 단말(20)의 어플리케이션 화면을 벗어난 플레이어가 존재하는 경우 도 7에 예시한 바와 같이 카메라 중앙값 기준 0도 ~ 180도는 시야각 우측 끝라인에 순서대로 정렬해서 오른쪽 화살표 및 "#name"와 같은 표시를 디스플레이할 수 있다. 이때, 표시부(23)는 해당 플레이어의 "#name"이 아닌 각 화살표 앞에 상태아이콘을 표시할 수 있다.The
표시부(23)는 해당 증강현실 사용자 단말(20)의 어플리케이션 화면을 벗어난 플레이어가 존재하는 경우 도 7에 예시한 바와 같이 카메라 중앙값 기준 181도 ~ 360도는 시야각 좌측 끝라인에 순서대로 정렬해서 왼쪽 화살표 및 "#name"와 같은 표시를 디스플레이할 수 있다. 이때, 표시부(23)는 해당 플레이어의 "#name"이 아닌 각 화살표 앞에 상태아이콘을 표시할 수 있다.As illustrated in FIG. 7 , when a player outside the application screen of the augmented
표시부(23)는 플레이어가 음성 출력 상태일 때 플레이어 #name 앞에 "확성기 아이콘"을 표시할 수 있다.The
표시부(23)는 플레이어가 텍스트 채팅 박스 출력 상태일 때 플레이어 #name 앞에 "말풍선 아이콘"을 표시할 수 있다.The
도 4는 도 1에 도시된 서버의 내부 구성도이다.FIG. 4 is an internal configuration diagram of the server shown in FIG. 1 .
서버(40)는 디지털 트윈 영상 저장부(41), 수신부(42), 네트워크 채널 연결부(43), 위치 및 좌표계 동기화부(44), 인터렉션 서비스 제공부(45), 및 제어부(46)를 포함할 수 있다. 이와 같은 서버(40)는 본 발명의 청구범위에 기재된 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 장치가 될 수 있다.The
디지털 트윈 영상 저장부(41)는 지역별(구역별) 디지털 트윈 영상을 저장한다. 여기서, 디지털 트윈 영상은 실제 장비 또는 공간을 가상 세계(3차원 세계)에 쌍둥이처럼 똑같이 구현하는 디지털 트윈 기술로 제작된 영상으로서, 현실 공간의 물리적 객체(실제 사물 등)들에 대한 디지털 복제를 하여 만들어진 영상을 의미한다. 본 발명의 실시예에서는 이와 같은 디지털 트윈 영상으로 가상 공간(예컨대, 3차원 월드)이 구축된다.The digital twin
상술한 지역별 디지털 트윈 영상은 축척 및 비율을 유지하는 것이 바람직하다.It is desirable to maintain the scale and ratio of the digital twin image for each region described above.
예를 들어, 씬 내 임의의 좌표 A와 B를 특정하였다면 좌표 A와 B에 현실 세계에 대응하는 위도와 경도를 대입하여 전체 씬의 대입비율을 맞출 수 있다. 여기서, 씬은 가상공간의 단위를 의미한다. 가상공간은 디지털 트윈(digital twin)으로 제작된 3차원 월드를 의미한다. For example, if arbitrary coordinates A and B in the scene are specified, latitude and longitude corresponding to the real world can be substituted for coordinates A and B to match the substitution ratio of the entire scene. Here, the scene means a unit of virtual space. Virtual space refers to a three-dimensional world created by digital twins.
수신부(42)는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)로부터의 로그인 정보를 수신할 수 있다. The
또한, 수신부(42)는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)로부터의 실시간적인 위치 정보를 수신할 수 있다.In addition, the
또한, 수신부(42)는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)로부터의 네트워크 채널 생성 요청, 생성된 네트워크 채널로의 참여 요청, 참여한 네트워크 채널에서의 연결 해제(탈퇴) 요청 등을 수신할 수 있다.In addition, the receiving
네트워크 채널 연결부(43)는 수신부(42)에 수신된 네트워크 채널 생성 요청에 따라 해당하는 가상현실 사용자 단말(10) 또는 증강현실 사용자 단말(20)의 네트워크 채널을 생성하고, 다른 플레이어(즉, 다른 사용자 단말)과의 네트워크 채널 연결을 수행할 수 있다.The network
물론, 네트워크 채널 연결부(43)는 가상현실 사용자 단말(10) 또는 증강현실 사용자 단말(20)의 연결 해제(탈퇴) 요청이 있게 되면 해당 사용자 단말의 네트워크 채널을 연결 해제시킬 수 있다.Of course, the network
위치 및 좌표계 동기화부(44)는 가상현실 사용자 단말(10)과 증강현실 사용자 단말(20)간의 보다 효과적인 상호 인터렉션을 위해 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 현재 위치를 서로 동기화하고 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 좌표계를 서로 동기화시킨다.The location and coordinate
위치 및 좌표계 동기화부(44)는 동기화된 위치 및 좌표계 정보를 상호 인터렉션을 하는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)에게로 전송할 수 있다. The location and coordinate
다시 말해서, 가상현실 사용자 단말(10)에 증강현실 사용자의 캐릭터의 위치를 정확하게 표시하고 증강현실 사용자 단말(20)에 가상현실 사용자의 캐릭터의 위치를 정확하게 표시하기 위해서는, 가상현실 사용자와 증강현실 사용자의 캐릭터의 위치 정보는 서로 동기화되어야 하고, 가상현실 사용자 단말(10)의 3D씬의 좌표계와 증강현실 사용자 단말(20)의 좌표계는 서로 동일하여야 한다. 따라서 이를 위해, 위치 및 좌표계 동기화부(44)가 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 현재 위치 및 서로의 좌표계를 서로 동기화시킨다. In other words, in order to accurately display the position of the character of the augmented reality user on the virtual
이와 같이 하면 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터의 위치는 서로 동기화되고, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터는 서로 동일한 좌표계로 동기화되어 상대방의 단말에 화면표시될 수 있다. In this way, the positions of the virtual reality user's character and the augmented reality user's character are synchronized with each other, and the virtual reality user's character and the augmented reality user's character, whose positions are synchronized with each other, are synchronized with each other in the same coordinate system to display the screen on the other's terminal. can be displayed.
만약, 서로간의 좌표계가 상이하다면 서로의 단말에는 상대방의 캐릭터가 제대로 동기화되지 않을 것이고, 이로 인해 상대방의 위치식별이 어렵게 될 것이다.If the coordinate systems of each other are different, the characters of the other party will not be properly synchronized with each other's terminals, which will make it difficult to identify the position of the other party.
예를 들어, A 사무실에서 디지털 트윈을 통해 가상 공간으로 만들어진 "하늘역" 2번 출구에 온라인으로 접속해 있는 가상현실 사용자와 현실 공간인 실제의 "하늘역" 근처에서 스마트폰 증강현실 앱으로 접속해 있는 증강현실 사용자가 서로의 캐릭터를 통해서 네트워크 커뮤니케이션을 하는 것으로 가정하고 부연설명한다.For example, a virtual reality user who is online at Exit 2 of "Sky Station" created as a virtual space through a digital twin in Office A and an augmented reality app on a smartphone near the real "Sky Station" that is a real space It is assumed that augmented reality users are communicating through networks through each other's characters and explained further.
가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터의 위치는 서로 동기화되고 서로 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터는 서로 동일한 좌표계로 동기화된 상태에서, 가상현실 사용자는 가상현실로 접속한 가상 공간안에서 증강현실 사용자의 캐릭터를 보며 음성과 동작 등으로 인사를 하고, 자신의 캐릭터를 이동시켜 증강현실 사용자에게 자신을 따라오라며 A 사무실로 오는 길안내를 한다.The positions of the virtual reality user's character and the augmented reality user's character are synchronized with each other, and the synchronized virtual reality user's character and the augmented reality user's character are synchronized with each other in the same coordinate system, and the virtual reality user connects to virtual reality. In the virtual space, he sees the augmented reality user's character and greets him with voice and motion, and moves his character to guide the augmented reality user to the office A to follow him.
그에 따라, 증강현실 사용자는 스마트폰 AR 앱을 켜고 있는 현실 세계에서 가상현실 사용자의 음성을 들으며 채팅으로 대답을 하고, 화면에 비춰지는 가상현실 사용자의 캐릭터를 따라 걸어가며 A 사무실을 찾아가는 길을 안내받게 된다.Accordingly, the augmented reality user listens to the virtual reality user's voice in the real world with the smartphone AR app turned on, answers the chat, and walks along the virtual reality user's character projected on the screen to guide the way to the office A will receive
이와 같이 하면 증강현실 사용자는 A 사무실을 제대로 찾아갈 수 있게 된다.In this way, the augmented reality user will be able to visit Office A properly.
인터렉션 서비스 제공부(45)는 가상현실 사용자 단말(10)을 통해 가상현실 공간에서 수행되는 증강현실 사용자와의 상호 인터렉션 서비스를 제공할 수 있다. 이를 위해, 인터렉션 서비스 제공부(45)는 증강현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 가상현실 사용자 단말(10)에게로 다운로드할 수 있다.The interaction
또한, 인터렉션 서비스 제공부(45)는 증강현실 사용자 단말(20)을 통해 증강현실 공간에서 수행되는 가상현실 사용자와의 상호 인터렉션 서비스를 제공할 수 있다. 이를 위해, 인터렉션 서비스 제공부(45)는 가상현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 증강현실 사용자 단말(20)에게로 다운로드할 수 있다.In addition, the interaction
인터렉션 서비스 제공부(45)는 위치 및 좌표계 동기화부(44)에서 서로 동기화된 위치 정보(예컨대, XYX 좌표값)가 속해 있는 해당 지역의 디지털 트윈 영상을 디지털 트윈 영상 저장부(41)에서 추출하여 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)에게로 전송할 수 있다.The interaction
제어부(46)는 서버(40)의 전체적인 동작을 제어한다.The
이번에는, 상술한 바와 같이 구성된 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템의 작용에 대해 설명한다.This time, the operation of the interactive interaction service providing system between the virtual reality user and the augmented reality user configured as described above will be described.
도 7은 본 발명에 의한 가상현실 서비스와 증강현실 서비스의 상호 인터렉션 동기화 방법 설명도이다.7 is an explanatory diagram of a mutual interaction synchronization method between a virtual reality service and an augmented reality service according to the present invention.
서비스 대상지역에 대해 3D 모델링한 3D씬 또는 2D씬으로 가상공간 디지털 트윈 영상을 구축하는 단계(S11)와,A step (S11) of constructing a virtual space digital twin image with a 3D or 2D scene modeled in 3D for the service target area (S11);
가상공간 VR씬의 좌표를 현실세계의 위도 경도 좌표에 대입하여 좌표계를 맵핑시키고, 씬의 대입 비율을 맞추는 단계(S12)와,A step of mapping the coordinate system by substituting the coordinates of the virtual space VR scene to the latitude and longitude coordinates of the real world, and matching the substitution ratio of the scene (S12);
VR 캐릭터와 AR 클라이언트 캐릭터를 VR 씬에 로드시키고, VR 캐릭터는 AR 화면에 로드시키는 단계(S13)와,Loading the VR character and the AR client character into the VR scene, and loading the VR character on the AR screen (S13);
VR 캐릭터와 AR 클라이언트 캐릭터 위치를 추적하여 VR씬의 VR 캐릭터와 AR클라이언트 캐릭터 및 AR 화면의 VR캐릭터의 위치를 동기화시키는 단계(S14)와,A step of synchronizing the positions of the VR character in the VR scene, the AR client character, and the VR character in the AR screen by tracking the position of the VR character and the AR client character (S14);
위치가 출력된 VR캐릭터와 AR 클라이언트 캐릭터간의 네트워크를 통한 행동값을 주고받아 인터렉션 서비스를 제공하는 단계(S15)를 포함한다.and providing an interaction service by exchanging action values through a network between the VR character whose location is outputted and the AR client character (S15).
상기 위치를 동기화시키는 단계(S14)는, VR 캐릭터는 VR씬 내에서의 좌표정보를 추출하여 AR 화면에 VR캐릭터 출력 위치정보로 제공한다. AR 클라이언트 캐릭터는 AR 클라이언트의 사용자 단말의 위치정보로서, LBS로 로드시킨다. 즉, AR 클라이언트 사용자 단말의 LBS위치 정보를 추출하여 VR씬에 AR 클라이언트 캐릭터 위치를 로드시킨다. LBS 로드가 불가능할 경우 GPS로 로드한다. 또한, LBS를 기준으로 객체의 위치를 추적하여 출력하고, GPS값은 계속 측정하고 기록한다. LBS 출력값과 GPS 측정값의 오차를 지속적으로 연산하여 프로그램 구동 이후 둘의 평균 오차율을 예측, LBS 특성상 기지국 사이에 연결이 끊어졌다가 다시 접속되는 동안에 이 예측값을 대입하여 자연스럽게 위치 출력이 이어지도록 유지한다.In the step of synchronizing the position (S14), the VR character extracts coordinate information in the VR scene and provides it as output position information of the VR character on the AR screen. The AR client character is the location information of the user terminal of the AR client, and is loaded into the LBS. That is, the LBS location information of the AR client user terminal is extracted and the AR client character location is loaded in the VR scene. If LBS load is not possible, load it with GPS. In addition, the position of the object is tracked and output based on the LBS, and the GPS value is continuously measured and recorded. By continuously calculating the error between the LBS output value and the GPS measurement value, the average error rate of the two is predicted after the program is started. .
도 8은 본 발명에 의한 VR 클라이언트의 동작 설명도이다.8 is an explanatory diagram of the operation of the VR client according to the present invention.
VR 클라이언트의 동작을 살펴보면, 내캐릭터 출력(S21), 타 캐릭터 출력(S22), 오차보정 출력(S23)을 수행하고, 채널참가자 인지 UX(S24) 및 플레이어 캐릭터 표시 UX(S25)를 포함하여 제어된다.Looking at the operation of the VR client, it performs my character output (S21), other character output (S22), error correction output (S23), and controls including channel participant recognition UX (S24) and player character display UX (S25) do.
내 캐릭터 출력 단계(S21)는, 로그인 좌표를 확인하여 3D씬을 생성하고, 네트워크 채널 입장/생성을 제어한 후, VR 캐릭터를 3D 씬에 로드하고, VR사용자의 이동 입력값에 대응하여 화면제어 및 좌표를 기록한다. 이때 내캐릭터는 1인칭 시야 또는 3인칭 시야로 출력할 수 있다. In the step of outputting my character (S21), the 3D scene is created by checking the login coordinates, the network channel entry/generation is controlled, the VR character is loaded into the 3D scene, and the screen is controlled in response to the VR user's movement input value. and record the coordinates. In this case, my character can be output in a first-person view or a third-person view.
타 캐릭터 출력(S22)은, VR씬에 AR 클라이언트 사용자 단말에 대응된 캐릭터를 타 캐릭터로 출력하는 것을 말한다. 물론 또 다른 VR 사용자의 캐릭터도 타 캐릭터로서 표시할 수 있다. 네트워크 채털스캔 및 참여 플레이어 좌표값을 로드하고, 3D씬에 타 캐릭터 모델을 생성하여, 좌표변동에 따흔 출력 위치를 변경하며, 좌표 변동 이벤트시 애니메이션 재생 및 경로 연결을 수행한다.The other character output S22 refers to outputting a character corresponding to the AR client user terminal as another character in the VR scene. Of course, another VR user's character can be displayed as another character. It loads the network chattel scan and the coordinates of participating players, creates other character models in the 3D scene, changes the output position according to the coordinate change, and plays animations and connects the path when the coordinate change event occurs.
오차 보정 출력(S23)은, 타 캐릭터의 위치정보중 LBS좌표와 GPS 좌표 변동을 기록하고, 좌표 변경 방향 및 평균 이동 속도를 연산하며, 좌표 인식 불가시 가상 이동 경로를 생성하여 이동 애니메이션을 재생하며, 좌표 수신시 가상 경로 처리를 중지하고 보정 프로세스에 의해 덮어쓰기를 처리하여 정상 상태로 복귀한다.The error correction output (S23) records LBS coordinates and GPS coordinate changes among the location information of other characters, calculates the coordinate change direction and average movement speed, and plays a movement animation by creating a virtual movement path when coordinate recognition is not possible. , stop the virtual path processing upon receiving the coordinates and return to the normal state by processing the overwrite by the correction process.
채널 참가자 인지 UX(S24)는, 채널 화면 중앙을 기준으로 플레이어 참가 및 이탈이 플레이어 네임과 참가/이탈을 화면에 표시한다.Channel participant recognition UX (S24), based on the center of the channel screen, the player participation and departure, the player name and the participation / departure is displayed on the screen.
플레이어 캐릭터 표시 UX(S25)는, 내 캐릭터 화면 시야각을 기준으로 #name을 표시한다. 시야각을 벗어난 경우에는 벗어난 방향의 좌우측으로 화살표 및 #name을 표시하여 화면을 벗어난 타 캐릭터 및 벗어난 방향을 인지하게 한다.The player character display UX (S25) displays #name based on the viewing angle of my character screen. If the viewing angle is out of the way, arrows and #names are displayed to the left and right of the outward direction to recognize other characters off the screen and out of the way.
한편, 하나의 채널의 VR씬에 VR캐릭터와 적어도 하나 이상의 AR클라이언트 캐릭터를 표시할 때, 미니맵을 더 포함시키고, VR씬에 대응된 미니맵에 모든 캐릭터들의 위치를 추적표시할 수 있다.Meanwhile, when displaying a VR character and at least one AR client character in a VR scene of one channel, a minimap may be further included, and the positions of all characters may be tracked and displayed on the minimap corresponding to the VR scene.
도 9는 본 발명에 의한 AR 클라이언트의 동작 설명도이다.9 is an operation explanatory diagram of an AR client according to the present invention.
AR 사용자 단말의 동작 흐름도로서, 내화면 출력(S31), 타 캐릭터 출력(S32), 오차보정 출력(S33)을 수행하며, 채널 참자자 인지 UX(S34) 및 플레이어 캐릭터 표시 UX(S35)를 포함한다.As an operation flowchart of the AR user terminal, internal screen output (S31), other character output (S32), error correction output (S33) are performed, and channel participant recognition UX (S34) and player character display UX (S35) are included do.
내화면 출력(S31)은, 로그인 좌표를 확인하고, 3D씬 지역 구분 및 전방 카메라를 온시키며, 네트워크 채널에 입장하여 VR캐릭터를 로드시켜 화면에 출력하고, 이동에 따른 LBS 및 GPS 좌표 변동을 기록하고 서비스 지역 범위에 따른 제어를 수행한다. 즉, 전방 카메라에 의해 촬영되는 영상 화면인 내화면에 VR 캐릭터를 표시하고, AR 사용자 단말의 위치 좌표를 측정하여 기록하며, 3D씬의 서비스 지역 좌표와 비교하여 서비스 범위에 따른 VR캐릭터 출력을 제어한다.My screen output (S31) checks the log-in coordinates, divides the 3D scene area and turns on the front camera, enters the network channel, loads the VR character and outputs it on the screen, and records LBS and GPS coordinate changes according to movement and control according to the range of the service area. That is, the VR character is displayed on the inner screen, which is a video screen shot by the front camera, and the location coordinates of the AR user terminal are measured and recorded, and the VR character output is controlled according to the service area by comparing it with the service area coordinates of the 3D scene. do.
타 캐릭터 출력(S32)은, 네트워크 채널 참여 플레이어 좌표값을 로드하고, 타 캐릭터를 로드하며, 타캐릭터의 수평조절을 하고, 좌표 변동을 체크하여 출력 위치를 변경하며, 좌표 이동시 애니메이션 경로 연결을 수행한다.Other character output (S32) loads the network channel participating player coordinate values, loads other characters, horizontally adjusts other characters, changes the output position by checking coordinate changes, and performs animation path connection when coordinates are moved do.
오차 보정 출력(S33)은, 좌표변동을 기록하고, 좌표 변경방향 및 평균 이동속도를 연산하며 좌표 인식 불가시 가상 이동경를 생성하여 이동 애니메이션을 재생하고, 좌표정보 수신시 보정 프로세스에 덮어쓰기 처리를 한다.The error correction output (S33) records the coordinate change, calculates the coordinate change direction and the average movement speed, generates a virtual movement mirror when the coordinate is not recognized, plays the movement animation, and overwrites the correction process when receiving the coordinate information .
또한 채널 참가자 인지 UX(S34)는, 채널 화면 중앙을 기준으로 플레이어 참가 및 이탈이 플레이어 네임과 참가/이탈을 화면에 표시한다.In addition, the channel participant recognition UX ( S34 ) displays the player name and participation/departure of the player joining/leaving based on the center of the channel screen on the screen.
플레이어 캐릭터 표시 UX(S35)는, 내 캐릭터 화면 시야각을 기준으로 #name을 표시한다. 시야각을 벗어난 경우에는 벗어난 방향의 좌우측으로 화살표 및 #name을 표시하여 화면을 벗어난 타 캐릭터 및 벗어난 방향을 인지하게 한다.The player character display UX (S35) displays #name based on the viewing angle of the my character screen. If the viewing angle is out of the way, arrows and #names are displayed to the left and right of the outward direction to recognize other characters off the screen and out of the way.
또한, AR 클라이언트의 화면에 VR캐릭터와 적어도 하나 이상의 AR클라이언트 캐릭터를 표시할 때, 미니맵을 더 포함시키고, 미니맵에 모든 캐릭터들의 위치를 추적표시할 수 있다.In addition, when displaying a VR character and at least one AR client character on the screen of the AR client, a mini map may be further included, and the positions of all characters may be tracked and displayed on the mini map.
먼저, 서버(40)는 실제 장비 또는 공간을 가상 세계(3차원 세계)에 쌍둥이처럼 똑같이 구현하는 디지털 트윈 기술로 제작된 지역별(구역별) 디지털 트윈 영상을 디지털 트윈 영상 저장부(41)에 미리 저장해 둔다.First, the
가상현실 사용자는 증강현실 사용자와의 상호 인터렉션을 위해 증강현실 사용자와의 상호 인터렉션 서비스 앱을 활성화하고, 증강현실 사용자는 가상현실 사용자와의 상호 인터렉션을 위해 가상현실 사용자와의 상호 인터렉션 서비스 앱을 활성화한다.The virtual reality user activates the interactive interaction service app with the augmented reality user for mutual interaction with the augmented reality user, and the augmented reality user activates the interactive interaction service app with the virtual reality user for the interactive interaction with the virtual reality user do.
그리고 나서, 각자 네트워크(30)를 통해 서버(40)에 접속하여 로그인 등을 수행한 후에 네트워크 채널 연결(형성)을 요청한다.Then, each accesses the
그에 따라, 서버(40)는 가상현실 사용자 단말(10)과 증강현실 사용자 단말(20)간의 네트워크 채널을 연결(형성)한다.Accordingly, the
이때, 가상현실 사용자 단말(10)은 오차 보정된 가상현실 사용자의 현재의 위치정보를 서버(40)에게로 전송하고, 증강현실 사용자 단말(20)은 오차 보정된 증강현실 사용자의 현재의 위치정보를 서버(40)에게로 전송한다.At this time, the virtual
그에 따라, 서버(40)는 가상현실 사용자의 현재의 위치 및 증강현실 사용자의 현재의 위치를 포함하는 지역에 대한 디지털 트윈 영상을 디지털 트윈 영상 저장부(41)에서 추출하여 가상현실 사용자 단말(10)과 증강현실 사용자 단말(20)에게로 전송한다. 이와 함께, 서버(40)는 가상현실 사용자 단말(10)과 증강현실 사용자 단말(20)의 현재 위치를 서로 동기화하고, 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 좌표계를 서로 동기화시킨다. 그리고, 서버(40)는 이와 같이 동기화된 위치 및 좌표계 정보를 상호 인터렉션을 하고자 하는 사용자(즉, 네트워크 채널을 형성한 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20))에게로 전송한다.Accordingly, the
이와 같이 하면 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터의 위치는 서로 동기화되고, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터는 서로 동일한 좌표계로 동기화되어 상대방의 단말에 화면표시된다. 즉, 가상현실 사용자와 증강현실 사용자가 상호 인터렉션을 하는 동안에는, 가상현실 사용자 단말(10)에는 가상현실 사용자의 현재 위치 및 그 주변의 디지털 트윈 영상과 상대방(즉, 증강현실 사용자)의 캐릭터(3차원 모델)가 표시되고, 증강현실 사용자 단말(20)에는 증강현실 사용자의 현재 위치 및 그 주변의 카메라 영상(배경 영상)과 상대방(즉, 가상현실 사용자)의 캐릭터(3차원 모델)가 표시된다.In this way, the positions of the virtual reality user's character and the augmented reality user's character are synchronized with each other, and the virtual reality user's character and the augmented reality user's character, whose positions are synchronized with each other, are synchronized with each other in the same coordinate system to display the screen on the other's terminal. is displayed That is, while the virtual reality user and the augmented reality user interact with each other, the virtual
이와 같이 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터가 서로 동일한 좌표계로 동기화되어 상대방의 단말에 화면표시되면, 가상현실 사용자와 증강현실 사용자간에 보다 효과적인 상호 인터렉션을 수행할 수 있다.In this way, when the virtual reality user's character and the augmented reality user's character, whose positions are synchronized with each other, are synchronized with each other in the same coordinate system and displayed on the other's terminal, more effective mutual interaction between the virtual reality user and the augmented reality user can be performed. have.
다시 말해서, 상기에서 예로 든 A 사무실에서 디지털 트윈을 통해 가상 공간으로 만들어진 "하늘역" 2번 출구에 온라인으로 접속해 있는 가상현실 사용자와 현실 공간인 실제의 "하늘역" 근처에서 스마트폰 증강현실 앱으로 접속해 있는 증강현실 사용자가 서로의 캐릭터를 통해서 네트워크 커뮤니케이션을 하는 것에서와 같이, 매우 편리한 상호 인터렉션을 수행할 수 있다.In other words, a virtual reality user who is online at Exit 2 of "Sky Station" made into a virtual space through a digital twin in Office A in the example above, and a smartphone augmented reality near the real "Sky Station" which is a real space Augmented reality users connected to the app can perform very convenient mutual interactions, such as network communication through each other's characters.
한편, 상술한 바와 같은 본 발명의 실시예는 비대면 관광지 가이드 투어에도 적용가능하다. 예를 들어, 가이드는 집에서 접속하고 관광객은 현실에서 접속하여 상호 인터렉션을 수행할 수 있다.On the other hand, the embodiment of the present invention as described above is also applicable to non-face-to-face tour guide tours. For example, a guide can connect at home and a tourist can connect in real life to perform a mutual interaction.
또한, 상술한 바와 같은 본 발명의 실시예는 독거 치매 노인 위치 추적 및 미아 방지에도 적용가능하다. 예를 들어, 엄마 캐릭터를 보고 집 찾아 오기 등과 같이 사용자는 상호 인터렉션을 수행할 수 있다.In addition, the embodiment of the present invention as described above is applicable to tracking the location of the elderly living alone with dementia and preventing lost children. For example, the user may perform a mutual interaction, such as coming home after seeing the mother character.
또한, 상술한 바와 같은 본 발명의 실시예는 원격 지역행사 및 축제 참여에도 적용가능하고, 라이브커머스 등을 통한 현지 직거래 플랫폼에도 응용가능하다.In addition, the embodiment of the present invention as described above is applicable to remote local events and festival participation, and is also applicable to a local direct transaction platform through live commerce and the like.
또한, 상술한 바와 같은 본 발명의 실시예는 온라인 가상 현실 스마트시티 구축에도 적용가능하다.In addition, the embodiment of the present invention as described above is also applicable to online virtual reality smart city construction.
이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the best embodiment has been disclosed in the drawings and the specification. Although specific terms are used herein, they are used only for the purpose of describing the present invention, and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.
10 : 가상현실 사용자 단말
11, 21 : 위치 추적부
12, 22 : 인터렉션 서비스 제공부
13, 23 : 표시부
20 : 증강현실 사용자 단말
30 : 네트워크
40 : 서버10: virtual reality user terminal
11, 21: location tracking unit
12, 22: Interaction service provider
13, 23: display
20: augmented reality user terminal
30: network
40 : server
Claims (9)
서비스 대상지역에 대해 구축된 가상공간과 대응된 현실세계의 좌표를 맵핑하여 가상공간(VR씬)을 로드시켜 채널을 생성하고, 상기 VR씬에 VR 사용자의 내 캐릭터(VR캐릭터)를 출력하는 단계;
상기 채널에 접속된 하나 이상의 증강현실 사용자 단말의 위치에 대응하여 각각 VR씬에 해당 하나 이상의 증강현실 사용자에 대응되는 타 캐릭터(AR 캐릭터)를 출력하는 단계;
상기 AR 캐릭터의 위치정보 중 LBS좌표와 GPS 좌표 변동을 기록하고, 좌표 변경 방향 및 평균 이동 속도를 연산하며, 좌표 인식 불가시 가상 이동 경로를 생성하여 이동 애니메이션 재생으로 AR캐릭터의 위치변동 오차를 보정하는 단계; 를 포함하여
상기 위치가 출력된 객체간 네트워크를 통해 행동값을 주고받아 서로의 인터렉션을 발생시키는
서비스 제공 방법.A method of providing a VR client reference service providing a mutual interaction service between objects between a virtual reality user terminal providing a virtual reality (VR) service and an augmented reality user terminal providing an augmented reality (AR) service,
Creating a channel by loading a virtual space (VR scene) by mapping the coordinates of the virtual space constructed for the service target area and the corresponding real world, and outputting the VR user's my character (VR character) to the VR scene ;
outputting other characters (AR characters) corresponding to the one or more augmented reality users to a VR scene in response to the positions of one or more augmented reality user terminals connected to the channel;
Records LBS coordinates and GPS coordinate changes among the location information of the AR character, calculates the coordinate change direction and average movement speed, and creates a virtual movement path when coordinates cannot be recognized to do; including
Through the network between the objects whose positions are outputted, action values are exchanged to generate interaction with each other.
HOW TO PROVIDE SERVICES.
상기 내 캐릭터 출력 단계는,
로그인 접속 좌표 및 최종 기록좌표를 확인하여 3D씬을 생성하는단계;
네트워크 채널 입장 또는 생성을 하는 단계;
내 캐릭터(VR 캐릭터) 정보를 로드시켜, 상기 좌표값과 일치하는 3D 씬 위에 VR HMD 위치를 대응시키고 내캐릭터 3D 모델을 생성하는 단계;
이동 입력값에 따라 좌표 변동을 기록하면서 내캐릭터를 제어하는 단계; 를 포함하는
서비스 제공 방법.The method of claim 1,
The step of outputting my character is,
generating a 3D scene by checking the login connection coordinates and the final recorded coordinates;
entering or creating a network channel;
Loading my character (VR character) information, matching a VR HMD position on a 3D scene that matches the coordinate values, and generating a 3D model of my character;
controlling my character while recording the coordinate change according to the movement input value; containing
HOW TO PROVIDE SERVICES.
상기 3D모델을 생성하는 단계는,
1인칭 시점 및 핸드 모션 트래킹으로 제어되거나, PC나 모바일의 경우 지정된 디폴트 애니메이션 재생으로 제어되는
서비스 제공 방법.3. The method of claim 2,
Creating the 3D model includes:
Controlled by first-person view and hand motion tracking, or by playing a specified default animation for PC or mobile
HOW TO PROVIDE SERVICES.
플레이어의 좌표가 서비스 범위를 벗어날 수 없도록 이동제한 하되, 충돌체크와 워프는 예외 처리하는
서비스 제공 방법.3. The method of claim 2,
Movement is restricted so that the player's coordinates cannot go out of the service range, but collision check and warp are exceptions.
HOW TO PROVIDE SERVICES.
상기 타 캐릭터 출력은,
네트워크 채널을 미리 설정된 시간 간격마다 스캔하여 참여 플레이어 좌표값을 로드 시키는 단계;
타 캐릭터의 외형 중심 3D모델 및 복장에 대한 정보를 로드하는 단계;
상기 참여 플레이어 좌표값과 일치하는 3D씬 위에 해당 타 캐릭터 3D모델을 생성하는 단계;
상기 스캔 결과에 의거하여 좌표 변동 체크 및 출력 위치를 변경하는 단계;
새 좌표 기록시 이전 출력값과 차이점을 비교하고, 좌표 변동 이벤트 발생시 3D모델에 이동애니메이션 재생 및 경로 연결 처리를 하는 단계;
좌표 변동이 없는 경우 3D모델에 디폴트 애니메이션 재생하는 단계; 를 포함하는
서비스 제공 방법.The method of claim 1,
The other character output is
loading the participating player coordinates by scanning the network channel at preset time intervals;
Loading information about the appearance-oriented 3D model and clothes of other characters;
generating a 3D model of the other character on a 3D scene that matches the participating player's coordinates;
changing the coordinate change check and output position based on the scan result;
Comparing the difference with the previous output value when new coordinates are recorded, and when a coordinate change event occurs, moving animation playback and path connection processing are performed on the 3D model;
Playing a default animation on the 3D model when there is no coordinate change; containing
HOW TO PROVIDE SERVICES.
상기 타 캐릭터 해당 플레이어가 VR인 경우 HMD 및 트래킹 모션을 출력하는
서비스 제공 방법.6. The method of claim 5,
When the other character's corresponding player is VR, the HMD and tracking motion are output.
HOW TO PROVIDE SERVICES.
상기 오차보정 출력 단계는,
LBS 좌표 인식 불가시 기록된 GPS 데이터를 로드하되, GPS데이터 로드도 불가능 한 경우 최종 기록값에 3D 모델을 출력하고 디폴트 애니메이션 재생하거나 HMD 및 핸드 트래킹 모션 출력하는 단계;
기록된 GPS 좌표의 소정횟수에 대한 좌표 변경 방향 및 평균 이동 속도를 연산하는 단계;
LBS 좌표 인식 불가 상태의 3D 모델에 상기 좌표 변경 방향 및 평균 이동 속도를 연산결과를 적용하여 좌표의 가상 이동 경로 생성 및 '이동 애니메이션' 재생하는 단계;
신규 LBS 좌표값 수신 시 가상 경로 처리 중지, 정상 출력 프로세스로 보정 프로세스에 덮어쓰기 처리하는 단계; 를 포함하는
서비스 제공 방법.The method of claim 1,
The error correction output step is
Loading the recorded GPS data when LBS coordinate recognition is not possible, but outputting a 3D model to the final recorded value when loading GPS data is not possible, and playing a default animation or outputting HMD and hand tracking motion;
calculating a coordinate change direction and an average moving speed for a predetermined number of recorded GPS coordinates;
generating a virtual movement path of the coordinates and playing a 'moving animation' by applying the calculation result of the coordinate change direction and the average movement speed to the 3D model in a state where the LBS coordinates cannot be recognized;
stopping the virtual path processing upon receiving a new LBS coordinate value, overwriting the correction process with a normal output process; containing
HOW TO PROVIDE SERVICES.
채널 참가자 인지 UX는, 채널 화면 중앙을 기준으로 플레이어 참가 및 이탈이 플레이어 네임과 참가/이탈을 화면에 표시하고,
플레이어 캐릭터 표시 UX는, 내 캐릭터 화면 시야각을 기준으로 #name을 표시하며, 시야각을 벗어난 경우에는 벗어난 방향의 좌우측으로 화살표 및 #name을 표시하여 화면을 벗어난 타 캐릭터 및 벗어난 방향을 인지하게 하는
서비스 제공방법.The method of claim 1,
Channel participant recognition UX, based on the center of the channel screen, when players join and leave, the player name and join/leave are displayed on the screen,
The player character display UX displays the #name based on the viewing angle of my character's screen, and if it is out of the viewing angle, arrows and #names are displayed to the left and right of the outward direction to recognize other characters off the screen and the outward direction.
How to provide services.
하나의 채널의 VR씬에 VR캐릭터와 적어도 하나 이상의 AR클라이언트 캐릭터를 표시할 때, 미니맵을 더 포함시키고, VR씬에 대응된 미니맵에 모든 캐릭터들의 위치를 추적표시하는
서비스 제공 방법.The method of claim 1,
When displaying a VR character and at least one AR client character in a VR scene of one channel, a mini map is further included, and the positions of all characters are tracked and displayed on the mini map corresponding to the VR scene.
HOW TO PROVIDE SERVICES.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210029495A KR20220125540A (en) | 2021-03-05 | 2021-03-05 | A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210029495A KR20220125540A (en) | 2021-03-05 | 2021-03-05 | A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220125540A true KR20220125540A (en) | 2022-09-14 |
Family
ID=83278942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210029495A KR20220125540A (en) | 2021-03-05 | 2021-03-05 | A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220125540A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116682304A (en) * | 2023-08-03 | 2023-09-01 | 江西格如灵科技股份有限公司 | Teaching method, system, storage medium and device in virtual reality environment |
CN117475041A (en) * | 2023-12-28 | 2024-01-30 | 湖南视觉伟业智能科技有限公司 | Digital twin shore bridge simulation method based on RCMS |
WO2024122946A1 (en) * | 2022-12-08 | 2024-06-13 | 삼성전자 주식회사 | Electronic device for displaying virtual object, and operating method thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050061856A (en) | 2003-12-18 | 2005-06-23 | 한국전자통신연구원 | Automatic guide service system using virtual reality and service method thereof |
-
2021
- 2021-03-05 KR KR1020210029495A patent/KR20220125540A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050061856A (en) | 2003-12-18 | 2005-06-23 | 한국전자통신연구원 | Automatic guide service system using virtual reality and service method thereof |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024122946A1 (en) * | 2022-12-08 | 2024-06-13 | 삼성전자 주식회사 | Electronic device for displaying virtual object, and operating method thereof |
CN116682304A (en) * | 2023-08-03 | 2023-09-01 | 江西格如灵科技股份有限公司 | Teaching method, system, storage medium and device in virtual reality environment |
CN116682304B (en) * | 2023-08-03 | 2023-11-07 | 江西格如灵科技股份有限公司 | Teaching method, system, storage medium and device in virtual reality environment |
CN117475041A (en) * | 2023-12-28 | 2024-01-30 | 湖南视觉伟业智能科技有限公司 | Digital twin shore bridge simulation method based on RCMS |
CN117475041B (en) * | 2023-12-28 | 2024-03-29 | 湖南视觉伟业智能科技有限公司 | Digital twin shore bridge simulation method based on RCMS |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11050977B2 (en) | Immersive interactive remote participation in live entertainment | |
US20200118343A1 (en) | Methods, systems and devices supporting real-time interactions in augmented reality environments | |
WO2020090786A1 (en) | Avatar display system in virtual space, avatar display method in virtual space, and computer program | |
Broll et al. | Meeting technology challenges of pervasive augmented reality games | |
US20180324229A1 (en) | Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device | |
US8018455B2 (en) | Multi-user animation coupled to bulletin board | |
KR20220125540A (en) | A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space | |
CN100442313C (en) | Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer readable recording medium where the program is recorded | |
KR20220125539A (en) | Method for providing mutual interaction service according to location linkage between objects in virtual space and real space | |
US20120050325A1 (en) | System and method for providing virtual reality linking service | |
CN105450736B (en) | Method and device for connecting with virtual reality | |
CN108144294B (en) | Interactive operation implementation method and device and client equipment | |
KR20220125536A (en) | System and operating method for providing mutual interaction service between virtual reality users and augmented reality users | |
CN112312111A (en) | Virtual image display method and device, electronic equipment and storage medium | |
US20090262194A1 (en) | Interactive Media and Game System for Simulating Participation in a Live or Recorded Event | |
CN105843396A (en) | Maintaining multiple views on a shared stable virtual space | |
CN111744202A (en) | Method and device for loading virtual game, storage medium and electronic device | |
CN107185245B (en) | SLAM technology-based virtual and real synchronous display method and system | |
CN111744180A (en) | Method and device for loading virtual game, storage medium and electronic device | |
US20230162433A1 (en) | Information processing system, information processing method, and information processing program | |
KR102549072B1 (en) | Method and apparatus for user interaction based on digital twin | |
KR20220125538A (en) | A system for linking locations between objects in virtual space and real space using a network | |
Iacoviello et al. | HoloCities: a shared reality application for collaborative tourism | |
KR20220094662A (en) | Method and system for multilateral remote collaboration based on real-time coordinate sharing | |
KR20220125541A (en) | Method for providing mutual interaction service based on augmented reality client according to location linkage between objects in virtual space and real space |