KR102425624B1 - Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal - Google Patents
Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal Download PDFInfo
- Publication number
- KR102425624B1 KR102425624B1 KR1020210138092A KR20210138092A KR102425624B1 KR 102425624 B1 KR102425624 B1 KR 102425624B1 KR 1020210138092 A KR1020210138092 A KR 1020210138092A KR 20210138092 A KR20210138092 A KR 20210138092A KR 102425624 B1 KR102425624 B1 KR 102425624B1
- Authority
- KR
- South Korea
- Prior art keywords
- avatar
- emoji
- sensor
- gesture
- user
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법 및 이를 위한 시스템에 관한 것이다. The present invention relates to a method for transmitting a gesture or emoji of an avatar in a virtual space using a sensor operation signal of a user terminal, and a system for the same.
최근 이동통신 기술 및 통신 단말 기술의 발달로, 사용자가 이동 중에도 스마트폰(smart phone), 태블릿 PC(tablet PC), 랩톰(lap top) 등과 같은 사용자 단말(user terminal)을 이용하여 무선 통신 네트워크에 접속할 수 있으며, 사용자 단말에 설치된 다양한 애플리케이션 또는 프로그램을 통해 다양한 업무를 수행할 수 있다. With the recent development of mobile communication technology and communication terminal technology, a user can access a wireless communication network using a user terminal such as a smart phone, a tablet PC, and a lap top while moving. It can be accessed, and various tasks can be performed through various applications or programs installed in the user terminal.
사용자 단말은 기본적인 통화와 메시지 전송 외에도, 단말에 내장된 센서 혹은 단말과 연결된 센서를 이용하여 애플리케이션과 연결된 가상 공간 관리 시스템으로 다양한 신호를 보낼 수 있다. In addition to basic call and message transmission, the user terminal can send various signals to the virtual space management system connected to the application by using a sensor built into the terminal or a sensor connected to the terminal.
가상 공간 서비스 시스템에서는 주로 아바타를 통해 식별하고, 상대방과의 소통을 하게 되는데, 통화나 채팅과 같은 언어적인 소통 수단 외에도 제스처, 이모지 등과 같은 비언어적인 소통 수단을 통해 상대방과 소통할 수 있다. 사용자 단말의 센서 동작 신호를 이용하여 좀더 쉽게 가상 공간 내에서 아바타의 제스처, 이모지를 전달하거나 표시하는데 목적이 있다. In the virtual space service system, identification is mainly performed through an avatar and communication with the other party is performed. In addition to verbal communication methods such as calls or chatting, non-verbal communication methods such as gestures and emojis can be used to communicate with the other party. An object of the present invention is to transmit or display an avatar's gesture or emoji in a virtual space more easily by using a sensor operation signal of a user terminal.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기 과제를 해결하기 위한 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법은 상기 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 단계; 상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 단계; 상기 사용자 단말에서 획득된 로그인 정보 및 센서 동작 신호를 가상 공간 관리 시스템으로 전송하는 단계; 상기 가상 공간 관리 시스템에서, 수신된 상기 로그인 정보 및 센서 동작 신호에 기초하여, 아바타의 제스처나 이모지를 결정하는 단계; 결정된 아바타의 제스처나 이모지의 이미지를 생성하는 단계; 및 상기 가상 공간 관리 시스템에서, 연동된 각 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 단계를 포함한다. According to an exemplary embodiment, a method for transmitting a gesture or emoji of an avatar in a virtual space using a sensor operation signal of a user terminal includes: obtaining login information from a user in the user terminal; obtaining a sensor operation signal of each user terminal in the user terminal; transmitting the login information and the sensor operation signal obtained from the user terminal to a virtual space management system; determining, in the virtual space management system, a gesture or an emoji of an avatar based on the received login information and a sensor operation signal; generating an image of the determined avatar's gesture or emoji; and transmitting, in the virtual space management system, an avatar gesture or an emoji to each linked user terminal.
상기 센서 동작 신호를 획득하는 단계에서, 상기 사용자 단말의 센서 동작 획득부를 통해 수행될 수 있다.The acquiring of the sensor operation signal may be performed through a sensor operation acquiring unit of the user terminal.
상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나일 수 있다.The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and It may be any one of angle sensing sensors.
상기 아바타의 제스처나 이모지를 결정하는 단계에서, 상기 아바타의 제스터나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정될 수 있다.In the determining of the gesture or emoji of the avatar, the gesture or emoji of the avatar may be determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor.
상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The user terminal further includes an auxiliary sensor, wherein the auxiliary sensor includes an illuminance sensor, and the gesture or emoji of the avatar in consideration of ambient illuminance sensed by the illuminance sensor in the step of generating the gesture or emoji of the avatar It can be determined whether or not
상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려할 수 있다.The auxiliary sensor further includes a distance measuring sensor, and considering the distance between the ambient illuminance sensed in the step of generating the gesture or emoji of the avatar and the surrounding object forming the ambient illuminance sensed through the distance measuring sensor can
상기 과제를 해결하기 위한 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법을 이용한 시스템은 상기 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 사용자 관리부; 상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 센서 동작 획득부; 상기 사용자 단말에서 전송된 획득된 센서 동작 신호를 수신하는 센서 동작 수신부; 수신된 센서 동작 신호 및 상기 로그인 정보에 기초하여, 아바타의 제스처나 이모지를 결정하는 아바타 제스터/이모지 결정부; 결정된 아바타의 제스처나 이모지를 생성하는 아바타 제스처/이모지 생성부; 및 연동된 각 상기 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 전송부를 포함한다.A system using a method for transmitting an avatar's gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment for solving the above problem includes: a user manager configured to obtain login information from a user in the user terminal; a sensor operation acquisition unit for acquiring a sensor operation signal of each user terminal from the user terminal; a sensor operation receiving unit for receiving the acquired sensor operation signal transmitted from the user terminal; an avatar jester/emoji determiner configured to determine a gesture or an emoji of the avatar based on the received sensor operation signal and the login information; an avatar gesture/emoji generator for generating the determined gesture or emoji of the avatar; and a transmitter for transmitting an avatar gesture or emoji to each of the linked user terminals.
상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나일 수 있다.The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and It may be any one of angle sensing sensors.
상기 아바타의 제스터나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정될 수 있다.The jester or emoji of the avatar may be determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor.
상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성부는 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The user terminal further includes an auxiliary sensor, the auxiliary sensor includes an illuminance sensor, and the avatar gesture or emoji generating unit generates the avatar gesture or emoji in consideration of ambient illuminance sensed by the illuminance sensor. can determine whether
상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성부는 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The auxiliary sensor may further include a distance measuring sensor, and the gesture or emoji generating unit of the avatar considers the distance between the sensed ambient illuminance and the peripheral object forming the ambient illuminance sensed through the distance measuring sensor. It is possible to determine whether an avatar gesture or an emoji is generated.
실시예들에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법 및 이를 위한 시스템에 따르면, 사용자 단말의 센서 동작 신호를 이용하여 좀더 쉽게 가상 공간 내에서 아바타의 제스처, 이모지를 전달하거나 표시할 수 있다.According to a method and a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to embodiments, the gesture of the avatar in a virtual space more easily using a sensor operation signal of a user terminal , can convey or display an emoji.
실시예들에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the embodiments are not limited by the contents exemplified above, and more various effects are included in the present specification.
도 1은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 구성 환경도이다.
도 2는 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 상세 구성도이다.
도 3 내지 도 8은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 여러 센서 동작을 보여주는 모식도들이다.
도 9는 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 아바타 제스처/이모지 결정부를 보여주는 블록도이다.
도 10은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 아바타 제스처/이모지 결정부의 상세 구성을 보여주는 블록도이다.
도 11은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 보여주는 순서도이다.1 is a configuration environment diagram of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
2 is a detailed configuration diagram of a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
3 to 8 are schematic diagrams illustrating various sensor operations of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
9 is a block diagram illustrating an avatar gesture/emoji determining unit of a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
10 is a block diagram illustrating a detailed configuration of an avatar gesture/emoji determining unit of a system for a method for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
11 is a flowchart illustrating a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an exemplary embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.
소자(elements) 또는 층이 다른 소자 또는 층의 "상(on)"으로 지칭되는 것은 다른 소자 바로 위에 또는 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 실시예들을 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되지 않는다.Reference to an element or layer "on" of another element or layer includes any intervening layer or other element directly on or in the middle of the other element or layer. Like reference numerals refer to like elements throughout. The shapes, sizes, proportions, angles, numbers, etc. disclosed in the drawings for explaining the embodiments are illustrative and the present invention is not limited to the illustrated matters.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하고, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시할 수도 있다.Each feature of the various embodiments of the present invention may be partially or wholly combined or combined with each other, technically various interlocking and driving are possible, and each of the embodiments may be implemented independently of each other or may be implemented together in a related relationship. may be
이하 첨부된 도면을 참조하여 구체적인 실시예들에 대해 설명한다.Hereinafter, specific embodiments will be described with reference to the accompanying drawings.
도 1은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 구성 환경도이다.1 is a configuration environment diagram of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
도 1은 본 발명의 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템(10)의 구성 환경도로서, 도시된 바와 같이, 복수의 서로 다른 사용자 단말들, 가상 공간 관리 시스템(100), 및 복수의 서로 다른 사용자 단말들과 가상 공간 관리 시스템(100)을 연동시키는 시스템 서버를 포함하여 구성될 수 있다. 상기 연동은 통신망에 의해 구현될 수 있다. 1 is a configuration environment diagram of a
이때, 가상 공간 관리 시스템(100)는 서버로 구성될 수 있다.In this case, the virtual
또한, 본 발명에서 설명하는 통신망은 유/무선 통신망을 포함할 수 있으며, 이러한 무선 통신망의 일례로 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS), 5G 이동통신 서비스, 블루투스(Bluetooth), LoRa(Long Range), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신망으로는 유선 LAN(Local Area Network), 유선 WAN(Wide Area Network), 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.In addition, the communication network described in the present invention may include a wired/wireless communication network, and as an example of such a wireless communication network, a wireless LAN (WLAN), a DLNA (Digital Living Network Alliance), a Wibro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice- Data Only), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-A (LTE-A) Advanced), Wireless Mobile Broadband Service (WMBS), 5G mobile communication service, Bluetooth (Bluetooth), LoRa (Long Range), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct may be included. In addition, wired communication networks include wired LAN (Local Area Network), wired WAN (Wide Area Network), Power Line Communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cables, etc. may be included.
또한, 상기 사용자 단말은 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함) 등과 같은 다양한 단말기를 포함할 수 있다.In addition, the user terminal includes a smart phone, a portable terminal, a mobile terminal, a personal digital assistant (PDA), a personal computer, a notebook computer, and a slate PC. (Slate PC), tablet PC (Tablet PC), ultrabook (ultrabook), wearable device (Wearable Device, for example, watch-type terminal (Smartwatch), glass-type terminal (Smart Glass), HMD (Head Mounted Display), etc. included) and the like).
이하, 상술한 구성을 바탕으로, 본 발명의 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템(10)의 상세 구성을 설명한다.Hereinafter, a detailed configuration of the
도 2는 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 상세 구성도이다.2 is a detailed configuration diagram of a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
도 1 및 도 2를 참조하면, 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템(10)은 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 사용자 관리부(110); 상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 센서 동작 획득부(210); 상기 사용자 단말에서 전송된 획득된 센서 동작 신호를 수신하는 센서 동작 수신부(120); 수신된 센서 동작 신호 및 상기 로그인 정보에 기초하여, 아바타의 제스처나 이모지를 결정하는 아바타 제스터/이모지 결정부(130); 결정된 아바타의 제스처나 이모지를 생성하는 아바타 제스처/이모지 생성부(140); 및 연동된 각 상기 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 전송부(150)를 포함할 수 있다.1 and 2, the
사용자 관리부(110), 센서 동작 수신부(120), 아바타 제스터/이모지 결정부(130), 아바타 제스처/이모지 생성부(140), 및 전송부(150)는 제어부(101)에 의해 구성될 수 있다. The
몇몇 실시예에서, 사용자 관리부(110), 센서 동작 수신부(120), 아바타 제스터/이모지 결정부(130), 아바타 제스처/이모지 생성부(140), 및 전송부(150) 중 다른 하나는 제어부(101)에 구성되지 않고 별도의 장치에 의해 구성될 수 있음은 물론이다.In some embodiments, the other of the
또한, 상기 제어부(101)는 상기 가상 공간 관리 시스템(100)의 저장부에 저장된 프로그램 및 데이터를 이용하여 상기 가상 공간 관리 시스템(100)의 전반적인 제어 기능을 실행할 수 있으며, 상기 제어부(101)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다.In addition, the control unit 101 may execute an overall control function of the virtual
또한, 상기 가상 공간 관리 시스템(100)은 상기 제어부(101) 이외에도 사용자 입력을 수신하는 사용자 입력부와, 사용자 단말과 가상 공간 관리 시스템(100)과의 통신을 위한 통신부, 각종 정보를 저장하는 저장부, 각종 정보를 표시하는 표시부 등과 같은 다양한 구성부를 포함하여 구성될 수 있으며, 상기 가상 공간 관리 시스템(100)을 구성하는 구성부들은 상기 제어부(101)에 의해 제어될 수 있다.In addition to the control unit 101 , the virtual
상술한 구성을 토대로, 상기 회원 관리부(110)는 복수의 서로 사용자(또는 회원)별로 사용자 정보를 수신하여 회원 정보로 등록할 수 있다.Based on the above-described configuration, the
이때, 상기 회원 관리부(110)는 복수의 서로 다른 사용자(또는 회원)별로 개인 단말기로부터 상기 사용자 정보를 수신하여 상기 가상 공간 관리 시스템(100)에 포함된 회원 DB(102)에 등록할 수 있다.In this case, the
가상 공간 관리 시스템(100)은 사용자 관리부(110), 센서 동작 수신부(120), 아바타 제스터/이모지 결정부(130), 아바타 제스처/이모지 생성부(140), 및 전송부(150)를 포함하고, 사용자 단말기(200)의 시스템은 센서 동작 획득부(210), 및 복수의 센서들을 포함할 수 있다. 상기 복수의 센서들은 제1 센서(220), 제2 센서(230), 제3 센서(240), 및 보조 센서(250)를 포함할 수 있다. 보조 센서(250)는 다수의 센서들을 포함할 수 있다. 보조 센서(250)는 조도 센서, 및 거리 측정 센서를 포함할 수 있다.The virtual
센서 동작 획득부(210)는 사용자 단말기(200)의 시스템에 포함되어, 사용자가 사용하는 단말기(200)의 동작 센싱 정보를 획득할 수 있다. 상기 동작 센싱 정보는 상술한 센서(220, 230, 240)들을 통해 생성될 수 있다. 센서(220, 230, 240)들은 서로 상이한 센서들일 수 있다. 예를 들어, 센서(220, 230, 240)들은 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나일 수 있다. 예를 들어, 제1 센서(220)는 가속도 센싱 센서를 포함하고, 제2 센서(230)는 자이로스코프 센서를 포함하고, 제3 센서(240)는 각도 센싱 센서를 포함할 수 있다. 본 명세서에서는, 보조 센서(250)들을 제외한 단말기(200) 동작을 센싱하는 센서들이 3개인 것으로 예시하였지만, 해당 센서들이 개수는 4개 이상일 수도 있다. The sensor
이하에서, 단말기(200)의 동작을 설명하기에 앞서, 방향을 정의하기로 한다. Hereinafter, before describing the operation of the terminal 200, a direction will be defined.
도 3 내지 도 8은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 여러 센서 동작을 보여주는 모식도들이다.3 to 8 are schematic diagrams illustrating various sensor operations of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
도 2와 함께 도 3 내지 도 8을 참조하면, 제1 방향(X 방향), 제2 방향(Y 방향), 및 제3 방향(Z 방향)이 정의될 수 있다. 제1 방향(X 방향), 제2 방향(Y 방향), 및 제3 방향(Z 방향)은 상호 교차될 수 있다. 예를 들어, 제1 방향(X 방향), 제2 방향(Y 방향), 및 제3 방향(Z 방향)은 서로 직교할 수 있다.3 to 8 together with FIG. 2 , a first direction (X direction), a second direction (Y direction), and a third direction (Z direction) may be defined. The first direction (X direction), the second direction (Y direction), and the third direction (Z direction) may cross each other. For example, the first direction (X direction), the second direction (Y direction), and the third direction (Z direction) may be orthogonal to each other.
사용자 단말기(200)의 센서 동작 신호는 단말기(200)의 센서 동작을 통해 생성될 수 있다. 센서 동작 획득부(210)는 생성된 센서 동작 신호를 획득 및 저장할 수 있다. 단말기(200)의 센서 동작은 쉐이킹, 및 회전 센서 동작을 포함할 수 있다. 예를 들어, 단말기(200)의 센서 동작 중 쉐이킹은 좌우 쉐이킹(X축 쉐이킹)(기준 거리: d1), 상하 쉐이킹(Z축 쉐이킹) (기준 거리: d3), 및 전후 쉐이킹(Y축 쉐이킹) (기준 거리: d2)을 포함하고, 단말기(200)의 센서 동작 중 회전은 Y축을 중심축으로 하는 회전(예컨대, 360도), X축을 중심축으로 하는 회전(예컨대, 360도), 및 Z축을 중심축으로 하는 회전(예컨대, 360도)을 포함할 수 있다. 다만, 예시된 단말기(200)의 센서 동작은 이에 제한되지 않고 본 기술 분야의 다양한 센서 동작을 포함할 수 있다. 상기 다양한 센서 동작은 상술한 센서(220, 230, 240)들의 조합을 통해 인식할 수 있는 다양한 센서 동작들을 포함할 수 있다.A sensor operation signal of the
우선, 도 3(a) 및 도 3(b)에는, 좌우 쉐이킹(X축 쉐이킹)(기준 거리: d1)이 예시되어 있다.First, in Figs. 3(a) and 3(b), left-right shaking (X-axis shaking) (reference distance: d1) is exemplified.
도 4에는 전후 쉐이킹(Y축 쉐이킹) (기준 거리: d2)이 예시되어 있다.4 exemplifies forward and backward shaking (Y-axis shaking) (reference distance: d2).
도 5에는 상하 쉐이킹(Z축 쉐이킹) (기준 거리: d3)이 예시되어 있다.5 exemplifies vertical shaking (Z-axis shaking) (reference distance: d3).
도 6에는 Y축을 중심축으로 하는 회전(예컨대, 360도)이 예시되어 있다.6 illustrates rotation (eg, 360 degrees) about the Y axis.
도 7에는 X축을 중심축으로 하는 회전(예컨대, 360도)이 예시되어 있다.7 illustrates rotation (eg, 360 degrees) about the X axis.
도 8에는 Z축을 중심축으로 하는 회전(예컨대, 360도)이 예시되어 있다.8 illustrates rotation (eg, 360 degrees) about the Z axis.
하기의 표 1에는 도 3 내지 도 8에 도시된 센서 동작들, 및 이에 의해 결정되는 아바타 동작 및 이모지를 나타내고 있다. 하기의 표에는 아바타 동작이 2D 상에서 이루어진 것만을 예시하였지만, 이에 제한되지 않고 아바타 동작은 3D 상에서도 이루어질 수 있으며, 더 나아가, 아바타 동작뿐만 아니라, 아바타로부터 나오는 음향효과, 아바타 자체 색상효과를 포함할 수 있음은 물론이다. Table 1 below shows the sensor actions shown in FIGS. 3 to 8 , and the avatar action and emoji determined by the sensor actions. The table below exemplifies only the avatar motions performed in 2D, but the present invention is not limited thereto, and the avatar motions can be performed in 3D. of course there is
도 9는 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 아바타 제스처/이모지 결정부를 보여주는 블록도이다.9 is a block diagram illustrating an avatar gesture/emoji determining unit of a system for a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
도 9를 참조하면, 아바타 제스처/이모지 결정부(130)는 복수개로 마련될 수 있다. 즉, 아바타 제스처/이모지 결정부(130)는 제1 결정부(130a), 및 제2 결정부(130b)를 포함할 수 있다. 본 실시예에서, 아바타 제스처/이모지 결정부(130)가 복수개로 마련된 이유는, 사용자의 편의성 및 아바타 사용 자유도를 개선하기 위함이다. 아바타 제스처/이모지 결정부(130)는 도 10에서 후술할 마이 설정부(131)를 통해 미리 저장된 설정에 의해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 결정할 수 있다. 예를 들어, 표 1에서 상술한 바와 같이, 좌우 쉐이킹(X축 쉐이킹)(기준 거리: d1), 상하 쉐이킹(Z축 쉐이킹) (기준 거리: d3), 전후 쉐이킹(Y축 쉐이킹) (기준 거리: d2), Y축을 중심축으로 하는 회전(예컨대, 360도), X축을 중심축으로 하는 회전(예컨대, 360도), 및 Z축을 중심축으로 하는 회전(예컨대, 360도)에 따라 각각 상이한 아바타 동작, 이모지가 표현되도록 설정할 수 있다. 다만, 아바타의 제스처/이모지를 결정함에 있어, 사용자는 상이한 상황에서 서로 다른 제스처/이모지를 결정하기를 원할 수 있다. 예를 들어, 사용자가 친구, 가족 등 편한 사람들과 소통할 때와, 사용자가 직장 동료, 상사, 또는 클라이언트 등 형식적 관계를 갖는 사람들과 소통할 때, 같은 센서 동작 신호더라도 서로 다른 아바타 동작, 또는 이모지가 표현되기를 원할 수 있다. 이를 위해, 아바타 제스처/이모지 결정부(130)는 복수의 결정부(130a, 130b)로 구성됨으로써, 상황에 따른 서로 다른 아바타의 제스처 또는 이모지를 결정할 수 있다.Referring to FIG. 9 , a plurality of avatar gesture/
도 10은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템의 아바타 제스처/이모지 결정부의 상세 구성을 보여주는 블록도이다.10 is a block diagram illustrating a detailed configuration of an avatar gesture/emoji determining unit of a system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an embodiment.
도 10을 참조하면, 각각의 결정부는 마이 설정부(131), 지정 사용자 설정 공유부(132), 다수 사용자 설정 공유부(133), 결정 화면 출력부(134), 결정 화면 ON/Off 제어부(135), 및 마이 설정 자동화 선택부(136)를 포함할 수 있다. 마이 설정부(131)는 상술한 바와 같이, 미리 저장된 설정에 의해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 결정할 수 있다. 마이 설정부(131)의 설정 주체는 단말기(200)의 사용자일 수 있다. 몇몇 실시예에서, 마이 설정부(131)는 사용자 설정 없이, 가장 많이 사용되는 설정(획득된 센서 동작 신호에 따른 아바타 제스처 또는 이모지 설정)으로 초기화 설정될 수도 있다.Referring to FIG. 10 , each decision unit includes a my
지정 사용자 설정 공유부(132)는 도 2에 도시된 바와 같이, 사용자와 타 사용자와의 마이 설정부 공유를 가능하게 한다. 더욱 상세히 설명하면, 사용자는 마이 설정부(131)를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 결정하는데, 또는 상술한 몇몇 실시예에 따른 초기화 설정되어 결정하는데, 상기 타 사용자와 친밀한 관계가 있는 경우, 상기 타 사용자의 해당 시스템 사용 경험에 비추어 가장 편하고 가장 많이 이용되는 획득된 센서 동작 신호에 따른 아바타 제스처 또는 이모지 결정 설정을 그대로 사용하고 싶을 수 있다. 이 경우, 상술한 지정 사용자 설정 공유부(132)를 통해, 상기 사용자와 상기 타 사용자가 가상 공간 관리 시스템(100)에 동시에 접속하면, 상기 타 사용자의 마이 설정부(131)로부터 결정 관련 설정을 그대로 상기 사용자의 마이 설정부(131)에 붙여 넣기 할 수 있다.The designated user setting
다수 사용자 설정 공유부(133)는 상술한 지정 사용자 설정 공유부(132)와 달리, 사용자와 다수 사용자와의 마이 설정부 공유를 가능하게 한다. 더욱 상세히 설명하면, 사용자는 마이 설정부(131)를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 결정하는데, 또는 상술한 몇몇 실시예에 따른 초기화 설정되어 결정하는데, 다수 사용자들이 사용하는 결정 설정을 그대로 사용하고 싶을 수 있다. 상기 다수 사용자들이 사용하는 결정 설정은 각각의 획득된 센서 동작 신호 별로 결정된 아바타 제스처 또는 이모지를 포함하고 있다. 즉, 각각의 획득된 센서 동작 신호 별로, 사용자들이 가장 많이 사용하고 있는 아바타 제스처 또는 이모지를 포함하고 있다. 이 경우, 상술한 다수 사용자 설정 공유부(133)를 통해, 상기 사용자는 다수 사용자들이 사용하고 있는 결정 설정을 복사하여 그대로 상기 사용자의 마이 설정부(131)에 붙여 넣기 할 수 있다.The multiple user
결정 화면 출력부(134)는 사용자가 마이 설정부(130)를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 설정하고 나서, 센서 동작 수신부(120)를 통해 하나의 센서 동작 신호를 수신한 경우, 설정된 센서 동작 신호에 따른 아바타 제스처 또는 이모지가 결정되고 이에 대응되는 아바타 제스처 또는 이모지가 생성되는데, 상기 아바타 제스처 또는 이모지의 결정과 상기 아바타 제스처 또는 이모지가 생성 사이에 결정된 상기 아바타 제스처 또는 이모지를 단말기(200) 화면에 출력할 수 있다. 이 경우, 출력되는 상기 아바타 제스처 또는 이모지는 2개 이상일 수 있다. 예를 들어, 분할된 출력 화면의 일 영역에는 최근 마이 설정부(130)를 통해 설정된 아바타 제스처 또는 이모지(이하, 제1 아바타 이미지)가 나오고, 다른 영역에는 최근 마이 설정부(130)를 통해 설정된 아바타 제스처 또는 이모지 이전 마이 설정부(130)를 통해 설정된 아바타 제스처 또는 이모지(이하, 제2 아바타 이미지)가 나타날 수 있다. 예시에서는, 2개의 아바타 제스처 또는 이모지 만을 설명하고 있지만, 3개 이상일 수도 있다. 상기 출력 화면은 사용자가 화면에 나타난 상기 제1 아바타 이미지와 상기 제2 아바타 이미지 중 선택할 수 있는 소정의 시간 동안 켜져 있을 수 있다(결정 화면 On/off 제어부(135)를 통해 제어됨). 이 경우, 사용자가 제1 아바타 이미지를 선택하거나, 사용자가 제2 아바타 이미지를 선택하거나, 아니면 선택하지 않을 수 있다. 상기 제1 아바타 이미지를 선택한 경우 상기 제1 아바타 이미지가 생성되어, 전송부(150)를 통해 단말기(200)에 전송되고, 상기 제2 아바타 이미지를 선택한 경우 상기 제2 아바타 이미지가 생성되어, 전송부(150)를 통해 단말기(200)에 전송될 수 있다. 상기 제1 아바타 이미지 및 제2 아바타 이미지를 둘다 선택하지 않은 경우 자동적으로 최근에 설정된 상기 제1 아바타 이미지가 선택된 것으로 간주되어 상기 제1 아바타 이미지가 생성되어, 전송부(150)를 통해 단말기(200)에 전송될 수 있다. 몇몇 실시예에서, 결정 화면 On/off 제어부(135)를 통해 출력 화면이 켜져 있다가 꺼지는 상기 소정의 시간은 조절될 수 있다. 다른 몇몇 실시예에서, 사용자의 로그인 정보에 따라 자동적으로 결정 화면 On/off 제어부(135)는 사용자의 연령대에 따라 상기 소정의 시간을 조절할 수 있다. 즉, 연령대에 비례하여 상기 소정의 시간이 증가될 수 있다.The decision
마이 설정 자동화 선택부(136)는 상술한 상기 제2 아바타 이미지를 선택하는 횟수가 소정의 횟수를 초과한 경우, 마이 설정부(131)의 기존(또는 최근) 설정(센서 동작 신호에 따른 아바타 제스처 또는 이모지 설정)을 변경을 요청하는 선택창을 단말기(200)의 화면에 출력할 수 있다. 상기 선택창에는 상기 소정의 횟수를 초과한 센서 동작 신호, 상기 센서 동작 신호에 대응되는 최근 설정된 아바타의 제스처 또는 이모지 설정(예컨대, 제1 아바타 이미지)(메인 위치에 출력, 예컨대 가장 왼편), 및 상기 센서 동작 신호에 대응되는 이전 설정된 아바타의 제스처 또는 이모지 설정(예컨대, 제2 아바타 이미지)(서브 위치에 출력, 예컨대, 제1 아바타 이미지의 바로 오른편)이 나타날 수 있다. 3개 이상의 아바타 제스처 또는 이모지들이 설정된 이력이 있는 경우에는, 선택된 횟수에 따라 서브 위치가 두 개 이상으로 분할되어 각각의 이전 설정된 아바타의 제스처 또는 이모지 설정들이 출력될 수 있다. 해당 화면이 출력되면 사용자가 최근 설정을 유지하고자 하는 경우, 제1 아바타 이미지를 선택하면 되고, 사용자가 이전 설정들로 변경하고자 하는 경우, 제2 아바타 이미지(또는 두 개 이상의 화면으로 분할된 서브 위치들에 나타난 아바타 이미지들)를 선택하면 된다. 이 경우에도, 소정의 시간이 초과되면, 해당 출력 화면은 오프되고, 최근 설정으로 유지될 수 있다. When the number of times of selecting the above-described second avatar image exceeds a predetermined number, the my setting
한편, 도 2에 도시된 바와 같이, 사용자 단말기(200)는 보조 센서(250)를 더 포함할 수 있다. 보조 센서(250)는 다수의 센서들을 포함할 수 있다. 보조 센서(250)는 조도 센서, 및 거리 측정 센서를 포함할 수 있다.Meanwhile, as shown in FIG. 2 , the
아바타 제스처/이모지 생성부(140)를 통해 상기 아바타의 제스처나 이모지를 생성하기에 앞서, 상기 아바타의 제스처나 이모지의 생성 여부를 더 판단할 수 있다. 이 경우, 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.Before generating the avatar gesture or emoji through the avatar gesture/
몇몇 실시예에서, 상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지의 생성여부를 판단하는 단계에서 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다. 이를 통해, 상기 센서 동작 신호가 사용자의 단말기(200) 동작에 의해 인위적으로 발생된 것인지 아니면 주머니 또는 가방 등 어두운 환경(조도 고려, 및 주머니 또는 가방 등에서는 단말기(200)가 주변의 주머니 또는 가방 등과 매우 가깝게 위치함)에서 원치 않게 발생된 것인지 판단하여 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다. 주머니 또는 가방 등 어두운 환경(조도 고려, 및 주머니 또는 가방 등에서는 단말기(200)가 주변의 주머니 또는 가방 등과 매우 가깝게 위치함)에서 원치 않게 발생된 것이라고 판단되면, 아바타 제스처/이모지 생성부(140)는 해당 결정된 아바타 제스처 또는 이모지를 생성하지 않을 수 있어, 원치 않은 상황에서 아바타 제스처 또는 이모지가 생성되는 것을 미연에 방지할 수 있다.In some embodiments, the auxiliary sensor further includes a distance measuring sensor, and forming the ambient illuminance sensed in the step of determining whether to generate a gesture or an emoji of the avatar and the peripheral illuminance sensed through the distance measuring sensor Whether to generate a gesture or an emoji of the avatar may be determined in consideration of the distance from the surrounding object. Through this, whether the sensor operation signal is artificially generated by the user's operation of the terminal 200, or in a dark environment such as a pocket or bag (in consideration of illumination, and a pocket or bag, etc. It is possible to determine whether the avatar's gesture or emoji is generated by determining whether the avatar's gesture or emoji is generated by determining whether the avatar's gesture or emoji is generated. If it is determined that the avatar gesture/
도 11은 일 실시예에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 보여주는 순서도이다.11 is a flowchart illustrating a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal according to an exemplary embodiment.
도 11은 상술한 도 1 내지 도 10에 따른 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 위한 시스템과 카테고리만 상이할 뿐 실질적 구성은 동일하다. 이에 따라 자세한 단계들이나, 자세한 구성들에 대한 설명은 도 1 내지 도 10에서 상술한 내용들에 갈음하기로 한다.11 is different from the system for transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of the user terminal according to FIGS. 1 to 10 described above, except in a category different from that of FIG. Accordingly, detailed steps and descriptions of detailed configurations will be substituted for the contents described above with reference to FIGS. 1 to 10 .
도 11을 참조하면, 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법은 사용자 단말에서 사용자로부터 로그인 정보를 획득하는 단계(S10); 상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 단계(S20); 상기 사용자 단말에서 획득된 로그인 정보 및 센서 동작 신호를 가상 공간 관리 시스템으로 전송하는 단계(S30); 상기 가상 공간 관리 시스템에서, 수신된 상기 로그인 정보 및 센서 동작 신호에 기초하여, 아바타의 제스처나 이모지를 결정하는 단계(S40); 결정된 아바타의 제스처나 이모지의 이미지를 생성하는 단계; 및 상기 가상 공간 관리 시스템에서, 연동된 각 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 단계(S50)를 포함할 수 있다.Referring to FIG. 11 , a method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal includes: obtaining login information from a user in the user terminal (S10); obtaining a sensor operation signal of each user terminal in the user terminal (S20); transmitting the login information and the sensor operation signal obtained from the user terminal to the virtual space management system (S30); determining, in the virtual space management system, a gesture or an emoji of an avatar based on the received login information and a sensor operation signal (S40); generating an image of the determined avatar's gesture or emoji; and transmitting, in the virtual space management system, an avatar gesture or an emoji to each linked user terminal (S50).
상기 센서 동작 신호를 획득하는 단계에서, 상기 사용자 단말의 센서 동작 획득부를 통해 수행될 수 있다.The acquiring of the sensor operation signal may be performed through a sensor operation acquiring unit of the user terminal.
상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나일 수 있다.The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and It may be any one of angle sensing sensors.
상기 아바타의 제스처나 이모지를 결정하는 단계에서, 상기 아바타의 제스터나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정될 수 있다.In the determining of the gesture or emoji of the avatar, the gesture or emoji of the avatar may be determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor.
상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The user terminal further includes an auxiliary sensor, wherein the auxiliary sensor includes an illuminance sensor, and the gesture or emoji of the avatar in consideration of ambient illuminance sensed by the illuminance sensor in the step of generating the gesture or emoji of the avatar It can be determined whether or not
상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단할 수 있다.The auxiliary sensor further includes a distance measuring sensor, and considering the distance between the ambient illuminance sensed in the step of generating the gesture or emoji of the avatar and the surrounding object forming the ambient illuminance sensed through the distance measuring sensor Thus, it is possible to determine whether the avatar's gesture or emoji is generated.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains may be embodied in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
10: 시스템
100: 가상 공간 관리 시스템
101: 제어부
102: 회원 DB
110: 사용자 관리부
120: 센서동작 수신부
130: 아바타 제스처/이모지 결정부
140: 아바타 제스처/이모지 생성부
150: 전송부10: system
100: virtual space management system
101: control unit
102: member DB
110: user management unit
120: sensor operation receiving unit
130: avatar gesture / emoji determining unit
140: avatar gesture / emoji generator
150: transmission unit
Claims (11)
상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 단계;
상기 사용자 단말에서 획득된 로그인 정보 및 센서 동작 신호를 가상 공간 관리 시스템으로 전송하는 단계;
상기 가상 공간 관리 시스템에서, 수신된 상기 로그인 정보 및 센서 동작 신호에 기초하여, 아바타의 제스처나 이모지를 결정하는 단계;
결정된 아바타의 제스처나 이모지의 이미지를 생성하는 단계; 및
상기 가상 공간 관리 시스템에서, 연동된 각 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 단계를 포함하고,
상기 센서 동작 신호를 획득하는 단계에서, 상기 사용자 단말의 센서 동작 획득부를 통해 수행되고,
상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나이고,
상기 아바타의 제스처나 이모지를 결정하는 단계에서, 상기 아바타의 제스처나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정되며,
상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단하고,
상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성하는 단계에서 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단하고,
상기 단말의 센서 동작 신호는 쉐이킹, 및 회전 센서 동작을 포함하고,
상기 쉐이킹은 좌우 쉐이킹(X축 쉐이킹), 상하 쉐이킹(Z축 쉐이킹), 및 전후 쉐이킹(Y축 쉐이킹)을 포함하고,
상기 회전은 상기 Y축을 중심축으로 하는 회전, 상기 X축을 중심축으로 하는 회전, 및 상기 Z축을 중심축으로 하는 회전을 포함하고,
상기 아바타의 제스처나 이모지를 결정은 아바타 제스처/이모지 결정부에 의해 수행되고,
상기 아바타 제스처/이모지 결정부는 복수개로 마련되어 상기 사용자가 친구, 또는 가족들과 소통할 때와, 상기 사용자가 직장 동료, 상사, 또는 클라이언트들과 소통할 때, 같은 센서 동작 신호더라도 서로 다른 아바타 동작, 또는 이모지가 표현되며,
상기 아바타 제스처/이모지 결정부는 마이 설정부, 지정 사용자 설정 공유부, 다수 사용자 설정 공유부, 결정 화면 출력부, 결정 화면 ON/Off 제어부, 및 마이 설정 자동화 선택부를 포함하고,
상기 마이 설정부는 미리 저장된 설정에 의해 획득된 상기 센서 동작 신호에 따른 아바타 제스처/이모지를 결정하고,
상기 지정 사용자 설정 공유부는 상기 사용자와 타 사용자와의 상기 마이 설정부 공유를 가능하게 하며,
상기 다수 사용자 설정 공유부는 상기 사용자와 다수 사용자와의 마이 설정부 공유를 가능하게 하고,
상기 결정 화면 출력부는 상기 사용자가 상기 마이 설정부를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 설정하고 나서, 센서 동작 수신부를 통해 하나의 센서 동작 신호를 수신한 경우, 설정된 상기 센서 동작 신호에 따른 아바타 제스처 또는 이모지가 결정되고 이에 대응되는 아바타 제스처 또는 이모지가 생성되고, 상기 아바타 제스처 또는 이모지의 결정과 상기 아바타 제스처 또는 이모지가 생성 사이에 결정된 상기 아바타 제스처 또는 이모지를 상기 단말 화면에 출력하고, 출력되는 상기 아바타 제스처 또는 이모지는 2개 이상이고,
분할된 출력 화면의 일 영역에는 최근 상기 마이 설정부를 통해 설정된 제1 아바타 이미지가 나오고, 다른 영역에는 최근 상기 마이 설정부를 통해 설정된 아바타 제스처 또는 이모지 이전의 상기 마이 설정부를 통해 설정된 제2 아바타 이미지가 나타나고,
상기 출력 화면은 상기 사용자가 화면에 나타난 상기 제1 아바타 이미지와 상기 제2 아바타 이미지 중 선택할 수 있는 소정의 시간 동안 켜져있고, 상기 결정 화면 On/off 제어부를 통해 제어되며,
상기 사용자가 상기 제1 아바타 이미지를 선택하거나, 상기 사용자가 상기 제2 아바타 이미지를 선택하거나, 또는 상기 제1 아바타 이미지 및 상기 제2 아바타 이미지를 모두 선택하지 않을 수 있고,
상기 마이 설정 자동화 선택부는 상기 제2 아바타 이미지를 선택하는 횟수가 소정의 횟수를 초과한 경우, 상기 마이 설정부의 기존(또는 최근) 설정(센서 동작 신호에 따른 아바타 제스처 또는 이모지 설정)을 변경을 요청하는 선택창을 상기 단말의 화면에 출력하고, 상기 선택창에는 상기 소정의 횟수를 초과한 센서 동작 신호, 상기 센서 동작 신호에 대응되는 최근 설정된 아바타의 제스처 또는 이모지 설정, 및 상기 센서 동작 신호에 대응되는 이전 설정된 아바타의 제스처 또는 이모지 설정이 나타나는 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법.
obtaining login information from a user in a user terminal;
obtaining a sensor operation signal of each user terminal in the user terminal;
transmitting the login information and the sensor operation signal obtained from the user terminal to a virtual space management system;
determining, in the virtual space management system, a gesture or an emoji of an avatar based on the received login information and a sensor operation signal;
generating an image of the determined avatar's gesture or emoji; and
transmitting, in the virtual space management system, an avatar gesture or an emoji to each linked user terminal;
In the step of acquiring the sensor operation signal, it is performed through the sensor operation acquisition unit of the user terminal,
The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and Any one of the angle sensing sensors,
In the step of determining the gesture or emoji of the avatar, the gesture or emoji of the avatar is determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor,
The user terminal further includes an auxiliary sensor, wherein the auxiliary sensor includes an illuminance sensor, and the gesture or emoji of the avatar in consideration of ambient illuminance sensed by the illuminance sensor in the step of generating the gesture or emoji of the avatar to determine whether or not the
The auxiliary sensor further includes a distance measuring sensor, and considering the distance between the ambient illuminance sensed in the step of generating the gesture or emoji of the avatar and the surrounding object forming the ambient illuminance sensed through the distance measuring sensor to determine whether the avatar's gesture or emoji is generated,
The sensor operation signal of the terminal includes shaking and rotation sensor operation,
The shaking includes left and right shaking (X-axis shaking), up-and-down shaking (Z-axis shaking), and front-back shaking (Y-axis shaking),
The rotation includes rotation about the Y-axis as a central axis, rotation about the X-axis as a central axis, and rotation about the Z-axis as a central axis,
The determination of the gesture or emoji of the avatar is performed by the avatar gesture/emoji determining unit,
A plurality of avatar gesture/emoji determining units are provided to perform different avatar motions when the user communicates with friends or family and when the user communicates with coworkers, bosses, or clients, even with the same sensor motion signal , or an emoji is expressed,
The avatar gesture/emoji determining unit includes a my setting unit, a designated user setting sharing unit, a multiple user setting sharing unit, a decision screen output unit, a decision screen ON/Off control unit, and a my setting automation selection unit,
The my setting unit determines an avatar gesture / emoji according to the sensor operation signal obtained by a pre-stored setting,
The designated user setting sharing unit enables sharing of the my setting unit with the user and other users,
The multiple user setting sharing unit enables sharing of my setting unit with the user and multiple users,
When the user sets an avatar gesture/emoji according to the sensor operation signal obtained through the My Setting unit and then receives one sensor operation signal through the sensor operation receiving unit, the determination screen output unit responds to the set sensor operation signal. an avatar gesture or emoji is determined and a corresponding avatar gesture or emoji is generated, and the avatar gesture or emoji determined between the determination of the avatar gesture or emoji and generation of the avatar gesture or emoji is output to the terminal screen; The output avatar gesture or emoji is two or more,
The first avatar image recently set through the My Setting unit is displayed in one area of the divided output screen, and the second avatar image recently set through the My Setting unit before the avatar gesture or emoji recently set through the My Setting unit is displayed in the other area. appear,
The output screen is turned on for a predetermined time during which the user can select between the first avatar image and the second avatar image displayed on the screen, and is controlled through the decision screen on/off control unit,
the user may select the first avatar image, the user may select the second avatar image, or both the first avatar image and the second avatar image may not be selected,
When the number of times to select the second avatar image exceeds a predetermined number of times, the My Settings automation selection unit changes the existing (or recent) settings of the My Settings unit (available gestures or emoji settings according to sensor operation signals). A requesting selection window is output to the screen of the terminal, and the sensor operation signal exceeding the predetermined number of times, a gesture or emoji setting of a recently set avatar corresponding to the sensor operation signal, and the sensor operation signal A method of transmitting an avatar gesture or emoji in a virtual space using a sensor operation signal of a user terminal indicating a previously set avatar gesture or emoji setting corresponding to .
상기 사용자 단말에서 각 사용자 단말의 센서 동작 신호를 획득하는 센서 동작 획득부;
상기 사용자 단말에서 전송된 획득된 센서 동작 신호를 수신하는 센서 동작 수신부;
수신된 센서 동작 신호 및 상기 로그인 정보에 기초하여, 아바타의 제스처나 이모지를 결정하는 아바타 제스처/이모지 결정부;
결정된 아바타의 제스처나 이모지를 생성하는 아바타 제스처/이모지 생성부; 및
연동된 각 상기 사용자 단말로 아바타 제스처 혹은 이모지를 전송하는 전송부를 포함하고,
상기 사용자 단말은 상호 상이한 기능을 갖는 제1 센서, 제2 센서, 및 제3 센서를 포함하고, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 가속도 센싱 센서, 자이로스코프 센서, 및 각도 센싱 센서 중 어느 하나이며,
상기 아바타의 제스처나 이모지는 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서에 의해 센싱된 상기 센서 동작 신호에 기초하여 결정되고,
상기 사용자 단말은 보조 센서를 더 포함하고, 상기 보조 센서는 조도 센서를 포함하고, 상기 아바타의 제스처나 이모지를 생성부는 상기 조도 센서에 의해 센싱된 주변 조도를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단하며,
상기 보조 센서는 거리 측정 센서를 더 포함하고, 상기 아바타의 제스처나 이모지를 생성부는 센싱된 상기 주변 조도와 상기 거리 측정 센서를 통해 센싱된 상기 주변 조도를 형성하는 주변 객체와의 거리를 고려하여 상기 아바타의 제스처나 이모지의 생성 여부를 판단하고,
상기 단말의 센서 동작 신호는 쉐이킹, 및 회전 센서 동작을 포함하고,
상기 쉐이킹은 좌우 쉐이킹(X축 쉐이킹), 상하 쉐이킹(Z축 쉐이킹), 및 전후 쉐이킹(Y축 쉐이킹)을 포함하고,
상기 회전은 상기 Y축을 중심축으로 하는 회전, 상기 X축을 중심축으로 하는 회전, 및 상기 Z축을 중심축으로 하는 회전을 포함하고,
상기 아바타의 제스처나 이모지를 결정은 아바타 제스처/이모지 결정부에 의해 수행되고,
상기 아바타 제스처/이모지 결정부는 복수개로 마련되어 상기 사용자가 친구, 또는 가족들과 소통할 때와, 상기 사용자가 직장 동료, 상사, 또는 클라이언트들과 소통할 때, 같은 센서 동작 신호더라도 서로 다른 아바타 동작, 또는 이모지가 표현되며,
상기 아바타 제스처/이모지 결정부는 마이 설정부, 지정 사용자 설정 공유부, 다수 사용자 설정 공유부, 결정 화면 출력부, 결정 화면 ON/Off 제어부, 및 마이 설정 자동화 선택부를 포함하고,
상기 마이 설정부는 미리 저장된 설정에 의해 획득된 상기 센서 동작 신호에 따른 아바타 제스처/이모지를 결정하고,
상기 지정 사용자 설정 공유부는 상기 사용자와 타 사용자와의 상기 마이 설정부 공유를 가능하게 하며,
상기 다수 사용자 설정 공유부는 상기 사용자와 다수 사용자와의 마이 설정부 공유를 가능하게 하고,
상기 결정 화면 출력부는 상기 사용자가 상기 마이 설정부를 통해 획득된 센서 동작 신호에 따른 아바타 제스처/이모지를 설정하고 나서, 센서 동작 수신부를 통해 하나의 센서 동작 신호를 수신한 경우, 설정된 상기 센서 동작 신호에 따른 아바타 제스처 또는 이모지가 결정되고 이에 대응되는 아바타 제스처 또는 이모지가 생성되고, 상기 아바타 제스처 또는 이모지의 결정과 상기 아바타 제스처 또는 이모지가 생성 사이에 결정된 상기 아바타 제스처 또는 이모지를 상기 단말 화면에 출력하고, 출력되는 상기 아바타 제스처 또는 이모지는 2개 이상이고,
분할된 출력 화면의 일 영역에는 최근 상기 마이 설정부를 통해 설정된 제1 아바타 이미지가 나오고, 다른 영역에는 최근 상기 마이 설정부를 통해 설정된 아바타 제스처 또는 이모지 이전의 상기 마이 설정부를 통해 설정된 제2 아바타 이미지가 나타나고,
상기 출력 화면은 상기 사용자가 화면에 나타난 상기 제1 아바타 이미지와 상기 제2 아바타 이미지 중 선택할 수 있는 소정의 시간 동안 켜져있고, 상기 결정 화면 On/off 제어부를 통해 제어되며,
상기 사용자가 상기 제1 아바타 이미지를 선택하거나, 상기 사용자가 상기 제2 아바타 이미지를 선택하거나, 또는 상기 제1 아바타 이미지 및 상기 제2 아바타 이미지를 모두 선택하지 않을 수 있고,
상기 마이 설정 자동화 선택부는 상기 제2 아바타 이미지를 선택하는 횟수가 소정의 횟수를 초과한 경우, 상기 마이 설정부의 기존(또는 최근) 설정(센서 동작 신호에 따른 아바타 제스처 또는 이모지 설정)을 변경을 요청하는 선택창을 상기 단말의 화면에 출력하고, 상기 선택창에는 상기 소정의 횟수를 초과한 센서 동작 신호, 상기 센서 동작 신호에 대응되는 최근 설정된 아바타의 제스처 또는 이모지 설정, 및 상기 센서 동작 신호에 대응되는 이전 설정된 아바타의 제스처 또는 이모지 설정이 나타나는 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타 제스처 또는 이모지 전송 방법을 이용한 시스템.a user manager for obtaining login information from a user in a user terminal;
a sensor operation acquisition unit for acquiring a sensor operation signal of each user terminal from the user terminal;
a sensor operation receiving unit for receiving the acquired sensor operation signal transmitted from the user terminal;
an avatar gesture/emoji determining unit configured to determine an avatar's gesture or emoji based on the received sensor operation signal and the login information;
an avatar gesture/emoji generator for generating the determined gesture or emoji of the avatar; and
A transmitter for transmitting an avatar gesture or emoji to each of the linked user terminals,
The user terminal includes a first sensor, a second sensor, and a third sensor having mutually different functions, and the first sensor, the second sensor, and the third sensor are an acceleration sensing sensor, a gyroscope sensor, and Any one of the angle sensing sensors,
The gesture or emoji of the avatar is determined based on the sensor operation signal sensed by the first sensor, the second sensor, and the third sensor,
The user terminal further includes an auxiliary sensor, wherein the auxiliary sensor includes an illuminance sensor, and the avatar gesture or emoji generating unit generates the avatar gesture or emoji in consideration of ambient illuminance sensed by the illuminance sensor. to determine whether
The auxiliary sensor further includes a distance measuring sensor, and the gesture or emoji generating unit of the avatar considers the distance between the sensed ambient illuminance and the peripheral object forming the ambient illuminance sensed through the distance measuring sensor. Determining whether the avatar's gesture or emoji is generated,
The sensor operation signal of the terminal includes shaking and rotation sensor operation,
The shaking includes left and right shaking (X-axis shaking), up-and-down shaking (Z-axis shaking), and front-back shaking (Y-axis shaking),
The rotation includes rotation about the Y-axis as a central axis, rotation about the X-axis as a central axis, and rotation about the Z-axis as a central axis,
The determination of the gesture or emoji of the avatar is performed by the avatar gesture/emoji determining unit,
A plurality of avatar gesture/emoji determining units are provided to perform different avatar motions when the user communicates with friends or family and when the user communicates with coworkers, bosses, or clients, even with the same sensor motion signal , or an emoji is expressed,
The avatar gesture/emoji determining unit includes a my setting unit, a designated user setting sharing unit, a multiple user setting sharing unit, a decision screen output unit, a decision screen ON/Off control unit, and a my setting automation selection unit,
The my setting unit determines an avatar gesture / emoji according to the sensor operation signal obtained by a pre-stored setting,
The designated user setting sharing unit enables sharing of the my setting unit with the user and other users,
The multiple user setting sharing unit enables sharing of my setting unit with the user and multiple users,
When the user sets an avatar gesture/emoji according to the sensor operation signal obtained through the My Setting unit and then receives one sensor operation signal through the sensor operation receiving unit, the determination screen output unit responds to the set sensor operation signal. an avatar gesture or emoji is determined and a corresponding avatar gesture or emoji is generated, and the avatar gesture or emoji determined between the determination of the avatar gesture or emoji and generation of the avatar gesture or emoji is output to the terminal screen; The output avatar gesture or emoji is two or more,
The first avatar image recently set through the My Setting unit is displayed in one area of the divided output screen, and the second avatar image recently set through the My Setting unit before the avatar gesture or emoji recently set through the My Setting unit is displayed in the other area. appear,
The output screen is turned on for a predetermined time during which the user can select between the first avatar image and the second avatar image displayed on the screen, and is controlled through the decision screen on/off control unit,
the user may select the first avatar image, the user may select the second avatar image, or both the first avatar image and the second avatar image may not be selected,
When the number of times to select the second avatar image exceeds a predetermined number of times, the My Settings automation selection unit changes the existing (or recent) settings of the My Settings unit (available gestures or emoji settings according to sensor operation signals). A requesting selection window is output to the screen of the terminal, and the sensor operation signal exceeding the predetermined number of times, a gesture or emoji setting of a recently set avatar corresponding to the sensor operation signal, and the sensor operation signal A system using an avatar gesture or emoji transmission method in a virtual space using a sensor operation signal of a user terminal in which a previously set avatar gesture or emoji setting corresponding to .
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210028432 | 2021-03-03 | ||
KR20210028432 | 2021-03-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102425624B1 true KR102425624B1 (en) | 2022-07-27 |
Family
ID=82701497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210138092A KR102425624B1 (en) | 2021-03-03 | 2021-10-18 | Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102425624B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120019007A (en) * | 2010-08-24 | 2012-03-06 | 한국전자통신연구원 | System and method for providing virtual reality linking service |
KR20160125647A (en) * | 2015-04-22 | 2016-11-01 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
-
2021
- 2021-10-18 KR KR1020210138092A patent/KR102425624B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120019007A (en) * | 2010-08-24 | 2012-03-06 | 한국전자통신연구원 | System and method for providing virtual reality linking service |
KR20160125647A (en) * | 2015-04-22 | 2016-11-01 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10986312B2 (en) | Information processing apparatus, information processing method, program, and server | |
KR101977526B1 (en) | Image splicing method, terminal, and system | |
JP2024523021A (en) | Information indication method, device, user equipment, base station and storage medium | |
EP3046352B1 (en) | Method by which portable device displays information through wearable device, and device therefor | |
WO2019000411A1 (en) | Method and device for establishing wireless communication connection | |
CN111131531B (en) | Method and device for generating nickname in chat group and readable storage medium | |
CN111010663B (en) | Information sharing method and device, storage medium and computer equipment | |
KR102128180B1 (en) | A technique for transitioning the head-worn display from the operation of the first power mode to the operation of the second power mode | |
CN114265641A (en) | Control method, electronic device, and computer-readable storage medium | |
KR20140042188A (en) | Method for sharing function between terminals, terminal, and recording medium thereof | |
EP4114045A1 (en) | Device positioning method and relevant apparatus | |
EP3758407B1 (en) | Electronic device using bluetooth communication and operating method thereof | |
CN114189946A (en) | Data sharing method, electronic device and system | |
CN114157659B (en) | File sharing method and terminal equipment | |
KR102425624B1 (en) | Method and system for avatar's gesture or emoji transmission in virtual space using sensor operation signal of user terminal | |
CN104698728A (en) | Micro-projector as well as operating method and operating device of micro-projector | |
CN105849734B (en) | Control method and device of portable device | |
US20230239218A1 (en) | Data Transmission Method and Electronic Device | |
US20160044072A1 (en) | Information processing apparatus, data processing method thereof, and program | |
EP4250238A1 (en) | Three-dimensional model reconstruction method, device, and storage medium | |
CN112291133B (en) | Method, device, equipment and medium for sending files in cross-terminal mode | |
CN114071652A (en) | Method for establishing binding relationship and related equipment | |
CN114007202A (en) | Method for establishing binding relationship and related equipment | |
US8548451B2 (en) | Information processing system, apparatus, and method | |
US20240097847A1 (en) | Electronic device transmitting and receiving data with metaverse server and method for operating thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |