[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20180099163A - Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same - Google Patents

Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same Download PDF

Info

Publication number
KR20180099163A
KR20180099163A KR1020170026239A KR20170026239A KR20180099163A KR 20180099163 A KR20180099163 A KR 20180099163A KR 1020170026239 A KR1020170026239 A KR 1020170026239A KR 20170026239 A KR20170026239 A KR 20170026239A KR 20180099163 A KR20180099163 A KR 20180099163A
Authority
KR
South Korea
Prior art keywords
interaction
user
expressing
information
scenario
Prior art date
Application number
KR1020170026239A
Other languages
Korean (ko)
Inventor
김도형
류철
윤석진
이재호
이형석
조현우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170026239A priority Critical patent/KR20180099163A/en
Publication of KR20180099163A publication Critical patent/KR20180099163A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • H04L67/327
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

An embodiment of the present invention provides an apparatus for expressing interactions. It includes a status information generation part for analyzing user daily information to generate user status information; a scenario selection part for selecting an interaction scenario corresponding to the user state information; an interaction determination part which determines an interaction object and interactions using the selected interaction scenario, requests the determination of the interaction object and the interaction from a server device for expressing interactions when the interaction object and the interaction cannot be determined, and substitutes the received interaction object and the interaction; and an interaction expression part for expressing the interaction object and the interaction through at least one output device of the user. It is possible to determine the interaction corresponding to the state of the user based on the information of the user.

Description

인터넷 기반으로 사용자의 상황에 상응하는 상호작용을 표현하기 위한 장치 및 그 방법 {APPARATUS FOR EXPRESSING INTERACTIONS CORRESPONDING TO A USER'S SITUATION BASED ON INTERNET AND METHOD FOR THE SAME}[0001] APPARATUS AND EXPRESSING INTERACTIONS CORRESPONDING TO A USER'S SITUATION BASED ON INTERNET AND METHOD FOR THE SAME [0002]

본 발명은 인터넷 기반으로 사용자의 상황에 상응하는 상호작용을 표현하는 장치 및 그 방법에 관한 것이다. 더욱 상세하게, 사용자의 입력 장치들로부터 수집된 사용자 일상 정보를 이용하여 사용자의 상태에 상응하는 상호작용을 결정하여, 사용자의 하나 이상의 출력 장치들을 통해 표현하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and a method for expressing an interaction corresponding to a user's situation on the Internet. More particularly, the present invention relates to an apparatus and a method for determining an interaction corresponding to a user's state using user's daily information collected from user's input devices and expressing the interaction through one or more output devices of the user.

현재 사회적으로 1인가구가 점차 증가하는 추세이다. 1인 가구의 증가가 개인의 자유로움을 보장해주고, 삶의 질을 높일 수 있는 장점이 있지만, 타인에 대한 무관심이 확산되고, 외로움으로 인해 생활 만족도가 저하되는 문제점이 발생할 수 있다. 이에 따라, 사용자와 상호작용을 할 수 있는 인형과 같은 다양한 장치들이 있으나, 현재 사용자의 상황을 수집하여 적절하게 응답하지 못하는 한계를 가지고 있다.Currently, there is a tendency that one person is increasingly socially. The increase in the number of single-person households can guarantee individual freedom and improve the quality of life, but it can lead to the problem that the indifference to others is spread and the life satisfaction is lowered due to loneliness. Accordingly, although there are various devices such as dolls capable of interacting with the user, there is a limitation in collecting the current user's situation and not responding appropriately.

최근 스마트폰, 인공지능(AI), 증강현실(AR) 등의 기술들이 발달함에 따라 여러 형태의 입출력이 용이하게 가능해지고, 간이한 장치만을 이용하여 상황을 분석하고 판단하는 것이 가능해지고 있다.As technologies such as smart phones, AI, and AR are developed, various types of input / output can be easily performed, and it becomes possible to analyze and judge the situation using only a simple device.

국내 공개특허공보 제10-2015-0065523호Korean Patent Laid-Open Publication No. 10-2015-0065523

하나 이상의 사용자 입력 장치들(예를 들어, 스마트폰, 태블릿 등)을 통해 수집한 사용자의 정보에 기반하여, 사용자의 상태에 상응하는 상호작용을 결정하는 것을 목적으로 한다.The object of the present invention is to determine an interaction corresponding to a user's state based on information of a user collected through one or more user input devices (e.g., a smart phone, a tablet, etc.).

특히, 사용자의 상태에 상응하는 상호작용을 사용자가 선호하는 형태로 변환하여, 하나 이상의 사용자 출력 장치들(예를 들어, AR 장치, TV 등)을 통하여 표현하는 것을 목적으로 한다.In particular, it is intended to convert the interaction corresponding to the user's state into a form preferred by the user and to express through one or more user output devices (e.g., AR device, TV, etc.).

본 발명의 일 실시예는, 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하는 상태 정보 생성부; 상기 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는 시나리오 선정부; 상기 선정된 상호작용 시나리오를 이용하여 상호작용 객체 및 상호작용을 결정하고, 상기 상호작용 객체 및 상호작용을 결정하지 못한 경우에는 상호작용을 표현하기 위한 서버 장치에 상호작용 객체 및 상호작용의 결정을 요청하여 수신한 상호작용 객체 및 상호작용으로 대신하는 상호작용 결정부; 및 기설정된 적어도 하나 이상의 상기 사용자의 출력 장치들을 통해 상기 상호작용 객체 및 상기 상호작용을 표현하는 상호작용 표현부; 를 포함하는, 상호작용을 표현하기 위한 클라이언트 장치를 제공한다.According to an embodiment of the present invention, there is provided an information processing apparatus comprising: a status information generation unit for analyzing user daily information to generate user status information; A scenario selector for selecting an interaction scenario corresponding to the user state information; Determining interaction objects and interactions using the selected interaction scenarios and, if the interaction objects and interactions are not determined, determining interactions objects and interactions in the server device for expressing the interactions An interaction determining unit that replaces the received interaction object with the received interaction object; And an interaction expression unit for expressing the interaction object and the interaction through at least one or more output devices of the user. And a client device for expressing the interaction.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

하나 이상의 사용자 입력 장치들을 통해 수집한 사용자의 정보에 기반하여, 사용자의 상태에 상응하는 상호작용을 결정할 수 있다.Based on the user's information collected via one or more user input devices, an interaction corresponding to the user's state can be determined.

특히, 사용자의 상태에 상응하는 상호작용을 사용자가 선호하는 형태로 변환하여, 하나 이상의 사용자 출력 장치들을 통하여 표현할 수 있다.In particular, the interaction corresponding to the state of the user may be transformed into a form preferred by the user and expressed through one or more user output devices.

도 1은 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 시스템의 구성을 나타낸 도면이다.
도 2는 도 1에 도시된 상호작용을 표현하기 위한 클라이언트 장치의 내부 구성의 일 예를 나타낸 블록도이다.
도 3은 도 1에 도시된 상호작용을 표현하기 위한 서버 장치의 내부 구성의 일 예를 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따라 사용자의 출력 장치에 출력된 증강현실 기반의 상호작용 영상의 일 예이다.
도 5는 본 발명의 일 실시예에 따라 사용자의 출력 장치에 출력된 증강현실 기반의 상호작용 영상의 다른 예이다.
도 6은 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치가 수행하는 상호작용을 표현하기 위한 방법을 나타낸 동작 흐름도이다.
도 7은 도 6에 도시된 상호작용 객체 및 상호작용을 결정하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 8은 도 6에 도시된 상호작용 객체와 상호작용을 변환하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 9는 도 6에 도시된 사용자 상태 정보를 생성하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 10은 도 6에 도시된 상호작용 시나리오를 선정하는 단계의 일 예를 나타낸 동작 흐름도이다.
1 is a block diagram of a system for representing an interaction according to an embodiment of the present invention.
2 is a block diagram showing an example of the internal configuration of a client apparatus for expressing the interaction shown in FIG.
3 is a block diagram showing an example of the internal configuration of the server apparatus for expressing the interaction shown in FIG.
4 is an example of an augmented reality-based interactive image output to a user output device according to an embodiment of the present invention.
5 is another example of an augmented reality-based interactive image output to a user output device according to an embodiment of the present invention.
6 is an operational flowchart illustrating a method for representing an interaction performed by a client device for representing an interaction according to an embodiment of the present invention.
FIG. 7 is an operational flow diagram illustrating an example of steps for determining interaction objects and interactions shown in FIG. 6. FIG.
FIG. 8 is an operational flowchart showing an example of a step of converting the interaction with the interaction object shown in FIG. 6. FIG.
FIG. 9 is an operational flowchart showing an example of a step of generating the user status information shown in FIG.
FIG. 10 is an operation flowchart showing an example of a step of selecting an interaction scenario shown in FIG.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성되어 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.However, the present invention is not limited to the embodiments described below, but all or some of the embodiments may be selectively combined and implemented in various forms. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning. Also, the singular expressions include plural expressions unless the context clearly dictates otherwise. Also, the terms include, including, etc. mean that there is a feature, or element, recited in the specification and does not preclude the possibility that one or more other features or components may be added.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .

도 1은 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 시스템(1)의 구성을 나타낸 도면이다.1 is a diagram illustrating a configuration of a system 1 for expressing an interaction according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 시스템은 상호작용을 표현하기 위한 클라이언트 장치(100), 상호작용을 표현하기 위한 서버 장치(200), 적어도 하나 이상의 사용자 입력 장치들(310_1 내지 310_n) 및 사용자 출력 장치들(320_1 내지 320_n)을 포함한다.Referring to FIG. 1, a system for expressing an interaction according to an embodiment of the present invention includes a client device 100 for expressing an interaction, a server device 200 for expressing an interaction, Input devices 310_1 to 310_n, and user output devices 320_1 to 320_n.

상호작용을 표현하기 위한 클라이언트 장치(100)는 각각의 사용자 입력 장치들(310_1 내지 310_n) 및 사용자 출력 장치들(320_1 내지 320_n)과 유무선 네트워크 등을 통하여 상호 연결된다. 또한, 상호작용을 표현하기 위한 클라이언트 장치(100)과 상호작용을 표현하기 위한 서버 장치(200)는 셀룰러 통신망, 유무선 네트워크 등의 각종 통신 기술을 통하여 연결된다. 이때, 상호작용을 표현하기 위한 서버 장치(200) 하나에는 여러 개의 상호작용을 표현하기 위한 클라이언트 장치(100)이 대응될 수도 있다.The client device 100 for expressing the interaction is connected to each of the user input devices 310_1 to 310_n and the user output devices 320_1 to 320_n through a wired or wireless network or the like. In addition, the client device 100 for expressing the interaction and the server device 200 for expressing the interaction are connected through various communication technologies such as a cellular communication network, a wired / wireless network, and the like. At this time, a client device 100 for representing a plurality of interactions may correspond to one server device 200 for expressing an interaction.

본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치(100)는 기설정된 적어도 하나 이상의 사용자 입력 장치들(310_1 내지 310_n)에서 수집된 사용자 일상 정보를 이용하여 사용자의 상태에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다. 그리고, 결정된 상호작용 객체와 상호작용을 기설정된 적어도 하나 이상의 사용자 출력 장치들(320_1 내지 320_n)을 이용하여 출력할 수 있다. 여기서, 사용자 일상 정보는 사용자의 표정, 음성, 동작 등의 사용자의 일상에서 수집 가능한 정보들을 포함한다.The client device 100 for representing an interaction according to an embodiment of the present invention uses mutual user's daily information collected from at least one or more user input devices 310_1 to 310_n, You can determine the interaction with the action object. The interaction with the determined interactive object may be output using at least one or more user output devices 320_1 to 320_n. Here, the user's daily information includes information that can be collected from the user's daily life such as a user's facial expression, voice, and motion.

상세히, 상호작용을 표현하기 위한 클라이언트 장치(100)는 수집된 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성할 수 있으며, 생성된 사용자 상태 정보를 이용하여 사용자와의 상호작용 시점을 판단할 수 있다. 사용자와 상호작용을 하는 시점이 되면, 사용자 상태에 상응하는 상호작용 시나리오를 선정하게 되며, 선정된 시나리오에 따라 사용자의 행동에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다.In detail, the client device 100 for expressing the interaction can analyze the collected user daily information to generate user status information, and can determine the point of time when the user interacts with the user using the generated user status information . When the user interacts with the user, the interaction scenario corresponding to the user state is selected, and the interaction object and the interaction corresponding to the user's behavior can be determined according to the selected scenario.

여기서, 사용자 상태 정보는 수집 시간 정보 및 사용자의 감정 상태나 생활 패턴 등을 포함하여 사용자의 상태를 판단할 수 있는 정보이다. 상호작용 시나리오는 사용자와 진행할 시나리오의 가이드라인이 되는 각본 혹은 설정을 포함할 수 있다. 상호작용 객체는 사용자와 상호작용을 진행할 대상으로서 애완견, 배우자 등을 포함할 수 있다.Here, the user state information is information that can determine the state of the user including the collection time information, the emotion state of the user, the life pattern, and the like. Interaction scenarios can include scenarios or settings that guide users and scenarios to proceed. The interaction object may include a dog, a spouse, and the like as an object with which the user interacts.

또한, 사용자와 상호작용을 하는 시점을 판단함에 있어서, 기설정된 대화모드가 반영이 될 수 있다. 여기서, 대화모드는 사용자와 상호작용을 진행하는 스타일을 결정하기 위한 모드로, 상시 상호작용을 시도하는 모드나 사용자가 원할때만 상호작용을 시도하는 모드 등을 포함할 수 있다. 여기서, 사용자는 대화모드를 변경하여 설정할 수 있다.Also, in determining the point of time when the user interacts with the user, the predetermined dialog mode may be reflected. Here, the dialogue mode is a mode for determining a style of interacting with a user, and may include a mode in which the user interacts normally, or a mode in which the user tries to interact only when desired. Here, the user can change the conversation mode and set it.

이때, 상호작용을 표현하기 위한 클라이언트 장치(100)는 선정된 시나리오에 따라 사용자의 행동에 상응하는 상호작용 객체와 상호작용을 결정할 때, 상호작용을 표현하기 위한 서버 장치(200)에 선정된 시나리오와 사용자 행동을 전송할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(200)에서 결정된 상호작용 객체와 상호작용을 수신할 수 있다.At this time, when determining the interaction with the interactive object corresponding to the user's behavior according to the selected scenario, the client device 100 for expressing the interaction selects the scenarios selected by the server device 200 for expressing the interaction, And user behavior. And may receive interactions with the interacting objects determined at the server device 200 for expressing the interactions.

선택적 실시예에서, 상호작용을 표현하기 위한 클라이언트 장치(100)는 결정된 상호작용 객체와 상호작용을 기설정된 동작모드에 상응하게 변환할 수 있다. 그리고, 변환된 상호작용 객체와 상호작용을 사용자 출력 장치들(320_1 내지 320_n)을 이용하여 출력할 수 있다.In an alternate embodiment, the client device 100 for expressing the interaction may convert the interaction with the determined interaction object to a predetermined mode of operation. Then, the interaction with the converted interactive object can be output using the user output devices 320_1 to 320_n.

여기서, 동작모드는 동일한 내용의 상호작용을 유지하면서 상호작용 객체와 상호작용을 여러가지 형식으로 변환하기 위한 모드로, 애완견 모드나 배우자 모드 등을 포함할 수 있다. 이는 사용자가 선호하는 방식으로 사용자와 상호작용을 진행할 수 있도록 한다. 여기서, 사용자는 동작모드를 변경하여 설정할 수 있다.Here, the operation mode is a mode for converting the interaction with the interaction object into various formats while maintaining the same content interaction, and may include a dog mode or a spouse mode. This allows the user to interact with the user in a preferred manner. Here, the user can set the operation mode by changing the operation mode.

예를 들어, 기설정된 동작모드가 애완견 모드인 경우에는 상호작용 객체를 애완견으로 변환하고, 상호작용을 애완견의 울음소리 등으로 변환할 수 있다.For example, when the predetermined operation mode is the dog mode, the interactive object can be converted into a pet dog, and the interaction can be converted into a dog crying or the like.

선택적 실시예에서, 상호작용을 표현하기 위한 클라이언트 장치(100)는 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성할 때, 상호작용을 표현하기 위한 서버 장치(200)에 사용자 일상 정보를 전송할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(200)에서 사용자 일상 정보를 분석하여 생성한 사용자 상태 정보를 수신할 수 있다.In an alternative embodiment, the client device 100 for expressing the interaction may send user routine information to the server device 200 for expressing the interaction when analyzing the user's daily information and generating the user status information . The server device 200 for expressing the interaction can receive the user state information generated by analyzing the user's daily information.

이에 따라, 상호작용을 표현하기 위한 클라이언트 장치(100)에서 수집된 사용자 일상 정보를 분석하는데 실패할 경우에는, 상호작용을 표현하기 위한 서버 장치(200)를 이용하여 사용자 일상 정보에 상응하는 사용자 상태 정보를 생성할 수 있다.Accordingly, when analyzing the user's daily information collected by the client device 100 for expressing the interaction, the server device 200 for expressing the interaction may be used to determine the user state corresponding to the user's daily information Information can be generated.

선택적 실시예에서, 상호작용을 표현하기 위한 클라이언트 장치(100)는 사용자 상태 정보로부터 상호작용 시나리오를 선정할 때, 상호작용을 표현하기 위한 서버 장치(200)에 사용자 상태 정보를 전송할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(200)에서 사용자 상태 정보에 상응하도록 선정된 상호작용 시나리오를 수신할 수 있다.In an alternative embodiment, the client device 100 for expressing the interaction may send user state information to the server device 200 for expressing the interaction when selecting the interaction scenario from the user state information. The server apparatus 200 for expressing the interaction can receive the selected interaction scenario corresponding to the user status information.

이에 따라, 상호작용을 표현하기 위한 클라이언트 장치(100)에서 사용자 상태 정보로부터 사용자와 상호작용할 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(200)를 이용하여 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정할 수 있다.Accordingly, when the client device 100 for expressing the interaction fails to select the interaction scenario corresponding to the user state information to interact with the user from the user state information, the server device 200 for expressing the interaction, The interaction scenario corresponding to the user state information can be selected.

선택적 실시예에서, 상호작용을 표현하기 위한 클라이언트 장치(100)는 상호작용 시나리오와 사용자 행동에 상응하도록 상호작용 객체와 상호작용을 결정함에 있어서, 상호작용을 표현하기 위한 서버 장치(200)에 상호작용 시나리오와 사용자 행동을 전송할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(200)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하도록 결정된 상호작용 객체와 상호작용을 수신할 수 있다.In an alternate embodiment, the client device 100 for interacting with the server device 200 may be configured to interact with the interacting object to correspond to the interaction scenario and user behavior, Action scenarios and user actions. And, the server device 200 for expressing the interaction can receive an interaction with the determined interaction object based on the interaction scenario based on the user behavior.

이에 따라, 상호작용을 표현하기 위한 클라이언트 장치(100)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(200)를 이용하여 상호작용 시나리오에 기반한 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다.Accordingly, when the client device 100 for expressing the interaction fails to determine the interaction with the interaction object corresponding to the user action based on the interaction scenario, the server device 200 for expressing the interaction, Can be used to determine interactions and interactions that correspond to user behavior based on the interaction scenario.

본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 여러 사용자로부터 수집된 사용자 일상 정보와 사용자 상태 정보, 상호작용 시나리오 및 여러 상호작용 객체와 상호작용 등의 정보를 저장하는 데이터베이스를 이용할 수 있다. 그리고, 데이터베이스를 이용하여 상호작용을 표현하기 위한 클라이언트 장치에서 요청되는 사용자 일상 정보 분석이나, 상호작용 시나리오의 선정, 상호작용 객체와 상호작용의 결정을 수행하여 상호작용을 표현하기 위한 클라이언트 장치로 전송할 수 있다.The server device 200 for representing an interaction according to an exemplary embodiment of the present invention stores information such as user daily information, user state information, interaction scenarios, and various interaction objects collected from various users Databases are available. Then, the client device for analyzing the user's daily information, selecting the interaction scenario, determining the interaction object and the interaction with the client device for expressing the interaction using the database is transmitted to the client device for expressing the interaction .

사용자 입력 장치들(310_1 내지 310_n)은 스마트폰, 태블릿 등의 단말로서, 카메라와 같은 영상 촬영 모듈 혹은 마이크와 같은 음성 녹음 모듈 등을 구비할 수 있다. 각각의 사용자 입력 장치들(310_1 내지 310_n)은 수집 가능한 사용자 일상 정보를 시간과 함께 수집할 수 있으며, 각각의 수집된 일상 정보는 수집한 사용자 입력 장치에 따라 음성, 영상과 같이 종류가 상이할 수 있다. The user input devices 310_1 to 310_n may be a terminal such as a smart phone or a tablet, and may include a video recording module such as a camera or a voice recording module such as a microphone. Each of the user input devices 310_1 to 310_n may collect collectible user daily information together with time. Depending on the collected user input device, the collected daily information may be different in kind have.

또한, 사용자 입력 장치들(310_1 내지 310_n)은 사용자 정보를 수집하는 사용자 정보 수집기뿐만 아니라, 상호작용을 표현하기 위한 클라이언트 장치(100)의 설정을 변경하기 위한 환경 설정기가 탑재 될 수 있다. 사용자는 환경 설정기를 통하여 사용자 일상 정보 수집주기, 동작모드 및 대화모드 등에 대한 설정을 변경할 수 있다.In addition, the user input devices 310_1 to 310_n may include a user information collector for collecting user information, and an environment setting device for changing settings of the client device 100 for expressing the interaction. The user can change the setting of the user's daily information collection period, the operation mode, and the dialogue mode through the configuration unit.

이때, 사용자 입력 장치들(310_1 내지 310_n)은 기설정된 수집 주기에 따라 주기적으로, 혹은 사용자의 요청이 있거나, 사용자로부터 특정 응답을 수신한 경우와 같이 수시로 사용자 일상 정보를 수집할 수 있다. 수집된 사용자 일상 정보는 상호작용을 표현하기 위한 클라이언트 장치(100)으로 전송되어 사용자와 상호작용할 시점이나 내용을 결정하는데 사용될 수 있다.At this time, the user input devices 310_1 to 310_n may periodically collect user's daily information according to a predetermined collection period, such as when the user has a request or when a specific response is received from the user. The collected user's daily information may be sent to the client device 100 for expressing the interaction and used to determine the time or content to interact with the user.

특히, 사용자는 사용자 일상 정보를 수집하는데 사용할 사용자 입력 장치들(310_1 내지 310_n)을 변경하여 설정할 수 있다.In particular, the user can change and set the user input devices 310_1 to 310_n to be used for collecting the user's daily information.

사용자 출력 장치들(320_1 내지 320_n)은 스피커, TV, 모니터, AR장치 등의 단말로서, 디스플레이와 같은 영상 출력 모듈 혹은 스피커와 같은 소리 출력 모듈 등을 구비할 수 있다. 이때, 각각의 사용자 출력 장치(320_1 내지 320_n)는 구비된 모듈이 달라 서로 출력되는 상호작용 혹은 상호작용 객체의 자료 형식이 상이할 수 있다.The user output devices 320_1 to 320_n may be a terminal such as a speaker, a TV, a monitor, and an AR device, and may include a video output module such as a display or a sound output module such as a speaker. At this time, the data formats of the interaction or interactive objects output from the different modules of the user output devices 320_1 to 320_n may be different.

특히, 사용자는 상호작용 객체와 상호작용을 표현할 사용자 출력 장치들(320_1 내지 320_n)을 변경하여 설정할 수 있다.In particular, the user can change and set the user output devices 320_1 to 320_n to express interaction with the interactive object.

예를 들어, 스피커와 같은 소리 출력 장치는 상호작용하는 음성이나 소리를 출력하고, TV이나 모니터와 같은 화상 출력 장치는 상호작용 객체 영상이나 상호작용하는 음성의 자막 등을 출력할 수 있다. 특히, 여러대의 스피커와 같은 소리 출력 장치가 구비되어 있는 경우에는, 상호작용 객체의 움직임에 연동하여 상호작용 객체 근처의 소리를 출력하는 장치로 출력하도록 할 수도 있다.For example, a sound output device such as a speaker outputs interactive voice or sound, and an image output device such as a TV or a monitor can output an interactive object image or an interactive voice caption. In particular, when a plurality of loudspeakers are provided with a sound output apparatus, the sound output apparatus may output a sound in the vicinity of the interactive object in association with the motion of the interactive object.

만약, AR장치를 사용자 출력 장치로 사용하는 경우에는, 증강현실을 기반으로 상호작용 객체를 출력하여 실제 사용자의 공간에 함께 하는 것처럼 표현될 수도 있다.If the AR device is used as a user output device, the interactive objects may be output based on the augmented reality to be displayed as if they are included in the space of the actual user.

도 2는 도 1에 도시된 상호작용을 표현하기 위한 클라이언트 장치(100)의 내부 구성의 일 예를 나타낸 블록도이다.2 is a block diagram showing an example of the internal configuration of the client apparatus 100 for expressing the interaction shown in FIG.

도 2를 참조하면, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치(100)는 클라이언트 통신부(110), 일상 정보 수집부(120), 상태 정보 생성부(130), 상태 정보 저장부(140), 상호작용 시점 판단부(150), 시나리오 선정부(160), 상호작용 결정부(170) 및 상호작용 표현부(190) 등을 포함한다.2, a client apparatus 100 for representing an interaction according to an embodiment of the present invention includes a client communication unit 110, a daily information collecting unit 120, a status information generating unit 130, A storage unit 140, an interaction time determination unit 150, a scenario selection unit 160, an interaction determination unit 170, and an interaction expression unit 190.

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치(100)는 상호작용 변환부(180)를 더 포함할 수 있다.In addition, the client apparatus 100 for representing an interaction according to an embodiment of the present invention may further include an interaction conversion unit 180.

상세히, 클라이언트 통신부(110)는 상호작용을 표현하기 위한 클라이언트 장치(100)와 상호작용을 표현하기 위한 서버 장치(200)간의 송수신 신호를 전송하는데 필요한 통신 인터페이스를 제공한다.In detail, the client communication unit 110 provides a communication interface necessary for transmitting a transmission / reception signal between the client apparatus 100 for expressing the interaction and the server apparatus 200 for expressing the interaction.

여기서, 클라이언트 통신부(110)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.Here, the client communication unit 110 may be a device including hardware and software necessary for transmitting / receiving a signal such as a control signal or a data signal through a wired / wireless connection with another network device.

일상 정보 수집부(120)는 기설정된 적어도 하나 이상의 사용자 입력 장치(도 1의 310_1 내지 310_n 참조)에서 수집한 사용자 일상 정보를 수집한다. 사용자 일상 정보에는 사용자의 표정, 음성, 동작 등이 포함될 수 있으며, 수집 시간 정보도 함께 포함되어 있다.The routine information collecting unit 120 collects user daily information collected from at least one or more user input devices (see 310_1 to 310_n in FIG. 1). The user's daily information may include a user's facial expression, voice, operation, etc., and includes collection time information.

여기서, 일상 정보 수집부(120)는 기설정된 수집 주기마다 주기적으로 혹은 사용자 입력 장치들(도 1의 310_1 내지 310_n 참조)에서 사용자 일상 정보가 수집될 때마다와 같이 수시로 사용자 일상 정보를 수집할 수 있다. 이때, 사용자는 사용자 일상 정보 수집 주기를 변경하여 설정할 수 있다.Here, the daily information collecting unit 120 may periodically collect user daily information every period of the predetermined collection period or whenever the user daily information is collected from the user input devices (see 310_1 to 310_n in FIG. 1) have. At this time, the user can change the user's daily information collection period and set it.

특히, 본 발명이 사용자의 집에서 실시되는 경우에, 사용자가 외출하였다가 귀가한 경우와 같이, 새로이 사용자 입력 장치들(도 1의 310_1 내지 310_n 참조)에서 사용자 일상 정보가 수집되는 경우에, 일상 정보 수집부(120)가 사용자 일상 정보를 수집해올 수도 있다.Particularly, in the case where the present invention is carried out at the user's home, when the user's daily information is newly collected from the user input devices (see 310_1 to 310_n in FIG. 1), such as when the user goes out and returns home, The information collecting unit 120 may collect user daily information.

상태 정보 생성부(130)는 일상 정보 수집부(120)에서 수집해온 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하게 된다. 그리고 생성된 사용자 상태 정보는 분석 시간 정보와 함께 상태 정보 저장부(140)에 저장할 수 있다.The state information generating unit 130 analyzes user daily information collected by the daily information collecting unit 120 to generate user state information. The generated user state information may be stored in the state information storage unit 140 together with the analysis time information.

여기서, 사용자 상태 정보는 사용자의 상태를 나타낼 수 있는 정보로, 사용자의 감정 상태나 사용자의 생활 패턴 등을 포함할 수 있다. 사용자의 감정 상태나 사용자의 생활 패턴에 따라 사용자와의 상호작용 내용이 달라질 수 있고, 사용자와 상호작용을 진행할지의 여부도 판단할 수 있다.Here, the user state information may be information indicating the state of the user, and may include the emotion state of the user, the life pattern of the user, and the like. The contents of the interaction with the user can be changed according to the emotional state of the user or the life pattern of the user, and it is also possible to judge whether or not to proceed with the interaction with the user.

선택적 실시예에서, 상태 정보 생성부(130)는 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에 분석을 원하는 사용자 일상 정보를 송신할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에서 사용자 일상 정보를 분석하여 생성된 사용자 상태 정보를 수신할 수 있다. 또한, 수신된 사용자 상태 정보와 분석 시간 정보를 함께 상태 정보 저장부(140)에 저장할 수 있다.In an alternative embodiment, when the state information generator 130 analyzes the user's daily information and fails to generate user state information, the state information generator 130 may generate a user's daily routine Information can be transmitted. Then, the user state information generated by analyzing the user's daily information can be received from the server device (see 200 in FIG. 1) for expressing the interaction. In addition, the received user state information and analysis time information may be stored together in the state information storage unit 140.

상태 정보 저장부(140)는 상태 정보 생성부(130)에서 생성된 사용자 상태 정보와 시간 정보를 포함하여 저장한다. 여기서, 사용자 상태 정보는 시간 정보와 함께하여 사용자 상태의 변화를 판단하는데 사용될 수 있다.The state information storage unit 140 stores the user state information and time information generated by the state information generation unit 130. Here, the user state information may be used together with the time information to determine a change in the user state.

상호작용 시점 판단부(150)는 상태 정보 생성부(130)에서 생성된 사용자 상태 정보를 기반으로 사용자와 상호작용을 시작할 시점을 판단한다.The interaction time determination unit 150 determines a time to start the interaction with the user based on the user state information generated by the state information generation unit 130. [

여기서, 상호작용 시점 판단부(150)는 기설정된 판단 주기마다 주기적으로 혹은 상태 정보 생성부(130)에서 사용자 상태 정보가 생성될 때마다와 같이 수시로 상호작용 시점을 판단할 수 있다. 이때, 사용자는 사용자 일상 정보 판단 주기를 변경하여 설정할 수 있다.Here, the interaction time determination unit 150 can periodically determine an interaction time point at every predetermined determination period or whenever the user state information is generated in the state information generation unit 130. [ At this time, the user can change the user daily information determination cycle and set it.

따라서, 현재 상호작용을 하는 시점이 아니라고 판단되는 경우에는, 기설정된 판단 주기만큼 대기하였다가 다시 상호작용 시작 시점을 판단하거나 새로운 사용자 상태 정보가 생성됨에 따라 상호작용 시작 시점을 판단할 수 있다.Accordingly, when it is determined that the current time is not the time for the current interaction, the user can wait for a predetermined period of time to determine the start time of the interaction or determine the start time of the interaction as the new user state information is generated.

시나리오 선정부(160)는 상호작용 시점 판단부(150)에서 사용자와 상호작용을 시작할 시점이라고 판단하였을 때, 상태 정보 저장부(140)에 저장된 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정한다.The scenario selection unit 160 selects an interaction scenario corresponding to the user state information stored in the state information storage unit 140 when it is determined that the interaction time determination unit 150 starts the interaction with the user.

이때, 여러 사용자 상태 정보를 비교하여 사용자의 감정 상태나 생활 패턴의 변화 정보를 활용하여 상호작용 시나리오를 선정할 수 있다.At this time, it is possible to select an interaction scenario by comparing the user state information and the change information of the user's emotional state or life pattern.

여기서, 상호작용 시나리오는 사용자의 감정 상태를 개선하는 내용이거나 혹은 사용자의 현재 생활 패턴에 적합한 내용일 수 있다.Here, the interaction scenario may be a content for improving the user's emotional state or a content suitable for the current life pattern of the user.

선택적 실시예에서, 시나리오 선정부(160)는 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에 시나리오 선정을 원하는 사용자 상태 정보를 송신할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에서 사용자 상태 정보에 상응하도록 선정된 상호작용 시나리오를 수신할 수 있다.In an alternative embodiment, if the scenario selector 160 fails to select an interaction scenario corresponding to the user state information, the scenario selector 160 may select a user state (e.g., Information can be transmitted. Then, the server device (see 200 in FIG. 1) for expressing the interaction can receive the selected interaction scenario corresponding to the user status information.

상호작용 결정부(170)는 시나리오 선정부(160)에서 선정된 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정한다.The interaction determination unit 170 determines an interaction with the interaction object corresponding to the user behavior based on the interaction scenario selected by the scenario selection unit 160. [

예를 들면, 사용자의 기분이 안 좋은 상태라고 판단되어 사용자의 기분을 좋게 해주는 시나리오가 선정된 경우에, 사용자의 기분이 안 좋은 모습에 상응하도록 “오늘 기분이 안 좋아 보여요.”와 같은 말로 상호작용을 결정할 수 있으며, 상호작용 객체는 조심스럽고 걱정스러운 표정을 짓도록 결정할 수 있다.For example, in the case that a user's mood is judged to be in a bad state, and a scenario that makes the user feel good is selected, the words "I do not feel well today" Action, and the interacting object can decide to build a careful and anxious expression.

나아가, 사용자와 상호작용을 진행중인 경우에는, 사용자의 응답 혹은 반응에 대한 정보를 수신한 경우에는, 선정된 상호작용 시나리오에 기반하여 사용자 응답 혹은 반응에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다. 만약, 사용자의 응답이 상호작용을 종료하는 취지인 경우에는, 그에 상응하는 상호작용을 결정하고 현재 사용자와의 상호작용을 종료할 수 있다.Further, when the user is in the process of interacting with the user, when the information of the user's response or response is received, the interaction with the interaction object corresponding to the user response or response can be determined based on the selected interaction scenario . If the user's response is to terminate the interaction, then the corresponding interaction may be determined and the interaction with the current user may be terminated.

또한, 상호작용 결정부(170)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정하는데 실패한 경우에는, 경우에는, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에 상호작용 시나리오와 사용자 행동 정보를 송신할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하도록 결정된 상호작용 객체와 상호작용을 수신할 수 있다.In addition, if the interaction determining unit 170 fails to determine the interaction with the interaction object corresponding to the user action based on the interaction scenario, the server apparatus for representing the interaction The user may transmit the interaction scenario and the user behavior information to the user. And, the server device (see 200 in FIG. 1) for expressing the interaction can receive the interaction with the determined interaction object based on the interaction scenario based on the user behavior.

상호작용 변환부(180)는 상호작용 결정부(170)에서 결정된 상호작용 객체와 상호작용을 기설정된 동작모드에 상응하는 상호작용 객체와 상호작용으로 변환한다. 동작모드는 상호작용 객체에 대한 형상뿐만 아니라, 동일한 상호작용의 내용에 대해서도 상호작용 객체에 적합한 상호작용으로 다양한 표현형식을 제공하기 위한 모드이다.The interaction transform unit 180 transforms the interaction object and interaction determined in the interaction determination unit 170 into an interaction with the interaction object corresponding to the predetermined operation mode. The mode of operation is a mode for providing a variety of expression forms as well as a shape for an interactive object, with appropriate interactions for an interactive object, even for the same interaction contents.

예를 들어, 사용자가 남성이고 동작모드가 배우자 모드로 설정이 된 경우에는, 상호작용 객체를 사용자와 비슷한 연령의 외관을 가진 여성으로 변경하고, 결정된 상호작용에 의한 대사가 “어서오세요.”라고 하였을 때 “여보, 어서와요.”와 같은 대사의 상호작용으로 변경할 수 있다.For example, if the user is male and the mode of operation is set to spouse mode, the interactive object may be changed to a female of similar age to the user, and the metabolism by the determined interaction may be referred to as " Can be changed by the interaction of dialogue such as "Honey, come on."

선택적 실시예에서, 상호작용 변환부(180)에서 상호작용 객체와 상호작용을 기설정된 동작모드에 상응하도록 변환하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에 상호작용 객체, 상호작용 및 동작모드 정보를 송신할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에서 동작모드에 상응하도록 변환된 상호작용 객체와 상호작용을 수신할 수 있다.In an alternate embodiment, if the interaction transformer 180 fails to transform the interaction with the interaction object to correspond to a predetermined mode of operation, then the server device (see 200 of FIG. 1) Action objects, interaction and action mode information. And, the server device (see 200 in FIG. 1) for expressing the interaction can receive the interaction with the converted interaction object to correspond to the operation mode.

상호작용 표현부(190)는 상호작용 결정부(170)에서 결정된 상호작용 객체와 상호작용을 기설정된 사용자 출력 장치들(도 1의 320_1 내지 320_n 참조)을 이용하여 표현한다.The interaction expression unit 190 expresses the interaction with the interaction object determined by the interaction determination unit 170 using preset user output devices (see 320_1 to 320_n in FIG. 1).

여기서, 상호작용 객체는 그 외관을 영상 정보를 이용하여 출력함으로써 표현 가능하며, 상호작용 중에서 대사는 음향 정보를 출력하여 표현 가능하다. 상호작용과 관련된 표현 정보는 영상, 음향, 진동 등으로 표현할 수 있고, 각각의 출력을 지원하는 사용자 출력 장치들(도 1의 320_1 내지 320_n 참조)을 이용하여 원하는 상호작용을 표현할 수 있다.Here, the interactive object can be expressed by outputting the appearance of the object using the image information, and the metabolism among the interaction can be expressed by outputting the acoustic information. Expression information related to the interaction can be expressed by image, sound, vibration, etc., and desired interaction can be expressed using user output devices (refer to 320_1 to 320_n in FIG. 1) supporting each output.

예를 들어, 사용자가 AR장치와 여러 여러 오디오 장치를 상호작용을 위한 사용자의 출력 장치로 설정한 경우에는, AR장치를 이용하여 증강현실 기술에 기반한 상호작용 대상 객체를 영상으로 출력할 수 있다. 그리고, 상호작용을 위한 음향 정보는 상호작용 대상 객체의 위치에 연동하여 상호작용 대상 객체에 가까이 위치한 오디오 장치를 이용하여 소리를 출력하는 것과 같이 구현할 수 있다.For example, when the user sets the AR device and various audio devices as user output devices for interaction, the AR device can output an interactive target object based on augmented reality technology. The sound information for the interaction can be implemented by outputting sound using an audio device located close to the interaction target object in association with the position of the interaction target object.

선택적 실시예에서, 상호작용 표현부(190)는 상호작용 변환부(180)에서 기설정된 동작모드에 상응하도록 변환된 상호작용 객체와 상호작용을 기설정된 사용자 출력 장치들(도 1의 320_1 내지 320_n 참조)을 이용하여 표현할 수 있다.In an alternate embodiment, the interaction expression unit 190 may interact with the transformed interacting object to correspond to a predetermined mode of operation in the interaction transform unit 180 using predetermined user output devices (320_1 to 320_n ) Can be used.

예를 들면, 사용자가 AR장치와 오디오를 상호작용을 위한 사용자의 출력 장치로 설정하고 동작모드가 애완견 모드로 설정된 경우에는, AR장치를 이용하여 증강현실 기술에 기반한 애완견을 영상으로 출력하고, 애완견이 짖는 소리를 AR장치 혹은 오디오 장치를 이용하여 소리를 출력할 수 있다.For example, when the user sets the audio device as an output device for user interaction with the audio device and the operation mode is set to the dog mode, the AR device outputs the image of the dog based on the augmented reality technique, This barking sound can be output by using AR device or audio device.

도 3은 도 1에 도시된 상호작용을 표현하기 위한 서버 장치의 내부 구성의 일 예를 나타낸 블록도이다.3 is a block diagram showing an example of the internal configuration of the server apparatus for expressing the interaction shown in FIG.

도 3을 참조하면, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 서버 통신부(210), 데이터베이스(220), 정보 수집부(230) 및 상호작용 결정보조부(260) 등을 포함한다.3, a server apparatus 200 for representing an interaction according to an exemplary embodiment of the present invention includes a server communication unit 210, a database 220, an information collection unit 230, and an interaction determination auxiliary unit 260 ) And the like.

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 상태 정보 생성보조부(240)를 더 포함할 수 있다.In addition, the server device 200 for expressing the interaction according to an embodiment of the present invention may further include a status information generation assisting unit 240.

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 시나리오 선정보조부(250)를 더 포함할 수 있다.In addition, the server apparatus 200 for expressing an interaction according to an embodiment of the present invention may further include a scenario selection auxiliary unit 250. [

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 상호작용 변환보조부(270)를 더 포함할 수 있다.In addition, the server apparatus 200 for expressing an interaction according to an embodiment of the present invention may further include an interaction conversion assisting unit 270.

상세히, 서버 통신부(210)는 상호작용을 표현하기 위한 서버 장치(200)와 상호작용을 표현하기 위한 클라이언트 장치(100)간의 송수신 신호를 전송하는데 필요한 통신 인터페이스를 제공한다.In detail, the server communication unit 210 provides a communication interface required to transmit a transmission / reception signal between the server apparatus 200 for expressing an interaction and the client apparatus 100 for expressing an interaction.

여기서, 서버 통신부(210)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.Here, the server communication unit 210 may be a device including hardware and software necessary for transmitting / receiving signals such as a control signal or a data signal through a wired / wireless connection with other network devices.

데이터베이스(220)는 여러 상호작용을 표현하기 위한 클라이언트 장치(100)들로부터 누적된 상호작용 시나리오, 상호작용 객체, 상호작용, 사용자의 행동 그리고 각 정보의 상관관계에 대한 정보를 포함하여 보관하고 있다.The database 220 stores information on accumulated interaction scenarios, interaction objects, interaction, user behavior, and correlation of each information from the client devices 100 for expressing various interactions .

정보 수집부(230)는 여러 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 상호작용 시나리오, 사용자와의 상호작용 및 사용자의 행동 이력 등에 관한 정보를 수집하여, 데이터베이스(220)에 저장할 수 있다.The information collecting unit 230 may collect information on an interaction scenario, an interaction with a user, a user's action history, and the like from the client apparatus 100 for expressing various interactions and store the collected information in the database 220.

선택적 실시예에서, 상태 정보 생성보조부(240)는 상호작용을 표현하기 위한 클라이언트 장치(100)에서 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하는데 실패하여 대신 생성을 요청하는 경우에, 데이터베이스(220)에 저장된 정보를 이용하여 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 수신한 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성할 수 있다. 그리고, 생성한 사용자 상태 정보를 상호작용을 표현하기 위한 클라이언트 장치(100)로 송신한다.In an alternative embodiment, when the client device 100 for interactivity analyzes the user's daily information and fails to generate the user state information, the state information generation auxiliary unit 240 may request the generation of the user state information from the database 220 The user state information can be generated by analyzing the user's daily information received from the client device 100 for expressing the interaction using the information stored in the client device 100. [ Then, the generated user state information is transmitted to the client device 100 for expressing the interaction.

선택적 실시예에서, 시나리오 선정보조부(250)는 상호작용을 표현하기 위한 클라이언트 장치(100)에서 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는데 실패하여 대신 선정을 요청하는 경우에, 데이터베이스(220)에 저장된 정보를 이용하여 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 수신한 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정할 수 있다. 그리고, 선정한 상호작용 시나리오를 상호작용을 표현하기 위한 클라이언트 장치(100)로 송신한다.In an alternative embodiment, the scenario selection sub-unit 250 may include a database 220 that, when failing in selecting an interaction scenario corresponding to user state information in the client device 100 for interactivity, The interaction scenario corresponding to the user state information received from the client device 100 for expressing the interaction using the information stored in the interaction scenario can be selected. Then, the selected interaction scenario is transmitted to the client device 100 for expressing the interaction.

상호작용 결정보조부(260)는 상호작용을 표현하기 위한 클라이언트 장치(100)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정하는데 실패하여 대신 결정을 요청하는 경우에, 데이터베이스(220)에 저장된 정보를 이용하여 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 수신한 상호작용 시나리오와 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다. 그리고, 결정한 상호작용 객체와 상호작용을 상호작용을 표현하기 위한 클라이언트 장치(100)로 송신한다.If the interaction determination auxiliary unit 260 fails to determine the interaction with the interaction object corresponding to the user action based on the interaction scenario in the client device 100 for expressing the interaction and instead requests the determination, The information stored in the database 220 can be used to determine interaction with the interaction scenario corresponding to the user behavior and the interaction object received from the client device 100 for representing the interaction. Then, it transmits the determined interaction object and the interaction to the client device 100 for expressing the interaction.

선택적 실시예에서, 상호작용 변환보조부(270)는 상호작용을 표현하기 위한 클라이언트 장치(100)에서 상호작용 객체와 상호작용을 동작모드에 상응하도록 변환하는데 실패하여 대신 변환을 요청하는 경우에, 데이터베이스(220)에 저장된 정보를 이용하여 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 수신한 동작모드에 상응하도록 수신한 상호작용 객체와 상호작용을 변환할 수 있다. 그리고, 변환한 상호작용 객체와 상호작용을 상호작용을 표현하기 위한 클라이언트 장치(100)로 송신한다.In an alternate embodiment, the interactive transformation assistant 270 may, in the event that the client device 100 for rendering the interaction fails to transform the interaction with the interaction object to correspond to the mode of operation and instead requests a transformation, The client device 100 may convert the interaction with the received interaction object corresponding to the operation mode received from the client device 100 for expressing the interaction using the information stored in the client device 220. [ Then, the client device 100 transmits the interaction with the converted interaction object to the client device 100 for expressing the interaction.

상호작용을 표현하기 위한 서버 장치(200)는 여러 상호작용을 표현하기 위한 클라이언트 장치(100)들에서 수집된 시나리오와 상호작용 그리고 사용자의 행동에 대한 이력 정보가 누적되어 있으므로, 개별적인 상호작용을 표현하기 위한 클라이언트 장치(100)들에 비하여 많은 정보를 가지게된다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(100)에 비해서 더 많은 상황에 대응 가능하여 상호작용을 표현하기 위한 클라이언트 장치(100)를 지원할 수 있다.The server device 200 for expressing the interaction expresses the individual interaction because the scenario information, the interaction information, and the history information about the user's actions are accumulated in the client devices 100 for representing various interactions. As compared with the client apparatuses 100 for performing the authentication. Accordingly, the client device 100 can support more situations than the client device 100 for expressing the interaction and can support the client device 100 for expressing the interaction.

도 4는 본 발명의 일 실시예에 따라 사용자의 출력 장치에 출력된 증강현실 기반의 상호작용 영상의 일 예이다.4 is an example of an augmented reality-based interactive image output to a user output device according to an embodiment of the present invention.

도 4를 참조하면, 상호작용의 표현을 위한 사용자 출력장치가 AR장치인 경우에는, 증강현실 기술에 기반하여 사용자가 존재하는 공간인 사용자의 집에 상호작용 객체(40a)가 위치하도록 표현될 수 있다.Referring to FIG. 4, when the user output device for expressing the interaction is the AR device, the interactive object 40a may be represented in the home of the user, have.

도 4에 도시된 예시는 동작모드가 성인여성모드 혹은 아내모드와 같이 설정되어 상호작용 진행 대상(40a)이 젊은 성인 여성의 모습을 하고 있다. 그리고, 사용자의 출퇴근 패턴을 파악하여 사용자가 퇴근하여 귀가한 때의 상호작용(40b)을 상호작용 진행 대상(40a)인 젊은 성인 여성에 상응하도록 표현하고 있다.The example shown in FIG. 4 shows that the operation progress mode is set as the adult female mode or the wife mode, and the interaction progress object 40a is a young adult woman. Then, the interactions 40b when the user leaves the home and returns to the home are identified by expressing the pattern of the commute of the user so as to correspond to the young adult woman as the interaction progress object 40a.

상호작용(40b)와 같은 대사 혹은 대화 상호작용은 음향 출력 장치들을 이용하여 소리로 출력할 수 있고, 영상 출력 장치들을 통하여 대사가 보이도록 글자로 출력할 수도 있으며, 소리와 글자를 동시에 출력할 수도 있다.The dialogue or dialogue interaction, such as interaction 40b, can be output as a sound using sound output devices, as letters through which the dialogue can be displayed through video output devices, or simultaneously with sound and text have.

도 5는 본 발명의 일 실시예에 따라 사용자의 출력 장치에 출력된 증강현실 기반의 상호작용 영상의 다른 예이다.5 is another example of an augmented reality-based interactive image output to a user output device according to an embodiment of the present invention.

도 5를 참조하면, 상호작용의 표현을 위한 사용자 출력장치가 AR장치인 경우에는, 증강현실 기술에 기반하여 사용자가 존재하는 공간인 사용자의 집에 상호작용 객체(50a)가 위치하도록 표현될 수 있다.Referring to FIG. 5, when the user output device for expressing the interaction is the AR device, the interactive object 50a may be represented in the home of the user, have.

도 5에 도시된 예시는 동작모드가 애완견모드 혹은 강아지모드와 같이 설정되어 상호작용 진행 대상(50a)이 강아지의 모습을 하고 있다. 그리고, 사용자의 출퇴근 패턴을 파악하여 사용자가 퇴근하여 귀가한 때의 상호작용(50b)을 상호작용 진행 대상(50a)인 강아지에 상응하도록 표현하고 있다.In the example shown in FIG. 5, the operation mode is set to the dog mode or the dog mode, and the interaction progress object 50a is a puppy. The interactions 50b when the user leaves the home and returns to the home are identified by expressing the pattern of the commute of the user so as to correspond to the dog as the interaction progress object 50a.

상호작용(50b)와 같은 대사 혹은 대화 상호작용은 음향 출력 장치들을 이용하여 소리로 출력할 수 있고, 영상 출력 장치들을 통하여 대사가 보이도록 글자로 출력할 수도 있으며, 소리와 글자를 동시에 출력할 수도 있다.The dialogue or dialogue interaction, such as interaction 50b, may be output as a sound using sound output devices, as letters through the image output devices, or simultaneously as sound and text have.

도 6은 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치가 수행하는 상호작용을 표현하기 위한 방법을 나타낸 동작 흐름도이다.6 is an operational flowchart illustrating a method for representing an interaction performed by a client device for representing an interaction according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 먼저 사용자의 입력 장치들(도 1의 310_1 내지 310_n 참조)에서 수집된 사용자 일상 정보를 수집한다(S601).Referring to FIG. 6, a method for representing an interaction according to an exemplary embodiment of the present invention includes a client device (see 100 in FIG. 1) To 310_n) (S601).

여기서, 사용자 일상 정보의 수집은 기설정된 수집주기마다 혹은 수시로 이루어질 수 있다.Here, the collection of the user's daily information may be performed every predetermined collection period or at any time.

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 수집된 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성한다(S603).In addition, a method for representing an interaction according to an embodiment of the present invention includes analyzing collected user daily information to generate user state information (see 100 in FIG. 1) for expressing an interaction S603).

여기서, 생성된 사용자 상태 정보는 시간 정보와 함께 저장될 수 있다.Here, the generated user state information may be stored together with time information.

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 사용자 상태 정보를 기반으로 상호작용 시작 여부를 판단한다(S605).In addition, a method for representing an interaction according to an embodiment of the present invention determines whether an interaction is started based on user state information (S 1005 in FIG. 1) ).

단계(S605)의 판단 결과 상호작용을 시작하는 시점이 아닌 경우에는, 단계(S601)로 돌아가 다시 사용자 일상 정보를 수집한다.If it is determined in step S605 that the interaction is not started, the process returns to step S601 and the user routine information is collected again.

단계(S605)의 판단 결과 상호작용을 시작하는 시점이 맞는 경우에는, 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정한다(S607).If it is determined in step S605 that the time for starting the interaction is correct, an interaction scenario corresponding to the user state information is selected (S607).

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 선정된 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체 및 상호작용을 결정한다(S609).In addition, a method for representing an interaction in accordance with an embodiment of the present invention includes the steps of a client device (see 100 in FIG. 1) for representing an interaction, The object and the interaction are determined (S609).

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 결정된 상호작용 객체 및 상호작용을 기설정된 동작모드에 상응하는 상호작용 객체 및 상호작용으로 변환한다(S611).In addition, a method for representing an interaction in accordance with an embodiment of the present invention includes the steps of a client device (see 100 in FIG. 1) for expressing an interaction to determine a determined interaction object and an interaction, Into an interactive object and an interaction (S611).

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 변환된 상호작용 객체 및 상호작용을 기설정된 사용자 출력 장치들(도 1의 320_1 내지 320_n)을 통하여 표현한다(S613).In addition, a method for representing an interaction according to an embodiment of the present invention includes a client device (see 100 in FIG. 1) for expressing an interaction, (320_1 to 320_n in FIG. 1) (S613).

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 사용자로부터 종료 명령을 수신하였는지 여부를 판단한다(S615). 사용자가 종료 명령을 전달하게 되는 경우에는, 사용자와의 상호작용을 종료하기 위한 절차가 진행된다.In addition, a method for expressing an interaction according to an embodiment of the present invention determines whether a client device (see 100 in FIG. 1) for expressing an interaction has received a termination command from a user (S615). When the user is to transmit the termination command, a procedure for terminating the interaction with the user proceeds.

단계(S615)의 판단 결과, 사용자로부터 종료 명령을 수신하지 않은 경우에는, 단계(S609)로 돌아가 상호작용 시나리오에 기반하여 사용자의 행동에 상응하는 상호작용 객체 및 상호작용을 결정한다.If it is determined in step S615 that the end command has not been received from the user, the flow returns to step S609 to determine the interaction object and the interaction corresponding to the user's action based on the interaction scenario.

단계(S615)의 판단 결과, 사용자로부터 종료 명령을 수신한 경우에는, 종료 상호작용을 기설정된 동작모드에 상응하는 종료 상호작용으로 변환한다(S617).If it is determined in step S615 that the end instruction is received from the user, the end interaction is converted into the end interaction corresponding to the predetermined operation mode (S617).

또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 기설정된 사용자 출력 장치들(도 1의 320_1 내지 320_n 참조)을 통하여 종료 상호작용을 표현한다(S619).In addition, a method for representing an interaction according to an embodiment of the present invention includes a client device (see 100 in FIG. 1) for expressing an interaction, a predetermined user output device (see 320_1 to 320_n in FIG. 1) (S619). ≪ / RTI >

선택적 실시예에서, 상기 단계들(S601, S603, S605, S607, S609, S611, S613, S615, S617 및 S619)에 있어서, 사용자 일상 정보를 수집하는 단계(S601)와 사용자 상태 정보를 생성하는 단계(S603)는 병렬적으로 수행될 수 있다.In an alternative embodiment, in the steps S601, S603, S605, S607, S609, S611, S613, S615, S617 and S619, the step of collecting user's daily information (S601) (S603) may be performed in parallel.

선택적 실시예에서, 상기 단계들(S601, S603, S605, S607, S609, S611, S613, S615, S617 및 S619)에 있어서, 상호작용 객체와 상호작용을 결정하는 단계(S609)와 상호작용 객체와 상호작용을 변환하는 단계(S611)는 병렬적으로 수행될 수 있다.In an alternative embodiment, in the steps S601, S603, S605, S607, S609, S611, S613, S615, S617 and S619, the step of determining interaction with the interaction object (S609) The step of converting the interaction (S611) may be performed in parallel.

도 7은 도 6에 도시된 상호작용 객체 및 상호작용을 결정단계(S609)의 일 예를 나타낸 동작 흐름도이다.FIG. 7 is a flowchart illustrating an example of the step S609 of determining an interaction object and an interaction shown in FIG.

도 7을 참조하면, 도 6에 도시된 상호작용 객체 및 상호작용을 결정단계(S609)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 결정부(도 2의 170 참조)가, 선정된 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체 및 상호작용의 결정을 시도한다(S701).7, the determination step S609 of the interaction object and interaction shown in Fig. 6 is performed by the interaction determination unit (see 170 in Fig. 2) of the client apparatus (see 100 in Fig. 1) ) Attempts to determine interaction objects and interactions corresponding to user behavior based on the selected interaction scenario (S701).

상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)에서도 여러 상호작용 객체 및 상호작용을 결정할 수 있으나, 모든 사용자의 행동이나 상태에 상응하도록 결정할 수는 없다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)만의 정보를 통해서 상호작용 객체 및 상호작용을 결정하지 못하는 경우에는, 상호작용을 표현하기 위한 서버 장치(도 2의 200 참조)의 개입이 필요하다.The client device (see 100 in FIG. 1) for expressing the interaction can also determine a number of interacting objects and interactions, but can not determine that they correspond to the behavior or state of all users. Therefore, when the interaction object and the interaction can not be determined through the information of only the client device (see 100 in FIG. 1) for expressing the interaction, the server device (see 200 in FIG. 2) Intervention is needed.

또한, 도 6에 도시된 상호작용 객체 및 상호작용을 결정단계(S609)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 결정부(도 2의 170 참조)가, 상호작용 객체 및 상호작용의 결정에 성공하였는지 여부를 판단한다(S703).In addition, the determination step (S609) of the interactive objects and the interaction shown in Fig. 6 is performed when the interaction determination unit (see 170 in Fig. 2) of the client apparatus It is determined whether the operation object and the interaction have been successfully determined (S703).

단계(S703)의 판단 결과, 상호작용 객체 및 상호작용의 결정에 성공하였다면, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 결정부(도 2의 170 참조)에서 결정된 상호작용 객체 및 상호작용을 이후의 단계에서 사용한다.As a result of the determination in step S703, if the determination of the interaction object and the interaction is successful, the mutual determination unit (see 170 in FIG. 2) of the client apparatus (see 100 in FIG. 1) Action objects and interactions are used in subsequent steps.

단계(S703)의 판단 결과, 상호작용 객체 및 상호작용의 결정에 실패하였다면, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)로 상호작용 시나리오와 사용자 행동을 송신한다(S705).As a result of the determination in step S703, if the determination of the interaction object and the interaction fails, the interaction scenario and the user behavior are transmitted to the server device (refer to 200 in FIG. 1) for expressing the interaction (S705).

또한, 도 6에 도시된 상호작용 객체 및 상호작용을 결정단계(S609)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 결정부(도 2의 170 참조)가, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)의 상호작용 결정보조부(도 3의 260 참조)에서 결정된 상호작용 객체와 상호작용을 수신한다(S707).In addition, the determination step (S609) of the interactive objects and the interaction shown in Fig. 6 is performed when the interaction determination unit (see 170 in Fig. 2) of the client apparatus (See FIG. 3) of the server device (see 200 in FIG. 1) for expressing the action (S707).

도 8은 도 6에 도시된 상호작용 객체와 상호작용을 변환하는 단계(S611)의 일 예를 나타낸 동작 흐름도이다.FIG. 8 is a flowchart illustrating an example of the step S611 of converting the interaction with the interactive object shown in FIG.

도 8을 참조하면, 도 6에 도시된 상호작용 객체와 상호작용을 변환하는 단계 (S611)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 변환부(도 2의 180 참조)가, 결정된 상호작용 객체와 상호작용을 기설정된 동작모드에 상응하는 상호작용 객체와 상호작용으로 변환을 시도한다(S801).Referring to FIG. 8, the step of converting the interaction with the interaction object shown in FIG. 6 (S611) includes an interaction conversion unit (180 in FIG. 2) of the client apparatus (S801) attempts to convert the interaction with the determined interaction object into an interaction with the interaction object corresponding to the predetermined operation mode.

상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)에서도 여러 동작모드에 상응하도록 상호작용 객체 및 상호작용을 변환할 수 있으나, 모든 동작모드와 상호작용 객체 및 상호작용에 대해서 변환할 수는 없다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)만의 정보를 통해서 상호작용 객체 및 상호작용을 변환하지 못하는 경우에는, 상호작용을 표현하기 위한 서버 장치(도 2의 200 참조)의 개입이 필요하다.The client device (see 100 in FIG. 1) for expressing the interaction may also convert the interaction objects and interactions to correspond to the various modes of operation, but not all of the operation modes and the interaction objects and interactions none. Therefore, when the interactive object and the interaction can not be converted through the information of only the client device (see 100 in FIG. 1) for expressing the interaction, the server device (see 200 in FIG. 2) Intervention is needed.

또한, 도 6에 도시된 상호작용 객체와 상호작용을 변환하는 단계(S611)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 변환부(도 2의 180 참조)가, 상호작용 객체 및 상호작용의 변환에 성공하였는지 여부를 판단한다(S803).In addition, the step of converting the interaction with the interactive object shown in Fig. 6 (S611) includes the step of converting the interaction conversion unit (see 180 in Fig. 2) of the client apparatus (see 100 in Fig. 1) It is determined whether or not the conversion of the interaction object and the interaction has succeeded (S803).

단계(S803)의 판단 결과, 상호작용 객체 및 상호작용의 변환에 성공하였다면, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 변환부(도 2의 180 참조)에서 변환된 상호작용 객체 및 상호작용을 이후의 단계에서 사용한다.As a result of the determination in step S803, if the conversion of the interactive object and the interaction has succeeded, the result of the conversion in the interactive conversion unit (see 180 in FIG. 2) of the client apparatus (see 100 in FIG. 1) Interactive objects and interactions are used in subsequent steps.

단계(S803)의 판단 결과, 상호작용 객체 및 상호작용의 변환에 실패하였다면, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)로 동작모드와 상호작용 객체 및 상호작용을 송신한다(S805).As a result of the determination in step S803, if the conversion of the interaction object and the interaction fails, the operation mode and the interaction object and the interaction are transmitted to the server device (see 200 in FIG. 1) for expressing the interaction (S805 ).

또한, 도 6에 도시된 상호작용 객체 및 상호작용을 변환단계(S611)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 변환부(도 2의 180 참조)가, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)의 상호작용 변환보조부(도 3의 270 참조)에서 변환된 상호작용 객체와 상호작용을 수신한다(S807).6, the interactive conversion unit (see 180 in FIG. 2) of the client apparatus (see 100 in FIG. 1) for expressing the interaction is a mutual conversion unit (See FIG. 3) of the server device (see 200 in FIG. 1) for expressing the action (S807).

도 9는 도 6에 도시된 사용자 상태 정보를 생성하는 단계(S603)의 일 예를 나타낸 동작 흐름도이다.FIG. 9 is an operational flowchart illustrating an example of generating the user status information (S603) shown in FIG.

도 9를 참조하면, 도 6에 도시된 사용자 상태 정보를 생성하는 단계(S603)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상태 정보 생성부(도 2의 130 참조)가, 수집된 사용자 일상 정보를 분석하여 사용자 상태 정보의 생성을 시도한다(S901).Referring to FIG. 9, the step S603 of generating the user state information shown in FIG. 6 includes a state information generating unit (see 130 in FIG. 2) of the client apparatus (see 100 in FIG. 1) , And attempts to generate user state information by analyzing the collected user daily information (S901).

상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)에서도 여러 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성할 수 있으나, 모든 사용자의 일상 정보를 분석할 수는 없다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)만의 정보를 통해서 사용자 상태 정보를 생성하지 못하는 경우에는, 상호작용을 표현하기 위한 서버 장치(도 2의 200 참조)의 개입이 필요하다.Although the client device (see 100 in FIG. 1) for expressing the interaction can analyze various user daily information to generate user status information, it can not analyze daily information of all users. Therefore, when the user state information can not be generated through information of only the client device (see 100 in FIG. 1) for expressing the interaction, it is necessary to intervene the server device (refer to 200 in FIG. 2) Do.

또한, 도 6에 도시된 사용자 상태 정보를 생성하는 단계(S603)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상태 정보 생성부(도 2의 130 참조)가, 사용자 상태 정보의 생성에 성공하였는지 여부를 판단한다(S903).The step S603 of generating the user state information shown in Fig. 6 includes a step of generating a state information generating unit (see 130 in Fig. 2) of the client apparatus (see 100 in Fig. 1) (S903). ≪ / RTI >

단계(S903)의 판단 결과, 사용자 상태 정보의 생성에 성공하였다면, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상태 정보 생성부(도 2의 130 참조)에서 생성된 사용자 상태 정보를 이후의 단계에서 사용한다.As a result of the determination in step S903, if the generation of the user state information is successful, the user state information generated in the state information generation unit (refer to 130 in FIG. 2) of the client apparatus (refer to 100 in FIG. 1) Are used in later steps.

단계(S903)의 판단 결과, 사용자 상태 정보의 생성에 실패하였다면, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)로 사용자 일상 정보를 송신한다(S905).If it is determined in step S903 that the generation of the user state information is unsuccessful, the user routine information is transmitted to the server device (refer to 200 in FIG. 1) for expressing the interaction (S905).

또한, 도 6에 도시된 사용자 상태 정보를 생성하는 단계(S603)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상태 정보 생성부(도 2의 130 참조)가, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)의 상태 정보 생성보조부(도 3의 240 참조)에서 생성된 사용자 상태 정보를 수신한다(S907).The step S603 of generating the user state information shown in FIG. 6 may also include a step S604 of generating the state information of the client device (see 100 in FIG. 1) (See FIG. 3) of the server device (see 200 in FIG. 1) for representing the user information (S907).

도 10은 도 6에 도시된 상호작용 시나리오를 선정하는 단계(S607)의 일 예를 나타낸 동작 흐름도이다.10 is an operation flowchart showing an example of a step S607 for selecting an interaction scenario shown in Fig.

도 10을 참조하면, 도 6에 도시된 상호작용 시나리오를 선정하는 단계(S607)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 시나리오 선정부(도 2의 160 참조)가, 사용자 상태 정보에 상응하는 상호작용 시나리오의 선정을 시도한다(S1001).Referring to FIG. 10, the step of selecting the interaction scenario shown in FIG. 6 (S607) includes a scenario selecting unit (see 160 in FIG. 2) of the client apparatus (see 100 in FIG. 1) An attempt is made to select an interaction scenario corresponding to the user state information (S1001).

상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)에서도 여러 상호작용 시나리오를 선정할 수 있으나, 모든 사용자의 상태 정보에 대해서 상응하는 상호작용 시나리오를 선정할 수는 없다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)만의 정보를 통해서 상호작용 시나리오를 선정하지 못하는 경우에는, 상호작용을 표현하기 위한 서버 장치(도 2의 200 참조)의 개입이 필요하다.Several interaction scenarios can also be selected in the client device (see 100 in FIG. 1) for expressing the interaction, but the corresponding interaction scenario can not be selected for all user status information. Therefore, when the interaction scenario can not be selected through information of only the client device (see 100 in FIG. 1) for expressing the interaction, it is necessary to intervene the server device (refer to 200 in FIG. 2) Do.

또한, 도 6에 도시된 상호작용 시나리오를 선정하는 단계(S607)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 시나리오 선정부(도 2의 160 참조)가, 상호작용 시나리오의 선정에 성공하였는지 여부를 판단한다(S1003).The step of selecting the interaction scenario shown in Fig. 6 (S607) includes a step of selecting a scenario selecting section (see 160 in Fig. 2) of the client device (see 100 in Fig. 1) It is determined whether or not the selection is successful (S1003).

단계(S1003)의 판단 결과, 상호작용 시나리오의 선정에 성공하였다면, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 시나리오 선정부(도 2의 160 참조)에서 선정된 상호작용 시나리오를 이후의 단계에서 사용한다.As a result of the determination in step S1003, if the selection of the interaction scenario is successful, the interaction scenario selected in the scenario selection section (see 160 in FIG. 2) of the client device (see 100 in FIG. 1) It is used in the following step.

단계(S1003)의 판단 결과, 상호작용 시나리오의 선정에 실패하였다면, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)로 사용자 상태 정보를 송신한다(S1005).As a result of the determination in step S1003, if the selection of the interactive scenario fails, the user status information is transmitted to the server device (refer to 200 in FIG. 1) for expressing the interaction (S1005).

또한, 도 6에 도시된 상호작용 시나리오를 선정하는 단계(S607)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 시나리오 선정부(도 2의 160 참조)가, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)의 시나리오 선정보조부(도 3의 250 참조)에서 선정된 상호작용 시나리오를 수신한다(S1007).In addition, the step of selecting the interaction scenario shown in Fig. 6 (S607) may include the step of selecting a scenario (see 160 in Fig. 2) of the client device (see 100 in Fig. 1) (See 250 in FIG. 3) of the server apparatus (see 200 in FIG. 1) for receiving the interactive scenario (S1007).

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, medium, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be modified into one or more software modules for performing the processing according to the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all ranges that are equivalent to or equivalent to the claims of the present invention as well as the claims .

1: 상호작용을 표현하기 위한 시스템
100: 상호작용을 표현하기 위한 클라이언트 장치
110: 클라이언트 통신부 120: 일상 정보 수집부
130: 상태 정보 생성부 140: 상태 정보 저장부
150: 상호작용 시점 판단부 160: 시나리오 선정부
170: 상호작용 결정부 180: 상호작용 변환부
190: 상호작용 표현부
200: 상호작용을 표현하기 위한 서버 장치
210: 서버 통신부 220: 데이터베이스
230: 정보 수집부 240: 상태 정보 생성보조부
250: 시나리오 선정보조부 260: 상호작용 결정보조부
270: 상호작용 변환보조부
310_1 내지 310_n: 사용자 입력 장치들
320_1 내지 320_n: 사용자 출력 장치들
1: System for expressing interaction
100: client device for expressing interaction
110: client communication unit 120: daily information collecting unit
130: status information generating unit 140: status information storing unit
150: Interaction time point determination unit 160: Scenario selection unit
170: interaction determination unit 180: interaction conversion unit
190: Interaction expression unit
200: server device for expressing interaction
210: server communication unit 220: database
230: information collecting unit 240: state information generating assistant
250: scenario selection sub-unit 260: interaction determination sub-
270: interactive conversion assistant
310_1 to 310_n: User input devices
320_1 to 320_n: User output devices

Claims (1)

사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하는 상태 정보 생성부;
상기 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는 시나리오 선정부;
상기 선정된 상호작용 시나리오를 이용하여 상호작용 객체 및 상호작용을 결정하고, 상기 상호작용 객체 및 상호작용을 결정하지 못한 경우에는 상호작용을 표현하기 위한 서버 장치에 상호작용 객체 및 상호작용의 결정을 요청하여 수신한 상호작용 객체 및 상호작용으로 대신하는 상호작용 결정부; 및
기설정된 적어도 하나 이상의 상기 사용자의 출력 장치들을 통해 상기 상호작용 객체 및 상기 상호작용을 표현하는 상호작용 표현부;
를 포함하는, 상호작용을 표현하기 위한 클라이언트 장치.
A state information generation unit for analyzing user daily information and generating user state information;
A scenario selector for selecting an interaction scenario corresponding to the user state information;
Determining interaction objects and interactions using the selected interaction scenarios and, if the interaction objects and interactions are not determined, determining interactions objects and interactions in the server device for expressing the interactions An interaction determining unit that replaces the received interaction object with the received interaction object; And
An interaction expression unit for expressing the interaction object and the interaction through at least one or more output devices of the user;
A client device for communicating with the client device;
KR1020170026239A 2017-02-28 2017-02-28 Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same KR20180099163A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170026239A KR20180099163A (en) 2017-02-28 2017-02-28 Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170026239A KR20180099163A (en) 2017-02-28 2017-02-28 Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same

Publications (1)

Publication Number Publication Date
KR20180099163A true KR20180099163A (en) 2018-09-05

Family

ID=63594305

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170026239A KR20180099163A (en) 2017-02-28 2017-02-28 Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same

Country Status (1)

Country Link
KR (1) KR20180099163A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200059112A (en) * 2018-11-19 2020-05-28 한성대학교 산학협력단 System for Providing User-Robot Interaction and Computer Program Therefore

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150065523A (en) 2013-12-05 2015-06-15 포항공과대학교 산학협력단 Method and apparatus for providing counseling dialogue using counseling information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150065523A (en) 2013-12-05 2015-06-15 포항공과대학교 산학협력단 Method and apparatus for providing counseling dialogue using counseling information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200059112A (en) * 2018-11-19 2020-05-28 한성대학교 산학협력단 System for Providing User-Robot Interaction and Computer Program Therefore

Similar Documents

Publication Publication Date Title
US9516081B2 (en) Reduced latency electronic content system
CN109147784B (en) Voice interaction method, device and storage medium
KR101683944B1 (en) Speech translation system, control apparatus and control method
US20140036022A1 (en) Providing a conversational video experience
CN104869467B (en) Information output method, device and system in media play
JP2023550405A (en) Speech processing method, device, electronic device, and computer program based on artificial intelligence
CN109243444B (en) Voice interaction method, device and computer-readable storage medium
CN108877804B (en) Voice service method, system, electronic device and storage medium
JP2019204074A (en) Speech dialogue method, apparatus and system
US10645464B2 (en) Eyes free entertainment
CN109474843A (en) The method of speech control terminal, client, server
JP2017107078A (en) Voice interactive method, voice interactive device, and voice interactive program
CN108882101B (en) Playing control method, device, equipment and storage medium of intelligent sound box
WO2019214456A1 (en) Gesture language translation system and method, and server
KR102451925B1 (en) Network-Based Learning Models for Natural Language Processing
CN110517692A (en) Hot word audio recognition method and device
CN110047497B (en) Background audio signal filtering method and device and storage medium
KR20220037819A (en) Artificial intelligence apparatus and method for recognizing plurality of wake-up word
JP7347217B2 (en) Information processing device, information processing system, information processing method, and program
JP4812733B2 (en) Information editing apparatus, information editing method, information editing program, and recording medium recording the program
CN110418181B (en) Service processing method and device for smart television, smart device and storage medium
CN113205569B (en) Image drawing method and device, computer readable medium and electronic equipment
KR20180099163A (en) Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same
KR20210066651A (en) Electronic device and Method for controlling the electronic device thereof
WO2013181633A1 (en) Providing a converstional video experience