KR20180099163A - Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same - Google Patents
Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same Download PDFInfo
- Publication number
- KR20180099163A KR20180099163A KR1020170026239A KR20170026239A KR20180099163A KR 20180099163 A KR20180099163 A KR 20180099163A KR 1020170026239 A KR1020170026239 A KR 1020170026239A KR 20170026239 A KR20170026239 A KR 20170026239A KR 20180099163 A KR20180099163 A KR 20180099163A
- Authority
- KR
- South Korea
- Prior art keywords
- interaction
- user
- expressing
- information
- scenario
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- H04L67/327—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/63—Routing a service request depending on the request content or context
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 인터넷 기반으로 사용자의 상황에 상응하는 상호작용을 표현하는 장치 및 그 방법에 관한 것이다. 더욱 상세하게, 사용자의 입력 장치들로부터 수집된 사용자 일상 정보를 이용하여 사용자의 상태에 상응하는 상호작용을 결정하여, 사용자의 하나 이상의 출력 장치들을 통해 표현하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and a method for expressing an interaction corresponding to a user's situation on the Internet. More particularly, the present invention relates to an apparatus and a method for determining an interaction corresponding to a user's state using user's daily information collected from user's input devices and expressing the interaction through one or more output devices of the user.
현재 사회적으로 1인가구가 점차 증가하는 추세이다. 1인 가구의 증가가 개인의 자유로움을 보장해주고, 삶의 질을 높일 수 있는 장점이 있지만, 타인에 대한 무관심이 확산되고, 외로움으로 인해 생활 만족도가 저하되는 문제점이 발생할 수 있다. 이에 따라, 사용자와 상호작용을 할 수 있는 인형과 같은 다양한 장치들이 있으나, 현재 사용자의 상황을 수집하여 적절하게 응답하지 못하는 한계를 가지고 있다.Currently, there is a tendency that one person is increasingly socially. The increase in the number of single-person households can guarantee individual freedom and improve the quality of life, but it can lead to the problem that the indifference to others is spread and the life satisfaction is lowered due to loneliness. Accordingly, although there are various devices such as dolls capable of interacting with the user, there is a limitation in collecting the current user's situation and not responding appropriately.
최근 스마트폰, 인공지능(AI), 증강현실(AR) 등의 기술들이 발달함에 따라 여러 형태의 입출력이 용이하게 가능해지고, 간이한 장치만을 이용하여 상황을 분석하고 판단하는 것이 가능해지고 있다.As technologies such as smart phones, AI, and AR are developed, various types of input / output can be easily performed, and it becomes possible to analyze and judge the situation using only a simple device.
하나 이상의 사용자 입력 장치들(예를 들어, 스마트폰, 태블릿 등)을 통해 수집한 사용자의 정보에 기반하여, 사용자의 상태에 상응하는 상호작용을 결정하는 것을 목적으로 한다.The object of the present invention is to determine an interaction corresponding to a user's state based on information of a user collected through one or more user input devices (e.g., a smart phone, a tablet, etc.).
특히, 사용자의 상태에 상응하는 상호작용을 사용자가 선호하는 형태로 변환하여, 하나 이상의 사용자 출력 장치들(예를 들어, AR 장치, TV 등)을 통하여 표현하는 것을 목적으로 한다.In particular, it is intended to convert the interaction corresponding to the user's state into a form preferred by the user and to express through one or more user output devices (e.g., AR device, TV, etc.).
본 발명의 일 실시예는, 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하는 상태 정보 생성부; 상기 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는 시나리오 선정부; 상기 선정된 상호작용 시나리오를 이용하여 상호작용 객체 및 상호작용을 결정하고, 상기 상호작용 객체 및 상호작용을 결정하지 못한 경우에는 상호작용을 표현하기 위한 서버 장치에 상호작용 객체 및 상호작용의 결정을 요청하여 수신한 상호작용 객체 및 상호작용으로 대신하는 상호작용 결정부; 및 기설정된 적어도 하나 이상의 상기 사용자의 출력 장치들을 통해 상기 상호작용 객체 및 상기 상호작용을 표현하는 상호작용 표현부; 를 포함하는, 상호작용을 표현하기 위한 클라이언트 장치를 제공한다.According to an embodiment of the present invention, there is provided an information processing apparatus comprising: a status information generation unit for analyzing user daily information to generate user status information; A scenario selector for selecting an interaction scenario corresponding to the user state information; Determining interaction objects and interactions using the selected interaction scenarios and, if the interaction objects and interactions are not determined, determining interactions objects and interactions in the server device for expressing the interactions An interaction determining unit that replaces the received interaction object with the received interaction object; And an interaction expression unit for expressing the interaction object and the interaction through at least one or more output devices of the user. And a client device for expressing the interaction.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.
하나 이상의 사용자 입력 장치들을 통해 수집한 사용자의 정보에 기반하여, 사용자의 상태에 상응하는 상호작용을 결정할 수 있다.Based on the user's information collected via one or more user input devices, an interaction corresponding to the user's state can be determined.
특히, 사용자의 상태에 상응하는 상호작용을 사용자가 선호하는 형태로 변환하여, 하나 이상의 사용자 출력 장치들을 통하여 표현할 수 있다.In particular, the interaction corresponding to the state of the user may be transformed into a form preferred by the user and expressed through one or more user output devices.
도 1은 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 시스템의 구성을 나타낸 도면이다.
도 2는 도 1에 도시된 상호작용을 표현하기 위한 클라이언트 장치의 내부 구성의 일 예를 나타낸 블록도이다.
도 3은 도 1에 도시된 상호작용을 표현하기 위한 서버 장치의 내부 구성의 일 예를 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따라 사용자의 출력 장치에 출력된 증강현실 기반의 상호작용 영상의 일 예이다.
도 5는 본 발명의 일 실시예에 따라 사용자의 출력 장치에 출력된 증강현실 기반의 상호작용 영상의 다른 예이다.
도 6은 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치가 수행하는 상호작용을 표현하기 위한 방법을 나타낸 동작 흐름도이다.
도 7은 도 6에 도시된 상호작용 객체 및 상호작용을 결정하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 8은 도 6에 도시된 상호작용 객체와 상호작용을 변환하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 9는 도 6에 도시된 사용자 상태 정보를 생성하는 단계의 일 예를 나타낸 동작 흐름도이다.
도 10은 도 6에 도시된 상호작용 시나리오를 선정하는 단계의 일 예를 나타낸 동작 흐름도이다.1 is a block diagram of a system for representing an interaction according to an embodiment of the present invention.
2 is a block diagram showing an example of the internal configuration of a client apparatus for expressing the interaction shown in FIG.
3 is a block diagram showing an example of the internal configuration of the server apparatus for expressing the interaction shown in FIG.
4 is an example of an augmented reality-based interactive image output to a user output device according to an embodiment of the present invention.
5 is another example of an augmented reality-based interactive image output to a user output device according to an embodiment of the present invention.
6 is an operational flowchart illustrating a method for representing an interaction performed by a client device for representing an interaction according to an embodiment of the present invention.
FIG. 7 is an operational flow diagram illustrating an example of steps for determining interaction objects and interactions shown in FIG. 6. FIG.
FIG. 8 is an operational flowchart showing an example of a step of converting the interaction with the interaction object shown in FIG. 6. FIG.
FIG. 9 is an operational flowchart showing an example of a step of generating the user status information shown in FIG.
FIG. 10 is an operation flowchart showing an example of a step of selecting an interaction scenario shown in FIG.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성되어 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.However, the present invention is not limited to the embodiments described below, but all or some of the embodiments may be selectively combined and implemented in various forms. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning. Also, the singular expressions include plural expressions unless the context clearly dictates otherwise. Also, the terms include, including, etc. mean that there is a feature, or element, recited in the specification and does not preclude the possibility that one or more other features or components may be added.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .
도 1은 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 시스템(1)의 구성을 나타낸 도면이다.1 is a diagram illustrating a configuration of a
도 1을 참조하면, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 시스템은 상호작용을 표현하기 위한 클라이언트 장치(100), 상호작용을 표현하기 위한 서버 장치(200), 적어도 하나 이상의 사용자 입력 장치들(310_1 내지 310_n) 및 사용자 출력 장치들(320_1 내지 320_n)을 포함한다.Referring to FIG. 1, a system for expressing an interaction according to an embodiment of the present invention includes a
상호작용을 표현하기 위한 클라이언트 장치(100)는 각각의 사용자 입력 장치들(310_1 내지 310_n) 및 사용자 출력 장치들(320_1 내지 320_n)과 유무선 네트워크 등을 통하여 상호 연결된다. 또한, 상호작용을 표현하기 위한 클라이언트 장치(100)과 상호작용을 표현하기 위한 서버 장치(200)는 셀룰러 통신망, 유무선 네트워크 등의 각종 통신 기술을 통하여 연결된다. 이때, 상호작용을 표현하기 위한 서버 장치(200) 하나에는 여러 개의 상호작용을 표현하기 위한 클라이언트 장치(100)이 대응될 수도 있다.The
본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치(100)는 기설정된 적어도 하나 이상의 사용자 입력 장치들(310_1 내지 310_n)에서 수집된 사용자 일상 정보를 이용하여 사용자의 상태에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다. 그리고, 결정된 상호작용 객체와 상호작용을 기설정된 적어도 하나 이상의 사용자 출력 장치들(320_1 내지 320_n)을 이용하여 출력할 수 있다. 여기서, 사용자 일상 정보는 사용자의 표정, 음성, 동작 등의 사용자의 일상에서 수집 가능한 정보들을 포함한다.The
상세히, 상호작용을 표현하기 위한 클라이언트 장치(100)는 수집된 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성할 수 있으며, 생성된 사용자 상태 정보를 이용하여 사용자와의 상호작용 시점을 판단할 수 있다. 사용자와 상호작용을 하는 시점이 되면, 사용자 상태에 상응하는 상호작용 시나리오를 선정하게 되며, 선정된 시나리오에 따라 사용자의 행동에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다.In detail, the
여기서, 사용자 상태 정보는 수집 시간 정보 및 사용자의 감정 상태나 생활 패턴 등을 포함하여 사용자의 상태를 판단할 수 있는 정보이다. 상호작용 시나리오는 사용자와 진행할 시나리오의 가이드라인이 되는 각본 혹은 설정을 포함할 수 있다. 상호작용 객체는 사용자와 상호작용을 진행할 대상으로서 애완견, 배우자 등을 포함할 수 있다.Here, the user state information is information that can determine the state of the user including the collection time information, the emotion state of the user, the life pattern, and the like. Interaction scenarios can include scenarios or settings that guide users and scenarios to proceed. The interaction object may include a dog, a spouse, and the like as an object with which the user interacts.
또한, 사용자와 상호작용을 하는 시점을 판단함에 있어서, 기설정된 대화모드가 반영이 될 수 있다. 여기서, 대화모드는 사용자와 상호작용을 진행하는 스타일을 결정하기 위한 모드로, 상시 상호작용을 시도하는 모드나 사용자가 원할때만 상호작용을 시도하는 모드 등을 포함할 수 있다. 여기서, 사용자는 대화모드를 변경하여 설정할 수 있다.Also, in determining the point of time when the user interacts with the user, the predetermined dialog mode may be reflected. Here, the dialogue mode is a mode for determining a style of interacting with a user, and may include a mode in which the user interacts normally, or a mode in which the user tries to interact only when desired. Here, the user can change the conversation mode and set it.
이때, 상호작용을 표현하기 위한 클라이언트 장치(100)는 선정된 시나리오에 따라 사용자의 행동에 상응하는 상호작용 객체와 상호작용을 결정할 때, 상호작용을 표현하기 위한 서버 장치(200)에 선정된 시나리오와 사용자 행동을 전송할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(200)에서 결정된 상호작용 객체와 상호작용을 수신할 수 있다.At this time, when determining the interaction with the interactive object corresponding to the user's behavior according to the selected scenario, the
선택적 실시예에서, 상호작용을 표현하기 위한 클라이언트 장치(100)는 결정된 상호작용 객체와 상호작용을 기설정된 동작모드에 상응하게 변환할 수 있다. 그리고, 변환된 상호작용 객체와 상호작용을 사용자 출력 장치들(320_1 내지 320_n)을 이용하여 출력할 수 있다.In an alternate embodiment, the
여기서, 동작모드는 동일한 내용의 상호작용을 유지하면서 상호작용 객체와 상호작용을 여러가지 형식으로 변환하기 위한 모드로, 애완견 모드나 배우자 모드 등을 포함할 수 있다. 이는 사용자가 선호하는 방식으로 사용자와 상호작용을 진행할 수 있도록 한다. 여기서, 사용자는 동작모드를 변경하여 설정할 수 있다.Here, the operation mode is a mode for converting the interaction with the interaction object into various formats while maintaining the same content interaction, and may include a dog mode or a spouse mode. This allows the user to interact with the user in a preferred manner. Here, the user can set the operation mode by changing the operation mode.
예를 들어, 기설정된 동작모드가 애완견 모드인 경우에는 상호작용 객체를 애완견으로 변환하고, 상호작용을 애완견의 울음소리 등으로 변환할 수 있다.For example, when the predetermined operation mode is the dog mode, the interactive object can be converted into a pet dog, and the interaction can be converted into a dog crying or the like.
선택적 실시예에서, 상호작용을 표현하기 위한 클라이언트 장치(100)는 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성할 때, 상호작용을 표현하기 위한 서버 장치(200)에 사용자 일상 정보를 전송할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(200)에서 사용자 일상 정보를 분석하여 생성한 사용자 상태 정보를 수신할 수 있다.In an alternative embodiment, the
이에 따라, 상호작용을 표현하기 위한 클라이언트 장치(100)에서 수집된 사용자 일상 정보를 분석하는데 실패할 경우에는, 상호작용을 표현하기 위한 서버 장치(200)를 이용하여 사용자 일상 정보에 상응하는 사용자 상태 정보를 생성할 수 있다.Accordingly, when analyzing the user's daily information collected by the
선택적 실시예에서, 상호작용을 표현하기 위한 클라이언트 장치(100)는 사용자 상태 정보로부터 상호작용 시나리오를 선정할 때, 상호작용을 표현하기 위한 서버 장치(200)에 사용자 상태 정보를 전송할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(200)에서 사용자 상태 정보에 상응하도록 선정된 상호작용 시나리오를 수신할 수 있다.In an alternative embodiment, the
이에 따라, 상호작용을 표현하기 위한 클라이언트 장치(100)에서 사용자 상태 정보로부터 사용자와 상호작용할 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(200)를 이용하여 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정할 수 있다.Accordingly, when the
선택적 실시예에서, 상호작용을 표현하기 위한 클라이언트 장치(100)는 상호작용 시나리오와 사용자 행동에 상응하도록 상호작용 객체와 상호작용을 결정함에 있어서, 상호작용을 표현하기 위한 서버 장치(200)에 상호작용 시나리오와 사용자 행동을 전송할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(200)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하도록 결정된 상호작용 객체와 상호작용을 수신할 수 있다.In an alternate embodiment, the
이에 따라, 상호작용을 표현하기 위한 클라이언트 장치(100)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(200)를 이용하여 상호작용 시나리오에 기반한 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다.Accordingly, when the
본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 여러 사용자로부터 수집된 사용자 일상 정보와 사용자 상태 정보, 상호작용 시나리오 및 여러 상호작용 객체와 상호작용 등의 정보를 저장하는 데이터베이스를 이용할 수 있다. 그리고, 데이터베이스를 이용하여 상호작용을 표현하기 위한 클라이언트 장치에서 요청되는 사용자 일상 정보 분석이나, 상호작용 시나리오의 선정, 상호작용 객체와 상호작용의 결정을 수행하여 상호작용을 표현하기 위한 클라이언트 장치로 전송할 수 있다.The
사용자 입력 장치들(310_1 내지 310_n)은 스마트폰, 태블릿 등의 단말로서, 카메라와 같은 영상 촬영 모듈 혹은 마이크와 같은 음성 녹음 모듈 등을 구비할 수 있다. 각각의 사용자 입력 장치들(310_1 내지 310_n)은 수집 가능한 사용자 일상 정보를 시간과 함께 수집할 수 있으며, 각각의 수집된 일상 정보는 수집한 사용자 입력 장치에 따라 음성, 영상과 같이 종류가 상이할 수 있다. The user input devices 310_1 to 310_n may be a terminal such as a smart phone or a tablet, and may include a video recording module such as a camera or a voice recording module such as a microphone. Each of the user input devices 310_1 to 310_n may collect collectible user daily information together with time. Depending on the collected user input device, the collected daily information may be different in kind have.
또한, 사용자 입력 장치들(310_1 내지 310_n)은 사용자 정보를 수집하는 사용자 정보 수집기뿐만 아니라, 상호작용을 표현하기 위한 클라이언트 장치(100)의 설정을 변경하기 위한 환경 설정기가 탑재 될 수 있다. 사용자는 환경 설정기를 통하여 사용자 일상 정보 수집주기, 동작모드 및 대화모드 등에 대한 설정을 변경할 수 있다.In addition, the user input devices 310_1 to 310_n may include a user information collector for collecting user information, and an environment setting device for changing settings of the
이때, 사용자 입력 장치들(310_1 내지 310_n)은 기설정된 수집 주기에 따라 주기적으로, 혹은 사용자의 요청이 있거나, 사용자로부터 특정 응답을 수신한 경우와 같이 수시로 사용자 일상 정보를 수집할 수 있다. 수집된 사용자 일상 정보는 상호작용을 표현하기 위한 클라이언트 장치(100)으로 전송되어 사용자와 상호작용할 시점이나 내용을 결정하는데 사용될 수 있다.At this time, the user input devices 310_1 to 310_n may periodically collect user's daily information according to a predetermined collection period, such as when the user has a request or when a specific response is received from the user. The collected user's daily information may be sent to the
특히, 사용자는 사용자 일상 정보를 수집하는데 사용할 사용자 입력 장치들(310_1 내지 310_n)을 변경하여 설정할 수 있다.In particular, the user can change and set the user input devices 310_1 to 310_n to be used for collecting the user's daily information.
사용자 출력 장치들(320_1 내지 320_n)은 스피커, TV, 모니터, AR장치 등의 단말로서, 디스플레이와 같은 영상 출력 모듈 혹은 스피커와 같은 소리 출력 모듈 등을 구비할 수 있다. 이때, 각각의 사용자 출력 장치(320_1 내지 320_n)는 구비된 모듈이 달라 서로 출력되는 상호작용 혹은 상호작용 객체의 자료 형식이 상이할 수 있다.The user output devices 320_1 to 320_n may be a terminal such as a speaker, a TV, a monitor, and an AR device, and may include a video output module such as a display or a sound output module such as a speaker. At this time, the data formats of the interaction or interactive objects output from the different modules of the user output devices 320_1 to 320_n may be different.
특히, 사용자는 상호작용 객체와 상호작용을 표현할 사용자 출력 장치들(320_1 내지 320_n)을 변경하여 설정할 수 있다.In particular, the user can change and set the user output devices 320_1 to 320_n to express interaction with the interactive object.
예를 들어, 스피커와 같은 소리 출력 장치는 상호작용하는 음성이나 소리를 출력하고, TV이나 모니터와 같은 화상 출력 장치는 상호작용 객체 영상이나 상호작용하는 음성의 자막 등을 출력할 수 있다. 특히, 여러대의 스피커와 같은 소리 출력 장치가 구비되어 있는 경우에는, 상호작용 객체의 움직임에 연동하여 상호작용 객체 근처의 소리를 출력하는 장치로 출력하도록 할 수도 있다.For example, a sound output device such as a speaker outputs interactive voice or sound, and an image output device such as a TV or a monitor can output an interactive object image or an interactive voice caption. In particular, when a plurality of loudspeakers are provided with a sound output apparatus, the sound output apparatus may output a sound in the vicinity of the interactive object in association with the motion of the interactive object.
만약, AR장치를 사용자 출력 장치로 사용하는 경우에는, 증강현실을 기반으로 상호작용 객체를 출력하여 실제 사용자의 공간에 함께 하는 것처럼 표현될 수도 있다.If the AR device is used as a user output device, the interactive objects may be output based on the augmented reality to be displayed as if they are included in the space of the actual user.
도 2는 도 1에 도시된 상호작용을 표현하기 위한 클라이언트 장치(100)의 내부 구성의 일 예를 나타낸 블록도이다.2 is a block diagram showing an example of the internal configuration of the
도 2를 참조하면, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치(100)는 클라이언트 통신부(110), 일상 정보 수집부(120), 상태 정보 생성부(130), 상태 정보 저장부(140), 상호작용 시점 판단부(150), 시나리오 선정부(160), 상호작용 결정부(170) 및 상호작용 표현부(190) 등을 포함한다.2, a
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치(100)는 상호작용 변환부(180)를 더 포함할 수 있다.In addition, the
상세히, 클라이언트 통신부(110)는 상호작용을 표현하기 위한 클라이언트 장치(100)와 상호작용을 표현하기 위한 서버 장치(200)간의 송수신 신호를 전송하는데 필요한 통신 인터페이스를 제공한다.In detail, the
여기서, 클라이언트 통신부(110)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.Here, the
일상 정보 수집부(120)는 기설정된 적어도 하나 이상의 사용자 입력 장치(도 1의 310_1 내지 310_n 참조)에서 수집한 사용자 일상 정보를 수집한다. 사용자 일상 정보에는 사용자의 표정, 음성, 동작 등이 포함될 수 있으며, 수집 시간 정보도 함께 포함되어 있다.The routine
여기서, 일상 정보 수집부(120)는 기설정된 수집 주기마다 주기적으로 혹은 사용자 입력 장치들(도 1의 310_1 내지 310_n 참조)에서 사용자 일상 정보가 수집될 때마다와 같이 수시로 사용자 일상 정보를 수집할 수 있다. 이때, 사용자는 사용자 일상 정보 수집 주기를 변경하여 설정할 수 있다.Here, the daily
특히, 본 발명이 사용자의 집에서 실시되는 경우에, 사용자가 외출하였다가 귀가한 경우와 같이, 새로이 사용자 입력 장치들(도 1의 310_1 내지 310_n 참조)에서 사용자 일상 정보가 수집되는 경우에, 일상 정보 수집부(120)가 사용자 일상 정보를 수집해올 수도 있다.Particularly, in the case where the present invention is carried out at the user's home, when the user's daily information is newly collected from the user input devices (see 310_1 to 310_n in FIG. 1), such as when the user goes out and returns home, The
상태 정보 생성부(130)는 일상 정보 수집부(120)에서 수집해온 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하게 된다. 그리고 생성된 사용자 상태 정보는 분석 시간 정보와 함께 상태 정보 저장부(140)에 저장할 수 있다.The state
여기서, 사용자 상태 정보는 사용자의 상태를 나타낼 수 있는 정보로, 사용자의 감정 상태나 사용자의 생활 패턴 등을 포함할 수 있다. 사용자의 감정 상태나 사용자의 생활 패턴에 따라 사용자와의 상호작용 내용이 달라질 수 있고, 사용자와 상호작용을 진행할지의 여부도 판단할 수 있다.Here, the user state information may be information indicating the state of the user, and may include the emotion state of the user, the life pattern of the user, and the like. The contents of the interaction with the user can be changed according to the emotional state of the user or the life pattern of the user, and it is also possible to judge whether or not to proceed with the interaction with the user.
선택적 실시예에서, 상태 정보 생성부(130)는 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에 분석을 원하는 사용자 일상 정보를 송신할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에서 사용자 일상 정보를 분석하여 생성된 사용자 상태 정보를 수신할 수 있다. 또한, 수신된 사용자 상태 정보와 분석 시간 정보를 함께 상태 정보 저장부(140)에 저장할 수 있다.In an alternative embodiment, when the
상태 정보 저장부(140)는 상태 정보 생성부(130)에서 생성된 사용자 상태 정보와 시간 정보를 포함하여 저장한다. 여기서, 사용자 상태 정보는 시간 정보와 함께하여 사용자 상태의 변화를 판단하는데 사용될 수 있다.The state
상호작용 시점 판단부(150)는 상태 정보 생성부(130)에서 생성된 사용자 상태 정보를 기반으로 사용자와 상호작용을 시작할 시점을 판단한다.The interaction
여기서, 상호작용 시점 판단부(150)는 기설정된 판단 주기마다 주기적으로 혹은 상태 정보 생성부(130)에서 사용자 상태 정보가 생성될 때마다와 같이 수시로 상호작용 시점을 판단할 수 있다. 이때, 사용자는 사용자 일상 정보 판단 주기를 변경하여 설정할 수 있다.Here, the interaction
따라서, 현재 상호작용을 하는 시점이 아니라고 판단되는 경우에는, 기설정된 판단 주기만큼 대기하였다가 다시 상호작용 시작 시점을 판단하거나 새로운 사용자 상태 정보가 생성됨에 따라 상호작용 시작 시점을 판단할 수 있다.Accordingly, when it is determined that the current time is not the time for the current interaction, the user can wait for a predetermined period of time to determine the start time of the interaction or determine the start time of the interaction as the new user state information is generated.
시나리오 선정부(160)는 상호작용 시점 판단부(150)에서 사용자와 상호작용을 시작할 시점이라고 판단하였을 때, 상태 정보 저장부(140)에 저장된 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정한다.The
이때, 여러 사용자 상태 정보를 비교하여 사용자의 감정 상태나 생활 패턴의 변화 정보를 활용하여 상호작용 시나리오를 선정할 수 있다.At this time, it is possible to select an interaction scenario by comparing the user state information and the change information of the user's emotional state or life pattern.
여기서, 상호작용 시나리오는 사용자의 감정 상태를 개선하는 내용이거나 혹은 사용자의 현재 생활 패턴에 적합한 내용일 수 있다.Here, the interaction scenario may be a content for improving the user's emotional state or a content suitable for the current life pattern of the user.
선택적 실시예에서, 시나리오 선정부(160)는 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에 시나리오 선정을 원하는 사용자 상태 정보를 송신할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에서 사용자 상태 정보에 상응하도록 선정된 상호작용 시나리오를 수신할 수 있다.In an alternative embodiment, if the
상호작용 결정부(170)는 시나리오 선정부(160)에서 선정된 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정한다.The
예를 들면, 사용자의 기분이 안 좋은 상태라고 판단되어 사용자의 기분을 좋게 해주는 시나리오가 선정된 경우에, 사용자의 기분이 안 좋은 모습에 상응하도록 “오늘 기분이 안 좋아 보여요.”와 같은 말로 상호작용을 결정할 수 있으며, 상호작용 객체는 조심스럽고 걱정스러운 표정을 짓도록 결정할 수 있다.For example, in the case that a user's mood is judged to be in a bad state, and a scenario that makes the user feel good is selected, the words "I do not feel well today" Action, and the interacting object can decide to build a careful and anxious expression.
나아가, 사용자와 상호작용을 진행중인 경우에는, 사용자의 응답 혹은 반응에 대한 정보를 수신한 경우에는, 선정된 상호작용 시나리오에 기반하여 사용자 응답 혹은 반응에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다. 만약, 사용자의 응답이 상호작용을 종료하는 취지인 경우에는, 그에 상응하는 상호작용을 결정하고 현재 사용자와의 상호작용을 종료할 수 있다.Further, when the user is in the process of interacting with the user, when the information of the user's response or response is received, the interaction with the interaction object corresponding to the user response or response can be determined based on the selected interaction scenario . If the user's response is to terminate the interaction, then the corresponding interaction may be determined and the interaction with the current user may be terminated.
또한, 상호작용 결정부(170)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정하는데 실패한 경우에는, 경우에는, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에 상호작용 시나리오와 사용자 행동 정보를 송신할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하도록 결정된 상호작용 객체와 상호작용을 수신할 수 있다.In addition, if the
상호작용 변환부(180)는 상호작용 결정부(170)에서 결정된 상호작용 객체와 상호작용을 기설정된 동작모드에 상응하는 상호작용 객체와 상호작용으로 변환한다. 동작모드는 상호작용 객체에 대한 형상뿐만 아니라, 동일한 상호작용의 내용에 대해서도 상호작용 객체에 적합한 상호작용으로 다양한 표현형식을 제공하기 위한 모드이다.The
예를 들어, 사용자가 남성이고 동작모드가 배우자 모드로 설정이 된 경우에는, 상호작용 객체를 사용자와 비슷한 연령의 외관을 가진 여성으로 변경하고, 결정된 상호작용에 의한 대사가 “어서오세요.”라고 하였을 때 “여보, 어서와요.”와 같은 대사의 상호작용으로 변경할 수 있다.For example, if the user is male and the mode of operation is set to spouse mode, the interactive object may be changed to a female of similar age to the user, and the metabolism by the determined interaction may be referred to as " Can be changed by the interaction of dialogue such as "Honey, come on."
선택적 실시예에서, 상호작용 변환부(180)에서 상호작용 객체와 상호작용을 기설정된 동작모드에 상응하도록 변환하는데 실패한 경우에는, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에 상호작용 객체, 상호작용 및 동작모드 정보를 송신할 수 있다. 그리고, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)에서 동작모드에 상응하도록 변환된 상호작용 객체와 상호작용을 수신할 수 있다.In an alternate embodiment, if the
상호작용 표현부(190)는 상호작용 결정부(170)에서 결정된 상호작용 객체와 상호작용을 기설정된 사용자 출력 장치들(도 1의 320_1 내지 320_n 참조)을 이용하여 표현한다.The
여기서, 상호작용 객체는 그 외관을 영상 정보를 이용하여 출력함으로써 표현 가능하며, 상호작용 중에서 대사는 음향 정보를 출력하여 표현 가능하다. 상호작용과 관련된 표현 정보는 영상, 음향, 진동 등으로 표현할 수 있고, 각각의 출력을 지원하는 사용자 출력 장치들(도 1의 320_1 내지 320_n 참조)을 이용하여 원하는 상호작용을 표현할 수 있다.Here, the interactive object can be expressed by outputting the appearance of the object using the image information, and the metabolism among the interaction can be expressed by outputting the acoustic information. Expression information related to the interaction can be expressed by image, sound, vibration, etc., and desired interaction can be expressed using user output devices (refer to 320_1 to 320_n in FIG. 1) supporting each output.
예를 들어, 사용자가 AR장치와 여러 여러 오디오 장치를 상호작용을 위한 사용자의 출력 장치로 설정한 경우에는, AR장치를 이용하여 증강현실 기술에 기반한 상호작용 대상 객체를 영상으로 출력할 수 있다. 그리고, 상호작용을 위한 음향 정보는 상호작용 대상 객체의 위치에 연동하여 상호작용 대상 객체에 가까이 위치한 오디오 장치를 이용하여 소리를 출력하는 것과 같이 구현할 수 있다.For example, when the user sets the AR device and various audio devices as user output devices for interaction, the AR device can output an interactive target object based on augmented reality technology. The sound information for the interaction can be implemented by outputting sound using an audio device located close to the interaction target object in association with the position of the interaction target object.
선택적 실시예에서, 상호작용 표현부(190)는 상호작용 변환부(180)에서 기설정된 동작모드에 상응하도록 변환된 상호작용 객체와 상호작용을 기설정된 사용자 출력 장치들(도 1의 320_1 내지 320_n 참조)을 이용하여 표현할 수 있다.In an alternate embodiment, the
예를 들면, 사용자가 AR장치와 오디오를 상호작용을 위한 사용자의 출력 장치로 설정하고 동작모드가 애완견 모드로 설정된 경우에는, AR장치를 이용하여 증강현실 기술에 기반한 애완견을 영상으로 출력하고, 애완견이 짖는 소리를 AR장치 혹은 오디오 장치를 이용하여 소리를 출력할 수 있다.For example, when the user sets the audio device as an output device for user interaction with the audio device and the operation mode is set to the dog mode, the AR device outputs the image of the dog based on the augmented reality technique, This barking sound can be output by using AR device or audio device.
도 3은 도 1에 도시된 상호작용을 표현하기 위한 서버 장치의 내부 구성의 일 예를 나타낸 블록도이다.3 is a block diagram showing an example of the internal configuration of the server apparatus for expressing the interaction shown in FIG.
도 3을 참조하면, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 서버 통신부(210), 데이터베이스(220), 정보 수집부(230) 및 상호작용 결정보조부(260) 등을 포함한다.3, a
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 상태 정보 생성보조부(240)를 더 포함할 수 있다.In addition, the
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 시나리오 선정보조부(250)를 더 포함할 수 있다.In addition, the
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 서버 장치(200)는 상호작용 변환보조부(270)를 더 포함할 수 있다.In addition, the
상세히, 서버 통신부(210)는 상호작용을 표현하기 위한 서버 장치(200)와 상호작용을 표현하기 위한 클라이언트 장치(100)간의 송수신 신호를 전송하는데 필요한 통신 인터페이스를 제공한다.In detail, the
여기서, 서버 통신부(210)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.Here, the
데이터베이스(220)는 여러 상호작용을 표현하기 위한 클라이언트 장치(100)들로부터 누적된 상호작용 시나리오, 상호작용 객체, 상호작용, 사용자의 행동 그리고 각 정보의 상관관계에 대한 정보를 포함하여 보관하고 있다.The
정보 수집부(230)는 여러 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 상호작용 시나리오, 사용자와의 상호작용 및 사용자의 행동 이력 등에 관한 정보를 수집하여, 데이터베이스(220)에 저장할 수 있다.The
선택적 실시예에서, 상태 정보 생성보조부(240)는 상호작용을 표현하기 위한 클라이언트 장치(100)에서 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성하는데 실패하여 대신 생성을 요청하는 경우에, 데이터베이스(220)에 저장된 정보를 이용하여 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 수신한 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성할 수 있다. 그리고, 생성한 사용자 상태 정보를 상호작용을 표현하기 위한 클라이언트 장치(100)로 송신한다.In an alternative embodiment, when the
선택적 실시예에서, 시나리오 선정보조부(250)는 상호작용을 표현하기 위한 클라이언트 장치(100)에서 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는데 실패하여 대신 선정을 요청하는 경우에, 데이터베이스(220)에 저장된 정보를 이용하여 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 수신한 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정할 수 있다. 그리고, 선정한 상호작용 시나리오를 상호작용을 표현하기 위한 클라이언트 장치(100)로 송신한다.In an alternative embodiment, the scenario selection sub-unit 250 may include a
상호작용 결정보조부(260)는 상호작용을 표현하기 위한 클라이언트 장치(100)에서 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정하는데 실패하여 대신 결정을 요청하는 경우에, 데이터베이스(220)에 저장된 정보를 이용하여 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 수신한 상호작용 시나리오와 사용자 행동에 상응하는 상호작용 객체와 상호작용을 결정할 수 있다. 그리고, 결정한 상호작용 객체와 상호작용을 상호작용을 표현하기 위한 클라이언트 장치(100)로 송신한다.If the interaction determination
선택적 실시예에서, 상호작용 변환보조부(270)는 상호작용을 표현하기 위한 클라이언트 장치(100)에서 상호작용 객체와 상호작용을 동작모드에 상응하도록 변환하는데 실패하여 대신 변환을 요청하는 경우에, 데이터베이스(220)에 저장된 정보를 이용하여 상호작용을 표현하기 위한 클라이언트 장치(100)로부터 수신한 동작모드에 상응하도록 수신한 상호작용 객체와 상호작용을 변환할 수 있다. 그리고, 변환한 상호작용 객체와 상호작용을 상호작용을 표현하기 위한 클라이언트 장치(100)로 송신한다.In an alternate embodiment, the
상호작용을 표현하기 위한 서버 장치(200)는 여러 상호작용을 표현하기 위한 클라이언트 장치(100)들에서 수집된 시나리오와 상호작용 그리고 사용자의 행동에 대한 이력 정보가 누적되어 있으므로, 개별적인 상호작용을 표현하기 위한 클라이언트 장치(100)들에 비하여 많은 정보를 가지게된다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(100)에 비해서 더 많은 상황에 대응 가능하여 상호작용을 표현하기 위한 클라이언트 장치(100)를 지원할 수 있다.The
도 4는 본 발명의 일 실시예에 따라 사용자의 출력 장치에 출력된 증강현실 기반의 상호작용 영상의 일 예이다.4 is an example of an augmented reality-based interactive image output to a user output device according to an embodiment of the present invention.
도 4를 참조하면, 상호작용의 표현을 위한 사용자 출력장치가 AR장치인 경우에는, 증강현실 기술에 기반하여 사용자가 존재하는 공간인 사용자의 집에 상호작용 객체(40a)가 위치하도록 표현될 수 있다.Referring to FIG. 4, when the user output device for expressing the interaction is the AR device, the
도 4에 도시된 예시는 동작모드가 성인여성모드 혹은 아내모드와 같이 설정되어 상호작용 진행 대상(40a)이 젊은 성인 여성의 모습을 하고 있다. 그리고, 사용자의 출퇴근 패턴을 파악하여 사용자가 퇴근하여 귀가한 때의 상호작용(40b)을 상호작용 진행 대상(40a)인 젊은 성인 여성에 상응하도록 표현하고 있다.The example shown in FIG. 4 shows that the operation progress mode is set as the adult female mode or the wife mode, and the
상호작용(40b)와 같은 대사 혹은 대화 상호작용은 음향 출력 장치들을 이용하여 소리로 출력할 수 있고, 영상 출력 장치들을 통하여 대사가 보이도록 글자로 출력할 수도 있으며, 소리와 글자를 동시에 출력할 수도 있다.The dialogue or dialogue interaction, such as
도 5는 본 발명의 일 실시예에 따라 사용자의 출력 장치에 출력된 증강현실 기반의 상호작용 영상의 다른 예이다.5 is another example of an augmented reality-based interactive image output to a user output device according to an embodiment of the present invention.
도 5를 참조하면, 상호작용의 표현을 위한 사용자 출력장치가 AR장치인 경우에는, 증강현실 기술에 기반하여 사용자가 존재하는 공간인 사용자의 집에 상호작용 객체(50a)가 위치하도록 표현될 수 있다.Referring to FIG. 5, when the user output device for expressing the interaction is the AR device, the
도 5에 도시된 예시는 동작모드가 애완견모드 혹은 강아지모드와 같이 설정되어 상호작용 진행 대상(50a)이 강아지의 모습을 하고 있다. 그리고, 사용자의 출퇴근 패턴을 파악하여 사용자가 퇴근하여 귀가한 때의 상호작용(50b)을 상호작용 진행 대상(50a)인 강아지에 상응하도록 표현하고 있다.In the example shown in FIG. 5, the operation mode is set to the dog mode or the dog mode, and the
상호작용(50b)와 같은 대사 혹은 대화 상호작용은 음향 출력 장치들을 이용하여 소리로 출력할 수 있고, 영상 출력 장치들을 통하여 대사가 보이도록 글자로 출력할 수도 있으며, 소리와 글자를 동시에 출력할 수도 있다.The dialogue or dialogue interaction, such as
도 6은 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 클라이언트 장치가 수행하는 상호작용을 표현하기 위한 방법을 나타낸 동작 흐름도이다.6 is an operational flowchart illustrating a method for representing an interaction performed by a client device for representing an interaction according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 먼저 사용자의 입력 장치들(도 1의 310_1 내지 310_n 참조)에서 수집된 사용자 일상 정보를 수집한다(S601).Referring to FIG. 6, a method for representing an interaction according to an exemplary embodiment of the present invention includes a client device (see 100 in FIG. 1) To 310_n) (S601).
여기서, 사용자 일상 정보의 수집은 기설정된 수집주기마다 혹은 수시로 이루어질 수 있다.Here, the collection of the user's daily information may be performed every predetermined collection period or at any time.
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 수집된 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성한다(S603).In addition, a method for representing an interaction according to an embodiment of the present invention includes analyzing collected user daily information to generate user state information (see 100 in FIG. 1) for expressing an interaction S603).
여기서, 생성된 사용자 상태 정보는 시간 정보와 함께 저장될 수 있다.Here, the generated user state information may be stored together with time information.
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 사용자 상태 정보를 기반으로 상호작용 시작 여부를 판단한다(S605).In addition, a method for representing an interaction according to an embodiment of the present invention determines whether an interaction is started based on user state information (S 1005 in FIG. 1) ).
단계(S605)의 판단 결과 상호작용을 시작하는 시점이 아닌 경우에는, 단계(S601)로 돌아가 다시 사용자 일상 정보를 수집한다.If it is determined in step S605 that the interaction is not started, the process returns to step S601 and the user routine information is collected again.
단계(S605)의 판단 결과 상호작용을 시작하는 시점이 맞는 경우에는, 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정한다(S607).If it is determined in step S605 that the time for starting the interaction is correct, an interaction scenario corresponding to the user state information is selected (S607).
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 선정된 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체 및 상호작용을 결정한다(S609).In addition, a method for representing an interaction in accordance with an embodiment of the present invention includes the steps of a client device (see 100 in FIG. 1) for representing an interaction, The object and the interaction are determined (S609).
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 결정된 상호작용 객체 및 상호작용을 기설정된 동작모드에 상응하는 상호작용 객체 및 상호작용으로 변환한다(S611).In addition, a method for representing an interaction in accordance with an embodiment of the present invention includes the steps of a client device (see 100 in FIG. 1) for expressing an interaction to determine a determined interaction object and an interaction, Into an interactive object and an interaction (S611).
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 변환된 상호작용 객체 및 상호작용을 기설정된 사용자 출력 장치들(도 1의 320_1 내지 320_n)을 통하여 표현한다(S613).In addition, a method for representing an interaction according to an embodiment of the present invention includes a client device (see 100 in FIG. 1) for expressing an interaction, (320_1 to 320_n in FIG. 1) (S613).
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 사용자로부터 종료 명령을 수신하였는지 여부를 판단한다(S615). 사용자가 종료 명령을 전달하게 되는 경우에는, 사용자와의 상호작용을 종료하기 위한 절차가 진행된다.In addition, a method for expressing an interaction according to an embodiment of the present invention determines whether a client device (see 100 in FIG. 1) for expressing an interaction has received a termination command from a user (S615). When the user is to transmit the termination command, a procedure for terminating the interaction with the user proceeds.
단계(S615)의 판단 결과, 사용자로부터 종료 명령을 수신하지 않은 경우에는, 단계(S609)로 돌아가 상호작용 시나리오에 기반하여 사용자의 행동에 상응하는 상호작용 객체 및 상호작용을 결정한다.If it is determined in step S615 that the end command has not been received from the user, the flow returns to step S609 to determine the interaction object and the interaction corresponding to the user's action based on the interaction scenario.
단계(S615)의 판단 결과, 사용자로부터 종료 명령을 수신한 경우에는, 종료 상호작용을 기설정된 동작모드에 상응하는 종료 상호작용으로 변환한다(S617).If it is determined in step S615 that the end instruction is received from the user, the end interaction is converted into the end interaction corresponding to the predetermined operation mode (S617).
또한, 본 발명의 일 실시예에 따른 상호작용을 표현하기 위한 방법은 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)가, 기설정된 사용자 출력 장치들(도 1의 320_1 내지 320_n 참조)을 통하여 종료 상호작용을 표현한다(S619).In addition, a method for representing an interaction according to an embodiment of the present invention includes a client device (see 100 in FIG. 1) for expressing an interaction, a predetermined user output device (see 320_1 to 320_n in FIG. 1) (S619). ≪ / RTI >
선택적 실시예에서, 상기 단계들(S601, S603, S605, S607, S609, S611, S613, S615, S617 및 S619)에 있어서, 사용자 일상 정보를 수집하는 단계(S601)와 사용자 상태 정보를 생성하는 단계(S603)는 병렬적으로 수행될 수 있다.In an alternative embodiment, in the steps S601, S603, S605, S607, S609, S611, S613, S615, S617 and S619, the step of collecting user's daily information (S601) (S603) may be performed in parallel.
선택적 실시예에서, 상기 단계들(S601, S603, S605, S607, S609, S611, S613, S615, S617 및 S619)에 있어서, 상호작용 객체와 상호작용을 결정하는 단계(S609)와 상호작용 객체와 상호작용을 변환하는 단계(S611)는 병렬적으로 수행될 수 있다.In an alternative embodiment, in the steps S601, S603, S605, S607, S609, S611, S613, S615, S617 and S619, the step of determining interaction with the interaction object (S609) The step of converting the interaction (S611) may be performed in parallel.
도 7은 도 6에 도시된 상호작용 객체 및 상호작용을 결정단계(S609)의 일 예를 나타낸 동작 흐름도이다.FIG. 7 is a flowchart illustrating an example of the step S609 of determining an interaction object and an interaction shown in FIG.
도 7을 참조하면, 도 6에 도시된 상호작용 객체 및 상호작용을 결정단계(S609)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 결정부(도 2의 170 참조)가, 선정된 상호작용 시나리오에 기반하여 사용자 행동에 상응하는 상호작용 객체 및 상호작용의 결정을 시도한다(S701).7, the determination step S609 of the interaction object and interaction shown in Fig. 6 is performed by the interaction determination unit (see 170 in Fig. 2) of the client apparatus (see 100 in Fig. 1) ) Attempts to determine interaction objects and interactions corresponding to user behavior based on the selected interaction scenario (S701).
상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)에서도 여러 상호작용 객체 및 상호작용을 결정할 수 있으나, 모든 사용자의 행동이나 상태에 상응하도록 결정할 수는 없다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)만의 정보를 통해서 상호작용 객체 및 상호작용을 결정하지 못하는 경우에는, 상호작용을 표현하기 위한 서버 장치(도 2의 200 참조)의 개입이 필요하다.The client device (see 100 in FIG. 1) for expressing the interaction can also determine a number of interacting objects and interactions, but can not determine that they correspond to the behavior or state of all users. Therefore, when the interaction object and the interaction can not be determined through the information of only the client device (see 100 in FIG. 1) for expressing the interaction, the server device (see 200 in FIG. 2) Intervention is needed.
또한, 도 6에 도시된 상호작용 객체 및 상호작용을 결정단계(S609)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 결정부(도 2의 170 참조)가, 상호작용 객체 및 상호작용의 결정에 성공하였는지 여부를 판단한다(S703).In addition, the determination step (S609) of the interactive objects and the interaction shown in Fig. 6 is performed when the interaction determination unit (see 170 in Fig. 2) of the client apparatus It is determined whether the operation object and the interaction have been successfully determined (S703).
단계(S703)의 판단 결과, 상호작용 객체 및 상호작용의 결정에 성공하였다면, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 결정부(도 2의 170 참조)에서 결정된 상호작용 객체 및 상호작용을 이후의 단계에서 사용한다.As a result of the determination in step S703, if the determination of the interaction object and the interaction is successful, the mutual determination unit (see 170 in FIG. 2) of the client apparatus (see 100 in FIG. 1) Action objects and interactions are used in subsequent steps.
단계(S703)의 판단 결과, 상호작용 객체 및 상호작용의 결정에 실패하였다면, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)로 상호작용 시나리오와 사용자 행동을 송신한다(S705).As a result of the determination in step S703, if the determination of the interaction object and the interaction fails, the interaction scenario and the user behavior are transmitted to the server device (refer to 200 in FIG. 1) for expressing the interaction (S705).
또한, 도 6에 도시된 상호작용 객체 및 상호작용을 결정단계(S609)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 결정부(도 2의 170 참조)가, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)의 상호작용 결정보조부(도 3의 260 참조)에서 결정된 상호작용 객체와 상호작용을 수신한다(S707).In addition, the determination step (S609) of the interactive objects and the interaction shown in Fig. 6 is performed when the interaction determination unit (see 170 in Fig. 2) of the client apparatus (See FIG. 3) of the server device (see 200 in FIG. 1) for expressing the action (S707).
도 8은 도 6에 도시된 상호작용 객체와 상호작용을 변환하는 단계(S611)의 일 예를 나타낸 동작 흐름도이다.FIG. 8 is a flowchart illustrating an example of the step S611 of converting the interaction with the interactive object shown in FIG.
도 8을 참조하면, 도 6에 도시된 상호작용 객체와 상호작용을 변환하는 단계 (S611)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 변환부(도 2의 180 참조)가, 결정된 상호작용 객체와 상호작용을 기설정된 동작모드에 상응하는 상호작용 객체와 상호작용으로 변환을 시도한다(S801).Referring to FIG. 8, the step of converting the interaction with the interaction object shown in FIG. 6 (S611) includes an interaction conversion unit (180 in FIG. 2) of the client apparatus (S801) attempts to convert the interaction with the determined interaction object into an interaction with the interaction object corresponding to the predetermined operation mode.
상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)에서도 여러 동작모드에 상응하도록 상호작용 객체 및 상호작용을 변환할 수 있으나, 모든 동작모드와 상호작용 객체 및 상호작용에 대해서 변환할 수는 없다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)만의 정보를 통해서 상호작용 객체 및 상호작용을 변환하지 못하는 경우에는, 상호작용을 표현하기 위한 서버 장치(도 2의 200 참조)의 개입이 필요하다.The client device (see 100 in FIG. 1) for expressing the interaction may also convert the interaction objects and interactions to correspond to the various modes of operation, but not all of the operation modes and the interaction objects and interactions none. Therefore, when the interactive object and the interaction can not be converted through the information of only the client device (see 100 in FIG. 1) for expressing the interaction, the server device (see 200 in FIG. 2) Intervention is needed.
또한, 도 6에 도시된 상호작용 객체와 상호작용을 변환하는 단계(S611)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 변환부(도 2의 180 참조)가, 상호작용 객체 및 상호작용의 변환에 성공하였는지 여부를 판단한다(S803).In addition, the step of converting the interaction with the interactive object shown in Fig. 6 (S611) includes the step of converting the interaction conversion unit (see 180 in Fig. 2) of the client apparatus (see 100 in Fig. 1) It is determined whether or not the conversion of the interaction object and the interaction has succeeded (S803).
단계(S803)의 판단 결과, 상호작용 객체 및 상호작용의 변환에 성공하였다면, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 변환부(도 2의 180 참조)에서 변환된 상호작용 객체 및 상호작용을 이후의 단계에서 사용한다.As a result of the determination in step S803, if the conversion of the interactive object and the interaction has succeeded, the result of the conversion in the interactive conversion unit (see 180 in FIG. 2) of the client apparatus (see 100 in FIG. 1) Interactive objects and interactions are used in subsequent steps.
단계(S803)의 판단 결과, 상호작용 객체 및 상호작용의 변환에 실패하였다면, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)로 동작모드와 상호작용 객체 및 상호작용을 송신한다(S805).As a result of the determination in step S803, if the conversion of the interaction object and the interaction fails, the operation mode and the interaction object and the interaction are transmitted to the server device (see 200 in FIG. 1) for expressing the interaction (S805 ).
또한, 도 6에 도시된 상호작용 객체 및 상호작용을 변환단계(S611)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상호작용 변환부(도 2의 180 참조)가, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)의 상호작용 변환보조부(도 3의 270 참조)에서 변환된 상호작용 객체와 상호작용을 수신한다(S807).6, the interactive conversion unit (see 180 in FIG. 2) of the client apparatus (see 100 in FIG. 1) for expressing the interaction is a mutual conversion unit (See FIG. 3) of the server device (see 200 in FIG. 1) for expressing the action (S807).
도 9는 도 6에 도시된 사용자 상태 정보를 생성하는 단계(S603)의 일 예를 나타낸 동작 흐름도이다.FIG. 9 is an operational flowchart illustrating an example of generating the user status information (S603) shown in FIG.
도 9를 참조하면, 도 6에 도시된 사용자 상태 정보를 생성하는 단계(S603)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상태 정보 생성부(도 2의 130 참조)가, 수집된 사용자 일상 정보를 분석하여 사용자 상태 정보의 생성을 시도한다(S901).Referring to FIG. 9, the step S603 of generating the user state information shown in FIG. 6 includes a state information generating unit (see 130 in FIG. 2) of the client apparatus (see 100 in FIG. 1) , And attempts to generate user state information by analyzing the collected user daily information (S901).
상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)에서도 여러 사용자 일상 정보를 분석하여 사용자 상태 정보를 생성할 수 있으나, 모든 사용자의 일상 정보를 분석할 수는 없다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)만의 정보를 통해서 사용자 상태 정보를 생성하지 못하는 경우에는, 상호작용을 표현하기 위한 서버 장치(도 2의 200 참조)의 개입이 필요하다.Although the client device (see 100 in FIG. 1) for expressing the interaction can analyze various user daily information to generate user status information, it can not analyze daily information of all users. Therefore, when the user state information can not be generated through information of only the client device (see 100 in FIG. 1) for expressing the interaction, it is necessary to intervene the server device (refer to 200 in FIG. 2) Do.
또한, 도 6에 도시된 사용자 상태 정보를 생성하는 단계(S603)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상태 정보 생성부(도 2의 130 참조)가, 사용자 상태 정보의 생성에 성공하였는지 여부를 판단한다(S903).The step S603 of generating the user state information shown in Fig. 6 includes a step of generating a state information generating unit (see 130 in Fig. 2) of the client apparatus (see 100 in Fig. 1) (S903). ≪ / RTI >
단계(S903)의 판단 결과, 사용자 상태 정보의 생성에 성공하였다면, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상태 정보 생성부(도 2의 130 참조)에서 생성된 사용자 상태 정보를 이후의 단계에서 사용한다.As a result of the determination in step S903, if the generation of the user state information is successful, the user state information generated in the state information generation unit (refer to 130 in FIG. 2) of the client apparatus (refer to 100 in FIG. 1) Are used in later steps.
단계(S903)의 판단 결과, 사용자 상태 정보의 생성에 실패하였다면, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)로 사용자 일상 정보를 송신한다(S905).If it is determined in step S903 that the generation of the user state information is unsuccessful, the user routine information is transmitted to the server device (refer to 200 in FIG. 1) for expressing the interaction (S905).
또한, 도 6에 도시된 사용자 상태 정보를 생성하는 단계(S603)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 상태 정보 생성부(도 2의 130 참조)가, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)의 상태 정보 생성보조부(도 3의 240 참조)에서 생성된 사용자 상태 정보를 수신한다(S907).The step S603 of generating the user state information shown in FIG. 6 may also include a step S604 of generating the state information of the client device (see 100 in FIG. 1) (See FIG. 3) of the server device (see 200 in FIG. 1) for representing the user information (S907).
도 10은 도 6에 도시된 상호작용 시나리오를 선정하는 단계(S607)의 일 예를 나타낸 동작 흐름도이다.10 is an operation flowchart showing an example of a step S607 for selecting an interaction scenario shown in Fig.
도 10을 참조하면, 도 6에 도시된 상호작용 시나리오를 선정하는 단계(S607)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 시나리오 선정부(도 2의 160 참조)가, 사용자 상태 정보에 상응하는 상호작용 시나리오의 선정을 시도한다(S1001).Referring to FIG. 10, the step of selecting the interaction scenario shown in FIG. 6 (S607) includes a scenario selecting unit (see 160 in FIG. 2) of the client apparatus (see 100 in FIG. 1) An attempt is made to select an interaction scenario corresponding to the user state information (S1001).
상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)에서도 여러 상호작용 시나리오를 선정할 수 있으나, 모든 사용자의 상태 정보에 대해서 상응하는 상호작용 시나리오를 선정할 수는 없다. 따라서, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)만의 정보를 통해서 상호작용 시나리오를 선정하지 못하는 경우에는, 상호작용을 표현하기 위한 서버 장치(도 2의 200 참조)의 개입이 필요하다.Several interaction scenarios can also be selected in the client device (see 100 in FIG. 1) for expressing the interaction, but the corresponding interaction scenario can not be selected for all user status information. Therefore, when the interaction scenario can not be selected through information of only the client device (see 100 in FIG. 1) for expressing the interaction, it is necessary to intervene the server device (refer to 200 in FIG. 2) Do.
또한, 도 6에 도시된 상호작용 시나리오를 선정하는 단계(S607)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 시나리오 선정부(도 2의 160 참조)가, 상호작용 시나리오의 선정에 성공하였는지 여부를 판단한다(S1003).The step of selecting the interaction scenario shown in Fig. 6 (S607) includes a step of selecting a scenario selecting section (see 160 in Fig. 2) of the client device (see 100 in Fig. 1) It is determined whether or not the selection is successful (S1003).
단계(S1003)의 판단 결과, 상호작용 시나리오의 선정에 성공하였다면, 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 시나리오 선정부(도 2의 160 참조)에서 선정된 상호작용 시나리오를 이후의 단계에서 사용한다.As a result of the determination in step S1003, if the selection of the interaction scenario is successful, the interaction scenario selected in the scenario selection section (see 160 in FIG. 2) of the client device (see 100 in FIG. 1) It is used in the following step.
단계(S1003)의 판단 결과, 상호작용 시나리오의 선정에 실패하였다면, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)로 사용자 상태 정보를 송신한다(S1005).As a result of the determination in step S1003, if the selection of the interactive scenario fails, the user status information is transmitted to the server device (refer to 200 in FIG. 1) for expressing the interaction (S1005).
또한, 도 6에 도시된 상호작용 시나리오를 선정하는 단계(S607)는 상호작용을 표현하기 위한 클라이언트 장치(도 1의 100 참조)의 시나리오 선정부(도 2의 160 참조)가, 상호작용을 표현하기 위한 서버 장치(도 1의 200 참조)의 시나리오 선정보조부(도 3의 250 참조)에서 선정된 상호작용 시나리오를 수신한다(S1007).In addition, the step of selecting the interaction scenario shown in Fig. 6 (S607) may include the step of selecting a scenario (see 160 in Fig. 2) of the client device (see 100 in Fig. 1) (See 250 in FIG. 3) of the server apparatus (see 200 in FIG. 1) for receiving the interactive scenario (S1007).
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, medium, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be modified into one or more software modules for performing the processing according to the present invention, and vice versa.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all ranges that are equivalent to or equivalent to the claims of the present invention as well as the claims .
1: 상호작용을 표현하기 위한 시스템
100: 상호작용을 표현하기 위한 클라이언트 장치
110: 클라이언트 통신부
120: 일상 정보 수집부
130: 상태 정보 생성부
140: 상태 정보 저장부
150: 상호작용 시점 판단부
160: 시나리오 선정부
170: 상호작용 결정부
180: 상호작용 변환부
190: 상호작용 표현부
200: 상호작용을 표현하기 위한 서버 장치
210: 서버 통신부
220: 데이터베이스
230: 정보 수집부
240: 상태 정보 생성보조부
250: 시나리오 선정보조부
260: 상호작용 결정보조부
270: 상호작용 변환보조부
310_1 내지 310_n: 사용자 입력 장치들
320_1 내지 320_n: 사용자 출력 장치들1: System for expressing interaction
100: client device for expressing interaction
110: client communication unit 120: daily information collecting unit
130: status information generating unit 140: status information storing unit
150: Interaction time point determination unit 160: Scenario selection unit
170: interaction determination unit 180: interaction conversion unit
190: Interaction expression unit
200: server device for expressing interaction
210: server communication unit 220: database
230: information collecting unit 240: state information generating assistant
250: scenario selection sub-unit 260: interaction determination sub-
270: interactive conversion assistant
310_1 to 310_n: User input devices
320_1 to 320_n: User output devices
Claims (1)
상기 사용자 상태 정보에 상응하는 상호작용 시나리오를 선정하는 시나리오 선정부;
상기 선정된 상호작용 시나리오를 이용하여 상호작용 객체 및 상호작용을 결정하고, 상기 상호작용 객체 및 상호작용을 결정하지 못한 경우에는 상호작용을 표현하기 위한 서버 장치에 상호작용 객체 및 상호작용의 결정을 요청하여 수신한 상호작용 객체 및 상호작용으로 대신하는 상호작용 결정부; 및
기설정된 적어도 하나 이상의 상기 사용자의 출력 장치들을 통해 상기 상호작용 객체 및 상기 상호작용을 표현하는 상호작용 표현부;
를 포함하는, 상호작용을 표현하기 위한 클라이언트 장치.A state information generation unit for analyzing user daily information and generating user state information;
A scenario selector for selecting an interaction scenario corresponding to the user state information;
Determining interaction objects and interactions using the selected interaction scenarios and, if the interaction objects and interactions are not determined, determining interactions objects and interactions in the server device for expressing the interactions An interaction determining unit that replaces the received interaction object with the received interaction object; And
An interaction expression unit for expressing the interaction object and the interaction through at least one or more output devices of the user;
A client device for communicating with the client device;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170026239A KR20180099163A (en) | 2017-02-28 | 2017-02-28 | Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170026239A KR20180099163A (en) | 2017-02-28 | 2017-02-28 | Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180099163A true KR20180099163A (en) | 2018-09-05 |
Family
ID=63594305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170026239A KR20180099163A (en) | 2017-02-28 | 2017-02-28 | Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180099163A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200059112A (en) * | 2018-11-19 | 2020-05-28 | 한성대학교 산학협력단 | System for Providing User-Robot Interaction and Computer Program Therefore |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150065523A (en) | 2013-12-05 | 2015-06-15 | 포항공과대학교 산학협력단 | Method and apparatus for providing counseling dialogue using counseling information |
-
2017
- 2017-02-28 KR KR1020170026239A patent/KR20180099163A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150065523A (en) | 2013-12-05 | 2015-06-15 | 포항공과대학교 산학협력단 | Method and apparatus for providing counseling dialogue using counseling information |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200059112A (en) * | 2018-11-19 | 2020-05-28 | 한성대학교 산학협력단 | System for Providing User-Robot Interaction and Computer Program Therefore |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9516081B2 (en) | Reduced latency electronic content system | |
CN109147784B (en) | Voice interaction method, device and storage medium | |
KR101683944B1 (en) | Speech translation system, control apparatus and control method | |
US20140036022A1 (en) | Providing a conversational video experience | |
CN104869467B (en) | Information output method, device and system in media play | |
JP2023550405A (en) | Speech processing method, device, electronic device, and computer program based on artificial intelligence | |
CN109243444B (en) | Voice interaction method, device and computer-readable storage medium | |
CN108877804B (en) | Voice service method, system, electronic device and storage medium | |
JP2019204074A (en) | Speech dialogue method, apparatus and system | |
US10645464B2 (en) | Eyes free entertainment | |
CN109474843A (en) | The method of speech control terminal, client, server | |
JP2017107078A (en) | Voice interactive method, voice interactive device, and voice interactive program | |
CN108882101B (en) | Playing control method, device, equipment and storage medium of intelligent sound box | |
WO2019214456A1 (en) | Gesture language translation system and method, and server | |
KR102451925B1 (en) | Network-Based Learning Models for Natural Language Processing | |
CN110517692A (en) | Hot word audio recognition method and device | |
CN110047497B (en) | Background audio signal filtering method and device and storage medium | |
KR20220037819A (en) | Artificial intelligence apparatus and method for recognizing plurality of wake-up word | |
JP7347217B2 (en) | Information processing device, information processing system, information processing method, and program | |
JP4812733B2 (en) | Information editing apparatus, information editing method, information editing program, and recording medium recording the program | |
CN110418181B (en) | Service processing method and device for smart television, smart device and storage medium | |
CN113205569B (en) | Image drawing method and device, computer readable medium and electronic equipment | |
KR20180099163A (en) | Apparatus for expressing interactions corresponding to a user's situation based on internet and method for the same | |
KR20210066651A (en) | Electronic device and Method for controlling the electronic device thereof | |
WO2013181633A1 (en) | Providing a converstional video experience |