KR20200068058A - Method and apparatus for helping self-development using artificial intelligence learning - Google Patents
Method and apparatus for helping self-development using artificial intelligence learning Download PDFInfo
- Publication number
- KR20200068058A KR20200068058A KR1020180147827A KR20180147827A KR20200068058A KR 20200068058 A KR20200068058 A KR 20200068058A KR 1020180147827 A KR1020180147827 A KR 1020180147827A KR 20180147827 A KR20180147827 A KR 20180147827A KR 20200068058 A KR20200068058 A KR 20200068058A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- activity
- information
- self
- development
- Prior art date
Links
- 238000011161 development Methods 0.000 title claims abstract description 126
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000000694 effects Effects 0.000 claims abstract description 133
- 238000004891 communication Methods 0.000 claims abstract description 44
- 230000008451 emotion Effects 0.000 claims abstract description 41
- 230000006399 behavior Effects 0.000 claims abstract description 33
- 230000002996 emotional effect Effects 0.000 claims abstract description 24
- 230000033001 locomotion Effects 0.000 claims abstract description 16
- 230000009471 action Effects 0.000 claims description 18
- 238000012544 monitoring process Methods 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 5
- 230000008921 facial expression Effects 0.000 claims description 4
- 230000004424 eye movement Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000000977 initiatory effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 230000036772 blood pressure Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 210000004243 sweat Anatomy 0.000 description 5
- 230000036760 body temperature Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 208000027534 Emotional disease Diseases 0.000 description 1
- 206010021703 Indifference Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
- G06Q50/2057—Career enhancement or continuing education service
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Educational Technology (AREA)
- Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
일 개시에 의하여 인공지능 학습을 통해 사용자의 자기 계발을 도와주는 방법 및 장치를 제공하며, 특히, 사용자의 행동 패턴을 획득하고, 사용자와의 커뮤니케이션을 통해 획득한 정보를 학습함으로써 사용자 맞춤형으로 자기계발을 도와줄 수 있는 방법 및 장치에 관한 것이다. Provides a method and apparatus for assisting the user's self-development through artificial intelligence learning by initiation, and in particular, self-development customized to the user by acquiring the user's behavior pattern and learning the information obtained through communication with the user It is about a method and a device that can help.
스마트 폰, 스마트워치, 태블릿 등의 모바일 장치의 수요가 급증하면서 스마트폰 및 태블릿에 구비되는 터치스크린과 관련된 사용자 인터페이스 방법에 관한 연구가 활발하게 진행되고 있다. 특히, 스마트폰 또는 태블릿이 사용자의 경험(user experience)과 관련된 직관에 가까운 인터페이스 방법을 제공할 수 있도록 연구가 진행되고 있으며, 이에 따라 다양한 방식의 사용자 직관에 부합하는 인터페이스 방법이 공개되고 있는 실정이다.As the demand for mobile devices such as smart phones, smart watches, and tablets has rapidly increased, research on user interface methods related to touch screens provided in smart phones and tablets has been actively conducted. In particular, research is being conducted so that a smartphone or tablet can provide an interface method close to an intuition related to a user's experience, and accordingly, an interface method corresponding to various types of user intuition has been disclosed. .
또한, 스마트폰 또는 태블릿에서 이용 가능한 어플리케이션의 개발이 급증하고 있으며, 특히 사용자의 학습 및 자기계발 등을 도와줄 수 있는 어플리케이션의 개발이 활발하게 진행되고 있다. 종래의 자기 학습 관리 어플리케이션들은 사용자로부터 직접 목표치 및 할당치를 입력받고, 단순히 학습 정보만을 보여주는 형식을 채택하고 있다. 따라서, 사용자는 자신이 입력한 학습에 대하여만 확인하고, 학습의 추이를 확인할 수밖에 없어서 능동적인 참여가 어려운 실정이다. 이에 따라, 사용자가 보다 능동적으로 자기 계발을 위한 관리를 받을 수 있는 어플리케이션의 니즈가 증가하였다.In addition, the development of applications that can be used in smartphones or tablets is rapidly increasing, and in particular, the development of applications that can help users learn and develop themselves is actively progressing. Conventional self-learning management applications adopt a format in which target values and allocation values are directly input from a user and only display learning information. Therefore, the user is forced to check only the learning inputted by the user and to check the learning trend, and thus, active participation is difficult. Accordingly, the needs of applications that allow users to be actively managed for self-development have increased.
인공 지능이란 사고, 학습, 자기계발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보 기술의 한 분야로서 컴퓨터가 인간의 지능적인 행동을 모방할 수 있도록 하는 것을 말한다. 또한 인공 지능은 그 자체로 존재하는 것이 아니라, 컴퓨터 과학의 다른 분야와 직간접으로 많은 관련을 맺고 있다. 특히 현대에는 정보기술의 여러 분야에서 인공지능적 요소를 도입하여 그 분야의 문제 풀이에 활용하려는 시도가 매우 활발하게 이루어지고 있다.Artificial intelligence is a field of computer science and information technology that studies how computers can do thinking, learning, and self-development. It means that computers can imitate human intelligent behavior. Also, artificial intelligence does not exist by itself, but has many connections directly or indirectly with other fields of computer science. Particularly in modern times, attempts have been made to actively use artificial intelligence elements in various fields of information technology to solve problems in those fields.
또한, 최근에는 인공지능 기술의 발달으로 인해 음성인식과 자연어처리의 성능이 크게 높아지게 되었고, 이에 따라 다양한 음성 기반 인공지능 서비스들이 개발 및 상용화되었다. 예를 들어, 인공지능 스피커 혹은 스마트 폰의 음성 UI 는 사용자와의 음성 대화를 통해 서비스를 제공한다. 간단하게는 사용자의 간단한 명령을 인식하여 서비스를 제공하거나 응답을 수행하고, 나아가 사용자와 대화를 주고받으며 대화 속에서 정보를 추출함으로써 응답이나 서비스를 제공할 수 있다.In addition, recently, due to the development of artificial intelligence technology, the performance of speech recognition and natural language processing has greatly increased, and accordingly, various speech-based artificial intelligence services have been developed and commercialized. For example, the voice UI of an artificial intelligence speaker or smart phone provides a service through a voice conversation with a user. Simply, a simple command of a user is recognized to provide a service or perform a response, and furthermore, a response or service can be provided by exchanging a conversation with a user and extracting information from the conversation.
일 개시에 따른 기술적 과제는 사용자의 자기 계발을 돕기 위하여, 사용자와의 커뮤니케이션(예를 들어, 음성 기반 커뮤니케이션)을 통한 정보 및 사용자의 활동 정보를 이용하여 인공지능 학습을 하고, 학습된 결과를 바탕으로 사용자의 자기 계발을 도울 수 있는 활동에 대한 정보, 콘텐츠, 알림 등을 제공할 수 있는 방법 및 장치를 제공함에 있다.The technical task according to one start is to learn AI using information through communication with the user (for example, voice-based communication) and activity information of the user to help the user self-development, and based on the learned result. It is to provide a method and device that can provide information, content, notifications, etc. about activities that can help users develop themselves.
제 1 실시예에 따라, 인공지능 학습을 통해 자기 계발을 도와주기 위한 방법을 제공하며, 사용자와의 커뮤니케이션을 통해 사용자의 활동에 대한 목표에 관련된 정보를 획득하는 단계, 사용자의 행동을 모니터링으로써 사용자의 행동 정보를 생성하고, 사용자의 정서(Sentiment)를 센싱함으로써 사용자의 정서 정보를 획득하는 사용자 모니터링 단계, 획득한 행동 정보 및 센싱된 정서 정보와 사용자의 활동 능력의 관계성을 학습한 결과에 기초하여 인공지능 학습 모델을 생성하고, 생성된 인공지능 학습 모델을 이용하여 사용자의 행동 정보 및 정서 정보에 서로 다른 가중치를 부여함으로써, 사용자의 활동에 대한 행동맵을 생성하는 단계, 활동맵에 기초하여 활동 목표 달성에 도움을 주는 메인 콘텐츠를 제공하는 단계, 메인 콘텐츠를 실행하는 사용자와의 커뮤니케이션을 통해 사용자의 활동에 대한 목표 달성률을 결정하는 단계, 목표 달성률에 따라 사용자의 활동에 관련된 보조 콘텐츠를 제공하는 단계 및 사용자의 활동에 대한 목표 달성률에 따라 사용자에게 감정적 피드백을 제공하는 단계를 제공할 수 있다.According to the first embodiment, a method for assisting self-development through artificial intelligence learning is provided, and obtaining information related to a user's activity goal through communication with a user, and monitoring a user's behavior Based on the result of learning the user monitoring step of acquiring the user's emotion information by generating the user's behavior information and sensing the user's sentiment, the relationship between the acquired behavior information and the sensed emotion information and the user's activity ability Generating an artificial intelligence learning model by using the generated artificial intelligence learning model, and assigning different weights to the user's behavior information and emotion information, thereby generating an action map for the user's activity, based on the activity map Providing main content to help achieve the goal of the activity, determining the goal achievement rate for the user's activity through communication with the user running the main content, and providing auxiliary content related to the user's activity according to the goal achievement rate And providing emotional feedback to the user according to the target achievement rate for the user's activity.
제 2 실시예에 따라, 인공지능 학습을 통해 자기 계발을 도와주기 위한 장치를 제공하며, 본 장치는 사용자와 커뮤니케이션을 수행할 수 있는 사용자 인터페이스, 프로세서 및 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리를 포함하고, 프로세서는 명령어들을 실행함으로써, 사용자와의 커뮤니케이션을 통해 사용자의 활동에 대한 목표에 관련된 정보를 획득하고, 사용자의 행동을 모니터링으로써 사용자의 행동 정보를 생성하고, 사용자의 정서를 센싱함으로써 사용자의 정서 정보를 획득하는 사용자 모니터링하고, 획득한 행동 정보 및 센싱된 정서 정보와 사용자의 활동 능력의 관계성을 학습한 결과에 기초하여 인공지능 학습 모델을 생성하고, 생성된 인공지능 학습 모델을 이용하여 사용자의 행동 정보 및 정서 정보에 서로 다른 가중치를 부여함으로써, 사용자의 활동에 대한 행동맵을 생성하는 단계, 활동맵에 기초하여 활동 목표 달성에 도움을 주는 메인 콘텐츠를 제공하고, 메인 콘텐츠를 실행하는 사용자와의 커뮤니케이션을 통해 사용자의 활동에 대한 목표 달성률을 결정하고, 목표 달성률에 따라 사용자의 활동에 관련된 보조 콘텐츠를 제공하고, 사용자의 활동에 대한 목표 달성률에 따라 사용자에게 감정적 피드백을 제공할 수 있다.According to a second embodiment, an apparatus for assisting self-development through artificial intelligence learning is provided, and the apparatus includes a user interface capable of performing communication with a user, a processor, and a memory storing instructions executable by the processor. Including, by executing instructions, the processor obtains information related to the goal of the user's activity through communication with the user, generates the user's behavior information by monitoring the user's behavior, and senses the user's emotion Based on the result of learning the relationship between the acquired behavior information and sensed emotion information and the user's activity ability, the user who acquires the emotion information of the user is monitored, and the generated artificial intelligence learning model is used. By assigning different weights to the user's behavior information and emotion information, generating the action map for the user's activity, providing the main content to help achieve the activity goal based on the activity map, and executing the main content Through communication with the user, it is possible to determine the target achievement rate for the user's activity, provide supplemental content related to the user's activity according to the goal achievement rate, and provide emotional feedback to the user according to the goal achievement rate for the user's activity. have.
제 3 실시예에 따라, 본 명세서에 개시된 어느 인공지능 학습을 통해 자기 계발을 도와주기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 제공할 수 있다.According to the third embodiment, it is possible to provide a computer-readable recording medium in which a program for assisting self-development is recorded through any artificial intelligence learning disclosed herein.
일 개시에 따르면, 사용자와의 커뮤니케이션 정보에 기초하여 사용자에게 필요한 활동 및 콘텐츠를 추천함으로써, 사용자 맞춤형 자기 계발 정보를 제공할 수 있다.According to one disclosure, personalized self-development information may be provided by recommending activities and contents necessary for a user based on communication information with the user.
일 개시에 따라, 사용자의 활동영역을 확장하여 콘텐츠를 추천하고, 제공함으로써 사용자의 학습 영역을 확장시켜줄 수 있는 장점이 있다.According to one disclosure, there is an advantage that the user's learning area can be expanded by recommending and providing content by expanding the user's activity area.
일 개시에 의하여, 사용자의 행동 패턴을 확장한 행동맵을 통해 사용자의 흥미를 유발할 수 있는 보조적인 활동 및 사용자가 설정한 목표에 효과적으로 도달할 수 있는 보조적인 활동들을 제공함으로써, 사용자가 설정한 목표에 보다 효과적으로 도달할 수 있는 효과를 제공할 수 있다.The goal set by the user by providing ancillary activities that may cause the user's interest and ancillary activities that can effectively reach the target set by the user through an action map that expands the user's behavior pattern by initiating work It can provide an effect that can be reached more effectively.
도 1은 일 실시예에 의한 인공지능 학습을 통해 자기 계발을 도와주는 방법을 개괄적으로 설명하기 위한 도면이다.
도 2는 일 개시에 의한 인공지능 학습을 통해 자기 계발을 도와주는 방법을 설명하기 위한 흐름도이다.
도 3은 일 개시에 의한 인공지능 학습을 통해 자기 계발을 도와주는 장치가 로봇인 경우를 설명하기 위한 도면이다.
도 4는 일 개시에 의한 인공지능 학습을 통해 자기 계발을 도와주는 장치가 사용자의 목표 달성을 도와주는 방법을 설명하기 위한 예시 도면이다.
도 5는 일 개시에 의한 사용자의 정보들을 이용하여 행동맵을 생성하는 인공지능 학습 모델을 설명하기 위한 도면이다.
도 6은 일 개시에 의한 사용자의 활동에 대한 활동맵을 설명하기 위한 도면이다.
도 7은 일 개시에 의한 인공지능 학습을 통해 자기 계발을 도와주는 장치의 구성을 나타낸 도면이다.1 is a view for explaining a method for assisting self-development through artificial intelligence learning according to an embodiment.
2 is a flow chart for explaining a method for assisting self-development through artificial intelligence learning by one initiation.
FIG. 3 is a diagram for explaining a case in which a device that assists self-development through artificial intelligence learning by initiation is a robot.
FIG. 4 is an exemplary diagram for explaining a method of assisting a user in achieving his or her goal through a device for assisting self-development through artificial intelligence learning according to one disclosure.
5 is a diagram for explaining an artificial intelligence learning model that generates an action map using information of a user according to one disclosure.
6 is a view for explaining an activity map for a user's activity by one start.
7 is a view showing the configuration of a device that assists self-development through artificial intelligence learning by one initiation.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. Terms used in the specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terminology used in the present invention has been selected, while considering the functions in the present invention, general terms that are currently widely used are selected, but this may vary according to the intention or precedent of a person skilled in the art or the appearance of a new technology. In addition, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, their meanings will be described in detail in the description of the applicable invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents of the present invention, not simply the names of the terms.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification "includes" a certain component, this means that other components may be further included instead of excluding other components, unless specifically stated to the contrary. In addition, terms such as "... unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented in hardware or software, or a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.
본 명세서에서, 정서(Sentiment)는 정서 분석(Sentimental analysis)을 통해 획득되는 정보로서, 사용자의 음성, 사용자를 촬영한 영상정보, 사용자와의 대화 내용으로부터 획득될 수 있는 정보를 포괄한다. 예를 들어, 사용자의 정서 정보는 사용자의 태도, 감정, 의도 등에 대한 정보를 포함하며, 더 구체적으로 사용자의 애정, 애착, 흥미, 불안, 자신감, 기쁨, 슬픔, 무관심 등에 대한 정보를 포함할 수 있으나, 이에 제한되는 것은 아니다.In this specification, sentiment (Sentiment) is information obtained through sentimental analysis (Sentimental analysis), and includes information that can be obtained from the user's voice, video information captured by the user, and conversation with the user. For example, the emotional information of the user includes information about the user's attitude, emotion, and intention, and may more specifically include information about the user's affection, attachment, interest, anxiety, confidence, joy, sadness, and indifference. However, it is not limited thereto.
정서 분석은 사용자의 생각이나 의견을 다양한 주제에 걸쳐 획득하여 분석되며, 예를 들어 문서나 콘텐츠, 상호작용, 이벤트 등에 대한 사용자의 감정적 반응이나 콘텍스트를 수집함으로써 정서 분석을 위한 정보를 획득할 수 있다. 사용자의 반응이나 콘텍스트는 사용자의 발화내용이나 글 또는 다른 수단들을 통해 획득될 수 있다. Emotional analysis is obtained by acquiring the user's thoughts or opinions across various topics, and for example, information for emotional analysis can be obtained by collecting the user's emotional reaction or context to documents, content, interactions, events, etc. . The user's reaction or context can be obtained through the user's speech, text, or other means.
사용자의 태도는 판단이나 평가, 애착단계, 감정상태, 의도된 감정적 커뮤니케이션 등을 포괄하는 의미로서 이해될 수 있고, 그 구체적인 대상의 종류는 제한되지 않는다.The user's attitude can be understood as a meaning encompassing judgment or evaluation, attachment stage, emotional state, and intended emotional communication, and the type of the specific object is not limited.
또한, 실시 예에 따라 정서 정보는 사용자의 생체 정보를 포함할 수 있으며, 사용자의 생체 정보는 하나 이상의 센서를 이용하여 수집되는 사용자의 신체의 상태 및 변화에 대한 정보를 포함할 수 있다. 예를 들어, 생체정보는 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보 및 활동 정보 등을 포함할 수 있으며, 이는 사용자의 정서 분석에 활용될 수 있다.In addition, according to an embodiment, the emotion information may include biometric information of the user, and the biometric information of the user may include information on the state and change of the user's body collected using one or more sensors. For example, the bio-information may include a user's body temperature information, sweat discharge amount information, skin characteristic information, heart rate information, blood pressure information, and activity information, which may be used for user emotion analysis.
도 1은 일 실시예에 의한 인공지능 학습을 통해 자기 계발을 도와주는 방법을 개괄적으로 설명하기 위한 도면이다.1 is a view for explaining a method for assisting self-development through artificial intelligence learning according to an embodiment.
이하에서 인공지능 학습을 통해 자기 계발을 도와주는 장치(100)는 자기 계발 도우미 장치(100)라고 통일하여 설명하도록 한다. 자기 계발 도우미 장치(100)는 인공지능 학습 능력을 탑재한 장치일 수 있다. 예를 들어, 자기 계발 도우미 장치(100)는 사람의 형상을 한 로봇일 수 있으며, 네트워크를 통해 빅데이터에 접근할 수 있는 장치일 수 있다. Hereinafter, the
일 실시 예에서, 자기 계발 도우미 장치(100)는 사용자의 집이나 사무실의 책상에 배치되어 사용자와 상호 소통하며 이하에서 개시되는 실시 예에 따른 자기 계발을 돕는, 일종의 데스크 봇(desk bot)형태일 수도 있으나, 이에 제한되는 것은 아니다. In one embodiment, the self-
자기 계발 도우미 장치(100)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자책 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, 디지털 카메라, 안경, 손목 시계(예를 들어, 스마트 워치) 등의 웨어러블 디바이스와 전자 기기 등을 포함할 수 있으며, 실시 예에 따라 이하에서 개시되는 자기 계발 도움 방법을 수행하는 애플리케이션이 설치되어 동작할 수도 있다.The self-
일 개시에 의하여, 자기 계발 도우미 장치(100)는 로봇일 수 있다. 자기 계발 도우미 장치(100)는 사용자(200)와의 커뮤니케이션을 통해 사용자(200)의 목표 달성을 도와줄 수 있으며, 다양한 방법으로 사용자의 자기계발을 도울 수 있다.By one start, the self-
일 개시에 의하여, 자기 계발 도우미 장치(100)는 사용자(200)와의 커뮤니케이션을 통하여 사용자의 활동에 대한 목표에 관련된 정보를 획득할 수 있다. 예를 들어, 자기 계발 도우미 장치(100)는 사용자(200)로부터 언어 능력에 관련된 활동 중 프랑스어 능력 향상에 대한 목표를 설정받을 수 있다. By one start, the self-
본 실시 예에서, 프랑스어 능력 향상에 대한 목표를 설정하고, 이에 따른 코칭 서비스를 제공하는 것은 단지 본 발명을 구체적으로 설명하기 위한 일 예로서 개시되는 것이다. 개시된 실시 예에 따른 자기 계발 도우미 장치 및 이를 활용한 자기 계발 서비스 제공방법은, 프랑스어뿐 아니라 다른 언어의 학습을 돕는 데에도 이용될수 있음은 물론, 사용자의 설정에 따라 다양한 학습, 업무수행, 신체단련, 여가생활 등 다양한 자기계발 목표를 달성하는 것을 도울 수 있으며, 또한 그 대상은 제한되지 않는다.In the present embodiment, setting a goal for improving French proficiency and providing a coaching service accordingly is only disclosed as an example for specifically describing the present invention. The self-development helper device and the self-development service providing method using the same according to the disclosed embodiments can be used not only to help learning French but also other languages, as well as various learning, work, and physical training depending on the user's settings , Can help achieve various self-improvement goals, such as leisure life, and the object is not limited.
예를 들어, 자기 계발 도우미 장치(100)는 사용자(200)의 음성 입력, 앱을 통한 사용자 입력 등을 통해 사용자의 목표를 설정받을 수 있으며, 사용자의 목표를 설정받는 방법은 제한하지 않는다.For example, the self-
자기 계발 도우미 장치(100)는 프랑스어 학습에 관련된 활동을 수행하는 동안 사용자(200)의 정서, 움직임 신호 및 사용자의 입력에 의한 활동 자료 등을 획득할 수 있다. 예를 들어, 사용자(200)의 정서 정보는 사용자의 음성 및 사용자를 촬영한 영상에 기초하여 획득될 수 있다.The self-
또한, 도 1에서와 같이, 사용자(200)의 음성 입력을 통해 사용자의 학습 활동에 대한 정보를 획득할 수 있다. 예를 들어, 사용자(200)는 자기 계발 도우미 장치(100)에서 제공한 불어능력테스트 앱을 통해 프랑스어 학습을 하고 있다는 정보를 입력할 수 있으며, 나아가, 프랑스어 말하기 활동에 관련된 외부 활동에 대한 정보를 입력할 수 있다.In addition, as shown in FIG. 1, information on a user's learning activity may be acquired through a voice input of the
자기 계발 도우미 장치(100)는 획득한 사용자의 자료들을 기초로 사용자가 언어 학습에 관련된 활동을 하는 동안의 행동 패턴을 파악할 수 있다. 예를 들어, 프랑스어 학습 중 읽기 활동 및 쓰기 활동을 수행하는 것보다, 말하기 활동을 할 때 심장박동수가 증가하고, 피부 표면의 땀이 증가하고, 안구의 움직임이 활발해진다는 정보를 획득할 수 있다. 자기 계발 도우미 장치(100)는 사용자의 말하기 활동에 대한 학습이 필요하다고 판단할 수 있다. 일 개시에 의하여 자기 계발 도우미 장치(100)는 사용자의 말하기 활동에 도움이 되는 콘텐츠를 추천할 수 있다.The self-
예를 들어, 자기 계발 도우미 장치(100)는 사용자의 생체정보에 기초하여 사용자가 해당 학습내용을 즐거워하는지, 혹은 불안해하거나 어려워하는지 구분할 수 있으며, 구분 결과에 따라 상이한 자기계발 가이드라인을 제시할 수 있다.For example, the self-
일 개시에 의하여 자기 계발 도우미 장치(100)는 인공지능 학습을 통하여 사용자의 현재 학습 상태와 사용자가 설정한 목표와의 일치율을 판단할 수 있다. 자기 계발 도우미 장치(100)는 사용자(200)가 설정한 목표의 달성률을 결정하여 사용자(200)에게 알려줄 수 있다. 또한, 사용자의 현재 상태에 맞추어 새로운 앱 또는 콘텐츠를 추천해줄 수 있다.The self-
이하에서 상세하게 설명하도록 한다.It will be described in detail below.
도 2는 일 개시에 의한 인공지능 학습을 통해 자기 계발을 도와주는 방법을 설명하기 위한 흐름도이다.2 is a flow chart for explaining a method for assisting self-development through artificial intelligence learning by one initiation.
일 개시에 의하여 블록 201에서 자기 계발 도우미 장치(100)는 사용자와의 커뮤니케이션을 통해 사용자의 활동에 대한 목표에 관련된 정보를 획득하는 단계를 제공할 수 있다.In one block, the self-
일 개시에 의하여 자기 계발 도우미 장치(100)는 사용자의 음성 신호, 제스처 신호, 사용자 인터페이스를 통한 신호를 수신하고, 수신한 신호에 대한 답변을 함으로써 사용자와의 커뮤니케이션을 할 수 있다.By one start, the self-
보다 구체적으로, 자기 계발 도우미 장치(100)는 활동에 대한 복수개의 질문 메시지를 제공하고, 사용자로부터 복수개의 답변 메시지를 수신할 수 있다. 또한, 자기 계발 도우미 장치(100)는 복수개의 답변 메시지를 수신하는 동시에, 복수개의 답변 메시지를 작성하는 사용자의 안구 움직임 정보, 심장 박동 정보, 표정 정보, 몸의 움직임 정보 및 언어 정보를 포함하는 사용자 정보를 모니터링할 수 있다.More specifically, the self-
예를 들어, 자기 계발 도우미 장치(100)는 프랑스어 학습에 관한 문제를 질문 메시지로서 제공하고, 질문 메시지를 대하는 사용자의 안구 움직임 정보, 심장 박동 정보, 표정 정보, 몸의 움직임 정보 및 언어 정보를 획득함으로써 사용자가 질문 메시지를 대할 때 어떠한 감정을 느끼는지 판단할 수 있다. 자기 계발 도우미 장치(100)는 활동에 대한 다양한 측면의 질문 메시지를 통해, 사용자의 학습 레벨을 판단할 수 있다.For example, the self-
또한, 자기 계발 도우미 장치(100)는 모니터링된 사용자 정보에 기초하여, 새로운 질문 메시지 및 피드백 제스처 정보를 생성하는 단계를 제공할 수 있다. 여기서, 새로운 질문 메시지는 앞선 질문 메시지에 대한 심화 질문을 포함할 수 있으며, 다른 측면의 질문을 포함할 수도 있다. Also, the self-
피드백 정보 및 제스처 정보는 사용자의 학습에 대한 보상으로서 제공될 수 있으며, 활동 시 모니터링한 사용자의 제스처 정보를 반영하여 생성될 수 있다. The feedback information and the gesture information may be provided as a reward for the user's learning, and may be generated by reflecting the gesture information of the user monitored during the activity.
일 개시에 의하여 자기 계발 도우미 장치(100)는 새로운 질문 메시지를 제공하는 도중 피드백 제스처를 수행하는 단계를 제공할 수 있다. 예를 들어, 자기 계발 도우미 장치(100)는 프랑스어 학습 활동을 하는 도중, 사용자가 자주 사용하는 제스처를 표현함으로써 사용자에게 친근감을 줄 수 있으며, 사용자 학습에 도움을 주는 피드백을 줄 수 있다.According to one disclosure, the self-
일 실시 예에서, 자기 계발 도우미 장치(100)는 형태적 혹은 기계적 한계로 인해 사용자의 제스처를 동일하게 따라하기는 어려울 수도 있다. 이러한 경우에, 자기 계발 도우미 장치(100)는 사용자의 제스처를 단순화하며, 자기 계발 도우미 장치(100)의 형태 및 기계적 활동반경 내로 단순화된 제스처를 수행할 수 있다.In one embodiment, the self-
일 개시에 의하여 블록 202에서 자기 계발 도우미 장치(100)는 사용자의 행동을 모니터링으로써 사용자의 행동 정보를 생성하고, 사용자의 정서를 센싱함으로써 사용자의 정서 정보를 획득하는 사용자 모니터링 단계를 제공할 수 있다.In one block, the self-
일 개시에 의하여, 자기 계발 도우미 장치(100)는 사용자의 자세, 반응, 움직임, 얼굴 표정 등 사용자의 감정상태에 대한 정보를 사용자를 촬영한 영상정보에 기초하여 획득할 수 있으며, 이에 더하여 영상 분석을 통해 사용자가 착용하고 있는 의상이나 사용자가 피곤하거나 지쳐 보이는지 여부 등에 대한 정보를 수집하고, 이에 기초하여 사용자의 정서분석을 수행할 수 있다.By one start, the self-
다른 일 개시에 의하여, 자기 계발 도우미 장치(100)는 사용자의 체온을 측정하는 온도 센서, 사용자의 땀 배출량을 측정하는 습도 센서, 사용자의 피부 특성을 측정하는 반사 광학 센서, 사용자의 심장 박동을 측정하는 심박 센서, 사용자의 혈압을 측정하는 혈압 센서, 및 상기 사용자의 활동을 측정하는 동작 센서 중 적어도 하나를 포함하는 센서부를 이용하여 사용자의 생체 정보를 획득할 수 있다. 또한, 자기 계발 도우미 장치(100)는 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보 및 활동 정보 중 적어도 하나를 고려하여, 사용자의 정서에 대한 관리 정보를 생성할 수 있다.According to another disclosure, the self-
일 개시에 의하여 블록 203에서 자기 계발 도우미 장치(100)는 사용자의 활동 중 획득한 행동 정보 및 센싱된 정서 정보에 기초하여 사용자의 활동과 사용자의 행동 정보 및 정서 정보와의 관계성을 학습한 결과에 기초하여 인공지능 학습 모델을 생성하고, 생성된 인공지능 학습 모델을 이용하여 사용자의 활동에 대한 행동맵을 생성하는 단계를 제공할 수 있다.As a result, the self-
일 개시에 의하여, 행동맵을 생성하는 단계는 사용자의 활동 중 획득한 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보, 몸의 움직임 정보 및 콘텐츠 이용정보를 고려하여, 활동에 대한 사용자의 관심도를 결정하는 단계를 제공할 수 있다.By starting the work, the step of generating the action map takes into account the user's body temperature information, sweat discharge information, skin characteristic information, heart rate information, blood pressure information, body movement information and content usage information obtained during the user's activity, It may provide a step of determining the user's interest in the activity.
예를 들어, 자기 계발 도우미 장치(100)는 사용자가 프랑스어 학습을 하는 도중 드라마를 통한 프랑스어 듣기 활동에서 수집된 사용자의 정서 정보에 기초하여 사용자가 흥미를 나타내고 있는지 여부를 판단할 수 있고, 이로 인해 사용자의 관심도를 결정할 수 있다.For example, the self-
다른 실시 예에서, 사용자의 심장박동수가 증가하고, 혈압이 상승하고, 몸의 움직임이 증가하였다면 마찬가지로 사용자가 흥미를 나타내고 있다고 판단할 수 있고, 이로 인해 사용자의 관심도를 결정할 수 있다.In another embodiment, if the user's heart rate increases, blood pressure rises, and body movement increases, it may be determined that the user is showing interest, thereby determining the user's interest level.
또한, 자기 계발 도우미 장치(100)는 사용자의 관심도에 따라 사용자의 활동을 수행함에 있어 필요한 복수개의 행동에 대한 계층을 결정하는 단계를 제공할 수 있다. In addition, the self-
일 개시에 의하여 블록 204에서 자기 계발 도우미 장치(100)는 활동맵에 기초하여 사용자의 행동 정보 및 정서 정보에 서로 다른 가중치를 부여하고, 가중치에 기초하여 사용자의 활동에 관련된 메인 콘텐츠를 제공하는 단계를 제공할 수 있다.In
일 개시에 의하여, 자기 계발 도우미 장치(100)는 메인 콘텐츠를 제공하는 단계에서 활동맵의 계층 정보와 사용자의 활동에 대한 목표의 계층 차이를 비교하여, 활동맵에 할당된 적어도 하나의 콘텐츠를 결정하는 단계를 제공할 수 있다. 즉, 자기 계발 도우미 장치(100)는 사용자의 현재 학습 활동 수준이 사용자가 설정한 목표치에 얼마만큼 도달했는지 여부를 판단할 수 있으며, 이 차이가 계층 차이가 된다. 또한, 자기 계발 도우미 장치(100)는 미달된 목표치만큼을 채우기 위하여 사용자가 필요한 학습 분야를 결정할 수 있다. 자기 계발 도우미 장치(100)는 미달된 목표치를 채우기 위한 학습 분야에 관련된 적어도 하나의 콘텐츠를 결정할 수 있다. By one start, the self-
또한, 자기 계발 도우미 장치(100)는 적어도 하나의 콘텐츠에 대하여 사용자의 움직임이 많이 관찰될 수록 높은 가중치를 부여하고, 사용자의 정서의 변화폭이 클수록 높은 가중치를 부여하는 단계를 제공할 수 있다. 예를 들어 자기 계발 도우미 장치(100)는 사용자의 움직임이 많거나, 교감신경의 반응이 많은 콘텐츠에 대하여 높은 가중치를 부여할 수 있다. 여기서 가중치는 사용자의 선호도를 의미하는 것으로서, 사용자가 더 많은 흥미를 느낄수록 더 많은 활동을 한다는 것에 기초한다.In addition, the self-
결과적으로, 자기 계발 도우미 장치(100)는 가중치에 기초하여 사용자의 활동 목표를 달성하기 위해 적합한 메인 콘텐츠를 결정할 수 있다. 나아가 자기 계발 도우미 장치(100)는 결정된 메인 콘텐츠를 제공할 수 있다.As a result, the self-
일 개시에 의하여 블록 205에서 자기 계발 도우미 장치(100)는 메인 콘텐츠를 실행하는 사용자와의 커뮤니케이션을 통해 사용자의 활동에 대한 목표 달성률을 결정하는 단계를 제공할 수 있다.The self-
일 개시에 의하여 자기 계발 도우미 장치(100)는 사용자의 활동시 수행된 메인 콘텐츠 및 보조 콘텐츠의 내용에 기초하여, 사용자의 활동에 대한 목표와 관련된 시험 콘텐츠를 생성할 수 있다.According to one disclosure, the self-
자기 계발 도우미 장치(100)는 시험 콘텐츠를 사용자에게 제공하고, 사용자로부터 답안 메시지를 수신할 수 있으며, 답안 메시지의 정답률에 따라 사용자의 활동에 대한 목표 달성률을 결정할 수 있다.The self-
일 개시에 의하여, 사용자의 활동에 대한 목표 달성률을 결정하는 단계에서 자기 계발 도우미 장치(100)는 메인 콘텐츠를 수행한 결과와 사용자의 활동 목표를 비교하여, 목표 달성 부분 및 목표에 도달하지 못한 부분이 표시된 목표 달성 맵을 생성할 수 있다.In a step of determining a goal achievement rate for a user's activity by starting a job, the self-
예를 들어 메인 콘텐츠가 프랑스 드라마를 이용한 언어 학습이었다면, 사용자가 소정의 주기 동안 학습해야할 드라마 편수를 다 채우지 못했는지, 듣기, 쓰기, 말하기 중 어느 분야의 학습을 완료하지 못했는지 여부에 따라서 목표 달성 맵을 작성할 수 있다.For example, if the main content was language learning using a French drama, the goal is achieved depending on whether the user has not completed the number of dramas to be learned for a certain period, or in which areas of listening, writing, or speaking have not been completed. You can create a map.
일 개시에 의하여, 자기 계발 도우미 장치(100)는 목표 달성 맵에 기초하여, 목표에 도달하지 못한 부분의 크기가 클수록 높은 점수를 갖도록 결정된 적어도 하나의 보조 콘텐츠를 결정하는 단계를 제공할 수 있다. 예를 들어, 메인 콘텐츠인 프랑스 드라마를 이용한 언어 학습에서 받아쓰기 분야가 취약하다고 판단한 경우, 프랑스어 받아쓰기 앱을 보조 콘텐츠로서 결정하거나, 보다 쉬운 수준의 언어가 포함된 다른 드라마를 추천할 수 있다. 이때, 사용자가 취약하다고 판단한 분야에 보다 높은 점수를 매겨 보조 콘텐츠를 결정할 수 있다.According to one disclosure, the self-
또한, 자기 계발 도우미 장치(100)는 적어도 하나의 보조 콘텐츠를 높은 점수에 따라 순차적으로 제공할 수 있다. In addition, the self-
일 개시에 의하여 블록 206에서 자기 계발 도우미 장치(100)는 목표 달성률에 따라 사용자의 활동에 관련된 보조 콘텐츠를 제공하는 단계를 제공할 수 있다. 자기 계발 도우미 장치(100)는 보조 콘텐츠를 직접 실행시키거나, 사용자의 다른 단말로 전송할 수 있다.In one block, the self-
자기 계발 도우미 장치(100)는 메인 콘텐츠를 수행한 결과와 사용자의 활동 목표를 비교하여, 목표 달성 부분 및 목표에 도달하지 못한 부분이 표시된 목표 달성 맵을 생성할 수 있으며, 목표 달성 맵에 기초하여, 목표에 도달하지 못한 부분의 크기가 클수록 높은 점수를 갖도록 결정된 적어도 하나의 보조 콘텐츠를 결정할 수 있다.The self-
또한, 자기 계발 도우미 장치(100)는 적어도 하나의 보조 콘텐츠를 높은 점수에 따라 순차적으로 제공할 수 있다.In addition, the self-
일 개시에 의하여 블록 207에서 자기 계발 도우미 장치(100)는 사용자의 활동에 대한 목표 달성률에 따라 사용자에게 감정적 피드백을 제공하는 단계를 제공할 수 있다.According to one disclosure, the self-
일 개시에 의하여 감정적 피드백을 제공하는 단계는, 사용자의 활동을 수행함에 따라 모니터링된 행동 정보 및 정서 정보와, 활동에 대한 목표 달성 속도, 목표에 대한 정보, 활동 속성 및 활동 지속 시간에 기초하여 생성된 감정적 피드백 정보를 포함할 수 있다. 예를 들어, 사용자가 프랑스어 말하기 활동을 하는 도중 획득한 정서 정보 및 모니터링 행동 정보가 즐거움에 관련된 것이라면, 자기 계발 도우미 장치(100)는 사용자의 감정 정보를 반영하여 감정적 피드백을 할 수 있다.The step of providing emotional feedback by starting the work is generated based on the behavioral information and emotional information monitored as the user performs the activity, the goal achievement rate for the activity, information on the goal, activity attributes, and activity duration Emotional feedback information. For example, if the emotion information and monitoring behavior information acquired during a user's French speaking activity are related to pleasure, the self-
일 개시에 의하여, 감정적 피드백 정보는 감정에 관련된 시각적 피드백, 후각적 피드백 및 촉각적 피드백을 포함할 수 있다. 예를 들어, 자기 계발 도우미 장치(100)가 사람 형상의 로봇인 경우, 사용자에게 칭찬의 말과 함께 좋은 향기, 진동 등을 전달할 수 있다. 또한, 로봇은 움직임을 통해 시각적 효과를 줄 수 있다.By one initiation, the emotional feedback information may include visual feedback, olfactory feedback, and tactile feedback related to emotion. For example, when the self-
도 3은 일 개시에 의한 인공지능 학습을 통해 자기 계발을 도와주는 장치가 로봇인 경우를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a case in which a device that assists self-development through artificial intelligence learning by initiation is a robot.
일 개시에 의하여 자기 계발 도우미 장치(100)는 유무선 통신을 이용하여 다른 장치, 다른 서버등과 통신할 수 있다. 예를 들어, 자기 계발 도우미 장치(100)는 사용자가 설정한 목표 달성을 도와주기 위하여 사용자에게 알맞은 콘텐츠를 제공해주기 위하여 콘텐츠 제공 서버와 통신할 수 있다.By one start, the self-
본 명세서에서, 서버는 특정 위치에 설치된 하드웨어에 기반한 서버를 의미할 수도 있으나, 클라우드 서버를 의미할 수도 있다. 즉, 개시된 실시 예에 따른 자기 계발 도우미 장치(100)는 서버 또는 클라우드와 연결되어 정보를 업로드하고, 콘텐츠를 다운로드할 수 있으며, 필요한 정보를 백업할 수 있다. 서버 또는 클라우드는 정보를 저장하고, 필요한 콘텐츠를 제공하는 역할을 수행할 수 있을 뿐더러, 인공지능 모델을 활용하여 정보를 처리하여 응답을 생성할 수도 있고, 실시 예에 따라 SaaS 형태의 애플리케이션을 제공하여 자기 계발 도우미 장치(100)가 특정 작업을 수행할 수 있도록 보조할 수도 있다.In this specification, the server may mean a server based on hardware installed in a specific location, but may also mean a cloud server. That is, the self-
일 개시에 의하여 자기 계발 도우미 장치(100)는 사용자의 행동을 모니터링 할 수 있는 적어도 하나의 카메라를 포함할 수 있으며, 사용자의 움직임을 쫓아 카메라를 이동시킬 수 있다. 또한, 자기 계발 도우미 장치(100)는 사용자의 움직임을 녹화할 수 있다.By one start, the self-
일 개시에 의하여, 자기 계발 도우미 장치(100)는 사용자와 커뮤니케이션 할 수 있도록 디스플레이, 카메라, 녹음기 및 스피커를 포함할 수 있다. 예를 들어, 자기 계발 도우미 장치(100)는 녹음기 및 카메라를 이용하여 사용자의 음성 신호 및 제스처 신호를 획득할 수 있으며, 사용자에게 피드백 신호를 전송하기 위하여 디스플레이 및 스피커를 사용할 수 있다.By one disclosure, the self-
또한, 자기 계발 도우미 장치(100)는 사람의 형상을 닮은 로봇일 수 있으며, 따라서 사람의 관절과 유사한 부분을 포함할 수 있다. 예를 들어, 자기 계발 도우미 장치(100)는 무빙 유닛을 이용하여 머리, 팔, 다리, 몸통 등을 움직여 사용자의 행동을 따라하거나, 사용자에게 피드백 신호를 전달할 수 있다.In addition, the self-
도 4는 일 개시에 의한 인공지능 학습을 통해 자기 계발을 도와주는 장치가 사용자의 목표 달성을 도와주는 방법을 설명하기 위한 예시 도면이다.FIG. 4 is an exemplary diagram for explaining a method of assisting a user in achieving his or her goal through a device for assisting self-development through artificial intelligence learning according to one disclosure.
일 개시에 의하여, 자기 계발 도우미 장치(100)는 사용자 또는 사용자의 단말(201)과 지속적인 통신을 통해 사용자의 정보를 실시간으로 획득할 수 있다. 또한 사용자로부터 사용자의 학습에 관련된 목표를 입력받을 수 있으며, 사용자의 기록 또는 획득한 사용자의 정보를 이용하여 사용자의 학습 활동에 대한 활동맵을 생성할 수 있다. By one start, the self-
이때, 사용자의 단말(201)은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 카메라, 네비게이션, 타블렛 컴퓨터(tablet computer), 이북(e-book) 단말기, 스마트 워치(Smart watch) 등을 포함할 수 있다.At this time, the user's
또한, 자기 계발 도우미 장치(100)는 주기적으로 사용자에게 질문 메시지를 전송할 수 있다. 또한, 자기 계발 도우미 장치(100)는 사용자의 단말(201)로 질문 메시지를 전송함으로써, 원격에 위치한 사용자의 자기계발을 도울 수 있다. In addition, the self-
또한, 자기 계발 도우미 장치(100)는 학습 스케줄에 따라 사용자의 단말(201)로 학습 알림 메시지를 전송함으로써, 사용자의 자기 계발을 도울 수 있다. 또한, 자기 계발 도우미 장치(100)는 학습과 관련된 다른 콘텐츠를 추천함으로써 사용자의 자기 계발의 방향성을 확장할 수 있다.In addition, the self-
도 5는 일 개시에 의한 사용자의 정보들을 이용하여 행동맵을 생성하는 인공지능 학습 모델을 설명하기 위한 도면이다.5 is a diagram for explaining an artificial intelligence learning model that generates an action map using information of a user according to one disclosure.
일 개시에 의하여, 자기 계발 도우미 장치(100)는 활동에 관련된 사용자의 정보들을 이용하여 행동맵을 생성할 수 있다. 자기 계발 도우미 장치(100)는 사용자와의 커뮤니케이션을 통해 사용자의 활동에 대한 목표에 관련된 정보를 획득할 수 있다. By one start, the self-
일 개시에 의하여, 인공지능 학습 모델은 사용자의 활동 정보, 사용자의 콘텐츠 이용정보, 사용자의 행동 정보 및 사용자의 정서 정보를 이용하여 사용자의 콘텐츠 이용에 대한 흥미와 능력을 학습할 수 있다. 인공지능 학습 모델은 다른 사용자들의 콘텐츠 이용에 대한 흥미와 능력에 대한 빅테이터를 이용하여 사용자의 콘텐츠 이용에 대한 흥미와 능력을 학습할 수 있다.According to one disclosure, the artificial intelligence learning model may learn interests and abilities of the user's use of the content by using the user's activity information, the user's content usage information, the user's behavior information, and the user's emotion information. The artificial intelligence learning model can learn interests and abilities of users' use of content by using big data about interests and abilities of other users' use of content.
자기 계발 도우미 장치(100)는 사용자의 행동을 모니터링으로써 사용자의 행동 정보를 생성하고, 사용자의 정서를 센싱함으로써 사용자의 정서 정보를 획득하는 사용자 모니터링할 수 있다.The self-
또한, 사용자의 활동 중 획득한 행동 정보 및 센싱된 정서 정보에 기초하여 사용자의 활동과 사용자의 행동 정보 및 정서 정보와의 관계성을 학습한 결과에 기초하여 인공지능 학습 모델을 생성하고, 생성된 인공지능 학습 모델을 이용하여 사용자의 활동에 대한 행동맵을 생성할 수 있다.In addition, an artificial intelligence learning model is generated based on a result of learning a relationship between a user's activity and a user's behavior information and emotion information based on the acquired behavior information and sensed emotion information among the user's activities, and the generated Using an AI learning model, an action map for a user's activity can be generated.
일 개시에 의하여, 자기 계발 도우미 장치(100)는 실시간으로 업뎃되는 사용자 정보들을 이용하여 행동맵을 수정할 수 있으며, 다른 사용자와 공유할 수도 있다. By one start, the self-
도 6은 일 개시에 의한 사용자의 활동에 대한 활동맵을 설명하기 위한 도면이다.6 is a view for explaining an activity map for a user's activity by one start.
일 개시에 의하여, 활동맵은 사용자가 지정한 활동에 대한 학습 활동 및 목표를 이루기 위하여 필요한 학습이 무엇인지 여부를 판단하기 위하여 사용될 수 있다. By one initiation, the activity map can be used to determine what learning is needed to achieve the learning activities and goals for the user-specified activities.
일 개시에 의하여, 활동맵은 인공지능 학습 모델에 의하여 생성될 수 있으며, 사용자가 특정 활동을 영위함에 있어서 보여주는 신체적 변화, 감정적 변화, 콘텐츠 사용등에 의한 활동 기록에 기초하여, 사용자가 선호하는 활동, 사용자에게 필요한 활동 등을 맵으로서 작성할 수 있다.By one initiation, the activity map may be generated by an artificial intelligence learning model, and the user's preferred activity based on the activity record by the physical change, emotional change, content use, etc. that the user shows in performing a specific activity, Maps can be created for activities required by the user.
일 개시에 의하여, 자기 계발 도우미 장치(100)는 사용자의 활동 및 신체적 변화를 주기적으로 추적하면서 활동맵을 변경할 수 있다. 또한, 새로운 활동이 추가되는 경우, 미리 작성된 활동맵을 이용하여 새로운 활동에 대한 활동맵을 작성할 수 있다.By one start, the self-
도 7은 일 개시에 의한 인공지능 학습을 통해 자기 계발을 도와주는 장치의 구성을 나타낸 도면이다.7 is a view showing the configuration of a device that assists self-development through artificial intelligence learning by one initiation.
도 7에 도시된 바와 같이, 일 실시예에 따른 자기 계발 도우미 장치(100)는 제어부(1300), 통신부(1500), 및 메모리(1700)를 포함할 수 있다. 그러나, 도 7에 도시된 구성 요소 모두가 자기 계발 도우미 장치(100)의 필수 구성 요소인 것은 아니다. 도 7에 도시된 구성 요소보다 많은 구성 요소에 의해 자기 계발 도우미 장치(100)가 구현될 수도 있고, 도 7에 도시된 구성 요소보다 적은 구성 요소에 의해 자기 계발 도우미 장치(100)가 구현될 수도 있다.As illustrated in FIG. 7, the self-
예를 들어, 도 7에 도시된 바와 같이, 일 실시예에 따른 자기 계발 도우미 장치(100)는, 제어부(1300), 통신부(1500), 및 메모리(1700) 이외에 사용자 인터페이스(1100), 출력부(1200), 센싱부(1400), 및 A/V 입력부(1600)를 더 포함할 수도 있다. For example, as illustrated in FIG. 7, the self-
예를 들어, 일 실시예에 따른 자기 계발 도우미 장치(100)는 제어부(1300), 사용자 인터페이스(1100) 및 메모리(1700)를 기본적으로 포함할 수 있고, 일 실시예에 따른 자기 계발 도우미 장치(100)는 제어부(1300), 통신부(1500), 및 메모리(1700) 이외에 통신부(1500), 출력부(1200), 센싱부(1400), 및 A/V 입력부(1600) 중 적어도 하나를 더 포함하는 자기 계발 도우미 장치(100)일 수 있다.For example, the self-
사용자 인터페이스(1100)는, 사용자가 자기 계발 도우미 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 인터페이스(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The
사용자 인터페이스(1100)는, 자기 계발 도우미 장치(100)에 설치된 모듈의 동작을 제어하는 사용자 입력하기 위한 사용자 입력을 수신할 수 있다.The
일 개시에 의하여 사용자 인터페이스(1100)는 자기 계발 도우미 장치(100)에 포함되거나, 원격으로 떨어져 존재할 수 있다. 일 개시에 의하여 사용자 인터페이스(1100)는 사물 인터넷(IoT, Internet of Thing)을 지원하는 적어도 하나 이상의 오픈 하드웨어 플랫폼을 포함할 수 있다. 예를 들어, 사용자는 영상, 음성, 텍스트 등의 형태로 적어도 하나 이상의 오픈 하드웨어 플랫폼을 통해 자기 계발 도우미 장치(100)에 사용자 입력을 전송할 수 있다. According to one disclosure, the
나아가, 맞춤형 자기 계발 도우미 장치(100)는 IoT(Internet of Things) 기술을 기반으로 스피커, 확성기, 마이크, 카메라, 디스플레이 장치, 드론 등과 같은 별도의 외부 장치와 무선 방식으로 연동하여 이들 외부 장치를 통해 사용자 입력을 수신할 수 있다.Furthermore, the customized self-
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다. 일 실시예에서, 출력부(1200)는 오디오, 비디오, 및/또는 진동 형태로 알림 메시지를 출력할 수 있다.The
디스플레이부(1210)는 자기 계발 도우미 장치(100)에서 처리되는 정보를 표시 출력한다. The
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 자기 계발 도우미 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 예를 들어, 음향 출력부(1220)는 이벤트가 발생하였음을 알리기 위한 경보음을 출력할 수 있다.The
제어부(1300)는, 통상적으로 자기 계발 도우미 장치(100)의 전반적인 동작을 제어한다. 일 개시에 의하여 제어부는 프로세서라고도 칭한다. 예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 인터페이스(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다. 또한, 제어부(1300)는 메모리(1700)에 저장된 프로그램들을 실행함으로써, 자기 계발 도우미 장치(100)의 기능을 수행할 수 있다. 제어부(1300)는 적어도 하나의 프로세서를 구비할 수 있다. 제어부(1300)는 그 기능 및 역할에 따라, 복수의 프로세서들을 포함하거나, 통합된 형태의 하나의 프로세서를 포함할 수 있다. 일 실시예에서, 제어부(1300)는 메모리(1700)에 저장된 적어도 하나의 프로그램을 실행함으로써 알림 메시지를 제공하도록 하는 적어도 하나의 프로세서를 포함할 수 있다.The
센싱부(1400)는, 자기 계발 도우미 장치(100)의 상태, 사용자의 상태 또는 자기 계발 도우미 장치(100) 주변의 상태를 감지하고, 감지된 정보를 제어부(1300)로 전달할 수 있다. The
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(RGB sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The
통신부(1500)는, 자기 계발 도우미 장치(100)가 다른 장치 및 다른 서버와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다. 다른 사용자 장치는 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. The
근거리 통신부(1500)(short-range wireless communication unit)(1510)는, 블루투스 통신부(1500), BLE(Bluetooth Low Energy) 통신부(1500), 근거리 무선 통신부(1500)(Near Field Communication unit), WLAN(와이파이) 통신부(1500), 지그비(Zigbee) 통신부(1500), 적외선(IrDA, infrared Data Association) 통신부(1500), WFD(Wi-Fi Direct) 통신부(1500), UWB(ultra wideband) 통신부(1500), Ant+ 통신부(1500) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit (1500) 1510 includes a
이동 통신부(1500)(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 자기 계발 도우미 장치(100)이 방송 수신부(1530)를 포함하지 않을 수도 있다.The
일 실시예에서, 통신부(1500)는 자기 계발 도우미 장치(100)에 설치된 카메라로부터 복수의 프레임(frame)들을 포함하는 비디오 시퀀스를 수신할 수 있다. 일 실시예에서, 통신부(1500)는 자기 계발 도우미 장치(100)에 설치된 모듈의 동작을 제어하기 위한 명령을 자기 계발 도우미 장치(100)에 설치된 모듈에게 전송할 수 있다. In one embodiment, the
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 예를 들어, 카메라(1610)에 의해 촬영된 이미지는 이벤트가 발생하였는지를 결정하기 위한 정보로 활용될 수 있다.The A/V (Audio/Video)
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 장치 또는 사용자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)은 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The
메모리(1700)는, 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 자기 계발 도우미 장치(100)로 입력되거나 자기 계발 도우미 장치(100)로부터 출력되는 데이터를 저장할 수도 있다. The
메모리(1700)는 플래시 메모리(1700) 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(1700)(예를 들어 SD 또는 XD 메모리(1700) 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리(1700), 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 여기서, 복수 개의 모듈들은 하드웨어가 아닌 소프트웨어로서, 기능적으로 동작하는 모듈을 의미하며, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다. Programs stored in the
UI 모듈(1710)은, 애플리케이션 별로 자기 계발 도우미 장치(100)과 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1300)로 전달할 수 있다. 일 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The
알림 모듈(1730)은 이벤트의 발생을 알리기 위한 신호를 발생할 수 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
Claims (8)
상기 사용자의 행동을 모니터링함으로써 상기 사용자의 행동 정보를 획득하고, 상기 사용자의 정서(Sentiment)를 센싱함으로써 상기 사용자의 정서 정보를 획득하는 사용자 모니터링 단계;
상기 획득한 행동 정보 및 센싱된 정서 정보와 사용자의 활동 능력의 관계성을 학습한 결과에 기초하여 인공지능 학습 모델을 생성하고, 상기 생성된 인공지능 학습 모델을 이용하여 상기 사용자의 행동 정보 및 정서 정보에 서로 다른 가중치를 부여함으로써, 상기 사용자의 활동에 대한 행동맵을 생성하는 단계;
상기 활동맵에 기초하여 상기 활동에 대한 목표 달성에 도움을 주는 메인 콘텐츠를 제공하는 단계;
상기 메인 콘텐츠를 실행하는 사용자와의 커뮤니케이션을 통해 상기 사용자의 활동에 대한 목표 달성률을 결정하는 단계;
상기 목표 달성률에 따라 상기 사용자의 활동에 관련된 보조 콘텐츠를 제공하는 단계; 및
상기 사용자의 활동에 대한 목표 달성률에 따라 상기 사용자에게 감정적 피드백을 제공하는 단계;를 포함하는, 인공지능 학습을 통해 자기 계발을 도와주는 방법.Obtaining information related to a target for the user's activity through communication with the user;
A user monitoring step of acquiring behavior information of the user by monitoring the behavior of the user, and acquiring emotion information of the user by sensing the emotion of the user;
Based on a result of learning the relationship between the acquired behavior information and sensed emotion information and the user's activity ability, an artificial intelligence learning model is generated, and the generated artificial intelligence learning model is used to generate the user's behavior information and emotion. Generating action maps for the user's activities by assigning different weights to the information;
Providing main content to help achieve a goal for the activity based on the activity map;
Determining a target achievement rate for the user's activity through communication with a user who executes the main content;
Providing auxiliary content related to the user's activity according to the target achievement rate; And
And providing emotional feedback to the user according to a target achievement rate for the user's activity. A method of assisting self-development through artificial intelligence learning.
상기 감정적 피드백을 제공하는 단계는,
상기 사용자가 상기 사용자의 활동을 수행하는 중 획득된 행동 정보 및 정서 정보와, 상기 활동에 대한 목표 달성 속도, 목표에 대한 정보, 활동 속성 및 활동 지속 시간에 기초하여 생성된 감정적 피드백 정보를 포함하며,
상기 감정적 피드백 정보는 감정에 관련된 시각적 피드백, 후각적 피드백 및 촉각적 피드백을 포함하는 것인, 인공지능 학습을 통해 자기 계발을 도와주는 방법.According to claim 1,
The step of providing the emotional feedback,
It includes behavior information and emotional information obtained while the user performs the user's activity, and emotional feedback information generated based on a goal achievement rate, goal information, activity attribute, and activity duration for the activity, ,
The emotional feedback information includes visual feedback, olfactory feedback, and tactile feedback related to emotion. A method of assisting self-development through artificial intelligence learning.
상기 행동맵을 생성하는 단계는,
상기 사용자의 활동 중 획득한 사용자의 음성 정보 및 영상 정보에 기초하여 상기 사용자의 정서를 분석하고, 상기 사용자의 정서 분석 결과 및 콘텐츠 이용정보를 고려하여, 상기 활동에 대한 사용자의 관심도를 결정하는 단계;및
상기 사용자의 관심도에 따라 상기 사용자의 활동을 수행함에 있어 필요한 복수개의 행동에 대한 계층을 결정하는 단계;를 포함하는, 인공지능 학습을 통해 자기 계발을 도와주는 방법.According to claim 1,
The step of generating the action map,
Analyzing the emotion of the user based on the user's voice information and video information obtained during the user's activity, and determining the user's interest in the activity in consideration of the user's emotion analysis result and content usage information ; And
And determining a hierarchy of a plurality of actions required to perform the user's activity according to the user's interest level. A method of helping self-development through artificial intelligence learning.
상기 사용자와 커뮤니케이션을 하는 것은,
상기 활동에 대한 복수개의 질문 메시지를 제공하고, 상기 사용자로부터 복수개의 답변 메시지를 수신하는 단계;
상기 복수개의 답변 메시지를 수신하는 동시에, 상기 복수개의 답변 메시지를 작성하는 사용자의 안구 움직임 정보, 심장 박동 정보, 표정 정보, 몸의 움직임 정보 및 언어 정보를 포함하는 사용자 정보를 모니터링하는 단계;
상기 모니터링된 사용자 정보에 기초하여, 새로운 질문 메시지 및 피드백 제스처 정보를 생성하는 단계;및
상기 새로운 질문 메시지를 제공하는 도중 피드백 제스처를 수행하는 단계;를 포함하는, 인공지능 학습을 통해 자기 계발을 도와주는 방법.According to claim 1,
To communicate with the user,
Providing a plurality of question messages for the activity and receiving a plurality of answer messages from the user;
Monitoring the user information including eye movement information, heart rate information, facial expression information, body movement information and language information of a user who composes the plurality of response messages while receiving the plurality of response messages;
Generating new question message and feedback gesture information based on the monitored user information; and
A method of assisting self-development through artificial intelligence learning, including; performing a feedback gesture while providing the new question message.
상기 메인 콘텐츠를 제공하는 단계는,
상기 활동맵의 계층 정보와 상기 사용자의 활동에 대한 목표의 계층 차이를 비교하여, 상기 활동맵에 할당된 적어도 하나의 콘텐츠를 결정하는 단계;
상기 적어도 하나의 콘텐츠에 대하여 상기 사용자의 움직임이 많이 관찰될 수록 높은 가중치를 부여하고, 상기 사용자의 정서의 변화폭이 클수록 높은 가중치를 부여하는 단계;
상기 가중치에 기초하여 상기 사용자의 활동 목표를 달성하기 위해 적합한 메인 콘텐츠를 결정하는 단계;및
상기 결정된 메인 콘텐츠를 제공하는 단계;를 포함하는, 인공지능 학습을 통해 자기 계발을 도와주는 방법.According to claim 1,
The step of providing the main content,
Determining at least one content allocated to the activity map by comparing hierarchical information of the activity map with a hierarchical difference of a target for the user's activity;
Assigning a higher weight to the at least one content as the user's movement is more observed, and assigning a higher weight to the user's emotion when the change width is greater;
Determining suitable main content to achieve the user's activity goal based on the weight; and
Providing the determined main content; including, a method of assisting self-development through artificial intelligence learning.
상기 사용자의 활동에 대한 목표 달성률을 결정하는 단계는,
상기 메인 콘텐츠를 수행한 결과와 상기 사용자의 활동 목표를 비교하여, 목표 달성 부분 및 목표에 도달하지 못한 부분이 표시된 목표 달성 맵을 생성하는 단계;
상기 목표 달성 맵에 기초하여, 상기 목표에 도달하지 못한 부분의 크기가 클수록 높은 점수를 갖도록 결정된 적어도 하나의 보조 콘텐츠를 결정하는 단계;및
상기 적어도 하나의 보조 콘텐츠를 높은 점수에 따라 순차적으로 제공하는 단계;를 포함하는, 인공지능 학습을 통해 자기 계발을 도와주는 방법.According to claim 1,
Determining a target achievement rate for the user's activity,
Comparing the result of performing the main content with the user's activity goal, and generating a goal achievement map in which the goal achievement part and the part that did not reach the goal are displayed;
Determining, based on the goal achievement map, at least one auxiliary content determined to have a higher score as the size of a portion that does not reach the goal is large; and
And providing the at least one auxiliary content sequentially according to a high score.
상기 사용자의 활동에 대한 목표 달성률을 결정하는 단계는,
상기 사용자의 활동시 수행된 메인 콘텐츠 및 보조 콘텐츠의 내용에 기초하여, 상기 사용자의 활동에 대한 목표와 관련된 시험 콘텐츠를 생성하는 단계;
상기 시험 콘텐츠를 사용자에게 제공하고, 상기 사용자로부터 답안 메시지를 수신하는 단계;및
상기 답안 메시지의 정답률에 따라 상기 사용자의 활동에 대한 목표 달성률을 결정하는 단계;를 포함하는, 인공지능 학습을 통해 자기 계발을 도와주는 방법.According to claim 1,
Determining a target achievement rate for the user's activity,
Generating test content related to a goal for the user's activity based on the content of the main content and the auxiliary content performed during the user's activity;
Providing the test content to a user and receiving an answer message from the user; and
And determining a target achievement rate for the user's activity according to the correct answer rate of the answer message. A method of assisting self-development through artificial intelligence learning.
프로세서; 및
상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고, 상기 프로세서는,
상기 명령어들을 실행함으로써,
상기 사용자와의 커뮤니케이션을 통해 상기 사용자의 활동에 대한 목표에 관련된 정보를 획득하고, 상기 사용자의 행동을 모니터링으로써 상기 사용자의 행동 정보를 생성하고, 상기 사용자의 정서를 센싱함으로써 상기 사용자의 정서 정보를 획득하는 사용자 모니터링하고, 상기 획득한 행동 정보 및 센싱된 정서 정보와 사용자의 활동 능력의 관계성을 학습한 결과에 기초하여 인공지능 학습 모델을 생성하고, 상기 생성된 인공지능 학습 모델을 이용하여 상기 사용자의 행동 정보 및 정서 정보에 서로 다른 가중치를 부여함으로써, 상기 사용자의 활동에 대한 행동맵을 생성하고, 상기 활동맵에 기초하여 상기 활동에 대한 목표 달성에 도움을 주는 메인 콘텐츠를 제공하고, 상기 메인 콘텐츠를 실행하는 사용자와의 커뮤니케이션을 통해 상기 사용자의 활동에 대한 목표 달성률을 결정하고, 상기 목표 달성률에 따라 상기 사용자의 활동에 관련된 보조 콘텐츠를 제공하고, 상기 사용자의 활동에 대한 목표 달성률에 따라 상기 사용자에게 감정적 피드백을 제공하는, 인공지능 학습을 통해 자기 계발을 도와주는 장치.A user interface capable of receiving user input;
Processor; And
And a memory for storing instructions executable by the processor, wherein the processor includes:
By executing the above commands,
Acquire information related to the goal of the user's activity through communication with the user, generate the user's behavior information by monitoring the user's behavior, and sense the user's emotion by sensing the user's emotion Monitoring the acquired user, generating an artificial intelligence learning model based on a result of learning the relationship between the acquired behavior information and sensed emotion information and the user's activity ability, and using the generated artificial intelligence learning model to By assigning different weights to the user's behavior information and emotion information, an action map for the user's activity is generated, and main content that helps to achieve a goal for the activity is provided based on the activity map. The target achievement rate for the user's activity is determined through communication with the user who executes the main content, the auxiliary content related to the user's activity is provided according to the goal achievement rate, and the target achievement rate for the user's activity is determined. A device that provides self-development through artificial intelligence learning that provides emotional feedback to the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180147827A KR20200068058A (en) | 2018-11-26 | 2018-11-26 | Method and apparatus for helping self-development using artificial intelligence learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180147827A KR20200068058A (en) | 2018-11-26 | 2018-11-26 | Method and apparatus for helping self-development using artificial intelligence learning |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200068058A true KR20200068058A (en) | 2020-06-15 |
Family
ID=71081406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180147827A KR20200068058A (en) | 2018-11-26 | 2018-11-26 | Method and apparatus for helping self-development using artificial intelligence learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200068058A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023064897A1 (en) * | 2021-10-15 | 2023-04-20 | Nuki Max | Online platform for connecting users to goods and services |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160009353A (en) | 2014-07-16 | 2016-01-26 | (주)우진기계 | Wrapping device for manufacturing catalytic converter |
KR20160105573A (en) | 2015-02-27 | 2016-09-07 | 장윤하 | Toothpaste dispensor |
-
2018
- 2018-11-26 KR KR1020180147827A patent/KR20200068058A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160009353A (en) | 2014-07-16 | 2016-01-26 | (주)우진기계 | Wrapping device for manufacturing catalytic converter |
KR20160105573A (en) | 2015-02-27 | 2016-09-07 | 장윤하 | Toothpaste dispensor |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023064897A1 (en) * | 2021-10-15 | 2023-04-20 | Nuki Max | Online platform for connecting users to goods and services |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11470385B2 (en) | Method and apparatus for filtering video | |
US20200118010A1 (en) | System and method for providing content based on knowledge graph | |
CN109074117B (en) | Providing emotion-based cognitive assistant systems, methods, and computer-readable media | |
EP3756185B1 (en) | Electronic device for outputting response to speech input by using application and operation method thereof | |
US20180101776A1 (en) | Extracting An Emotional State From Device Data | |
US10382907B2 (en) | Device and method for providing notification message about call request | |
US20140232534A1 (en) | Mobile device with instinctive alerts | |
KR102423298B1 (en) | Method for operating speech recognition service, electronic device and system supporting the same | |
KR102389996B1 (en) | Electronic device and method for screen controlling for processing user input using the same | |
KR20190053097A (en) | System and method for guiding social interactions | |
CN110383217A (en) | Electronic entity characteristic mirror image | |
US20200005784A1 (en) | Electronic device and operating method thereof for outputting response to user input, by using application | |
US20150254575A1 (en) | Learn-by-example systems and methos | |
EP3545685B1 (en) | Method and apparatus for filtering video | |
US20200257954A1 (en) | Techniques for generating digital personas | |
US20210004702A1 (en) | System and method for generating information for interaction with a user | |
US20240095491A1 (en) | Method and system for personalized multimodal response generation through virtual agents | |
KR20200068058A (en) | Method and apparatus for helping self-development using artificial intelligence learning | |
KR20200068057A (en) | Method and apparatus for helping self-development using artificial intelligence learning | |
EP3858450B1 (en) | Electronic device for providing interactive game and operating method therefor | |
KR102612835B1 (en) | Electronic device and method for executing function of electronic device | |
US20240071378A1 (en) | Authoring context aware policies through natural language and demonstrations | |
El Arbaoui et al. | Enhancing Communication for People with Autism Through the Design of a Context-aware Mobile Application for PECS | |
CN109309754A (en) | Lack the electronic equipment of parameter for obtaining and keying in |