KR102452100B1 - Method, device and system for providing learning service base on brain wave and blinking eyes - Google Patents
Method, device and system for providing learning service base on brain wave and blinking eyes Download PDFInfo
- Publication number
- KR102452100B1 KR102452100B1 KR1020210066173A KR20210066173A KR102452100B1 KR 102452100 B1 KR102452100 B1 KR 102452100B1 KR 1020210066173 A KR1020210066173 A KR 1020210066173A KR 20210066173 A KR20210066173 A KR 20210066173A KR 102452100 B1 KR102452100 B1 KR 102452100B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- learning
- learning content
- section
- concentration
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 210000004556 brain Anatomy 0.000 title claims abstract description 71
- 230000004397 blinking Effects 0.000 title claims abstract description 23
- 238000013473 artificial intelligence Methods 0.000 claims description 71
- 230000008859 change Effects 0.000 claims description 27
- 238000005259 measurement Methods 0.000 claims description 21
- 206010041349 Somnolence Diseases 0.000 claims description 19
- 238000012360 testing method Methods 0.000 claims description 17
- 239000012141 concentrate Substances 0.000 claims description 12
- 230000000694 effects Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 55
- 238000013528 artificial neural network Methods 0.000 description 50
- 230000008569 process Effects 0.000 description 33
- 238000012549 training Methods 0.000 description 26
- 210000001747 pupil Anatomy 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000011176 pooling Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 230000004913 activation Effects 0.000 description 10
- 238000000605 extraction Methods 0.000 description 9
- 238000000926 separation method Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 210000000988 bone and bone Anatomy 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000000193 eyeblink Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 208000022119 inability to concentrate Diseases 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/372—Analysis of electroencephalograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M21/02—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0044—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
- A61M2021/005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Psychology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Educational Technology (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Developmental Disabilities (AREA)
- Psychiatry (AREA)
- Human Resources & Organizations (AREA)
- Anesthesiology (AREA)
- Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Hospice & Palliative Care (AREA)
- Social Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Educational Administration (AREA)
- Ophthalmology & Optometry (AREA)
- Pain & Pain Management (AREA)
- Acoustics & Sound (AREA)
- Hematology (AREA)
Abstract
Description
아래 실시예들은 뇌파 및 눈 깜빡임을 기반으로 학습 서비스를 제공하는 기술에 관한 것이다.The following embodiments relate to a technology for providing a learning service based on brain waves and eye blinking.
실시예들과 관련된 배경기술로, 대한민국 등록특허공보 KR 10-1587462 B1은 뇌파인식형 학습 문제 제공시스템을 개시한다. 구체적으로, 선행문헌은 학습 문제를 화면으로 출력하고, 학습 문제를 풀기 시작하는 시점 및 풀기 종료하는 시점을 입력받기 위한 입출력부(23); 하나의 학습 문제를 풀기 시작하는 시점부터 풀기 종료하는 시점까지의 문제 풀이 소요시간 동안 뇌파를 상기 뇌파 측정기(10)로 검출하는 뇌파 검출부(25); 문제 풀이 소요시간 동안 검출한 뇌파의 크기로부터 뇌파 에너지를 획득하는 숙련도 결정부(26); 획득한 뇌파 에너지의 크기에 따라 학습 문제의 유형 또는 난이도를 결정하고, 결정한 유형 또는 난이도의 학습 문제를 다음 문제로 선택하여 상기 입출력부(23)에 출력시키는 제어부(21)를 포함하는 뇌파인식형 학습 문제 제공시스템을 개시한다.As a background technology related to embodiments, Republic of Korea Patent Publication KR 10-1587462 B1 discloses an EEG recognition type learning problem providing system. Specifically, the prior literature includes an input/output unit 23 for outputting a learning problem to a screen, and receiving input of a starting time and an ending time of solving the learning problem; an EEG detecting unit 25 for detecting EEG with the EEG measuring device 10 for a time required for solving a problem from the time when solving one learning problem starts to the time at which solving is finished; a proficiency determination unit 26 for obtaining brain wave energy from the size of the brain wave detected during the problem solving time; Brain wave recognition type comprising a control unit 21 that determines the type or difficulty of a learning problem according to the size of the acquired brain wave energy, selects a learning problem of the determined type or difficulty as the next problem, and outputs it to the input/output unit 23 Disclosed is a system for providing learning problems.
이를 통해, 선행문헌은 문제를 풀 때의 뇌파 에너지로 문제에 대한 숙련도를 판별하여 학습자의 실력에 맞는 문제를 풀게 하거나 또는 문제의 유형에 대한 실력을 최상위 그룹의 실력까지 끌어올리도록 문제를 풀게 하는 뇌파인식형 학습문제 제공시스템을 제공한다.Through this, the prior literature has identified a problem-solving proficiency by brain wave energy when solving a problem to solve a problem that suits the skill of the learner, or to solve a problem to raise the skill for the type of problem to the skill of the top group. An EEG recognition type learning problem provision system is provided.
또한, 대한민국 등록특허공보 KR 10-1842750 B1은 뇌파 훈련을 위한 실시간 시뮬레이터 및 이를 이용한 인터페이스 장치를 개시한다. 구체적으로, 적어도 하나의 프로그램이 로딩된 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라, 뇌파 발생 훈련을 위한 상상 동작을 제시한 후 뇌파 측정 장치를 통해 사용자로부터 측정된 뇌파 데이터를 획득하는 과정; 및 상기 뇌파 데이터에서 상기 상상 동작에 대응되는 특징 정보를 추출함으로써 상기 상상 동작에 대한 상기 사용자의 뇌파 특징을 학습하는 과정을 처리하는 것을 특징으로 하는 시스템을 개시한다.In addition, Korean Patent Publication No. KR 10-1842750 B1 discloses a real-time simulator for EEG training and an interface device using the same. Specifically, a memory in which at least one program is loaded; and at least one processor, wherein the at least one processor provides, under the control of the program, an imaginary motion for EEG training, and then a process of acquiring measured EEG data from a user through an EEG measuring device; and by extracting feature information corresponding to the imaginary motion from the brainwave data, discloses a system characterized in that the process of learning the brainwave characteristics of the user for the imaginary motion is processed.
그러나 선행문헌들은 뇌파로만 학습 서비스를 제공하고 있으므로, 정확한 학습 서비스를 제공하는데 한계가 있다.However, since the prior literature provides a learning service only with EEG, there is a limit to providing an accurate learning service.
따라서, 사용자의 뇌파 뿐만 아니라 눈 깜빡임 까지 종합적으로 고려하여, 더 정확한 학습 서비스를 제공하는 기술의 구현이 요구된다.Therefore, it is required to implement a technology that provides a more accurate learning service by comprehensively considering not only the user's brain waves but also the blinking of the eyes.
일실시예에 따르면, 사용자의 뇌파에 대한 변화, 눈 깜빡임 상태 및 응시 상태를 기초로, 사용자가 학습을 수행한 시간을 분석하여, 학습 콘텐츠에 대한 사용자의 집중도를 산출하는, 뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment, based on brain wave and eye blinking, which calculates the user's concentration on the learning content by analyzing the time the user performs learning based on the change in the user's brain wave, the eye blinking state, and the gaze state An object of the present invention is to provide a learning service providing method, apparatus and system.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.
일실시예에 따르면, 서버에 의해 수행되는, 뇌파 및 눈 깜빡임을 기반으로 학습 서비스를 제공하는 방법에 있어서, 제1 사용자가 착용한 제1 뇌파 측정 장치에서 상기 제1 사용자의 뇌파를 측정하면, 상기 제1 뇌파 측정 장치와 연결된 제1 사용자 단말로부터, 상기 제1 뇌파 측정 장치에서 측정된 상기 제1 사용자의 뇌파를 획득하는 단계; 상기 제1 사용자의 뇌파를 기초로, 상기 제1 사용자의 상태가 양호한지 여부를 분석하는 단계; 상기 제1 사용자의 상태가 양호하지 않은 것으로 확인되면, 상기 제1 사용자 단말로 명상 콘텐츠를 제공하여, 상기 제1 사용자 단말의 화면에서 상기 명상 콘텐츠가 재생되도록 제어하는 단계; 상기 제1 사용자의 상태가 양호한 것으로 확인되면, 상기 제1 사용자 단말에 장착된 카메라가 동작하여 촬영을 시작하도록 제어하는 단계; 상기 제1 사용자 단말에서 상기 제1 사용자의 얼굴을 촬영하면, 상기 제1 사용자 단말로부터 상기 제1 사용자의 얼굴 영상을 획득하는 단계; 상기 제1 사용자의 얼굴 영상에서 상기 제1 사용자의 눈을 인식하여, 상기 제1 사용자의 시선을 추적하는 단계; 상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있는지 여부를 확인하는 단계; 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있는 것으로 확인되면, 상기 제1 사용자 단말로 학습 콘텐츠를 제공하여, 상기 제1 사용자 단말의 화면에서 상기 학습 콘텐츠가 재생되도록 제어하는 단계; 상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 뇌파를 상기 제1 뇌파 측정 장치와 연결된 제1 사용자 단말로부터 획득하면서, 상기 제1 사용자의 얼굴 영상을 상기 제1 사용자 단말로부터 획득하고, 상기 제1 사용자의 얼굴 영상에서 상기 제1 사용자의 눈을 인식하여, 상기 제1 사용자의 시선을 추적하고 상기 제1 사용자의 EAR(Eye Aspect Ratio)을 측정하는 단계; 상기 학습 콘텐츠에 대한 재생이 완료되면, 상기 학습 콘텐츠가 재생되는 동안 측정된 상기 제1 사용자의 뇌파에 대한 변화를 확인하고, 상기 학습 콘텐츠가 재생되는 동안 측정된 상기 제1 사용자의 EAR에 대한 변화를 통해 눈 깜빡임 상태를 확인하고, 상기 학습 콘텐츠가 재생되는 동안 추적된 상기 제1 사용자의 시선 변화를 통해 화면을 응시한 응시 상태를 확인하는 단계; 및 상기 제1 사용자의 뇌파에 대한 변화, 상기 눈 깜빡임 상태 및 상기 응시 상태를 기초로, 학습을 수행한 시간을 분석하여, 상기 학습 콘텐츠에 대한 상기 제1 사용자의 집중도를 산출하는 단계를 포함하는, 뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법이 제공된다.According to an embodiment, in the method of providing a learning service based on brain waves and eye blinks performed by a server, when the first EEG measurement device worn by the first user measures the EEG of the first user, obtaining, from a first user terminal connected to the first EEG measuring device, the EEG of the first user measured by the first EEG measuring device; analyzing whether the state of the first user is good based on the brain wave of the first user; when it is confirmed that the first user's condition is not good, providing the meditation content to the first user terminal, and controlling the meditation content to be reproduced on the screen of the first user terminal; controlling a camera mounted on the first user terminal to operate and start shooting when it is confirmed that the first user's condition is good; acquiring a face image of the first user from the first user terminal when the first user's face is photographed by the first user terminal; recognizing the eyes of the first user from the face image of the first user and tracking the gaze of the first user; as a result of tracking the gaze of the first user, checking whether the gaze of the first user is gazing at the screen of the first user terminal; When it is confirmed that the gaze of the first user is gazing at the screen of the first user terminal, the learning content is provided to the first user terminal, and the learning content is controlled to be reproduced on the screen of the first user terminal step; While the learning content is being reproduced in the first user terminal, while acquiring the brain wave of the first user from the first user terminal connected to the first EEG measuring device, the face image of the first user is obtained from the first user terminal obtaining from, recognizing the eyes of the first user from the face image of the first user, tracking the gaze of the first user, and measuring the Eye Aspect Ratio (EAR) of the first user; When the reproduction of the learning content is completed, a change in the brain wave of the first user measured while the learning content is reproduced is checked, and a change in the EAR of the first user measured while the learning content is being reproduced checking an eye blinking state through , and checking a gaze state gazing at a screen through a gaze change of the first user tracked while the learning content is being played; and calculating the concentration of the first user on the learning content by analyzing the learning time based on the change in the brain wave of the first user, the blinking state, and the gaze state , EEG and blink-based learning service providing method is provided.
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 뇌파를 획득하면서, 상기 제1 사용자의 EAR을 측정하는 단계는, 상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되면, 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 측정되고 있는지 여부를 확인하는 단계; 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 모두 측정되고 있는 것으로 확인되면, 상기 제1 사용자의 뇌파와 상기 제1 사용자의 EAR 간에 싱크를 맞추도록 조정하는 단계; 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR 중 어느 하나가 측정되고 있지 않은 것으로 확인되면, 미리 설정된 대기 시간 이후 상기 학습 콘텐츠의 재생이 정지되도록 제어하는 단계; 및 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 모두 측정되고 있지 않은 것으로 확인되면, 상기 학습 콘텐츠의 재생이 즉시 정지되도록 제어하는 단계를 포함할 수 있다.While the learning content is being reproduced in the first user terminal, the step of measuring the EAR of the first user while acquiring the brain wave of the first user may include, when the learning content is reproduced in the first user terminal, the checking whether the first user's EEG and the first user's EAR are being measured; when it is confirmed that both the brain wave of the first user and the EAR of the first user are being measured, adjusting the synch between the brain wave of the first user and the EAR of the first user; when it is confirmed that any one of the brain wave of the first user and the EAR of the first user is not being measured, controlling the reproduction of the learning content to be stopped after a preset waiting time; and when it is confirmed that neither the brain wave of the first user nor the EAR of the first user is being measured, controlling the reproduction of the learning content to immediately stop.
상기 제1 사용자의 집중도를 산출하는 단계는, 상기 제1 사용자의 뇌파에 대한 변화, 상기 눈 깜빡임 상태 및 상기 응시 상태를 기초로, 상기 학습 콘텐츠의 재생 시간에 따라 변화하는 상기 제1 사용자의 집중도를 산출하는 단계; 상기 제1 사용자의 집중도를 기초로, 상기 학습 콘텐츠에 대한 집중도 상위 구간, 집중도 보통 구간 및 집중도 하위 구간을 구분하여 분류하는 단계; 상기 집중도 하위 구간 중 제1 구간의 길이가 미리 설정된 제1 시간 간격 보다 짧은지 여부를 확인하는 단계; 상기 제1 구간의 길이가 상기 제1 시간 간격 보다 짧은 것으로 확인되면, 상기 제1 구간에 대한 재학습이 필요하지 않은 것으로 판단하는 단계; 상기 제1 구간의 길이가 상기 제1 시간 간격 보다 긴 것으로 확인되면, 상기 제1 구간의 길이가 미리 설정된 제2 시간 간격 보다 짧은지 여부를 확인하는 단계; 상기 제1 구간의 길이가 상기 제2 시간 간격 보다 짧은 것으로 확인되면, 상기 제1 구간에 대한 테스트가 필요한 것으로 판단하는 단계; 상기 제1 구간의 길이가 상기 제2 시간 간격 보다 긴 것으로 확인되면, 상기 제1 구간에 대한 재학습이 필요한 것으로 판단하는 단계; 상기 제1 구간에 대한 테스트가 필요한 것으로 판단되면, 상기 제1 구간의 학습 내용을 테스트하기 위한 시험 문제가 상기 제1 사용자 단말의 화면에서 표시되도록 제어하는 단계 및 상기 제1 구간에 대한 재학습이 필요한 것으로 판단되면, 상기 제1 구간이 상기 제1 사용자 단말의 화면에서 다시 재생되도록 제어하는 단계를 포함할 수 있다.The calculating of the concentration level of the first user includes the concentration level of the first user that changes according to a reproduction time of the learning content based on the change in the brain wave of the first user, the blinking state, and the gaze state. calculating ; classifying and classifying an upper concentration section, a normal concentration section, and a lower concentration section section for the learning content based on the concentration level of the first user; checking whether a length of a first section among the concentration subsections is shorter than a preset first time interval; determining that re-learning of the first section is not necessary when it is confirmed that the length of the first section is shorter than the first time interval; when it is determined that the length of the first section is longer than the first time interval, checking whether the length of the first section is shorter than a preset second time interval; determining that a test for the first section is necessary when it is confirmed that the length of the first section is shorter than the second time interval; determining that re-learning of the first section is necessary when it is confirmed that the length of the first section is longer than the second time interval; If it is determined that the test for the first section is necessary, controlling the test questions for testing the learning contents of the first section to be displayed on the screen of the first user terminal and re-learning for the first section If it is determined that it is necessary, the method may include controlling the first section to be played back on the screen of the first user terminal.
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 시선을 추적하고 상기 제1 사용자의 EAR을 측정하는 단계는, 상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있지 않은 것으로 확인되면, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 벗어난 시점부터 시선 이탈 시간을 측정하는 단계; 상기 제1 사용자의 EAR을 측정한 결과, 상기 제1 사용자의 눈이 감겨져 있는 것으로 확인되면, 상기 제1 사용자의 눈이 감겨진 시점부터 졸음 시간을 측정하는 단계; 상기 시선 이탈 시간 및 상기 졸음 시간 중 어느 하나가 미리 설정된 제1 기준 시간 보다 길게 지속된 것으로 확인되면, 상기 제1 사용자가 상기 학습 콘텐츠를 통해 학습을 수행하고 있지 않아 학습에 집중하지 못하는 상태로 판단하는 단계; 상기 제1 사용자가 학습을 수행하고 있지 않은 것으로 판단되면, 상기 학습 콘텐츠의 재생이 정지되고, 상기 제1 사용자 단말에서 집중 필요 알림 메시지가 출력되도록 제어하는 단계; 상기 시선 이탈 시간 및 상기 졸음 시간 중 어느 하나가 미리 설정된 제2 기준 시간 보다 길게 지속된 것으로 확인되면, 상기 제1 사용자에 대한 학습 지도가 필요한 것으로 판단하는 단계; 및 상기 제1 사용자에 대한 학습 지도가 필요한 것으로 판단되면, 상기 제1 사용자의 학습 지도를 요청하는 학습 지도 요청 메시지를 보호자 단말로 전송하는 단계를 포함할 수 있다.While the learning content is being reproduced in the first user terminal, the step of tracking the gaze of the first user and measuring the EAR of the first user may include tracking the gaze of the first user, as a result of which the first user when it is confirmed that the gaze of the first user does not stare at the screen of the first user terminal, measuring the gaze departure time from the point in time when the gaze of the first user leaves the screen of the first user terminal; measuring the drowsiness time from the time when the eyes of the first user are closed when it is confirmed that the eyes of the first user are closed as a result of measuring the EAR of the first user; When it is confirmed that any one of the gaze departure time and the drowsiness time lasts longer than a preset first reference time, it is determined that the first user is unable to concentrate on learning because the first user is not learning through the learning content to do; when it is determined that the first user is not learning, stopping the reproduction of the learning content, and controlling the first user terminal to output a notification message that requires concentration; determining that a study guide for the first user is necessary when it is confirmed that any one of the gaze departure time and the drowsiness time has been maintained longer than a preset second reference time; and when it is determined that the learning guidance for the first user is necessary, transmitting a learning guidance request message for requesting the learning guidance of the first user to the guardian terminal.
상기 뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법은, 라이다를 통해 상기 제1 뇌파 측정 장치의 표면에 대한 3D 데이터를 획득하고, 카메라를 통해 상기 제1 뇌파 측정 장치의 표면에 대한 2D 데이터를 획득하는 단계; 상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하는 단계; 상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제3 인공지능에 입력하고, 상기 제3 인공지능의 입력의 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 제1 뇌파 측정 장치의 표면에 대한 제1 분류 결과를 생성하는 단계; 상기 제1 데이터를 분석하여 상기 제1 뇌파 측정 장치의 표면에 발생한 균열을 검출하는 단계; 상기 제1 뇌파 측정 장치의 표면에 발생한 균열을 영역별로 확인하여, 미리 설정된 제1 설정값 미만으로 균열이 검출된 정상 영역과 상기 제1 설정값 이상으로 균열이 검출된 손상 영역을 구분하는 단계; 상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하는 단계; 상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 제4 인공지능에 입력하고, 상기 제4 인공지능의 입력의 결과에 기초하여, 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호에 기초하여, 상기 제1 뇌파 측정 장치의 표면에 대한 제2 분류 결과를 생성하는 단계; 및 상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 제1 뇌파 측정 장치의 표면에 대한 최종 분류 결과로 설정하는 단계를 더 포함할 수 있다.The EEG and blink-based learning service providing method is to obtain 3D data on the surface of the first EEG measurement device through lidar, and obtain 2D data on the surface of the first EEG measurement device through a camera step; separating the union region of the 2D data and the 3D data to extract first data obtained by merging the 2D data and the 3D data; generating a first input signal by encoding the first data; inputting the first input signal to a third artificial intelligence, and obtaining a first output signal based on a result of the input of the third artificial intelligence; generating a first classification result for the surface of the first EEG measuring device based on the first output signal; analyzing the first data to detect cracks occurring on the surface of the first EEG measuring device; identifying cracks generated on the surface of the first EEG measuring device by region, and distinguishing between a normal region in which cracks are detected less than a preset first set value and a damaged region in which cracks are detected above the first preset value; extracting second data from which the damaged area is deleted from the first data; generating a second input signal by encoding the second data; inputting the second input signal to a fourth artificial intelligence, and obtaining a second output signal based on a result of the input of the fourth artificial intelligence; generating a second classification result for the surface of the first EEG measuring device based on the second output signal; and when the first classification result and the second classification result are the same, setting any one of the first classification result and the second classification result as the final classification result for the surface of the first EEG measuring device. may include
일실시예에 따르면, 사용자의 뇌파에 대한 변화, 눈 깜빡임 상태 및 응시 상태를 기초로, 사용자가 학습을 수행한 시간을 분석하여, 학습 콘텐츠에 대한 사용자의 집중도를 산출함으로써, 사용자의 뇌파 뿐만 아니라 눈 깜빡임 까지 종합적으로 고려하여, 더 정확한 학습 서비스를 제공할 수 있는 효과가 있다.According to an embodiment, based on the change in the user's brain wave, the eye blinking state, and the gaze state, the user's learning time is analyzed and the user's concentration on the learning content is calculated, thereby not only the user's brainwave It has the effect of providing a more accurate learning service by comprehensively considering even the blink of an eye.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
도 1은 일실시예에 따른 시스템의 구성의 예시도이다.
도 2는 일실시예에 따른 학습 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 학습 콘텐츠에 대한 사용자의 집중도를 산출하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 학습 콘텐츠의 지표들을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 학습 콘텐츠가 재생되는 동안 측정 상태를 체크하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 사용자의 집중도에 따라 구간 별로 재학습이 수행되도록 제어하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 사용자가 학습에 집중하지 않을 때의 1차 대응 방안을 제공하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 사용자가 학습에 집중하지 않을 때의 2차 대응 방안을 제공하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 뇌파 측정 장치의 표면을 분류하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 제1 인공지능 및 제2 인공지능의 학습을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 제3 인공지능 및 제4 인공지능을 설명하기 위한 도면이다.
도 12는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 13은 일실시예에 따른 장치의 구성의 예시도이다.1 is an exemplary diagram of a configuration of a system according to an embodiment.
2 is a flowchart illustrating a process of providing learning content according to an exemplary embodiment.
3 is a flowchart illustrating a process of calculating a user's concentration on learning content according to an exemplary embodiment.
4 is a diagram for explaining indices of learning content according to an embodiment.
5 is a flowchart illustrating a process of checking a measurement state while learning content is reproduced according to an exemplary embodiment.
6 is a flowchart illustrating a process of controlling re-learning to be performed for each section according to a user's concentration level according to an embodiment.
7 is a flowchart illustrating a process of providing a first response method when a user does not concentrate on learning according to an exemplary embodiment.
8 is a flowchart illustrating a process of providing a secondary response method when a user does not concentrate on learning according to an exemplary embodiment.
9 is a flowchart for explaining a process of classifying a surface of an EEG measuring apparatus according to an embodiment.
10 is a diagram for explaining learning of a first artificial intelligence and a second artificial intelligence according to an embodiment.
11 is a diagram for explaining a third artificial intelligence and a fourth artificial intelligence according to an embodiment.
12 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.
13 is an exemplary diagram of a configuration of an apparatus according to an embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices, and the like.
도 1은 일실시예에 따른 시스템의 구성의 예시도이다.1 is an exemplary diagram of a configuration of a system according to an embodiment.
일실시예에 따른 시스템은 서버(100), 사용자 단말들(111-113) 및 착용형 뇌파 측정 장치들(131-133)을 포함할 수 있다. 서버(100), 사용자 단말들(111-113) 및 착용형 뇌파 측정 장치들(131-133)은 네트워크에 연결되어 유무선 통신을 통해 데이터를 교환할 수 있다. 시스템은 학습 콘텐츠를 학습하는 사용자의 뇌파 및 눈 깜빡임을 분석하고, 분석 결과를 기초로 사용자의 학습 상태를 평가하여 학습도를 산출할 수 있다.The system according to an embodiment may include the
서버(100)는 서버(100)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버(100)일수도 있고, 클라우드 서버(100)일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 서버(100)는 통상의 컴퓨터가 가지는 연산 기능; 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 서버(100)는 추론 기능을 수행하는 적어도 하나 이상의 인공지능을 구비할 수 있다. 서버(100)는 사용자 단말들(111-113)과 유무선으로 통신하도록 구성될 수 있다.The
서버(100)는 웹페이지 또는 어플리케이션과 연동될 수 있다. 웹페이지 또는 어플리케이션은 학습 동영상 등 사용자를 위한 학습 콘텐츠를 표시 및 재생하는 기능을 제공할 수 있다. 웹페이지 또는 어플리케이션은 착용형 뇌파 측정 장치들(131-133)을 통해 측정된 사용자들의 학습 중 뇌파 정보를 표시하는 기능을 제공할 수 있다. 웹페이지 또는 어플리케이션은 서버(100)에 수집 및 저장된 사용자들의 학습 성취도 정보를 표시하는 기능을 제공할 수 있다.The
사용자 단말들(111-113)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 가령, 도 1과 같이, 제1 사용자 단말(111)은 데스크탑일 수 있고, 제2 사용자 단말(112)은 노트북일 수 있고, 제3 사용자 단말(113)은 스마트폰일 수 있다. 사용자 단말들(111-113)의 종류는 실시예에 따라 얼마든지 달라질 수 있다. 사용자 단말들(111-113)들은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 사용자 단말들(111-113)은 서버(100)와 유무선으로 통신하도록 구성될 수 있다. 사용자 단말들(111-113)은 서버(100)와 연동된 웹페이지에 접속되거나, 서버(100)와 연동된 어플리케이션이 설치될 수 있다. 사용자 단말들(111-113)은 웹페이지 또는 어플리케이션을 통해 서버(100)와 데이터를 주고받을 수 있다.The user terminals 111-113 may be a desktop computer, a notebook computer, a tablet, a smart phone, or the like. For example, as shown in FIG. 1 , the
계정들(121-123)은 웹페이지 또는 어플리케이션을 통해 사용자 단말들(111-113)에 로그인할 수 있다. 가령, 제1 사용자 계정(121)은 제1 사용자 단말(111)에 로그인할 수 있고, 제2 사용자 계정(122)은 제2 사용자 단말(112)에 로그인할 수 있고, 제3 사용자 계정(123)은 제3 사용자 단말(113)에 로그인할 수 있다. 사용자 단말들(111-113)에 계정들(121-123)이 각각 로그인 되면, 사용자 단말들(111-113)은 웹페이지 또는 어플리케이션을 통해 서버(100)와 데이터를 주고받을 수 있다. 각각의 사용자 계정(121, 122, 123)은 서버(100)에 저장된 각각의 사용자의 기본 정보, 각각의 사용자의 학습 콘텐츠 사용 중 뇌파 정보 및 눈 깜빡임 정보에 접근할 권한을 가진다.The accounts 121-123 may log in to the user terminals 111-113 through a web page or an application. For example, the
착용형 뇌파 측정 장치들(131-133)은 사용자들이 학습 콘텐츠를 시청하기 전에 사용자들에게 착용될 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)은 각각의 사용자 단말들(111-113)과 대응 관계를 가질 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)은 각각의 사용자 단말들(111-113)과 유무선으로 통신할 수 있다. 즉, 제1 사용자 단말(111)과 제1 뇌파 측정 장치(131)는 연결되어 있고, 제2 사용자 단말(112)과 제2 뇌파 측정 장치(132)는 연결되어 있고, 제3 사용자 단말(113)과 제3 뇌파 측정 장치(133)는 연결되어 있는 상태일 수 있다.The wearable brain wave measuring devices 131-133 may be worn by users before they watch learning content. Each of the wearable EEG measuring devices 131-133 may have a corresponding relationship with each of the user terminals 111-113. Each of the wearable
각각의 착용형 뇌파 측정 장치들(131-133)은 도 1의 골전도 헤드셋(130)과 같은 구성 및 기능을 가질 수 있다. 서버(100)를 이용하여 서비스를 제공하는 자 내지 단체는 학습 콘텐츠를 시청하는 사용자들에게 골전도 헤드셋(130)을 대여, 지급 또는 판매할 수 있다.Each of the wearable EEG measuring devices 131-133 may have the same configuration and function as the
골전도 헤드셋(130)은 2채널 frontal 센서 기반 제품일 수 있다. 골전도 헤드셋(130) EEG 센서(141), 골전도 폰(142), 통신 모듈(143) 등을 포함할 수 있다. EEG 센서(141)는 사용자의 뇌파, 구체적으로 알파파(alpha wave), 베타파(beta wave), 델타파(delta wave)의 진동수, 진폭, 파장, 위상차 등을 측정할 수 있다. 또한, 골전도 헤드셋(130)은 EOG 센서를 포함할 수 있다. 이를 통해, 사용자의 눈뜸, 눈감음 여부 등을 측정할 수 있다.The
또한, 각각의 착용형 뇌파 측정 장치들(131-133)은 헤드폰의 구성, 형태 및 디자인을 가질 수 있다. 이때, 헤드폰에 부착된 뇌파 감지 센서는 착용 시 사용자의 귀 및 정수리 부분과 접촉하며, 사용자의 뇌파 정보를 측정할 수 있다. 또는, 각각의 착용형 뇌파 측정 장치들(131-133)은 무선 이어폰과 같이 사용자의 귀에 꼽을 수 있는 In-ear 형태의 구성, 형태 및 디자인을 가질 수도 있다. 이때, In-ear형 뇌파 측정 장치에 부착된 뇌파 감지 센서는 착용 시 사용자의 귀 부분과 접촉하며, 사용자의 뇌파 정보를 측정할 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)은 부착된 뇌파 측정 센서를 통해 사용자의 뇌파를 분석할 수만 있다면, 그 구성, 형태, 디자인, 크기, 부가 기능 등은 제한 없이 차용될 수 있다.In addition, each of the wearable EEG measuring devices 131-133 may have a configuration, a shape, and a design of a headphone. In this case, the EEG sensor attached to the headphone may come into contact with the user's ear and the crown when worn, and may measure EEG information of the user. Alternatively, each of the wearable EEG measuring devices 131-133 may have an in-ear configuration, shape, and design that can be inserted into the user's ear, such as a wireless earphone. In this case, the EEG sensor attached to the in-ear type EEG measurement device may contact the user's ear part when worn, and may measure the user's EEG information. Each of the wearable EEG measuring devices 131-133 may be borrowed without limitation, as long as it can analyze the user's EEG through the attached EEG sensor, its configuration, shape, design, size, additional functions, and the like.
서버(100)는 웹페이지 또는 어플리케이션을 통해 학습 동영상 등 사용자를 위한 학습 콘텐츠를 제공할 수 있다. 서버(100)는 착용형 뇌파 측정 장치들(131-133)을 통해 측정된 사용자들의 학습 콘텐츠 사용 중 뇌파 정보를 수집, 분석 및 저장할 수 있다. 서버(100)는 사용자 단말들(111-113)을 통해 촬영된 사용자들의 영상 정보를 기초로, 사용자들의 EAR(Eye Aspect Ratio)을 측정할 수 있다. 여기서, EAR은 눈의 가로 세로 비율로, EAR을 통해 눈을 뜨고 있는지 또는 눈을 감고 있는지 여부가 확인될 수 있다.The
서버(100)는 뇌파 정보, 눈 깜빡임 정보 및 사용자의 기본 정보 등을 기초로, 사용자별 학습 콘텐츠를 재구성하여 제공할 수 있다.The
한편, 설명의 편의를 위해 도 1에서는 세 대의 사용자 단말들(111-113) 및 세 대의 착용형 뇌파 측정 장치들(131-133)만을 도시했으나, 단말들의 수는 얼마든지 달라질 수 있다. 서버(100)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.Meanwhile, for convenience of explanation, only three user terminals 111-113 and three wearable EEG measurement devices 131-133 are illustrated in FIG. 1 , but the number of terminals may vary. As long as the processing capacity of the
이하에서, 서버(100)의 동작을 중심으로 실시예가 기술되며, 실시예들은 통신의 주체나 양상에 의해 제한되지 않고 다양한 응용예가 채용될 수 있다.Hereinafter, embodiments will be described focusing on the operation of the
한편, 서버(100)는 집중력을 향상시키는 명상 콘텐츠를 제공하여, 명상을 통해 뇌파가 안정 상태로 진입하게 되는 경우에만, 학습 콘텐츠를 제공할 수 있다.On the other hand, the
서버(100)는 사용자들이 사용자 단말들(111-113)의 화면에서 재생중인 학습 콘텐츠를 시청하는 도중, 사용자들의 시선이 화면에서 일정 시간(예를 들면, 3초) 이상 벗어나는 것으로 확인되면, 학습 콘텐츠의 재생이 멈추도록 제어할 수 있다. 이때, 서버(100)는 시선이 화면에서 벗어나는 시간 이외에, 눈을 감고 있는 시간을 통해서도, 학습 콘텐츠의 재생이 멈추도록 제어할 수 있다.When it is confirmed that the user's gaze deviates from the screen for a certain period of time (for example, 3 seconds) or more while the user is watching the learning content being reproduced on the screen of the user terminals 111-113, the
서버(100)는 사용자들이 사용자 단말들(111-113)의 화면에서 재생중인 학습 콘텐츠를 시청하여 학습을 수행하는 동안, 사용자들의 뇌파 상태를 확인하고, EAR을 통해 사용자들의 눈 깜빡임 상태를 확인할 수 있다.The
서버(100)는 학습 콘텐츠의 시청이 종료되어 학습이 완료되면, 뇌파 상태, 눈 깜빡임 상태(졸음), 화면에서 시선이 벗어난 정도 등을 통해, 학습 콘텐츠에 대한 집중도를 산출할 수 있으며, 학습 시간, 학습 시간 등에 대한 정보를 분석하여 사용자들에게 제공할 수 있다.The
서버(100)는 사용자들이 학습 콘텐츠를 시청하는 동안의 뇌파 상태, 눈 깜빡임 상태, 화면에서 시선이 벗어난 정도 등을 분석하여, 집중력이 저하되는 구간을 선별할 수 있으며, 집중도가 일정 수준 미만으로 확인되는 구간에 대해 재학습이 수행되도록, 학습 서비스를 제공할 수 있다.The
일실시예에 따르면, 서버(100)는 학생용, 학부모용 및 선생님용으로 구분하여 학습 서비스를 제공할 수 있다. 즉, 서버(100)는 학생용 어플리케이션을 통해 학습을 수행하는 사용자들이 학습을 진행하도록 처리하는 학습 서비스를 제공할 수 있으며, 학부모용 어플리케이션을 통해 보호자들이 학습 현황을 확인하도록 처리하는 학습 서비스를 제공할 수 있으며, 선생님용 어플리케이션을 통해 학습 과정을 추천하도록 처리하는 학습 서비스를 제공할 수 있다. 이때, 학생, 부모님 및 선생님 간에 남겨진 코멘트를 확인할 수 있도록, 학생 별로 게시 공간이 제공될 수 있다.According to an embodiment, the
도 2는 일실시예에 따른 학습 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.2 is a flowchart illustrating a process of providing learning content according to an exemplary embodiment.
도 2를 참조하면, 먼저 S201 단계에서, 서버(100)는 제1 사용자가 착용한 제1 뇌파 측정 장치(131)에서 제1 사용자의 뇌파를 측정하면, 제1 뇌파 측정 장치(131)에서 측정된 제1 사용자의 뇌파를 제1 사용자 단말(111)로부터 획득할 수 있다.Referring to FIG. 2 , first, in step S201 , the
구체적으로, 제1 사용자가 제1 뇌파 측정 장치(131)를 착용하게 되면, 제1 뇌파 측정 장치(131)는 제1 사용자의 뇌파를 측정할 수 있으며, 측정된 제1 사용자의 뇌파 정보를 제1 사용자 단말(111)로 전송할 수 있다. 이때, 제1 사용자 단말(111)은 제1 뇌파 측정 장치(131)로부터 수신된 제1 사용자의 뇌파 정보를 서버(100)로 전송하여, 서버(100)는 제1 사용자 단말(111)로부터 제1 사용자의 뇌파 정보를 획득할 수 있다.Specifically, when the first user wears the first
일실시예에 따르면, 제1 뇌파 측정 장치(131)는 제1 사용자의 베타파, 알파파, 델타파 등을 측정할 수 있다. 제1 뇌파 측정 장치(131)는 뇌파의 진동수, 진폭, 파장, 위상차 등을 측정할 수 있다. 측정하는 뇌파의 종류 및 측정 항목은 실시예에 따라 달라질 수 있다.According to an embodiment, the first
S202 단계에서, 서버(100)는 제1 사용자의 뇌파를 기초로, 제1 사용자의 상태가 양호한지 여부를 분석할 수 있다.In step S202 , the
구체적으로, 서버(100)는 데이터베이스에 미리 등록되어 있는 제1 사용자의 뇌파와 실시간으로 획득되는 제1 사용자의 뇌파를 비교하여, 제1 사용자의 상태를 나쁜 상태, 양호 상태 및 좋은 상태 중 어느 하나로 분류할 수 있다.Specifically, the
서버(100)는 제1 사용자의 상태가 양호 상태 및 좋은 상태로 확인되는 경우, 제1 사용자의 상태가 양호한 것으로 분석할 수 있으며, 제1 사용자의 상태가 나쁜 상태로 확인되는 경우, 제1 사용자의 상태가 양호하지 않은 것으로 분석할 수 있다.The
S203 단계에서, 서버(100)는 제1 사용자의 상태가 양호한지 여부를 확인할 수 있다.In step S203 , the
S203 단계에서 제1 사용자의 상태가 양호하지 않은 것으로 확인되면, S204 단계에서, 서버(100)는 제1 사용자 단말(111)로 명상 콘텐츠를 제공하여, 제1 사용자 단말(111)의 화면에서 명상 콘텐츠가 재생되도록 제어할 수 있다. 이때, 서버(100)는 제1 사용자의 상태에 따라 명상 콘텐츠를 선별하여, 제1 사용자의 상태가 심각할수록 재생 길이가 긴 명상 콘텐츠를 제공할 수 있다.If it is confirmed in step S203 that the state of the first user is not good, in step S204 , the
S204 단계 이후, 명상 콘텐츠의 재생이 완료되면, S201 단계로 되돌아가, 서버(100)는 명상을 통해 안정된 제1 사용자의 뇌파를 다시 획득할 수 있다.After step S204, when the reproduction of the meditation content is completed, the process returns to step S201, and the
한편, S203 단계에서 제1 사용자의 상태가 양호한 것으로 확인되면, S205 단계에서, 서버(100)는 제1 사용자 단말(111)에 장착된 카메라가 동작하여 촬영을 시작하도록 제어할 수 있다. 즉, 서버(100)는 제1 사용자 단말(111)로 카메라 동작을 위한 제어 신호를 전송할 수 있으며, 제1 사용자 단말(111)은 카메라를 통해 촬영을 시작할 수 있다.On the other hand, if it is confirmed in step S203 that the state of the first user is good, in step S205 , the
S206 단계에서, 서버(100)는 제1 사용자 단말(111)에서 제1 사용자의 얼굴을 촬영하면, 제1 사용자 단말(111)로부터 제1 사용자의 얼굴 영상을 획득할 수 있다. 이때, 제1 사용자 단말(111)은 카메라를 통해 제1 사용자의 얼굴을 촬영하여 제1 사용자의 얼굴 영상을 생성할 수 있으며, 생성된 제1 사용자의 얼굴 영상을 서버(100)로 전송할 수 있다.In step S206 , when the first user's face is photographed by the
S207 단계에서, 서버(100)는 제1 사용자의 얼굴 영상에서 제1 사용자의 눈을 인식하여, 제1 사용자의 시선을 추적할 수 있다.In step S207 , the
구체적으로, 서버(100)는 제1 사용자의 얼굴 영상에서 제1 사용자의 좌측 및 우측 눈 영역을 각각 인식할 수 있다. 즉, 서버(100)는 제1 사용자의 얼굴 영상을 분석하여, 제1 사용자의 좌측 및 우측 눈이 위치하고 있는 영역을 파악할 수 있으며, 이를 통해, 제1 사용자의 좌측 눈이 위치하고 있는 영역과 제1 사용자의 우측 눈이 위치하고 있는 영역을 각각 인식할 수 있다.Specifically, the
서버(100)는 인식된 눈 영역 각각에서 눈동자들의 위치를 확인할 수 있다. 즉, 서버(100)는 좌측 눈 영역에서 좌측 눈동자가 어느 부분에 위치하는지 확인할 수 있고, 우측 눈 영역에서 우측 눈동자가 어느 부분에 위치하는지 확인할 수 있다.The
서버(100)는 눈 영역 각각의 크기 및 눈동자들의 크기를 기반으로, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리를 산출할 수 있다.The
구체적으로, 서버(100)는 좌측 눈 영역의 크기 및 우측 눈 영역의 크기를 비교하여, 제1 사용자가 제1 사용자 단말(111)의 화면을 똑바로 쳐다보고 있는지 판단할 수 있으며, 좌측 눈 영역의 크기와 우측 눈 영역의 크기의 차이가 오차범위 이내로 있는 것으로 확인되면, 제1 사용자가 제1 사용자 단말(111)의 화면을 똑바로 쳐다보고 있는 것으로 확인할 수 있다. 제1 사용자가 제1 사용자 단말(111)의 화면을 똑바로 쳐다보고 있는 상태에서, 서버(100)는 좌측 눈 영역에서 좌측 눈동자가 차지하고 있는 크기 또는 우측 눈 영역에서 우측 눈동자가 차지하고 있는 크기를 확인하여, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리를 산출할 수 있다. 이를 위해, 서버(100)는 제1 사용자의 눈동자 크기를 거리 별로 미리 등록한 상태에서, 눈동자가 제1 크기로 확인되면, 제1 크기에 대응하는 거리를 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리로 산출할 수 있다. 예를 들어, 제1 사용자의 눈동자의 크기가 1cm로 확인된 경우, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리는 30cm로 산출되고, 제1 사용자의 눈동자가 2cm로 확인된 경우, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리는 20cm로 산출될 수 있다. 즉, 눈동자의 크기가 클수록 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리는 더 작은 수치로 산출될 수 있다.Specifically, the
서버(100)는 눈동자들의 위치 및 이격 거리에 기초하여, 제1 사용자의 시선이 향하는 위치를 확인할 수 있으며, 눈동자의 위치 변경에 따라 제1 사용자의 시선이 이동한 것으로 확인되면, 이동하는 제1 사용자의 시선을 추적할 수 있다.The
구체적으로, 서버(100)는 눈 영역 각각에서 눈동자들이 어느 방향에 치우쳐서 위치하는 것을 확인하여 벡터 방향을 설정하고, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리를 통해 벡터 크기를 설정하고, 벡터 방향 및 벡터 크기를 이용하여 제1 사용자의 시선이 향하는 위치를 예측하여 어느 부분을 응시하고 있는지 확인할 수 있으며, 눈동자들의 위치가 변경되면, 눈동자들의 위치 변경에 따라 이동하는 제1 사용자의 시선을 계속해서 추적할 수 있다.Specifically, the
S208 단계에서, 서버(100)는 제1 사용자의 시선을 추적한 결과, 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는지 여부를 확인할 수 있다. 즉, 서버(100)는 제1 사용자의 시선이 향하는 위치를 통해 제1 사용자의 시선이 제1 사용자 단말(111)의 화면 내에 위치하는지 여부를 확인하여, 제1 사용자가 제1 사용자 단말(111)의 화면을 응시하고 있는지 여부를 확인할 수 있다.In step S208 , as a result of tracking the gaze of the first user, the
S208 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는 것으로 확인되면, S209 단계에서, 서버(100)는 제1 사용자 단말(111)로 학습 콘텐츠를 제공하여, 제1 사용자 단말(111)의 화면에서 학습 콘텐츠가 재생되도록 제어할 수 있다.If it is confirmed in step S208 that the gaze of the first user is gazing at the screen of the
서버(100)는 제1 사용자 단말(111)로 학습 콘텐츠를 제공하기 전에, 제1 사용자의 기본 정보를 기초로, 제1 사용자가 수강하기 적합한 학습 콘텐츠를 생성할 수 있다. 여기서, 제1 사용자의 기본 정보는 사용자의 나이, 성별, 지역, 학습 성취도, 수강 과목, 미수강 과목, 수강 희망 과목, 선호하는 과목, 비선호 과목, 각각의 학습 콘텐츠 학습 시 측정된 사용자의 뇌파 정보 등을 포함할 수 있다. 각각의 학습 콘텐츠 학습 시 측정된 사용자의 뇌파 정보는 제1 뇌파 측정 장치(131)로부터 획득될 수 있다.Before providing the learning content to the
학습 콘텐츠는 하나의 학습 주제를 가지는 콘텐츠 단위일 수 있다. 학습 콘텐츠는 학습 동영상 등일 수 있다. 각각의 학습 콘텐츠는 순서 또는 종류의 변경이 가능한 하나 이상의 학습 콘텐츠 모듈을 포함할 수 있다. 예를 들어, 학습 콘텐츠가 동영상인 경우, 학습 콘텐츠는 기본 프레임과 순서 또는 종류의 변경이 가능한 하나 이상의 세부 영상 파트들(학습 콘텐츠 모듈들)로 이루어질 수 있다. 학습 콘텐츠 모듈들은 기본 프레임에서 학습 콘텐츠 모듈들이 삽입될 수 있는 구간에 삽입될 수 있다.The learning content may be a content unit having one learning topic. The learning content may be a learning video or the like. Each learning content may include one or more learning content modules that can be changed in order or type. For example, when the learning content is a moving picture, the learning content may include a basic frame and one or more detailed image parts (learning content modules) that can be changed in order or type. The learning content modules may be inserted in a section in which the learning content modules may be inserted in the basic frame.
학습 콘텐츠 모듈들은 카테고리별로 분류될 수 있다. 가령, 핵심 개념 설명 모듈, 배경 지식 설명 모듈, 사례 적용 모듈, 문제 풀이 해설 모듈, 심화 학습 모듈 등의 카테고리가 있을 수 있다. 학습 콘텐츠 모듈들은 카테고리별로 난이도가 상이한 버전들을 가질 수 있다. 예를 들어, 핵심 개념 설명 모듈-하(下), 핵심 개념 설명 모듈-중(中), 핵심 개념 설명 모듈-상(上)과 같이 하나의 학습 콘텐츠 모듈 카테고리 안에 난이도가 상이한 학습 콘텐츠 모듈 버전들이 있을 수 있다. 적어도 하나 이상의 카테고리의 학습 콘텐츠 모듈이 학습 콘텐츠에 포함될 수 있다. 이때, 학습 성취도가 높은 사용자라면, 사용자의 학습 콘텐츠는 상-난이도의 동일한 카테고리의 학습 콘텐츠 모듈이 포함될 수 있고, 학습 성취도가 낮은 사용자라면, 사용자의 학습 콘텐츠는 하-난이도의 동일한 카테고리의 학습 콘텐츠 모듈이 포함될 수 있다.Learning content modules may be classified by category. For example, there may be categories such as a core concept explanation module, a background knowledge explanation module, a case application module, a problem solving explanation module, and a deep learning module. The learning content modules may have versions with different levels of difficulty for each category. For example, there are learning content module versions with different levels of difficulty within one learning content module category, such as core concept explanation module-low (bottom), core concept explanation module-medium (middle), and core concept explanation module-upper (top). there may be At least one or more categories of learning content modules may be included in the learning content. In this case, if the user has a high learning achievement, the user's learning content may include a learning content module of the same category of higher-difficulty level Modules may be included.
서버(100)는 각각의 사용자의 기본 정보를 기초로, 각각의 사용자가 수강하기 적합한 각각의 학습 콘텐츠를 선별할 수 있다. 이어서, 서버(100)는 각각의 사용자의 기본 정보를 기초로, 각각의 학습 콘텐츠 내의 학습 콘텐츠 모듈들의 순서 및 종류를 선별할 수 있다. 서버(100)는 사용자의 학습 성취도 등을 기초로 동일 카테고리 내의 학습 콘텐츠 모듈의 난이도를 선별하는 방식으로 학습 콘텐츠 모듈들의 종류를 선별할 수 있다. 서버(100)는 사용자의 집중도 지속 시간이 증대되고, 사용자의 집중도 하위 구간이 최소화되도록, 학습 콘텐츠 내에서 서로 다른 카테고리 간의 학습 콘텐츠 모듈들의 순서를 변경할 수 있다. 이를 통해, 서버(100)는 각각의 사용자의 학습 콘텐츠를 생성할 수 있다.The
서버(100)가 각각의 사용자의 학습 콘텐츠를 생성하는 일련의 동작은 제1 인공지능을 기초로 이루어질 수 있다. 이를 위해, 서버(100)는 미리 학습된 제1 인공지능을 포함할 수 있다. 제1 인공지능은 각각의 계정(121, 122, 123)의 기본 정보를 입력받아, 각각의 계정(121, 122, 123)을 위한 학습 콘텐츠를 생성하도록 학습될 수 있다. 제1 인공지능은 계정 사용자가 학습해야 하는 과목들, 계정 사용자의 현재까지 학습 성취도, 계정 사용자의 학습 성취도 변화 추이, 계정 사용자가 이전 학습 콘텐츠를 사용할 때 뇌파 정보 등을 입력으로 받아, 각각의 계정(121, 122, 123)을 위한 학습 콘텐츠를 생성할 수 있다. 제1 인공지능의 구체적인 학습 동작은 도 10을 참조하여 후술된다.A series of operations in which the
한편, S208 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있지 않은 것으로 확인되면, 학습 준비가 완료되지 않은 상태로 판단하여, S201 단계로 되돌아가, 서버(100)는 제1 사용자의 뇌파를 획득하는 과정부터 다시 수행할 수 있다.On the other hand, if it is confirmed that the first user's gaze is not gazing at the screen of the
도 3은 일실시예에 따른 학습 콘텐츠에 대한 사용자의 집중도를 산출하는 과정을 설명하기 위한 순서도이다.3 is a flowchart illustrating a process of calculating a user's concentration on learning content according to an exemplary embodiment.
도 3을 참조하면, 먼저, S301 단계에서, 서버(100)는 제1 사용자 단말(111)로 학습 콘텐츠를 제공하여, 제1 사용자 단말(111)의 화면에서 학습 콘텐츠가 재생되도록 제어할 수 있다. 즉, 서버(100)는 제1 사용자 단말(111)로부터 제1 사용자의 뇌파가 획득되고 있고, 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는 것으로 확인되면, 학습 준비가 완료된 상태로 판단하여, 제1 사용자 단말(111)로 학습 콘텐츠를 제공할 수 있다.Referring to FIG. 3 , first, in step S301 , the
S302 단계에서, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 재생되는 동안, 제1 뇌파 측정 장치(131)에서 측정된 제1 사용자의 뇌파를 제1 뇌파 측정 장치(131)와 연결된 제1 사용자 단말(111)로부터 획득할 수 있다. 이때, 서버(100)는 각각의 사용자의 뇌파를 미리 정의된 기준에 따라 지표화할 수 있다. 여기서, 미리 정의된 지표들은 학습 콘텐츠별 집중도 상위 구간, 집중도 보통 구간, 집중도 하위 구간, 집중도 지속 시간, 졸음 구간 등을 포함할 수 있다. 미리 정의된 지표들의 구체적인 설명은 도 4를 참조하여 후술된다.In step S302 , the
S303 단계에서, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 재생되는 동안, 제1 사용자의 얼굴을 촬영하고 있는 제1 사용자 단말(111)로부터 제1 사용자의 얼굴 영상을 획득할 수 있다.In step S303 , the
S304 단계에서, 서버(100)는 제1 사용자의 얼굴 영상에서 제1 사용자의 눈을 인식할 수 있다.In step S304 , the
S305 단계에서, 서버(100)는 제1 사용자의 얼굴 영상에서 인식된 제1 사용자의 눈을 기초로, 눈에 대한 움직임을 확인하여, 눈 움직임에 따라 제1 사용자의 시선을 추적할 수 있다.In step S305 , the
S306 단계에서, 서버(100)는 제1 사용자의 얼굴 영상에서 인식된 제1 사용자의 눈을 기초로, 제1 사용자의 EAR(Eye Aspect Ratio)을 측정할 수 있다.In step S306 , the
S307 단계에서, 서버(100)는 학습 콘텐츠의 재생이 완료되었는지 여부를 확인할 수 있다.In step S307, the
S307 단계에서 학습 콘텐츠의 재생이 완료되지 않은 것으로 확인되면, S301 단계로 되돌아가, 서버(100)는 학습 콘텐츠의 재생이 완료될 때까지, 제1 사용자 단말(111)의 화면에서 학습 콘텐츠가 재생되도록 제어할 수 있다.If it is confirmed in step S307 that the reproduction of the learning content has not been completed, the process returns to step S301, and the
S307 단계에서 학습 콘텐츠의 재생이 완료된 것으로 확인되면, S308 단계에서, 서버(100)는 학습 콘텐츠가 재생되는 동안 측정된 제1 사용자의 뇌파를 기초로, 제1 사용자의 뇌파에 대한 변화를 확인할 수 있다.If it is confirmed in step S307 that the reproduction of the learning content has been completed, in step S308, the
S307 단계에서 학습 콘텐츠의 재생이 완료된 것으로 확인되면, S309 단계에서, 서버(100)는 학습 콘텐츠가 재생되는 동안 추적된 제1 사용자의 시선을 기초로, 제1 사용자의 시선 변화를 통해 제1 사용자가 화면을 응시한 응시 상태를 시간대 별로 확인할 수 있다.If it is confirmed in step S307 that the reproduction of the learning content is completed, in step S309, the
S307 단계에서 학습 콘텐츠의 재생이 완료된 것으로 확인되면, S310 단계에서, 서버(100)는 학습 콘텐츠가 재생되는 동안 측정된 제1 사용자의 EAR을 기초로, 제1 사용자의 EAR에 대한 변화를 통해 눈 깜빡임 상태를 시간대 별로 확인할 수 있다. 이때, 서버(100)는 EAR을 통해 제1 사용자의 눈에 대한 가로 세로 비율을 측정하여, 제1 사용자가 눈을 뜨고 있는지 또는 눈을 감고 있는지 여부를 시간대 별로 확인할 수 있으며, 눈 깜빡임 횟수, 간격 등을 더 확인할 수도 있다.If it is confirmed that the reproduction of the learning content is completed in step S307, in step S310, the
S311 단계에서, 서버(100)는 제1 사용자의 뇌파에 대한 변화, 눈 깜빡임 상태 및 응시 상태를 기초로, 학습을 수행한 시간을 분석하여, 학습 콘텐츠에 대한 제1 사용자의 집중도를 산출할 수 있다.In step S311, the
구체적으로, 서버(100)는 제1 사용자의 뇌파에 대한 변화를 기초로, 시간대 별로 학습을 얼마나 집중해서 수행하였는지 분석할 수 있으며, 제1 사용자의 눈 깜빡임 상태를 기초로, 눈 깜빡임 횟수, 간격, 눈을 감고 있는 시간 등을 통해 시간대 별로 학습을 얼마나 집중해서 수행하였는지 분석할 수 있으며, 제1 사용자의 응시 상태를 기초로, 화면을 응시하였는지 여부를 통해 시간대 별로 학습을 얼마나 집중해서 수행하였는지 분석할 수 있다. 즉, 서버(100)는 제1 사용자의 뇌파, 눈 깜빡임, 화면 응시 여부 등을 종합적으로 고려하여, 학습 콘텐츠에 대한 제1 사용자의 집중도를 산출할 수 있다.Specifically, the
도 4는 일실시예에 따른 학습 콘텐츠의 지표들을 설명하기 위한 도면이다.4 is a diagram for explaining indices of learning content according to an embodiment.
학습 콘텐츠(400)는 하나의 학습 주제를 가지는 콘텐츠 단위일 수 있다. 도 4에 도시된 것과 같이, 학습 콘텐츠(400)는 학습 동영상일 수 있다.The learning
각각의 착용형 뇌파 측정 장치들(131-133)은 학습 콘텐츠를 사용 중인 사용자의 베타파(401), 알파파(402), 델타파(403) 등을 측정할 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)은 사용자들 각각의 뇌파의 진동수, 진폭, 파장, 위상차 등을 측정할 수 있다. 측정하는 뇌파의 종류 및 측정 항목은 실시예에 따라 달라질 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)이 측정한 사용자의 뇌파 정보는 뇌파 측정 장치들(131-133)과 연결된 각각의 사용자 단말들(111-113)을 통해 서버(100)로 전송될 수 있다.Each of the wearable brain wave measuring devices 131-133 may measure a
서버(100)는 각각의 사용자의 뇌파를 미리 정의된 기준에 따라 지표화할 수 있다. 이를 위해, 서버(100)는 사용자가 학습 콘텐츠(400)를 시청하는 동안의 뇌파의 종류-베타파(401), 알파파(402), 델타파(403) 등-및 측정 항목들-진동수, 진폭, 파장, 위상차 등-을 기초로, 학습 콘텐츠(400)에 대한 사용자의 집중도(410)를 연산할 수 있다. 사용자의 집중도(410)는 학습 콘텐츠(400)의 진행 시간에 따라 변화하는 시계열성을 가질 수 있다. 사용자의 베타파(401)가 활성화된 구간에서 사용자의 집중도(410)는 상승하거나 높은 값을 가질 수 있다. 사용자의 알파파(402) 또는 델타파(403)가 활성화된 구간에서 사용자의 집중도(410)는 하강하거나 낮은 값을 가질 수 있다.The
이어서, 서버(100)는 각각의 사용자의 집중도(410)를 기초로, 각각의 사용자의 지표들을 연산할 수 있다. 각각의 사용자의 지표는 학습 콘텐츠별 집중도 상위 구간, 학습 콘텐츠별 집중도 보통 구간, 학습 콘텐츠별 집중도 하위 구간 및 각각의 사용자의 집중도 지속 시간을 포함할 수 있다.Then, the
집중도 상위 구간(411)은 사용자의 집중도(410)가 미리 정의된 기준 이상으로 활성화된 구간일 수 있다. 가령, 이 구간에서 사용자의 베타파(401)는 미리 정의된 수준 이상으로 활성화되어 있을 수 있다. 집중도 하위 구간(413)은 사용자의 집중도(410)가 미리 정의된 기준 이하로 저하된 구간일 수 있다. 가령, 이 구간에서 사용자의 알파파(402) 또는 델타파(403)는 미리 정의된 수준 이상으로 활성화되는 구간일 수 있다. 집중도 보통 구간(412)는 사용자의 집중도(410)가 미리 정의된 기준 범위 내에 속하는 구간일 수 있다.The
사용자의 집중도(410)에서 집중도 상위 구간(411) 및 집중도 하위 구간(413)을 구분하는 미리 정의된 기준 집중도(상위 임계 집중도 및 하위 임계 집중도)는 학습 콘텐츠별로 상이할 수 있다. 집중도 상위 구간(411) 및 집중도 하위 구간(413)을 구분하는 미리 정의된 기준은 학습 콘텐츠의 내용, 난이도, 대상 학년 등에 따라 달라질 수 있다.In the user's
학습 콘텐츠별로 집중도 상위 구간(411) 및 집중도 하위 구간(413)을 구분하는 미리 정의된 기준 집중도는 미리 학습된 제2 인공지능의 추론을 기초로 이루어질 수 있다. 이를 위해, 서버(100)는 미리 학습된 제2 인공지능을 포함할 수 있다. 제2 인공지능은 각각의 학습 콘텐츠의 학습 주제, 학습 난이도, 학습 콘텐츠를 수강하는 사용자들의 평균 연령, 그 동안 학습 콘텐츠를 수강한 사용자들의 뇌파 정보 등을 입력으로 받아, 각각의 학습 콘텐츠의 집중도 상위 구간(411) 및 집중도 하위 구간(413)을 구분하는 미리 정의된 기준 집중도(상위 임계 집중도 및 하위 임계 집중도)를 학습 콘텐츠별로 출력할 수 있다. 제2 인공지능의 구체적인 학습 동작은 도 10을 참조하여 후술된다.A predefined reference degree of concentration for classifying the
집중도 지속 시간(414)은 학습 콘텐츠(400) 시작부터 첫번째 집중도 하위 구간의 시작점까지의 시간 간격, n(n은 자연수)번째 집중도 하위 구간의 끝점부터 n+1번째 집중도 하위 구간의 시작점까지의 시간 간격, 및 마지막 집중도 하위 구간의 끝점부터 학습 콘텐츠(400)의 종료까지의 시간 간격을 엘리먼트로 하는 리스트로 구성될 수 있다. 즉, 집중도 지속 시간(414)은 집중도 상위 구간(411) 및 집중도 보통 구간(412)에 속하는 시간대를 엘리먼트로 하여 구성될 수 있다.The
서버(100)는 집중도 지속 시간(414)의 각 엘리먼트를 합함으로써 학습 콘텐츠가 진행되는 동안 사용자의 총 집중 시간을 확인할 수 있다. 또한, 학습 중 일반적으로 강의 초반에는 집중을 하다가 강의 중후반이 넘어가면 집중이 흐트러지는 경향이 있다. 이러한 점을 모니터링 하기 위해, 서버(100)는 집중도 지속 시간(414)의 각 엘리먼트의 길이를 확인함으로써 사용자가 학습 콘텐츠(강의 등) 초반에는 집중을 얼마만큼 잘 유지하다가, 학습 콘텐츠 중반 또는 후반부터 집중력을 얼마만큼 잃었는지 확인할 수 있다. 또한, 각 엘리먼트에 속하지 않는 시간대는 집중도 하위 구간(413)에 속하는 시간대이므로, 서버(100)는 각 엘리먼트에 속하지 않는 시간대를 통해 사용자가 흥미를 느끼지 않거나 난이도가 높아 포기한 학습 콘텐츠 모듈이 어떤 모듈이었는지 확인할 수 있다. 이를 통해, 서버(100)는 학습 콘텐츠(400)을 이용하는 사용자의 집중력 및 학업 성취도를 분석할 수 있다.The
서버(100)는 집중도 상위 구간(411), 집중도 보통 구간(412), 집중도 하위 구간(413), 및 집중도 지속 시간(414)을 기초로 사용자의 집중도가 개선될 수 있도록 학습 콘텐츠를 재구성할 수 있다. 구체적으로, 서버(100)는 각각의 사용자의 학습 콘텐츠에 대해 집중도 상위 시간을 늘리거나, 집중도 하위 시간을 줄이거나, 눈 깜빡임을 통해 확인되는 졸음 구간을 줄이거나, 시선을 통해 확인되는 집중 못하는 구간을 줄이는 방식 등으로 동일한 학습 주제에 대한 학습 콘텐츠를 재구성하여 각각의 사용자에게 제공할 수 있다. 서버(100)가 각각의 사용자의 학습 콘텐츠를 재구성하는 동작은 다음을 포함할 수 있다.The
먼저, 서버(100)는 각각의 사용자의 학습 콘텐츠(400)의 집중도 상위 구간 및 학습 콘텐츠(400)의 집중도 하위 구간을 기초로, 학습 콘텐츠(400)에서 적어도 하나 이상의 학습 콘텐츠 모듈의 순서 또는 종류를 변경할 수 있다.First, the
예를 들어, 학습 콘텐츠(400)의 제1 집중도 하위 구간과 시간대가 가장 많이 겹치는 학습 콘텐츠 모듈이 있을 수 있다. 해당 학습 콘텐츠 모듈은 사용자에게 너무 어렵거나, 반대로 너무 쉬워서 사용자의 이목을 끌지 못할 수 있다. 서버(100)에 포함된 인공지능에 해당 학습 콘텐츠 모듈이 재생될 때 측정된 사용자의 뇌파 정보를 입력하여, 사용자가 해당 학습 콘텐츠 모듈을 너무 어렵다고 생각하는지 또는 쉽다고 생각하는지 판별할 수 있다. 이를 기초로, 서버(100)는 해당 학습 콘텐츠 모듈의 난이도를 상향 또는 하향 조정한 버전의 학습 콘텐츠 모듈로 변경할 수 있다.For example, there may be a learning content module in which the first concentration sub-section of the learning
또는, 학습 콘텐츠(400)의 제1 집중도 상위 구간과 시간대가 가장 많이 겹치는 학습 콘텐츠 모듈이 있을 수 있다. 해당 학습 콘텐츠 모듈은 사용자가 관심 있는 분야이거나, 단순히 학습 콘텐츠 초반부라서 사용자의 집중력이 높을 수 있다. 서버(100)에 포함된 인공지능에 해당 학습 콘텐츠 모듈이 재생될 때 측정된 사용자의 뇌파 정보를 입력하여, 사용자가 해당 학습 콘텐츠 모듈을 흥미 있게 여기는지, 혹은 단순히 학습 콘텐츠 초반부라서 사용자의 집중력이 좋은 것인지 판별할 수 있다. 사용자가 해당 학습 콘텐츠 모듈을 흥미 있게 여긴다면, 서버(100)는 해당 학습 콘텐츠 모듈의 난이도를 상향 조정할 수 있다. 단순히 학습 콘텐츠 초반부라서 집중력이 높은 경우라면, 서버(100)는 사용자가 해당 학습 콘텐츠를 복습할 때 해당 학습 콘텐츠 모듈의 순서를 보다 후반부로 배치할 수 있다.Alternatively, there may be a learning content module in which the time period most overlaps with the first high-intensity section of the learning
또한, 서버(100)는 각각의 사용자의 집중도 지속 시간(414)을 기초로, 각각의 사용자에게 제공되는 학습 콘텐츠(400)에 휴식 시간을 분배할 수 있다.In addition, the
예를 들어, 사용자가 60분짜리 학습 콘텐츠(400)을 사용할 때, 집중도 지속 시간(414)의 첫번째 엘리먼트가 “강의 시작 ~ 30분”, 두번째 엘리먼트가 “35분 ~ 45분”, 세번째 엘리먼트가 “55분 ~ 강의 종료”일 수 있다. 서버(100)는 해당 사용자가 학습 콘텐츠의 절반 시간 정도까지는 집중력이 좋다가(30분 집중), 짧은 시간(5분 동안 집중도 하위 구간) 집중력을 놓치고, 집중 시간이 짧아지고(10분 집중), 집중력을 놓치는 시간이 길어지고(10분 동안 집중도 하위 구간), 집중 시간이 보다 짧아지는 점(5분 집중) 등을 분석할 수 있다.For example, when the user uses 60-
서버(100)는 해당 사용자의 집중력이 흐트러지는 시간을 기초로, 휴식 시간을 분배하고, 각각의 휴식 시간 길이를 설정할 수 있다. 가령, 휴식 시간을 제외한 학습 콘텐츠의 경과 시간을 기준으로, 서버(100)는 “30분 경과 후: 5분 휴식”, “20분 경과 후: 10분 휴식” 등과 같이 휴식 시간을 분배할 수 있다.The
도 5는 일실시예에 따른 학습 콘텐츠가 재생되는 동안 측정 상태를 체크하는 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a process of checking a measurement state while learning content is reproduced according to an exemplary embodiment.
도 5를 참조하면, 먼저, S501 단계에서, 서버(100)는 제1 사용자 단말(111)로 학습 콘텐츠를 제공하여, 제1 사용자 단말(111)의 화면에서 학습 콘텐츠가 재생되도록 제어할 수 있다.Referring to FIG. 5 , first, in step S501 , the
서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 재생되면, 제1 사용자 단말(111)로부터 제1 사용자의 뇌파 정보가 획득되고 있는지 여부에 따라, 제1 사용자의 뇌파가 측정되고 있는 상태인지 여부를 확인할 수 있으며, 제1 사용자 단말(111)로부터 획득된 얼굴 영상을 통해 제1 사용자의 EAR이 측정되고 있는 상태인지 여부를 확인할 수 있다.When the learning content is reproduced in the
S502 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 제1 사용자의 뇌파 정보가 획득되고 있는지 여부에 따라, 제1 사용자의 뇌파가 측정되고 있는 상태인지 여부를 확인할 수 있다.In step S502 , the
S502 단계에서 제1 사용자의 뇌파가 측정되고 있는 것으로 확인되면, S503 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 획득된 얼굴 영상을 통해 제1 사용자의 EAR이 측정되고 있는 상태인지 여부를 확인할 수 있다.If it is confirmed in step S502 that the brain wave of the first user is being measured, in step S503 , the
S503 단계에서 제1 사용자의 EAR이 측정되고 있는 것으로 확인되면, S504 단계에서, 서버(100)는 제1 사용자의 뇌파와 제1 사용자의 EAR 간에 싱크를 맞추도록 조정할 수 있다. 즉, 제1 사용자의 뇌파 및 제1 사용자의 EAR이 모두 측정되고 있는 것으로 확인되면, 서버(100)는 제1 사용자의 뇌파와 제1 사용자의 EAR 간에 싱크를 맞추도록 조정할 수 있다.If it is confirmed in step S503 that the EAR of the first user is being measured, in step S504, the
S505 단계에서, 서버(100)는 학습 콘텐츠의 재생이 완료되었는지 여부를 확인할 수 있다.In step S505, the
S505 단계에서 학습 콘텐츠의 재생이 완료된 것으로 확인되면, S508 단계에서, 서버(100)는 학습 콘텐츠의 재생이 완료되어, 학습 콘텐츠의 재생이 정지되도록 제어할 수 있다.If it is confirmed in step S505 that the reproduction of the learning content has been completed, in step S508 , the
S505 단계에서 학습 콘텐츠의 재생이 완료되지 않은 것으로 확인되면, S501 단계로 되돌아가, 서버(100)는 학습 콘텐츠가 계속 재생되도록 제어할 수 있다.If it is confirmed in step S505 that the reproduction of the learning content is not completed, the process returns to step S501, and the
한편, S502 단계에서 제1 사용자의 뇌파가 측정되고 있지 않은 것으로 확인되면, S506 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 획득된 얼굴 영상을 통해 제1 사용자의 EAR이 측정되고 있는 상태인지 여부를 확인할 수 있다.On the other hand, if it is confirmed in step S502 that the brain wave of the first user is not being measured, in step S506 , the
S506 단계에서 제1 사용자의 EAR이 측정되고 있는 것으로 확인되거나, S503 단계에서 제1 사용자의 EAR이 측정되고 있지 않은 것으로 확인되면, S507 단계에서, 서버(100)는 미리 설정된 대기 시간 이내에 뇌파 또는 EAR이 추가로 측정되는지 여부를 확인할 수 있다.If it is confirmed that the EAR of the first user is being measured in step S506, or it is confirmed that the EAR of the first user is not being measured in step S503, in step S507, the
즉, 서버(100)는 제1 사용자의 뇌파가 측정된 것으로 확인되었으나 제1 사용자의 EAR이 측정되지 않은 것으로 확인되면, 대기 시간 이내에 제1 사용자의 EAR이 추가로 측정되는지 여부를 확인할 수 있으며, 제1 사용자의 EAR이 측정된 것으로 확인되었으나 제1 사용자의 뇌파가 측정되지 않은 것으로 확인되면, 대기 시간 이내에 제1 사용자의 뇌파가 추가로 측정되는지 여부를 확인할 수 있다.That is, when it is confirmed that the EEG of the first user is measured, but the EAR of the first user is not measured, the
S507 단계에서 제1 사용자의 뇌파 또는 제1 사용자의 EAR이 추가로 측정된 것으로 확인되면, S504 단계에서, 서버(100)는 제1 사용자의 뇌파와 제1 사용자의 EAR 간에 싱크를 맞추도록 조정할 수 있다.If it is confirmed that the brainwave of the first user or the EAR of the first user is additionally measured in step S507, in step S504, the
S507 단계에서 제1 사용자의 뇌파 또는 제1 사용자의 EAR이 추가로 측정되지 않은 것으로 확인되면, S508 단계에서, 서버(100)는 학습 콘텐츠의 재생이 정지되도록 제어할 수 있다. 즉, 서버(100)는 제1 사용자의 뇌파 및 제1 사용자의 EAR 중 어느 하나가 측정되고 있지 않은 것으로 확인되면, 대기 시간 이후 학습 콘텐츠의 재생이 정지되도록 제어할 수 있다.If it is confirmed that the brain wave of the first user or the EAR of the first user is not additionally measured in step S507, in step S508, the
한편, S506 단계에서 제1 사용자의 EAR이 측정되고 있지 않은 것으로 확인되면, S508 단계에서, 서버(100)는 학습 콘텐츠의 재생이 정지되도록 제어할 수 있다. 즉, 서버(100)는 제1 사용자의 뇌파 및 제1 사용자의 EAR이 모두 측정되고 있지 않은 것으로 확인되면, 학습 콘텐츠의 재생이 즉시 정지되도록 제어할 수 있다.On the other hand, if it is confirmed in step S506 that the EAR of the first user is not being measured, in step S508 , the
도 6은 일실시예에 따른 사용자의 집중도에 따라 구간 별로 재학습이 수행되도록 제어하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of controlling re-learning to be performed for each section according to a user's concentration level according to an embodiment.
도 6을 참조하면, 먼저, S601 단계에서, 서버(100)는 제1 사용자의 뇌파에 대한 변화, 눈 깜빡임 상태 및 응시 상태를 기초로, 학습 콘텐츠의 재생 시간에 따라 변화하는 제1 사용자의 집중도를 산출할 수 있다. 이때, 제1 사용자의 집중도는 도 4에 도시된 사용자의 집중도(410)와 같이, 학습 콘텐츠의 진행 시간에 따라 변화하는 시계열성을 가질 수 있다.Referring to FIG. 6 , first, in step S601 , the
S602 단계에서, 서버(100)는 제1 사용자의 집중도를 기초로, 학습 콘텐츠에 대한 집중도 상위 구간, 집중도 보통 구간 및 집중도 하위 구간을 구분하여 분류할 수 있다. 이때, 제1 사용자의 집중도에서 분류된 집중도 상위 구간, 집중도 보통 구간 및 집중도 하위 구간은 도 4에 도시된 집중도 상위 구간(411), 집중도 보통 구간(412) 및 집중도 하위 구간(413)와 같이, 미리 정의된 기준 집중도(상위 임계 집중도 및 하위 임계 집중도)에 따라 구분되어 분류될 수 있다. In step S602 , the
S603 단계에서, 서버(100)는 집중도 하위 구간으로 분류된 하나 이상의 구간 중 제1 구간의 길이를 확인할 수 있다. 이때, 서버(100)는 집중도 하위 구간으로 분류된 구간들 중 가장 시간 길이가 긴 구간을 제1 구간으로 선정하여, 제1 구간의 시간 길이를 확인할 수 있다.In step S603, the
S604 단계에서, 서버(100)는 제1 구간의 길이가 제1 시간 간격 보다 짧은지 여부를 확인할 수 있다. 여기서, 제1 시간 간격은 학습 콘텐츠의 내용, 난이도, 대상 학년 등에 따라 상이하게 설정될 수 있다In step S604 , the
S604 단계에서 제1 구간의 길이가 제1 시간 간격 보다 짧은 것으로 확인되면, S605 단계에서, 서버(100)는 제1 구간에 대한 재학습이 필요하지 않은 것으로 판단할 수 있다.If it is determined in step S604 that the length of the first section is shorter than the first time interval, in step S605, the
S604 단계에서 제1 구간의 길이가 제1 시간 간격 보다 긴 것으로 확인되면, S606 단계에서, 서버(100)는 제1 구간의 길이가 제2 시간 간격 보다 짧은지 여부를 확인할 수 있다. 여기서, 제2 시간 간격은 제1 시간 간격 보다 큰 값으로 설정될 수 있다.If it is determined in step S604 that the length of the first section is longer than the first time interval, in step S606, the
S606 단계에서 제1 구간의 길이가 제2 시간 간격 보다 짧은 것으로 확인되면, S607 단계에서, 서버(100)는 제1 구간에 대한 테스트가 필요한 것으로 판단할 수 있다.If it is determined in step S606 that the length of the first section is shorter than the second time interval, in step S607, the
S608 단계에서, 서버(100)는 제1 구간에 대한 테스트가 필요한 것으로 판단되면, 제1 구간의 학습 내용을 테스트하기 위한 시험 문제가 제1 사용자 단말의 화면에서 표시되도록 제어할 수 있다.In step S608 , if it is determined that the test for the first section is necessary, the
일실시예에 따르면, 서버(100)는 제1 구간의 학습 내용을 테스트하기 위한 시험 문제를 통해, 제1 구간에 대한 테스트를 수행한 결과, 테스트를 통과한 것으로 확인되면, S605 단계를 수행하여, 제1 구간에 대한 재학습이 필요하지 않은 것으로 판단할 수 있으며, 테스트를 통과하지 못한 것으로 확인되면, S609 단계를 수행하여, 제1 구간에 대한 재학습이 필요한 것으로 판단할 수 있다.According to one embodiment, when it is confirmed that the
한편, S606 단계에서 제1 구간의 길이가 제2 시간 간격 보다 긴 것으로 확인되면, S609 단계에서, 서버(100)는 제1 구간에 대한 재학습이 필요한 것으로 판단할 수 있다.On the other hand, if it is confirmed in step S606 that the length of the first section is longer than the second time interval, in step S609, the
S610 단계에서, 서버(100)는 제1 구간에 대한 재학습이 필요한 것으로 판단되면, 제1 수간이 제1 사용자 단말(111)의 화면에서 다시 재생되도록 제어할 수 있다.In step S610 , if it is determined that re-learning for the first section is necessary, the
일실시예에 따르면, 서버(100)는 제1 구간 이외에 집중도 하위 구간으로 분류된 구간들이 더 있는 것으로 확인되면, 집중도 하위 구간으로 분류된 구간들 중 제1 구간 다음으로 시간 길이가 긴 구간을 제2 구간으로 선정하여, 제2 구간의 시간 길이를 확인할 수 있다. 이후, 서버(100)는 제2 구간에 대한 길이를 통해 제2 구간에 대한 재학습이 필요한지 여부를 판단할 수 있다. 즉, 서버(100)는 집중도 하위 구간으로 분류된 구간들 각각에 대해 재학습이 필요한지 여부를 판단할 수 있으며, 재학습이 필요한 구간들만 선별하여 제1 사용자 단말(111)의 화면에서 다시 재생되도록 제어할 수 있다.According to one embodiment, when it is confirmed that there are more sections classified into the concentration subsection in addition to the first section, the
도 7은 일실시예에 따른 사용자가 학습에 집중하지 않을 때의 1차 대응 방안을 제공하는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of providing a first response method when a user does not concentrate on learning according to an exemplary embodiment.
도 7을 참조하면, 먼저, S701 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 획득된 영상 정보를 기초로, 제1 사용자의 시선이 어느 지점을 응시하는지 확인하여, 제1 사용자의 시선을 추적할 수 있다.Referring to FIG. 7 , first, in step S701 , the
S702 단계에서, 서버(100)는 제1 사용자의 시선을 추적한 결과, 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는지 여부를 확인할 수 있다. 이때, 제1 사용자 단말(111)은 화면에 학습 콘텐츠를 재생하고 있는 상태이다.In step S702 , as a result of tracking the gaze of the first user, the
S702 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는 것으로 확인되면, 제1 사용자가 제1 사용자 단말(111)의 화면에서 재생되고 있는 학습 콘텐츠를 통해 학습을 수행하고 있는 것으로 판단하여, S701 단계로 되돌아가, 서버(100)는 제1 사용자의 시선을 계속 추적할 수 있다.When it is confirmed that the gaze of the first user is gazing at the screen of the
S702 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있지 않은 것으로 확인되면, S703 단계에서, 서버(100)는 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 벗어난 시점부터 시선 이탈 시간을 측정할 수 있다. 즉, 서버(100)는 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있다가 제1 사용자 단말(111)의 화면을 벗어나 다른 지점을 응시하게 되면, 제1 사용자 단말(111)의 화면을 벗어나 다른 지점을 응시하고 있는 시간을 시선 이탈 시간으로 측정할 수 있다.If it is confirmed in step S702 that the gaze of the first user is not gazing at the screen of the
S704 단계에서, 서버(100)는 시선 이탈 시간이 제1 기준 시간 보다 길게 지속되는지 여부를 확인할 수 있다. 여기서, 제1 기준 시간은 실시예에 따라 상이하게 설정될 수 있다.In step S704 , the
S704 단계에서 시선 이탈 시간이 제1 기준 시간 보다 짧게 지속된 것으로 확인되면, 제1 사용자가 일시적으로 제1 사용자 단말(111)의 화면을 벗어나 다른 지점을 응시한 것으로 판단하여, S701 단계로 되돌아가, 서버(100)는 제1 사용자의 시선을 계속 추적할 수 있다.If it is confirmed that the gaze departure time is shorter than the first reference time in step S704, it is determined that the first user temporarily leaves the screen of the
S704 단계에서 시선 이탈 시간이 제1 기준 시간 보다 길게 지속된 것으로 확인되면, S709 단계에서, 서버(100)는 제1 사용자가 제1 사용자 단말(111)에서 재생중인 학습 콘텐츠를 통해 학습을 수행하고 있지 않아 학습에 집중하지 못하는 상태로 판단할 수 있다.If it is confirmed in step S704 that the gaze departure time is longer than the first reference time, in step S709, the
한편, S705 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 획득된 영상 정보를 기초로, 제1 사용자의 눈을 인식하여, 제1 사용자의 EAR을 측정할 수 있다.Meanwhile, in step S705 , the
S706 단계에서, 서버(100)는 제1 사용자의 EAR을 측정한 결과, 제1 사용자의 눈이 감겨져 있는지 여부를 확인할 수 있다. 이때, 제1 사용자 단말(111)은 화면에 학습 콘텐츠를 재생하고 있는 상태이다.In step S706 , the
S706 단계에서 제1 사용자의 눈이 감겨져 있지 않은 것으로 확인되면, 제1 사용자가 제1 사용자 단말(111)의 화면에서 재생되고 있는 학습 콘텐츠를 통해 학습을 수행하고 있는 것으로 판단하여, S705 단계로 되돌아가, 서버(100)는 제1 사용자의 EAR을 계속 측정할 수 있다.If it is determined in step S706 that the eyes of the first user are not closed, it is determined that the first user is learning through the learning content being reproduced on the screen of the
S706 단계에서 제1 사용자의 눈이 감겨져 있는 것으로 확인되면, S707 단계에서, 서버(100)는 제1 사용자의 눈이 감겨진 시점부터 졸음 시간을 측정할 수 있다. 즉, 서버(100)는 제1 사용자의 눈이 뜬 상태로 있다가 감은 상태로 변경되면, 감은 상태로 유지되고 있는 시간을 졸음 시간으로 측정할 수 있다.If it is determined in step S706 that the eyes of the first user are closed, in step S707 , the
S708 단계에서, 서버(100)는 졸음 시간이 제1 기준 시간 보다 길게 지속되는지 여부를 확인할 수 있다.In step S708 , the
S708 단계에서 졸음 시간이 제1 기준 시간 보다 짧게 지속된 것으로 확인되면, 제1 사용자가 일시적으로 눈을 감았다 뜬 것으로 판단하여, S705 단계로 되돌아가, 서버(100)는 제1 사용자의 EAR을 계속 측정할 수 있다.If it is confirmed in step S708 that the drowsiness time is shorter than the first reference time, it is determined that the first user has temporarily closed and opened their eyes, and the process returns to step S705, and the
S708 단계에서 졸음 시간이 제1 기준 시간 보다 길게 지속된 것으로 확인되면, S709 단계에서, 서버(100)는 제1 사용자가 제1 사용자 단말(111)에서 재생중인 학습 콘텐츠를 통해 학습을 수행하고 있지 않아 학습에 집중하지 못하는 상태로 판단할 수 있다.If it is confirmed in step S708 that the drowsiness time lasts longer than the first reference time, in step S709, the
S710 단계에서, 서버(100)는 제1 사용자 단말(111)에서 재생중인 학습 콘텐츠의 재생이 정지되도록 제어하고, 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력되도록 제어할 수 있다. 이때, 제1 사용자 단말(111)은 집중 필요 알림 메시지를 소리로 출력하여, 사용자가 다시 학습에 집중하도록 유도할 수 있다.In step S710 , the
도 8은 일실시예에 따른 사용자가 학습에 집중하지 않을 때의 2차 대응 방안을 제공하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of providing a secondary response method when a user does not concentrate on learning according to an exemplary embodiment.
도 8을 설명하는데 있어, 도 7과 중복되는 내용은 생략하기로 한다.In the description of FIG. 8 , the contents overlapping those of FIG. 7 will be omitted.
도 8을 참조하면, S801 단계에서, 서버(100)는 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력된 이후, 제1 사용자의 시선을 다시 추적할 수 있다.Referring to FIG. 8 , in step S801 , the
S802 단계에서, 서버(100)는 제1 사용자의 시선을 추적한 결과, 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는지 여부를 확인할 수 있다. 이때, 제1 사용자 단말(111)은 학습 콘텐츠의 재생이 정지되어, 대기 상태이다.In step S802 , as a result of tracking the gaze of the first user, the
S802 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는 것으로 확인되면, 제1 사용자가 학습에 집중할 준비가 된 것으로 판단하여, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 다시 재생되도록 제어할 수 있다. 이후, S801 단계로 되돌아가, 서버(100)는 제1 사용자의 시선을 계속 추적할 수 있다.When it is confirmed that the gaze of the first user is gazing at the screen of the
S802 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있지 않은 것으로 확인되면, S803 단계에서, 서버(100)는 S703 단계에서 측정된 시선 이탈 시간에 이어서, 시선 이탈 시간을 더 측정할 수 있다.If it is confirmed in step S802 that the gaze of the first user is not gazing at the screen of the
S804 단계에서, 서버(100)는 시선 이탈 시간이 제2 기준 시간 보다 길게 지속되는지 여부를 확인할 수 있다.In step S804, the
S804 단계에서 시선 이탈 시간이 제2 기준 시간 보다 짧게 지속된 것으로 확인되면, 제1 사용자가 학습에 집중할 준비가 된 것으로 판단하여, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 다시 재생되도록 제어할 수 있다. 이후, S801 단계로 되돌아가, 서버(100)는 제1 사용자의 시선을 계속 추적할 수 있다.When it is confirmed that the gaze departure time is shorter than the second reference time in step S804, it is determined that the first user is ready to focus on learning, and the
S804 단계에서 시선 이탈 시간이 제2 기준 시간 보다 길게 지속된 것으로 확인되면, S809 단계에서, 서버(100)는 제1 사용자가 학습에 집중하지 못해 제1 사용자에 대한 학습 지도가 필요한 것으로 판단할 수 있다.If it is confirmed in step S804 that the gaze departure time continues longer than the second reference time, in step S809, the
한편, S805 단계에서, 서버(100)는 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력된 이후, 제1 사용자의 EAR을 다시 측정할 수 있다.Meanwhile, in step S805 , the
S806 단계에서, 서버(100)는 제1 사용자의 EAR을 측정한 결과, 제1 사용자의 눈이 감겨져 있는지 여부를 확인할 수 있다. 이때, 제1 사용자 단말(111)은 학습 콘텐츠의 재생이 정지되어, 대기 상태이다.In step S806 , as a result of measuring the EAR of the first user, the
S806 단계에서 제1 사용자의 눈이 감겨져 있지 않은 것으로 확인되면, 제1 사용자가 학습에 집중할 준비가 된 것으로 판단하여, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 다시 재생되도록 제어할 수 있다. 이후, S805 단계로 되돌아가, 서버(100)는 제1 사용자의 EAR을 계속 측정할 수 있다.If it is determined that the eyes of the first user are not closed in step S806 , it is determined that the first user is ready to concentrate on learning, and the
S806 단계에서 제1 사용자의 눈이 감겨져 있는 것으로 확인되면, S807 단계에서, 서버(100)는 S707 단계에서 측정된 졸음 시간에 이어서, 졸음 시간을 더 측정할 수 있다.If it is determined in step S806 that the eyes of the first user are closed, in step S807 , the
S808 단계에서, 서버(100)는 졸음 시간이 제2 기준 시간 보다 길게 지속되는지 여부를 확인할 수 있다.In step S808 , the
S808 단계에서 졸음 시간이 제2 기준 시간 보다 짧게 지속된 것으로 확인되면, 제1 사용자가 학습에 집중할 준비가 된 것으로 판단하여, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 다시 재생되도록 제어할 수 있다. 이후, S805 단계로 되돌아가, 서버(100)는 제1 사용자의 EAR을 계속 측정할 수 있다.If it is determined that the drowsiness time is shorter than the second reference time in step S808 , it is determined that the first user is ready to focus on learning, and the
S808 단계에서 졸음 시간이 제2 기준 시간 보다 길게 지속된 것으로 확인되면, S809 단계에서, 서버(100)는 제1 사용자가 학습에 집중하지 못해 제1 사용자에 대한 학습 지도가 필요한 것으로 판단할 수 있다.If it is confirmed in step S808 that the drowsiness time lasts longer than the second reference time, in step S809, the
S810 단계에서, 서버(100)는 제1 사용자에 대한 학습 지도가 필요한 것으로 판단되면, 제1 사용자의 학습 지도를 요청하는 학습 지도 요청 메시지를 보호자 단말로 전송할 수 있다. 이때, 서버(100)는 제1 사용자의 보호자 연락처 정보를 확인하여, 학습 지도 요청 메시지를 보호자 단말로 전송할 수 있다.In step S810 , if it is determined that the learning guidance for the first user is required, the
즉, 서버(100)는 제1 사용자가 학습에 집중하지 못하는 경우, 1차 대응 방안으로. 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력되도록 제어할 수 있으며, 집중 알림 메시지의 출력 이후에도 제1 사용자가 여전히 학습에 집중하지 못하는 경우, 2차 대응 방안으로, 학습 지도 요청 메시지를 보호자 단말로 전송할 수 있다.That is, when the first user cannot concentrate on learning, the
S710 단계에서, 서버(100)는 제1 사용자 단말(111)에서 재생중인 학습 콘텐츠의 재생이 정지되도록 제어하고, 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력되도록 제어할 수 있다. 이때, 제1 사용자 단말(111)은 집중 필요 알림 메시지를 소리로 출력하여, 사용자가 다시 학습에 집중하도록 유도할 수 있다.In step S710 , the
도 9는 일실시예에 따른 뇌파 측정 장치의 표면을 분류하는 과정을 설명하기 위한 순서도이다.9 is a flowchart for explaining a process of classifying a surface of an EEG measuring apparatus according to an embodiment.
도 9를 참조하면, 먼저 S901 단계에서, 서버(100)는 라이다를 통해 제1 뇌파 측정 장치(131)의 표면에 대한 3D 데이터를 획득할 수 있다. 여기서, 3D 데이터는 제1 뇌파 측정 장치(131)의 표면에 대한 3D 이미지이다. 이를 위해, 서버(100)는 라이다가 장착된 제1 사용자 단말(111)과 유무선을 통해 연결될 수 있다.Referring to FIG. 9 , first, in step S901 , the
S902 단계에서, 서버(100)는 카메라를 통해 제1 뇌파 측정 장치(131)의 표면에 대한 2D 데이터를 획득할 수 있다. 여기서, 2D 데이터는 제1 뇌파 측정 장치(131)의 표면에 대한 2D 이미지이다. 이를 위해, 서버(100)는 카메라가 장착된 제1 사용자 단말(111)과 유무선을 통해 연결될 수 있다.In step S902, the
S903 단계에서, 서버(100)는 2D 데이터와 3D 데이터의 합집합 영역을 분리하여, 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출할 수 있다.In step S903 , the
구체적으로, 서버(100)는 2D 데이터와 3D 데이터를 비교하여, 서로 중복되는 합집합 영역을 파악할 수 있으며, 2D 데이터에서 합집합 영역을 분리하고 3D 데이터에서 합집합 영역을 분리하여, 분리된 합집합 영역을 병합하여 제1 데이터를 추출할 수 있다. 여기서, 제1 데이터는 4채널로 구성될 수 있으며, 3채널은 RGB 값을 나타내는 2D 데이터이고, 1채널은 3D 깊이 값을 나타내는 데이터일 수 있다.Specifically, the
서버(100)는 제1 데이터를 인코딩하여 제1 입력 신호를 생성할 수 있다.The
구체적으로, 서버(100)는 제1 데이터의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 서버(100)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1 데이터를 인코딩할 수 있다.Specifically, the
서버(100)는 제1 입력 신호를 서버(100) 내 미리 학습된 제3 인공지능에 입력할 수 있다.The
일실시예에 따른 제3 인공지능은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The third artificial intelligence according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network stacks an input signal with a convolutional layer and a pooling layer sequentially. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 뇌파 측정 장치의 표면의 거칠기 단계를 분류를 위한 제3 인공지능의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 뇌파 측정 장치의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제3 인공지능에 대한 자세한 설명은 도 11을 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. The third artificial intelligence classification neural network for classifying the roughness level of the surface of the EEG measuring device consists of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of one output layer node of the classification neural network, and an output value for the classification of the surface of the EEG measuring device may be output to the output layer node. A detailed description of the third artificial intelligence will be described later with reference to FIG. 11 .
서버(100)는 제3 인공지능의 입력의 결과에 기초하여, 제1 출력 신호를 획득할 수 있다.The
S904 단계에서, 서버(100)는 제1 출력 신호에 기초하여, 제1 뇌파 측정 장치(131)의 표면에 대한 제1 분류 결과를 생성할 수 있다. 여기서, 제1 분류 결과는 제1 뇌파 측정 장치(131)의 표면이 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In step S904 , the
예를 들어, 서버(100)는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 뇌파 측정 장치(131)의 표면이 1단계에 해당하는 것으로 제1 분류 결과를 생성하고, 출력값이 2인 경우, 제1 뇌파 측정 장치(131)의 표면이 2단계에 해당하는 것으로 제1 분류 결과를 생성할 수 있다. 단계가 올라갈수록 제1 뇌파 측정 장치(131)의 표면이 더 거칠어진다는 것을 파악할 수 있다.For example, the
S905 단계에서, 서버(100)는 제1 데이터를 분석하여 제1 뇌파 측정 장치(131)의 표면에 발생한 균열을 검출할 수 있다. 균열 검출 시에는 이미지 분석을 통해 일정 크기 이상으로 확인된 부분만 제1 뇌파 측정 장치(131)의 표면에 발생한 균열로 검출할 수 있다.In step S905 , the
S906 단계에서, 서버(100)는 제1 뇌파 측정 장치(131)의 표면에 발생한 균열을 영역별로 확인하여, 정상 영역과 손상 영역을 구분할 수 있다.In step S906 , the
구체적으로, 서버(100)는 제1 데이터를 제1 영역, 제2 영역 등의 복수의 영역으로 구분하여, 각각의 영역 별로 균열이 몇 개씩 검출되었는지 확인할 수 있으며, 제1 설정값 미만으로 균열이 검출된 영역을 정상 영역으로 구분하고, 제1 설정값 이상으로 균열이 검출된 영역을 손상 영역으로 구분할 수 있다. 이때, 제1 설정값은 실시예에 따라 상이하게 설정될 수 있다.Specifically, the
S907 단계에서, 서버(100)는 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출할 수 있다.In step S907 , the
예를 들어, 제1 데이터에 있는 이미지가 제1 영역, 제2 영역 및 제3 영역으로 구성되어 있는데, 제1 영역은 손상 영역으로 구분되고, 제2 영역 및 제3 영역은 정상 영역으로 구분된 경우, 서버(100)는 제2 영역 및 제3 영역만 포함된 이미지를 제2 데이터로 추출할 수 있다.For example, the image in the first data consists of a first region, a second region, and a third region, wherein the first region is divided into a damaged region, and the second region and the third region are divided into a normal region. In this case, the
서버(100)는 제2 데이터를 인코딩하여 제2 입력 신호를 생성할 수 있다.The
구체적으로, 서버(100)는 제2 데이터의 픽셀을 색 정보로 인코딩하여 제2 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 서버(100)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제2 데이터를 인코딩할 수 있다.Specifically, the
서버(100)는 제2 입력 신호를 서버(100) 내 미리 학습된 제4 인공지능에 입력할 수 있다.The
일실시예에 따른 제4 인공지능은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The fourth artificial intelligence according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks a convolutional layer and a pooling layer on an input signal. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 뇌파 측정 장치의 표면의 거칠기 단계를 분류를 위한 제4 인공지능의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 뇌파 측정 장치의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제4 인공지능에 대한 자세한 설명은 도 11을 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. The fourth artificial intelligence classification neural network for classifying the roughness level of the surface of the EEG measurement device consists of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of one output layer node of the classification neural network, and an output value for the classification of the surface of the EEG measuring device may be output to the output layer node. A detailed description of the fourth artificial intelligence will be described later with reference to FIG. 11 .
서버(100)는 제4 인공지능의 입력의 결과에 기초하여, 제2 출력 신호를 획득할 수 있다.The
S908 단계에서, 서버(100)는 제2 출력 신호에 기초하여, 제1 뇌파 측정 장치(131)의 표면에 대한 제2 분류 결과를 생성할 수 있다. 여기서, 제2 분류 결과는 제1 뇌파 측정 장치(131)의 표면이 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In step S908 , the
예를 들어, 서버(100)는 제2 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 뇌파 측정 장치(131)의 표면이 1단계에 해당하는 것으로 제2 분류 결과를 생성하고, 출력값이 2인 경우, 제1 뇌파 측정 장치(131)의 표면이 2단계에 해당하는 것으로 제2 분류 결과를 생성할 수 있다.For example, the
S909 단계에서, 서버(100)는 제1 분류 결과 및 제2 분류 결과를 기초로, 제1 뇌파 측정 장치(131)의 표면에 대한 최종 분류 결과를 설정할 수 있다.In step S909 , the
구체적으로, 제1 분류 결과 및 제2 분류 결과가 동일한 경우, 서버(100)는 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 제1 뇌파 측정 장치(131)의 표면에 대한 최종 분류 결과로 설정할 수 있다.Specifically, when the first classification result and the second classification result are the same, the
서버(100)는 제1 뇌파 측정 장치(131)의 표면에 대한 최종 분류 결과를 기초로, 제1 뇌파 측정 장치(131)의 표면에 흠집이 생겼는지 여부를 파악할 수 있다.The
도 10은 일실시예에 따른 제1 인공지능 및 제2 인공지능의 학습을 설명하기 위한 도면이다.10 is a diagram for explaining learning of a first artificial intelligence and a second artificial intelligence according to an embodiment.
제1 인공지능 및 제2 인공지능은 서버(100)에 포함되는 구성일 수 있으며, 서버(100) 또는 별도의 학습 장치를 통해서 학습될 수 있다.The first artificial intelligence and the second artificial intelligence may be components included in the
제1 인공지능은 각각의 계정 사용자를 위한 학습 콘텐츠를 생성하도록 학습될 수 있다.The first artificial intelligence may be trained to generate learning content for each account user.
제2 인공지능은 학습 콘텐츠별로 학습 콘텐츠 집중도의 집중도 상위 구간 및 집중도 하위 구간을 구분하는 기준 집중도를 출력하도록 학습될 수 있다.The second artificial intelligence may be trained to output a reference degree of concentration for classifying an upper section and a lower section of concentration of the learning content for each learning content.
이하에서는 학습 장치를 통해 제1 인공지능 및 제2 인공지능이 학습되는 과정을 설명한다.Hereinafter, a process in which the first artificial intelligence and the second artificial intelligence are learned through the learning device will be described.
우선, S1001 단계에서, 학습 장치는 트레이닝 데이터(training data)와 레이블(label)을 획득할 수 있다.First, in step S1001, the learning apparatus may obtain training data and a label.
제1 인공지능의 학습을 위해, 학습 장치는 각각의 사용자의 나이, 성별, 지역, 학습 성취도, 수강 과목, 미수강 과목, 수강 희망 과목, 선호하는 과목, 비선호 과목, 각각의 학습 콘텐츠 학습 시 사용자의 뇌파 정보 등을 포함하는 데이터 세트를 각각의 트레이닝 데이터로 획득할 수 있다. 또한, 학습 장치는 각각의 사용자의 기본 정보를 기초로 전문 교육 컨설턴트들이 추천한 각각의 사용자를 위한 학습 콘텐츠를 각각의 트레이닝 데이터에 대응하는 레이블로 획득할 수 있다.For the learning of the first artificial intelligence, the learning device determines each user's age, gender, region, learning achievement, subjects to be taken, subjects not taken, subjects to be taken, preferred subjects, non-preferred subjects, and the user when learning each learning content. It is possible to obtain a data set including the brain wave information of each of the training data. In addition, the learning apparatus may acquire, as a label corresponding to each training data, learning content for each user recommended by professional education consultants based on the basic information of each user.
제2 인공지능의 학습을 위해, 학습 장치는 각각의 학습 콘텐츠의 학습 주제, 학습 난이도, 학습 콘텐츠를 수강하는 사용자들의 평균 연령, 그 동안 학습 콘텐츠를 수강한 사용자들의 뇌파 정보 등을 포함하는 데이터 세트를 각각의 트레이닝 데이터로 획득할 수 있다. 또한, 학습 장치는 학습 콘텐츠별로 미리 지정된 성적 상위 사용자 그룹의 학습 콘텐츠 집중도 평균으로부터 미리 정의된 +σ 표준편차 벗어난 집중도를 상위 임계 집중도(집중도 상위 구간을 구분하는 기준)로, 미리 정의된 -σ 표준편차 벗어난 집중도를 하위 임계 집중도(집중도 하위 구간을 구분하는 기준)로 하는 각각의 트레이닝 데이터에 대응하는 레이블로 획득할 수 있다.For the learning of the second artificial intelligence, the learning device is a data set including the learning topic of each learning content, the learning difficulty, the average age of users who take the learning content, brain wave information of users who have taken the learning content, etc. can be obtained as each training data. In addition, the learning device sets the concentration out of the predefined +σ standard deviation from the average of the concentration level of the learning content of the high-ranking user group specified for each learning content as the upper threshold concentration level (a criterion for classifying the upper level of concentration), and sets the pre-defined -σ standard The concentration deviating from the deviation may be obtained as a label corresponding to each training data using the lower threshold concentration (a criterion for classifying the concentration subsection).
S1002 단계에서, 학습 장치는 트레이닝 데이터로부터 인공지능의 입력을 생성할 수 있다.In step S1002, the learning apparatus may generate an input of artificial intelligence from the training data.
학습 장치는 트레이닝 데이터를 인공지능의 입력으로 그대로 사용하거나, 각각의 트레이닝 데이터에서 불필요한 정보를 제거하는 통상의 프로세스를 거친 후, 인공지능의 입력을 생성할 수 있다.The learning apparatus may use the training data as it is as an input of artificial intelligence, or may generate an input of artificial intelligence after a normal process of removing unnecessary information from each training data.
S1003 단계에서, 학습 장치는 입력을 인공지능에 적용할 수 있다.In step S1003, the learning device may apply the input to the artificial intelligence.
서버(100)에 포함된 인공지능은 지도 학습(supervised learning)에 따라 학습되는 인공지능일 수 있다. 인공지능은 지도 학습을 통해 학습시키기에 적합한 컨볼루션 신경망(convolutional neural network, CNN) 또는 리커런트 신경망(recurrent neural network, RNN) 구조일 수 있다.The artificial intelligence included in the
S1004 단계에서, 학습 장치는 인공지능으로부터 출력을 획득할 수 있다.In step S1004, the learning apparatus may obtain an output from artificial intelligence.
제1 인공지능의 출력은, 각각의 계정 사용자를 위한 학습 콘텐츠 추천일 수 있다. 제2 인공지능의 출력은, 학습 콘텐츠별 집중도 상위 구간 및 집중도 하위 구간을 구분하는 임계 상위 집중도 및 임계 하위 집중도의 추론일 수 있다.The output of the first artificial intelligence may be a learning content recommendation for each account user. The output of the second artificial intelligence may be an inference of a threshold upper concentration level and a threshold lower concentration level that distinguishes an upper concentration section and a lower concentration level section for each learning content.
S1005 단계에서, 학습 장치는 출력과 레이블을 비교할 수 있다. 추론에 해당하는 인공지능의 출력과 정답에 해당하는 레이블을 비교하는 과정은 손실함수(loss function)를 계산하여 이루어질 수 있다. 손실함수는 기 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 인공지능의 출력과 레이블 간의 편차, 오차 내지는 차이를 측정할 수 있다면, 다양한 인공지능 모델들에서 이용되는 손실함수들이 이용될 수 있다.In step S1005, the learning apparatus may compare the output with the label. The process of comparing the output of the artificial intelligence corresponding to the inference and the label corresponding to the correct answer may be performed by calculating a loss function. As the loss function, a known mean squared error (MSE), cross entropy error (CEE), etc. may be used. However, the present invention is not limited thereto, and if it is possible to measure the deviation, error, or difference between the output of the artificial intelligence and the label, loss functions used in various artificial intelligence models may be used.
S1006 단계에서, 학습 장치는 비교값을 기초로 인공지능을 최적화할 수 있다. 학습 장치는 비교값이 점점 작아지도록 인공지능의 노드(node)들의 웨이트(weight)를 갱신함으로써, 추론에 해당하는 인공지능의 출력과 정답에 해당하는 레이블을 점점 일치시킬 수 있고, 이를 통해 인공지능은 정답에 가까운 추론을 출력하도록 최적화될 수 있다. 구체적으로, 학습 장치는 비교값에 해당하는 손실함수가 최소값의 추정치에 가까워지도록 인공지능의 웨이트(weight)를 재설정하는 과정을 반복함으로써 인공지능을 최적화할 수 있다. 인공지능의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하위법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.In step S1006, the learning apparatus may optimize the artificial intelligence based on the comparison value. The learning device can gradually match the AI output corresponding to inference and the label corresponding to the correct answer by updating the weight of the artificial intelligence nodes so that the comparison value becomes smaller and smaller, and through this, the artificial intelligence can be optimized to output an inference close to the correct answer. Specifically, the learning apparatus may optimize the artificial intelligence by repeating the process of resetting the weight of the artificial intelligence so that the loss function corresponding to the comparison value approaches the estimated value of the minimum value. For the optimization of AI, a known backpropagation algorithm, stochastic gradient descent, etc. may be used. However, the present invention is not limited thereto, and a weight optimization algorithm used in various neural network models may be used.
학습 장치는 이와 같은 과정을 반복함으로써 인공지능을 학습시킬 수 있다.The learning device can learn artificial intelligence by repeating this process.
이를 통해, 사용자의 기본 정보를 기초로, 사용자를 위한 학습 콘텐츠를 출력하는 제1 인공지능을 학습시킬 수 있다.Through this, based on the basic information of the user, it is possible to learn the first artificial intelligence that outputs the learning content for the user.
또한, 학습 콘텐츠의 학습 주제, 학습 난이도, 학습 콘텐츠를 수강하는 사용자들의 평균 연령, 그 동안 학습 콘텐츠를 수강한 사용자들의 뇌파 정보를 기초로, 학습 콘텐츠별로 학습 콘텐츠 집중도의 집중도 상위 구간 및 집중도 하위 구간을 구분하는 기준 집중도를 출력하는 제2 인공지능을 학습시킬 수 있다.In addition, based on the learning topic of the learning content, the learning difficulty, the average age of users who take the learning content, and the EEG information of users who have taken the learning content during that time, the concentration upper section and the lower concentration section of the learning content concentration for each learning content It is possible to train the second artificial intelligence that outputs the standard concentration level for classifying the .
도 11은 일실시예에 따른 제3 인공지능 및 제4 인공지능을 설명하기 위한 도면이다.11 is a diagram for explaining a third artificial intelligence and a fourth artificial intelligence according to an embodiment.
일실시예에 따른 인공 신경망(1100)은 제3 인공지능 및 제4 인공지능 중 어느 하나일 수 있다. 제3 인공지능인 경우, 제1 데이터의 인코딩에 의해 생성된 제1 입력 신호를 입력으로 하여, 뇌파 측정 장치의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다. 제4 인공지능인 경우, 제2 데이터의 인코딩에 의해 생성된 제2 입력 신호를 입력으로 하여, 뇌파 측정 장치의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다.The artificial
일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.Encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a digitized data sheet, and the color information includes RGB color, brightness information, saturation information, and depth information of one pixel. can, but is not limited to.
일실시예에 따르면, 인공 신경망(1100)은 특징 추출 신경망(1110)과 분류 신경망(1120)으로 구성되어 있으며, 특징 추출 신경망(1110)은 이미지에서 뇌파 측정 장치의 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1120)은 이미지 내에서 뇌파 측정 장치의 표면이 거칠기 단계 중 어느 단계로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.According to an embodiment, the artificial
특징 추출 신경망(1110)이 뇌파 측정 장치의 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 뇌파 측정 장치의 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.In the method for the feature extraction neural network 1110 to distinguish the region and the background region of the EEG measurement device, the change in each value of color information from the data sheet of the input signal encoding the image is at least 6 out of 8 pixels including one pixel. A bundle of pixels that are detected as having a change of 30% or more in , may be used as a boundary between the area of the EEG measurement device and the background area, but is not limited thereto.
특징 추출 신경망(1110)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The feature extraction neural network 1110 proceeds by sequentially stacking a convolutional layer and a pooling layer on the input signal. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.
분류 신경망(1120)은 특징 추출 신경망(1110)을 통해 배경으로부터 구분된 뇌파 측정 장치의 영역의 표면을 확인하고, 미리 정의된 거칠기 단계별 표면 상태와 유사한지 여부를 확인하여, 뇌파 측정 장치의 영역의 표면이 거칠기 단계 중 어느 단계로 분류되는지 여부를 파악할 수 있다. 거칠기 단계별 표면 상태와 비교하기 위해, 서버(100)의 데이터베이스에 저장된 정보들을 활용할 수 있다.The classification
분류 신경망(1120)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.The classification
분류 신경망(1120)는 총 1개의 출력층 노드만 포함할 수 있다.The classification
분류 신경망(1120)의 출력은 뇌파 측정 장치의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 출력값으로, 거칠기 단계 중 어느 단계에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경우, 뇌파 측정 장치의 표면이 1단계에 해당하는 것을 지시하고, 출력값이 2인 경우, 뇌파 측정 장치의 표면이 2단계에 해당하는 것을 지시할 수 있다.The output of the classification
일실시예에 따르면, 인공 신경망(1100)은 사용자가 인공 신경망(1100)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(1100)에 따른 출력의 문제점은 뇌파 측정 장치의 표면에 대해 거칠기 단계 중 다른 단계로 분류한 출력값을 출력한 경우를 의미할 수 있다.According to an embodiment, the artificial
일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(1100)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 12를 참조하여 인공 신경망(1100)의 학습 내용이 후술된다.The first learning signal according to an embodiment is created based on the error between the correct answer and the output value, and in some cases, SGD using delta, a batch method, or a method following a backpropagation algorithm may be used. The artificial
도 12는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.12 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.
일실시예에 따르면, 학습 장치는 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 서버(100)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning apparatus may train the artificial
일실시예에 따르면, 인공 신경망(1100)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 거칠기 단계별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(1100)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the artificial
학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 인공 신경망(1100)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning apparatus may train the artificial
학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(1100) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning apparatus may calculate a training error using a predefined loss function. The loss function may be predefined with a label, an output, and a parameter as input variables, where the parameter may be set by weights in the artificial
학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(1100) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning apparatus may find weights affecting the training error by using a backpropagation technique. Here, the weights are relationships between nodes in the artificial
일실시예에 따르면, 학습 장치는 서버(100)의 데이터베이스로부터 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1201)을 획득할 수 있다. 학습 장치는 거칠기 단계별 대표 이미지들(1201)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 거칠기 단계별 대표 이미지들(1201)은 미리 분류된 거칠기 단계에 따라 레이블링될 수 있다.According to an embodiment, the learning apparatus may obtain
일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1201)을 획득할 수 있으며, 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1201)에 기초하여 제1 트레이닝 거칠기 단계별 벡터들(1202)을 생성할 수 있다. 제1 트레이닝 거칠기 단계별 벡터들(1202)을 추출하는데는 다양한 방식이 채용될 수 있다.According to an embodiment, the learning apparatus may obtain 1000 labeled training roughness step-by-
일실시예에 따르면, 학습 장치는 제1 트레이닝 거칠기 단계별 벡터들(1202)을 인공 신경망(1100)에 적용하여 제1 트레이닝 출력들(1203)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1203)과 제1 레이블들(1204)에 기초하여 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1203)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(1100) 내 노드들의 연결 관계를 최적화하여 인공 신경망(1100)을 학습시킬 수 있다.According to an embodiment, the learning apparatus may obtain the
도 13은 일실시예에 따른 장치의 구성의 예시도이다.13 is an exemplary diagram of a configuration of an apparatus according to an embodiment.
일실시예에 따른 장치(1300)는 프로세서(1310) 및 메모리(1320)를 포함한다. 프로세서(1310)는 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(1300)를 이용하는 자 또는 단체는 도 1 내지 도 12를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.The
메모리(1320)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(1320)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The
프로세서(1310)는 프로그램을 실행하고, 장치(1300)를 제어할 수 있다. 프로세서(1310)에 의하여 실행되는 프로그램의 코드는 메모리(1320)에 저장될 수 있다. 장치(1300)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The
장치(1300)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(1320)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(1310)는 메모리(1320)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(1300)와 학습된 인공 신경망을 이용하는 장치(1300)는 동일할 수도 있고 개별적일 수도 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (3)
제1 사용자가 착용한 제1 뇌파 측정 장치에서 상기 제1 사용자의 뇌파를 측정하면, 상기 제1 뇌파 측정 장치와 연결된 제1 사용자 단말로부터, 상기 제1 뇌파 측정 장치에서 측정된 상기 제1 사용자의 뇌파를 획득하는 단계;
상기 제1 사용자의 뇌파를 기초로, 상기 제1 사용자의 상태가 양호한지 여부를 분석하는 단계;
상기 제1 사용자의 상태가 양호하지 않은 것으로 확인되면, 상기 제1 사용자 단말로 명상 콘텐츠를 제공하여, 상기 제1 사용자 단말의 화면에서 상기 명상 콘텐츠가 재생되도록 제어하는 단계;
상기 제1 사용자의 상태가 양호한 것으로 확인되면, 상기 제1 사용자 단말에 장착된 카메라가 동작하여 촬영을 시작하도록 제어하는 단계;
상기 제1 사용자 단말에서 상기 제1 사용자의 얼굴을 촬영하면, 상기 제1 사용자 단말로부터 상기 제1 사용자의 얼굴 영상을 획득하는 단계;
상기 제1 사용자의 얼굴 영상에서 상기 제1 사용자의 눈을 인식하여, 상기 제1 사용자의 시선을 추적하는 단계;
상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있는지 여부를 확인하는 단계;
상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있는 것으로 확인되면, 상기 제1 사용자 단말로 학습 콘텐츠를 제공하여, 상기 제1 사용자 단말의 화면에서 상기 학습 콘텐츠가 재생되도록 제어하는 단계;
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 뇌파를 상기 제1 뇌파 측정 장치와 연결된 제1 사용자 단말로부터 획득하면서, 상기 제1 사용자의 얼굴 영상을 상기 제1 사용자 단말로부터 획득하고, 상기 제1 사용자의 얼굴 영상에서 상기 제1 사용자의 눈을 인식하여, 상기 제1 사용자의 시선을 추적하고 상기 제1 사용자의 EAR(Eye Aspect Ratio)을 측정하는 단계;
상기 학습 콘텐츠에 대한 재생이 완료되면, 상기 학습 콘텐츠가 재생되는 동안 측정된 상기 제1 사용자의 뇌파에 대한 변화를 확인하고, 상기 학습 콘텐츠가 재생되는 동안 측정된 상기 제1 사용자의 EAR에 대한 변화를 통해 눈 깜빡임 상태를 확인하고, 상기 학습 콘텐츠가 재생되는 동안 추적된 상기 제1 사용자의 시선 변화를 통해 화면을 응시한 응시 상태를 확인하는 단계; 및
상기 제1 사용자의 뇌파에 대한 변화, 상기 눈 깜빡임 상태 및 상기 응시 상태를 기초로, 학습을 수행한 시간을 분석하여, 상기 학습 콘텐츠에 대한 상기 제1 사용자의 집중도를 산출하는 단계를 포함하며,
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 시선을 추적하고 상기 제1 사용자의 EAR을 측정하는 단계는,
상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있지 않은 것으로 확인되면, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 벗어난 시점부터 시선 이탈 시간을 측정하는 단계;
상기 제1 사용자의 EAR을 측정한 결과, 상기 제1 사용자의 눈이 감겨져 있는 것으로 확인되면, 상기 제1 사용자의 눈이 감겨진 시점부터 졸음 시간을 측정하는 단계;
상기 시선 이탈 시간 및 상기 졸음 시간 중 어느 하나가 미리 설정된 제1 기준 시간 보다 길게 지속된 것으로 확인되면, 상기 제1 사용자가 상기 학습 콘텐츠를 통해 학습을 수행하고 있지 않아 학습에 집중하지 못하는 상태로 판단하는 단계;
상기 제1 사용자가 학습을 수행하고 있지 않은 것으로 판단되면, 상기 학습 콘텐츠의 재생이 정지되고, 상기 제1 사용자 단말에서 집중 필요 알림 메시지가 출력되도록 제어하는 단계;
상기 시선 이탈 시간 및 상기 졸음 시간 중 어느 하나가 미리 설정된 제2 기준 시간 보다 길게 지속된 것으로 확인되면, 상기 제1 사용자에 대한 학습 지도가 필요한 것으로 판단하는 단계; 및
상기 제1 사용자에 대한 학습 지도가 필요한 것으로 판단되면, 상기 제1 사용자의 학습 지도를 요청하는 학습 지도 요청 메시지를 보호자 단말로 전송하는 단계를 포함하며,
상기 제1 사용자의 집중도를 산출하는 단계는,
상기 제1 사용자의 뇌파에 대한 변화, 상기 눈 깜빡임 상태 및 상기 응시 상태를 기초로, 상기 학습 콘텐츠의 재생 시간에 따라 변화하는 상기 제1 사용자의 집중도를 산출하는 단계;
상기 제1 사용자의 집중도를 기초로, 상기 학습 콘텐츠에 대한 집중도 상위 구간, 집중도 보통 구간 및 집중도 하위 구간을 구분하여 분류하는 단계;
상기 집중도 하위 구간 중 제1 구간의 길이가 미리 설정된 제1 시간 간격 보다 짧은지 여부를 확인하는 단계;
상기 제1 구간의 길이가 상기 제1 시간 간격 보다 짧은 것으로 확인되면, 상기 제1 구간에 대한 재학습이 필요하지 않은 것으로 판단하는 단계;
상기 제1 구간의 길이가 상기 제1 시간 간격 보다 긴 것으로 확인되면, 상기 제1 구간의 길이가 미리 설정된 제2 시간 간격 보다 짧은지 여부를 확인하는 단계;
상기 제1 구간의 길이가 상기 제2 시간 간격 보다 짧은 것으로 확인되면, 상기 제1 구간에 대한 테스트가 필요한 것으로 판단하는 단계;
상기 제1 구간의 길이가 상기 제2 시간 간격 보다 긴 것으로 확인되면, 상기 제1 구간에 대한 재학습이 필요한 것으로 판단하는 단계;
상기 제1 구간에 대한 테스트가 필요한 것으로 판단되면, 상기 제1 구간의 학습 내용을 테스트하기 위한 시험 문제가 상기 제1 사용자 단말의 화면에서 표시되도록 제어하는 단계; 및
상기 제1 구간에 대한 재학습이 필요한 것으로 판단되면, 상기 제1 구간이 상기 제1 사용자 단말의 화면에서 다시 재생되도록 제어하는 단계를 포함하며,
상기 학습 콘텐츠는 미리 학습된 제1 인공지능을 기초로 생성되고,
상기 집중도 상위 구간 및 상기 집중도 하위 구간을 구분하는 미리 정의된 기준 집중도는 미리 학습된 제2 인공지능의 추론을 기초로 설정되고,
상기 제1 인공지능은 각각의 계정 사용자 별로 학습해야 하는 과목들, 현재까지 학습 성취도, 학습 성취도 변화 추이 및 이전 학습 콘텐츠를 사용할 때의 뇌파 정보를 입력으로 받아, 상기 각각의 계정 사용자를 위한 학습 콘텐츠를 생성하고,
상기 제2 인공지능은 각각의 학습 콘텐츠 별로 학습 주제, 학습 난이도, 학습 콘텐츠를 수강하는 사용자들의 평균 연령 및 학습 콘텐츠를 수강한 사용자들의 뇌파 정보를 입력으로 받아, 상기 집중도 상위 구간을 구분하는 상위 임계 집중도 및 상기 집중도 하위 구간을 구분하는 하위 임계 집중도를 포함하는 상기 기준 집중도를 상기 각각의 학습 콘텐츠별로 출력하는,
뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법.In a method of providing a learning service based on brain waves and blinking, performed by a server,
When the EEG of the first user is measured by the first EEG measurement device worn by the first user, from the first user terminal connected to the first EEG measurement device, the first EEG measured by the first EEG measurement device acquiring an EEG;
analyzing whether the state of the first user is good based on the brain wave of the first user;
when it is confirmed that the first user's condition is not good, providing the meditation content to the first user terminal, and controlling the meditation content to be reproduced on the screen of the first user terminal;
controlling a camera mounted on the first user terminal to operate and start shooting when it is confirmed that the first user's condition is good;
acquiring a face image of the first user from the first user terminal when the first user's face is photographed by the first user terminal;
recognizing the eyes of the first user from the face image of the first user and tracking the gaze of the first user;
as a result of tracking the gaze of the first user, checking whether the gaze of the first user is gazing at the screen of the first user terminal;
When it is confirmed that the gaze of the first user is gazing at the screen of the first user terminal, the learning content is provided to the first user terminal, and the learning content is controlled to be reproduced on the screen of the first user terminal step;
While the learning content is being reproduced in the first user terminal, while acquiring the brain wave of the first user from the first user terminal connected to the first EEG measuring device, the face image of the first user is obtained from the first user terminal obtaining from, recognizing the eyes of the first user from the face image of the first user, tracking the gaze of the first user, and measuring the Eye Aspect Ratio (EAR) of the first user;
When the reproduction of the learning content is completed, a change in the brain wave of the first user measured while the learning content is reproduced is checked, and a change in the EAR of the first user measured while the learning content is being reproduced checking an eye blinking state through , and checking a gaze state gazing at a screen through a gaze change of the first user tracked while the learning content is being played; and
Calculating the concentration of the first user on the learning content by analyzing the learning time based on the change in the brain wave of the first user, the blinking state, and the gaze state,
While the learning content is reproduced in the first user terminal, tracking the gaze of the first user and measuring the EAR of the first user comprises:
As a result of tracking the gaze of the first user, if it is confirmed that the gaze of the first user is not gazing at the screen of the first user terminal, the gaze of the first user deviates from the screen of the first user terminal measuring a gaze departure time from the time point;
measuring the drowsiness time from the time when the eyes of the first user are closed when it is confirmed that the eyes of the first user are closed as a result of measuring the EAR of the first user;
When it is confirmed that any one of the gaze departure time and the drowsiness time lasts longer than a preset first reference time, it is determined that the first user is unable to concentrate on learning because the first user is not learning through the learning content to do;
when it is determined that the first user is not learning, stopping the reproduction of the learning content, and controlling the first user terminal to output a notification message that requires concentration;
determining that a study guide for the first user is necessary when it is confirmed that any one of the gaze departure time and the drowsiness time has been maintained longer than a preset second reference time; and
When it is determined that the learning guidance for the first user is necessary, transmitting a learning guidance request message for requesting the learning guidance of the first user to the guardian terminal,
Calculating the concentration of the first user includes:
calculating a concentration level of the first user that changes according to a reproduction time of the learning content based on the change in the brain wave of the first user, the blinking state, and the gaze state;
classifying and classifying an upper concentration section, a normal concentration section, and a lower concentration section section for the learning content based on the concentration level of the first user;
checking whether a length of a first section among the concentration subsections is shorter than a preset first time interval;
determining that re-learning of the first section is not necessary when it is confirmed that the length of the first section is shorter than the first time interval;
when it is determined that the length of the first section is longer than the first time interval, checking whether the length of the first section is shorter than a preset second time interval;
determining that a test for the first section is necessary when it is confirmed that the length of the first section is shorter than the second time interval;
determining that re-learning of the first section is necessary when it is confirmed that the length of the first section is longer than the second time interval;
when it is determined that the test for the first section is necessary, controlling a test question for testing the learning content of the first section to be displayed on the screen of the first user terminal; and
When it is determined that re-learning of the first section is necessary, controlling the first section to be reproduced again on the screen of the first user terminal,
The learning content is generated based on the first artificial intelligence learned in advance,
The predefined reference concentration level for dividing the concentration upper section and the concentration lower section is set based on the pre-learned inference of the second artificial intelligence,
The first artificial intelligence receives as inputs the subjects to be learned for each account user, learning achievement so far, learning achievement change trend, and EEG information when using previous learning content, learning content for each account user create,
The second artificial intelligence receives as inputs a learning topic, learning difficulty, average age of users who receive learning content, and EEG information of users who receive learning content for each learning content, and a high threshold for classifying the upper section of concentration Outputting the reference concentration level including the concentration level and the sub-threshold concentration level for dividing the concentration sub-section for each of the learning contents,
A method of providing EEG and blink-based learning services.
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 뇌파를 획득하면서, 상기 제1 사용자의 EAR을 측정하는 단계는,
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되면, 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 측정되고 있는지 여부를 확인하는 단계;
상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 모두 측정되고 있는 것으로 확인되면, 상기 제1 사용자의 뇌파와 상기 제1 사용자의 EAR 간에 싱크를 맞추도록 조정하는 단계;
상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR 중 어느 하나가 측정되고 있지 않은 것으로 확인되면, 미리 설정된 대기 시간 이후 상기 학습 콘텐츠의 재생이 정지되도록 제어하는 단계; 및
상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 모두 측정되고 있지 않은 것으로 확인되면, 상기 학습 콘텐츠의 재생이 즉시 정지되도록 제어하는 단계를 포함하는,
뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법.The method of claim 1,
Measuring the EAR of the first user while acquiring the brainwave of the first user while the learning content is being reproduced in the first user terminal comprises:
when the learning content is reproduced in the first user terminal, checking whether the brain wave of the first user and the EAR of the first user are being measured;
when it is confirmed that both the brain wave of the first user and the EAR of the first user are being measured, adjusting the synch between the brain wave of the first user and the EAR of the first user;
when it is confirmed that any one of the brain wave of the first user and the EAR of the first user is not being measured, controlling the reproduction of the learning content to be stopped after a preset waiting time; and
When it is confirmed that neither the brain wave of the first user nor the EAR of the first user is being measured, including controlling the reproduction of the learning content to immediately stop,
A method of providing EEG and blink-based learning services.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210066173A KR102452100B1 (en) | 2021-05-24 | 2021-05-24 | Method, device and system for providing learning service base on brain wave and blinking eyes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210066173A KR102452100B1 (en) | 2021-05-24 | 2021-05-24 | Method, device and system for providing learning service base on brain wave and blinking eyes |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102452100B1 true KR102452100B1 (en) | 2022-10-12 |
Family
ID=83597983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210066173A KR102452100B1 (en) | 2021-05-24 | 2021-05-24 | Method, device and system for providing learning service base on brain wave and blinking eyes |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102452100B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102557503B1 (en) * | 2023-05-12 | 2023-07-20 | 주식회사 엘엑스디 | Method, device and system for providing immersive content based on augmented reality related to event and performance |
KR102729752B1 (en) * | 2024-02-08 | 2024-11-13 | 박호인 | Subscription-type forklift rental and safety training provision platform service operation method, device, and system |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101002751B1 (en) * | 2010-09-10 | 2010-12-21 | 주식회사 다이나믹플러스 | Device for education diagnosis using brain waves, education management system using the device and operating method thereof |
KR20140021208A (en) * | 2012-08-09 | 2014-02-20 | 숭실대학교산학협력단 | Apparatus and method for providing personalized content through the changes in the pattern of learning efficiency and intention of learning |
KR101587462B1 (en) | 2013-12-19 | 2016-01-21 | (주) 로임시스템 | Question providing system for study using brain waves |
KR101842750B1 (en) | 2015-11-26 | 2018-03-27 | 인하대학교 산학협력단 | Realtime simulator for brainwaves training and interface device using realtime simulator |
JP2018124483A (en) * | 2017-02-02 | 2018-08-09 | 日本電信電話株式会社 | Learning support system, learning support device, and learning support method |
KR101955941B1 (en) | 2017-02-07 | 2019-03-11 | 남서울대학교 산학협력단 | SYSTEM AND METHOD FOR PROVIDING MENTAL CARE BASED ON IoT USING BRAIN WAVES |
KR20190063690A (en) * | 2017-11-30 | 2019-06-10 | 주식회사 꿀비 | Supervisory System of Online Lecture by Eye Tracking |
KR102107337B1 (en) | 2019-08-06 | 2020-05-07 | 장현갑 | System for smart study management using wearable device |
KR20200128900A (en) * | 2019-05-07 | 2020-11-17 | 엠브레인웍스 주식회사 | System and method of neuro feedback for improving study concentration and digital detox |
KR102252845B1 (en) * | 2021-01-26 | 2021-05-27 | 주식회사 도로시 | Method, device and system for analyzing concrete surface through machine vision and 3d profile |
-
2021
- 2021-05-24 KR KR1020210066173A patent/KR102452100B1/en active IP Right Grant
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101002751B1 (en) * | 2010-09-10 | 2010-12-21 | 주식회사 다이나믹플러스 | Device for education diagnosis using brain waves, education management system using the device and operating method thereof |
KR20140021208A (en) * | 2012-08-09 | 2014-02-20 | 숭실대학교산학협력단 | Apparatus and method for providing personalized content through the changes in the pattern of learning efficiency and intention of learning |
KR101587462B1 (en) | 2013-12-19 | 2016-01-21 | (주) 로임시스템 | Question providing system for study using brain waves |
KR101842750B1 (en) | 2015-11-26 | 2018-03-27 | 인하대학교 산학협력단 | Realtime simulator for brainwaves training and interface device using realtime simulator |
JP2018124483A (en) * | 2017-02-02 | 2018-08-09 | 日本電信電話株式会社 | Learning support system, learning support device, and learning support method |
KR101955941B1 (en) | 2017-02-07 | 2019-03-11 | 남서울대학교 산학협력단 | SYSTEM AND METHOD FOR PROVIDING MENTAL CARE BASED ON IoT USING BRAIN WAVES |
KR20190063690A (en) * | 2017-11-30 | 2019-06-10 | 주식회사 꿀비 | Supervisory System of Online Lecture by Eye Tracking |
KR20200128900A (en) * | 2019-05-07 | 2020-11-17 | 엠브레인웍스 주식회사 | System and method of neuro feedback for improving study concentration and digital detox |
KR102107337B1 (en) | 2019-08-06 | 2020-05-07 | 장현갑 | System for smart study management using wearable device |
KR102252845B1 (en) * | 2021-01-26 | 2021-05-27 | 주식회사 도로시 | Method, device and system for analyzing concrete surface through machine vision and 3d profile |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102557503B1 (en) * | 2023-05-12 | 2023-07-20 | 주식회사 엘엑스디 | Method, device and system for providing immersive content based on augmented reality related to event and performance |
KR102729752B1 (en) * | 2024-02-08 | 2024-11-13 | 박호인 | Subscription-type forklift rental and safety training provision platform service operation method, device, and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lin et al. | Mental effort detection using EEG data in E-learning contexts | |
D’Mello et al. | The affective computing approach to affect measurement | |
Chango et al. | A review on data fusion in multimodal learning analytics and educational data mining | |
US11670055B1 (en) | Facial expression tracking during augmented and virtual reality sessions | |
Bilakhia et al. | The MAHNOB Mimicry Database: A database of naturalistic human interactions | |
Matran-Fernandez et al. | Towards the automated localisation of targets in rapid image-sifting by collaborative brain-computer interfaces | |
US11700420B2 (en) | Media manipulation using cognitive state metric analysis | |
US11327320B2 (en) | Electronic device and method of controlling the same | |
CN109475294A (en) | For treat phrenoblabia movement and wearable video capture and feedback platform | |
KR20200005986A (en) | System and method for diagnosing cognitive impairment using face recognization | |
KR102265734B1 (en) | Method, device, and system of generating and reconstructing learning content based on eeg analysis | |
US12045694B2 (en) | Building a model based on responses from sensors | |
Giritlioğlu et al. | Multimodal analysis of personality traits on videos of self-presentation and induced behavior | |
Shen et al. | Multi-modal feature fusion for better understanding of human personality traits in social human–robot interaction | |
Reichert et al. | Online tracking of the contents of conscious perception using real-time fMRI | |
US20180240157A1 (en) | System and a method for generating personalized multimedia content for plurality of users | |
Liao et al. | An open-source benchmark of deep learning models for audio-visual apparent and self-reported personality recognition | |
Araya et al. | Automatic detection of gaze and body orientation in elementary school classrooms | |
KR102396794B1 (en) | Electronic device and Method for controlling the electronic device thereof | |
KR102452100B1 (en) | Method, device and system for providing learning service base on brain wave and blinking eyes | |
KR102366859B1 (en) | Method, evice and system for providing curation and curriculum of educational content | |
Ejaz et al. | Real-time analysis of student's behavioural engagement in digital smart classrooms using fog computing and IoT devices | |
Hynes et al. | An evaluation of lower facial micro expressions as an implicit QoE metric for an augmented reality procedure assistance application | |
KR20220114849A (en) | Method, device and system for monitoring learnig degree based on eye tracking | |
KR102492762B1 (en) | Method, device and system for providing and managing study abroad education curriculum customized for student based on artificial intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |