[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102452100B1 - Method, device and system for providing learning service base on brain wave and blinking eyes - Google Patents

Method, device and system for providing learning service base on brain wave and blinking eyes Download PDF

Info

Publication number
KR102452100B1
KR102452100B1 KR1020210066173A KR20210066173A KR102452100B1 KR 102452100 B1 KR102452100 B1 KR 102452100B1 KR 1020210066173 A KR1020210066173 A KR 1020210066173A KR 20210066173 A KR20210066173 A KR 20210066173A KR 102452100 B1 KR102452100 B1 KR 102452100B1
Authority
KR
South Korea
Prior art keywords
user
learning
learning content
section
concentration
Prior art date
Application number
KR1020210066173A
Other languages
Korean (ko)
Inventor
김한관
양세훈
조영민
Original Assignee
라이트하우스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라이트하우스(주) filed Critical 라이트하우스(주)
Priority to KR1020210066173A priority Critical patent/KR102452100B1/en
Application granted granted Critical
Publication of KR102452100B1 publication Critical patent/KR102452100B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Psychology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Educational Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Developmental Disabilities (AREA)
  • Psychiatry (AREA)
  • Human Resources & Organizations (AREA)
  • Anesthesiology (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pain & Pain Management (AREA)
  • Acoustics & Sound (AREA)
  • Hematology (AREA)

Abstract

According to one embodiment, in a method for providing a learning service based on a brain wave and eye blinking performed by a server, the method comprises: a step of obtaining the brain wave of a first user measured in a first brain wave measuring device, when the brain wave of the first user is measured in the first brain wave measuring device worn by the first user, from a first user terminal connected to the first brain wave measuring device; a step of analyzing whether or not a condition of the first user is good based on the brain wave of the first user; and a step of providing a meditation content to the first user terminal, when confirmed that the condition of the first user is not good, and controlling the meditation content to be reproduced on a screen of the first user terminal. Therefore, the present invention is capable of having an effect of providing a more accurate learning service.

Description

뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR PROVIDING LEARNING SERVICE BASE ON BRAIN WAVE AND BLINKING EYES}EEG and blink-based learning service method, device and system {METHOD, DEVICE AND SYSTEM FOR PROVIDING LEARNING SERVICE BASE ON BRAIN WAVE AND BLINKING EYES}

아래 실시예들은 뇌파 및 눈 깜빡임을 기반으로 학습 서비스를 제공하는 기술에 관한 것이다.The following embodiments relate to a technology for providing a learning service based on brain waves and eye blinking.

실시예들과 관련된 배경기술로, 대한민국 등록특허공보 KR 10-1587462 B1은 뇌파인식형 학습 문제 제공시스템을 개시한다. 구체적으로, 선행문헌은 학습 문제를 화면으로 출력하고, 학습 문제를 풀기 시작하는 시점 및 풀기 종료하는 시점을 입력받기 위한 입출력부(23); 하나의 학습 문제를 풀기 시작하는 시점부터 풀기 종료하는 시점까지의 문제 풀이 소요시간 동안 뇌파를 상기 뇌파 측정기(10)로 검출하는 뇌파 검출부(25); 문제 풀이 소요시간 동안 검출한 뇌파의 크기로부터 뇌파 에너지를 획득하는 숙련도 결정부(26); 획득한 뇌파 에너지의 크기에 따라 학습 문제의 유형 또는 난이도를 결정하고, 결정한 유형 또는 난이도의 학습 문제를 다음 문제로 선택하여 상기 입출력부(23)에 출력시키는 제어부(21)를 포함하는 뇌파인식형 학습 문제 제공시스템을 개시한다.As a background technology related to embodiments, Republic of Korea Patent Publication KR 10-1587462 B1 discloses an EEG recognition type learning problem providing system. Specifically, the prior literature includes an input/output unit 23 for outputting a learning problem to a screen, and receiving input of a starting time and an ending time of solving the learning problem; an EEG detecting unit 25 for detecting EEG with the EEG measuring device 10 for a time required for solving a problem from the time when solving one learning problem starts to the time at which solving is finished; a proficiency determination unit 26 for obtaining brain wave energy from the size of the brain wave detected during the problem solving time; Brain wave recognition type comprising a control unit 21 that determines the type or difficulty of a learning problem according to the size of the acquired brain wave energy, selects a learning problem of the determined type or difficulty as the next problem, and outputs it to the input/output unit 23 Disclosed is a system for providing learning problems.

이를 통해, 선행문헌은 문제를 풀 때의 뇌파 에너지로 문제에 대한 숙련도를 판별하여 학습자의 실력에 맞는 문제를 풀게 하거나 또는 문제의 유형에 대한 실력을 최상위 그룹의 실력까지 끌어올리도록 문제를 풀게 하는 뇌파인식형 학습문제 제공시스템을 제공한다.Through this, the prior literature has identified a problem-solving proficiency by brain wave energy when solving a problem to solve a problem that suits the skill of the learner, or to solve a problem to raise the skill for the type of problem to the skill of the top group. An EEG recognition type learning problem provision system is provided.

또한, 대한민국 등록특허공보 KR 10-1842750 B1은 뇌파 훈련을 위한 실시간 시뮬레이터 및 이를 이용한 인터페이스 장치를 개시한다. 구체적으로, 적어도 하나의 프로그램이 로딩된 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 프로그램의 제어에 따라, 뇌파 발생 훈련을 위한 상상 동작을 제시한 후 뇌파 측정 장치를 통해 사용자로부터 측정된 뇌파 데이터를 획득하는 과정; 및 상기 뇌파 데이터에서 상기 상상 동작에 대응되는 특징 정보를 추출함으로써 상기 상상 동작에 대한 상기 사용자의 뇌파 특징을 학습하는 과정을 처리하는 것을 특징으로 하는 시스템을 개시한다.In addition, Korean Patent Publication No. KR 10-1842750 B1 discloses a real-time simulator for EEG training and an interface device using the same. Specifically, a memory in which at least one program is loaded; and at least one processor, wherein the at least one processor provides, under the control of the program, an imaginary motion for EEG training, and then a process of acquiring measured EEG data from a user through an EEG measuring device; and by extracting feature information corresponding to the imaginary motion from the brainwave data, discloses a system characterized in that the process of learning the brainwave characteristics of the user for the imaginary motion is processed.

그러나 선행문헌들은 뇌파로만 학습 서비스를 제공하고 있으므로, 정확한 학습 서비스를 제공하는데 한계가 있다.However, since the prior literature provides a learning service only with EEG, there is a limit to providing an accurate learning service.

따라서, 사용자의 뇌파 뿐만 아니라 눈 깜빡임 까지 종합적으로 고려하여, 더 정확한 학습 서비스를 제공하는 기술의 구현이 요구된다.Therefore, it is required to implement a technology that provides a more accurate learning service by comprehensively considering not only the user's brain waves but also the blinking of the eyes.

대한민국 등록특허공보 KR 10-1587462 B1Republic of Korea Patent Publication KR 10-1587462 B1 대한민국 등록특허공보 KR 10-1842750 B1Republic of Korea Patent Publication KR 10-1842750 B1 대한민국 등록특허공보 KR 10-2107337 B1Republic of Korea Patent Publication KR 10-2107337 B1 대한민국 등록특허공보 KR 10-1955941 B1Republic of Korea Patent Publication KR 10-1955941 B1

일실시예에 따르면, 사용자의 뇌파에 대한 변화, 눈 깜빡임 상태 및 응시 상태를 기초로, 사용자가 학습을 수행한 시간을 분석하여, 학습 콘텐츠에 대한 사용자의 집중도를 산출하는, 뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment, based on brain wave and eye blinking, which calculates the user's concentration on the learning content by analyzing the time the user performs learning based on the change in the user's brain wave, the eye blinking state, and the gaze state An object of the present invention is to provide a learning service providing method, apparatus and system.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.

일실시예에 따르면, 서버에 의해 수행되는, 뇌파 및 눈 깜빡임을 기반으로 학습 서비스를 제공하는 방법에 있어서, 제1 사용자가 착용한 제1 뇌파 측정 장치에서 상기 제1 사용자의 뇌파를 측정하면, 상기 제1 뇌파 측정 장치와 연결된 제1 사용자 단말로부터, 상기 제1 뇌파 측정 장치에서 측정된 상기 제1 사용자의 뇌파를 획득하는 단계; 상기 제1 사용자의 뇌파를 기초로, 상기 제1 사용자의 상태가 양호한지 여부를 분석하는 단계; 상기 제1 사용자의 상태가 양호하지 않은 것으로 확인되면, 상기 제1 사용자 단말로 명상 콘텐츠를 제공하여, 상기 제1 사용자 단말의 화면에서 상기 명상 콘텐츠가 재생되도록 제어하는 단계; 상기 제1 사용자의 상태가 양호한 것으로 확인되면, 상기 제1 사용자 단말에 장착된 카메라가 동작하여 촬영을 시작하도록 제어하는 단계; 상기 제1 사용자 단말에서 상기 제1 사용자의 얼굴을 촬영하면, 상기 제1 사용자 단말로부터 상기 제1 사용자의 얼굴 영상을 획득하는 단계; 상기 제1 사용자의 얼굴 영상에서 상기 제1 사용자의 눈을 인식하여, 상기 제1 사용자의 시선을 추적하는 단계; 상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있는지 여부를 확인하는 단계; 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있는 것으로 확인되면, 상기 제1 사용자 단말로 학습 콘텐츠를 제공하여, 상기 제1 사용자 단말의 화면에서 상기 학습 콘텐츠가 재생되도록 제어하는 단계; 상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 뇌파를 상기 제1 뇌파 측정 장치와 연결된 제1 사용자 단말로부터 획득하면서, 상기 제1 사용자의 얼굴 영상을 상기 제1 사용자 단말로부터 획득하고, 상기 제1 사용자의 얼굴 영상에서 상기 제1 사용자의 눈을 인식하여, 상기 제1 사용자의 시선을 추적하고 상기 제1 사용자의 EAR(Eye Aspect Ratio)을 측정하는 단계; 상기 학습 콘텐츠에 대한 재생이 완료되면, 상기 학습 콘텐츠가 재생되는 동안 측정된 상기 제1 사용자의 뇌파에 대한 변화를 확인하고, 상기 학습 콘텐츠가 재생되는 동안 측정된 상기 제1 사용자의 EAR에 대한 변화를 통해 눈 깜빡임 상태를 확인하고, 상기 학습 콘텐츠가 재생되는 동안 추적된 상기 제1 사용자의 시선 변화를 통해 화면을 응시한 응시 상태를 확인하는 단계; 및 상기 제1 사용자의 뇌파에 대한 변화, 상기 눈 깜빡임 상태 및 상기 응시 상태를 기초로, 학습을 수행한 시간을 분석하여, 상기 학습 콘텐츠에 대한 상기 제1 사용자의 집중도를 산출하는 단계를 포함하는, 뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법이 제공된다.According to an embodiment, in the method of providing a learning service based on brain waves and eye blinks performed by a server, when the first EEG measurement device worn by the first user measures the EEG of the first user, obtaining, from a first user terminal connected to the first EEG measuring device, the EEG of the first user measured by the first EEG measuring device; analyzing whether the state of the first user is good based on the brain wave of the first user; when it is confirmed that the first user's condition is not good, providing the meditation content to the first user terminal, and controlling the meditation content to be reproduced on the screen of the first user terminal; controlling a camera mounted on the first user terminal to operate and start shooting when it is confirmed that the first user's condition is good; acquiring a face image of the first user from the first user terminal when the first user's face is photographed by the first user terminal; recognizing the eyes of the first user from the face image of the first user and tracking the gaze of the first user; as a result of tracking the gaze of the first user, checking whether the gaze of the first user is gazing at the screen of the first user terminal; When it is confirmed that the gaze of the first user is gazing at the screen of the first user terminal, the learning content is provided to the first user terminal, and the learning content is controlled to be reproduced on the screen of the first user terminal step; While the learning content is being reproduced in the first user terminal, while acquiring the brain wave of the first user from the first user terminal connected to the first EEG measuring device, the face image of the first user is obtained from the first user terminal obtaining from, recognizing the eyes of the first user from the face image of the first user, tracking the gaze of the first user, and measuring the Eye Aspect Ratio (EAR) of the first user; When the reproduction of the learning content is completed, a change in the brain wave of the first user measured while the learning content is reproduced is checked, and a change in the EAR of the first user measured while the learning content is being reproduced checking an eye blinking state through , and checking a gaze state gazing at a screen through a gaze change of the first user tracked while the learning content is being played; and calculating the concentration of the first user on the learning content by analyzing the learning time based on the change in the brain wave of the first user, the blinking state, and the gaze state , EEG and blink-based learning service providing method is provided.

상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 뇌파를 획득하면서, 상기 제1 사용자의 EAR을 측정하는 단계는, 상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되면, 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 측정되고 있는지 여부를 확인하는 단계; 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 모두 측정되고 있는 것으로 확인되면, 상기 제1 사용자의 뇌파와 상기 제1 사용자의 EAR 간에 싱크를 맞추도록 조정하는 단계; 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR 중 어느 하나가 측정되고 있지 않은 것으로 확인되면, 미리 설정된 대기 시간 이후 상기 학습 콘텐츠의 재생이 정지되도록 제어하는 단계; 및 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 모두 측정되고 있지 않은 것으로 확인되면, 상기 학습 콘텐츠의 재생이 즉시 정지되도록 제어하는 단계를 포함할 수 있다.While the learning content is being reproduced in the first user terminal, the step of measuring the EAR of the first user while acquiring the brain wave of the first user may include, when the learning content is reproduced in the first user terminal, the checking whether the first user's EEG and the first user's EAR are being measured; when it is confirmed that both the brain wave of the first user and the EAR of the first user are being measured, adjusting the synch between the brain wave of the first user and the EAR of the first user; when it is confirmed that any one of the brain wave of the first user and the EAR of the first user is not being measured, controlling the reproduction of the learning content to be stopped after a preset waiting time; and when it is confirmed that neither the brain wave of the first user nor the EAR of the first user is being measured, controlling the reproduction of the learning content to immediately stop.

상기 제1 사용자의 집중도를 산출하는 단계는, 상기 제1 사용자의 뇌파에 대한 변화, 상기 눈 깜빡임 상태 및 상기 응시 상태를 기초로, 상기 학습 콘텐츠의 재생 시간에 따라 변화하는 상기 제1 사용자의 집중도를 산출하는 단계; 상기 제1 사용자의 집중도를 기초로, 상기 학습 콘텐츠에 대한 집중도 상위 구간, 집중도 보통 구간 및 집중도 하위 구간을 구분하여 분류하는 단계; 상기 집중도 하위 구간 중 제1 구간의 길이가 미리 설정된 제1 시간 간격 보다 짧은지 여부를 확인하는 단계; 상기 제1 구간의 길이가 상기 제1 시간 간격 보다 짧은 것으로 확인되면, 상기 제1 구간에 대한 재학습이 필요하지 않은 것으로 판단하는 단계; 상기 제1 구간의 길이가 상기 제1 시간 간격 보다 긴 것으로 확인되면, 상기 제1 구간의 길이가 미리 설정된 제2 시간 간격 보다 짧은지 여부를 확인하는 단계; 상기 제1 구간의 길이가 상기 제2 시간 간격 보다 짧은 것으로 확인되면, 상기 제1 구간에 대한 테스트가 필요한 것으로 판단하는 단계; 상기 제1 구간의 길이가 상기 제2 시간 간격 보다 긴 것으로 확인되면, 상기 제1 구간에 대한 재학습이 필요한 것으로 판단하는 단계; 상기 제1 구간에 대한 테스트가 필요한 것으로 판단되면, 상기 제1 구간의 학습 내용을 테스트하기 위한 시험 문제가 상기 제1 사용자 단말의 화면에서 표시되도록 제어하는 단계 및 상기 제1 구간에 대한 재학습이 필요한 것으로 판단되면, 상기 제1 구간이 상기 제1 사용자 단말의 화면에서 다시 재생되도록 제어하는 단계를 포함할 수 있다.The calculating of the concentration level of the first user includes the concentration level of the first user that changes according to a reproduction time of the learning content based on the change in the brain wave of the first user, the blinking state, and the gaze state. calculating ; classifying and classifying an upper concentration section, a normal concentration section, and a lower concentration section section for the learning content based on the concentration level of the first user; checking whether a length of a first section among the concentration subsections is shorter than a preset first time interval; determining that re-learning of the first section is not necessary when it is confirmed that the length of the first section is shorter than the first time interval; when it is determined that the length of the first section is longer than the first time interval, checking whether the length of the first section is shorter than a preset second time interval; determining that a test for the first section is necessary when it is confirmed that the length of the first section is shorter than the second time interval; determining that re-learning of the first section is necessary when it is confirmed that the length of the first section is longer than the second time interval; If it is determined that the test for the first section is necessary, controlling the test questions for testing the learning contents of the first section to be displayed on the screen of the first user terminal and re-learning for the first section If it is determined that it is necessary, the method may include controlling the first section to be played back on the screen of the first user terminal.

상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 시선을 추적하고 상기 제1 사용자의 EAR을 측정하는 단계는, 상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있지 않은 것으로 확인되면, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 벗어난 시점부터 시선 이탈 시간을 측정하는 단계; 상기 제1 사용자의 EAR을 측정한 결과, 상기 제1 사용자의 눈이 감겨져 있는 것으로 확인되면, 상기 제1 사용자의 눈이 감겨진 시점부터 졸음 시간을 측정하는 단계; 상기 시선 이탈 시간 및 상기 졸음 시간 중 어느 하나가 미리 설정된 제1 기준 시간 보다 길게 지속된 것으로 확인되면, 상기 제1 사용자가 상기 학습 콘텐츠를 통해 학습을 수행하고 있지 않아 학습에 집중하지 못하는 상태로 판단하는 단계; 상기 제1 사용자가 학습을 수행하고 있지 않은 것으로 판단되면, 상기 학습 콘텐츠의 재생이 정지되고, 상기 제1 사용자 단말에서 집중 필요 알림 메시지가 출력되도록 제어하는 단계; 상기 시선 이탈 시간 및 상기 졸음 시간 중 어느 하나가 미리 설정된 제2 기준 시간 보다 길게 지속된 것으로 확인되면, 상기 제1 사용자에 대한 학습 지도가 필요한 것으로 판단하는 단계; 및 상기 제1 사용자에 대한 학습 지도가 필요한 것으로 판단되면, 상기 제1 사용자의 학습 지도를 요청하는 학습 지도 요청 메시지를 보호자 단말로 전송하는 단계를 포함할 수 있다.While the learning content is being reproduced in the first user terminal, the step of tracking the gaze of the first user and measuring the EAR of the first user may include tracking the gaze of the first user, as a result of which the first user when it is confirmed that the gaze of the first user does not stare at the screen of the first user terminal, measuring the gaze departure time from the point in time when the gaze of the first user leaves the screen of the first user terminal; measuring the drowsiness time from the time when the eyes of the first user are closed when it is confirmed that the eyes of the first user are closed as a result of measuring the EAR of the first user; When it is confirmed that any one of the gaze departure time and the drowsiness time lasts longer than a preset first reference time, it is determined that the first user is unable to concentrate on learning because the first user is not learning through the learning content to do; when it is determined that the first user is not learning, stopping the reproduction of the learning content, and controlling the first user terminal to output a notification message that requires concentration; determining that a study guide for the first user is necessary when it is confirmed that any one of the gaze departure time and the drowsiness time has been maintained longer than a preset second reference time; and when it is determined that the learning guidance for the first user is necessary, transmitting a learning guidance request message for requesting the learning guidance of the first user to the guardian terminal.

상기 뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법은, 라이다를 통해 상기 제1 뇌파 측정 장치의 표면에 대한 3D 데이터를 획득하고, 카메라를 통해 상기 제1 뇌파 측정 장치의 표면에 대한 2D 데이터를 획득하는 단계; 상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하는 단계; 상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제3 인공지능에 입력하고, 상기 제3 인공지능의 입력의 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 제1 뇌파 측정 장치의 표면에 대한 제1 분류 결과를 생성하는 단계; 상기 제1 데이터를 분석하여 상기 제1 뇌파 측정 장치의 표면에 발생한 균열을 검출하는 단계; 상기 제1 뇌파 측정 장치의 표면에 발생한 균열을 영역별로 확인하여, 미리 설정된 제1 설정값 미만으로 균열이 검출된 정상 영역과 상기 제1 설정값 이상으로 균열이 검출된 손상 영역을 구분하는 단계; 상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하는 단계; 상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 제4 인공지능에 입력하고, 상기 제4 인공지능의 입력의 결과에 기초하여, 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호에 기초하여, 상기 제1 뇌파 측정 장치의 표면에 대한 제2 분류 결과를 생성하는 단계; 및 상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 제1 뇌파 측정 장치의 표면에 대한 최종 분류 결과로 설정하는 단계를 더 포함할 수 있다.The EEG and blink-based learning service providing method is to obtain 3D data on the surface of the first EEG measurement device through lidar, and obtain 2D data on the surface of the first EEG measurement device through a camera step; separating the union region of the 2D data and the 3D data to extract first data obtained by merging the 2D data and the 3D data; generating a first input signal by encoding the first data; inputting the first input signal to a third artificial intelligence, and obtaining a first output signal based on a result of the input of the third artificial intelligence; generating a first classification result for the surface of the first EEG measuring device based on the first output signal; analyzing the first data to detect cracks occurring on the surface of the first EEG measuring device; identifying cracks generated on the surface of the first EEG measuring device by region, and distinguishing between a normal region in which cracks are detected less than a preset first set value and a damaged region in which cracks are detected above the first preset value; extracting second data from which the damaged area is deleted from the first data; generating a second input signal by encoding the second data; inputting the second input signal to a fourth artificial intelligence, and obtaining a second output signal based on a result of the input of the fourth artificial intelligence; generating a second classification result for the surface of the first EEG measuring device based on the second output signal; and when the first classification result and the second classification result are the same, setting any one of the first classification result and the second classification result as the final classification result for the surface of the first EEG measuring device. may include

일실시예에 따르면, 사용자의 뇌파에 대한 변화, 눈 깜빡임 상태 및 응시 상태를 기초로, 사용자가 학습을 수행한 시간을 분석하여, 학습 콘텐츠에 대한 사용자의 집중도를 산출함으로써, 사용자의 뇌파 뿐만 아니라 눈 깜빡임 까지 종합적으로 고려하여, 더 정확한 학습 서비스를 제공할 수 있는 효과가 있다.According to an embodiment, based on the change in the user's brain wave, the eye blinking state, and the gaze state, the user's learning time is analyzed and the user's concentration on the learning content is calculated, thereby not only the user's brainwave It has the effect of providing a more accurate learning service by comprehensively considering even the blink of an eye.

한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1은 일실시예에 따른 시스템의 구성의 예시도이다.
도 2는 일실시예에 따른 학습 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 학습 콘텐츠에 대한 사용자의 집중도를 산출하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 학습 콘텐츠의 지표들을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 학습 콘텐츠가 재생되는 동안 측정 상태를 체크하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 사용자의 집중도에 따라 구간 별로 재학습이 수행되도록 제어하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 사용자가 학습에 집중하지 않을 때의 1차 대응 방안을 제공하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 사용자가 학습에 집중하지 않을 때의 2차 대응 방안을 제공하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 뇌파 측정 장치의 표면을 분류하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 제1 인공지능 및 제2 인공지능의 학습을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 제3 인공지능 및 제4 인공지능을 설명하기 위한 도면이다.
도 12는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 13은 일실시예에 따른 장치의 구성의 예시도이다.
1 is an exemplary diagram of a configuration of a system according to an embodiment.
2 is a flowchart illustrating a process of providing learning content according to an exemplary embodiment.
3 is a flowchart illustrating a process of calculating a user's concentration on learning content according to an exemplary embodiment.
4 is a diagram for explaining indices of learning content according to an embodiment.
5 is a flowchart illustrating a process of checking a measurement state while learning content is reproduced according to an exemplary embodiment.
6 is a flowchart illustrating a process of controlling re-learning to be performed for each section according to a user's concentration level according to an embodiment.
7 is a flowchart illustrating a process of providing a first response method when a user does not concentrate on learning according to an exemplary embodiment.
8 is a flowchart illustrating a process of providing a secondary response method when a user does not concentrate on learning according to an exemplary embodiment.
9 is a flowchart for explaining a process of classifying a surface of an EEG measuring apparatus according to an embodiment.
10 is a diagram for explaining learning of a first artificial intelligence and a second artificial intelligence according to an embodiment.
11 is a diagram for explaining a third artificial intelligence and a fourth artificial intelligence according to an embodiment.
12 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.
13 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices, and the like.

도 1은 일실시예에 따른 시스템의 구성의 예시도이다.1 is an exemplary diagram of a configuration of a system according to an embodiment.

일실시예에 따른 시스템은 서버(100), 사용자 단말들(111-113) 및 착용형 뇌파 측정 장치들(131-133)을 포함할 수 있다. 서버(100), 사용자 단말들(111-113) 및 착용형 뇌파 측정 장치들(131-133)은 네트워크에 연결되어 유무선 통신을 통해 데이터를 교환할 수 있다. 시스템은 학습 콘텐츠를 학습하는 사용자의 뇌파 및 눈 깜빡임을 분석하고, 분석 결과를 기초로 사용자의 학습 상태를 평가하여 학습도를 산출할 수 있다.The system according to an embodiment may include the server 100 , user terminals 111-113 and wearable EEG measuring devices 131-133. The server 100, the user terminals 111-113, and the wearable EEG measuring devices 131-133 may be connected to a network to exchange data through wired/wireless communication. The system may analyze the brain waves and eye blinks of the user learning the learning content, and may calculate the learning degree by evaluating the user's learning state based on the analysis result.

서버(100)는 서버(100)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버(100)일수도 있고, 클라우드 서버(100)일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 서버(100)는 통상의 컴퓨터가 가지는 연산 기능; 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 서버(100)는 추론 기능을 수행하는 적어도 하나 이상의 인공지능을 구비할 수 있다. 서버(100)는 사용자 단말들(111-113)과 유무선으로 통신하도록 구성될 수 있다.The server 100 may be a self-server 100 owned by a person or an organization that provides services using the server 100, a cloud server 100, or p2p (peer-) of distributed nodes. to-peer) set. The server 100 includes an arithmetic function that a typical computer has; It may be configured to perform all or part of a store/refer function, an input/output function, and a control function. The server 100 may have at least one or more artificial intelligences that perform an inference function. The server 100 may be configured to communicate with the user terminals 111-113 through wired or wireless communication.

서버(100)는 웹페이지 또는 어플리케이션과 연동될 수 있다. 웹페이지 또는 어플리케이션은 학습 동영상 등 사용자를 위한 학습 콘텐츠를 표시 및 재생하는 기능을 제공할 수 있다. 웹페이지 또는 어플리케이션은 착용형 뇌파 측정 장치들(131-133)을 통해 측정된 사용자들의 학습 중 뇌파 정보를 표시하는 기능을 제공할 수 있다. 웹페이지 또는 어플리케이션은 서버(100)에 수집 및 저장된 사용자들의 학습 성취도 정보를 표시하는 기능을 제공할 수 있다.The server 100 may be linked with a web page or an application. The web page or application may provide a function of displaying and playing learning content for a user, such as a learning video. The webpage or the application may provide a function of displaying EEG information measured by the wearable EEG measuring devices 131-133 during user learning. The web page or application may provide a function of displaying the learning achievement information of users collected and stored in the server 100 .

사용자 단말들(111-113)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 가령, 도 1과 같이, 제1 사용자 단말(111)은 데스크탑일 수 있고, 제2 사용자 단말(112)은 노트북일 수 있고, 제3 사용자 단말(113)은 스마트폰일 수 있다. 사용자 단말들(111-113)의 종류는 실시예에 따라 얼마든지 달라질 수 있다. 사용자 단말들(111-113)들은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 사용자 단말들(111-113)은 서버(100)와 유무선으로 통신하도록 구성될 수 있다. 사용자 단말들(111-113)은 서버(100)와 연동된 웹페이지에 접속되거나, 서버(100)와 연동된 어플리케이션이 설치될 수 있다. 사용자 단말들(111-113)은 웹페이지 또는 어플리케이션을 통해 서버(100)와 데이터를 주고받을 수 있다.The user terminals 111-113 may be a desktop computer, a notebook computer, a tablet, a smart phone, or the like. For example, as shown in FIG. 1 , the first user terminal 111 may be a desktop, the second user terminal 112 may be a laptop computer, and the third user terminal 113 may be a smartphone. The types of user terminals 111-113 may vary according to embodiments. The user terminals 111-113 may be configured to perform all or part of an arithmetic function, a storage/referencing function, an input/output function, and a control function of a typical computer. The user terminals 111-113 may be configured to communicate with the server 100 by wire or wireless. The user terminals 111-113 may access a web page linked with the server 100 or an application linked with the server 100 may be installed. The user terminals 111-113 may exchange data with the server 100 through a web page or an application.

계정들(121-123)은 웹페이지 또는 어플리케이션을 통해 사용자 단말들(111-113)에 로그인할 수 있다. 가령, 제1 사용자 계정(121)은 제1 사용자 단말(111)에 로그인할 수 있고, 제2 사용자 계정(122)은 제2 사용자 단말(112)에 로그인할 수 있고, 제3 사용자 계정(123)은 제3 사용자 단말(113)에 로그인할 수 있다. 사용자 단말들(111-113)에 계정들(121-123)이 각각 로그인 되면, 사용자 단말들(111-113)은 웹페이지 또는 어플리케이션을 통해 서버(100)와 데이터를 주고받을 수 있다. 각각의 사용자 계정(121, 122, 123)은 서버(100)에 저장된 각각의 사용자의 기본 정보, 각각의 사용자의 학습 콘텐츠 사용 중 뇌파 정보 및 눈 깜빡임 정보에 접근할 권한을 가진다.The accounts 121-123 may log in to the user terminals 111-113 through a web page or an application. For example, the first user account 121 may log in to the first user terminal 111 , the second user account 122 may log in to the second user terminal 112 , and the third user account 123 may log in to the second user terminal 112 . ) may log in to the third user terminal 113 . When the accounts 121-123 are logged into the user terminals 111-113, respectively, the user terminals 111-113 may exchange data with the server 100 through a web page or an application. Each of the user accounts (121, 122, 123) has the right to access the basic information of each user stored in the server 100, EEG information and eye blink information while using each user's learning content.

착용형 뇌파 측정 장치들(131-133)은 사용자들이 학습 콘텐츠를 시청하기 전에 사용자들에게 착용될 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)은 각각의 사용자 단말들(111-113)과 대응 관계를 가질 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)은 각각의 사용자 단말들(111-113)과 유무선으로 통신할 수 있다. 즉, 제1 사용자 단말(111)과 제1 뇌파 측정 장치(131)는 연결되어 있고, 제2 사용자 단말(112)과 제2 뇌파 측정 장치(132)는 연결되어 있고, 제3 사용자 단말(113)과 제3 뇌파 측정 장치(133)는 연결되어 있는 상태일 수 있다.The wearable brain wave measuring devices 131-133 may be worn by users before they watch learning content. Each of the wearable EEG measuring devices 131-133 may have a corresponding relationship with each of the user terminals 111-113. Each of the wearable EEG measuring devices 131 to 133 may communicate with each of the user terminals 111-113 by wire or wireless. That is, the first user terminal 111 and the first EEG measuring device 131 are connected, the second user terminal 112 and the second EEG measuring device 132 are connected, and the third user terminal 113 is connected. ) and the third EEG measuring device 133 may be in a connected state.

각각의 착용형 뇌파 측정 장치들(131-133)은 도 1의 골전도 헤드셋(130)과 같은 구성 및 기능을 가질 수 있다. 서버(100)를 이용하여 서비스를 제공하는 자 내지 단체는 학습 콘텐츠를 시청하는 사용자들에게 골전도 헤드셋(130)을 대여, 지급 또는 판매할 수 있다.Each of the wearable EEG measuring devices 131-133 may have the same configuration and function as the bone conduction headset 130 of FIG. 1 . A person or organization that provides a service using the server 100 may rent, pay, or sell the bone conduction headset 130 to users who view learning content.

골전도 헤드셋(130)은 2채널 frontal 센서 기반 제품일 수 있다. 골전도 헤드셋(130) EEG 센서(141), 골전도 폰(142), 통신 모듈(143) 등을 포함할 수 있다. EEG 센서(141)는 사용자의 뇌파, 구체적으로 알파파(alpha wave), 베타파(beta wave), 델타파(delta wave)의 진동수, 진폭, 파장, 위상차 등을 측정할 수 있다. 또한, 골전도 헤드셋(130)은 EOG 센서를 포함할 수 있다. 이를 통해, 사용자의 눈뜸, 눈감음 여부 등을 측정할 수 있다.The bone conduction headset 130 may be a two-channel frontal sensor-based product. The bone conduction headset 130 may include an EEG sensor 141 , a bone conduction phone 142 , a communication module 143 , and the like. The EEG sensor 141 may measure the frequency, amplitude, wavelength, phase difference, etc. of the user's brain waves, specifically, alpha waves, beta waves, and delta waves. In addition, the bone conduction headset 130 may include an EOG sensor. Through this, it is possible to measure whether or not the user's eyes are opened or closed.

또한, 각각의 착용형 뇌파 측정 장치들(131-133)은 헤드폰의 구성, 형태 및 디자인을 가질 수 있다. 이때, 헤드폰에 부착된 뇌파 감지 센서는 착용 시 사용자의 귀 및 정수리 부분과 접촉하며, 사용자의 뇌파 정보를 측정할 수 있다. 또는, 각각의 착용형 뇌파 측정 장치들(131-133)은 무선 이어폰과 같이 사용자의 귀에 꼽을 수 있는 In-ear 형태의 구성, 형태 및 디자인을 가질 수도 있다. 이때, In-ear형 뇌파 측정 장치에 부착된 뇌파 감지 센서는 착용 시 사용자의 귀 부분과 접촉하며, 사용자의 뇌파 정보를 측정할 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)은 부착된 뇌파 측정 센서를 통해 사용자의 뇌파를 분석할 수만 있다면, 그 구성, 형태, 디자인, 크기, 부가 기능 등은 제한 없이 차용될 수 있다.In addition, each of the wearable EEG measuring devices 131-133 may have a configuration, a shape, and a design of a headphone. In this case, the EEG sensor attached to the headphone may come into contact with the user's ear and the crown when worn, and may measure EEG information of the user. Alternatively, each of the wearable EEG measuring devices 131-133 may have an in-ear configuration, shape, and design that can be inserted into the user's ear, such as a wireless earphone. In this case, the EEG sensor attached to the in-ear type EEG measurement device may contact the user's ear part when worn, and may measure the user's EEG information. Each of the wearable EEG measuring devices 131-133 may be borrowed without limitation, as long as it can analyze the user's EEG through the attached EEG sensor, its configuration, shape, design, size, additional functions, and the like.

서버(100)는 웹페이지 또는 어플리케이션을 통해 학습 동영상 등 사용자를 위한 학습 콘텐츠를 제공할 수 있다. 서버(100)는 착용형 뇌파 측정 장치들(131-133)을 통해 측정된 사용자들의 학습 콘텐츠 사용 중 뇌파 정보를 수집, 분석 및 저장할 수 있다. 서버(100)는 사용자 단말들(111-113)을 통해 촬영된 사용자들의 영상 정보를 기초로, 사용자들의 EAR(Eye Aspect Ratio)을 측정할 수 있다. 여기서, EAR은 눈의 가로 세로 비율로, EAR을 통해 눈을 뜨고 있는지 또는 눈을 감고 있는지 여부가 확인될 수 있다.The server 100 may provide learning content for a user, such as a learning video, through a web page or an application. The server 100 may collect, analyze, and store EEG information measured through the wearable EEG measuring devices 131-133 while using the learning content of the users. The server 100 may measure the user's Eye Aspect Ratio (EAR) based on the user's image information captured through the user terminals 111-113. Here, the EAR is an aspect ratio of the eyes, and whether the eyes are open or closed may be checked through the EAR.

서버(100)는 뇌파 정보, 눈 깜빡임 정보 및 사용자의 기본 정보 등을 기초로, 사용자별 학습 콘텐츠를 재구성하여 제공할 수 있다.The server 100 may reconfigure and provide learning content for each user based on EEG information, eye blink information, and user's basic information.

한편, 설명의 편의를 위해 도 1에서는 세 대의 사용자 단말들(111-113) 및 세 대의 착용형 뇌파 측정 장치들(131-133)만을 도시했으나, 단말들의 수는 얼마든지 달라질 수 있다. 서버(100)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.Meanwhile, for convenience of explanation, only three user terminals 111-113 and three wearable EEG measurement devices 131-133 are illustrated in FIG. 1 , but the number of terminals may vary. As long as the processing capacity of the server 100 allows, the number of terminals is not particularly limited.

이하에서, 서버(100)의 동작을 중심으로 실시예가 기술되며, 실시예들은 통신의 주체나 양상에 의해 제한되지 않고 다양한 응용예가 채용될 수 있다.Hereinafter, embodiments will be described focusing on the operation of the server 100, and the embodiments are not limited by the subject or aspect of communication, and various application examples may be employed.

한편, 서버(100)는 집중력을 향상시키는 명상 콘텐츠를 제공하여, 명상을 통해 뇌파가 안정 상태로 진입하게 되는 경우에만, 학습 콘텐츠를 제공할 수 있다.On the other hand, the server 100 may provide the learning content only when the brain wave enters a stable state through meditation by providing the meditation content to improve concentration.

서버(100)는 사용자들이 사용자 단말들(111-113)의 화면에서 재생중인 학습 콘텐츠를 시청하는 도중, 사용자들의 시선이 화면에서 일정 시간(예를 들면, 3초) 이상 벗어나는 것으로 확인되면, 학습 콘텐츠의 재생이 멈추도록 제어할 수 있다. 이때, 서버(100)는 시선이 화면에서 벗어나는 시간 이외에, 눈을 감고 있는 시간을 통해서도, 학습 콘텐츠의 재생이 멈추도록 제어할 수 있다.When it is confirmed that the user's gaze deviates from the screen for a certain period of time (for example, 3 seconds) or more while the user is watching the learning content being reproduced on the screen of the user terminals 111-113, the server 100 learns You can control the content to stop playing. In this case, the server 100 may control the reproduction of the learning content to stop even through the time when the eyes are closed, in addition to the time when the gaze departs from the screen.

서버(100)는 사용자들이 사용자 단말들(111-113)의 화면에서 재생중인 학습 콘텐츠를 시청하여 학습을 수행하는 동안, 사용자들의 뇌파 상태를 확인하고, EAR을 통해 사용자들의 눈 깜빡임 상태를 확인할 수 있다.The server 100 checks the brain wave state of users while the users perform learning by watching the learning content being played on the screens of the user terminals 111-113, and the user's eye blinking state through the EAR. have.

서버(100)는 학습 콘텐츠의 시청이 종료되어 학습이 완료되면, 뇌파 상태, 눈 깜빡임 상태(졸음), 화면에서 시선이 벗어난 정도 등을 통해, 학습 콘텐츠에 대한 집중도를 산출할 수 있으며, 학습 시간, 학습 시간 등에 대한 정보를 분석하여 사용자들에게 제공할 수 있다.The server 100 may calculate the concentration on the learning content through the brain wave state, the blinking state (drowsiness), the degree of gaze deviation from the screen, etc., when the learning of the learning content is completed and the viewing of the learning content is finished, and the learning time , information on learning time, etc. can be analyzed and provided to users.

서버(100)는 사용자들이 학습 콘텐츠를 시청하는 동안의 뇌파 상태, 눈 깜빡임 상태, 화면에서 시선이 벗어난 정도 등을 분석하여, 집중력이 저하되는 구간을 선별할 수 있으며, 집중도가 일정 수준 미만으로 확인되는 구간에 대해 재학습이 수행되도록, 학습 서비스를 제공할 수 있다.The server 100 analyzes the brain wave state, the blinking state, the degree of gaze deviance from the screen, etc., while the users watch the learning content, and can select a section where the concentration is lowered, and the concentration is lower than a certain level. A learning service may be provided so that re-learning is performed for the section to be used.

일실시예에 따르면, 서버(100)는 학생용, 학부모용 및 선생님용으로 구분하여 학습 서비스를 제공할 수 있다. 즉, 서버(100)는 학생용 어플리케이션을 통해 학습을 수행하는 사용자들이 학습을 진행하도록 처리하는 학습 서비스를 제공할 수 있으며, 학부모용 어플리케이션을 통해 보호자들이 학습 현황을 확인하도록 처리하는 학습 서비스를 제공할 수 있으며, 선생님용 어플리케이션을 통해 학습 과정을 추천하도록 처리하는 학습 서비스를 제공할 수 있다. 이때, 학생, 부모님 및 선생님 간에 남겨진 코멘트를 확인할 수 있도록, 학생 별로 게시 공간이 제공될 수 있다.According to an embodiment, the server 100 may provide a learning service for students, parents, and teachers. That is, the server 100 may provide a learning service that processes users who perform learning through a student application to proceed with learning, and may provide a learning service that processes so that guardians check the learning status through the parent application. In addition, it is possible to provide a learning service that processes to recommend a learning process through the teacher application. In this case, a posting space may be provided for each student so that comments left between students, parents, and teachers can be checked.

도 2는 일실시예에 따른 학습 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.2 is a flowchart illustrating a process of providing learning content according to an exemplary embodiment.

도 2를 참조하면, 먼저 S201 단계에서, 서버(100)는 제1 사용자가 착용한 제1 뇌파 측정 장치(131)에서 제1 사용자의 뇌파를 측정하면, 제1 뇌파 측정 장치(131)에서 측정된 제1 사용자의 뇌파를 제1 사용자 단말(111)로부터 획득할 수 있다.Referring to FIG. 2 , first, in step S201 , the server 100 measures the EEG of the first user in the first EEG measurement device 131 worn by the first user, the first EEG measurement device 131 measures it. The EEG of the first user may be obtained from the first user terminal 111 .

구체적으로, 제1 사용자가 제1 뇌파 측정 장치(131)를 착용하게 되면, 제1 뇌파 측정 장치(131)는 제1 사용자의 뇌파를 측정할 수 있으며, 측정된 제1 사용자의 뇌파 정보를 제1 사용자 단말(111)로 전송할 수 있다. 이때, 제1 사용자 단말(111)은 제1 뇌파 측정 장치(131)로부터 수신된 제1 사용자의 뇌파 정보를 서버(100)로 전송하여, 서버(100)는 제1 사용자 단말(111)로부터 제1 사용자의 뇌파 정보를 획득할 수 있다.Specifically, when the first user wears the first EEG measuring device 131, the first EEG measuring device 131 may measure the EEG of the first user and provide the measured EEG information of the first user. 1 may be transmitted to the user terminal 111 . At this time, the first user terminal 111 transmits the EEG information of the first user received from the first EEG measurement device 131 to the server 100 , and the server 100 receives the first EEG information from the first user terminal 111 . 1 It is possible to obtain the user's brain wave information.

일실시예에 따르면, 제1 뇌파 측정 장치(131)는 제1 사용자의 베타파, 알파파, 델타파 등을 측정할 수 있다. 제1 뇌파 측정 장치(131)는 뇌파의 진동수, 진폭, 파장, 위상차 등을 측정할 수 있다. 측정하는 뇌파의 종류 및 측정 항목은 실시예에 따라 달라질 수 있다.According to an embodiment, the first EEG measuring apparatus 131 may measure a beta wave, an alpha wave, a delta wave, etc. of the first user. The first EEG measuring device 131 may measure the frequency, amplitude, wavelength, and phase difference of the EEG. The type and measurement item of EEG to be measured may vary depending on the embodiment.

S202 단계에서, 서버(100)는 제1 사용자의 뇌파를 기초로, 제1 사용자의 상태가 양호한지 여부를 분석할 수 있다.In step S202 , the server 100 may analyze whether the state of the first user is good, based on the brain wave of the first user.

구체적으로, 서버(100)는 데이터베이스에 미리 등록되어 있는 제1 사용자의 뇌파와 실시간으로 획득되는 제1 사용자의 뇌파를 비교하여, 제1 사용자의 상태를 나쁜 상태, 양호 상태 및 좋은 상태 중 어느 하나로 분류할 수 있다.Specifically, the server 100 compares the brain wave of the first user registered in advance in the database with the brain wave of the first user obtained in real time, and sets the state of the first user to any one of a bad state, a good state, and a good state. can be classified.

서버(100)는 제1 사용자의 상태가 양호 상태 및 좋은 상태로 확인되는 경우, 제1 사용자의 상태가 양호한 것으로 분석할 수 있으며, 제1 사용자의 상태가 나쁜 상태로 확인되는 경우, 제1 사용자의 상태가 양호하지 않은 것으로 분석할 수 있다.The server 100 may analyze the state of the first user as good when the state of the first user is confirmed as good and good, and when the state of the first user is confirmed as bad, the first user can be analyzed to be in poor condition.

S203 단계에서, 서버(100)는 제1 사용자의 상태가 양호한지 여부를 확인할 수 있다.In step S203 , the server 100 may check whether the state of the first user is good.

S203 단계에서 제1 사용자의 상태가 양호하지 않은 것으로 확인되면, S204 단계에서, 서버(100)는 제1 사용자 단말(111)로 명상 콘텐츠를 제공하여, 제1 사용자 단말(111)의 화면에서 명상 콘텐츠가 재생되도록 제어할 수 있다. 이때, 서버(100)는 제1 사용자의 상태에 따라 명상 콘텐츠를 선별하여, 제1 사용자의 상태가 심각할수록 재생 길이가 긴 명상 콘텐츠를 제공할 수 있다.If it is confirmed in step S203 that the state of the first user is not good, in step S204 , the server 100 provides the meditation content to the first user terminal 111 and meditates on the screen of the first user terminal 111 . You can control the content to be played. In this case, the server 100 may select the meditation content according to the state of the first user, and provide the meditation content with a longer reproduction length as the state of the first user becomes more serious.

S204 단계 이후, 명상 콘텐츠의 재생이 완료되면, S201 단계로 되돌아가, 서버(100)는 명상을 통해 안정된 제1 사용자의 뇌파를 다시 획득할 수 있다.After step S204, when the reproduction of the meditation content is completed, the process returns to step S201, and the server 100 may acquire the EEG of the first user stable through meditation again.

한편, S203 단계에서 제1 사용자의 상태가 양호한 것으로 확인되면, S205 단계에서, 서버(100)는 제1 사용자 단말(111)에 장착된 카메라가 동작하여 촬영을 시작하도록 제어할 수 있다. 즉, 서버(100)는 제1 사용자 단말(111)로 카메라 동작을 위한 제어 신호를 전송할 수 있으며, 제1 사용자 단말(111)은 카메라를 통해 촬영을 시작할 수 있다.On the other hand, if it is confirmed in step S203 that the state of the first user is good, in step S205 , the server 100 may control the camera mounted on the first user terminal 111 to operate and start shooting. That is, the server 100 may transmit a control signal for camera operation to the first user terminal 111 , and the first user terminal 111 may start shooting through the camera.

S206 단계에서, 서버(100)는 제1 사용자 단말(111)에서 제1 사용자의 얼굴을 촬영하면, 제1 사용자 단말(111)로부터 제1 사용자의 얼굴 영상을 획득할 수 있다. 이때, 제1 사용자 단말(111)은 카메라를 통해 제1 사용자의 얼굴을 촬영하여 제1 사용자의 얼굴 영상을 생성할 수 있으며, 생성된 제1 사용자의 얼굴 영상을 서버(100)로 전송할 수 있다.In step S206 , when the first user's face is photographed by the first user terminal 111 , the server 100 may obtain an image of the first user's face from the first user terminal 111 . In this case, the first user terminal 111 may generate a face image of the first user by photographing the face of the first user through the camera, and may transmit the generated face image of the first user to the server 100 . .

S207 단계에서, 서버(100)는 제1 사용자의 얼굴 영상에서 제1 사용자의 눈을 인식하여, 제1 사용자의 시선을 추적할 수 있다.In step S207 , the server 100 may recognize the eyes of the first user from the face image of the first user and track the gaze of the first user.

구체적으로, 서버(100)는 제1 사용자의 얼굴 영상에서 제1 사용자의 좌측 및 우측 눈 영역을 각각 인식할 수 있다. 즉, 서버(100)는 제1 사용자의 얼굴 영상을 분석하여, 제1 사용자의 좌측 및 우측 눈이 위치하고 있는 영역을 파악할 수 있으며, 이를 통해, 제1 사용자의 좌측 눈이 위치하고 있는 영역과 제1 사용자의 우측 눈이 위치하고 있는 영역을 각각 인식할 수 있다.Specifically, the server 100 may recognize the left and right eye regions of the first user from the face image of the first user, respectively. That is, the server 100 may analyze the face image of the first user to determine the region where the left and right eyes of the first user are located, and through this, the region where the left eye of the first user is located and the first Regions in which the user's right eye is located may be recognized, respectively.

서버(100)는 인식된 눈 영역 각각에서 눈동자들의 위치를 확인할 수 있다. 즉, 서버(100)는 좌측 눈 영역에서 좌측 눈동자가 어느 부분에 위치하는지 확인할 수 있고, 우측 눈 영역에서 우측 눈동자가 어느 부분에 위치하는지 확인할 수 있다.The server 100 may check the positions of the pupils in each of the recognized eye regions. That is, the server 100 may determine where the left pupil is located in the left eye region and may determine where the right pupil is located in the right eye region.

서버(100)는 눈 영역 각각의 크기 및 눈동자들의 크기를 기반으로, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리를 산출할 수 있다.The server 100 may calculate a separation distance between the first user and the first user terminal 111 based on the size of each eye region and the size of the pupils.

구체적으로, 서버(100)는 좌측 눈 영역의 크기 및 우측 눈 영역의 크기를 비교하여, 제1 사용자가 제1 사용자 단말(111)의 화면을 똑바로 쳐다보고 있는지 판단할 수 있으며, 좌측 눈 영역의 크기와 우측 눈 영역의 크기의 차이가 오차범위 이내로 있는 것으로 확인되면, 제1 사용자가 제1 사용자 단말(111)의 화면을 똑바로 쳐다보고 있는 것으로 확인할 수 있다. 제1 사용자가 제1 사용자 단말(111)의 화면을 똑바로 쳐다보고 있는 상태에서, 서버(100)는 좌측 눈 영역에서 좌측 눈동자가 차지하고 있는 크기 또는 우측 눈 영역에서 우측 눈동자가 차지하고 있는 크기를 확인하여, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리를 산출할 수 있다. 이를 위해, 서버(100)는 제1 사용자의 눈동자 크기를 거리 별로 미리 등록한 상태에서, 눈동자가 제1 크기로 확인되면, 제1 크기에 대응하는 거리를 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리로 산출할 수 있다. 예를 들어, 제1 사용자의 눈동자의 크기가 1cm로 확인된 경우, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리는 30cm로 산출되고, 제1 사용자의 눈동자가 2cm로 확인된 경우, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리는 20cm로 산출될 수 있다. 즉, 눈동자의 크기가 클수록 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리는 더 작은 수치로 산출될 수 있다.Specifically, the server 100 may determine whether the first user is looking directly at the screen of the first user terminal 111 by comparing the size of the left eye area and the size of the right eye area, and If it is confirmed that the difference between the size and the size of the right eye region is within the error range, it may be confirmed that the first user is looking directly at the screen of the first user terminal 111 . In a state where the first user looks directly at the screen of the first user terminal 111, the server 100 checks the size occupied by the left pupil in the left eye region or the size occupied by the right pupil in the right eye region. , a separation distance between the first user and the first user terminal 111 may be calculated. To this end, in a state in which the pupil size of the first user is registered in advance for each distance, when the pupil is identified as the first size, the server 100 determines the distance corresponding to the first size between the first user and the first user terminal 111 . It can be calculated as the distance between them. For example, when the size of the pupil of the first user is determined to be 1 cm, the separation distance between the first user and the first user terminal 111 is calculated to be 30 cm, and when the pupil of the first user is confirmed to be 2 cm, the second The separation distance between the first user and the first user terminal 111 may be calculated as 20 cm. That is, as the size of the pupil increases, the separation distance between the first user and the first user terminal 111 may be calculated as a smaller value.

서버(100)는 눈동자들의 위치 및 이격 거리에 기초하여, 제1 사용자의 시선이 향하는 위치를 확인할 수 있으며, 눈동자의 위치 변경에 따라 제1 사용자의 시선이 이동한 것으로 확인되면, 이동하는 제1 사용자의 시선을 추적할 수 있다.The server 100 may determine a position to which the first user's gaze is directed based on the position and separation distance of the pupils, and when it is confirmed that the gaze of the first user has moved according to the change in the position of the pupil, the moving first The user's gaze can be tracked.

구체적으로, 서버(100)는 눈 영역 각각에서 눈동자들이 어느 방향에 치우쳐서 위치하는 것을 확인하여 벡터 방향을 설정하고, 제1 사용자와 제1 사용자 단말(111) 간의 이격 거리를 통해 벡터 크기를 설정하고, 벡터 방향 및 벡터 크기를 이용하여 제1 사용자의 시선이 향하는 위치를 예측하여 어느 부분을 응시하고 있는지 확인할 수 있으며, 눈동자들의 위치가 변경되면, 눈동자들의 위치 변경에 따라 이동하는 제1 사용자의 시선을 계속해서 추적할 수 있다.Specifically, the server 100 sets the vector direction by checking which direction the pupils are located in each eye region, and sets the vector size through the separation distance between the first user and the first user terminal 111 , , a vector direction and a vector size can be used to predict a position to which the first user's gaze is directed to determine which part is gazing, and when the position of the pupils is changed, the gaze of the first user that moves according to the change in the position of the pupils can be continuously tracked.

S208 단계에서, 서버(100)는 제1 사용자의 시선을 추적한 결과, 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는지 여부를 확인할 수 있다. 즉, 서버(100)는 제1 사용자의 시선이 향하는 위치를 통해 제1 사용자의 시선이 제1 사용자 단말(111)의 화면 내에 위치하는지 여부를 확인하여, 제1 사용자가 제1 사용자 단말(111)의 화면을 응시하고 있는지 여부를 확인할 수 있다.In step S208 , as a result of tracking the gaze of the first user, the server 100 may determine whether the gaze of the first user is gazing at the screen of the first user terminal 111 . That is, the server 100 confirms whether the gaze of the first user is located within the screen of the first user terminal 111 through the position to which the gaze of the first user is directed, so that the first user ), you can check whether you are staring at the screen.

S208 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는 것으로 확인되면, S209 단계에서, 서버(100)는 제1 사용자 단말(111)로 학습 콘텐츠를 제공하여, 제1 사용자 단말(111)의 화면에서 학습 콘텐츠가 재생되도록 제어할 수 있다.If it is confirmed in step S208 that the gaze of the first user is gazing at the screen of the first user terminal 111, in step S209, the server 100 provides the learning content to the first user terminal 111, 1 It is possible to control so that learning content is reproduced on the screen of the user terminal 111 .

서버(100)는 제1 사용자 단말(111)로 학습 콘텐츠를 제공하기 전에, 제1 사용자의 기본 정보를 기초로, 제1 사용자가 수강하기 적합한 학습 콘텐츠를 생성할 수 있다. 여기서, 제1 사용자의 기본 정보는 사용자의 나이, 성별, 지역, 학습 성취도, 수강 과목, 미수강 과목, 수강 희망 과목, 선호하는 과목, 비선호 과목, 각각의 학습 콘텐츠 학습 시 측정된 사용자의 뇌파 정보 등을 포함할 수 있다. 각각의 학습 콘텐츠 학습 시 측정된 사용자의 뇌파 정보는 제1 뇌파 측정 장치(131)로부터 획득될 수 있다.Before providing the learning content to the first user terminal 111 , the server 100 may generate learning content suitable for the first user to take, based on the basic information of the first user. Here, the basic information of the first user is the user's age, gender, region, learning achievement, subjects taken, subjects not taken, subjects to be taken, preferred subjects, non-preferred subjects, and EEG information of the user measured when learning each learning content and the like. EEG information of the user measured when learning each learning content may be obtained from the first EEG measuring device 131 .

학습 콘텐츠는 하나의 학습 주제를 가지는 콘텐츠 단위일 수 있다. 학습 콘텐츠는 학습 동영상 등일 수 있다. 각각의 학습 콘텐츠는 순서 또는 종류의 변경이 가능한 하나 이상의 학습 콘텐츠 모듈을 포함할 수 있다. 예를 들어, 학습 콘텐츠가 동영상인 경우, 학습 콘텐츠는 기본 프레임과 순서 또는 종류의 변경이 가능한 하나 이상의 세부 영상 파트들(학습 콘텐츠 모듈들)로 이루어질 수 있다. 학습 콘텐츠 모듈들은 기본 프레임에서 학습 콘텐츠 모듈들이 삽입될 수 있는 구간에 삽입될 수 있다.The learning content may be a content unit having one learning topic. The learning content may be a learning video or the like. Each learning content may include one or more learning content modules that can be changed in order or type. For example, when the learning content is a moving picture, the learning content may include a basic frame and one or more detailed image parts (learning content modules) that can be changed in order or type. The learning content modules may be inserted in a section in which the learning content modules may be inserted in the basic frame.

학습 콘텐츠 모듈들은 카테고리별로 분류될 수 있다. 가령, 핵심 개념 설명 모듈, 배경 지식 설명 모듈, 사례 적용 모듈, 문제 풀이 해설 모듈, 심화 학습 모듈 등의 카테고리가 있을 수 있다. 학습 콘텐츠 모듈들은 카테고리별로 난이도가 상이한 버전들을 가질 수 있다. 예를 들어, 핵심 개념 설명 모듈-하(下), 핵심 개념 설명 모듈-중(中), 핵심 개념 설명 모듈-상(上)과 같이 하나의 학습 콘텐츠 모듈 카테고리 안에 난이도가 상이한 학습 콘텐츠 모듈 버전들이 있을 수 있다. 적어도 하나 이상의 카테고리의 학습 콘텐츠 모듈이 학습 콘텐츠에 포함될 수 있다. 이때, 학습 성취도가 높은 사용자라면, 사용자의 학습 콘텐츠는 상-난이도의 동일한 카테고리의 학습 콘텐츠 모듈이 포함될 수 있고, 학습 성취도가 낮은 사용자라면, 사용자의 학습 콘텐츠는 하-난이도의 동일한 카테고리의 학습 콘텐츠 모듈이 포함될 수 있다.Learning content modules may be classified by category. For example, there may be categories such as a core concept explanation module, a background knowledge explanation module, a case application module, a problem solving explanation module, and a deep learning module. The learning content modules may have versions with different levels of difficulty for each category. For example, there are learning content module versions with different levels of difficulty within one learning content module category, such as core concept explanation module-low (bottom), core concept explanation module-medium (middle), and core concept explanation module-upper (top). there may be At least one or more categories of learning content modules may be included in the learning content. In this case, if the user has a high learning achievement, the user's learning content may include a learning content module of the same category of higher-difficulty level Modules may be included.

서버(100)는 각각의 사용자의 기본 정보를 기초로, 각각의 사용자가 수강하기 적합한 각각의 학습 콘텐츠를 선별할 수 있다. 이어서, 서버(100)는 각각의 사용자의 기본 정보를 기초로, 각각의 학습 콘텐츠 내의 학습 콘텐츠 모듈들의 순서 및 종류를 선별할 수 있다. 서버(100)는 사용자의 학습 성취도 등을 기초로 동일 카테고리 내의 학습 콘텐츠 모듈의 난이도를 선별하는 방식으로 학습 콘텐츠 모듈들의 종류를 선별할 수 있다. 서버(100)는 사용자의 집중도 지속 시간이 증대되고, 사용자의 집중도 하위 구간이 최소화되도록, 학습 콘텐츠 내에서 서로 다른 카테고리 간의 학습 콘텐츠 모듈들의 순서를 변경할 수 있다. 이를 통해, 서버(100)는 각각의 사용자의 학습 콘텐츠를 생성할 수 있다.The server 100 may select each learning content suitable for each user to take, based on the basic information of each user. Subsequently, the server 100 may select the order and type of learning content modules in each learning content based on the basic information of each user. The server 100 may select the types of learning content modules by selecting the difficulty level of the learning content modules in the same category based on the user's learning achievement. The server 100 may change the order of learning content modules between different categories in the learning content so that the user's concentration duration is increased and the user's concentration subsection is minimized. Through this, the server 100 may generate learning content for each user.

서버(100)가 각각의 사용자의 학습 콘텐츠를 생성하는 일련의 동작은 제1 인공지능을 기초로 이루어질 수 있다. 이를 위해, 서버(100)는 미리 학습된 제1 인공지능을 포함할 수 있다. 제1 인공지능은 각각의 계정(121, 122, 123)의 기본 정보를 입력받아, 각각의 계정(121, 122, 123)을 위한 학습 콘텐츠를 생성하도록 학습될 수 있다. 제1 인공지능은 계정 사용자가 학습해야 하는 과목들, 계정 사용자의 현재까지 학습 성취도, 계정 사용자의 학습 성취도 변화 추이, 계정 사용자가 이전 학습 콘텐츠를 사용할 때 뇌파 정보 등을 입력으로 받아, 각각의 계정(121, 122, 123)을 위한 학습 콘텐츠를 생성할 수 있다. 제1 인공지능의 구체적인 학습 동작은 도 10을 참조하여 후술된다.A series of operations in which the server 100 generates each user's learning content may be performed based on the first artificial intelligence. To this end, the server 100 may include a pre-learned first artificial intelligence. The first artificial intelligence may be trained to receive basic information of each account 121 , 122 , and 123 to generate learning content for each account 121 , 122 , 123 . The first artificial intelligence receives as inputs the subjects that the account user needs to learn, the account user's learning achievement to date, the change in the account user's learning achievement change, and the EEG information when the account user uses the previous learning content, Learning content for (121, 122, 123) can be created. A specific learning operation of the first artificial intelligence will be described later with reference to FIG. 10 .

한편, S208 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있지 않은 것으로 확인되면, 학습 준비가 완료되지 않은 상태로 판단하여, S201 단계로 되돌아가, 서버(100)는 제1 사용자의 뇌파를 획득하는 과정부터 다시 수행할 수 있다.On the other hand, if it is confirmed that the first user's gaze is not gazing at the screen of the first user terminal 111 in step S208, it is determined that the learning preparation is not completed, and the process returns to step S201, and the server 100 may be performed again from the process of acquiring the brain wave of the first user.

도 3은 일실시예에 따른 학습 콘텐츠에 대한 사용자의 집중도를 산출하는 과정을 설명하기 위한 순서도이다.3 is a flowchart illustrating a process of calculating a user's concentration on learning content according to an exemplary embodiment.

도 3을 참조하면, 먼저, S301 단계에서, 서버(100)는 제1 사용자 단말(111)로 학습 콘텐츠를 제공하여, 제1 사용자 단말(111)의 화면에서 학습 콘텐츠가 재생되도록 제어할 수 있다. 즉, 서버(100)는 제1 사용자 단말(111)로부터 제1 사용자의 뇌파가 획득되고 있고, 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는 것으로 확인되면, 학습 준비가 완료된 상태로 판단하여, 제1 사용자 단말(111)로 학습 콘텐츠를 제공할 수 있다.Referring to FIG. 3 , first, in step S301 , the server 100 may provide the learning content to the first user terminal 111 and control the learning content to be reproduced on the screen of the first user terminal 111 . . That is, the server 100 obtains the brain wave of the first user from the first user terminal 111 , and when it is confirmed that the gaze of the first user is gazing at the screen of the first user terminal 111 , preparation for learning By determining that the is completed, the learning content may be provided to the first user terminal 111 .

S302 단계에서, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 재생되는 동안, 제1 뇌파 측정 장치(131)에서 측정된 제1 사용자의 뇌파를 제1 뇌파 측정 장치(131)와 연결된 제1 사용자 단말(111)로부터 획득할 수 있다. 이때, 서버(100)는 각각의 사용자의 뇌파를 미리 정의된 기준에 따라 지표화할 수 있다. 여기서, 미리 정의된 지표들은 학습 콘텐츠별 집중도 상위 구간, 집중도 보통 구간, 집중도 하위 구간, 집중도 지속 시간, 졸음 구간 등을 포함할 수 있다. 미리 정의된 지표들의 구체적인 설명은 도 4를 참조하여 후술된다.In step S302 , the server 100 compares the first user's EEG measured by the first EEG measuring device 131 with the first EEG measuring device 131 while the learning content is being reproduced in the first user terminal 111 . It may be obtained from the connected first user terminal 111 . In this case, the server 100 may index each user's EEG according to a predefined criterion. Here, the predefined indicators may include a high concentration section for each learning content, a normal concentration section, a low concentration section, a concentration duration, a drowsiness section, and the like. A detailed description of the predefined indicators will be described later with reference to FIG. 4 .

S303 단계에서, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 재생되는 동안, 제1 사용자의 얼굴을 촬영하고 있는 제1 사용자 단말(111)로부터 제1 사용자의 얼굴 영상을 획득할 수 있다.In step S303 , the server 100 acquires the face image of the first user from the first user terminal 111 that is photographing the face of the first user while the learning content is played in the first user terminal 111 . can

S304 단계에서, 서버(100)는 제1 사용자의 얼굴 영상에서 제1 사용자의 눈을 인식할 수 있다.In step S304 , the server 100 may recognize the eyes of the first user from the face image of the first user.

S305 단계에서, 서버(100)는 제1 사용자의 얼굴 영상에서 인식된 제1 사용자의 눈을 기초로, 눈에 대한 움직임을 확인하여, 눈 움직임에 따라 제1 사용자의 시선을 추적할 수 있다.In step S305 , the server 100 may check the movement of the eyes of the first user based on the eyes of the first user recognized from the face image of the first user, and track the gaze of the first user according to the movement of the eyes.

S306 단계에서, 서버(100)는 제1 사용자의 얼굴 영상에서 인식된 제1 사용자의 눈을 기초로, 제1 사용자의 EAR(Eye Aspect Ratio)을 측정할 수 있다.In step S306 , the server 100 may measure an EAR (Eye Aspect Ratio) of the first user based on the eyes of the first user recognized from the face image of the first user.

S307 단계에서, 서버(100)는 학습 콘텐츠의 재생이 완료되었는지 여부를 확인할 수 있다.In step S307, the server 100 may check whether the reproduction of the learning content is completed.

S307 단계에서 학습 콘텐츠의 재생이 완료되지 않은 것으로 확인되면, S301 단계로 되돌아가, 서버(100)는 학습 콘텐츠의 재생이 완료될 때까지, 제1 사용자 단말(111)의 화면에서 학습 콘텐츠가 재생되도록 제어할 수 있다.If it is confirmed in step S307 that the reproduction of the learning content has not been completed, the process returns to step S301, and the server 100 reproduces the learning content on the screen of the first user terminal 111 until the reproduction of the learning content is completed. can be controlled as much as possible.

S307 단계에서 학습 콘텐츠의 재생이 완료된 것으로 확인되면, S308 단계에서, 서버(100)는 학습 콘텐츠가 재생되는 동안 측정된 제1 사용자의 뇌파를 기초로, 제1 사용자의 뇌파에 대한 변화를 확인할 수 있다.If it is confirmed in step S307 that the reproduction of the learning content has been completed, in step S308, the server 100 may determine a change in the brainwave of the first user based on the brainwave of the first user measured while the learning content is being reproduced. have.

S307 단계에서 학습 콘텐츠의 재생이 완료된 것으로 확인되면, S309 단계에서, 서버(100)는 학습 콘텐츠가 재생되는 동안 추적된 제1 사용자의 시선을 기초로, 제1 사용자의 시선 변화를 통해 제1 사용자가 화면을 응시한 응시 상태를 시간대 별로 확인할 수 있다.If it is confirmed in step S307 that the reproduction of the learning content is completed, in step S309, the server 100 based on the gaze of the first user tracked while the learning content is being reproduced, through the change of the gaze of the first user, the first user You can check the status of the staring at the screen for each time period.

S307 단계에서 학습 콘텐츠의 재생이 완료된 것으로 확인되면, S310 단계에서, 서버(100)는 학습 콘텐츠가 재생되는 동안 측정된 제1 사용자의 EAR을 기초로, 제1 사용자의 EAR에 대한 변화를 통해 눈 깜빡임 상태를 시간대 별로 확인할 수 있다. 이때, 서버(100)는 EAR을 통해 제1 사용자의 눈에 대한 가로 세로 비율을 측정하여, 제1 사용자가 눈을 뜨고 있는지 또는 눈을 감고 있는지 여부를 시간대 별로 확인할 수 있으며, 눈 깜빡임 횟수, 간격 등을 더 확인할 수도 있다.If it is confirmed that the reproduction of the learning content is completed in step S307, in step S310, the server 100 is based on the EAR of the first user measured while the learning content is being reproduced, through a change to the EAR of the first user. You can check the blinking status by time period. At this time, the server 100 measures the aspect ratio of the eyes of the first user through the EAR, and can check whether the first user has their eyes open or closed for each time period, and the number of eye blinks, the interval You can also check more.

S311 단계에서, 서버(100)는 제1 사용자의 뇌파에 대한 변화, 눈 깜빡임 상태 및 응시 상태를 기초로, 학습을 수행한 시간을 분석하여, 학습 콘텐츠에 대한 제1 사용자의 집중도를 산출할 수 있다.In step S311, the server 100 may calculate the concentration of the first user on the learning content by analyzing the learning time based on the change in the brain wave of the first user, the blinking state, and the gaze state. have.

구체적으로, 서버(100)는 제1 사용자의 뇌파에 대한 변화를 기초로, 시간대 별로 학습을 얼마나 집중해서 수행하였는지 분석할 수 있으며, 제1 사용자의 눈 깜빡임 상태를 기초로, 눈 깜빡임 횟수, 간격, 눈을 감고 있는 시간 등을 통해 시간대 별로 학습을 얼마나 집중해서 수행하였는지 분석할 수 있으며, 제1 사용자의 응시 상태를 기초로, 화면을 응시하였는지 여부를 통해 시간대 별로 학습을 얼마나 집중해서 수행하였는지 분석할 수 있다. 즉, 서버(100)는 제1 사용자의 뇌파, 눈 깜빡임, 화면 응시 여부 등을 종합적으로 고려하여, 학습 콘텐츠에 대한 제1 사용자의 집중도를 산출할 수 있다.Specifically, the server 100 may analyze how intensively the learning was performed for each time period based on the change in the brain wave of the first user, and based on the blinking state of the first user, the number of blinks, the interval It is possible to analyze how intensively the learning was performed for each time zone through the time when the eyes were closed, etc., and based on the gaze state of the first user, it is possible to analyze how intensively the learning was performed for each time zone through whether or not the screen was stared. can do. That is, the server 100 may calculate the concentration of the first user on the learning content by comprehensively considering the first user's brain waves, blinking eyes, staring at the screen, and the like.

도 4는 일실시예에 따른 학습 콘텐츠의 지표들을 설명하기 위한 도면이다.4 is a diagram for explaining indices of learning content according to an embodiment.

학습 콘텐츠(400)는 하나의 학습 주제를 가지는 콘텐츠 단위일 수 있다. 도 4에 도시된 것과 같이, 학습 콘텐츠(400)는 학습 동영상일 수 있다.The learning content 400 may be a content unit having one learning topic. 4 , the learning content 400 may be a learning video.

각각의 착용형 뇌파 측정 장치들(131-133)은 학습 콘텐츠를 사용 중인 사용자의 베타파(401), 알파파(402), 델타파(403) 등을 측정할 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)은 사용자들 각각의 뇌파의 진동수, 진폭, 파장, 위상차 등을 측정할 수 있다. 측정하는 뇌파의 종류 및 측정 항목은 실시예에 따라 달라질 수 있다. 각각의 착용형 뇌파 측정 장치들(131-133)이 측정한 사용자의 뇌파 정보는 뇌파 측정 장치들(131-133)과 연결된 각각의 사용자 단말들(111-113)을 통해 서버(100)로 전송될 수 있다.Each of the wearable brain wave measuring devices 131-133 may measure a beta wave 401, an alpha wave 402, a delta wave 403, and the like of a user who is using the learning content. Each of the wearable EEG measuring devices 131-133 may measure the frequency, amplitude, wavelength, phase difference, etc. of each user's EEG. The type and measurement item of EEG to be measured may vary depending on the embodiment. The user's EEG information measured by each of the wearable EEG measuring devices 131-133 is transmitted to the server 100 through the respective user terminals 111-113 connected to the EEG measuring devices 131-133. can be

서버(100)는 각각의 사용자의 뇌파를 미리 정의된 기준에 따라 지표화할 수 있다. 이를 위해, 서버(100)는 사용자가 학습 콘텐츠(400)를 시청하는 동안의 뇌파의 종류-베타파(401), 알파파(402), 델타파(403) 등-및 측정 항목들-진동수, 진폭, 파장, 위상차 등-을 기초로, 학습 콘텐츠(400)에 대한 사용자의 집중도(410)를 연산할 수 있다. 사용자의 집중도(410)는 학습 콘텐츠(400)의 진행 시간에 따라 변화하는 시계열성을 가질 수 있다. 사용자의 베타파(401)가 활성화된 구간에서 사용자의 집중도(410)는 상승하거나 높은 값을 가질 수 있다. 사용자의 알파파(402) 또는 델타파(403)가 활성화된 구간에서 사용자의 집중도(410)는 하강하거나 낮은 값을 가질 수 있다.The server 100 may index each user's brain waves according to a predefined criterion. To this end, the server 100 determines the types of brain waves—beta wave 401, alpha wave 402, delta wave 403, etc.—and measurement items—frequency, while the user watches the learning content 400; Based on amplitude, wavelength, phase difference, etc., the concentration 410 of the user on the learning content 400 may be calculated. The user's concentration 410 may have time-series that changes according to the progress time of the learning content 400 . In a section in which the user's beta wave 401 is activated, the user's concentration 410 may increase or have a high value. In a section in which the user's alpha wave 402 or delta wave 403 is activated, the user's concentration 410 may decrease or have a low value.

이어서, 서버(100)는 각각의 사용자의 집중도(410)를 기초로, 각각의 사용자의 지표들을 연산할 수 있다. 각각의 사용자의 지표는 학습 콘텐츠별 집중도 상위 구간, 학습 콘텐츠별 집중도 보통 구간, 학습 콘텐츠별 집중도 하위 구간 및 각각의 사용자의 집중도 지속 시간을 포함할 수 있다.Then, the server 100 may calculate each user's indices based on each user's concentration 410 . The index of each user may include a high concentration section for each learning content, a normal concentration section for each learning content, a low concentration section for each learning content, and a duration of concentration of each user.

집중도 상위 구간(411)은 사용자의 집중도(410)가 미리 정의된 기준 이상으로 활성화된 구간일 수 있다. 가령, 이 구간에서 사용자의 베타파(401)는 미리 정의된 수준 이상으로 활성화되어 있을 수 있다. 집중도 하위 구간(413)은 사용자의 집중도(410)가 미리 정의된 기준 이하로 저하된 구간일 수 있다. 가령, 이 구간에서 사용자의 알파파(402) 또는 델타파(403)는 미리 정의된 수준 이상으로 활성화되는 구간일 수 있다. 집중도 보통 구간(412)는 사용자의 집중도(410)가 미리 정의된 기준 범위 내에 속하는 구간일 수 있다.The high concentration section 411 may be a section in which the user's concentration level 410 is activated by more than a predefined criterion. For example, in this section, the user's beta wave 401 may be activated above a predefined level. The concentration subsection 413 may be a section in which the user's concentration level 410 is lowered to less than or equal to a predefined standard. For example, in this section, the user's alpha wave 402 or delta wave 403 may be a section in which more than a predefined level is activated. The concentration normal section 412 may be a section in which the concentration level 410 of the user falls within a predefined reference range.

사용자의 집중도(410)에서 집중도 상위 구간(411) 및 집중도 하위 구간(413)을 구분하는 미리 정의된 기준 집중도(상위 임계 집중도 및 하위 임계 집중도)는 학습 콘텐츠별로 상이할 수 있다. 집중도 상위 구간(411) 및 집중도 하위 구간(413)을 구분하는 미리 정의된 기준은 학습 콘텐츠의 내용, 난이도, 대상 학년 등에 따라 달라질 수 있다.In the user's concentration level 410 , a predefined reference level of concentration (upper-threshold level of concentration and lower-level level of concentration) that separates the upper level section 411 and the lower level section 413 of the concentration level may be different for each learning content. The predefined criteria for classifying the high concentration section 411 and the concentration low section 413 may vary depending on the content of the learning content, difficulty level, target grade, and the like.

학습 콘텐츠별로 집중도 상위 구간(411) 및 집중도 하위 구간(413)을 구분하는 미리 정의된 기준 집중도는 미리 학습된 제2 인공지능의 추론을 기초로 이루어질 수 있다. 이를 위해, 서버(100)는 미리 학습된 제2 인공지능을 포함할 수 있다. 제2 인공지능은 각각의 학습 콘텐츠의 학습 주제, 학습 난이도, 학습 콘텐츠를 수강하는 사용자들의 평균 연령, 그 동안 학습 콘텐츠를 수강한 사용자들의 뇌파 정보 등을 입력으로 받아, 각각의 학습 콘텐츠의 집중도 상위 구간(411) 및 집중도 하위 구간(413)을 구분하는 미리 정의된 기준 집중도(상위 임계 집중도 및 하위 임계 집중도)를 학습 콘텐츠별로 출력할 수 있다. 제2 인공지능의 구체적인 학습 동작은 도 10을 참조하여 후술된다.A predefined reference degree of concentration for classifying the upper concentration section 411 and the lower concentration section 413 for each learning content may be made based on the pre-learned inference of the second artificial intelligence. To this end, the server 100 may include a pre-learned second artificial intelligence. The second artificial intelligence receives the learning topic of each learning content, learning difficulty, average age of users taking the learning content, brain wave information of users who have taken the learning content, etc. A predefined reference degree of concentration (higher-threshold concentration and lower-threshold concentration) that distinguishes the section 411 and the concentration subsection 413 may be output for each learning content. A specific learning operation of the second artificial intelligence will be described later with reference to FIG. 10 .

집중도 지속 시간(414)은 학습 콘텐츠(400) 시작부터 첫번째 집중도 하위 구간의 시작점까지의 시간 간격, n(n은 자연수)번째 집중도 하위 구간의 끝점부터 n+1번째 집중도 하위 구간의 시작점까지의 시간 간격, 및 마지막 집중도 하위 구간의 끝점부터 학습 콘텐츠(400)의 종료까지의 시간 간격을 엘리먼트로 하는 리스트로 구성될 수 있다. 즉, 집중도 지속 시간(414)은 집중도 상위 구간(411) 및 집중도 보통 구간(412)에 속하는 시간대를 엘리먼트로 하여 구성될 수 있다.The concentration duration 414 is a time interval from the start of the learning content 400 to the start point of the first subsection of the concentration level, the time from the end point of the n (n is a natural number)-th subsection to the start point of the n+1th subsection of the concentration level The interval and the time interval from the end point of the last concentration subsection to the end of the learning content 400 may be composed of a list as elements. That is, the concentration duration 414 may be configured using, as an element, a time period belonging to the high concentration section 411 and the concentration normal section 412 .

서버(100)는 집중도 지속 시간(414)의 각 엘리먼트를 합함으로써 학습 콘텐츠가 진행되는 동안 사용자의 총 집중 시간을 확인할 수 있다. 또한, 학습 중 일반적으로 강의 초반에는 집중을 하다가 강의 중후반이 넘어가면 집중이 흐트러지는 경향이 있다. 이러한 점을 모니터링 하기 위해, 서버(100)는 집중도 지속 시간(414)의 각 엘리먼트의 길이를 확인함으로써 사용자가 학습 콘텐츠(강의 등) 초반에는 집중을 얼마만큼 잘 유지하다가, 학습 콘텐츠 중반 또는 후반부터 집중력을 얼마만큼 잃었는지 확인할 수 있다. 또한, 각 엘리먼트에 속하지 않는 시간대는 집중도 하위 구간(413)에 속하는 시간대이므로, 서버(100)는 각 엘리먼트에 속하지 않는 시간대를 통해 사용자가 흥미를 느끼지 않거나 난이도가 높아 포기한 학습 콘텐츠 모듈이 어떤 모듈이었는지 확인할 수 있다. 이를 통해, 서버(100)는 학습 콘텐츠(400)을 이용하는 사용자의 집중력 및 학업 성취도를 분석할 수 있다.The server 100 may check the total concentration time of the user while the learning content is in progress by summing each element of the concentration duration 414 . In addition, there is a tendency for students to concentrate in the beginning of a lecture, but to become distracted after the middle of the lecture. In order to monitor this point, the server 100 checks the length of each element of the concentration duration 414 to see how well the user maintains concentration in the beginning of the learning content (lecture, etc.) You can see how much concentration you have lost. In addition, since the time zone that does not belong to each element is a time zone that belongs to the concentration subsection 413, the server 100 determines which module is the learning content module that the user is not interested in or has given up due to the high difficulty through the time zone that does not belong to each element. can be checked Through this, the server 100 may analyze the concentration and academic achievement of the user who uses the learning content 400 .

서버(100)는 집중도 상위 구간(411), 집중도 보통 구간(412), 집중도 하위 구간(413), 및 집중도 지속 시간(414)을 기초로 사용자의 집중도가 개선될 수 있도록 학습 콘텐츠를 재구성할 수 있다. 구체적으로, 서버(100)는 각각의 사용자의 학습 콘텐츠에 대해 집중도 상위 시간을 늘리거나, 집중도 하위 시간을 줄이거나, 눈 깜빡임을 통해 확인되는 졸음 구간을 줄이거나, 시선을 통해 확인되는 집중 못하는 구간을 줄이는 방식 등으로 동일한 학습 주제에 대한 학습 콘텐츠를 재구성하여 각각의 사용자에게 제공할 수 있다. 서버(100)가 각각의 사용자의 학습 콘텐츠를 재구성하는 동작은 다음을 포함할 수 있다.The server 100 reconfigures the learning content so that the concentration of the user can be improved based on the concentration high section 411, the concentration normal section 412, the concentration low section 413, and the concentration duration 414. have. Specifically, the server 100 increases the high concentration time for each user's learning content, reduces the concentration low time, reduces the drowsiness section confirmed through eye blinking, or the inability to concentrate section confirmed through the gaze It is possible to provide each user by reorganizing the learning content for the same learning topic by reducing the number of . The operation of the server 100 to reconstruct each user's learning content may include the following.

먼저, 서버(100)는 각각의 사용자의 학습 콘텐츠(400)의 집중도 상위 구간 및 학습 콘텐츠(400)의 집중도 하위 구간을 기초로, 학습 콘텐츠(400)에서 적어도 하나 이상의 학습 콘텐츠 모듈의 순서 또는 종류를 변경할 수 있다.First, the server 100 determines the order or type of at least one or more learning content modules in the learning content 400 based on each user's concentration upper section of the learning content 400 and the concentration lower section of the learning content 400 . can be changed

예를 들어, 학습 콘텐츠(400)의 제1 집중도 하위 구간과 시간대가 가장 많이 겹치는 학습 콘텐츠 모듈이 있을 수 있다. 해당 학습 콘텐츠 모듈은 사용자에게 너무 어렵거나, 반대로 너무 쉬워서 사용자의 이목을 끌지 못할 수 있다. 서버(100)에 포함된 인공지능에 해당 학습 콘텐츠 모듈이 재생될 때 측정된 사용자의 뇌파 정보를 입력하여, 사용자가 해당 학습 콘텐츠 모듈을 너무 어렵다고 생각하는지 또는 쉽다고 생각하는지 판별할 수 있다. 이를 기초로, 서버(100)는 해당 학습 콘텐츠 모듈의 난이도를 상향 또는 하향 조정한 버전의 학습 콘텐츠 모듈로 변경할 수 있다.For example, there may be a learning content module in which the first concentration sub-section of the learning content 400 and the time period overlap the most. The corresponding learning content module may be too difficult for the user or, conversely, too easy to attract the user's attention. By inputting the EEG information of the user measured when the corresponding learning content module is played back to the artificial intelligence included in the server 100, it is possible to determine whether the user thinks the learning content module is too difficult or easy. Based on this, the server 100 may change the learning content module to a version of the learning content module in which the difficulty of the corresponding learning content module is adjusted upward or downward.

또는, 학습 콘텐츠(400)의 제1 집중도 상위 구간과 시간대가 가장 많이 겹치는 학습 콘텐츠 모듈이 있을 수 있다. 해당 학습 콘텐츠 모듈은 사용자가 관심 있는 분야이거나, 단순히 학습 콘텐츠 초반부라서 사용자의 집중력이 높을 수 있다. 서버(100)에 포함된 인공지능에 해당 학습 콘텐츠 모듈이 재생될 때 측정된 사용자의 뇌파 정보를 입력하여, 사용자가 해당 학습 콘텐츠 모듈을 흥미 있게 여기는지, 혹은 단순히 학습 콘텐츠 초반부라서 사용자의 집중력이 좋은 것인지 판별할 수 있다. 사용자가 해당 학습 콘텐츠 모듈을 흥미 있게 여긴다면, 서버(100)는 해당 학습 콘텐츠 모듈의 난이도를 상향 조정할 수 있다. 단순히 학습 콘텐츠 초반부라서 집중력이 높은 경우라면, 서버(100)는 사용자가 해당 학습 콘텐츠를 복습할 때 해당 학습 콘텐츠 모듈의 순서를 보다 후반부로 배치할 수 있다.Alternatively, there may be a learning content module in which the time period most overlaps with the first high-intensity section of the learning content 400 . The corresponding learning content module may be an area that the user is interested in, or simply because it is the beginning of the learning content, the user's concentration may be high. By inputting the user's brain wave information measured when the corresponding learning content module is played back to the artificial intelligence included in the server 100, the user's concentration is reduced whether the user finds the corresponding learning content module interesting or simply because it is the beginning of the learning content. can determine if it is good. If the user finds the corresponding learning content module interesting, the server 100 may increase the difficulty level of the corresponding learning content module. If the concentration is high simply because it is the beginning of the learning content, the server 100 may arrange the order of the learning content module to the later part when the user reviews the learning content.

또한, 서버(100)는 각각의 사용자의 집중도 지속 시간(414)을 기초로, 각각의 사용자에게 제공되는 학습 콘텐츠(400)에 휴식 시간을 분배할 수 있다.In addition, the server 100 may distribute the break time to the learning content 400 provided to each user based on the concentration duration 414 of each user.

예를 들어, 사용자가 60분짜리 학습 콘텐츠(400)을 사용할 때, 집중도 지속 시간(414)의 첫번째 엘리먼트가 “강의 시작 ~ 30분”, 두번째 엘리먼트가 “35분 ~ 45분”, 세번째 엘리먼트가 “55분 ~ 강의 종료”일 수 있다. 서버(100)는 해당 사용자가 학습 콘텐츠의 절반 시간 정도까지는 집중력이 좋다가(30분 집중), 짧은 시간(5분 동안 집중도 하위 구간) 집중력을 놓치고, 집중 시간이 짧아지고(10분 집중), 집중력을 놓치는 시간이 길어지고(10분 동안 집중도 하위 구간), 집중 시간이 보다 짧아지는 점(5분 집중) 등을 분석할 수 있다.For example, when the user uses 60-minute learning content 400, the first element of the concentration duration 414 is “Lecture start ~ 30 minutes”, the second element is “35 minutes ~ 45 minutes”, and the third element is It may be “55 minutes ~ the end of the lecture”. The server 100 indicates that the user has good concentration for up to half the time of the learning content (30-minute concentration), then loses concentration for a short time (low concentration for 5 minutes), and the concentration time becomes shorter (10-minute concentration), It is possible to analyze the point that the time to miss concentration becomes longer (concentration subsection for 10 minutes) and the concentration time becomes shorter (concentration for 5 minutes).

서버(100)는 해당 사용자의 집중력이 흐트러지는 시간을 기초로, 휴식 시간을 분배하고, 각각의 휴식 시간 길이를 설정할 수 있다. 가령, 휴식 시간을 제외한 학습 콘텐츠의 경과 시간을 기준으로, 서버(100)는 “30분 경과 후: 5분 휴식”, “20분 경과 후: 10분 휴식” 등과 같이 휴식 시간을 분배할 수 있다.The server 100 may distribute the break time based on the time the user's concentration is disturbed, and set the length of each break time. For example, based on the elapsed time of the learning content excluding the break time, the server 100 may distribute the break time such as “After 30 minutes: 5 minutes break”, “After 20 minutes: 10 minutes break”, etc. .

도 5는 일실시예에 따른 학습 콘텐츠가 재생되는 동안 측정 상태를 체크하는 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a process of checking a measurement state while learning content is reproduced according to an exemplary embodiment.

도 5를 참조하면, 먼저, S501 단계에서, 서버(100)는 제1 사용자 단말(111)로 학습 콘텐츠를 제공하여, 제1 사용자 단말(111)의 화면에서 학습 콘텐츠가 재생되도록 제어할 수 있다.Referring to FIG. 5 , first, in step S501 , the server 100 may provide the learning content to the first user terminal 111 to control the learning content to be reproduced on the screen of the first user terminal 111 . .

서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 재생되면, 제1 사용자 단말(111)로부터 제1 사용자의 뇌파 정보가 획득되고 있는지 여부에 따라, 제1 사용자의 뇌파가 측정되고 있는 상태인지 여부를 확인할 수 있으며, 제1 사용자 단말(111)로부터 획득된 얼굴 영상을 통해 제1 사용자의 EAR이 측정되고 있는 상태인지 여부를 확인할 수 있다.When the learning content is reproduced in the first user terminal 111, the server 100 measures the brain wave of the first user according to whether the brain wave information of the first user is being acquired from the first user terminal 111. It can be checked whether the state is in the state, and whether the EAR of the first user is being measured through the face image obtained from the first user terminal 111 can be confirmed.

S502 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 제1 사용자의 뇌파 정보가 획득되고 있는지 여부에 따라, 제1 사용자의 뇌파가 측정되고 있는 상태인지 여부를 확인할 수 있다.In step S502 , the server 100 may determine whether the EEG of the first user is being measured according to whether EEG information of the first user is being obtained from the first user terminal 111 .

S502 단계에서 제1 사용자의 뇌파가 측정되고 있는 것으로 확인되면, S503 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 획득된 얼굴 영상을 통해 제1 사용자의 EAR이 측정되고 있는 상태인지 여부를 확인할 수 있다.If it is confirmed in step S502 that the brain wave of the first user is being measured, in step S503 , the server 100 determines whether the EAR of the first user is being measured through the face image obtained from the first user terminal 111 . can check whether

S503 단계에서 제1 사용자의 EAR이 측정되고 있는 것으로 확인되면, S504 단계에서, 서버(100)는 제1 사용자의 뇌파와 제1 사용자의 EAR 간에 싱크를 맞추도록 조정할 수 있다. 즉, 제1 사용자의 뇌파 및 제1 사용자의 EAR이 모두 측정되고 있는 것으로 확인되면, 서버(100)는 제1 사용자의 뇌파와 제1 사용자의 EAR 간에 싱크를 맞추도록 조정할 수 있다.If it is confirmed in step S503 that the EAR of the first user is being measured, in step S504, the server 100 may adjust the synchronization between the brainwave of the first user and the EAR of the first user. That is, if it is confirmed that both the brainwave of the first user and the EAR of the first user are being measured, the server 100 may adjust the synchronization between the brainwave of the first user and the EAR of the first user.

S505 단계에서, 서버(100)는 학습 콘텐츠의 재생이 완료되었는지 여부를 확인할 수 있다.In step S505, the server 100 may check whether the reproduction of the learning content is completed.

S505 단계에서 학습 콘텐츠의 재생이 완료된 것으로 확인되면, S508 단계에서, 서버(100)는 학습 콘텐츠의 재생이 완료되어, 학습 콘텐츠의 재생이 정지되도록 제어할 수 있다.If it is confirmed in step S505 that the reproduction of the learning content has been completed, in step S508 , the server 100 may control the reproduction of the learning content to be stopped by completing the reproduction of the learning content.

S505 단계에서 학습 콘텐츠의 재생이 완료되지 않은 것으로 확인되면, S501 단계로 되돌아가, 서버(100)는 학습 콘텐츠가 계속 재생되도록 제어할 수 있다.If it is confirmed in step S505 that the reproduction of the learning content is not completed, the process returns to step S501, and the server 100 may control the learning content to be continuously reproduced.

한편, S502 단계에서 제1 사용자의 뇌파가 측정되고 있지 않은 것으로 확인되면, S506 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 획득된 얼굴 영상을 통해 제1 사용자의 EAR이 측정되고 있는 상태인지 여부를 확인할 수 있다.On the other hand, if it is confirmed in step S502 that the brain wave of the first user is not being measured, in step S506 , the server 100 measures the EAR of the first user through the face image obtained from the first user terminal 111 and You can check whether it exists or not.

S506 단계에서 제1 사용자의 EAR이 측정되고 있는 것으로 확인되거나, S503 단계에서 제1 사용자의 EAR이 측정되고 있지 않은 것으로 확인되면, S507 단계에서, 서버(100)는 미리 설정된 대기 시간 이내에 뇌파 또는 EAR이 추가로 측정되는지 여부를 확인할 수 있다.If it is confirmed that the EAR of the first user is being measured in step S506, or it is confirmed that the EAR of the first user is not being measured in step S503, in step S507, the server 100 performs EEG or EAR within a preset waiting time. It can be checked whether this is additionally measured.

즉, 서버(100)는 제1 사용자의 뇌파가 측정된 것으로 확인되었으나 제1 사용자의 EAR이 측정되지 않은 것으로 확인되면, 대기 시간 이내에 제1 사용자의 EAR이 추가로 측정되는지 여부를 확인할 수 있으며, 제1 사용자의 EAR이 측정된 것으로 확인되었으나 제1 사용자의 뇌파가 측정되지 않은 것으로 확인되면, 대기 시간 이내에 제1 사용자의 뇌파가 추가로 측정되는지 여부를 확인할 수 있다.That is, when it is confirmed that the EEG of the first user is measured, but the EAR of the first user is not measured, the server 100 may check whether the EAR of the first user is additionally measured within the waiting time, When it is confirmed that the first user's EAR is measured but the first user's EEG is not measured, it may be checked whether the first user's EEG is additionally measured within the waiting time.

S507 단계에서 제1 사용자의 뇌파 또는 제1 사용자의 EAR이 추가로 측정된 것으로 확인되면, S504 단계에서, 서버(100)는 제1 사용자의 뇌파와 제1 사용자의 EAR 간에 싱크를 맞추도록 조정할 수 있다.If it is confirmed that the brainwave of the first user or the EAR of the first user is additionally measured in step S507, in step S504, the server 100 may adjust to synchronize the brainwave of the first user and the EAR of the first user. have.

S507 단계에서 제1 사용자의 뇌파 또는 제1 사용자의 EAR이 추가로 측정되지 않은 것으로 확인되면, S508 단계에서, 서버(100)는 학습 콘텐츠의 재생이 정지되도록 제어할 수 있다. 즉, 서버(100)는 제1 사용자의 뇌파 및 제1 사용자의 EAR 중 어느 하나가 측정되고 있지 않은 것으로 확인되면, 대기 시간 이후 학습 콘텐츠의 재생이 정지되도록 제어할 수 있다.If it is confirmed that the brain wave of the first user or the EAR of the first user is not additionally measured in step S507, in step S508, the server 100 may control the reproduction of the learning content to be stopped. That is, when it is confirmed that any one of the brain wave of the first user and the EAR of the first user is not being measured, the server 100 may control the reproduction of the learning content to be stopped after the waiting time.

한편, S506 단계에서 제1 사용자의 EAR이 측정되고 있지 않은 것으로 확인되면, S508 단계에서, 서버(100)는 학습 콘텐츠의 재생이 정지되도록 제어할 수 있다. 즉, 서버(100)는 제1 사용자의 뇌파 및 제1 사용자의 EAR이 모두 측정되고 있지 않은 것으로 확인되면, 학습 콘텐츠의 재생이 즉시 정지되도록 제어할 수 있다.On the other hand, if it is confirmed in step S506 that the EAR of the first user is not being measured, in step S508 , the server 100 may control the reproduction of the learning content to be stopped. That is, when it is confirmed that neither the brain wave of the first user nor the EAR of the first user is being measured, the server 100 may control the reproduction of the learning content to immediately stop.

도 6은 일실시예에 따른 사용자의 집중도에 따라 구간 별로 재학습이 수행되도록 제어하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of controlling re-learning to be performed for each section according to a user's concentration level according to an embodiment.

도 6을 참조하면, 먼저, S601 단계에서, 서버(100)는 제1 사용자의 뇌파에 대한 변화, 눈 깜빡임 상태 및 응시 상태를 기초로, 학습 콘텐츠의 재생 시간에 따라 변화하는 제1 사용자의 집중도를 산출할 수 있다. 이때, 제1 사용자의 집중도는 도 4에 도시된 사용자의 집중도(410)와 같이, 학습 콘텐츠의 진행 시간에 따라 변화하는 시계열성을 가질 수 있다.Referring to FIG. 6 , first, in step S601 , the server 100 changes the concentration of the first user according to the reproduction time of the learning content based on the change of the first user's brain wave, the blinking state, and the gaze state. can be calculated. In this case, the concentration of the first user may have a time-series characteristic that changes according to the progress time of the learning content, like the concentration 410 of the user shown in FIG. 4 .

S602 단계에서, 서버(100)는 제1 사용자의 집중도를 기초로, 학습 콘텐츠에 대한 집중도 상위 구간, 집중도 보통 구간 및 집중도 하위 구간을 구분하여 분류할 수 있다. 이때, 제1 사용자의 집중도에서 분류된 집중도 상위 구간, 집중도 보통 구간 및 집중도 하위 구간은 도 4에 도시된 집중도 상위 구간(411), 집중도 보통 구간(412) 및 집중도 하위 구간(413)와 같이, 미리 정의된 기준 집중도(상위 임계 집중도 및 하위 임계 집중도)에 따라 구분되어 분류될 수 있다. In step S602 , the server 100 may classify and classify an upper concentration section, a normal concentration level section, and a lower concentration level section for the learning content based on the concentration level of the first user. At this time, the concentration high section, the concentration normal section, and the concentration low section classified in the concentration of the first user are the high concentration section 411, the concentration normal section 412 and the concentration sub section 413 shown in FIG. It may be classified and classified according to a predefined reference concentration level (higher threshold concentration level and lower threshold concentration level).

S603 단계에서, 서버(100)는 집중도 하위 구간으로 분류된 하나 이상의 구간 중 제1 구간의 길이를 확인할 수 있다. 이때, 서버(100)는 집중도 하위 구간으로 분류된 구간들 중 가장 시간 길이가 긴 구간을 제1 구간으로 선정하여, 제1 구간의 시간 길이를 확인할 수 있다.In step S603, the server 100 may check the length of the first section among one or more sections classified into the concentration subsection. In this case, the server 100 may select a section having the longest time length among sections classified into the concentration subsections as the first section, thereby confirming the time length of the first section.

S604 단계에서, 서버(100)는 제1 구간의 길이가 제1 시간 간격 보다 짧은지 여부를 확인할 수 있다. 여기서, 제1 시간 간격은 학습 콘텐츠의 내용, 난이도, 대상 학년 등에 따라 상이하게 설정될 수 있다In step S604 , the server 100 may check whether the length of the first section is shorter than the first time interval. Here, the first time interval may be set differently according to the content, difficulty, target grade, etc. of the learning content.

S604 단계에서 제1 구간의 길이가 제1 시간 간격 보다 짧은 것으로 확인되면, S605 단계에서, 서버(100)는 제1 구간에 대한 재학습이 필요하지 않은 것으로 판단할 수 있다.If it is determined in step S604 that the length of the first section is shorter than the first time interval, in step S605, the server 100 may determine that re-learning for the first section is not required.

S604 단계에서 제1 구간의 길이가 제1 시간 간격 보다 긴 것으로 확인되면, S606 단계에서, 서버(100)는 제1 구간의 길이가 제2 시간 간격 보다 짧은지 여부를 확인할 수 있다. 여기서, 제2 시간 간격은 제1 시간 간격 보다 큰 값으로 설정될 수 있다.If it is determined in step S604 that the length of the first section is longer than the first time interval, in step S606, the server 100 may check whether the length of the first section is shorter than the second time interval. Here, the second time interval may be set to a larger value than the first time interval.

S606 단계에서 제1 구간의 길이가 제2 시간 간격 보다 짧은 것으로 확인되면, S607 단계에서, 서버(100)는 제1 구간에 대한 테스트가 필요한 것으로 판단할 수 있다.If it is determined in step S606 that the length of the first section is shorter than the second time interval, in step S607, the server 100 may determine that the test for the first section is necessary.

S608 단계에서, 서버(100)는 제1 구간에 대한 테스트가 필요한 것으로 판단되면, 제1 구간의 학습 내용을 테스트하기 위한 시험 문제가 제1 사용자 단말의 화면에서 표시되도록 제어할 수 있다.In step S608 , if it is determined that the test for the first section is necessary, the server 100 may control so that a test question for testing the learning contents of the first section is displayed on the screen of the first user terminal.

일실시예에 따르면, 서버(100)는 제1 구간의 학습 내용을 테스트하기 위한 시험 문제를 통해, 제1 구간에 대한 테스트를 수행한 결과, 테스트를 통과한 것으로 확인되면, S605 단계를 수행하여, 제1 구간에 대한 재학습이 필요하지 않은 것으로 판단할 수 있으며, 테스트를 통과하지 못한 것으로 확인되면, S609 단계를 수행하여, 제1 구간에 대한 재학습이 필요한 것으로 판단할 수 있다.According to one embodiment, when it is confirmed that the server 100 has passed the test as a result of performing the test for the first section through the test questions for testing the learning contents of the first section, by performing step S605 , it can be determined that re-learning for the first section is not necessary, and when it is confirmed that the test has not been passed, step S609 is performed to determine that re-learning for the first section is necessary.

한편, S606 단계에서 제1 구간의 길이가 제2 시간 간격 보다 긴 것으로 확인되면, S609 단계에서, 서버(100)는 제1 구간에 대한 재학습이 필요한 것으로 판단할 수 있다.On the other hand, if it is confirmed in step S606 that the length of the first section is longer than the second time interval, in step S609, the server 100 may determine that re-learning of the first section is necessary.

S610 단계에서, 서버(100)는 제1 구간에 대한 재학습이 필요한 것으로 판단되면, 제1 수간이 제1 사용자 단말(111)의 화면에서 다시 재생되도록 제어할 수 있다.In step S610 , if it is determined that re-learning for the first section is necessary, the server 100 may control the first bestiality to be re-played on the screen of the first user terminal 111 .

일실시예에 따르면, 서버(100)는 제1 구간 이외에 집중도 하위 구간으로 분류된 구간들이 더 있는 것으로 확인되면, 집중도 하위 구간으로 분류된 구간들 중 제1 구간 다음으로 시간 길이가 긴 구간을 제2 구간으로 선정하여, 제2 구간의 시간 길이를 확인할 수 있다. 이후, 서버(100)는 제2 구간에 대한 길이를 통해 제2 구간에 대한 재학습이 필요한지 여부를 판단할 수 있다. 즉, 서버(100)는 집중도 하위 구간으로 분류된 구간들 각각에 대해 재학습이 필요한지 여부를 판단할 수 있으며, 재학습이 필요한 구간들만 선별하여 제1 사용자 단말(111)의 화면에서 다시 재생되도록 제어할 수 있다.According to one embodiment, when it is confirmed that there are more sections classified into the concentration subsection in addition to the first section, the server 100 selects a section having the longest time length after the first section among sections classified as the concentration subsection. By selecting 2 sections, the time length of the second section can be checked. Thereafter, the server 100 may determine whether re-learning is necessary for the second section through the length of the second section. That is, the server 100 may determine whether re-learning is required for each of the sections classified into the concentration subsections, and select only sections requiring re-learning to be reproduced on the screen of the first user terminal 111 . can be controlled

도 7은 일실시예에 따른 사용자가 학습에 집중하지 않을 때의 1차 대응 방안을 제공하는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of providing a first response method when a user does not concentrate on learning according to an exemplary embodiment.

도 7을 참조하면, 먼저, S701 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 획득된 영상 정보를 기초로, 제1 사용자의 시선이 어느 지점을 응시하는지 확인하여, 제1 사용자의 시선을 추적할 수 있다.Referring to FIG. 7 , first, in step S701 , the server 100 determines which point the first user's gaze is gazing at based on the image information obtained from the first user terminal 111 , and the first user can be tracked.

S702 단계에서, 서버(100)는 제1 사용자의 시선을 추적한 결과, 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는지 여부를 확인할 수 있다. 이때, 제1 사용자 단말(111)은 화면에 학습 콘텐츠를 재생하고 있는 상태이다.In step S702 , as a result of tracking the gaze of the first user, the server 100 may determine whether the gaze of the first user is gazing at the screen of the first user terminal 111 . In this case, the first user terminal 111 is playing the learning content on the screen.

S702 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는 것으로 확인되면, 제1 사용자가 제1 사용자 단말(111)의 화면에서 재생되고 있는 학습 콘텐츠를 통해 학습을 수행하고 있는 것으로 판단하여, S701 단계로 되돌아가, 서버(100)는 제1 사용자의 시선을 계속 추적할 수 있다.When it is confirmed that the gaze of the first user is gazing at the screen of the first user terminal 111 in step S702, the first user performs learning through the learning content being reproduced on the screen of the first user terminal 111 Determining that the user is doing, returning to step S701, the server 100 may continue to track the gaze of the first user.

S702 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있지 않은 것으로 확인되면, S703 단계에서, 서버(100)는 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 벗어난 시점부터 시선 이탈 시간을 측정할 수 있다. 즉, 서버(100)는 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있다가 제1 사용자 단말(111)의 화면을 벗어나 다른 지점을 응시하게 되면, 제1 사용자 단말(111)의 화면을 벗어나 다른 지점을 응시하고 있는 시간을 시선 이탈 시간으로 측정할 수 있다.If it is confirmed in step S702 that the gaze of the first user is not gazing at the screen of the first user terminal 111 , in step S703 , the server 100 determines that the gaze of the first user is that of the first user terminal 111 . It is possible to measure the gaze departure time from the point of time out of the screen. That is, when the first user's gaze is gazing at the screen of the first user terminal 111 and then leaves the screen of the first user terminal 111 and gazes at another point, the first user terminal ( 111), the time spent gazing at another point outside the screen can be measured as the gaze departure time.

S704 단계에서, 서버(100)는 시선 이탈 시간이 제1 기준 시간 보다 길게 지속되는지 여부를 확인할 수 있다. 여기서, 제1 기준 시간은 실시예에 따라 상이하게 설정될 수 있다.In step S704 , the server 100 may determine whether the gaze departure time continues longer than the first reference time. Here, the first reference time may be set differently according to embodiments.

S704 단계에서 시선 이탈 시간이 제1 기준 시간 보다 짧게 지속된 것으로 확인되면, 제1 사용자가 일시적으로 제1 사용자 단말(111)의 화면을 벗어나 다른 지점을 응시한 것으로 판단하여, S701 단계로 되돌아가, 서버(100)는 제1 사용자의 시선을 계속 추적할 수 있다.If it is confirmed that the gaze departure time is shorter than the first reference time in step S704, it is determined that the first user temporarily leaves the screen of the first user terminal 111 and gazes at another point, and returns to step S701 , the server 100 may continue to track the gaze of the first user.

S704 단계에서 시선 이탈 시간이 제1 기준 시간 보다 길게 지속된 것으로 확인되면, S709 단계에서, 서버(100)는 제1 사용자가 제1 사용자 단말(111)에서 재생중인 학습 콘텐츠를 통해 학습을 수행하고 있지 않아 학습에 집중하지 못하는 상태로 판단할 수 있다.If it is confirmed in step S704 that the gaze departure time is longer than the first reference time, in step S709, the server 100 performs learning through the learning content that the first user is playing in the first user terminal 111 and It can be judged as a state of inability to concentrate on learning.

한편, S705 단계에서, 서버(100)는 제1 사용자 단말(111)로부터 획득된 영상 정보를 기초로, 제1 사용자의 눈을 인식하여, 제1 사용자의 EAR을 측정할 수 있다.Meanwhile, in step S705 , the server 100 may measure the EAR of the first user by recognizing the eyes of the first user based on the image information obtained from the first user terminal 111 .

S706 단계에서, 서버(100)는 제1 사용자의 EAR을 측정한 결과, 제1 사용자의 눈이 감겨져 있는지 여부를 확인할 수 있다. 이때, 제1 사용자 단말(111)은 화면에 학습 콘텐츠를 재생하고 있는 상태이다.In step S706 , the server 100 may determine whether the eyes of the first user are closed as a result of measuring the EAR of the first user. In this case, the first user terminal 111 is playing the learning content on the screen.

S706 단계에서 제1 사용자의 눈이 감겨져 있지 않은 것으로 확인되면, 제1 사용자가 제1 사용자 단말(111)의 화면에서 재생되고 있는 학습 콘텐츠를 통해 학습을 수행하고 있는 것으로 판단하여, S705 단계로 되돌아가, 서버(100)는 제1 사용자의 EAR을 계속 측정할 수 있다.If it is determined in step S706 that the eyes of the first user are not closed, it is determined that the first user is learning through the learning content being reproduced on the screen of the first user terminal 111, and the process returns to step S705. A, the server 100 may continue to measure the EAR of the first user.

S706 단계에서 제1 사용자의 눈이 감겨져 있는 것으로 확인되면, S707 단계에서, 서버(100)는 제1 사용자의 눈이 감겨진 시점부터 졸음 시간을 측정할 수 있다. 즉, 서버(100)는 제1 사용자의 눈이 뜬 상태로 있다가 감은 상태로 변경되면, 감은 상태로 유지되고 있는 시간을 졸음 시간으로 측정할 수 있다.If it is determined in step S706 that the eyes of the first user are closed, in step S707 , the server 100 may measure the drowsiness time from the time when the eyes of the first user are closed. That is, when the first user's eyes are changed from an open state to a closed state, the server 100 may measure the time maintained in the closed state as drowsiness time.

S708 단계에서, 서버(100)는 졸음 시간이 제1 기준 시간 보다 길게 지속되는지 여부를 확인할 수 있다.In step S708 , the server 100 may determine whether the drowsiness time lasts longer than the first reference time.

S708 단계에서 졸음 시간이 제1 기준 시간 보다 짧게 지속된 것으로 확인되면, 제1 사용자가 일시적으로 눈을 감았다 뜬 것으로 판단하여, S705 단계로 되돌아가, 서버(100)는 제1 사용자의 EAR을 계속 측정할 수 있다.If it is confirmed in step S708 that the drowsiness time is shorter than the first reference time, it is determined that the first user has temporarily closed and opened their eyes, and the process returns to step S705, and the server 100 retrieves the EAR of the first user. You can continue to measure.

S708 단계에서 졸음 시간이 제1 기준 시간 보다 길게 지속된 것으로 확인되면, S709 단계에서, 서버(100)는 제1 사용자가 제1 사용자 단말(111)에서 재생중인 학습 콘텐츠를 통해 학습을 수행하고 있지 않아 학습에 집중하지 못하는 상태로 판단할 수 있다.If it is confirmed in step S708 that the drowsiness time lasts longer than the first reference time, in step S709, the server 100 is learning through the learning content that the first user is playing in the first user terminal 111. Therefore, it can be judged as a state of inability to concentrate on learning.

S710 단계에서, 서버(100)는 제1 사용자 단말(111)에서 재생중인 학습 콘텐츠의 재생이 정지되도록 제어하고, 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력되도록 제어할 수 있다. 이때, 제1 사용자 단말(111)은 집중 필요 알림 메시지를 소리로 출력하여, 사용자가 다시 학습에 집중하도록 유도할 수 있다.In step S710 , the server 100 may control to stop the reproduction of the learning content being reproduced in the first user terminal 111 , and may control the first user terminal 111 to output a notification message that requires concentration. In this case, the first user terminal 111 may output a notification message requiring concentration as a sound to induce the user to focus on learning again.

도 8은 일실시예에 따른 사용자가 학습에 집중하지 않을 때의 2차 대응 방안을 제공하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of providing a secondary response method when a user does not concentrate on learning according to an exemplary embodiment.

도 8을 설명하는데 있어, 도 7과 중복되는 내용은 생략하기로 한다.In the description of FIG. 8 , the contents overlapping those of FIG. 7 will be omitted.

도 8을 참조하면, S801 단계에서, 서버(100)는 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력된 이후, 제1 사용자의 시선을 다시 추적할 수 있다.Referring to FIG. 8 , in step S801 , the server 100 may re-track the gaze of the first user after the first user terminal 111 outputs a concentration need notification message.

S802 단계에서, 서버(100)는 제1 사용자의 시선을 추적한 결과, 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는지 여부를 확인할 수 있다. 이때, 제1 사용자 단말(111)은 학습 콘텐츠의 재생이 정지되어, 대기 상태이다.In step S802 , as a result of tracking the gaze of the first user, the server 100 may determine whether the gaze of the first user is gazing at the screen of the first user terminal 111 . At this time, the first user terminal 111 is in a standby state because reproduction of the learning content is stopped.

S802 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있는 것으로 확인되면, 제1 사용자가 학습에 집중할 준비가 된 것으로 판단하여, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 다시 재생되도록 제어할 수 있다. 이후, S801 단계로 되돌아가, 서버(100)는 제1 사용자의 시선을 계속 추적할 수 있다.When it is confirmed that the gaze of the first user is gazing at the screen of the first user terminal 111 in step S802, it is determined that the first user is ready to focus on learning, and the server 100 sends the first user terminal ( 111), it is possible to control the learning content to be played again. After that, returning to step S801, the server 100 may continue to track the gaze of the first user.

S802 단계에서 제1 사용자의 시선이 제1 사용자 단말(111)의 화면을 응시하고 있지 않은 것으로 확인되면, S803 단계에서, 서버(100)는 S703 단계에서 측정된 시선 이탈 시간에 이어서, 시선 이탈 시간을 더 측정할 수 있다.If it is confirmed in step S802 that the gaze of the first user is not gazing at the screen of the first user terminal 111, in step S803, the server 100 follows the gaze departure time measured in step S703, followed by the gaze departure time can be further measured.

S804 단계에서, 서버(100)는 시선 이탈 시간이 제2 기준 시간 보다 길게 지속되는지 여부를 확인할 수 있다.In step S804, the server 100 may determine whether the gaze departure time continues longer than the second reference time.

S804 단계에서 시선 이탈 시간이 제2 기준 시간 보다 짧게 지속된 것으로 확인되면, 제1 사용자가 학습에 집중할 준비가 된 것으로 판단하여, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 다시 재생되도록 제어할 수 있다. 이후, S801 단계로 되돌아가, 서버(100)는 제1 사용자의 시선을 계속 추적할 수 있다.When it is confirmed that the gaze departure time is shorter than the second reference time in step S804, it is determined that the first user is ready to focus on learning, and the server 100 returns the learning content from the first user terminal 111 to the first user terminal 111. You can control it to play. After that, returning to step S801, the server 100 may continue to track the gaze of the first user.

S804 단계에서 시선 이탈 시간이 제2 기준 시간 보다 길게 지속된 것으로 확인되면, S809 단계에서, 서버(100)는 제1 사용자가 학습에 집중하지 못해 제1 사용자에 대한 학습 지도가 필요한 것으로 판단할 수 있다.If it is confirmed in step S804 that the gaze departure time continues longer than the second reference time, in step S809, the server 100 determines that the first user cannot concentrate on learning and thus learning guidance for the first user is required. have.

한편, S805 단계에서, 서버(100)는 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력된 이후, 제1 사용자의 EAR을 다시 측정할 수 있다.Meanwhile, in step S805 , the server 100 may measure the EAR of the first user again after the concentration required notification message is output from the first user terminal 111 .

S806 단계에서, 서버(100)는 제1 사용자의 EAR을 측정한 결과, 제1 사용자의 눈이 감겨져 있는지 여부를 확인할 수 있다. 이때, 제1 사용자 단말(111)은 학습 콘텐츠의 재생이 정지되어, 대기 상태이다.In step S806 , as a result of measuring the EAR of the first user, the server 100 may determine whether the eyes of the first user are closed. At this time, the first user terminal 111 is in a standby state because reproduction of the learning content is stopped.

S806 단계에서 제1 사용자의 눈이 감겨져 있지 않은 것으로 확인되면, 제1 사용자가 학습에 집중할 준비가 된 것으로 판단하여, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 다시 재생되도록 제어할 수 있다. 이후, S805 단계로 되돌아가, 서버(100)는 제1 사용자의 EAR을 계속 측정할 수 있다.If it is determined that the eyes of the first user are not closed in step S806 , it is determined that the first user is ready to concentrate on learning, and the server 100 controls the learning content to be played back in the first user terminal 111 . can do. After that, returning to step S805, the server 100 may continue to measure the EAR of the first user.

S806 단계에서 제1 사용자의 눈이 감겨져 있는 것으로 확인되면, S807 단계에서, 서버(100)는 S707 단계에서 측정된 졸음 시간에 이어서, 졸음 시간을 더 측정할 수 있다.If it is determined in step S806 that the eyes of the first user are closed, in step S807 , the server 100 may further measure the drowsiness time following the drowsiness time measured in step S707 .

S808 단계에서, 서버(100)는 졸음 시간이 제2 기준 시간 보다 길게 지속되는지 여부를 확인할 수 있다.In step S808 , the server 100 may determine whether the drowsiness time lasts longer than the second reference time.

S808 단계에서 졸음 시간이 제2 기준 시간 보다 짧게 지속된 것으로 확인되면, 제1 사용자가 학습에 집중할 준비가 된 것으로 판단하여, 서버(100)는 제1 사용자 단말(111)에서 학습 콘텐츠가 다시 재생되도록 제어할 수 있다. 이후, S805 단계로 되돌아가, 서버(100)는 제1 사용자의 EAR을 계속 측정할 수 있다.If it is determined that the drowsiness time is shorter than the second reference time in step S808 , it is determined that the first user is ready to focus on learning, and the server 100 replays the learning content in the first user terminal 111 . can be controlled as much as possible. After that, returning to step S805, the server 100 may continue to measure the EAR of the first user.

S808 단계에서 졸음 시간이 제2 기준 시간 보다 길게 지속된 것으로 확인되면, S809 단계에서, 서버(100)는 제1 사용자가 학습에 집중하지 못해 제1 사용자에 대한 학습 지도가 필요한 것으로 판단할 수 있다.If it is confirmed in step S808 that the drowsiness time lasts longer than the second reference time, in step S809, the server 100 determines that the first user is unable to concentrate on learning, so that learning guidance for the first user is required. .

S810 단계에서, 서버(100)는 제1 사용자에 대한 학습 지도가 필요한 것으로 판단되면, 제1 사용자의 학습 지도를 요청하는 학습 지도 요청 메시지를 보호자 단말로 전송할 수 있다. 이때, 서버(100)는 제1 사용자의 보호자 연락처 정보를 확인하여, 학습 지도 요청 메시지를 보호자 단말로 전송할 수 있다.In step S810 , if it is determined that the learning guidance for the first user is required, the server 100 may transmit a learning guidance request message requesting the learning guidance of the first user to the guardian terminal. In this case, the server 100 may check the guardian contact information of the first user and transmit a learning guidance request message to the guardian terminal.

즉, 서버(100)는 제1 사용자가 학습에 집중하지 못하는 경우, 1차 대응 방안으로. 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력되도록 제어할 수 있으며, 집중 알림 메시지의 출력 이후에도 제1 사용자가 여전히 학습에 집중하지 못하는 경우, 2차 대응 방안으로, 학습 지도 요청 메시지를 보호자 단말로 전송할 수 있다.That is, when the first user cannot concentrate on learning, the server 100 takes the first response method. The first user terminal 111 can control to output a notification message that requires concentration, and when the first user still cannot concentrate on learning even after the output of the concentration notification message, as a secondary countermeasure, a learning guidance request message is sent to the guardian It can be transmitted to the terminal.

S710 단계에서, 서버(100)는 제1 사용자 단말(111)에서 재생중인 학습 콘텐츠의 재생이 정지되도록 제어하고, 제1 사용자 단말(111)에서 집중 필요 알림 메시지가 출력되도록 제어할 수 있다. 이때, 제1 사용자 단말(111)은 집중 필요 알림 메시지를 소리로 출력하여, 사용자가 다시 학습에 집중하도록 유도할 수 있다.In step S710 , the server 100 may control to stop the reproduction of the learning content being reproduced in the first user terminal 111 , and may control the first user terminal 111 to output a notification message that requires concentration. In this case, the first user terminal 111 may output a notification message requiring concentration as a sound to induce the user to focus on learning again.

도 9는 일실시예에 따른 뇌파 측정 장치의 표면을 분류하는 과정을 설명하기 위한 순서도이다.9 is a flowchart for explaining a process of classifying a surface of an EEG measuring apparatus according to an embodiment.

도 9를 참조하면, 먼저 S901 단계에서, 서버(100)는 라이다를 통해 제1 뇌파 측정 장치(131)의 표면에 대한 3D 데이터를 획득할 수 있다. 여기서, 3D 데이터는 제1 뇌파 측정 장치(131)의 표면에 대한 3D 이미지이다. 이를 위해, 서버(100)는 라이다가 장착된 제1 사용자 단말(111)과 유무선을 통해 연결될 수 있다.Referring to FIG. 9 , first, in step S901 , the server 100 may acquire 3D data on the surface of the first EEG measuring device 131 through the lidar. Here, the 3D data is a 3D image of the surface of the first EEG measuring device 131 . To this end, the server 100 may be connected to the first user terminal 111 in which the lidar is mounted through wired or wireless.

S902 단계에서, 서버(100)는 카메라를 통해 제1 뇌파 측정 장치(131)의 표면에 대한 2D 데이터를 획득할 수 있다. 여기서, 2D 데이터는 제1 뇌파 측정 장치(131)의 표면에 대한 2D 이미지이다. 이를 위해, 서버(100)는 카메라가 장착된 제1 사용자 단말(111)과 유무선을 통해 연결될 수 있다.In step S902, the server 100 may acquire 2D data on the surface of the first EEG measuring device 131 through the camera. Here, the 2D data is a 2D image of the surface of the first EEG measuring device 131 . To this end, the server 100 may be connected to the first user terminal 111 equipped with a camera through wired or wireless.

S903 단계에서, 서버(100)는 2D 데이터와 3D 데이터의 합집합 영역을 분리하여, 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출할 수 있다.In step S903 , the server 100 may separate the union region of the 2D data and the 3D data to extract the first data obtained by merging the 2D data and the 3D data.

구체적으로, 서버(100)는 2D 데이터와 3D 데이터를 비교하여, 서로 중복되는 합집합 영역을 파악할 수 있으며, 2D 데이터에서 합집합 영역을 분리하고 3D 데이터에서 합집합 영역을 분리하여, 분리된 합집합 영역을 병합하여 제1 데이터를 추출할 수 있다. 여기서, 제1 데이터는 4채널로 구성될 수 있으며, 3채널은 RGB 값을 나타내는 2D 데이터이고, 1채널은 3D 깊이 값을 나타내는 데이터일 수 있다.Specifically, the server 100 can compare the 2D data and the 3D data to identify overlapping union regions, separate the union regions from the 2D data and separate the union regions from the 3D data, and merge the separated union regions. Thus, the first data may be extracted. Here, the first data may consist of 4 channels, 3 channels may be 2D data representing an RGB value, and 1 channel may be data representing a 3D depth value.

서버(100)는 제1 데이터를 인코딩하여 제1 입력 신호를 생성할 수 있다.The server 100 may generate a first input signal by encoding the first data.

구체적으로, 서버(100)는 제1 데이터의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 서버(100)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1 데이터를 인코딩할 수 있다.Specifically, the server 100 may generate a first input signal by encoding pixels of the first data with color information. The color information may include, but is not limited to, RGB color information, brightness information, saturation information, and depth information. The server 100 may convert the color information into a numerical value, and may encode the first data in the form of a data sheet including this value.

서버(100)는 제1 입력 신호를 서버(100) 내 미리 학습된 제3 인공지능에 입력할 수 있다.The server 100 may input the first input signal to the third artificial intelligence learned in advance in the server 100 .

일실시예에 따른 제3 인공지능은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The third artificial intelligence according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network stacks an input signal with a convolutional layer and a pooling layer sequentially. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.

일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 뇌파 측정 장치의 표면의 거칠기 단계를 분류를 위한 제3 인공지능의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 뇌파 측정 장치의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제3 인공지능에 대한 자세한 설명은 도 11을 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. The third artificial intelligence classification neural network for classifying the roughness level of the surface of the EEG measuring device consists of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of one output layer node of the classification neural network, and an output value for the classification of the surface of the EEG measuring device may be output to the output layer node. A detailed description of the third artificial intelligence will be described later with reference to FIG. 11 .

서버(100)는 제3 인공지능의 입력의 결과에 기초하여, 제1 출력 신호를 획득할 수 있다.The server 100 may obtain the first output signal based on the result of the input of the third artificial intelligence.

S904 단계에서, 서버(100)는 제1 출력 신호에 기초하여, 제1 뇌파 측정 장치(131)의 표면에 대한 제1 분류 결과를 생성할 수 있다. 여기서, 제1 분류 결과는 제1 뇌파 측정 장치(131)의 표면이 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In step S904 , the server 100 may generate a first classification result for the surface of the first EEG measuring device 131 based on the first output signal. Here, the first classification result may include information on which stage the surface of the first EEG measuring device 131 is classified.

예를 들어, 서버(100)는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 뇌파 측정 장치(131)의 표면이 1단계에 해당하는 것으로 제1 분류 결과를 생성하고, 출력값이 2인 경우, 제1 뇌파 측정 장치(131)의 표면이 2단계에 해당하는 것으로 제1 분류 결과를 생성할 수 있다. 단계가 올라갈수록 제1 뇌파 측정 장치(131)의 표면이 더 거칠어진다는 것을 파악할 수 있다.For example, the server 100 checks the output value of the first output signal, and when the output value is 1, the surface of the first EEG measuring device 131 corresponds to step 1 and generates a first classification result, When the output value is 2, the first classification result may be generated as the surface of the first EEG measuring device 131 corresponds to the second stage. It can be seen that the surface of the first EEG measuring device 131 becomes rougher as the step increases.

S905 단계에서, 서버(100)는 제1 데이터를 분석하여 제1 뇌파 측정 장치(131)의 표면에 발생한 균열을 검출할 수 있다. 균열 검출 시에는 이미지 분석을 통해 일정 크기 이상으로 확인된 부분만 제1 뇌파 측정 장치(131)의 표면에 발생한 균열로 검출할 수 있다.In step S905 , the server 100 may analyze the first data to detect a crack generated on the surface of the first EEG measuring device 131 . When the crack is detected, only a portion confirmed to be larger than a certain size through image analysis may be detected as a crack generated on the surface of the first EEG measuring device 131 .

S906 단계에서, 서버(100)는 제1 뇌파 측정 장치(131)의 표면에 발생한 균열을 영역별로 확인하여, 정상 영역과 손상 영역을 구분할 수 있다.In step S906 , the server 100 may identify the cracks generated on the surface of the first EEG measuring device 131 for each region, and distinguish the normal region from the damaged region.

구체적으로, 서버(100)는 제1 데이터를 제1 영역, 제2 영역 등의 복수의 영역으로 구분하여, 각각의 영역 별로 균열이 몇 개씩 검출되었는지 확인할 수 있으며, 제1 설정값 미만으로 균열이 검출된 영역을 정상 영역으로 구분하고, 제1 설정값 이상으로 균열이 검출된 영역을 손상 영역으로 구분할 수 있다. 이때, 제1 설정값은 실시예에 따라 상이하게 설정될 수 있다.Specifically, the server 100 divides the first data into a plurality of areas such as a first area and a second area, and can check how many cracks are detected for each area, and the number of cracks is less than the first set value. The detected area may be divided into a normal area, and an area in which cracks greater than or equal to the first set value are detected may be classified as a damaged area. In this case, the first set value may be set differently depending on the embodiment.

S907 단계에서, 서버(100)는 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출할 수 있다.In step S907 , the server 100 may extract second data from which the damaged area is deleted from the first data.

예를 들어, 제1 데이터에 있는 이미지가 제1 영역, 제2 영역 및 제3 영역으로 구성되어 있는데, 제1 영역은 손상 영역으로 구분되고, 제2 영역 및 제3 영역은 정상 영역으로 구분된 경우, 서버(100)는 제2 영역 및 제3 영역만 포함된 이미지를 제2 데이터로 추출할 수 있다.For example, the image in the first data consists of a first region, a second region, and a third region, wherein the first region is divided into a damaged region, and the second region and the third region are divided into a normal region. In this case, the server 100 may extract an image including only the second area and the third area as the second data.

서버(100)는 제2 데이터를 인코딩하여 제2 입력 신호를 생성할 수 있다.The server 100 may generate a second input signal by encoding the second data.

구체적으로, 서버(100)는 제2 데이터의 픽셀을 색 정보로 인코딩하여 제2 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 서버(100)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제2 데이터를 인코딩할 수 있다.Specifically, the server 100 may generate a second input signal by encoding pixels of the second data with color information. The color information may include, but is not limited to, RGB color information, brightness information, saturation information, and depth information. The server 100 may convert the color information into a numerical value, and may encode the second data in the form of a data sheet including this value.

서버(100)는 제2 입력 신호를 서버(100) 내 미리 학습된 제4 인공지능에 입력할 수 있다.The server 100 may input the second input signal to the fourth artificial intelligence learned in advance in the server 100 .

일실시예에 따른 제4 인공지능은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The fourth artificial intelligence according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks a convolutional layer and a pooling layer on an input signal. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.

일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 뇌파 측정 장치의 표면의 거칠기 단계를 분류를 위한 제4 인공지능의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 뇌파 측정 장치의 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제4 인공지능에 대한 자세한 설명은 도 11을 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. The fourth artificial intelligence classification neural network for classifying the roughness level of the surface of the EEG measurement device consists of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of one output layer node of the classification neural network, and an output value for the classification of the surface of the EEG measuring device may be output to the output layer node. A detailed description of the fourth artificial intelligence will be described later with reference to FIG. 11 .

서버(100)는 제4 인공지능의 입력의 결과에 기초하여, 제2 출력 신호를 획득할 수 있다.The server 100 may obtain a second output signal based on a result of the input of the fourth artificial intelligence.

S908 단계에서, 서버(100)는 제2 출력 신호에 기초하여, 제1 뇌파 측정 장치(131)의 표면에 대한 제2 분류 결과를 생성할 수 있다. 여기서, 제2 분류 결과는 제1 뇌파 측정 장치(131)의 표면이 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In step S908 , the server 100 may generate a second classification result for the surface of the first EEG measuring apparatus 131 based on the second output signal. Here, the second classification result may include information on which stage the surface of the first EEG measuring device 131 is classified.

예를 들어, 서버(100)는 제2 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 뇌파 측정 장치(131)의 표면이 1단계에 해당하는 것으로 제2 분류 결과를 생성하고, 출력값이 2인 경우, 제1 뇌파 측정 장치(131)의 표면이 2단계에 해당하는 것으로 제2 분류 결과를 생성할 수 있다.For example, the server 100 checks the output value of the second output signal, and when the output value is 1, the surface of the first EEG measuring device 131 corresponds to step 1 and generates a second classification result, When the output value is 2, the second classification result may be generated as the surface of the first EEG measuring device 131 corresponds to the second stage.

S909 단계에서, 서버(100)는 제1 분류 결과 및 제2 분류 결과를 기초로, 제1 뇌파 측정 장치(131)의 표면에 대한 최종 분류 결과를 설정할 수 있다.In step S909 , the server 100 may set a final classification result for the surface of the first EEG measuring device 131 based on the first classification result and the second classification result.

구체적으로, 제1 분류 결과 및 제2 분류 결과가 동일한 경우, 서버(100)는 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 제1 뇌파 측정 장치(131)의 표면에 대한 최종 분류 결과로 설정할 수 있다.Specifically, when the first classification result and the second classification result are the same, the server 100 uses any one of the first classification result and the second classification result as the final classification result for the surface of the first EEG measuring device 131 . can be set.

서버(100)는 제1 뇌파 측정 장치(131)의 표면에 대한 최종 분류 결과를 기초로, 제1 뇌파 측정 장치(131)의 표면에 흠집이 생겼는지 여부를 파악할 수 있다.The server 100 may determine whether a scratch has occurred on the surface of the first EEG measuring device 131 based on the final classification result for the surface of the first EEG measuring device 131 .

도 10은 일실시예에 따른 제1 인공지능 및 제2 인공지능의 학습을 설명하기 위한 도면이다.10 is a diagram for explaining learning of a first artificial intelligence and a second artificial intelligence according to an embodiment.

제1 인공지능 및 제2 인공지능은 서버(100)에 포함되는 구성일 수 있으며, 서버(100) 또는 별도의 학습 장치를 통해서 학습될 수 있다.The first artificial intelligence and the second artificial intelligence may be components included in the server 100 and may be learned through the server 100 or a separate learning device.

제1 인공지능은 각각의 계정 사용자를 위한 학습 콘텐츠를 생성하도록 학습될 수 있다.The first artificial intelligence may be trained to generate learning content for each account user.

제2 인공지능은 학습 콘텐츠별로 학습 콘텐츠 집중도의 집중도 상위 구간 및 집중도 하위 구간을 구분하는 기준 집중도를 출력하도록 학습될 수 있다.The second artificial intelligence may be trained to output a reference degree of concentration for classifying an upper section and a lower section of concentration of the learning content for each learning content.

이하에서는 학습 장치를 통해 제1 인공지능 및 제2 인공지능이 학습되는 과정을 설명한다.Hereinafter, a process in which the first artificial intelligence and the second artificial intelligence are learned through the learning device will be described.

우선, S1001 단계에서, 학습 장치는 트레이닝 데이터(training data)와 레이블(label)을 획득할 수 있다.First, in step S1001, the learning apparatus may obtain training data and a label.

제1 인공지능의 학습을 위해, 학습 장치는 각각의 사용자의 나이, 성별, 지역, 학습 성취도, 수강 과목, 미수강 과목, 수강 희망 과목, 선호하는 과목, 비선호 과목, 각각의 학습 콘텐츠 학습 시 사용자의 뇌파 정보 등을 포함하는 데이터 세트를 각각의 트레이닝 데이터로 획득할 수 있다. 또한, 학습 장치는 각각의 사용자의 기본 정보를 기초로 전문 교육 컨설턴트들이 추천한 각각의 사용자를 위한 학습 콘텐츠를 각각의 트레이닝 데이터에 대응하는 레이블로 획득할 수 있다.For the learning of the first artificial intelligence, the learning device determines each user's age, gender, region, learning achievement, subjects to be taken, subjects not taken, subjects to be taken, preferred subjects, non-preferred subjects, and the user when learning each learning content. It is possible to obtain a data set including the brain wave information of each of the training data. In addition, the learning apparatus may acquire, as a label corresponding to each training data, learning content for each user recommended by professional education consultants based on the basic information of each user.

제2 인공지능의 학습을 위해, 학습 장치는 각각의 학습 콘텐츠의 학습 주제, 학습 난이도, 학습 콘텐츠를 수강하는 사용자들의 평균 연령, 그 동안 학습 콘텐츠를 수강한 사용자들의 뇌파 정보 등을 포함하는 데이터 세트를 각각의 트레이닝 데이터로 획득할 수 있다. 또한, 학습 장치는 학습 콘텐츠별로 미리 지정된 성적 상위 사용자 그룹의 학습 콘텐츠 집중도 평균으로부터 미리 정의된 +σ 표준편차 벗어난 집중도를 상위 임계 집중도(집중도 상위 구간을 구분하는 기준)로, 미리 정의된 -σ 표준편차 벗어난 집중도를 하위 임계 집중도(집중도 하위 구간을 구분하는 기준)로 하는 각각의 트레이닝 데이터에 대응하는 레이블로 획득할 수 있다.For the learning of the second artificial intelligence, the learning device is a data set including the learning topic of each learning content, the learning difficulty, the average age of users who take the learning content, brain wave information of users who have taken the learning content, etc. can be obtained as each training data. In addition, the learning device sets the concentration out of the predefined +σ standard deviation from the average of the concentration level of the learning content of the high-ranking user group specified for each learning content as the upper threshold concentration level (a criterion for classifying the upper level of concentration), and sets the pre-defined -σ standard The concentration deviating from the deviation may be obtained as a label corresponding to each training data using the lower threshold concentration (a criterion for classifying the concentration subsection).

S1002 단계에서, 학습 장치는 트레이닝 데이터로부터 인공지능의 입력을 생성할 수 있다.In step S1002, the learning apparatus may generate an input of artificial intelligence from the training data.

학습 장치는 트레이닝 데이터를 인공지능의 입력으로 그대로 사용하거나, 각각의 트레이닝 데이터에서 불필요한 정보를 제거하는 통상의 프로세스를 거친 후, 인공지능의 입력을 생성할 수 있다.The learning apparatus may use the training data as it is as an input of artificial intelligence, or may generate an input of artificial intelligence after a normal process of removing unnecessary information from each training data.

S1003 단계에서, 학습 장치는 입력을 인공지능에 적용할 수 있다.In step S1003, the learning device may apply the input to the artificial intelligence.

서버(100)에 포함된 인공지능은 지도 학습(supervised learning)에 따라 학습되는 인공지능일 수 있다. 인공지능은 지도 학습을 통해 학습시키기에 적합한 컨볼루션 신경망(convolutional neural network, CNN) 또는 리커런트 신경망(recurrent neural network, RNN) 구조일 수 있다.The artificial intelligence included in the server 100 may be an artificial intelligence that is learned according to supervised learning. Artificial intelligence may be a convolutional neural network (CNN) or recurrent neural network (RNN) structure suitable for learning through supervised learning.

S1004 단계에서, 학습 장치는 인공지능으로부터 출력을 획득할 수 있다.In step S1004, the learning apparatus may obtain an output from artificial intelligence.

제1 인공지능의 출력은, 각각의 계정 사용자를 위한 학습 콘텐츠 추천일 수 있다. 제2 인공지능의 출력은, 학습 콘텐츠별 집중도 상위 구간 및 집중도 하위 구간을 구분하는 임계 상위 집중도 및 임계 하위 집중도의 추론일 수 있다.The output of the first artificial intelligence may be a learning content recommendation for each account user. The output of the second artificial intelligence may be an inference of a threshold upper concentration level and a threshold lower concentration level that distinguishes an upper concentration section and a lower concentration level section for each learning content.

S1005 단계에서, 학습 장치는 출력과 레이블을 비교할 수 있다. 추론에 해당하는 인공지능의 출력과 정답에 해당하는 레이블을 비교하는 과정은 손실함수(loss function)를 계산하여 이루어질 수 있다. 손실함수는 기 알려진 평균 제곱 오차(mean squared error, MSE), 교차 엔트로피 오차(cross entropy error, CEE) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 인공지능의 출력과 레이블 간의 편차, 오차 내지는 차이를 측정할 수 있다면, 다양한 인공지능 모델들에서 이용되는 손실함수들이 이용될 수 있다.In step S1005, the learning apparatus may compare the output with the label. The process of comparing the output of the artificial intelligence corresponding to the inference and the label corresponding to the correct answer may be performed by calculating a loss function. As the loss function, a known mean squared error (MSE), cross entropy error (CEE), etc. may be used. However, the present invention is not limited thereto, and if it is possible to measure the deviation, error, or difference between the output of the artificial intelligence and the label, loss functions used in various artificial intelligence models may be used.

S1006 단계에서, 학습 장치는 비교값을 기초로 인공지능을 최적화할 수 있다. 학습 장치는 비교값이 점점 작아지도록 인공지능의 노드(node)들의 웨이트(weight)를 갱신함으로써, 추론에 해당하는 인공지능의 출력과 정답에 해당하는 레이블을 점점 일치시킬 수 있고, 이를 통해 인공지능은 정답에 가까운 추론을 출력하도록 최적화될 수 있다. 구체적으로, 학습 장치는 비교값에 해당하는 손실함수가 최소값의 추정치에 가까워지도록 인공지능의 웨이트(weight)를 재설정하는 과정을 반복함으로써 인공지능을 최적화할 수 있다. 인공지능의 최적화를 위해 기 알려진 역전파(backpropagation) 알고리즘, 확률론적 경사하위법(stochastic gradient descent) 등이 이용될 수 있다. 그러나, 이에 제한되는 것은 아니며, 다양한 신경망 모델들에서 이용되는 웨이트의 최적화 알고리즘이 이용될 수 있다.In step S1006, the learning apparatus may optimize the artificial intelligence based on the comparison value. The learning device can gradually match the AI output corresponding to inference and the label corresponding to the correct answer by updating the weight of the artificial intelligence nodes so that the comparison value becomes smaller and smaller, and through this, the artificial intelligence can be optimized to output an inference close to the correct answer. Specifically, the learning apparatus may optimize the artificial intelligence by repeating the process of resetting the weight of the artificial intelligence so that the loss function corresponding to the comparison value approaches the estimated value of the minimum value. For the optimization of AI, a known backpropagation algorithm, stochastic gradient descent, etc. may be used. However, the present invention is not limited thereto, and a weight optimization algorithm used in various neural network models may be used.

학습 장치는 이와 같은 과정을 반복함으로써 인공지능을 학습시킬 수 있다.The learning device can learn artificial intelligence by repeating this process.

이를 통해, 사용자의 기본 정보를 기초로, 사용자를 위한 학습 콘텐츠를 출력하는 제1 인공지능을 학습시킬 수 있다.Through this, based on the basic information of the user, it is possible to learn the first artificial intelligence that outputs the learning content for the user.

또한, 학습 콘텐츠의 학습 주제, 학습 난이도, 학습 콘텐츠를 수강하는 사용자들의 평균 연령, 그 동안 학습 콘텐츠를 수강한 사용자들의 뇌파 정보를 기초로, 학습 콘텐츠별로 학습 콘텐츠 집중도의 집중도 상위 구간 및 집중도 하위 구간을 구분하는 기준 집중도를 출력하는 제2 인공지능을 학습시킬 수 있다.In addition, based on the learning topic of the learning content, the learning difficulty, the average age of users who take the learning content, and the EEG information of users who have taken the learning content during that time, the concentration upper section and the lower concentration section of the learning content concentration for each learning content It is possible to train the second artificial intelligence that outputs the standard concentration level for classifying the .

도 11은 일실시예에 따른 제3 인공지능 및 제4 인공지능을 설명하기 위한 도면이다.11 is a diagram for explaining a third artificial intelligence and a fourth artificial intelligence according to an embodiment.

일실시예에 따른 인공 신경망(1100)은 제3 인공지능 및 제4 인공지능 중 어느 하나일 수 있다. 제3 인공지능인 경우, 제1 데이터의 인코딩에 의해 생성된 제1 입력 신호를 입력으로 하여, 뇌파 측정 장치의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다. 제4 인공지능인 경우, 제2 데이터의 인코딩에 의해 생성된 제2 입력 신호를 입력으로 하여, 뇌파 측정 장치의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다.The artificial neural network 1100 according to an embodiment may be any one of a third artificial intelligence and a fourth artificial intelligence. In the case of the third artificial intelligence, by inputting the first input signal generated by the encoding of the first data, information on which stage of the roughness stage of the EEG measuring device is classified may be output. In the case of the fourth artificial intelligence, by receiving the second input signal generated by encoding the second data as an input, information on which stage of the roughness stage of the EEG measuring device is classified may be output.

일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.Encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a digitized data sheet, and the color information includes RGB color, brightness information, saturation information, and depth information of one pixel. can, but is not limited to.

일실시예에 따르면, 인공 신경망(1100)은 특징 추출 신경망(1110)과 분류 신경망(1120)으로 구성되어 있으며, 특징 추출 신경망(1110)은 이미지에서 뇌파 측정 장치의 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1120)은 이미지 내에서 뇌파 측정 장치의 표면이 거칠기 단계 중 어느 단계로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.According to an embodiment, the artificial neural network 1100 is composed of a feature extraction neural network 1110 and a classification neural network 1120, and the feature extraction neural network 1110 separates an EEG region and a background region from an image. may be performed, and the classification neural network 1120 may perform a task of determining whether the surface of the EEG measuring device is classified into which stage of the roughness stage in the image.

특징 추출 신경망(1110)이 뇌파 측정 장치의 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 뇌파 측정 장치의 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.In the method for the feature extraction neural network 1110 to distinguish the region and the background region of the EEG measurement device, the change in each value of color information from the data sheet of the input signal encoding the image is at least 6 out of 8 pixels including one pixel. A bundle of pixels that are detected as having a change of 30% or more in , may be used as a boundary between the area of the EEG measurement device and the background area, but is not limited thereto.

특징 추출 신경망(1110)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The feature extraction neural network 1110 proceeds by sequentially stacking a convolutional layer and a pooling layer on the input signal. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.

분류 신경망(1120)은 특징 추출 신경망(1110)을 통해 배경으로부터 구분된 뇌파 측정 장치의 영역의 표면을 확인하고, 미리 정의된 거칠기 단계별 표면 상태와 유사한지 여부를 확인하여, 뇌파 측정 장치의 영역의 표면이 거칠기 단계 중 어느 단계로 분류되는지 여부를 파악할 수 있다. 거칠기 단계별 표면 상태와 비교하기 위해, 서버(100)의 데이터베이스에 저장된 정보들을 활용할 수 있다.The classification neural network 1120 checks the surface of the region of the EEG measurement device separated from the background through the feature extraction neural network 1110, and checks whether it is similar to the predefined roughness step surface state, It is possible to determine whether the surface is classified into which level of roughness level. In order to compare the roughness step-by-step surface state, information stored in the database of the server 100 may be utilized.

분류 신경망(1120)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.The classification neural network 1120 has a hidden layer and an output layer, and consists of five or less hidden layers, including a total of 50 or less hidden layer nodes, and the activation function of the hidden layer is a ReLU function and a sigmoid function. and tanh functions, but is not limited thereto.

분류 신경망(1120)는 총 1개의 출력층 노드만 포함할 수 있다.The classification neural network 1120 may include only one output layer node in total.

분류 신경망(1120)의 출력은 뇌파 측정 장치의 표면이 거칠기 단계 중 어느 단계로 분류되는지에 대한 출력값으로, 거칠기 단계 중 어느 단계에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경우, 뇌파 측정 장치의 표면이 1단계에 해당하는 것을 지시하고, 출력값이 2인 경우, 뇌파 측정 장치의 표면이 2단계에 해당하는 것을 지시할 수 있다.The output of the classification neural network 1120 is an output value of which stage of the roughness stage the surface of the EEG measuring apparatus is classified, and may indicate which stage of the roughness stage it corresponds to. For example, when the output value is 1, it may indicate that the surface of the EEG measuring device corresponds to the first step, and when the output value is 2, it may indicate that the surface of the EEG measuring device corresponds to the second step.

일실시예에 따르면, 인공 신경망(1100)은 사용자가 인공 신경망(1100)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(1100)에 따른 출력의 문제점은 뇌파 측정 장치의 표면에 대해 거칠기 단계 중 다른 단계로 분류한 출력값을 출력한 경우를 의미할 수 있다.According to an embodiment, the artificial neural network 1100 may learn by receiving the first learning signal generated by the corrected correct answer input by the user when the user discovers a problem in the output according to the artificial neural network 1100 . The problem of output according to the artificial neural network 1100 may mean a case in which an output value classified into another stage among the roughness stages is output with respect to the surface of the EEG measurement apparatus.

일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(1100)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 12를 참조하여 인공 신경망(1100)의 학습 내용이 후술된다.The first learning signal according to an embodiment is created based on the error between the correct answer and the output value, and in some cases, SGD using delta, a batch method, or a method following a backpropagation algorithm may be used. The artificial neural network 1100 performs learning by modifying an existing weight according to the first learning signal, and may use momentum in some cases. A cost function can be used to calculate the error, and a cross entropy function can be used as the cost function. Hereinafter, the learning contents of the artificial neural network 1100 will be described with reference to FIG. 12 .

도 12는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.12 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.

일실시예에 따르면, 학습 장치는 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 서버(100)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning apparatus may train the artificial neural network 1100 . The learning device may be a separate entity different from the server 100 , but is not limited thereto.

일실시예에 따르면, 인공 신경망(1100)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 거칠기 단계별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(1100)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the artificial neural network 1100 includes an input layer to which training samples are input and an output layer to output training outputs, and may be learned based on a difference between the training outputs and the first labels. Here, the first labels may be defined based on a representative image registered for each roughness level. The artificial neural network 1100 is connected as a group of a plurality of nodes, and is defined by weights between the connected nodes and an activation function that activates the nodes.

학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 인공 신경망(1100)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning apparatus may train the artificial neural network 1100 using a Gradient Decent (GD) technique or a Stochastic Gradient Descent (SGD) technique. The learning apparatus may use a loss function designed by the outputs and labels of the artificial neural network 1100 .

학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(1100) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning apparatus may calculate a training error using a predefined loss function. The loss function may be predefined with a label, an output, and a parameter as input variables, where the parameter may be set by weights in the artificial neural network 1100 . For example, the loss function may be designed in a Mean Square Error (MSE) form, an entropy form, or the like, and various techniques or methods may be employed in an embodiment in which the loss function is designed.

학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(1100) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning apparatus may find weights affecting the training error by using a backpropagation technique. Here, the weights are relationships between nodes in the artificial neural network 1100 . The learning apparatus may use the SGD technique using labels and outputs to optimize the weights found through the backpropagation technique. For example, the learning apparatus may update the weights of the loss function defined based on the labels, outputs, and weights using the SGD technique.

일실시예에 따르면, 학습 장치는 서버(100)의 데이터베이스로부터 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1201)을 획득할 수 있다. 학습 장치는 거칠기 단계별 대표 이미지들(1201)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 거칠기 단계별 대표 이미지들(1201)은 미리 분류된 거칠기 단계에 따라 레이블링될 수 있다.According to an embodiment, the learning apparatus may obtain representative images 1201 of labeled training roughness steps from the database of the server 100 . The learning apparatus may obtain pre-labeled information on each of the representative images 1201 for each roughness stage, and the representative images 1201 for each roughness stage may be labeled according to the pre-classified roughness stage.

일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1201)을 획득할 수 있으며, 레이블드 트레이닝 거칠기 단계별 대표 이미지들(1201)에 기초하여 제1 트레이닝 거칠기 단계별 벡터들(1202)을 생성할 수 있다. 제1 트레이닝 거칠기 단계별 벡터들(1202)을 추출하는데는 다양한 방식이 채용될 수 있다.According to an embodiment, the learning apparatus may obtain 1000 labeled training roughness step-by-step representative images 1201, and based on the labeled training roughness step-by-step representative images 1201, first training roughness step-by-step vectors ( 1202) can be created. Various methods may be employed to extract the first training roughness step vectors 1202 .

일실시예에 따르면, 학습 장치는 제1 트레이닝 거칠기 단계별 벡터들(1202)을 인공 신경망(1100)에 적용하여 제1 트레이닝 출력들(1203)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1203)과 제1 레이블들(1204)에 기초하여 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1203)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(1100) 내 노드들의 연결 관계를 최적화하여 인공 신경망(1100)을 학습시킬 수 있다.According to an embodiment, the learning apparatus may obtain the first training outputs 1203 by applying the first training roughness step-by-step vectors 1202 to the artificial neural network 1100 . The learning apparatus may train the artificial neural network 1100 based on the first training outputs 1203 and the first labels 1204 . The learning apparatus may train the artificial neural network 1100 by calculating the training errors corresponding to the first training outputs 1203 and optimizing the connection relationship of nodes in the artificial neural network 1100 to minimize the training errors. .

도 13은 일실시예에 따른 장치의 구성의 예시도이다.13 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

일실시예에 따른 장치(1300)는 프로세서(1310) 및 메모리(1320)를 포함한다. 프로세서(1310)는 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(1300)를 이용하는 자 또는 단체는 도 1 내지 도 12를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.The device 1300 according to an embodiment includes a processor 1310 and a memory 1320 . The processor 1310 may include at least one of the devices described above with reference to FIGS. 1 to 12 , or perform at least one method described above with reference to FIGS. 1 to 12 . A person or organization using the apparatus 1300 may provide a service related to some or all of the methods described above with reference to FIGS. 1 to 12 .

메모리(1320)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(1320)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 1320 may store information related to the above-described methods or a program in which methods to be described below are implemented. The memory 1320 may be a volatile memory or a non-volatile memory.

프로세서(1310)는 프로그램을 실행하고, 장치(1300)를 제어할 수 있다. 프로세서(1310)에 의하여 실행되는 프로그램의 코드는 메모리(1320)에 저장될 수 있다. 장치(1300)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 1310 may execute a program and control the device 1300 . The code of the program executed by the processor 1310 may be stored in the memory 1320 . The device 1300 may be connected to an external device (eg, a personal computer or a network) through an input/output device (not shown), and may exchange data through wired/wireless communication.

장치(1300)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(1320)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(1310)는 메모리(1320)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(1300)와 학습된 인공 신경망을 이용하는 장치(1300)는 동일할 수도 있고 개별적일 수도 있다.The device 1300 may be used to train an artificial neural network or to use a learned artificial neural network. The memory 1320 may include a learning or learned artificial neural network. The processor 1310 may learn or execute an artificial neural network algorithm stored in the memory 1320 . The apparatus 1300 for learning the artificial neural network and the apparatus 1300 for using the learned artificial neural network may be the same or may be separate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (3)

서버에 의해 수행되는, 뇌파 및 눈 깜빡임을 기반으로 학습 서비스를 제공하는 방법에 있어서,
제1 사용자가 착용한 제1 뇌파 측정 장치에서 상기 제1 사용자의 뇌파를 측정하면, 상기 제1 뇌파 측정 장치와 연결된 제1 사용자 단말로부터, 상기 제1 뇌파 측정 장치에서 측정된 상기 제1 사용자의 뇌파를 획득하는 단계;
상기 제1 사용자의 뇌파를 기초로, 상기 제1 사용자의 상태가 양호한지 여부를 분석하는 단계;
상기 제1 사용자의 상태가 양호하지 않은 것으로 확인되면, 상기 제1 사용자 단말로 명상 콘텐츠를 제공하여, 상기 제1 사용자 단말의 화면에서 상기 명상 콘텐츠가 재생되도록 제어하는 단계;
상기 제1 사용자의 상태가 양호한 것으로 확인되면, 상기 제1 사용자 단말에 장착된 카메라가 동작하여 촬영을 시작하도록 제어하는 단계;
상기 제1 사용자 단말에서 상기 제1 사용자의 얼굴을 촬영하면, 상기 제1 사용자 단말로부터 상기 제1 사용자의 얼굴 영상을 획득하는 단계;
상기 제1 사용자의 얼굴 영상에서 상기 제1 사용자의 눈을 인식하여, 상기 제1 사용자의 시선을 추적하는 단계;
상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있는지 여부를 확인하는 단계;
상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있는 것으로 확인되면, 상기 제1 사용자 단말로 학습 콘텐츠를 제공하여, 상기 제1 사용자 단말의 화면에서 상기 학습 콘텐츠가 재생되도록 제어하는 단계;
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 뇌파를 상기 제1 뇌파 측정 장치와 연결된 제1 사용자 단말로부터 획득하면서, 상기 제1 사용자의 얼굴 영상을 상기 제1 사용자 단말로부터 획득하고, 상기 제1 사용자의 얼굴 영상에서 상기 제1 사용자의 눈을 인식하여, 상기 제1 사용자의 시선을 추적하고 상기 제1 사용자의 EAR(Eye Aspect Ratio)을 측정하는 단계;
상기 학습 콘텐츠에 대한 재생이 완료되면, 상기 학습 콘텐츠가 재생되는 동안 측정된 상기 제1 사용자의 뇌파에 대한 변화를 확인하고, 상기 학습 콘텐츠가 재생되는 동안 측정된 상기 제1 사용자의 EAR에 대한 변화를 통해 눈 깜빡임 상태를 확인하고, 상기 학습 콘텐츠가 재생되는 동안 추적된 상기 제1 사용자의 시선 변화를 통해 화면을 응시한 응시 상태를 확인하는 단계; 및
상기 제1 사용자의 뇌파에 대한 변화, 상기 눈 깜빡임 상태 및 상기 응시 상태를 기초로, 학습을 수행한 시간을 분석하여, 상기 학습 콘텐츠에 대한 상기 제1 사용자의 집중도를 산출하는 단계를 포함하며,
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 시선을 추적하고 상기 제1 사용자의 EAR을 측정하는 단계는,
상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 응시하고 있지 않은 것으로 확인되면, 상기 제1 사용자의 시선이 상기 제1 사용자 단말의 화면을 벗어난 시점부터 시선 이탈 시간을 측정하는 단계;
상기 제1 사용자의 EAR을 측정한 결과, 상기 제1 사용자의 눈이 감겨져 있는 것으로 확인되면, 상기 제1 사용자의 눈이 감겨진 시점부터 졸음 시간을 측정하는 단계;
상기 시선 이탈 시간 및 상기 졸음 시간 중 어느 하나가 미리 설정된 제1 기준 시간 보다 길게 지속된 것으로 확인되면, 상기 제1 사용자가 상기 학습 콘텐츠를 통해 학습을 수행하고 있지 않아 학습에 집중하지 못하는 상태로 판단하는 단계;
상기 제1 사용자가 학습을 수행하고 있지 않은 것으로 판단되면, 상기 학습 콘텐츠의 재생이 정지되고, 상기 제1 사용자 단말에서 집중 필요 알림 메시지가 출력되도록 제어하는 단계;
상기 시선 이탈 시간 및 상기 졸음 시간 중 어느 하나가 미리 설정된 제2 기준 시간 보다 길게 지속된 것으로 확인되면, 상기 제1 사용자에 대한 학습 지도가 필요한 것으로 판단하는 단계; 및
상기 제1 사용자에 대한 학습 지도가 필요한 것으로 판단되면, 상기 제1 사용자의 학습 지도를 요청하는 학습 지도 요청 메시지를 보호자 단말로 전송하는 단계를 포함하며,
상기 제1 사용자의 집중도를 산출하는 단계는,
상기 제1 사용자의 뇌파에 대한 변화, 상기 눈 깜빡임 상태 및 상기 응시 상태를 기초로, 상기 학습 콘텐츠의 재생 시간에 따라 변화하는 상기 제1 사용자의 집중도를 산출하는 단계;
상기 제1 사용자의 집중도를 기초로, 상기 학습 콘텐츠에 대한 집중도 상위 구간, 집중도 보통 구간 및 집중도 하위 구간을 구분하여 분류하는 단계;
상기 집중도 하위 구간 중 제1 구간의 길이가 미리 설정된 제1 시간 간격 보다 짧은지 여부를 확인하는 단계;
상기 제1 구간의 길이가 상기 제1 시간 간격 보다 짧은 것으로 확인되면, 상기 제1 구간에 대한 재학습이 필요하지 않은 것으로 판단하는 단계;
상기 제1 구간의 길이가 상기 제1 시간 간격 보다 긴 것으로 확인되면, 상기 제1 구간의 길이가 미리 설정된 제2 시간 간격 보다 짧은지 여부를 확인하는 단계;
상기 제1 구간의 길이가 상기 제2 시간 간격 보다 짧은 것으로 확인되면, 상기 제1 구간에 대한 테스트가 필요한 것으로 판단하는 단계;
상기 제1 구간의 길이가 상기 제2 시간 간격 보다 긴 것으로 확인되면, 상기 제1 구간에 대한 재학습이 필요한 것으로 판단하는 단계;
상기 제1 구간에 대한 테스트가 필요한 것으로 판단되면, 상기 제1 구간의 학습 내용을 테스트하기 위한 시험 문제가 상기 제1 사용자 단말의 화면에서 표시되도록 제어하는 단계; 및
상기 제1 구간에 대한 재학습이 필요한 것으로 판단되면, 상기 제1 구간이 상기 제1 사용자 단말의 화면에서 다시 재생되도록 제어하는 단계를 포함하며,
상기 학습 콘텐츠는 미리 학습된 제1 인공지능을 기초로 생성되고,
상기 집중도 상위 구간 및 상기 집중도 하위 구간을 구분하는 미리 정의된 기준 집중도는 미리 학습된 제2 인공지능의 추론을 기초로 설정되고,
상기 제1 인공지능은 각각의 계정 사용자 별로 학습해야 하는 과목들, 현재까지 학습 성취도, 학습 성취도 변화 추이 및 이전 학습 콘텐츠를 사용할 때의 뇌파 정보를 입력으로 받아, 상기 각각의 계정 사용자를 위한 학습 콘텐츠를 생성하고,
상기 제2 인공지능은 각각의 학습 콘텐츠 별로 학습 주제, 학습 난이도, 학습 콘텐츠를 수강하는 사용자들의 평균 연령 및 학습 콘텐츠를 수강한 사용자들의 뇌파 정보를 입력으로 받아, 상기 집중도 상위 구간을 구분하는 상위 임계 집중도 및 상기 집중도 하위 구간을 구분하는 하위 임계 집중도를 포함하는 상기 기준 집중도를 상기 각각의 학습 콘텐츠별로 출력하는,
뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법.
In a method of providing a learning service based on brain waves and blinking, performed by a server,
When the EEG of the first user is measured by the first EEG measurement device worn by the first user, from the first user terminal connected to the first EEG measurement device, the first EEG measured by the first EEG measurement device acquiring an EEG;
analyzing whether the state of the first user is good based on the brain wave of the first user;
when it is confirmed that the first user's condition is not good, providing the meditation content to the first user terminal, and controlling the meditation content to be reproduced on the screen of the first user terminal;
controlling a camera mounted on the first user terminal to operate and start shooting when it is confirmed that the first user's condition is good;
acquiring a face image of the first user from the first user terminal when the first user's face is photographed by the first user terminal;
recognizing the eyes of the first user from the face image of the first user and tracking the gaze of the first user;
as a result of tracking the gaze of the first user, checking whether the gaze of the first user is gazing at the screen of the first user terminal;
When it is confirmed that the gaze of the first user is gazing at the screen of the first user terminal, the learning content is provided to the first user terminal, and the learning content is controlled to be reproduced on the screen of the first user terminal step;
While the learning content is being reproduced in the first user terminal, while acquiring the brain wave of the first user from the first user terminal connected to the first EEG measuring device, the face image of the first user is obtained from the first user terminal obtaining from, recognizing the eyes of the first user from the face image of the first user, tracking the gaze of the first user, and measuring the Eye Aspect Ratio (EAR) of the first user;
When the reproduction of the learning content is completed, a change in the brain wave of the first user measured while the learning content is reproduced is checked, and a change in the EAR of the first user measured while the learning content is being reproduced checking an eye blinking state through , and checking a gaze state gazing at a screen through a gaze change of the first user tracked while the learning content is being played; and
Calculating the concentration of the first user on the learning content by analyzing the learning time based on the change in the brain wave of the first user, the blinking state, and the gaze state,
While the learning content is reproduced in the first user terminal, tracking the gaze of the first user and measuring the EAR of the first user comprises:
As a result of tracking the gaze of the first user, if it is confirmed that the gaze of the first user is not gazing at the screen of the first user terminal, the gaze of the first user deviates from the screen of the first user terminal measuring a gaze departure time from the time point;
measuring the drowsiness time from the time when the eyes of the first user are closed when it is confirmed that the eyes of the first user are closed as a result of measuring the EAR of the first user;
When it is confirmed that any one of the gaze departure time and the drowsiness time lasts longer than a preset first reference time, it is determined that the first user is unable to concentrate on learning because the first user is not learning through the learning content to do;
when it is determined that the first user is not learning, stopping the reproduction of the learning content, and controlling the first user terminal to output a notification message that requires concentration;
determining that a study guide for the first user is necessary when it is confirmed that any one of the gaze departure time and the drowsiness time has been maintained longer than a preset second reference time; and
When it is determined that the learning guidance for the first user is necessary, transmitting a learning guidance request message for requesting the learning guidance of the first user to the guardian terminal,
Calculating the concentration of the first user includes:
calculating a concentration level of the first user that changes according to a reproduction time of the learning content based on the change in the brain wave of the first user, the blinking state, and the gaze state;
classifying and classifying an upper concentration section, a normal concentration section, and a lower concentration section section for the learning content based on the concentration level of the first user;
checking whether a length of a first section among the concentration subsections is shorter than a preset first time interval;
determining that re-learning of the first section is not necessary when it is confirmed that the length of the first section is shorter than the first time interval;
when it is determined that the length of the first section is longer than the first time interval, checking whether the length of the first section is shorter than a preset second time interval;
determining that a test for the first section is necessary when it is confirmed that the length of the first section is shorter than the second time interval;
determining that re-learning of the first section is necessary when it is confirmed that the length of the first section is longer than the second time interval;
when it is determined that the test for the first section is necessary, controlling a test question for testing the learning content of the first section to be displayed on the screen of the first user terminal; and
When it is determined that re-learning of the first section is necessary, controlling the first section to be reproduced again on the screen of the first user terminal,
The learning content is generated based on the first artificial intelligence learned in advance,
The predefined reference concentration level for dividing the concentration upper section and the concentration lower section is set based on the pre-learned inference of the second artificial intelligence,
The first artificial intelligence receives as inputs the subjects to be learned for each account user, learning achievement so far, learning achievement change trend, and EEG information when using previous learning content, learning content for each account user create,
The second artificial intelligence receives as inputs a learning topic, learning difficulty, average age of users who receive learning content, and EEG information of users who receive learning content for each learning content, and a high threshold for classifying the upper section of concentration Outputting the reference concentration level including the concentration level and the sub-threshold concentration level for dividing the concentration sub-section for each of the learning contents,
A method of providing EEG and blink-based learning services.
제1항에 있어서,
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되는 동안, 상기 제1 사용자의 뇌파를 획득하면서, 상기 제1 사용자의 EAR을 측정하는 단계는,
상기 제1 사용자 단말에서 상기 학습 콘텐츠가 재생되면, 상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 측정되고 있는지 여부를 확인하는 단계;
상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 모두 측정되고 있는 것으로 확인되면, 상기 제1 사용자의 뇌파와 상기 제1 사용자의 EAR 간에 싱크를 맞추도록 조정하는 단계;
상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR 중 어느 하나가 측정되고 있지 않은 것으로 확인되면, 미리 설정된 대기 시간 이후 상기 학습 콘텐츠의 재생이 정지되도록 제어하는 단계; 및
상기 제1 사용자의 뇌파 및 상기 제1 사용자의 EAR이 모두 측정되고 있지 않은 것으로 확인되면, 상기 학습 콘텐츠의 재생이 즉시 정지되도록 제어하는 단계를 포함하는,
뇌파 및 눈 깜빡임 기반 학습 서비스 제공 방법.
The method of claim 1,
Measuring the EAR of the first user while acquiring the brainwave of the first user while the learning content is being reproduced in the first user terminal comprises:
when the learning content is reproduced in the first user terminal, checking whether the brain wave of the first user and the EAR of the first user are being measured;
when it is confirmed that both the brain wave of the first user and the EAR of the first user are being measured, adjusting the synch between the brain wave of the first user and the EAR of the first user;
when it is confirmed that any one of the brain wave of the first user and the EAR of the first user is not being measured, controlling the reproduction of the learning content to be stopped after a preset waiting time; and
When it is confirmed that neither the brain wave of the first user nor the EAR of the first user is being measured, including controlling the reproduction of the learning content to immediately stop,
A method of providing EEG and blink-based learning services.
삭제delete
KR1020210066173A 2021-05-24 2021-05-24 Method, device and system for providing learning service base on brain wave and blinking eyes KR102452100B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210066173A KR102452100B1 (en) 2021-05-24 2021-05-24 Method, device and system for providing learning service base on brain wave and blinking eyes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210066173A KR102452100B1 (en) 2021-05-24 2021-05-24 Method, device and system for providing learning service base on brain wave and blinking eyes

Publications (1)

Publication Number Publication Date
KR102452100B1 true KR102452100B1 (en) 2022-10-12

Family

ID=83597983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210066173A KR102452100B1 (en) 2021-05-24 2021-05-24 Method, device and system for providing learning service base on brain wave and blinking eyes

Country Status (1)

Country Link
KR (1) KR102452100B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557503B1 (en) * 2023-05-12 2023-07-20 주식회사 엘엑스디 Method, device and system for providing immersive content based on augmented reality related to event and performance
KR102729752B1 (en) * 2024-02-08 2024-11-13 박호인 Subscription-type forklift rental and safety training provision platform service operation method, device, and system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002751B1 (en) * 2010-09-10 2010-12-21 주식회사 다이나믹플러스 Device for education diagnosis using brain waves, education management system using the device and operating method thereof
KR20140021208A (en) * 2012-08-09 2014-02-20 숭실대학교산학협력단 Apparatus and method for providing personalized content through the changes in the pattern of learning efficiency and intention of learning
KR101587462B1 (en) 2013-12-19 2016-01-21 (주) 로임시스템 Question providing system for study using brain waves
KR101842750B1 (en) 2015-11-26 2018-03-27 인하대학교 산학협력단 Realtime simulator for brainwaves training and interface device using realtime simulator
JP2018124483A (en) * 2017-02-02 2018-08-09 日本電信電話株式会社 Learning support system, learning support device, and learning support method
KR101955941B1 (en) 2017-02-07 2019-03-11 남서울대학교 산학협력단 SYSTEM AND METHOD FOR PROVIDING MENTAL CARE BASED ON IoT USING BRAIN WAVES
KR20190063690A (en) * 2017-11-30 2019-06-10 주식회사 꿀비 Supervisory System of Online Lecture by Eye Tracking
KR102107337B1 (en) 2019-08-06 2020-05-07 장현갑 System for smart study management using wearable device
KR20200128900A (en) * 2019-05-07 2020-11-17 엠브레인웍스 주식회사 System and method of neuro feedback for improving study concentration and digital detox
KR102252845B1 (en) * 2021-01-26 2021-05-27 주식회사 도로시 Method, device and system for analyzing concrete surface through machine vision and 3d profile

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002751B1 (en) * 2010-09-10 2010-12-21 주식회사 다이나믹플러스 Device for education diagnosis using brain waves, education management system using the device and operating method thereof
KR20140021208A (en) * 2012-08-09 2014-02-20 숭실대학교산학협력단 Apparatus and method for providing personalized content through the changes in the pattern of learning efficiency and intention of learning
KR101587462B1 (en) 2013-12-19 2016-01-21 (주) 로임시스템 Question providing system for study using brain waves
KR101842750B1 (en) 2015-11-26 2018-03-27 인하대학교 산학협력단 Realtime simulator for brainwaves training and interface device using realtime simulator
JP2018124483A (en) * 2017-02-02 2018-08-09 日本電信電話株式会社 Learning support system, learning support device, and learning support method
KR101955941B1 (en) 2017-02-07 2019-03-11 남서울대학교 산학협력단 SYSTEM AND METHOD FOR PROVIDING MENTAL CARE BASED ON IoT USING BRAIN WAVES
KR20190063690A (en) * 2017-11-30 2019-06-10 주식회사 꿀비 Supervisory System of Online Lecture by Eye Tracking
KR20200128900A (en) * 2019-05-07 2020-11-17 엠브레인웍스 주식회사 System and method of neuro feedback for improving study concentration and digital detox
KR102107337B1 (en) 2019-08-06 2020-05-07 장현갑 System for smart study management using wearable device
KR102252845B1 (en) * 2021-01-26 2021-05-27 주식회사 도로시 Method, device and system for analyzing concrete surface through machine vision and 3d profile

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557503B1 (en) * 2023-05-12 2023-07-20 주식회사 엘엑스디 Method, device and system for providing immersive content based on augmented reality related to event and performance
KR102729752B1 (en) * 2024-02-08 2024-11-13 박호인 Subscription-type forklift rental and safety training provision platform service operation method, device, and system

Similar Documents

Publication Publication Date Title
Lin et al. Mental effort detection using EEG data in E-learning contexts
D’Mello et al. The affective computing approach to affect measurement
Chango et al. A review on data fusion in multimodal learning analytics and educational data mining
US11670055B1 (en) Facial expression tracking during augmented and virtual reality sessions
Bilakhia et al. The MAHNOB Mimicry Database: A database of naturalistic human interactions
Matran-Fernandez et al. Towards the automated localisation of targets in rapid image-sifting by collaborative brain-computer interfaces
US11700420B2 (en) Media manipulation using cognitive state metric analysis
US11327320B2 (en) Electronic device and method of controlling the same
CN109475294A (en) For treat phrenoblabia movement and wearable video capture and feedback platform
KR20200005986A (en) System and method for diagnosing cognitive impairment using face recognization
KR102265734B1 (en) Method, device, and system of generating and reconstructing learning content based on eeg analysis
US12045694B2 (en) Building a model based on responses from sensors
Giritlioğlu et al. Multimodal analysis of personality traits on videos of self-presentation and induced behavior
Shen et al. Multi-modal feature fusion for better understanding of human personality traits in social human–robot interaction
Reichert et al. Online tracking of the contents of conscious perception using real-time fMRI
US20180240157A1 (en) System and a method for generating personalized multimedia content for plurality of users
Liao et al. An open-source benchmark of deep learning models for audio-visual apparent and self-reported personality recognition
Araya et al. Automatic detection of gaze and body orientation in elementary school classrooms
KR102396794B1 (en) Electronic device and Method for controlling the electronic device thereof
KR102452100B1 (en) Method, device and system for providing learning service base on brain wave and blinking eyes
KR102366859B1 (en) Method, evice and system for providing curation and curriculum of educational content
Ejaz et al. Real-time analysis of student's behavioural engagement in digital smart classrooms using fog computing and IoT devices
Hynes et al. An evaluation of lower facial micro expressions as an implicit QoE metric for an augmented reality procedure assistance application
KR20220114849A (en) Method, device and system for monitoring learnig degree based on eye tracking
KR102492762B1 (en) Method, device and system for providing and managing study abroad education curriculum customized for student based on artificial intelligence

Legal Events

Date Code Title Description
GRNT Written decision to grant