KR20230150072A - A method for managing user learning progress using artificial intelligence - Google Patents
A method for managing user learning progress using artificial intelligence Download PDFInfo
- Publication number
- KR20230150072A KR20230150072A KR1020220049590A KR20220049590A KR20230150072A KR 20230150072 A KR20230150072 A KR 20230150072A KR 1020220049590 A KR1020220049590 A KR 1020220049590A KR 20220049590 A KR20220049590 A KR 20220049590A KR 20230150072 A KR20230150072 A KR 20230150072A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- lecture
- learning
- terminal
- concentration
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 12
- 230000004044 response Effects 0.000 claims abstract description 24
- 239000000463 material Substances 0.000 claims abstract description 13
- 230000001815 facial effect Effects 0.000 claims description 24
- 238000007726 management method Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 18
- 238000012544 monitoring process Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 206010041349 Somnolence Diseases 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000010835 comparative analysis Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000025721 COVID-19 Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06311—Scheduling, planning or task assignment for a person or group
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06312—Adjustment or analysis of established resource schedule, e.g. resource or task levelling, or dynamic rescheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- General Health & Medical Sciences (AREA)
- Marketing (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Development Economics (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Game Theory and Decision Science (AREA)
- Primary Health Care (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 명세서는 인공지능을 이용하여 사용자 학습의 진도를 관리하는 방법 및 이를 위한 장치에 관한 것이다.This specification relates to a method and device for managing the progress of user learning using artificial intelligence.
ICT(Information and Communication Technology) 기술의 발전으로, VR/AR, AI, 빅데이터 등 4차 산업혁명 기술을 교육 서비스에 접목한 에듀테크의 성장성이 높게 점쳐지고 있다. 또한, 코로나19는 비대면 온라인 교육 및 에듀테크에 대한 관심을 더욱 고조시켰다. With the development of ICT (Information and Communication Technology), the growth potential of edtech, which combines 4th industrial revolution technologies such as VR/AR, AI, and big data, with educational services is expected to be high. Additionally, COVID-19 has further heightened interest in non-face-to-face online education and edtech.
이러한 에듀테크는 어린이들을 대상으로 하는 사교육 시장을 대체하는 특정 교육분야에 집중되고 있으며, 기존의 동영상 콘텐츠를 이용하여 운영되고 있는 학습관리시스템(Learning Management System, LMS)에서도 초, 중학생 대상 원격 동영상 강의, 대학교의 원격 동영상 강의, 직장인 대상의 원격강의, 기타 원격강의에서 운영의 편리성 및 비용 효율성 강점을 활용하여 사회 전반에 폭넓게 사용되고 있다. These edutechs are focused on specific educational fields that replace the private education market for children, and the Learning Management System (LMS), which is operated using existing video content, also provides remote video lectures for elementary and middle school students. , It is widely used throughout society by taking advantage of its operational convenience and cost-effectiveness in remote video lectures at universities, remote lectures for office workers, and other remote lectures.
본 명세서의 목적은, 인공지능 모델을 이용하여, 사용자의 학습 진도를 효율적으로 관리하는 방법을 제안한다.The purpose of this specification is to propose a method for efficiently managing a user's learning progress using an artificial intelligence model.
본 명세서가 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 이하의 명세서의 상세한 설명으로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by this specification are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clear to those skilled in the art from the detailed description of the specification below. It will be understandable.
본 명세서의 일 양상은, 제1 단말이 인공지능 모델을 이용하여 사용자의 학습 진도를 관리하는 방법에 있어서, 상기 사용자로부터 로그인을 위한 사용자 ID 및 비밀번호를 입력받는 단계; 제2 단말로 상기 사용자 ID에 매칭되는 얼굴 패턴 데이터를 요청하고, 상기 얼굴 패턴 데이터를 수신하여 상기 사용자를 제1 인증하는 단계; 상기 사용자로부터 강의를 선택받고, 상기 제2 단말로 상기 강의를 요청하는 강의 요청 메시지를 전달하는 단계; 및 상기 강의 요청 메시지의 응답으로서, 강의 응답 메시지를 수신하는 단계; 를 포함하며, 상기 강의 응답 메시지는 1) 학습자료 및 2) 상기 사용자가 상기 강의에서 집중하여야할 구간 및 대상을 나타내는 학습 집중구간 데이터가 포함될 수 있다.One aspect of the present specification is a method for a first terminal to manage a user's learning progress using an artificial intelligence model, comprising: receiving a user ID and password for logging in from the user; Requesting face pattern data matching the user ID from a second terminal and first authenticating the user by receiving the face pattern data; Receiving a lecture selected from the user and transmitting a lecture request message requesting the lecture to the second terminal; and receiving a lecture response message as a response to the lecture request message; It includes, and the lecture response message may include 1) learning materials and 2) learning concentration section data indicating the section and object on which the user should focus in the lecture.
또한, 상기 학습 집중구간 데이터는 텍스트(text) 파일 형태일 수 있다.Additionally, the learning intensive section data may be in the form of a text file.
또한, 상기 강의 응답 메시지에 근거하여, 상기 강의를 진행하고 상기 사용자의 수강 상태를 모니터링하는 단계; 를 더 포함하며, 상기 모니터링은 1) 일반 모니터링 모드, 및 2) 상기 학습 집중구간 데이터에 근거한 학습 집중 구간 모니터링 모드를 포함할 수 있다. Additionally, based on the lecture response message, proceeding with the lecture and monitoring the user's lecture attendance status; It further includes, and the monitoring may include 1) a general monitoring mode, and 2) a learning intensive section monitoring mode based on the learning intensive section data.
또한, 상기 모니터링의 결과에 근거하여, 상기 강의의 진행을 정지하는 단계; 및 상기 사용자를 제2 인증하고, 상기 사용자가 상기 강의를 시청하는 지 여부를 판단하기 위해 상기 사용자의 동체를 인식하는 단계; 를 더 포함할 수 있다.Additionally, based on the results of the monitoring, stopping the progress of the lecture; and secondly authenticating the user and recognizing the user's moving body to determine whether the user is watching the lecture. may further include.
또한, 상기 사용자의 상기 강의의 수강 히스토리(history)를 생성하는 단계; 및 제2 단말로 상기 수강 히스토리를 전달하는 단계; 를 더 포함할 수 있다.Additionally, generating a history of attendance of the lecture of the user; And transmitting the course attendance history to a second terminal; may further include.
또한, 상기 학습 집중구간 데이터는 상기 수강 히스토리에 근거하여, 상기 제2 단말을 통해 업데이트(update)될 수 있다. Additionally, the learning intensive section data may be updated through the second terminal based on the course attendance history.
또한, 상기 수강 히스토리는 상기 사용자의 집중도 통계를 계산하기 위해 사용될 수 있다.Additionally, the course attendance history may be used to calculate concentration statistics of the user.
본 명세서의 또 다른 일 양상은, 인공지능 모델을 이용하여 사용자의 학습 진도를 관리하는 제1 단말에 있어서, 메모리; 통신모듈; 및 상기 메모리 및 상기 통신모듈을 기능적으로 제어하는 프로세서;를 포함하고, 상기 프로세서는 상기 사용자로부터 로그인을 위한 사용자 ID 및 비밀번호를 입력받고, 제2 단말로 상기 사용자 ID에 매칭되는 얼굴 패턴 데이터를 요청하고, 상기 얼굴 패턴 데이터를 수신하여 상기 사용자를 제1 인증하며, 상기 사용자로부터 강의를 선택받고, 상기 제2 단말로 상기 강의를 요청하는 강의 요청 메시지를 전달하고, 상기 강의 요청 메시지의 응답으로서, 강의 응답 메시지를 수신하며, 상기 강의 응답 메시지는 1) 학습자료 및 2) 상기 사용자가 상기 강의에서 집중하여야할 구간 및 대상을 나타내는 학습 집중구간 데이터가 포함될 수 있다.Another aspect of the present specification is a first terminal that manages a user's learning progress using an artificial intelligence model, comprising: a memory; communication module; and a processor that functionally controls the memory and the communication module, wherein the processor receives a user ID and password for logging in from the user and requests facial pattern data matching the user ID from the second terminal. Receiving the facial pattern data to first authenticate the user, receiving a lecture selection from the user, transmitting a lecture request message requesting the lecture to the second terminal, and as a response to the lecture request message, A lecture response message is received, and the lecture response message may include 1) learning materials and 2) learning concentration section data indicating the section and object on which the user should focus in the lecture.
본 명세서의 실시예에 따르면, 인공지능 모델을 이용하여, 사용자의 학습 진도가 효율적으로 관리될 수 있다.According to an embodiment of the present specification, the user's learning progress can be efficiently managed using an artificial intelligence model.
본 명세서에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects that can be obtained in this specification are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. .
도 1은 본 명세서와 관련된 전자 기기를 설명하기 위한 블록도이다.
도 2는 본 명세서의 일 실시예에 따른 AI 장치의 블록도이다.
도 3은 본 명세서가 적용될 수 있는 기존의 LMS 시스템의 예시이다.
도 4는 본 명세서가 적용될 수 있는 개선된 LMS 시스템의 예시이다.
도 5는 본 명세서가 적용될 수 있는 일 실시예이다.
도 6은 본 명세서가 적용될 수 있는 학습 집중구간의 예시이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.1 is a block diagram for explaining an electronic device related to this specification.
Figure 2 is a block diagram of an AI device according to an embodiment of the present specification.
Figure 3 is an example of an existing LMS system to which this specification can be applied.
Figure 4 is an example of an improved LMS system to which this specification can be applied.
Figure 5 is an embodiment to which this specification can be applied.
Figure 6 is an example of a learning intensive section to which this specification can be applied.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide embodiments of the present specification and explain technical features of the present specification together with the detailed description.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 명세서의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of this specification are not limited. , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
도 1은 본 명세서와 관련된 전자 기기를 설명하기 위한 블록도이다.1 is a block diagram for explaining an electronic device related to this specification.
상기 전자 기기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 전자 기기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 전자 기기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The electronic device 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. ), etc. may be included. The components shown in FIG. 1 are not essential for implementing an electronic device, so the electronic device described in this specification may have more or fewer components than the components listed above.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 전자 기기(100)와 무선 통신 시스템 사이, 전자 기기(100)와 다른 전자 기기(100) 사이, 또는 전자 기기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 전자 기기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the above components, the wireless communication unit 110 is used between the electronic device 100 and the wireless communication system, between the electronic device 100 and another electronic device 100, or between the electronic device 100 and an external server. It may include one or more modules that enable wireless communication between the devices. Additionally, the wireless communication unit 110 may include one or more modules that connect the electronic device 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.This wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 or an audio input unit for inputting an audio signal, and a user input unit 123 for receiving information from a user, for example. , touch keys, push keys (mechanical keys, etc.). Voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
센싱부(140)는 전자 기기 내 정보, 전자 기기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 전자 기기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information within the electronic device, information on the surrounding environment surrounding the electronic device, and user information. For example, the sensing unit 140 includes a proximity sensor (141), an illumination sensor (142), a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor. Sensor (G-sensor), gyroscope sensor, motion sensor, RGB sensor, IR sensor (infrared sensor), fingerprint scan sensor, ultrasonic sensor , optical sensors (e.g., cameras (see 121)), microphones (see 122), battery gauges, environmental sensors (e.g., barometers, hygrometers, thermometers, radiation detection sensors, It may include at least one of a heat detection sensor, a gas detection sensor, etc.) and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the electronic device disclosed in this specification can utilize information sensed by at least two of these sensors by combining them.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 전자 기기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 전자 기기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating output related to vision, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a haptip module 153, and an optical output unit 154. can do. The display unit 151 can implement a touch screen by forming a layered structure or being integrated with the touch sensor. This touch screen functions as a user input unit 123 that provides an input interface between the electronic device 100 and the user, and can simultaneously provide an output interface between the electronic device 100 and the user.
인터페이스부(160)는 전자 기기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 전자 기기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다. The interface unit 160 serves as a passageway for various types of external devices connected to the electronic device 100. This interface unit 160 connects devices equipped with a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port. In response to the external device being connected to the interface unit 160, the electronic device 100 may perform appropriate control related to the connected external device.
또한, 메모리(170)는 전자 기기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 전자 기기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자 기기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 전자 기기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 전자 기기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 전자 기기(100) 상에 설치되어, 제어부(180)에 의하여 상기 전자 기기의 동작(또는 기능)을 수행하도록 구동될 수 있다. Additionally, the memory 170 stores data supporting various functions of the electronic device 100. The memory 170 may store a plurality of application programs (application programs) running on the electronic device 100, data for operating the electronic device 100, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, at least some of these applications may be present on the electronic device 100 from the time of shipment for basic functions of the electronic device 100 (e.g., incoming and outgoing calls, receiving and sending functions). Meanwhile, the application program may be stored in the memory 170, installed on the electronic device 100, and driven by the control unit 180 to perform an operation (or function) of the electronic device.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 전자 기기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. In addition to operations related to the application program, the control unit 180 typically controls the overall operation of the electronic device 100. The control unit 180 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 전자 기기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다. Additionally, the control unit 180 may control at least some of the components examined with FIG. 1 in order to run an application program stored in the memory 170. Furthermore, the control unit 180 may operate at least two of the components included in the electronic device 100 in combination with each other in order to run the application program.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가받아 전자 기기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다. The power supply unit 190 receives external power and internal power under the control of the control unit 180 and supplies power to each component included in the electronic device 100. This power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 전자 기기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 전자 기기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 전자 기기 상에서 구현될 수 있다. At least some of the components may cooperate with each other to implement operation, control, or a control method of an electronic device according to various embodiments described below. Additionally, the operation, control, or control method of the electronic device may be implemented on the electronic device by running at least one application program stored in the memory 170.
본 명세서에서 전자기기(100)는 단말(또는 사용자 단말)로 통칭될 수 있다. In this specification, the electronic device 100 may be collectively referred to as a terminal (or user terminal).
도 2는 본 명세서의 일 실시예에 따른 AI 장치의 블록도이다.Figure 2 is a block diagram of an AI device according to an embodiment of the present specification.
상기 AI 장치(20)는 AI 프로세싱을 수행할 수 있는 AI 모듈을 포함하는 전자 기기 또는 상기 AI 모듈을 포함하는 서버 등을 포함할 수 있다. 또한, 상기 AI 장치(20)는 도 1에 도시된 전자기기(100)의 적어도 일부의 구성으로 포함되어 AI 프로세싱 중 적어도 일부를 함께 수행하도록 구비될 수도 있다.The AI device 20 may include an electronic device including an AI module capable of performing AI processing or a server including the AI module. Additionally, the AI device 20 may be included in at least a portion of the electronic device 100 shown in FIG. 1 and may be equipped to perform at least a portion of AI processing.
상기 AI 장치(20)는 AI 프로세서(21), 메모리(25) 및/또는 통신부(27)를 포함할 수 있다.The AI device 20 may include an AI processor 21, memory 25, and/or a communication unit 27.
상기 AI 장치(20)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 서버, 데스크탑 PC, 노트북 PC, 태블릿 PC 등과 같은 다양한 전자 장치로 구현될 수 있다.The AI device 20 is a computing device capable of learning a neural network, and may be implemented in various electronic devices such as servers, desktop PCs, laptop PCs, tablet PCs, etc.
AI 프로세서(21)는 메모리(25)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(21)는 자연어 처리, 이미지 인식, 사용자의 얼굴을 인증하고, 사용자의 학습 집중도를 관리하기 위해, 사용자의 얼굴 모션을 인식하며, 졸음 여부를 파악하고, 사용자의 학습 집중 구간을 관리하기 위한 인공지능 모델을 생성할 수 있다. The AI processor 21 can learn a neural network using a program stored in the memory 25. In particular, the AI processor 21 performs natural language processing, image recognition, authenticates the user's face, recognizes the user's facial motion to manage the user's learning concentration, determines whether the user is drowsy, and determines the user's learning concentration zone. You can create an artificial intelligence model for management.
이를 위해, 메모리(25)는 사용자의 얼굴 이미지 패턴을 관리하는 데이터베이스, 사용자의 학습 집중구간 및 집중이력을 관리하는 데이터베이스를 포함할 수 있다.To this end, the memory 25 may include a database that manages the user's facial image pattern and a database that manages the user's learning concentration section and concentration history.
한편, 전술한 바와 같은 기능을 수행하는 AI 프로세서(21)는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU, graphics processing unit)일 수 있다.Meanwhile, the AI processor 21 that performs the functions described above may be a general-purpose processor (e.g., CPU), but may be an AI-specific processor for artificial intelligence learning (e.g., GPU, graphics processing unit). there is.
메모리(25)는 AI 장치(20)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(25)는 비 휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SDD) 등으로 구현할 수 있다. 메모리(25)는 AI 프로세서(21)에 의해 액세스되며, AI 프로세서(21)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(25)는 본 명세서의 일 실시예에 따른 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥 러닝 모델)을 저장할 수 있다.The memory 25 can store various programs and data necessary for the operation of the AI device 20. The memory 25 can be implemented as non-volatile memory, volatile memory, flash-memory, hard disk drive (HDD), or solid state drive (SDD). The memory 25 is accessed by the AI processor 21, and reading/writing/modifying/deleting/updating data by the AI processor 21 can be performed. Additionally, the memory 25 may store a neural network model (eg, deep learning model) generated through a learning algorithm for data classification/recognition according to an embodiment of the present specification.
한편, AI 프로세서(21)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부를 포함할 수 있다. 예를 들어, 데이터 학습부는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다. Meanwhile, the AI processor 21 may include a data learning unit that learns a neural network for data classification/recognition. For example, the data learning unit may learn a deep learning model by acquiring training data to be used for learning and applying the acquired training data to the deep learning model.
통신부(27)는 AI 프로세서(21)에 의한 AI 프로세싱 결과를 외부 전자 기기로 전송할 수 있다.The communication unit 27 can transmit the results of AI processing by the AI processor 21 to an external electronic device.
여기서 외부 전자 기기는 다른 단말, 서버를 포함할 수 있다.Here, external electronic devices may include other terminals and servers.
한편, 도 2에 도시된 AI 장치(20)는 AI 프로세서(21)와 메모리(25), 통신부(27) 등으로 기능적으로 구분하여 설명하였지만, 전술한 구성요소들이 하나의 모듈로 통합되어 AI 모듈 또는 인공지능(AI) 모델로 호칭될 수도 있다.Meanwhile, the AI device 20 shown in FIG. 2 has been described as functionally divided into an AI processor 21, a memory 25, a communication unit 27, etc., but the above-described components are integrated into one module to form an AI module. Alternatively, it may be referred to as an artificial intelligence (AI) model.
도 3은 본 명세서가 적용될 수 있는 기존의 LMS(Learning Management System) 시스템의 예시이다.Figure 3 is an example of an existing Learning Management System (LMS) system to which this specification can be applied.
도 3을 참조하면, 기존의 LMS 시스템은 사용자로부터 아이디 및 암호를 입력받아 로그인을 수행(S3010)하고, 사용자로부터 수강 강의를 선택받으며(S3020), 사용자로부터 강의 시작 버튼을 입력받아 학습을 진행한다(S3040).Referring to Figure 3, the existing LMS system receives an ID and password from the user to log in (S3010), selects a course from the user (S3020), and proceeds with learning by receiving a lecture start button from the user. (S3040).
이때 발생할 수 있는 문제는, 1) 사용자 로그인에서 아이디와 암호를 타인에게 공유하여 대리 수강이 가능하며, 2) 사용자가 직접 학습하지 않아도, 강의 시작 버튼만 클릭해 놓으면 자동으로 학습이 진행되고, 특정 시간이 지나면 수강을 다 완료한 것으로 LMS시스템에 반영된다는 것이다.Problems that may arise at this time are: 1) It is possible to take the course on your behalf by sharing your ID and password with others during user login, and 2) Even if the user does not study directly, the learning progresses automatically by clicking the start lecture button, and the specific course is taught automatically. Over time, the course will be reflected in the LMS system as completed.
본 명세서에서 기존의 LMS 시스템 동영상 강의의 체계를 유지하면서 전술한 문제를 해결하기 위한 학습 진도 관리 방법은 실제 수강생 인지 여부를 인공지능 모델의 얼굴인식 알고리즘을 통해 인증하여 부정 수강을 방지하며, 인증된 수강생이 수강 화면을 집중해서 바라보고 있을 때에만 수업이 진행되도록 하여 실제 수강을 이수했는지를 판단하고, 집중하지 않거나 자리를 이탈할 경우 수업 진도 중지와 화면에 알림/경고 문구 및 소리를 출력하여 집중을 유도할 수 있다.In this specification, the learning progress management method to solve the above-mentioned problem while maintaining the system of existing LMS system video lectures prevents unauthorized course attendance by authenticating whether the student is an actual student through the facial recognition algorithm of the artificial intelligence model, and The class progresses only when the student is looking at the course screen with concentration to determine whether the course has actually been completed. If the student is not concentrating or leaves the class, the class is stopped and notifications/warning phrases and sounds are displayed on the screen to help students concentrate. can be induced.
또한, 수강과목별 학습자별 집중시간에 대한 통계를 작성 및 활용하여, 강사 및 제작자에게는 더 좋은 교육교재(강의영상)를 만들수 있도록 하며, 수강생에게는 수강패턴을 이용하여 집중력이 떨어지는 시간 대에 좀 더 집중할 수 있도록 안내하도록 활용할 수 있다.In addition, by creating and utilizing statistics on the concentration time of each learner for each course, instructors and producers can create better educational materials (lecture videos), and students can use the course pattern to focus more during times when concentration is low. It can be used to guide you to focus.
도 4는 본 명세서가 적용될 수 있는 개선된 LMS 시스템의 예시이다. Figure 4 is an example of an improved LMS system to which this specification can be applied.
도 4를 참조하면, 단말은 개선된 LMS 시스템(400)을 포함할 수 있다. 개선된 LMS 시스템(400)은 기존의 LMS 시스템 구성(410), 본 명세서에서 추가되는 LMS 추가 시스템 구성(420) 및 데이터베이스(430)을 포함할 수 있다.Referring to FIG. 4, the terminal may include an improved LMS system 400. The improved LMS system 400 may include an existing LMS system configuration 410, an additional LMS system configuration 420 added herein, and a database 430.
예를 들어, 기존의 LMS 시스템 구성(410)은 1) 수강생의 강의 수강, 과제 제출, 시험 응시, 토론 참여 등을 지원하기 위한 수강생 지원 모듈, 2) 교수(강사)의 강의관리, 수강생 관리, 과제, 시험 및 토론 평가 등을 지원하기 위한 교수 지원 모듈, 3) 강의 전체의 교과 과정 관리, 교육 차수 관리, 교수 및 수강생 관리 등을 지원하기 위한 관리자 모듈, 및 4) 학습, 교육만족도, 시험 및 과제 등의 통계를 지원하기 위한 학습통계 모듈을 포함할 수 있다.For example, the existing LMS system configuration 410 includes 1) a student support module to support students taking lectures, submitting assignments, taking tests, participating in discussions, etc., 2) lecture management by professors (instructors), student management, 3) an administrator module to support overall course curriculum management, training session management, professor and student management, etc., and 4) learning, education satisfaction, test and student management, etc. It may include a learning statistics module to support statistics such as assignments.
LMS 추가 시스템 구성(420)은 인공지능 모델을 이용하여, 사용자의 안면을 인식하기 위한 안면인식 모듈, 사용자 얼굴의 모션을 인식하기 위한 얼굴모션 인식 모듈, 사용자의 졸음을 파악하기 위한 졸음 파악 모듈 및 사용자의 학습 집중구간을 관리하기 위한 학습 집중구간 관리 모듈을 포함할 수 있다.The LMS additional system configuration 420 uses an artificial intelligence model to include a facial recognition module to recognize the user's face, a facial motion recognition module to recognize the motion of the user's face, a drowsiness detection module to determine the user's drowsiness, and It may include a learning concentration section management module to manage the user's learning concentration section.
데이터베이스(430)는 LMS 추가 시스템 구성(420)과 연계되어 사용자의 얼굴이미지 패턴, 학습 집중 구간 및 집중 이력 등을 관리할 수 있다.The database 430 can be linked to the LMS additional system configuration 420 to manage the user's facial image pattern, learning concentration section, and concentration history.
또한, 단말을 통해 원격으로 수행되는 LMS시스템의 학습진행에서 통신 상의 로드를 줄이기 위해, 사용자는 학습자 얼굴인증 및 학습 집중도 관리를 위한 일부 기능을 사용자의 학습기기(사용자 단말)로 다운로드하고 학습기기 자체적으로 작동할 수 있는 클라이언트 모듈을 추가로 구성하여 운영할 수도 있다. 이를 위해, 사용자의 학습기기는 LMS 추가 시스템 구성(420) 및 이와 연계된 임시 데이터를 포함할 수 있다.In addition, in order to reduce the communication load in the learning process of the LMS system performed remotely through the terminal, the user downloads some functions for learner face authentication and learning concentration management to the user's learning device (user terminal) and configures the learning device itself. It can also be operated by configuring additional client modules that can operate as . To this end, the user's learning device may include an LMS additional system configuration 420 and temporary data associated therewith.
도 5는 본 명세서가 적용될 수 있는 일 실시예이다.Figure 5 is an embodiment to which this specification can be applied.
도 5를 참조하면, 제2 단말은 개선된 LMS 시스템(400)을 포함하고, 제1 단말은 사용자 단말로서, 전술한 사용자의 학습기기를 포함한다.Referring to FIG. 5, the second terminal includes an improved LMS system 400, and the first terminal is a user terminal and includes the user's learning device described above.
제1 단말은 사용자로부터 로그인을 위한 사용자 ID 및 비밀번호를 입력받는다(S5010). 제1 단말은 사용자 ID가 기존에 로그인을 위해 사용되었던 경우, 기존에 사용자 얼굴 인증을 위해 사용된 얼굴 패턴 임시 데이터를 통해, 사용자 얼굴 인증을 할 수 있다. 이를 위해, 제1 단말은 로그인 히스토리로 얼굴 패턴 임시 데이터를 저장할 수 있다.The first terminal receives a user ID and password for logging in from the user (S5010). If the user ID has previously been used for login, the first terminal can perform user face authentication through facial pattern temporary data previously used for user face authentication. For this purpose, the first terminal may store temporary facial pattern data as login history.
보다 자세하게, 제1 단말(PC, 노트북, 패드, 핸드폰 등)은 사용자 인증 및 로그인 절차가 성공되면, 해당 얼굴 패턴 데이터를 다운로드하고, 임시 데이터로 저장할 수 있다. 이는 수강 진행 중 학습자의 재인증 및 다음 번 로그인에도 활용될 수 있도록 한다. 이는 수강 진행 중 얼굴인증을 위하여 별도의 인터넷 트래픽 발생을 통한 통신부담을 줄여주고 사용자의 원할한 학습에 방행요소로 작용하지 않도록 하기 위함이다.More specifically, when the user authentication and login procedures are successful, the first terminal (PC, laptop, pad, mobile phone, etc.) can download the corresponding facial pattern data and save it as temporary data. This can be used to re-authenticate the learner and log in the next time while taking the course. This is to reduce the communication burden caused by the generation of separate Internet traffic for face authentication while taking a course and to prevent it from acting as an impediment to the user's smooth learning.
제1 단말에 사용자 ID와 관련된 로그인 히스토리가 없는 경우, 제1 단말은 제2 단말에 사용자 인증을 위한 얼굴 패턴 데이터를 요청한다(S5110).If the first terminal does not have a login history related to the user ID, the first terminal requests facial pattern data for user authentication from the second terminal (S5110).
제2 단말은 얼굴 패턴 데이터의 요청에 대한 응답으로서, 사용자 ID에 매칭되는 얼굴 패턴 데이터를 제1 단말로 전달한다(S5120). 예를 들어, 제2 단말은 기등록된 사용자의 얼굴 안면 인식용 데이터베이스를 이용하여 사용자 ID에 매칭되는 얼굴 패턴 데이터를 전달할 수 있다. 얼굴 안면 인식용 데이터베이스는 암호화되어 관리될 수 있다.In response to the request for face pattern data, the second terminal transmits face pattern data matching the user ID to the first terminal (S5120). For example, the second terminal may transmit facial pattern data matching the user ID using a facial recognition database of a pre-registered user. The database for facial recognition may be encrypted and managed.
제1 단말은 수신한 얼굴 패턴 데이터에 근거하여, 카메라를 이용하여 사용자 얼굴을 제1 인증한다(S5020). The first terminal first authenticates the user's face using a camera based on the received facial pattern data (S5020).
제1 인증이 완료된 경우, 사용자는 수강하고자 하는 강의를 선택한다(S5030).When the first authentication is completed, the user selects the course he or she wishes to take (S5030).
제1 단말은 사용자가 수강하고자 하는 강의를 요청하는 강의 요청 메시지를 제2 단말로 전달한다(S5130).The first terminal transmits a lecture request message requesting a lecture that the user wants to take to the second terminal (S5130).
제2 단말은 강의 요청 메시지에 대한 응답으로서, 제1 단말로 강의 응답 메시지를 전달한다(S5140). 예를 들어, 강의 응답 메시지는 사용자가 수강하고자 하는 강의에 대한 학습 컨텐츠가 포함될 수 있다.The second terminal transmits a lecture response message to the first terminal as a response to the lecture request message (S5140). For example, the lecture response message may include learning content about the lecture that the user wants to take.
본 명세서에서의 학습 컨텐츠는 영상, 이미지와 같은 강의 전달을 위한 학습자료 외에도 사용자가 별도 집중하여야 할 구간 및 대상을 나타내는 학습 집중구간 데이터가 포함될 수 있다. Learning content in this specification may include learning focus section data indicating sections and targets on which users should separately focus, in addition to learning materials for delivering lectures such as videos and images.
도 6은 본 명세서가 적용될 수 있는 학습 집중구간의 예시이다.Figure 6 is an example of a learning intensive section to which this specification can be applied.
도 6(a)를 참조하면, 학습 컨텐츠에 포함된 1차시부터 5차시까지의 구간이 학습 집중구간으로 설정될 수 있다.Referring to FIG. 6(a), the section from the 1st time to the 5th time included in the learning content can be set as the learning concentration section.
표 1은 학습 집중구간 데이터의 예시이다.Table 1 is an example of learning intensive section data.
표1을 참조하면, 학습 집중구간 데이터는 사용자가 집중하여야할 시간(time) 및 해당 자막(text)을 포함할 수 있다. 이러한 학습 집중구간 데이터는 자막파일을 제작하는 것과 유사하게 별도의 text파일로 생성될 수 있다.사용자가 집중하여야 할 시간은 동영상 시작시점을 0:00 (0분 00초)로 하여 설정될 수 있고, 이 시간 동안 해당 자막이 출력될 수 있다. 제1 단말은 사용자가 집중하여야 할 시간을 고려하여, 사용자의 수강 상태를 모니터링 할 수 있다.Referring to Table 1, the learning concentration section data may include the time the user should focus on and the corresponding subtitles (text). This learning focus section data can be created as a separate text file, similar to producing a subtitle file. The time the user should focus on can be set by setting the video start point to 0:00 (0 minutes 00 seconds). , the corresponding subtitles can be output during this time. The first terminal can monitor the user's course attendance status by considering the time the user must concentrate.
도 6(b)를 참조하면, 표1의 학습 집중구간 데이터에 따라, 자막이 영상과 함께 출력되는 학습 컨텐츠를 예시한다. Referring to FIG. 6(b), an example of learning content in which subtitles are output together with the video according to the learning concentration section data in Table 1 is shown.
표 2는 학습 집중구간 데이터의 또 다른 예시이다.Table 2 is another example of learning focus section data.
표 2를 참조하면, 학습 집중구간 데이터는 사용자가 집중하여야 할 구간에서 집중하여야할 대상을 포하할 수 있다. 집중 대상은 텍스트로 작성되어 #과 같은 식별자를 통해 분류될 수 있다. 이를 통해, 집중 대상은 컴퓨터에 대한 지식이 부족한 일반 강의 제작자도 쉽게 설정할 수 있고, 제2 단말은 사용자의 수강 히스토리에 따라 이를 용이하게 업데이트 할 수 있다.제1 단말은 강의 응답 메시지에 근거하여, 강의를 진행하고 사용자의 수강 상태를 모니터링한다(S5040). 예를 들어, 사용자가 강의 시작 버튼을 입력하는 경우, 제1 단말은 강의 응답 메시지에 포함된 강의 영상을 사용자에게 표시할 수 있다. 제1 단말은 인공지능 모델을 통해, 카메라를 이용하여 사용자의 수강 상태를 모니터링할 수 있다.Referring to Table 2, the learning focus section data may include the object on which the user should focus in the section on which the user should focus. Focus objects can be written as text and classified through identifiers such as #. Through this, the focus target can be easily set by general lecture creators who lack computer knowledge, and the second terminal can easily update it according to the user's lecture history. The first terminal is based on the lecture response message, The lecture is conducted and the user's course attendance status is monitored (S5040). For example, when the user inputs the lecture start button, the first terminal may display the lecture video included in the lecture response message to the user. The first terminal can monitor the user's course attendance status using a camera through an artificial intelligence model.
제1 단말은 모니터링 결과에 근거하여, 강의를 정지한다(S5050).The first terminal stops the lecture based on the monitoring results (S5050).
이러한 모니터링은 1) 일반 모니터링 모드 및 2) 학습 집중구간 모니터링 모드를 포함할 수 있다.This monitoring may include 1) general monitoring mode and 2) learning intensive section monitoring mode.
1) 일반 모니터링 모드One) Normal monitoring mode
제1 단말은 얼굴 모션인식 모듈을 이용하여, 사용자의 얼굴 움직임을 인식하고, 고개를 들어서 화면을 응시하고 있는지, 고개를 떨구고 있는지 등을 인지할 수 있다. 또한, 사용자가 카메라의 앵글 범위를 벗어날 경우, 사용자가 자리를 이탈하였다고 판단하고, 강의 진행을 정지하며 특정 음성("수업을 재개해 주세요" 등)을 출력할 수 있다.The first terminal can use a facial motion recognition module to recognize the user's facial movements and whether the user is looking at the screen with his or her head up or lowering his or her head. Additionally, if the user leaves the camera's angle range, it is determined that the user has left the seat, the lecture progress is stopped, and a specific voice (such as "Please resume class") can be output.
또한, 제1 단말은 졸음 파악 모듈을 이용하여, 얼굴 패턴 데이터에 포함된 눈과 눈꺼풀을 인식하고, 사용자가 화면을 바라보고 있을 때 눈을 감고 있는지를 인지할 수 있다. 제1 단말이 사용자의 졸음 현상을 인식하는 경우, 강의 진행을 정지하고 특정 음성("수업에 집중해 주세요" 등)을 출력할 수 있다.Additionally, the first terminal can use the drowsiness detection module to recognize the eyes and eyelids included in the facial pattern data and whether the user's eyes are closed when looking at the screen. If the first terminal recognizes that the user is drowsy, it can stop the lecture and output a specific voice (“Please pay attention to class,” etc.).
2) 학습 집중구간 모니터링2) Monitoring the learning concentration section
학습 컨텐츠에 학습 집중구간 데이터가 포함된 경우, 제1 단말은 학습 집중구간 관리 모듈을 이용하여, 화면을 집중해서 바라봐야 하는 시간 및 식별자를 통해 집중 대상(예, 도표 등의 학습 부자료를 이용한 설명구간, 칠판에 판서하면서 설명하는 구간 등)을 판단할 수 있다. 예를 들어, 인공지능 모델은 집중 시간에 해당하는 학습 컨텐츠에서 집중 대상을 판별할 수 있다. 이를 위해, 인공지능 모델은 자연어 처리 및 이미지 분석 등을 위한 학습이 완료된 모델일 수 있다. 제1 단말은 집중 시간에 화면을 쳐다보지 않거나, 눈을 감고 있는 경우, 뿐만이 아니라 집중 대상을 동체로 바라보고 있지 않다고 판단되는 경우, 강의 진행을 정지하고 특정 음성("화면에 있는 표를 보세요" 등)을 출력할 수 있다. If the learning content includes learning focus section data, the first terminal uses the learning focus section management module to determine the focus target (e.g., using learning auxiliary materials such as diagrams) through the time and identifier to focus on the screen. Explanation sections, sections explained by writing on the blackboard, etc.) can be judged. For example, an artificial intelligence model can determine the focus object from learning content corresponding to the concentration time. For this purpose, the artificial intelligence model may be a model that has completed learning for natural language processing and image analysis. If the first terminal is not looking at the screen or closing its eyes during the concentration period, or if it determines that the object of concentration is not being looked at, the first terminal stops the lecture and makes a specific voice (“Look at the table on the screen”) etc.) can be output.
제1 단말은 사용자의 얼굴을 제2 인증하고, 사용자의 동체를 인식한다(S5060). 예를 들어, 제1 단말은 사용자의 얼굴 전면이 카메라를 기준으로 일정 범위 이상 벗어난 경우, 강의 진행을 정지할 수 있다. 이후, 제1 단말은 사용자의 얼굴 전면이 카메라를 기준으로 일정 범위 안으로 복귀했다고 판단하는 경우, 당해 사용자가 원래 강의를 수강하던 사용자와 동일인인지 여부를 재인증할 수 있다. 동일 사용자로 판단되는 경우, 제1 단말은 당해 사용자의 동체 인식을 통해 강의 수강여부를 판단한다. 사용자의 동체가 학습자료를 지향한다고 판단되는 경우, 제1 단말은 강의를 재개한다.The first terminal performs second authentication of the user's face and recognizes the user's moving body (S5060). For example, the first terminal may stop the lecture if the front of the user's face deviates from the camera by more than a certain range. Thereafter, when the first terminal determines that the front of the user's face has returned to within a certain range based on the camera, it can re-authenticate whether the user is the same user who originally took the lecture. If it is determined that the user is the same, the first terminal determines whether or not the user is attending the lecture through recognition of the user's body. If it is determined that the user's body is oriented toward the learning material, the first terminal resumes the lecture.
제1 단말은 사용자의 수강 히스토리를 생성한다(S5070). 예를 들어, 수강 히스토리는 사용자의 수강 집중도를 판단하기 위해 사용될 수 있으며, 사용자의 전반적인 강의 수강 진행에 대한 로그 및 모니터링 결과를 포함할 수 있다.The first terminal creates the user's course attendance history (S5070). For example, the course attendance history may be used to determine the user's course concentration and may include logs and monitoring results of the user's overall course attendance progress.
제1 단말은 수강 히스토리를 제2 단말로 전달한다(S5150).The first terminal transmits the course attendance history to the second terminal (S5150).
제2 단말은 수강 히스토리를 저장하고, 학습 집중구간 데이터를 업데이트한다(S5160). 예를 들어, 제2 단말은 수강 히스토리를 이용하여, 사용자별 집중도 통계 리포트를 생성할 수 있다. 제2 단말은 수강과목 별/ 사용자 별 집중시간에 대한 통계를 작성 및 활용하여, 강사 및 강의 제작자에게는 더 좋은 교육교재(강의영상)를 만들수 있도록 하며, 사용자에게는 수강패턴을 이용하여 집중력이 떨어지는 시간대에 좀 더 집중할 수 있도록 안내를 할 수 있다. The second terminal stores the course attendance history and updates the learning intensive section data (S5160). For example, the second terminal may generate a concentration statistics report for each user using the course attendance history. The second terminal creates and utilizes statistics on concentration time for each subject/user, allowing instructors and lecture producers to create better educational materials (lecture videos), and provides users with a time zone when concentration is low by using lecture patterns. We can provide guidance to help you focus more.
표 3은 제2 단말에서 수강 히스토리를 통해 생성되는 집중도 통계 리포트의 예시이다.Table 3 is an example of a concentration statistics report generated through course attendance history in the second terminal.
- 컬럼(culomn): 학생명, 강좌명, 과목(국어, 영어, 논술, 수학 등), 전체 평균 집중시간, 해당학생 집중시간, 집중도 떨어지는 구간(시간) 등- Column: Student name, course name, subject (Korean, English, essay writing, mathematics, etc.), overall average concentration time, concentration time of the student, section (time) of low concentration, etc.
- 컬럼: 학생명, 과목(국어, 영어, 논술, 수학 등), 평균 집중 시간, 해당학생 집중시간- Columns: Student name, subject (Korean, English, essay writing, math, etc.), average concentration time, concentration time of the student
- 컬럼: 학생명, 강사Type1(연령대), 강사Type2(성별), 평균 집중시간, 해당학생 집중시간- Columns: Student name, Instructor Type 1 (age group), Instructor Type 2 (gender), average concentration time, concentration time of the student
- 컬럼: 강좌명, 과목, 수강생 유형, 수강생 수, 평균 집중 시간, 해당 강좌 집중 시간 등- Columns: Course name, subject, student type, number of students, average concentration time, concentration time for the course, etc.
- 컬럼: 과목, 선생님 명칭, 선생님 성별, 선생님 연령대, 수강생 수, 집중도 시간 등- Columns: Subject, teacher name, teacher gender, teacher age group, number of students, concentration time, etc.
또한, 제2 단말은 집중도 통계 리포트에 근거하여, 학습 집중구간 데이터를 갱신할 수 있다. 예를 들어, 사용자의 평균 집중 시간 보다 떨어지는 강의, 과목, 집중 대상에 대해서 집중 시간을 늘리도록 학습 집중구간 데이터를 갱신할 수 있다. 또한, 반복하여 일정 수 이상 수강된 강의에 대해서는 집중시간을 줄이거나 삭제하여, 사용자가 해당 강의를 빠르게 수강하도록 안내할 수 있다.이를 통해, 본 명세서는 다음과 같은 효과를 발휘할 수 있다.Additionally, the second terminal may update the learning concentration section data based on the concentration statistics report. For example, the learning concentration section data can be updated to increase the concentration time for lectures, subjects, or objects of concentration that are lower than the user's average concentration time. In addition, for lectures that have been taken repeatedly a certain number of times, the concentration time can be reduced or deleted, thereby guiding the user to quickly take the lecture. Through this, the present specification can achieve the following effects.
1) 대리수강 방지 효과1) Effect of preventing proxy classes
기존의 LMS는 ID와 암호로만 로그인 인증절차가 진행되며, 한번 로그인하면 추가적인 인증없이 동영상 강의가 진행되는 구조로 되어 있으나, 본 명세서에서 제시된 개선된 LMS는 최초 로그인시 및 학습 중단이후 재개시에도 얼굴 안면인식을 통한 본인 인증을 진행하게 된다. In the existing LMS, the login authentication process is carried out only with an ID and password, and once logged in, video lectures are played without additional authentication. However, the improved LMS presented in this specification provides a face-to-face connection even when logging in for the first time and when resuming learning after interruption. Identity authentication is performed through facial recognition.
2) 정확한 진도를 관리2) Manage accurate progress
기존의 LMS는 로그인후, 특정 강좌에 대한 강의 시작버튼만 누르면 자연적으로 시간이 흐르면서 강의 수강 진도가 이루어진다. 즉, 수강생이 수업을 듣지 않거나 자리를 이탈하여도 수업진도가 진행된다. 본 명세서에서는 얼굴 모션 인식을 통하여, 사용자가 고개를 떨구고 있는지, 자리를 이탈하여는지를 파악하고, 눈꺼풀 깜빡임 인식을 통하여 화면을 응시하고 있는 동안에는 눈을 감고 있는지를 파악하며, 더불어 학습자료 제작시 화면 응시구간(집중시간) 관리를 통하여 화면을 집중하여야만 수업이 진행되는 구간도 관리할 수 있다.In the existing LMS, after logging in, you simply press the start button for a specific course, and course progress occurs naturally over time. In other words, class progress continues even if students do not attend class or leave their seats. In this specification, through facial motion recognition, we determine whether the user is lowering their head or leaving their seat, and through eyelid blink recognition, we determine whether the user is closing their eyes while staring at the screen. In addition, when creating learning materials, the screen is identified. By managing the gaze section (concentration time), you can manage the section where the class is held only when you focus on the screen.
이러한 학습진도관리 기능들과 얼굴인식기능을 합쳐서 사용자 본인이 학습을 제대로 할 수 있도록 도울 수 있다.Combining these learning progress management functions with the facial recognition function can help users learn properly.
3) 집중도 통계보고서3) Concentration statistical report
본 명세서에서 제2 단말은 학생별 집중도 시간, 구간을 다양하게 제공함으로써 어느 과목, 어떤 강사유형, 어느 시간대 집중도가 타 학생들 대비하여 차이점이 발생하는지를 보고서로 제공한다. 이는 다양한 상담자료의 기초 자료로 활용될 수 있다.In this specification, the second terminal provides a variety of concentration times and sections for each student, thereby providing a report showing which subjects, which instructor types, and which time periods show differences in concentration compared to other students. This can be used as basic data for various counseling materials.
또한, 강사별 본인 강좌에 대한 학생들의 다양한 집중도 분석 보고서가 생성될 수 있다. 이를 통하여 강사는 동일 강좌에 대하여 타 강사-수업진행 패턴과 비교하여 어떤 구간에서 집중도가 차이나는지를 확인할 수 있으며, 보다 나은 교재를 만드는데 활용할 수 있다.In addition, an analysis report of students' various concentration levels for each instructor's course can be generated. Through this, the instructor can check in which section the concentration differs compared to other instructor-class progress patterns for the same course, and can use it to create better teaching materials.
전술한 본 명세서는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀 질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-mentioned specification can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes those implemented in the form of carrier waves (e.g., transmission via the Internet). Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.
또한, 이상에서 서비스 및 실시 예들을 중심으로 설명하였으나 이는 단지 예시일 뿐 본 명세서를 한정하는 것이 아니며, 본 명세서가 속하는 분야의 통상의 지식을 가진 자라면 본 서비스 및 실시 예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시 예들에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부한 청구 범위에서 규정하는 본 명세서의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the description has been made above with a focus on services and embodiments, this is only an example and does not limit the present specification, and those skilled in the art will understand that it does not deviate from the essential characteristics of the services and embodiments. It can be seen that various modifications and applications not exemplified above are possible. For example, each component specifically shown in the embodiments can be modified and implemented. And the differences related to these modifications and applications should be construed as being included in the scope of the present specification as defined in the attached claims.
Claims (8)
상기 사용자로부터 로그인을 위한 사용자 ID 및 비밀번호를 입력받는 단계;
제2 단말로 상기 사용자 ID에 매칭되는 얼굴 패턴 데이터를 요청하고, 상기 얼굴 패턴 데이터를 수신하여 상기 사용자를 제1 인증하는 단계;
상기 사용자로부터 강의를 선택받고, 상기 제2 단말로 상기 강의를 요청하는 강의 요청 메시지를 전달하는 단계; 및
상기 강의 요청 메시지의 응답으로서, 강의 응답 메시지를 수신하는 단계;
를 포함하며,
상기 강의 응답 메시지는 1) 학습자료 및 2) 상기 사용자가 상기 강의에서 집중하여야할 구간 및 대상을 나타내는 학습 집중구간 데이터가 포함된, 관리방법.
In a method for a first terminal to manage a user's learning progress using an artificial intelligence model,
Receiving a user ID and password for logging in from the user;
Requesting face pattern data matching the user ID from a second terminal and first authenticating the user by receiving the face pattern data;
Receiving a lecture selected from the user and transmitting a lecture request message requesting the lecture to the second terminal; and
In response to the lecture request message, receiving a lecture response message;
Includes,
The lecture response message includes 1) learning materials and 2) learning concentration section data indicating the section and object on which the user should focus in the lecture.
상기 학습 집중구간 데이터는
텍스트(text) 파일 형태인, 관리방법.
According to paragraph 1,
The learning concentration section data is
Management method in the form of a text file.
상기 강의 응답 메시지에 근거하여, 상기 강의를 진행하고 상기 사용자의 수강 상태를 모니터링하는 단계;
를 더 포함하며,
상기 모니터링은
1) 일반 모니터링 모드, 및 2) 상기 학습 집중구간 데이터에 근거한 학습 집중 구간 모니터링 모드를 포함하는, 관리 방법.
According to paragraph 2,
Based on the lecture response message, proceeding with the lecture and monitoring the user's lecture attendance status;
It further includes,
The monitoring is
A management method comprising 1) a general monitoring mode, and 2) a learning intensive section monitoring mode based on the learning intensive section data.
상기 모니터링의 결과에 근거하여, 상기 강의의 진행을 정지하는 단계; 및
상기 사용자를 제2 인증하고, 상기 사용자가 상기 강의를 시청하는 지 여부를 판단하기 위해 상기 사용자의 동체를 인식하는 단계;
를 더 포함하는, 관리 방법.
According to paragraph 3,
stopping progress of the lecture based on the results of the monitoring; and
secondly authenticating the user and recognizing the user's moving body to determine whether the user is watching the lecture;
A management method further comprising:
상기 사용자의 상기 강의의 수강 히스토리(history)를 생성하는 단계; 및
제2 단말로 상기 수강 히스토리를 전달하는 단계;
를 더 포함하는, 관리 방법.
According to paragraph 4,
generating a history of attendance of the lecture of the user; and
transmitting the course attendance history to a second terminal;
A management method further comprising:
상기 학습 집중구간 데이터는
상기 수강 히스토리에 근거하여, 상기 제2 단말을 통해 업데이트(update)되는, 관리 방법.
According to clause 5,
The learning concentration section data is
A management method that is updated through the second terminal based on the course attendance history.
상기 수강 히스토리는
상기 사용자의 집중도 통계를 계산하기 위해 사용되는, 관리 방법.
According to clause 5,
The course attendance history is
A management method used to calculate the user's concentration statistics.
메모리;
통신모듈; 및
상기 메모리 및 상기 통신모듈을 기능적으로 제어하는 프로세서; 를 포함하고,
상기 프로세서는
상기 사용자로부터 로그인을 위한 사용자 ID 및 비밀번호를 입력받고,
제2 단말로 상기 사용자 ID에 매칭되는 얼굴 패턴 데이터를 요청하고, 상기 얼굴 패턴 데이터를 수신하여 상기 사용자를 제1 인증하며,
상기 사용자로부터 강의를 선택받고, 상기 제2 단말로 상기 강의를 요청하는 강의 요청 메시지를 전달하고, 상기 강의 요청 메시지의 응답으로서, 강의 응답 메시지를 수신하며,
상기 강의 응답 메시지는 1) 학습자료 및 2) 상기 사용자가 상기 강의에서 집중하여야할 구간 및 대상을 나타내는 학습 집중구간 데이터가 포함된, 제1 단말.
In the first terminal that manages the user's learning progress using an artificial intelligence model,
Memory;
communication module; and
a processor that functionally controls the memory and the communication module; Including,
The processor is
Enter the user ID and password for logging in from the user,
Request facial pattern data matching the user ID from a second terminal, receive the facial pattern data, and first authenticate the user,
Receiving a lecture from the user, transmitting a lecture request message requesting the lecture to the second terminal, and receiving a lecture response message as a response to the lecture request message,
The lecture response message includes 1) learning materials and 2) learning concentration section data indicating the section and object on which the user should focus in the lecture, a first terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220049590A KR20230150072A (en) | 2022-04-21 | 2022-04-21 | A method for managing user learning progress using artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220049590A KR20230150072A (en) | 2022-04-21 | 2022-04-21 | A method for managing user learning progress using artificial intelligence |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230150072A true KR20230150072A (en) | 2023-10-30 |
Family
ID=88558139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220049590A KR20230150072A (en) | 2022-04-21 | 2022-04-21 | A method for managing user learning progress using artificial intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230150072A (en) |
-
2022
- 2022-04-21 KR KR1020220049590A patent/KR20230150072A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11983723B2 (en) | Tracking digital credential usage in a sensor-monitored environment | |
Labayen et al. | Online student authentication and proctoring system based on multimodal biometrics technology | |
KR100466709B1 (en) | learning system | |
Okada et al. | e‐Authentication for online assessment: A mixed‐method study | |
Mershad et al. | A learning management system enhanced with internet of things applications | |
CN106662746B (en) | Secure examination device, system and method | |
KR102352652B1 (en) | Computing technologies for diagnosis and therapy of language-related disorders | |
Ashbourn | Practical biometrics: From aspiration to implementation | |
US20140227673A1 (en) | Method and system for implementing a comprehensive, nation-wide, cloud-based education support platform | |
US20120042358A1 (en) | Proctoring System | |
Fayyoumi et al. | Novel solution based on face recognition to address identity theft and cheating in online examination systems | |
US20220270505A1 (en) | Interactive Avatar Training System | |
KR102534774B1 (en) | Interactive flat panel display that actively controls on/off according to progress information of digital teaching materials and on/off control method thereof | |
WO2014077566A1 (en) | Education system provided with learning effect confirmation function and method for controlling same | |
KR20190125597A (en) | the lecture system using the iris scanning type head mounted display | |
Baecher | Video in teacher learning: Through their own eyes | |
KR20150112193A (en) | Smart school system based on interactive educational solution and method thereof | |
US20160180170A1 (en) | Systems and methods for eye tracking-based exam proctoring | |
KR20230150072A (en) | A method for managing user learning progress using artificial intelligence | |
Labayen et al. | Smowl: a tool for continuous student validation based on face recognition for online learning | |
KR20090002136A (en) | Persionanlized realtime evaluating and learning system and operation method thereof | |
Abbas et al. | A Systematic Review of Deep Learning Based Online Exam Proctoring Systems for Abnormal Student Behaviour Detection | |
Subramanian et al. | Using Aadhaar for continuous test-taker presence verification in online exams | |
CN207833452U (en) | VR systems for VR education | |
Ahmad et al. | Towards a Low‐Cost Teacher Orchestration Using Ubiquitous Computing Devices for Detecting Student’s Engagement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |