KR20230169880A - Cathexis learning system and method using AI in an untact learning based on Web browser - Google Patents
Cathexis learning system and method using AI in an untact learning based on Web browser Download PDFInfo
- Publication number
- KR20230169880A KR20230169880A KR1020230165959A KR20230165959A KR20230169880A KR 20230169880 A KR20230169880 A KR 20230169880A KR 1020230165959 A KR1020230165959 A KR 1020230165959A KR 20230165959 A KR20230165959 A KR 20230165959A KR 20230169880 A KR20230169880 A KR 20230169880A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- learning
- facial
- user terminal
- test
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000001815 facial effect Effects 0.000 claims abstract description 212
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 44
- 238000005516 engineering process Methods 0.000 claims abstract description 40
- 210000005069 ears Anatomy 0.000 claims abstract description 34
- 238000012360 testing method Methods 0.000 claims description 189
- 238000004422 calculation algorithm Methods 0.000 claims description 24
- 230000006399 behavior Effects 0.000 claims description 21
- 101100460844 Mus musculus Nr2f6 gene Proteins 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 14
- 238000012790 confirmation Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 11
- 101100225058 Mus musculus Ear2 gene Proteins 0.000 claims description 10
- 101150003469 Nr2f6 gene Proteins 0.000 claims description 10
- 210000001747 pupil Anatomy 0.000 claims description 10
- 101150067204 EARS2 gene Proteins 0.000 claims description 7
- 230000004886 head movement Effects 0.000 claims description 5
- 238000012797 qualification Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000002265 prevention Effects 0.000 description 4
- 238000013515 script Methods 0.000 description 4
- 238000013145 classification model Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 102100031290 E3 UFM1-protein ligase 1 Human genes 0.000 description 1
- 101100155298 Homo sapiens UFL1 gene Proteins 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06037—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B3/00—Audible signalling systems; Audible personal calling systems
- G08B3/10—Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
- G10L15/075—Adaptation to the speaker supervised, i.e. under machine guidance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47202—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Multimedia (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Emergency Management (AREA)
- Ophthalmology & Optometry (AREA)
- Electrically Operated Instructional Devices (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Operations Research (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
Abstract
Description
본 발명은 비대면 학습(ubcloud)에서 인공지능을 사용한 주의집중 학습 시스템 및 방법에 관한 것으로, 보다 상세하게는 온라인 강의 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱된 학습 콘텐츠에 시선을 바로 보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 사용자 단말을 바라보는 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는, 웹 브라우저 기반의 비대면 학습(ubcloud)에서 인공지능을 사용한 주의집중 학습 시스템 및 방법에 관한 것이다.The present invention relates to an attention learning system and method using artificial intelligence in non-face-to-face learning (ubcloud). More specifically, in non-face-to-face learning of online lectures, the educational content viewer of the user terminal is a media player and a facial contour recognition module. Equipped with a face outline and 5 facial feature points of eyes 2/nose/ears 2 so that the user can look directly at the learning content focused on the front camera of the user terminal linked to the learning content server (ubcloud server) and focus attention. Through facial contour recognition, if the gaze looking at the user's terminal at a certain angle deviates, an alarm/warning message is generated to the user's terminal using sound and messaging technology, and in non-face-to-face learning, the web browser-based ubcloud artificial intelligence is used. This relates to an attention learning system and method using artificial intelligence in web browser-based non-face-to-face learning (ubcloud) that provides attention learning.
얼굴 인식(Face Recognition) 기술은 형상 기반 매칭 방법(appearance based matching method), 및 특징(feature) 기반의 얼굴 인식이 주로 사용된다. 얼굴 인식은 카메라의 촬영 각도, 조명의 방향, 자세(pose), 표정의 변화 및 시간에 따른 얼굴의 변화에 따라 다르게 인식된다.Face recognition technology mainly uses appearance-based matching method and feature-based face recognition. Face recognition is recognized differently depending on the camera's shooting angle, lighting direction, pose, changes in expression, and changes in the face over time.
특징(feature) 기반의 얼굴 인식은 디지털 카메라, IoT 디바이스의 카메라 또는 스마트폰의 카메라로 촬영된 영상 데이터를 Haar-like feature를 이용한 검출 방법과 MCT(Modified Census Transform) 영상을 이용한 검출 방법이 사용된다. 스마트폰의 카메라의 입력 영상에서 Haar-like feature로 학습된 얼굴 및 눈 검출기를 사용하여 얼굴의 윤곽선과 이마/눈/코/입 특징점을 검출하고, 원형의 눈동자를 검출하기 위해 관심 영역(ROI, Region of Interest)으로 설정된 눈 영역을 grayscale로 변환하며, 눈 영역에서 눈동자와 눈의 외곽선 영역이 추출되는 실험에 의한 통계적인 임계값(threshold)을 사용하여 눈 이미지의 histogram [x축 각 픽셀의 화소값, y축 해당 화소 값의 갯수]을 구하고 눈의 이미지를 이진화(binarization)한 후, 히스토그램 평활화(histogram equalization)를 통해 눈 영역의 사진의 전처리를 수행하며, 얼굴 영역에서 눈썹과 눈, 코, 입, 윤곽선의 얼굴 특징점을 갖는 얼굴데이터를 검출하고, 텍스처 특징(texture features)과 형상 특징(shape features)을 추출하여 얼굴 인식 DB에 저장된 얼굴 사진의 특징점들과 유사도를 비교하여 얼굴이 인식된다.Feature-based face recognition uses a detection method using Haar-like features and a detection method using MCT (Modified Census Transform) images from image data captured with a digital camera, IoT device camera, or smartphone camera. . Using a face and eye detector learned with Haar-like features from the input image of the smartphone camera, the facial outline and forehead/eyes/nose/mouth feature points are detected, and the region of interest (ROI) is used to detect circular pupils. The eye area set as (Region of Interest) is converted to grayscale, and the histogram of the eye image [the pixel of each pixel on the value, the number of corresponding pixel values on the y-axis], binarize the image of the eye, and perform preprocessing of the photo of the eye area through histogram equalization. In the face area, eyebrows, eyes, nose, The face is recognized by detecting face data with facial feature points of the mouth and outline, extracting texture features and shape features, and comparing the similarity with feature points of the face photo stored in the face recognition DB.
얼굴 영역의 눈썹과 눈, 코, 입, 턱의 특징 값은 Haar-like feature의 흰 영역에서 포함되는 픽셀들의 합에서 검은 영역에서 포함되는 픽셀의 합의 차로 표현된다. The feature values of the eyebrows, eyes, nose, mouth, and chin in the face area are expressed as the difference between the sum of pixels included in the white area of the Haar-like feature and the sum of the pixels included in the black area.
예를들면, 가로와 세로 표준 크기의 얼굴 영역 사진에서 검출된 눈 영역에서 오른쪽과 왼쪽 눈의 양쪽 끝점 까지의 거리, 허프 원 변환(hough circle transform) 알고리즘을 사용하여 추출된 눈동자(iris)의 크기 값이 특징 값으로 사용된다.For example, the distance from the eye area detected in a face area photo of standard width and height size to both endpoints of the right and left eyes, and the size of the pupil (iris) extracted using the Hough circle transform algorithm. The value is used as the feature value.
도 1a는 기존 얼굴 인식 장치의 구성도이다. Figure 1a is a configuration diagram of an existing face recognition device.
얼굴 인식 장치(100)는 영상 표시 장치, 영상 촬영 장치, 얼굴 인식 서버, 태블릿 PC, 랩톱(Laptop), 개인용 PC, 스마트폰, 개인 휴대용 정보 단말기(Personal Digital Assistant, PDA), 이동통신 단말기, 및 지능형 로봇(Intelligence Robot) 등 중 어느 하나일 수 있다.The face recognition device 100 is an image display device, an image capture device, a face recognition server, a tablet PC, a laptop, a personal PC, a smartphone, a personal digital assistant (PDA), a mobile communication terminal, and It may be one of intelligent robots, etc.
얼굴 인식 장치(100)는 카메라로부터 입력 영상을 획득하는 입력 영상 획득부(112); 상기 입력 영상에서 얼굴 영역을 검출하여 얼굴 포즈(Pose)를 정규화함으로써 정면 포즈 영상을 생성하고, 상기 카메라와 피사체 간의 거리에 따른 원근왜곡(Perspective Distortion)을 제거하기 위하여 상기 정면 포즈 영상의 원근감(Perspective)을 정규화하여 정규화 영상을 생성하는 정규화부(114); 상기 정규화 영상으로부터 상기 피사체의 얼굴을 표현하는 특징 벡터(feature vector)를 추출하는 특징 벡터 추출부(116); 및 기 학습된 분류모델에 상기 특징 벡터를 적용하여 상기 입력 영상에 포함된 상기 피사체의 얼굴을 인식하는 얼굴 인식부(118)를 포함한다.The face recognition device 100 includes an input image acquisition unit 112 that acquires an input image from a camera; A front pose image is generated by detecting the face area in the input image and normalizing the face pose, and the perspective of the front pose image is used to remove perspective distortion depending on the distance between the camera and the subject. ) a normalization unit 114 that normalizes and generates a normalized image; a feature vector extraction unit 116 that extracts a feature vector representing the face of the subject from the normalized image; and a face recognition unit 118 that recognizes the face of the subject included in the input image by applying the feature vector to a previously learned classification model.
입력 영상 획득부(112)는 카메라로부터 입력 영상을 획득한다. 카메라는 깊이 인식 카메라, 스테레오 카메라, 및 컬러 카메라일 수 있다(예를 들면, 키넥트(Kinect) 카메라 등). 또한, 입력 영상은 인식 대상이 되는 피사체의 얼굴이 포함된 영상으로서 2차원 정지 영상 및 동영상을 포함한다. 입력 영상은 컬러 영상, 깊이영상, 및 컬러-깊이(RGB-D) 영상을 포함할 수 있다.The input image acquisition unit 112 acquires an input image from a camera. The cameras may be depth perception cameras, stereo cameras, and color cameras (eg, Kinect cameras, etc.). Additionally, the input image is an image containing the face of a subject to be recognized and includes a two-dimensional still image and a moving image. Input images may include color images, depth images, and color-depth (RGB-D) images.
정규화부(114)는 입력 영상으로부터 얼굴 영역을 검출하고 얼굴 포즈(Pose) 및 원근감(Perspective)을 정규화하여 정규화 영상을 생성한다. 얼굴 포즈에 변화가 있는 경우, 그레이 스케일, 형상, 특징점의 위치 등이 달라지기 때문에 얼굴인식률이 저하된다. 또한, 카메라와 피사체 간의 거리가 달라지면 동일한 피사체라 하더라도 촬영된 위치마다 원근 왜곡(Perspective Distortion, 뒤틀림)이 다르게 발생하므로, 다른 피사체를 촬영한 것처럼 보이기도 한다. 따라서, 얼굴인식률을 향상시키기 위해 입력 영상의 얼굴 포즈 및 원근감을 정규화할 필요가 있다. The normalization unit 114 detects the face area from the input image and normalizes the face pose and perspective to generate a normalized image. If there is a change in the face pose, the gray scale, shape, location of feature points, etc. change, so the face recognition rate deteriorates. Additionally, if the distance between the camera and the subject changes, even if it is the same subject, different perspective distortions occur at each photographed location, making it appear as if a different subject was photographed. Therefore, it is necessary to normalize the facial pose and perspective of the input image to improve the face recognition rate.
정규화부(114)는, 다양한 포즈의 학습용 얼굴 영상을 제1 인공신경망의 입력층에 입력하고, 정면포즈의 학습용 얼굴 영상이 상기 제1 인공신경망의 출력층에서 출력되도록 상기 제1 인공신경망을 학습시키는 얼굴포즈 정규화 학습부; 및 상기 제1 인공신경망의 출력층에서 출력된 데이터를 제 2 인공신경망의 입력층에 입력하고, 원근왜곡이 없는 학습용 얼굴영상이 상기 제 2 인공신경망의 출력층에서 출력되도록 상기 제2 인공신경망을 학습시키는 원근감 정규화 학습부를 포함한다. The normalization unit 114 inputs facial images for learning in various poses to the input layer of the first artificial neural network, and trains the first artificial neural network so that facial images for learning in frontal poses are output from the output layer of the first artificial neural network. Face pose normalization learning unit; And inputting data output from the output layer of the first artificial neural network to the input layer of the second artificial neural network, and training the second artificial neural network so that a facial image for learning without perspective distortion is output from the output layer of the second artificial neural network. Includes a perspective normalization learning unit.
상기 정규화부는, 학습이 완료된 상기 제1 인공신경망과 상기 제2 인공신경망을 통합한 통합 인공신경망의 입력층에 다양한 원근 왜곡이 있는 다양한 포즈의 학습용 얼굴영상을 입력하고, 정면 포즈의 원근왜곡이 없는 학습용 얼굴영상이 상기통합 인공신경망의 출력층에서 출력되도록 상기 통합 인공신경망을 학습시킨다. The normalization unit inputs learning facial images of various poses with various perspective distortions to the input layer of an integrated artificial neural network that integrates the first artificial neural network and the second artificial neural network for which learning has been completed, and has no perspective distortion of the frontal pose. The integrated artificial neural network is trained so that facial images for learning are output from the output layer of the integrated artificial neural network.
특징 벡터 추출부(116)는 기계학습(Machine Learning)을 통해 결정되며, 정규화 영상으로부터 피사체의 얼굴을 표현하는 특징 벡터(feature vector)를 추출한다.The feature vector extraction unit 116 is determined through machine learning and extracts a feature vector representing the subject's face from the normalized image.
특징 벡터는 얼굴 인식에 사용되는 특징값들을 원소로 가지는 벡터이다. 특징 벡터를 추출하는데 사용되는 필터로써 Gabor 필터, Haar 필터, LBP(Local Binary Pattern) - DLBP(Discriminative LBP), ULBP(Uniform LBP), NLBP(Number LBP) 등을 포함 - 등이 있으나, 반드시 이에 한정되지 않으며 그 밖의 다른 필터가 사용될 수 있다.A feature vector is a vector whose elements include feature values used for face recognition. Filters used to extract feature vectors include Gabor filter, Haar filter, LBP (Local Binary Pattern) - including DLBP (Discriminative LBP), ULBP (Uniform LBP), NLBP (Number LBP) - etc., but are necessarily limited to these. does not work and other filters can be used.
얼굴 인식부(118)는 기 학습된 분류 모델에 특징벡터 추출부(116)에서 추출된 특징벡터를 적용하여 입력영상에 포함된 피사체의 얼굴을 인식한다. 기 학습된 분류 모델은 서포트 벡터 머신(Support Vector Machine, SVM), 선형판별분석(Linear Discriminant Analysis, LDA), 및 Softmax 등을 포함할 수 있으나, 반드시 이에 한정되지 않는다.The face recognition unit 118 recognizes the face of the subject included in the input image by applying the feature vector extracted by the feature vector extraction unit 116 to the previously learned classification model. Pre-trained classification models may include, but are not necessarily limited to, Support Vector Machine (SVM), Linear Discriminant Analysis (LDA), and Softmax.
가상 얼굴영상 생성부(124)는 정규화부(114), 특징벡터 추출부(116), 및 얼굴 인식부(118)가 학습하는데 사용되는 복수의 가상 얼굴 영상을 생성할 수 있다.The virtual face image generator 124 may generate a plurality of virtual face images that are used for learning by the normalizer 114, the feature vector extractor 116, and the face recognition unit 118.
복수의 가상 얼굴영상은 가상 얼굴영상 생성부(124)가 카메라로부터 획득된 하나 이상의 2차원 기준 영상을 이용하여 합성한 3차원 얼굴 모델을 변형시킴으로써생성되는 얼굴 영상을 의미한다.The plurality of virtual face images refers to face images generated by the virtual face image generator 124 transforming a 3D face model synthesized using one or more 2D reference images obtained from a camera.
이와 관련된 선행기술1로써, 특허 등록번호 10-2103521에서는 “인공지능 심층학습 기반의 영상물 인식 시스템 및 방법“이 등록되어 있다. As prior art 1 related to this, “artificial intelligence deep learning-based video recognition system and method” is registered in patent registration number 10-2103521.
도 1b는 종래의 인공지능 심층학습 기반의 영상물 인식 시스템의 구성도이다. 인공지능의 심층 학습(Deep Learning)으로 다양한 이미지를 사전 학습하고, 상기 사전 학습 결과를 반영하여 유통되는 영상물에 대해 프레임 단위로 이미지를 분석하고, 경우에 따라 영상물의 음성 정보도 함께 분석하여 시간순으로 키워드를 도출해 낸 후, 사전에 축적되어 있던 영상물 대본의 시계열적 키워드와 비교하는 방식의 인공지능 심층 학습 기반의 영상물 인식 시스템 및 방법을 제공한다. Figure 1b is a configuration diagram of a conventional artificial intelligence deep learning-based video recognition system. Through deep learning of artificial intelligence, various images are pre-learned, and the pre-learning results are reflected to analyze images on a frame-by-frame basis for distributed videos. In some cases, audio information from the videos is also analyzed to organize them in chronological order. We provide a video recognition system and method based on artificial intelligence deep learning that derives keywords and compares them with time-series keywords from video scripts accumulated in advance.
인공지능에 의해 구현되는 시스템은, 다수의 오브젝트 이미지를 키워드로 심층학습(DeepLearning)하는 데이터셋 학습부; 영상물 대본에서 키워드를 추출하여 시계열적으로 나열, 저장하는 DB부; 영상물을 프레임 단위 이미지 분석을 통해, 이미지 상의 오브젝트들과 오브젝트 간의 관계를 키워드로 추출하여 시계열적으로 나열하는 영상물 분석부; 및 상기 DB부와 영상물 분석부의 키워드를 비교하여 유사성을 판단하는 비교판단부를 포함한다. The system implemented by artificial intelligence includes a dataset learning unit that performs deep learning on multiple object images using keywords; DB unit that extracts keywords from video scripts, lists and stores them in time series; A video analysis unit that extracts keywords from objects in the image and the relationships between the objects through frame-by-frame image analysis and lists them in time series; and a comparison judgment unit that determines similarity by comparing keywords of the DB unit and the video analysis unit.
그러나, 기존의 이러닝 또는 유러닝 시스템은 단순히 온라인 학습 콘텐츠를 제공하였으며, 얼굴 인식 기술과 소리와 메시징 기술을 사용하여 학습자의 부주의하게 얼굴 시선이 이탈하면, 알람을 발생하고 주의집중 학습이 되도록 하는 기능을 제공하지 않았다. However, existing e-learning or u-learning systems simply provide online learning content, and use facial recognition technology and sound and messaging technology to generate an alarm when the learner inadvertently deviates from the facial gaze and enable focused learning. did not provide
상기 문제점을 해결하기 위한 본 발명의 목적은 온라인 강의 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 학습 콘텐츠에 시선을 바로보고 비대면 강의 학습 콘텐츠를 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는, 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템을 제공한다. The purpose of the present invention to solve the above problem is that in non-face-to-face learning of online lectures, the educational content viewer of the user terminal is equipped with a media playback unit and a facial outline recognition module, and the user terminal linked to the learning content server (ubcloud server) In order to focus your attention on the learning content focused on the front camera and focus your attention on the learning content in non-face-to-face lectures, your gaze is directed at a certain angle through facial outline recognition on a 5-point scale with facial features of eyes 2, nose, and ears 2. In case of a miss, an alarm/warning message is generated to the user terminal using sound and messaging technology, and artificial intelligence is used in web browser-based non-face-to-face learning, which provides attention learning using web browser-based ubcloud artificial intelligence in non-face-to-face learning. Provides an attention learning system using intelligence.
본 발명의 다른 목적은 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 방법을 제공한다.Another object of the present invention is to provide an attention learning method using artificial intelligence in web browser-based non-face-to-face learning.
본 발명의 목적을 달성하기 위해, 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템은 비대면 온라인 강의 학습 콘텐츠를 제공하는 학습 콘텐츠 서버; 상기 학습 콘텐츠 서버에 유무선 통신망을 통해 접속하여 교육 콘텐츠 viewer를 구동하며, 비대면 온라인 학습에서 사용자 단말의 정면 카메라 영상 데이터의 AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 교육 콘텐츠 viewer가 설치된 사용자 단말; 및 강사의 단말을 포함하고, In order to achieve the purpose of the present invention, an attention learning system using artificial intelligence in web browser-based non-face-to-face learning includes a learning content server that provides non-face-to-face online lecture learning content; Connects to the learning content server through a wired or wireless communication network to run an educational content viewer, and in non-face-to-face online learning, AI facial recognition/motion recognition sound reproduction technology of the front camera image data of the user terminal is used to focus the learning content with artificial intelligence. A user terminal with an educational content viewer installed to learn; and an instructor's terminal,
상기 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하며,The instructor's terminal transmits and receives question and answer chat data to a plurality of learner terminals in a 1:N manner through the learning content server,
상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 눈2/코/귀2의 얼굴의 특징점 5점 척도를 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하고, 상기 사용자 단말은 학습자의 음성을 인식하는 음성인식 모듈을 더 포함하며, The user terminal includes a VOD media player that plays non-face-to-face lecture learning content; A chat module that transmits and receives chat data between instructors and learners; A facial recognition module that recognizes facial behavior patterns in the front camera image of the user terminal and recognizes a 5-point scale of facial features of eyes 2/nose/ears 2; and If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at either end or the learner's voice is deviated from the screen by a certain angle or more. When recognized, it includes a learner's alarm generator that generates an alarm or outputs a warning message to the learner's user terminal to enable focused learning, and the user terminal further includes a voice recognition module that recognizes the learner's voice,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며,The facial recognition module is an AI-based facial outline recognition technology that uses the posenet algorithm.
상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하고,The educational content viewer is equipped with a VOD media player, a chat screen, and an online learning memo space,
비대면 온라인 학습에서, 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. In non-face-to-face online learning, the instructor's terminal transmits and receives question and answer chat data to a plurality of learner terminals in a 1:N manner through the learning content server.
상기 사용자 단말의 정면 카메라에 포커싱된 비대면 온라인 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 알람/경고 메시지를 발생한다. A 5-point scale facial feature point of eyes 2/nose/ear 2 is used to recognize the facial contours of eyes 2/nose/ear 2 so that the non-face-to-face online lecture learning contents focused on the front camera of the user terminal can be focused on. In some cases, alarm/warning messages are generated using sound and messaging technology.
본 발명의 다른 목적을 달성하기 위해, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법은 (a) 사용자 단말로부터 학습자 정보와 표준 크기의 정면 얼굴 사진을 학습 콘텐츠 서버가 등록받아 저장하는 단계; (b) 상기 학습 콘텐츠 서버가 사용자 정보와 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계; (c) 교육 콘텐츠 viewer와 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상의 정면 얼굴인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버로 수신받아 기 등록된 학습자 정보와 표준 크기의 정면 얼굴 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계; (d) 상기 학습 콘텐츠 서버로부터 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및 (e) 상기 학습 콘텐츠 서버는 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상을 분석하여 시선이 일정 각도로 벗어난 경우 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계를 포함하고, In order to achieve another object of the present invention, the attention learning method in non-face-to-face learning based on a web browser includes the steps of (a) registering and storing learner information and a standard-sized frontal face photo from a user terminal by a learning content server; (b) the learning content server issuing a QR code corresponding to user information and a frontal face photo; (c) A user terminal equipped with an educational content viewer and a facial recognition module uses the front-facing face recognition algorithm of the front-facing camera image to receive the recognition result of the front-facing face photo from the camera to the learning content server, along with pre-registered learner information and standards. Comparing the size of the frontal face photo and the facial features to confirm the learner's identity; (d) providing learning content from the learning content server to a user terminal of a pre-registered member; and (e) the learning content server analyzes the online learner's face image detected by the camera on each learner's user terminal and sends it to the corresponding user terminal for attention-focused learning when the gaze deviates from a certain angle or when the learner's voice is recognized. Including steps for generating a warning message or alarm,
비대면 온라인 학습에서, 상기 사용자 단말에 설치된 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며, 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하는 단계를 더 포함하며,In non-face-to-face online learning, the educational content viewer installed on the user terminal is equipped with a VOD media player, a chat screen, and an online learning memo space, and the instructor's terminal is connected to a plurality of learner terminals in a 1:N manner through the learning content server. It further includes the step of transmitting and receiving question and answer chat data,
상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하며, 상기 사용자 단말은 학습자의 음성을 인식하는 음성인식 모듈을 더 포함하며, The user terminal includes a VOD media player that plays non-face-to-face lecture learning content; A chat module that transmits and receives chat data between instructors and learners; A facial recognition module that recognizes facial behavior patterns in the front camera image of the user terminal and recognizes facial feature points on a 5-point scale of eyes 2/nose/ears 2; and If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at either end or the learner's voice is deviated from the screen by a certain angle or more. When recognized, it includes a learner's alarm generator that generates an alarm or outputs a warning message to the learner's user terminal to enable focused learning, and the user terminal further includes a voice recognition module that recognizes the learner's voice,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용한다. The facial recognition module is an AI-based facial outline recognition technology that uses the posenet algorithm.
본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는 효과가 있다. In the attention learning system and method using artificial intelligence in web browser-based non-face-to-face learning of the present invention, the educational content viewer of the user terminal in non-face-to-face learning is equipped with a media playback unit and a facial outline recognition unit module, and a learning content server ( Facial outline recognition is performed on a 5-point scale of facial contours and facial features of eyes 2, nose, and ears 2 so that you can focus your attention on the non-face-to-face lecture learning content focused on the front camera of the user terminal linked to the ubcloud server. If the gaze is diverted at a certain angle, an alarm/warning message is generated on the user's terminal using sound and messaging technology, and it has the effect of providing attention learning using web browser-based ubcloud artificial intelligence in non-face-to-face learning.
도 1a는 기존 얼굴 인식 장치의 구성도이다.
도 1b는 종래의 인공지능 심층학습 기반의 영상물 인식 시스템의 구성도이다.
도 2a, 2b는 비대면 온라인 학습에서 웹 브라우저 기반 ubcloud 인공지능을 사용한 주의 집중 학습 시스템의 구현 예이다.
도 3a는 온라인 학습 시에, 태블릿 PC, 스마트폰, PC 기반 학습 콘텐츠 서버를 구비하는 안면윤곽선 인식 인공지능 플랫폼 개념을 보인 도면이다.
도 3b는 유비쿼터스 기반 NSDAI 플랫폼 상의 얼굴 인식 기능을 보인 도면이다.
도 3c, 3d는 비대면 온라인 학습과 시험 시에 태블릿 PC, 스마트폰, PC에서 사용하는 UBI cloud App, NS facere platform의 목표와 User Experience(1.사용자 등록->2.학습-> 3. QR 코드 생성 -> 4. UBT App/Web 로그인(QR code/passwd, ID/passwd) -> 5. 감독자 확인과 시험-> 6.7 UBT App/Web 카메라의 얼굴의 안면윤곽선 인식 8. 시험 종료)를 보인 그림이다.
도 4는 학습자/시험 응시자 등록부터 시험 응시부의 과정, 1)응시자 등록, 2)학습, 3)QR 코드 발급, 4) QR 코드 및 얼굴 인식, 5) 감독관 확인(응사자 얼굴/응시자 정보), 6) 시험응시 - 프로세스를 보인 그림이다.
도 5는 등록된 응시자 얼굴 기계학습 및 학습 결과를 바탕으로 응시자-얼굴 매칭 코드 발급부 - 온라인 시험/UBT 시험시에 응시자 등록/학습/QR 코드 발급 화면이다.
도 6은 시험 응시자 얼굴의 AI 기반 안면윤곽선 인식을 통해 코의 정점을 기준으로 표준 크기의 정면 얼굴 사진의 얼굴 특징점들의 거리와 유사도(similarity)를 측정한 UBT 시스템에서 응시자 확인부 화면이다.
도 7은 학습자 판정시 규칙 사용자 정의부, 프로그램 테스트 화면이다.
도 8은 비대면 온라인 학습시에 학습 콘텐츠 서버 접속/로그인/왼쪽- QR 코드 인식/QR 코드 인식 시에 인사말 들림(TTS)/오른쪽-얼굴 인식(스마트폰/태블릿PC 전면 카메라)/배경에서 얼굴 영역 인식 시작/인식율 표시 과정을 포함하는 시연 화면 - 생성된 사용자 코드 활용 UBT 인증 프로세스 사용자 정의부 -이다.
도 9는 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 구성도이다.
도 10은 온라인 학습과 시험시에, AI 기반 안면윤곽선 인식 모듈의 기능을 설명한 도면이다.
도 11은 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법을 나타낸 순서도이다. Figure 1a is a configuration diagram of an existing face recognition device.
Figure 1b is a configuration diagram of a conventional artificial intelligence deep learning-based video recognition system.
Figures 2a and 2b are examples of implementation of an attention learning system using web browser-based ubcloud artificial intelligence in non-face-to-face online learning.
Figure 3a is a diagram showing the concept of a facial contour recognition artificial intelligence platform equipped with a tablet PC, smartphone, and PC-based learning content server during online learning.
Figure 3b is a diagram showing the face recognition function on the ubiquitous NSDAI platform.
Figures 3c and 3d show the goals and User Experience (1. User registration -> 2. Learning -> 3. QR) of the UBI cloud App and NS facere platform used on tablet PCs, smartphones, and PCs during non-face-to-face online learning and testing. Code creation -> 4. UBT App/Web login (QR code/passwd, ID/passwd) -> 5. Supervisor confirmation and test -> 6.7 Facial outline recognition of face by UBT App/Web camera 8. End of test) It's a picture.
Figure 4 shows the process of the test taker department from learner/test taker registration, 1) test taker registration, 2) learning, 3) QR code issuance, 4) QR code and face recognition, 5) supervisor confirmation (test taker face/test taker information), 6) Test taking - This is a picture showing the process.
Figure 5 is a screen of the candidate-face matching code issuance unit - candidate registration/learning/QR code issuance during the online test/UBT test based on the machine learning and learning results of the registered candidate's face.
Figure 6 is a screen of the test taker confirmation section in the UBT system, which measures the distance and similarity of facial feature points in a standard-sized frontal facial photo based on the vertex of the nose through AI-based facial contour recognition of the test taker's face.
Figure 7 shows the rule user definition section and program test screen when making a learner decision.
Figure 8 shows learning content server access/login during non-face-to-face online learning/left - QR code recognition / greeting heard when QR code is recognized (TTS) / right - face recognition (smartphone/tablet PC front camera) / face in the background This is a demonstration screen that includes the area recognition start/recognition rate display process - the UBT authentication process customization section utilizing the generated user code.
Figure 9 is a diagram showing the configuration of an attention learning system using artificial intelligence in non-face-to-face learning based on a tablet PC, smartphone, and PC-based web browser using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.
Figure 10 is a diagram explaining the function of the AI-based facial contour recognition module during online learning and testing.
Figure 11 is a flowchart showing a tablet PC, smartphone, and PC-based attention learning method using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다. 본 발명의 설명에 있어서 관련된 공지의 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 자세한 설명을 생략한다. 또한, 첨부된 도면 번호는 동일한 구성을 표기할 때에 다른 도면에서 동일한 도면 번호를 부여한다. Hereinafter, the configuration and operation of the preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the present invention, if it is determined that a detailed description of a related known technology or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the attached drawing numbers are assigned the same drawing numbers in other drawings when indicating the same configuration.
본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공한다. In the attention learning system and method using artificial intelligence in web browser-based non-face-to-face learning of the present invention, the educational content viewer of the user terminal in non-face-to-face learning is equipped with a media playback unit and a facial outline recognition unit module, and a learning content server ( Facial outline recognition is performed on a 5-point scale of facial contours and facial features of eyes 2, nose, and ears 2 so that students can focus their attention on non-face-to-face lecture learning content focused on the front camera of the user terminal linked to the ubcloud server. If the gaze strays at a certain angle, an alarm/warning message is generated to the user's terminal using sound and messaging technology, and it provides attention learning using web browser-based ubcloud artificial intelligence in non-face-to-face learning.
* 안면 특징점 및 윤곽선 인식 기술 동일(ubcloud)* Same facial feature point and outline recognition technology (ubcloud)
* 학습 콘텐츠 서버와 시험 시버 기능 추가됨 * Learning content server and test taker functions added
* 브라우저 기반인 점과, 온라인(학습 데이터 기반 온라인에서 읽어오고 온라인에 저장)/오프 라인(라이브러리 브라우저 내장과 웹페이지에 내장하고 인식 데이터를 사용자 기기에 저장)을 모두 활용 가능한 점이 특징* The feature is that it is browser-based and can be used both online (read online and save online based on learning data) and offline (built-in library browser and web page, and store recognition data on the user's device).
* 소리와 메시징을 활용하여 주의집중을 시킴* Use sound and messaging to focus attention
본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 온라인 학습 시에, 사용자 단말(태블릿 PC, 스마트폰, PC)은 학습 콘텐츠 서버와 연동되는 교육 콘텐츠 viewer가 설치되고, AI 안면인식/동작인식/소리와 메시징 기술을 사용하여 사용자 단말의 정면 카메라를 사용한 AI 기반 안면 인식(posenet 알고리즘, machine learning model which allows for real-time face pose estimation) 기술을 사용하는 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈이 탑재되며, 얼굴 인식 시에 응시자 단말의 정면 카메라(C)를 사용하여 촬영된 정면 얼굴 사진을 학습 콘텐츠 서버의 얼굴 사진 DB의 표준 크기의 학습자의 정면 얼굴 사진의 얼굴특징점들과 비교하여 학습자의 출석 여부를 검출하고, 비대면 온라인 학습에서, 사용자 단말의 정면 카메라 영상 데이터를 사용하여 실시간으로 AI 기반 안면윤곽선을 인식하여 학습자의 영상의 얼굴의 행동 패턴을 검출하여 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 온라인 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 해당 학습자의 사용자 단말로 알람/경고메시지를 발생하며, 소리와 메시징 기술을 사용하여 주의 집중되도록한다. The attention learning system and method using artificial intelligence in web browser-based non-face-to-face learning of the present invention is an educational content viewer that is linked to a learning content server in a user terminal (tablet PC, smartphone, PC) during non-face-to-face online learning. is installed, and uses AI-based facial recognition (posenet algorithm, machine learning model which allows for real-time face pose estimation) technology using the front-facing camera of the user terminal using AI facial recognition/motion recognition/sound and messaging technology. It is equipped with a facial recognition module that recognizes the outline of the face and the characteristic points of the face on a 5-point scale of eyes2/nose/ears2, and learns from frontal facial photos taken using the front-facing camera (C) of the candidate's terminal when recognizing the face. Detects the learner's attendance by comparing it with the facial feature points of the learner's frontal face photo of a standard size in the content server's face photo DB, and in non-face-to-face online learning, uses AI-based real-time video data from the front camera of the user's terminal. By recognizing the facial contour and detecting the behavior patterns of the learner's face in the video, the face is focused on the front camera of the user terminal linked to the learning content server (ubcloud server) so that the user can look directly into the learning content and focus attention on the face. The outline of the face and facial features of eyes 2/nose/ear 2 are measured on a 5-point scale. If the gaze deviates at a certain angle through facial outline recognition, an alarm/warning message is generated on the learner's user terminal, and sound and messaging technology is used. So that you can focus your attention.
사용자 단말은 학습 콘텐츠 서버로부터 유무선 통신망을 통해 온라인 학습 콘텐츠를 제공받는 스마트폰, 태블릿 PC 뿐만 아니라, 인터넷 접속이 가능한 노트북을 포함한다. User terminals include laptops with Internet access, as well as smartphones and tablet PCs that receive online learning content from a learning content server through a wired or wireless communication network.
사용자 단말은 학습 콘텐츠 서버와 연동되는 교육 콘텐츠 viewer가 설치되며, AI 안면 인식/동작 인식/소리와 메시징 기술을 사용하여 학습자 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점을 인식하는 안면인식 모듈을 구비한다. The user terminal is installed with an educational content viewer that is linked to the learning content server, and uses AI facial recognition/motion recognition/sound and messaging technology to identify the outline of the learner's face and facial features on a 5-point scale of eyes2, nose, and ears2. It is equipped with a facial recognition module that recognizes the face.
도 2a, 2b는 비대면 온라인 학습에서 웹 브라우저 기반 ubcloud 인공지능을 사용한 주의 집중 학습 시스템의 구현 예이다.Figures 2a and 2b are examples of implementation of an attention learning system using web browser-based ubcloud artificial intelligence in non-face-to-face online learning.
도 3a는 온라인 학습 시에, 태블릿 PC, 스마트폰, PC 기반 학습 콘텐츠 서버를 구비하는 안면윤곽선 인식 인공지능 플랫폼 개념을 보인 도면이다.Figure 3a is a diagram showing the concept of a facial contour recognition artificial intelligence platform equipped with a tablet PC, smartphone, and PC-based learning content server during online learning.
도 3b는 유비쿼터스 기반 NSDAI 플랫폼 상의 얼굴 인식 기능을 보인 도면이다. Figure 3b is a diagram showing the face recognition function on the ubiquitous NSDAI platform.
도 3c, 3d는 비대면 온라인 학습과 시험 시에 태블릿 PC, 스마트폰, PC에서 사용하는 UBI cloud App, NS facere platform의 목표와 User Experience(1. 사용자 등록->2. 학습-> 3. QR 코드 생성 -> 4. UBT App/Web 로그인(QR code/passwd, ID/passwd) -> 5. 감독자 확인과 시험-> 6.7 UBT App/Web 카메라의 얼굴의 안면윤곽선 인식 8. 시험 종료)를 보인 그림이다. Figures 3c and 3d show the goals and User Experience (1. User registration->2. Learning->3. QR) of the UBI cloud App and NS facere platform used on tablet PCs, smartphones, and PCs during non-face-to-face online learning and testing. Code creation -> 4. UBT App/Web login (QR code/passwd, ID/passwd) -> 5. Supervisor confirmation and test -> 6.7 Facial outline recognition of face by UBT App/Web camera 8. End of test) It's a picture.
도 4는 학습자/시험 응시자 등록부터 시험 응시부의 과정, 1) 응시자 등록, 2) 학습, 3) QR 코드 발급, 4) QR 코드 및 얼굴 인식, 5) 감독관 확인(응사자 얼굴/응시자 정보), 6) 시험응시 - 프로세스를 보인 그림이다. Figure 4 shows the process of the test taker department from learner/test taker registration, 1) test taker registration, 2) learning, 3) QR code issuance, 4) QR code and face recognition, 5) supervisor confirmation (test taker face/test taker information), 6) Test taking - This is a picture showing the process.
도 5는 등록된 응시자 얼굴 기계학습 및 학습 결과를 바탕으로 응시자-얼굴 매칭 코드 발급부 - 온라인 시험/UBT 시험시에 응시자 등록/학습/QR 코드 발급 화면이다. Figure 5 is a screen of the candidate-face matching code issuance unit - candidate registration/learning/QR code issuance during the online test/UBT test based on the machine learning and learning results of the registered candidate's face.
도 6은 시험 응시자 얼굴의 AI 기반 안면윤곽선 인식을 통해 코의 정점을 기준으로 표준 크기의 정면 얼굴 사진의 얼굴 특징점들의 거리와 유사도(similarity)를 측정한 UBT 시스템에서 응시자 확인부 화면이다. Figure 6 is a screen of the test taker confirmation section in the UBT system, which measures the distance and similarity of facial feature points in a standard-sized frontal facial photo based on the vertex of the nose through AI-based facial contour recognition of the test taker's face.
도 7은 학습자 판정시 규칙 사용자 정의부, 프로그램 테스트 화면이다. Figure 7 shows the rule user definition section and program test screen when making a learner decision.
도 8은 비대면 온라인 학습시에 학습 콘텐츠 서버 접속/로그인/왼쪽- QR 코드 인식/QR 코드 인식 시에 인사말 들림(TTS)/오른쪽-얼굴 인식(스마트폰/태블릿PC 전면 카메라)/배경에서 얼굴 영역 인식 시작/인식율 표시 과정을 포함하는 시연 화면 - 생성된 사용자 코드 활용 UBT 인증 프로세스 사용자 정의부 -이다. Figure 8 shows learning content server access/login during non-face-to-face online learning/left - QR code recognition / greeting heard when QR code is recognized (TTS) / right - face recognition (smartphone/tablet PC front camera) / face in the background This is a demonstration screen that includes the area recognition start/recognition rate display process - the UBT authentication process customization section utilizing the generated user code.
(1) 사용자 단말은 교육 콘텐츠 viewer가 설치되고, 교육 콘텐츠 viewer는 인공지능 안면인식을 사용하여 학습자 얼굴 영상의 눈2/코/귀2의 얼굴 특징점들을 인식하는 5점 척도 안면인식 모듈이 탑재되었다. (1) The user terminal is installed with an educational content viewer, and the educational content viewer is equipped with a 5-point scale facial recognition module that recognizes the facial features of eyes 2/nose/ear 2 in the learner's face image using artificial intelligence facial recognition. .
온라인 학습과 시험을 위한 인식 코드로써 QR 코드를 사용하였다. QR code was used as a recognition code for online learning and testing.
실시예에서는, 사용자 단말은 태블릿 PC를 사용하고, 인식 코드는 QR 코드를 사용하였다. In the embodiment, the user terminal used a tablet PC, and the recognition code used a QR code.
학습자/시험응시자의 등록 사진을 학습한 인공지능이 사용자별 인식코드(QR 코드)를 생성하고, 응시자는 해당 인식 코드(QR 코드)가 부착된 응시표를 시험장 PC 또는 태블릿 PC의 카메라에 비춘 후, 사용자 인식한 AI 모듈이 해당 응시자 정보와 정면 얼굴 사진(코를 정점으로 한 표준 크기의 정면 얼굴 사진)을 학습 콘텐츠 서버의 얼굴 DB의 기 등록된 응시자 정보와 표준 크기의 정면 얼굴 사진을 미리 학습한 결과모델을 비교하고, 얼굴의 특징점들의 유사도(similarity)를 계산하여 일정 수치가 넘으면 본인으로 인식하고, 학습 화면으로 이동, 학습자가 비대면 온라인 학습하게 된다. 얼굴의 특징점들의 유사도가 일정 수치 미만인 경우(완전 미달, 판정 보류)의 경우, 서버를 통해 감독관 단말에 정보를 전달하여 감독관이 실제 얼굴 확인과 개인 정보 확인을 거쳐 온라인 학습을 실시한다. Artificial intelligence that has learned the registered photo of the learner/test taker generates a user-specific recognition code (QR code), and the test taker displays the test ticket with the corresponding recognition code (QR code) attached to the camera of the test site PC or tablet PC. The user-recognized AI module learns the applicant information and a frontal face photo (a standard-size frontal face photo with the nose at its peak) and learns the applicant information and standard-size frontal face photo already registered in the face database of the content server. The resulting models are compared, the similarity of the facial features is calculated, and if it exceeds a certain value, it is recognized as the person himself and moves to the learning screen, where the learner begins non-face-to-face online learning. If the similarity of facial features is below a certain level (completely below, judgment on hold), information is transmitted to the supervisor's terminal through the server, and the supervisor conducts online learning after confirming the actual face and personal information.
<시스템 구성><System configuration>
1) 비대면 온라인 학습 : 응시자 단말(PC/스마트폰/태블릿) 사용자 프로그램 -> 유무선 통신망(WAN, LTE 4G/5G) 및 내부망(LAN, Wi-Fi) -> 학습 콘텐츠 서버(학습 커리큘럼 정보/학습자 정보)로 각 사용자 단말의 정면 얼굴 사진과 학습자 정보를 전송하여 감독관 단말이 학습 참여 여부를 결정한다. 1) Non-face-to-face online learning: Candidate terminal (PC/smartphone/tablet) user program -> wired and wireless communication network (WAN, LTE 4G/5G) and internal network (LAN, Wi-Fi) -> learning content server (learning curriculum information) /Learner information) transmits the frontal face photo and learner information of each user terminal to determine whether the supervisor terminal will participate in learning.
2) 오프 라인 활용시 : 사용자 프로그램 (PC/스마트폰/태블릿)에 인공지능 안면인식 모듈 탑재, 자체적으로 응시자 얼굴의 안면윤곽선 인식 후, 최종 얼굴 안면인식 결과만 학습 콘텐츠 서버로 전송한다. 2) When used offline: The artificial intelligence facial recognition module is installed in the user program (PC/smartphone/tablet), recognizes the facial outline of the candidate's face, and sends only the final facial recognition result to the learning content server.
<학습자 단말의 앱 프로토타입 일부 APK - 안드로이드용 첨부><Partial APK of app prototype on learner terminal - attached for Android>
https://we.tl/t-wFdXexsors 파일 다운로드 암호: nsdevil https://we.tl/t-wFdXexsors File download password: nsdevil
안드로이드 스마트폰 또는 태블릿 PC에 앱(App)을 설치Install the app on your Android smartphone or tablet PC
<웹 버전 기능 주소><Web version function address>
1) 안면인식 모듈 : https://facere.nsdai.org (id: nsdevil, passwd: nsdevil) > QR 코드를 스마트폰으로 찍어 PC 카메라에 인식 화면에 대면 동작됨.1) Facial recognition module: https://facere.nsdai.org (id: nsdevil, passwd: nsdevil) > It works by taking a picture of the QR code with a smartphone and touching it to the recognition screen of the PC camera.
2) 얼굴의 윤곽선과 5점 척도 얼굴의 특징점들의 안면윤곽선 인식 모듈 : https://headpos.ublrandd.com.np (id: nsdevil, passwd: nsdevil), 학습자 얼굴의 눈2/코/귀2의 5점 척도 얼굴의 특징점들의 안면인식2) Facial contour recognition module of facial contour and 5-point scale facial feature points: https://headpos.ublrandd.com.np (id: nsdevil, passwd: nsdevil), eyes 2/nose/ear 2 of the learner's face Facial recognition of facial features on a 5-point scale
3) 음성 인식 모듈 3) Voice recognition module
음성인식(Speech Recognition)은 man-machine 인터페이스 기술로써, 마이크로 입력된 음향 신호(Acoustic speech signal)에 대하여 잡음을 제거하고 음성 신호의 특징을 추출하여 단어의 집합 또는 문장의 텍스트로 변환하는(mapping) 과정이며, 마이크-> AMP -> LPF -> ADC -> 음성 데이터베이스에 저장된다. Speech recognition is a man-machine interface technology that removes noise from an acoustic speech signal input through a microphone, extracts the characteristics of the speech signal, and converts it into a set of words or text of a sentence (mapping). The process is stored in microphone -> AMP -> LPF -> ADC -> voice database.
음성인식 모듈은 벡터 양자화(Vector Quantization)를 이용하는 방법, 동적 시간 정합(Dynamic Time Warping, DTW)을 이용하는 방법, 신경회로망(Neural Network)을 이용하는 방법, HMM(Hidden Markov Model, 은닉 마르코프 모델)을 이용하는 방법이 사용된다. 음성 인식 모듈은 하드웨어와 소프트웨어가 모듈화된 음성인식기와 STT(Speech To Text) 기술의 음성인식 API를 사용하였다. The speech recognition module uses vector quantization, dynamic time warping (DTW), neural network, and HMM (Hidden Markov Model). method is used. The voice recognition module used a voice recognition module with modular hardware and software and a voice recognition API of STT (Speech To Text) technology.
도 9는 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 구성도이다. Figure 9 is a diagram showing the configuration of an attention learning system using artificial intelligence in non-face-to-face learning based on a tablet PC, smartphone, and PC-based web browser using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.
도 10은 온라인 학습과 시험시에, AI 기반 안면윤곽선 인식 모듈의 기능을 설명한 도면이다. Figure 10 is a diagram explaining the function of the AI-based facial contour recognition module during online learning and testing.
시험관리부를 구비하는 학습 콘텐츠 서버(100)는 WWW 서버(101), 제어부(102), 회원 등록부(103), 사용자 인증부(104), 학습 콘텐츠 제공부(105), QR 코드 관리부(106), 감독자 확인부, 얼굴 인식부(107), 시험 관리부(109), 시험 정보DB(120), 응시자DB(121), 및 얼굴사진 DB(123)를 포함한다. The learning content server 100 having a test management unit includes a WWW server 101, a control unit 102, a member registration unit 103, a user authentication unit 104, a learning content provision unit 105, and a QR code management unit 106. , a supervisor confirmation unit, a face recognition unit (107), a test management unit (109), a test information DB (120), an applicant DB (121), and a face photo DB (123).
본 발명의 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템은 The attention learning system in non-face-to-face learning based on a web browser of the present invention is
저작 도구(authoring tool)에 의해 저작된 비대면 온라인 강의 학습 콘텐츠를 제공하는 학습 콘텐츠 서버(100); A learning content server 100 that provides non-face-to-face online lecture learning content authored by an authoring tool;
상기 학습 콘텐츠 서버(100)에 유무선 통신망을 통해 접속하여 교육 콘텐츠 viewer를 구동하며, 비대면 온라인 학습에서 사용자 단말의 정면 카메라 영상 데이터의 AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 교육 콘텐츠 viewer가 설치된 사용자 단말(300,310,311); 및 강사의 단말을 포함하고,The learning content server 100 is connected to the learning content server 100 through a wired or wireless communication network to run an educational content viewer, and in non-face-to-face online learning, the learning content is artificially created using AI facial recognition/motion recognition sound reproduction technology of the front camera image data of the user terminal. User terminals (300, 310, 311) installed with an educational content viewer for intelligent attention learning; and an instructor's terminal,
상기 강사의 단말은 상기 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하며, The instructor's terminal transmits and receives question and answer chat data to a plurality of learner terminals in a 1:N manner through the learning content server 100,
상기 사용자 단말(300,310,311)은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 사용자 단말에서 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하고, 상기 사용자 단말은 학습자의 음성을 마이크로 인식하는 STT(Speech To Text) 기술을 사용하는 음성인식 모듈을 더 포함하며, The user terminals 300, 310, and 311 include a VOD media player that plays non-face-to-face lecture learning content; A chat module that transmits and receives chat data between instructors and learners; A facial recognition module that recognizes facial behavior patterns in the front camera image of the user terminal and recognizes facial outlines and 5-point scales of facial features of eyes2/nose/ears2; and If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard depending on whether the 3 points of the eyes/nose are closer to the 2 points of the ears at either end or the learner's user is deviating from the screen by a certain angle or more When the terminal recognizes the learner's voice, it includes a learner's alarm generator that generates an alarm or outputs a warning message to the learner's user terminal so that the learner's voice can be focused on learning, and the user terminal has an STT (STT) that recognizes the learner's voice as a microphone. It further includes a voice recognition module using Speech To Text technology,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며, The facial recognition module is an AI-based facial outline recognition technology that uses the posenet algorithm.
사용자 단말의 정면 카메라에 포커싱된 비대면 온라인 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면인식을 통해 일정 각도로 시선이 빗나갈 경우 또는 학습자의 사용자 단말에서 학습자의 음성이 인식된 경우 주의집중 학습되도록 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하고, To ensure that you can focus your attention on non-face-to-face online lecture learning content focused on the front camera of the user terminal, the facial outline and facial features of eyes 2, nose, and ears 2 are placed on a 5-point scale, and the gaze is set at a certain angle through facial recognition. In case of a miss or if the learner's voice is recognized on the learner's user terminal, an alarm/warning message is generated to the user terminal using sound and messaging technology to ensure focused learning.
상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며, 비대면 온라인 학습에서, 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. The educational content viewer is equipped with a VOD media player, a chat screen, and an online learning memo space. In non-face-to-face online learning, the instructor's terminal (supervisor's terminal) connects multiple learners in a 1:N manner through the learning content server 100. Question and answer chat data is transmitted and received through terminals.
학습 콘텐츠 서버(100)는, 비대면 온라인 학습 시에, 시간과 장소에 상관 없이 강사가 학습 콘텐츠를 제공하고 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공하며,During non-face-to-face online learning, the learning content server 100 allows the instructor to provide learning content regardless of time and place and underline the online learning memo space (shared workspace) of the educational content viewer or add text, pictures, and photos. , Provides sending/receiving files with attached reports/learning files and sending/receiving notes to the instructor's terminal (supervisor terminal) and multiple learner terminals according to the instructor's floor control through voice recording,
비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모 쓰기가 표시된다. During a non-face-to-face lecture, the instructor's terminal (supervisor's terminal) writes letters/graphics/memos in the shared workspace of the educational content viewer with multiple learner terminals in a 1:N manner through the learning content server 100. Write is displayed.
비대면 온라인 학습에서, 강사는 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. In non-face-to-face online learning, the instructor's terminal (supervisor terminal) transmits and receives question and answer chat data to a plurality of learner terminals in a 1:N manner through the learning content server 100.
비대면 온라인 학습에서, 시간과 장소에 상관 없이 학습 콘텐츠 서버를 통해 온라인 학습 시에 강사는 학습 콘텐츠를 제공하고 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공한다.In non-face-to-face online learning, the instructor provides learning content during online learning through a learning content server regardless of time and place and underlines text, pictures, and photos in the online learning memo space (shared workspace) of the educational content viewer. , Through voice recording, it provides sending/receiving files with attached reports/learning files and sending/receiving notes to the instructor's terminal (supervisor terminal) and multiple learner terminals according to the instructor's floor control.
비대면 온라인 학습에서, 비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모 쓰기가 표시된다. In non-face-to-face online learning, during a non-face-to-face lecture, the instructor's terminal (supervisor terminal) is connected to the shared workspace of the educational content viewer with a plurality of learner terminals in a 1:N manner through the learning content server 100. Text/graphic handwriting/memo writing is displayed.
상기 학습 콘텐츠 서버(100)는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공한다. The learning content server 100 provides a function to recognize a QR code as a recognition code when using a smartphone.
상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버(100)로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되며, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면을 구비한다. The user terminal uses any one of a tablet PC, a smartphone, and a PC equipped with a front-facing camera, and the educational content viewer downloaded from the learning content server 100 is installed, and the educational content viewer is VOD media. A chat screen is provided with the player.
상기 사용자 단말은 The user terminal is
비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; VOD media player that plays non-face-to-face lecture learning content;
강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 및 A chat module that transmits and receives chat data between instructors and learners; and
상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고, 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 A facial recognition module that recognizes the facial behavior pattern of the front camera image of the user terminal and recognizes the facial outline and facial feature points on a 5-point scale of eyes2/nose/ears2; and
화면으로부터 시선이 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함한다. If the gaze deviates from the screen by more than a certain angle (if the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at either end), the learner's user It includes a learner alarm generator that generates an alarm or outputs a warning message through the terminal.
상기 사용자 단말의 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용한다. The facial recognition module of the user terminal is an AI-based facial outline recognition technology that uses the posenet algorithm.
상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/회전/각도 보정된 표준 크기의 학습자의 정면 얼굴 사진에 대하여 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 정면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 학습자 사용자 단말에서 알람을 발생하거나 또는 경고 메시지를 출력하여 주의집중 학습되도록 한다. The facial recognition module uses a facial recognition algorithm to extract facial objects from a standard size corrected size/rotation/angle corrected frontal face photo of the learner during non-face-to-face online learning, and recognizes facial behavior patterns to identify the learner's face. Extract the outline and the facial feature points of Eye2/Nose/Ear2, and the Euclidean distance (pupil) of the facial feature points of Eye2/Nose/Ear2 with the center point (pupil) of the left/right ear and left/right eye, respectively ( Calculate the similarity with d), check whether the gaze is deviated by comparing it with specific points of the user's face photo in the face photo DB, and depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at both ends, the right/right Detects head movement to the left and detects facial patterns related to gaze deviation. When recognizing a face, if the facial outline is not recognized or if it deviates from the screen by more than a certain angle (the 3 points of the eyes/nose are close to the 2 points of the ears at both ends) (If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard value), facial behavior patterns captured by the camera of the user terminal are recognized, and the right eye and right ear are detected according to the angle at which the frontal face is turned to the left and right. Since the distance and the distance between the left eye and the left ear are different, an alarm is generated on the learner's user terminal or a warning message is output to encourage attention and learning.
상기 학습 콘텐츠 서버(100)는 The learning content server 100
WWW 서버(101); WWW server 101;
상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부(102); A control unit 102 that controls provision of online learning content to the user terminal;
상기 제어부(102)에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부(103); A member registration unit (103) connected to the control unit (102), which receives member information and stores and manages ID/Passwd;
상기 제어부(102)에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부(104); A user authentication unit 104 connected to the control unit 102 and authenticating using QR code/Passwd, ID/Passwd, or personal certificate;
상기 제어부(102)에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부(106); A QR code management unit 106 connected to the control unit 102 and issuing and managing a QR code corresponding to user information;
상기 제어부(102)에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부(105); a learning content provider 105 connected to the control unit 102 and providing the online learning content to the user terminal;
상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111); A chat server 111 connected to the control unit 102 and transmitting and receiving chat data between the instructor and the learner;
상기 제어부(102)에 연결되며, 사용자 단말로부터 카메라의 학습자/응시자의 정면 얼굴 사진을 수신받아 표준 크기의 크기 보정/회전/각도 보정을 통해 표준 크기의 정면 얼굴 사진으로 변환하고 서버의 데이터베이스에 기 저장된 사용자 정보와 표준 크기의 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습/온라인 시험 자격을 확인하는 감독관 확인부; It is connected to the control unit 102, and receives the frontal face photo of the learner/candidate from the camera from the user terminal, converts it into a standard size frontal face photo through standard size correction/rotation/angle correction, and stores it in the server's database. A proctor verification unit that verifies online learning/online exam qualifications by comparing the stored user information with a standard-sized frontal face photo and confirming it with the proctor at the proctor terminal;
상기 제어부(102)에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하고, 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부(107); 및It is connected to the control unit 102, and uses a facial recognition module in the user terminal to recognize the outline of the learner's face and facial feature points of eyes 2/nose/ear 2, and receives the face recognition results from the user terminal. Wealth (107); and
사용자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB를 포함한다. Test information DB that stores test papers, written answers, and scoring results of user terminals; It includes a candidate DB and a face DB that store candidate information and standard-sized frontal face photos.
추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111)를 더 포함한다. Additionally, the learning content server 100 is connected to the control unit 102 and further includes a chat server 111 that transmits and receives chat data between the instructor and the learner.
추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 리포트 파일 첨부가 가능한 쪽지 데이터를 송수신하는 쪽지 보내기/받기 제공부를 더 포함한다. Additionally, the learning content server 100 is connected to the control unit 102 and further includes a message sending/receiving service unit that transmits and receives message data to which report files of instructors and learners can be attached.
추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 학습 데이터 파일을 송수신하는 FTP 서버를 더 포함한다.Additionally, the learning content server 100 is connected to the control unit 102 and further includes an FTP server for transmitting and receiving learning data files.
추가적으로, 온라인 시험 또는 UBT 시험 시에, 응시자 단말과 감독관 단말로 시험 프로그램(App)과 시험지를 제공하며, 응시자 정보들과 응시자의 현장 얼굴 사진, 감독관 정보를 관리하며, 온라인 시험 또는 UBT 시험시에 일정 시험 시간 이내에 각각의 응시자 단말에 시험지 작성 답안을 저장한 후, 시험 종료시 시험 서버로 전송되며, 응시자들의 시험지 작성 답안, 채점 결과, 감독관 정보와 응시자 현황 정보를 저장하여 관리하는 시험 관리부를 더 포함한다. Additionally, when taking an online test or UBT test, a test program (App) and test papers are provided to the test taker's terminal and the proctor's terminal, and the test taker's information, on-site face photo, and proctor information are managed. After storing the answers written on the test paper on each test taker's terminal within a certain test time, they are sent to the test server at the end of the test, and further include a test management unit that stores and manages the test takers' answers written on the test paper, scoring results, supervisor information, and test taker status information. do.
추가적으로, 응시자 단말의 안면인식 모듈과 눈2/코/귀2 얼굴의 특징점 5점 척도 활용 부정행위 방지 모듈에서 사용하는 AI 기반 안면인식 기술은 태블릿 PC의 카메라 영상의 안면윤곽선과 얼굴의 특징점들을 인식하기 위해 posenet 알고리즘을 사용하였다. 온라인 시험 또는 UBT 시험시에, AI 기반 얼굴인식 기술을 사용하여 시험 서버에 연동된 감독관 단말을 통해 태블릿 PC 응시자 본인을 확인하고, 온라인 학습 시에 주의 집중 학습하게 하거나 또는 시험 시에 대리 시험을 방지하며, 온라인 학습, 온라인 시험 또는 UBT 시험에서 서버를 통해 응시자 얼굴 인식과 음성 인식 기술에 의해 주의 집중 학습 또는 시험 시에 대리 시험이나 시각적인/청각적인 부정 행위를 방지한다. Additionally, the AI-based facial recognition technology used in the facial recognition module of the test taker's terminal and the anti-cheating module that utilizes a 5-point scale for eye2/nose/ear2 facial features recognizes the facial outline and facial feature points in the camera image of the tablet PC. To do this, the posenet algorithm was used. When taking an online test or UBT test, AI-based facial recognition technology is used to verify the tablet PC candidate's identity through a proctor terminal linked to the test server, allowing them to focus on studying online or preventing proxy testing during the test. In online learning, online testing, or UBT testing, proxy testing or visual/auditory cheating is prevented during attention-focused learning or testing by using candidate face recognition and voice recognition technology through the server.
시험 프로그램(App)의 시험지 문항은 주관식 및/또는 객관식 시험 문항을 포함하며, 각 문항마다 텍스트 및 이미지 뿐만 아니라 텍스트, 이미지, VR/AR 콘텐츠, 음성과 동영상이 포함된 멀티미디어 시험 문항이 출제되어 서버를 통해 사용자 단말로 디스플레이된다. The test paper questions in the test program (App) include subjective and/or multiple choice test questions, and for each question, not only text and images but also multimedia test questions containing text, images, VR/AR content, voice, and video are provided on the server. It is displayed on the user terminal through .
1. 인공지능 허브 플랫폼1. Artificial Intelligence Hub Platform
ㆍ NSD-AI (NSDevil's Artificial intelligence) 플랫폼 기반 인공지능 허브플랫폼ㆍ Artificial intelligence hub platform based on NSD-AI (NSDevil's Artificial intelligence) platform
ㆍ 어학, 의학교육 부문 구문 인식을 통한 교수자 채점 가이드(인제대학교 의과대학 외 공동연구)ㆍ Instructor grading guide through phrase recognition in language and medical education (joint research with Inje University School of Medicine and others)
ㆍ 사물 인식을 통한 체험 학습 지원 시스템(펀에듀랩 및 한국민속촌 외)ㆍ Experiential learning support system through object recognition (Fun Edu Lab, Korean Folk Village, etc.)
ㆍ 치아 이미지 분석을 통한 치과 교육 부문 질병 분석(연세대학교 치과대학 외 3개국 기관 공동 연구)ㆍ Analysis of diseases in the dental education sector through tooth image analysis (joint research by Yonsei University College of Dentistry and 3 other countries)
ㆍ UBT connect platform 기반ㆍ Based on UBT connect platform
ㆍ 태블릿 PC 기반 평가 플랫폼ㆍTablet PC-based evaluation platform
ㆍ 어학평가 부문(말하기/듣기/읽기/쓰기)ㆍ Language assessment section (speaking/listening/reading/writing)
ㆍ 보건의료평가 부문(듣기/읽기/쓰기)ㆍHealth and medical evaluation sector (listening/reading/writing)
ㆍ 기타 직무평가 부문(읽기/쓰기)ㆍOther job evaluation categories (reading/writing)
추가적으로, 시험 관리부를 구비하는 학습 콘텐츠 서버(100)는 사용자 단말로부터 유무선 통신망을 통해 시험 응시자 정보와 정면 얼굴 사진을 등록받아 저장하고, 응시자들에게 응시표에 부착하는 QR 코드를 발급하며, 응시자별 QR 코드 인식 후 TTS 변환 기술을 통해 인사말을 제공하며, 온라인 시험지와 온라인 시험 또는 UBT 시험을 실시하기 위한 시험 프로그램을 응시자 단말들로 제공한다. Additionally, the learning content server 100, which includes a test management unit, registers and stores test taker information and frontal face photos from the user terminal through a wired or wireless communication network, issues QR codes to be attached to test takers to test takers, and issues QR codes for each test taker. After code recognition, a greeting is provided through TTS conversion technology, and an online test paper and a test program for conducting an online test or UBT test are provided to the candidate's terminal.
추가적으로, 온라인 시험 또는 UBT 시험은 2지/3지/4지/5지 선다 객관식 시험 뿐만 아니라 주관식 시험을 제공하며. 주관식 시험 문항은 터치 센서와 디스플레이를 구비하는 응시자 단말의 필기체 인식부를 사용하여 스타일러스 펜의 필기체를 인식하여 문자들로 변환하여 필기체 문자를 인식하는 주관식 시험을 제공한다.Additionally, online tests or UBT tests offer subjective tests as well as 2/3/4/5 choice multiple choice tests. The subjective test questions provide a subjective test that uses the handwriting recognition unit of the test taker's terminal equipped with a touch sensor and a display to recognize the handwriting of a stylus pen and convert it into characters to recognize the handwriting characters.
온라인 시험지는 전체 객관식, 객관식/주관식 혼용하여 출제될 수 있다. Online test papers can be entirely multiple-choice or a mix of multiple-choice/subjective.
응시자 단말(300,310,311)은 시험 관리부를 구비하는 학습 콘텐츠 서버(100)에 유무선 통신망(LAN, Wi-Fi, LTE 4G/5G)을 통해 연결되며, 시험 프로그램을 구동하며, AI 안면 인식/동작 인식/소리 인식 기술을 사용하여 응시자 단말의 정면 카메라(C)를 사용하여 응시자 얼굴의 영상의 안면 인식/동작 인식, 응시자 단말의 마이크와 음성인식 모듈을 통해 소리 인식을 통해 청각적인 부정행위를 감시하도록 응시자 단말의 정면 카메라(C)에 의해 촬영되는 응시자의 정면 얼굴 사진의 인공지능 안면인식 모듈과, 응시자 단말의 정면 카메라(C)로 촬영되는 얼굴 행동 패턴을 인식하여 얼굴의 특징점을 구성하는 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 부정행위 방지 모듈, 응시자의 음성 인식을 통해 청각적인 부정행위를 검출하는 음성인식 모듈을 구비하며, 시험관리부를 구비하는 학습 콘텐츠 서버(100)와 연동되는 응시자 단말에 녹음/녹화 프로그램이 설치된다. Candidate terminals (300, 310, 311) are connected to the learning content server (100) equipped with a test management unit through a wired or wireless communication network (LAN, Wi-Fi, LTE 4G/5G), run the test program, and perform AI facial recognition/motion recognition/ Using sound recognition technology, the applicant can monitor auditory misconduct through facial recognition/motion recognition of the image of the applicant's face using the front camera (C) of the applicant's terminal, and sound recognition through the microphone and voice recognition module of the applicant's terminal. An artificial intelligence facial recognition module of a photo of the applicant's front face taken by the front camera (C) of the terminal, and a facial outline that constitutes the characteristic points of the face by recognizing facial behavior patterns taken by the front camera (C) of the candidate's terminal. It is equipped with a 5-point scale cheating prevention module for eyes 2/nose/ear 2, a voice recognition module that detects auditory cheating through voice recognition of the test taker, and is linked to a learning content server 100 equipped with a test management unit. A recording/recording program is installed on the test taker's terminal.
감독관 단말은 온라인 시험 또는 UBT 시험 시에, 시험 관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 복수의 응시자 단말의 얼굴 사진과 부정행위 정보를 수신받고, 이를 확인하여 시험관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 부정행위 방지 알람 또는 메시지를 전송한다.During an online test or UBT test, the proctor terminal receives facial photos and cheating information of a plurality of test taker terminals through the learning content server 100 equipped with a test management department, and confirms them, and the learning content server equipped with a test management department An anti-cheating alarm or message is sent to the candidate's terminal through (100).
사용자 단말의 안면인식 모듈에 사용된 AI 기반 안면윤곽선 인식 기술은 posenet 알고리즘(machine learning model which allows for real-time face pose estimation)을 사용한다.The AI-based facial contour recognition technology used in the facial recognition module of the user terminal uses the posenet algorithm (machine learning model which allows for real-time face pose estimation).
실시예에서는, 온라인 학습/온라인 시험 또는 UBT 시험 시에, 사용자 단말은 태블릿 PC를 사용하였다.In the embodiment, during online learning/online testing or UBT testing, a tablet PC was used as the user terminal.
응시자 단말(300,310,311)은 학습자 얼굴 영상의 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점 5점 척도 안면인식 모듈이 구비된다. The test taker terminals (300, 310, and 311) are equipped with a facial recognition module with a 5-point scale of face outline of the learner's face image and eye2/nose/ear2 facial features.
추가적으로, 응시자 단말은 주관식 시험 문항을 위해 스타일러스 펜의 필기체를 인식하여 문자로 변환하여 필기체 문자를 인식하는 터치 센서와 디스플레이를 구비하는 응시자 단말의 필기체 인식부를 더 포함한다. Additionally, the test taker terminal further includes a handwriting recognition unit of the test taker terminal having a display and a touch sensor that recognizes the handwriting of a stylus pen and converts it into characters for subjective test questions.
응시자 단말(300,310,311)은 온라인 학습/온라인 시험 시에, 상기 안면인식 모듈에 사용된 AI 기반 안면윤곽선 인식 기술은 posenet 알고리즘을 사용한다. Candidate terminals (300, 310, 311) use the posenet algorithm for AI-based facial outline recognition technology used in the facial recognition module during online learning/online testing.
온라인 시험 또는 UBT 시험 시에, 상기 눈2/코/귀2 얼굴의 특징점 5점 척도 안면인식 모듈은 응시자 단말의 정면 카메라로 실시간으로 촬영된 얼굴 영상의 관심영역(ROI)을 검출하여 코의 정점을 기준으로 가로x세로 표준 크기로 크기 보정/회전/각도 보정을 통해 생성된 표준 크기의 정면 얼굴 사진에 대하여 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고, 얼굴 행동 패턴을 인식하여 응시자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴특징점들을 추출하며, 특징 추출과 분류를 통해 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 온라인 시험 또는 UBT 시험 서버의 얼굴사진 DB의 사진와 비교하여 대리 시험 여부를 확인하며, 온라인 시험 또는 UBT 시험시에 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 부정 행위와 관련된 얼굴의 이상 행동 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 시험 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 부정행위를 방지하도록 응시자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 시각적인 부정행위를 판단하여 시각적인 부정행위 이미지 또는 영상 데이터를 상기 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하고, 상기 시험 관리부를 구비하는 학습 콘텐츠 서버(100)에 연동된 감독관 단말(200)이 확인 후 상기 시험관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 경고 메시지 또는 알람을 발생한다. During an online test or UBT test, the eye2/nose/ear2 facial feature point 5-point scale facial recognition module detects the region of interest (ROI) of the face image captured in real time with the front camera of the candidate's terminal and identifies the vertex of the nose. Based on this standard size, width The outline and the facial feature points of Eye2/Nose/Ear2 are extracted, and through feature extraction and classification, the facial feature points of Eye2/Nose/Ear2 are compared to the center point (pupil) of the left/right ear and left/right eye, respectively. Calculate the Euclidean distance (d) and similarity, check whether a proxy test is performed by comparing it with a photo in the face photo database of the online test or UBT test server, and if the eye/nose 3 points are positive during the online test or UBT test. It detects head movement to the right/left depending on whether it approaches the two end ears, and detects abnormal facial behavior patterns related to cheating. If the facial outline is not recognized during face recognition, it deviates by a certain angle from the test screen. (If the distance between the eyes and ears or the distance in the corresponding direction of the nose and ears exceeds a certain standard depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at either end), the images are taken with the camera of the test taker's terminal to prevent cheating. By recognizing facial behavior patterns, the distance between the right eye and right ear and the distance between the left eye and left ear vary depending on the angle at which the front face is turned left and right, so visual cheating is judged and visual cheating images or video data are sent to the test management department. is transmitted to the learning content server 100 having the test management unit, and after confirmation by the proctor terminal 200 linked to the learning content server 100 having the test management unit, it is sent to the learning content server 100 having the test management unit. A warning message or alarm is generated on the candidate's terminal.
(실시예)(Example)
Posenet 알고리즘 모델을 사용하여 태블릿 PC의 Android에서 사람의 얼굴의 포즈 추정을 위해 TensorFlow를 사용하였다. 참고로, Posenet 알고리즘은 행위 인식을 위해 사람의 얼굴과 몸체와 팔과 다리의 위치 주요 인체의 부위의 위치를 감지하여 이미지나 동영상으로부터 사람의 포즈(pose)를 추정하는 비전 모델이다. 얼굴 인식 시에, TensorFlow Lite는 응시자 단말의 정면 카메라를 활용하여 얼굴 인식 시에 실시간으로 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 식별하고, 얼굴의 안면안곽선 포즈 추정 모델을 구현하였다.TensorFlow was used to estimate the pose of a human face on Android on a tablet PC using the Posenet algorithm model. For reference, the Posenet algorithm is a vision model that estimates a person's pose from an image or video by detecting the location of the person's face, body, arms, legs, and major body parts for action recognition. When recognizing a face, TensorFlow Lite uses the front camera of the test taker's terminal to identify the facial outline and facial feature points of eyes 2, nose, and ears 2 in real time, and creates a facial outline pose estimation model. Implemented.
인공지능 안면인식 모듈에 사용된 posenet 알고리즘은 좌측 눈(leftEye), 우측 눈(rightEye), 코(nose), 왼쪽 귀(leftEar), 오른쪽 귀(rightEar)의 5점 척도 부정행위 방지 모듈을 사용하여 구현하였으며, The posenet algorithm used in the artificial intelligence facial recognition module uses a 5-point scale fraud prevention module for left eye (leftEye), right eye (rightEye), nose, left ear (leftEar), and right ear (rightEar). Implemented,
leftEar의 x,y좌표와 rightEar의 x,y좌표를 구한 후 이를 기반으로 원의 직경(diameter)을 구하고 ellipse( )로 천사 고리를 만들 수 있다. diameter는 피타고라스 정리를 굳이 쓰지 않아도 p5js에서 dist( )로 쉽게 구할 수 있다.After finding the x,y coordinates of leftEar and the x,y coordinates of rightEar, you can find the diameter of the circle based on this and create an angel ring with ellipse(). The diameter can be easily obtained using dist() in p5js without having to use the Pythagorean theorem.
<ml5js 및 웹캠 연결하기><Connecting ml5js and webcam>
<script src="https://unpkg.com/ml5@0.3.1/dist/ml5.min.js"></script><script src="https://unpkg.com/ml5@0.3.1/dist/ml5.min.js"></script>
let video;let video;
let poseNet;let poseNet;
function setup( ) {function setup() {
createCanvas(400, 400); createCanvas(400, 400);
video = createCapture(VIDEO); video = createCapture(VIDEO);
//비디오가 2번 안나오게 해주는 용도 //Use to prevent the video from appearing twice
video.hide( ); video.hide();
poseNet = ml5.poseNet(video,modelLoaded); poseNet = ml5.poseNet(video,modelLoaded);
poseNet.on('pose',gotPoses); poseNet.on('pose',gotPoses);
console.log(ml5); console.log(ml5);
}}
// 포즈 관련 콜백들이 들어감// Pose-related callbacks are entered
function gotPoses(poses) { function gotPoses(poses) {
}}
// 로딩이 잘됐는지 확인하는 용도// To check if loading was successful
function modelLoaded( ) {function modelLoaded() {
console.log('Model Loaded'); console.log('Model Loaded');
}}
function draw( ) {function draw() {
//0,0 위치에 웹캠을 그려준다. //Draw the webcam at position 0,0.
image(video,0,0); image(video,0,0);
}}
응시자 단말의 전면 카메라 얼굴 영상으로부터 실시간으로 얼굴 영역을 추출하고, 코의 꼭지점을 기준으로 표준 크기로 크기 보정/회전/각도 보정을 통해 정면 얼굴 사진의 표준 크기로 맞추며, 시험 서버의 기 저장된 표준 크기의 얼굴 사진 DB의 학습 데이터와 비교 -> 얼굴 사진의 학습 모델 -> 얼굴의 윤곽선과 눈2/코/귀2의 특징점들을 추출하고 분류하며, 얼굴 인식 데이터의 얼굴의 윤곽선, 눈2/코/귀2 얼굴의 특징점들의 그룹 clustering(클러스터의 중심 k-means 알고리즘) density estimation하며, 얼굴의 특징점들의 거리(유클리디안 거리)와 유사도(similarity)를 계산하여 온라인 시험 또는 UBT 시험 서버의 얼굴 사진 DB에 저장된 표준 크기의 응시자의 정면 얼굴 사진의 얼굴 특징점들의 거리(d)와 유사도(similarity)를 비교하여 응시자 사진의 본인 여부를 확인하여 대리 시험이 방지되며, 온라인 시험 또는 UBT 시험 시에 시각적인 부정행위를 판단하게 된다. The face area is extracted in real time from the front camera face image of the candidate's terminal, adjusted to the standard size of the frontal face photo through size correction/rotation/angle correction based on the vertex of the nose, and the standard size already stored in the test server. Compare with the learning data of the face photo DB -> Learning model of the face photo -> Extract and classify the facial outline and feature points of eyes 2/nose/ear 2, and extract and classify the face outline, eyes 2/nose/ of the face recognition data. Group clustering (cluster center k-means algorithm) of facial feature points is density estimated, and the distance (Euclidean distance) and similarity of facial feature points are calculated for online testing or face photo database on the UBT test server. Proxy testing is prevented by comparing the distance (d) and similarity of facial feature points of a standard-size frontal face photo of the applicant stored in the test to determine whether the applicant is the applicant, and visual fraud is prevented during online or UBT tests. actions are judged.
예를들면, 응시자 단말(태블릿 PC)의 시험 화면으로 응시자 단말의 전면 카메라로 촬영되는 얼굴이 향하는 방향이 바뀌거나 응시자가 일정 각도로 얼굴을 돌리면 얼굴 사진의 눈2/코/귀2와 윤곽선의 얼굴의 특징점들이 인식이 안되거나 사용자의 얼굴과 스마트폰의 유효 거리(20~30cm)내에서 학습 콘텐츠 또는 시험 프로그램을 향하는 각도가 달라지게 되면, 주의집중 학습을 안하거나 시험 시에 부정행위로 인식하며, 부정행위 감지 결과를 온라인 시험 또는 UBT 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하고, 이를 감독관 단말(200)로 전송하여 감독관이 확인 후 시험관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 알람을 발생하거나 경고 메시지를 전송하여 해당 응시자가 부정행위를 방지하게 한다. For example, if the direction of the face captured by the front camera of the test taker's terminal (tablet PC) changes or the test taker turns the face at a certain angle, the eyes 2/nose/ears 2 and the outline of the face photo are displayed. If the facial features are not recognized or the angle toward the learning content or test program changes within the effective distance (20 to 30 cm) between the user's face and the smartphone, it is recognized as failure to focus on learning or cheating during the test. The cheating detection result is transmitted to the learning content server 100 having an online test or UBT test management unit, and is transmitted to the proctor terminal 200 to be confirmed by the proctor and then sent to the learning content server 100 having a test management unit. It generates an alarm or sends a warning message to the test taker's terminal to prevent the test taker from cheating.
또한, [텍스트 A] 데이터 참조 미리 정의된 응시자 프로그램에서 설정된 경고 임계치가 0이 되는 순간 서버 연결 없이 응시자에게 경고 메시지를 표시하고, 감독관/부정행위 검출 서버/기타 시험 관리 서버로 역 전송할 수 있고, 또는 시험 종료 후 해당 raw data의 후처리를 위해 부정행위 검출 서버/기타 시험 관리 서버로 전송한다.In addition, [Text A] data reference, the moment the warning threshold set in the predefined test taker program becomes 0, a warning message can be displayed to the test taker without a server connection and transmitted back to the proctor/cheating detection server/other test management server; Or, after the test is over, the raw data is sent to the cheating detection server/other test management server for post-processing.
또한, 응시자 단말은 안면 인식 모듈, 눈2/코/귀2 얼굴의 특징점 5점 척도 부정행위 방지 모듈, 및 상기 부정행위 방지 모듈은 응시자의 시각적인 부정행위를 방지하기 위해 응시자의 말소리를 인식하는 음성 인식 모듈을 더 구비하며, In addition, the candidate terminal includes a facial recognition module, a 5-point scale for eye 2/nose/ear 2 facial features, a cheating prevention module, and the cheating prevention module recognizes the candidate's speech sounds to prevent visual cheating by the test taker. Further equipped with a voice recognition module,
온라인 학습, 온라인 시험 또는 UBT 시험 시에, 음성 인식 모듈은 응시자 단말의 마이크를 통해 입력된 부정행위와 관련된 응시자의 말소리가 들리는 경우, 음성인식하고 이를 즉시 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하여 저장하며, 이를 감독관 단말(200)로 부정행위 알림을 전송하여 감독관이 확인 후 학습 콘텐츠 서버를 통해 해당 응시자 단말로 알람을 발생하거나 경고 메시지를 전송하며, 부정행위를 방지하게 한다. 또는, 눈과 귀의 거리, 코와 귀의 거리의 표준 크기의 정면 얼굴 사진의 미리 정의된 거리의 임계치를 참조하여 서버 명령 없이 응시자 프로그램 자체에서 직접 해당 학습자/응시자 단말로 알람 또는 경고 메시지를 표시하고, 부정행위를 정보를 시험 서버와 감독관 단말로 전송한다. During online learning, online testing, or UBT testing, when the voice recognition module hears the candidate's speech related to cheating input through the microphone of the candidate's terminal, it recognizes the voice and immediately connects the learning content server (100) equipped with a test management unit. It is transmitted and stored, and a cheating notification is sent to the supervisor terminal 200. After the supervisor confirms it, an alarm or a warning message is sent to the candidate's terminal through the learning content server to prevent cheating. Alternatively, display an alarm or warning message to the learner/candidate terminal directly from the test taker program itself without a server command, referring to the predefined distance threshold of the standard size frontal face photo of eye-to-ear distance and nose-to-ear distance; Information about cheating is transmitted to the test server and proctor terminal.
도 11은 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법을 나타낸 순서도이다. Figure 11 is a flowchart showing a tablet PC, smartphone, and PC-based attention learning method using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.
본 발명의 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법은 (a) 학습자 정보와 표준 크기의 정면 얼굴 사진을 학습 콘텐츠 서버로 등록받아 저장하는 단계; (b) 상기 학습 콘텐츠 서버가 사용자 정보와 표준 크기의 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계; (c) 교육 콘텐츠 viewer와 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상의 정면 얼굴 인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버로 수신받아 표준 크기의 크기의 보정/회전/각도 보정을 통해 표준 크기의 정면 얼굴 사진을 생성하고 서버의 데이터베이스에 기 등록된 학습자 정보와 표준 크기의 정면 얼굴 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계; (d) 상기 학습 콘텐츠 서버로부터 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및 (e) 상기 학습 콘텐츠 서버는 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상을 분석하여 사용자 단말의 화면을 바라보는 시선이 일정 각도로 벗어난 경우 또는 학습자의 사용자 단말에서 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계를 포함하고, The present invention's tablet PC, smartphone, and PC-based attention learning method using facial contour recognition artificial intelligence in non-face-to-face learning based on a web browser is (a) registering learner information and a standard-sized frontal face photo as a learning content server; saving; (b) the learning content server issuing a QR code corresponding to user information and a standard-sized frontal face photo; (c) A user terminal equipped with an educational content viewer and a facial recognition module uses a frontal face recognition algorithm of the frontal camera image to receive the recognition result of the frontal face photo from the camera to the learning content server and correct/resize it to a standard size. Creating a standard-size frontal face photo through rotation/angle correction and comparing the learner information already registered in the server's database with the standard-size frontal face photo and facial feature points to confirm the learner's identity; (d) providing learning content from the learning content server to a user terminal of a pre-registered member; and (e) the learning content server analyzes the online learner's face image detected by the camera on each learner's user terminal, and when the gaze looking at the screen of the user terminal deviates at a certain angle or the learner's voice is heard on the learner's user terminal When recognized, it includes a step of generating a warning message or alarm to the learner's user terminal to enable focused learning,
상기 방법은, 비대면 온라인 학습에서, 상기 사용자 단말에 설치된 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며, 강사의 단말은 교육 콘텐츠 viewer를 사용하여 상기 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하는 단계를 더 포함하며,In the method, in non-face-to-face online learning, the educational content viewer installed on the user terminal is provided with a VOD media player, a chat screen, and an online learning memo space, and the instructor's terminal uses the educational content viewer to use the learning content server ( 100) further comprising transmitting and receiving question and answer chat data to a plurality of learner terminals in a 1:N manner,
상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하며, 상기 사용자 단말은 학습자의 음성을 마이크로부터 인식하는 STT 기술을 사용하는 음성인식 모듈을 더 포함하며, The user terminal includes a VOD media player that plays non-face-to-face lecture learning content; A chat module that transmits and receives chat data between instructors and learners; A facial recognition module that recognizes the facial behavior pattern of the front camera image of the user terminal and recognizes the facial outline and facial feature points on a 5-point scale of eyes 2 / nose / ears 2; and If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at either end or the learner's voice is deviated from the screen by a certain angle or more. When recognized, it includes a learner's alarm generator that generates an alarm or outputs a warning message to the user terminal to enable focused learning, and the user terminal is a voice recognition module that uses STT technology to recognize the learner's voice from a microphone. It further includes,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용한다. The facial recognition module is an AI-based facial outline recognition technology that uses the posenet algorithm.
상기 학습 콘텐츠 서버(100)는 비대면 온라인 학습에서, 시간과 장소에 상관없이, 온라인 학습 시에 강사는 학습 콘텐츠를 제공하고 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공하고, The learning content server 100 provides learning content during non-face-to-face online learning, regardless of time and place, and underlines or texts the online learning memo space (shared workspace) of the educational content viewer. , send/receive files with report/learning files attached, and send/receive notes to the instructor's terminal (supervisor terminal) and multiple learner terminals according to the instructor's floor control through drawings, photos, and voice recordings. provide,
비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모 쓰기가 표시된다. During a non-face-to-face lecture, the instructor's terminal (supervisor's terminal) writes letters/graphics/memos in the shared workspace of the educational content viewer with multiple learner terminals in a 1:N manner through the learning content server 100. Write is displayed.
상기 학습 콘텐츠 서버(100)는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공한다. The learning content server 100 provides a function to recognize a QR code as a recognition code when using a smartphone.
상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되며, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면과 온라인 학습 메모 공간을 구비한다. The user terminal uses any one of a tablet PC, a smartphone, and a PC equipped with a front-facing camera, and the educational content viewer downloaded from the learning content server is installed, and the educational content viewer chats with a VOD media player. It is equipped with a screen and space for online learning notes.
상기 사용자 단말은 The user terminal is
비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; VOD media player that plays non-face-to-face lecture learning content;
강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 및 A chat module that transmits and receives chat data between instructors and learners; and
상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점들을 인식하는 안면인식 모듈; A facial recognition module that recognizes the facial behavior pattern of the front camera image of the user terminal and recognizes the facial outline and eye2/nose/ear2 facial feature points;
사용자 단말의 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함한다. If the user terminal's screen deviates by a certain angle or more (depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at either end, the distance between the eyes and ears or the distance in that direction exceeds a certain standard value), an alarm is triggered. It includes a learner alarm generator that generates an alarm or outputs a warning message.
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용한다. The facial recognition module is an AI-based facial outline recognition technology that uses the posenet algorithm.
상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/회전/각도 보정된 표준 크기의 학습자의 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 표준 크기의 정면 얼굴 사진의 얼굴특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 사용자 딘말의 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력한다. The facial recognition module uses a frontal face recognition algorithm to extract facial objects from standard-size photos of the learner's face that have been size-corrected/rotated/angle-corrected during non-face-to-face online learning, and recognizes facial behavior patterns to identify the learner's face. Extract the contour and the feature points of Eye2/Nose/Ear2, and Euclidean distance (d) between the center point (pupil) of the left/right ear and left/right eye of the facial feature points of Eye2/Nose/Ear2, respectively. It calculates the similarity, compares it with the facial specific points of the user's standard-size frontal face photo in the face photo database, checks for deviation of gaze, and determines whether the 3 points of the eyes/nose are close to the 2 points of the ears at both ends. Accordingly, head movement to the right/left is detected and facial patterns related to gaze deviation are detected. When facial outlines are not recognized during face recognition, or when the user's voice deviates from the screen by a certain angle or more (eyes/nose 3 points at both ends) (Depending on whether the eye-to-ear distance or nose-to-ear distance in the corresponding direction exceeds a certain standard depending on whether the two ears are close to each other), facial behavior patterns captured by the camera of the user terminal are recognized and the angle at which the front face is turned left and right is adjusted. Since the distance between the right eye and the right ear and the distance between the left eye and the left ear vary accordingly, an alarm is generated or a warning message is output to the corresponding user terminal.
상기 학습 콘텐츠 서버(100)는 The learning content server 100
WWW 서버; WWW server;
상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부; a control unit that controls providing online learning content to the user terminal;
상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부; A member registration unit connected to the control unit and registering member information and storing and managing ID/Passwd;
상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부; A user authentication unit connected to the control unit and authenticating using QR code/Passwd, ID/Passwd, or personal certificate;
상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부; a QR code management unit connected to the control unit and issuing and managing QR codes corresponding to user information;
상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부; a learning content provider connected to the control unit and providing the online learning content to the user terminal;
상기 제어부에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버; a chat server connected to the control unit and transmitting and receiving chat data between instructors and learners;
상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기로 크기 보정/각도 보정/회전을 통해 표준 크기의 정면 얼굴 사진을 생성하고, 서버의 데이터베이스에 기 저장된 사용자 정보와 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부; It is connected to the control unit, receives a photo of the candidate taken by the camera from the user terminal, creates a standard size frontal face photo through size correction/angle correction/rotation, and combines the user information previously stored in the server's database with the front face photo. A supervisor confirmation unit that verifies online learning qualifications by comparing face photos and verifying them on the supervisor terminal;
상기 제어부에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴 특징점을 인식하고 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및A face recognition unit connected to the control unit, which recognizes the outline of the learner's face and facial feature points of eyes 2/nose/ear 2 using a facial recognition module in the user terminal, and receives the face recognition result from the user terminal; and
응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB를 포함한다. Test information DB that stores the test papers, written answers, and scoring results of test takers' terminals; It includes a candidate DB and a face DB that store candidate information and standard-sized frontal face photos.
추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111)를 더 포함한다. Additionally, the learning content server 100 is connected to the control unit 102 and further includes a chat server 111 that transmits and receives chat data between the instructor and the learner.
추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 리포트 파일 첨부가 가능한 쪽지 데이터를 송수신하는 쪽지 보내기/받기 제공부를 더 포함한다. Additionally, the learning content server 100 is connected to the control unit 102 and further includes a message sending/receiving service unit that transmits and receives message data to which report files of instructors and learners can be attached.
추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 학습 데이터 파일을 송수신하는 FTP 서버를 더 포함한다.Additionally, the learning content server 100 is connected to the control unit 102 and further includes an FTP server for transmitting and receiving learning data files.
비대면 온라인 학습에서, 강사는 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. In non-face-to-face online learning, the instructor's terminal (supervisor terminal) transmits and receives question and answer chat data to a plurality of learner terminals in a 1:N manner through the learning content server 100.
비대면 온라인 학습에서, 시간과 장소에 상관없이, 학습 콘텐츠 서버(100)를 통해 온라인 학습 시에 강사는 학습 콘텐츠를 제공하고 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공하며,In non-face-to-face online learning, regardless of time and place, during online learning through the learning content server 100, the instructor provides learning content and underlines or writes text in the online learning memo space (shared workspace) of the educational content viewer. , send/receive files with report/learning files attached, and send/receive notes to the instructor's terminal (supervisor terminal) and multiple learner terminals according to the instructor's floor control through drawings, photos, and voice recordings. Provides,
비대면 온라인 학습에서, 비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 동시에 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모 쓰기가 표시된다. In non-face-to-face online learning, during non-face-to-face lectures, the instructor's terminal (supervisor's terminal) shares the shared workspace of the educational content viewer with multiple learner terminals simultaneously in a 1:N manner through the learning content server 100. Text/graphic handwriting/memo writing is displayed.
추가적으로, 온라인 시험 또는 UBT 시험 시에, 응시자 정보들과 응시자의 현장의 정면 얼굴 사진, 감독관 정보를 시험 관리부를 구비하는 학습 콘텐츠 서버의 데이터베이스에 저장하여 관리하며, 온라인 시험 또는 UBT 시험 시에 일정 시험시간 동안 각각의 응시자 단말에 시험지 작성 답안을 저장한 후, 시험 종료시 응시자 단말로부터 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송받아 저장하며, 응시자들의 시험지 작성 답안의 채점 결과를 응시자 단말로 제공하는 단계를 더 포함한다. Additionally, when conducting an online test or UBT test, the candidate information, the candidate's frontal face photo, and supervisor information are stored and managed in the database of the learning content server equipped with the test management department, and when the online test or UBT test is conducted, a certain test After storing the answers written on the test paper on each test taker's terminal for a period of time, at the end of the test, they are transmitted and stored from the test taker's terminal to the learning content server 100 equipped with the test management department, and the scoring results of the answers written on the test paper by the test takers are provided to the test taker's terminal. It further includes steps.
추가적으로, 온라인 및 UBT 시험은 2지/3지/4지/5지 선다 객관식 시험 및 응시자 단말의 필기체 인식부를 사용하여 스타일러스 펜의 필기체를 인식하여 문자들로 변환하여 필기체 문자를 인식하는 주관식 시험을 포함한다. Additionally, online and UBT tests include a 2-choice/3-choice/4-choice/5-choice multiple-choice test and a subjective test that uses the handwriting recognition unit of the candidate's terminal to recognize the cursive handwriting of a stylus pen and convert it into characters to recognize handwritten characters. Includes.
또한, 상기 방법은 사용자 단말의 카메라 영상의 사용자의 얼굴 움직임을 [텍스트 A]와 같이 프레임 단위로 저장하면서 정의된 일정 프레임 또는 시간 또는 횟수를 차감하다가 0이 되는 시점에 학습자/응시자 단말로 경고 메시지를 표출/노출하거나, 감독관 기기 또는 부정행위 검출 이미지를 서버로 보낸 후, 경고 트리거 횟수를 초기화하여 다음 움직임부터 다시 차감을 시작하는 단계를 포함한다.In addition, the method stores the user's facial movements in the camera image of the user terminal in frame units as shown in [Text A], subtracts a defined frame, time, or number of times, and sends a warning message to the learner/candidate terminal when it reaches 0. It includes the step of displaying/exposing or sending a supervisory device or fraud detection image to the server, then resetting the number of warning triggers and starting the deduction again from the next move.
[텍스트 A] - 응시자 단말의 태블릿 PC에 저장되는 얼굴의 행동 패턴 정보 (예시. 서울대학교 치과대학 학습자의 얼굴 패턴 데이터): 일자, 시간, 움직인 각도/거리 및 위상(좌우) 등의 정보를 매 프레임 또는 시간당 저장하고, 이를 바탕으로 사용자 단말로 알람 또는 경고 메시지를 출력하고, 감독관 확인 및 응시자 얼굴인식 부정행위 검출 - 학습 콘텐츠 서버의 시스템에 해당 RAW Data를 전송하여 후처리 한다.[Text A] - Facial behavior pattern information stored on the tablet PC of the test taker's terminal (e.g. facial pattern data of Seoul National University Dental School learners): Information such as date, time, angle/distance of movement, and phase (left and right) It saves every frame or hour, outputs an alarm or warning message to the user terminal based on this, confirms the supervisor and detects facial recognition fraud of the test taker - sends the relevant RAW data to the learning content server system for post-processing.
200519094106,0.02,R200519094106,0.02,R
200519094111,0.03,R200519094111,0.03,R
200519094120,0.42,R200519094120,0.42,R
200519094148,0.01,R200519094148,0.01,R
200519094150,0.21,R200519094150,0.21,R
200519094155,0.22,R200519094155,0.22,R
200519094158,0.09,R200519094158,0.09,R
200519094209,0.11,L200519094209,0.11,L
200519094214,0.09,R200519094214,0.09,R
200519094216,0.10,R200519094216,0.10,R
200519094219,0.09,R200519094219,0.09,R
200519094224,0.01,L200519094224,0.01,L
본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 온라인 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중 교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 온라인 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습/시험을 제공한다.The attention learning system and method using artificial intelligence in non-face-to-face learning based on a web browser of the present invention includes an educational content viewer of a user terminal in non-face-to-face online learning having a media player and a facial outline recognition module, and a learning content server. Facial outline recognition on a 5-point scale of face contour and facial features of eyes2/nose/ears2 so that you can focus your attention on non-face-to-face lecture learning content focused on the front camera of the user terminal linked to (ubcloud server). If the gaze is diverted at a certain angle, an alarm/warning message is generated on the user's terminal using sound and messaging technology, and it provides attention learning/testing using web browser-based ubcloud artificial intelligence in non-face-to-face online learning. .
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되고, 컴퓨터 판독 가능 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조를 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 기록 매체는 서버 스토리지, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 저장 매체에 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예는 컴파일러에 의해 만들어지는 것과, 기계어 코드 뿐만 아니라 인터프리터를 사용하여 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로써 작동하도록 구성될 수 있다.Embodiments according to the present invention are implemented in the form of program instructions that can be executed through various computer means and can be recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, and data structures alone or in combination. Computer-readable recording media include server storage, hard disks, magnetic media such as floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. Hardware devices configured to store and execute program instructions in storage media such as magneto-optical media, ROM, RAM, flash memory, etc. may be included. Examples of program instructions may include those produced by compilers, machine language code, as well as high-level language code that can be executed by a computer using an interpreter. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention.
이상에서 설명한 바와 같이, 본 발명의 방법은 프로그램으로 구현되어 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 형태로 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 저장될 수 있다. As described above, the method of the present invention is implemented as a program and can be stored on a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) in a form that can be read using computer software. ) can be stored in .
본 발명의 구체적인 실시예를 참조하여 설명하였지만, 본 발명은 상기와 같이 기술적 사상을 예시하기 위해 구체적인 실시 예와 동일한 구성 및 작용에만 한정되지 않고, 본 발명의 기술적 사상과 범위를 벗어나지 않는 한도 내에서 다양하게 변형하여 실시될 수 있으며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.Although the present invention has been described with reference to specific embodiments of the present invention, the present invention is not limited to the same configuration and operation as the specific embodiments to illustrate the technical idea as described above, and is not limited to the technical idea and scope of the present invention. It can be implemented with various modifications, and the scope of the present invention should be determined by the claims described later.
100: 학습 콘텐츠 서버
101: WWW 서버
102: 제어부
103: 회원 등록부
104: 사용자 인증부
105: 학습 콘텐츠 제공부
106: QR 코드 제공부
107: 얼굴인식부(안면윤곽선 인식)
109: 시험 관리부
111: 채팅 서버
300, 310, 311: 사용자 단말 100: Learning content server 101: WWW server
102: Control unit 103: Member register
104: User authentication unit 105: Learning content provision unit
106: QR code provision unit 107: Face recognition unit (facial outline recognition)
109: Test management department 111: Chat server
300, 310, 311: User terminal
Claims (12)
상기 학습 콘텐츠 서버에 접속하여 교육 콘텐츠 viewer를 구동하며, 비대면 온라인 학습에서 사용자 단말의 정면 카메라 영상 데이터의 AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 상기 교육 콘텐츠 viewer가 설치된 사용자 단말; 및 강사의 단말을 포함하고,
상기 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하며,
상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하며, 상기 사용자 단말은 학습자의 음성을 인식하는 음성인식 모듈을 더 포함하며,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며,
상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며,
비대면 온라인 학습에서, 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.Learning content server that provides non-face-to-face online lecture learning content;
Connect to the learning content server and run the educational content viewer, and in non-face-to-face online learning, use AI facial recognition/motion recognition sound reproduction technology of the front camera image data of the user terminal to provide artificial intelligence attention-focused learning of the learning content. A user terminal with a content viewer installed; and an instructor's terminal,
The instructor's terminal transmits and receives question and answer chat data to a plurality of learner terminals in a 1:N manner through the learning content server,
The user terminal includes a VOD media player that plays non-face-to-face lecture learning content; A chat module that transmits and receives chat data between instructors and learners; A facial recognition module that recognizes facial behavior patterns in the front camera image of the user terminal and recognizes facial outlines and 5-point scales of facial features of eyes2/nose/ears2; and If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at either end or the learner's voice is deviated from the screen by a certain angle or more. When recognized, it includes a learner's alarm generator that generates an alarm or outputs a warning message to the learner's user terminal to enable focused learning, and the user terminal further includes a voice recognition module that recognizes the learner's voice,
The facial recognition module is an AI-based facial outline recognition technology that uses the posenet algorithm.
The educational content viewer is equipped with a VOD media player, a chat screen, and an online learning memo space,
In non-face-to-face online learning, the instructor's terminal transmits and receives question and answer chat data to a plurality of learner terminals in a 1:N manner through the learning content server. An attention learning system in non-face-to-face learning based on a web browser.
상기 학습 콘텐츠 서버는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.According to paragraph 1,
The learning content server is an attention learning system in web browser-based non-face-to-face learning that provides the function of recognizing a QR code as a recognition code when using a smartphone.
상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.According to paragraph 1,
The user terminal uses any one of a tablet PC, a smartphone, and a PC equipped with a front-facing camera, and the educational content viewer downloaded from the learning content server is installed to focus attention in web browser-based non-face-to-face learning. learning system.
상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/회전/각도 보정된 표준 크기의 학습자의 정면 얼굴 사진에 대하여 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.According to paragraph 1,
The facial recognition module uses a facial recognition algorithm to extract facial objects from a standard size corrected size/rotation/angle corrected frontal face photo of the learner during non-face-to-face online learning, and recognizes facial behavior patterns to identify the learner's face. Extract the outline and the facial feature points of Eye2/Nose/Ear2, and the Euclidean distance (pupil) of the facial feature points of Eye2/Nose/Ear2 with the center point (pupil) of the left/right ear and left/right eye, respectively ( Calculate the similarity with d), check whether the gaze is deviated by comparing it with specific points of the user's face photo in the face photo DB, and depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at both ends, the right/right Detects head movement to the left and detects facial patterns related to gaze deviation. When recognizing a face, if the facial outline is not recognized or if it deviates from the screen by more than a certain angle (the 3 points of the eyes/nose are close to the 2 points of the ears at both ends) (If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard value), facial behavior patterns captured by the camera of the user terminal are recognized, and the right eye and right ear are detected according to the angle at which the front face is turned to the left and right. An attention learning system in web browser-based non-face-to-face learning that generates an alarm or outputs a warning message to the user's terminal because the distance and the distance between the left eye and left ear are different.
상기 학습 콘텐츠 서버는
WWW 서버;
상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부;
상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부;
상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부;
상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부;
상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부;
상기 제어부에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버;
상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기로 크기 보정/회전/각도 보정을 통해 정면 얼굴 사진으로 변환하고 서버의 데이터베이스에 기 저장된 사용자 정보와 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부;
상기 제어부에 연결되며, 상기 사용자 단말의 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하고, 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및
응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB;
를 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.According to paragraph 1,
The learning content server is
WWW server;
a control unit that controls providing online learning content to the user terminal;
A member registration unit connected to the control unit and registering member information and storing and managing ID/Passwd;
A user authentication unit connected to the control unit and authenticating using QR code/Passwd, ID/Passwd, or personal certificate;
a learning content provider connected to the control unit and providing the online learning content to the user terminal;
a QR code management unit connected to the control unit and issuing and managing QR codes corresponding to user information;
a chat server connected to the control unit and transmitting and receiving chat data between instructors and learners;
It is connected to the control unit, receives a photo of the candidate taken by the camera from the user terminal, converts it into a frontal face photo through size correction/rotation/angle correction to a standard size, and compares the frontal face photo with user information already stored in the server's database. A supervisor confirmation unit where the supervisor checks online learning qualifications on the supervisor terminal;
A face recognition unit connected to the control unit, recognizes the outline of the learner's face and facial feature points of eyes2/nose/ears2 using the facial recognition module of the user terminal, and receives the face recognition result from the user terminal; and
Test information DB that stores the test papers, written answers, and scoring results of test takers'terminals; Candidate DB and face DB that store candidate information and standard-sized frontal face photos;
Attention learning system in non-face-to-face learning based on web browser including.
응시자 단말과 감독관 단말로 시험 프로그램(App)과 시험지를 제공하며, 응시자 정보들과 응시자의 현장 얼굴 사진, 감독관 정보를 관리하며, 온라인 시험 또는 UBT 시험시에 일정 시험 시간 이내에 각각의 응시자 단말에 시험지 작성 답안을 저장후 시험 종료시 시험관리부를 구비하는 상기 학습 콘텐츠 서버로 전송되며, 응시자들의 시험지 작성 답안, 채점 결과, 감독관 정보와 응시자 현황 정보를 저장하여 관리하는 시험 관리부를 더 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.According to clause 5,
The test program (App) and test papers are provided to the candidate's terminal and the proctor's terminal, and the candidate's information, on-site face photo, and proctor's information are managed, and the test sheet is sent to each candidate's terminal within a certain test time during an online test or UBT test. The written answers are stored and transmitted to the learning content server provided with the test management unit at the end of the test, and the web browser-based test management unit further includes a test management unit that stores and manages the test takers' written answers, scoring results, supervisor information, and test taker status information. Attention learning system in non-face-to-face learning.
(b) 상기 학습 콘텐츠 서버가 사용자 정보와 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계;
(c) 교육 콘텐츠 viewer와 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상의 정면 얼굴인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버로 수신받아 기 등록된 학습자 정보와 표준 크기의 정면 얼굴 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계;
(d) 상기 학습 콘텐츠 서버로부터 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및
(e) 상기 학습 콘텐츠 서버는 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상을 분석하여 시선이 일정 각도로 벗어난 경우 또는 학습자의 사용자 단말에서 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계를 포함하고,
비대면 온라인 학습에서, 상기 사용자 단말에 설치된 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며, 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하는 단계를 더 포함하며,
상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하며, 상기 사용자 단말은 학습자의 음성을 인식하는 음성인식 모듈을 더 포함하며,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.(a) a learning content server registering and storing learner information and a standard-sized frontal face photo from a user terminal;
(b) the learning content server issuing a QR code corresponding to user information and a frontal face photo;
(c) A user terminal equipped with an educational content viewer and a facial recognition module uses the front-facing face recognition algorithm of the front-facing camera image to receive the recognition result of the front-facing face photo from the camera to the learning content server, along with pre-registered learner information and standards. Comparing the size of the frontal face photo and the facial features to confirm the learner's identity;
(d) providing learning content from the learning content server to a user terminal of a pre-registered member; and
(e) The learning content server analyzes the online learner's face image detected by the camera on each learner's user terminal to enable focused learning when the gaze is off at a certain angle or when the learner's voice is recognized by the learner's user terminal. Includes a step of generating a warning message or alarm to the learner's user terminal,
In non-face-to-face online learning, the educational content viewer installed on the user terminal is equipped with a VOD media player, a chat screen, and an online learning memo space, and the instructor's terminal is connected to a plurality of learner terminals in a 1:N manner through the learning content server. It further includes the step of transmitting and receiving question and answer chat data,
The user terminal includes a VOD media player that plays non-face-to-face lecture learning content; A chat module that transmits and receives chat data between instructors and learners; A facial recognition module that recognizes the facial behavior pattern of the front camera image of the user terminal and recognizes the facial outline and facial feature points on a 5-point scale of eyes 2 / nose / ears 2; and If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at either end or the learner's voice is deviated from the screen by a certain angle or more. When recognized, it includes a learner's alarm generator that generates an alarm or outputs a warning message to the user terminal to enable attention-focused learning, and the user terminal further includes a voice recognition module that recognizes the learner's voice,
The facial recognition module is an AI-based facial outline recognition technology that uses the posenet algorithm and is an attention learning method in web browser-based non-face-to-face learning.
상기 학습 콘텐츠 서버는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공하는 단계를 더 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.In clause 7,
An attention learning method in web browser-based non-face-to-face learning, further comprising providing the learning content server with a function to recognize a QR code as a recognition code when using a smartphone.
상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.In clause 7,
The user terminal uses any one of a tablet PC, a smartphone, and a PC equipped with a front-facing camera, and the educational content viewer downloaded from the learning content server is installed to focus attention in web browser-based non-face-to-face learning. How to learn.
상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/회전/각도 보정된 표준 크기의 학습자의 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 정면 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말에서 알람을 발생하거나 또는 경고 메시지를 출력하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.In clause 7,
The facial recognition module uses a frontal face recognition algorithm to extract facial objects from standard-size photos of the learner's face that have been size-corrected/rotated/angle-corrected during non-face-to-face online learning, and recognizes facial behavior patterns to identify the learner's face. Extract the outline and the facial feature points of Eye2/Nose/Ear2, and the Euclidean distance (pupil) of the facial feature points of Eye2/Nose/Ear2 with the center point (pupil) of the left/right ear and left/right eye, respectively ( Calculate the similarity with d), check whether the gaze is deviated by comparing it with specific points of the user's frontal face photo in the face photo DB, and depending on whether the 3 points of the eyes/nose are close to the 2 points of the ears at both ends, the right / Detects head movement to the left and detects face patterns related to gaze deviation. If the facial outline is not recognized when recognizing a face, or if it deviates from the screen by more than a certain angle (the 3 points of the eyes/nose are close to the 2 points of the ears at both ends) (If the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard value) By recognizing the facial behavior pattern captured by the camera of the user terminal, the right eye and right eye are detected according to the angle at which the front face is turned to the left and right. An attention learning method in web browser-based non-face-to-face learning that generates an alarm or outputs a warning message on the user terminal because the distance between the ears and the left eye and left ear are different.
상기 학습 콘텐츠 서버는
WWW 서버;
상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부;
상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부;
상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부;
상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부;
상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부;
상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기로 크기 보정/회전/각도 보정을 통해 정면 얼굴 사진으로 변환하고 서버의 데이터베이스에 기 저장된 사용자 정보와 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부;
상기 제어부에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2 특징점들을 인식하고 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및
응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB;
를 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.In clause 7,
The learning content server is
WWW server;
a control unit that controls providing online learning content to the user terminal;
A member registration unit connected to the control unit and registering member information and storing and managing ID/Passwd;
A user authentication unit connected to the control unit and authenticating using QR code/Passwd, ID/Passwd, or personal certificate;
a learning content provider connected to the control unit and providing the online learning content to the user terminal;
a QR code management unit connected to the control unit and issuing and managing QR codes corresponding to user information;
It is connected to the control unit, receives a photo of the candidate taken by the camera from the user terminal, converts it into a frontal face photo through size correction/rotation/angle correction to a standard size, and compares the frontal face photo with user information already stored in the server's database. A supervisor confirmation unit where the supervisor checks online learning qualifications on the supervisor terminal;
A face recognition unit connected to the control unit and recognizing the outline of the learner's face and eye2/nose/ear2 feature points using a facial recognition module in the user terminal and receiving the face recognition result from the user terminal; and
Test information DB that stores the test papers, written answers, and scoring results of test takers'terminals; Candidate DB and face DB that store candidate information and standard-sized frontal face photos;
Attention learning method in web browser-based non-face-to-face learning including.
상기 학습 콘텐츠 서버가 응시자 정보들과 응시자의 현장 얼굴 사진, 감독관 정보를 시험 서버의 데이터베이스에 저장하여 관리하며, 온라인 시험 또는 UBT 시험 시에 일정 시험시간 동안 각각의 응시자 단말에 시험지 작성 답안을 저장후 시험 종료 시 응시자 단말로부터 시험관리부를 구비하는 상기 학습 콘텐츠 서버로 전송받아 저장하며, 응시자들의 시험지 작성 답안의 채점 결과를 응시자 단말로 제공하는 단계를 더 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.In clause 7,
The learning content server stores and manages the candidate information, the candidate's on-site face photo, and the supervisor information in the database of the test server, and during the online test or UBT test, the test paper and answers are stored on each test taker's terminal for a certain test time. Attention is focused in web browser-based non-face-to-face learning, which further includes the step of transmitting and storing the learning content from the test taker's terminal to the learning content server provided with the test management unit at the end of the test, and providing the scoring results of the answers written by the test takers to the test taker's terminal. How to learn.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230165959A KR20230169880A (en) | 2020-10-08 | 2023-11-24 | Cathexis learning system and method using AI in an untact learning based on Web browser |
KR1020240136134A KR20240150749A (en) | 2020-10-08 | 2024-10-07 | Cathexis learning system and method using AI in an untact learning based on Web browser |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200130062A KR20220046859A (en) | 2020-10-08 | 2020-10-08 | Cathexis learning system and method using AI in an untact learning based on Web browser |
KR1020230018387A KR20230030599A (en) | 2020-10-08 | 2023-02-11 | Cathexis learning system and method using AI in an untact learning based on Web browser |
KR1020230165959A KR20230169880A (en) | 2020-10-08 | 2023-11-24 | Cathexis learning system and method using AI in an untact learning based on Web browser |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230018387A Division KR20230030599A (en) | 2020-10-08 | 2023-02-11 | Cathexis learning system and method using AI in an untact learning based on Web browser |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020240136134A Division KR20240150749A (en) | 2020-10-08 | 2024-10-07 | Cathexis learning system and method using AI in an untact learning based on Web browser |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230169880A true KR20230169880A (en) | 2023-12-18 |
Family
ID=81211776
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200130062A KR20220046859A (en) | 2020-10-08 | 2020-10-08 | Cathexis learning system and method using AI in an untact learning based on Web browser |
KR1020230018387A KR20230030599A (en) | 2020-10-08 | 2023-02-11 | Cathexis learning system and method using AI in an untact learning based on Web browser |
KR1020230165959A KR20230169880A (en) | 2020-10-08 | 2023-11-24 | Cathexis learning system and method using AI in an untact learning based on Web browser |
KR1020240136134A KR20240150749A (en) | 2020-10-08 | 2024-10-07 | Cathexis learning system and method using AI in an untact learning based on Web browser |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200130062A KR20220046859A (en) | 2020-10-08 | 2020-10-08 | Cathexis learning system and method using AI in an untact learning based on Web browser |
KR1020230018387A KR20230030599A (en) | 2020-10-08 | 2023-02-11 | Cathexis learning system and method using AI in an untact learning based on Web browser |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020240136134A KR20240150749A (en) | 2020-10-08 | 2024-10-07 | Cathexis learning system and method using AI in an untact learning based on Web browser |
Country Status (1)
Country | Link |
---|---|
KR (4) | KR20220046859A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102612283B1 (en) * | 2022-11-15 | 2023-12-12 | 주식회사 화성 | Learning concentration analysis system based on eye tracking and method using the same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102103521B1 (en) | 2018-01-12 | 2020-04-28 | 상명대학교산학협력단 | Artificial intelligence deep-learning based video object recognition system and method |
-
2020
- 2020-10-08 KR KR1020200130062A patent/KR20220046859A/en not_active IP Right Cessation
-
2023
- 2023-02-11 KR KR1020230018387A patent/KR20230030599A/en not_active Application Discontinuation
- 2023-11-24 KR KR1020230165959A patent/KR20230169880A/en active Application Filing
-
2024
- 2024-10-07 KR KR1020240136134A patent/KR20240150749A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102103521B1 (en) | 2018-01-12 | 2020-04-28 | 상명대학교산학협력단 | Artificial intelligence deep-learning based video object recognition system and method |
Also Published As
Publication number | Publication date |
---|---|
KR20240150749A (en) | 2024-10-16 |
KR20230030599A (en) | 2023-03-06 |
KR20220046859A (en) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102593624B1 (en) | Online Test System using face contour recognition AI to prevent the cheating behaviour and method thereof | |
US10095850B2 (en) | User identity authentication techniques for on-line content or access | |
KR20240040683A (en) | Cathexis learning system and method using AI in an untact learning based on Web browser | |
WO2016172872A1 (en) | Method and device for verifying real human face, and computer program product | |
CN106599881A (en) | Student state determination method, device and system | |
KR102711511B1 (en) | Online Test System using face contour recognition AI to prevent the cheating behaviour by using a front camera of examinee terminal and an auxiliary camera and method thereof | |
KR102581415B1 (en) | UBT system using face contour recognition AI to prevent the cheating behaviour and method thereof | |
KR102615709B1 (en) | Online Test System using face contour recognition AI to prevent the cheating behavior by using a front camera of examinee terminal installed audible video recording program and an auxiliary camera and method thereof | |
KR20240150749A (en) | Cathexis learning system and method using AI in an untact learning based on Web browser | |
KR20230013236A (en) | Online Test System using face contour recognition AI to prevent the cheating behaviour by using speech recognition and method thereof | |
KR20230007250A (en) | UBT system using face contour recognition AI and method thereof | |
CN115132027A (en) | Smart programming learning system and learning method based on multimodal deep learning | |
Singh et al. | A cheating detection system in online examinations based on the analysis of eye-gaze and head-pose | |
Netinant et al. | Class Attendance System using Unimodal Face Recognition System based on Internet of Educational Things | |
Mothukuri et al. | Invigilated online assessment: Various ways to minimize unauthorized help | |
WO2015179428A1 (en) | User identity authentication techniques for on-line content or access | |
KR20240078489A (en) | Learning attention system and method by using face recognition supervisor technologies in ubiquitous based learning platform | |
KR20240077680A (en) | Blended learning system and method based on AI | |
KR20250017470A (en) | Blended learning system for improving a learning concentration level in 3D metaverse lecture room | |
US20230026929A1 (en) | Information processing apparatus, information processing method, and program | |
KR20240077679A (en) | Learning attention system and method by using voice recognition supervisor technologies in ubiquitous based learning platform | |
KR102577559B1 (en) | Apparatus for measuring concentration of learner in online education and method therefor | |
Gadkar et al. | Online Examination Auto-Proctoring System | |
Sakthivel et al. | Online Education Pedagogy Approach | |
Mane et al. | Virtual Surveillance Oversight System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20231124 Patent event code: PA01071R01D Filing date: 20230211 Application number text: 1020230018387 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231219 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20240529 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20231219 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
E601 | Decision to refuse application | ||
E801 | Decision on dismissal of amendment | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20240928 Comment text: Decision to Refuse Application Patent event code: PE06012S01D |
|
PE0801 | Dismissal of amendment |
Patent event code: PE08012E01D Comment text: Decision on Dismissal of Amendment Patent event date: 20240928 |
|
A107 | Divisional application of patent | ||
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20241007 Patent event code: PA01071R01D Filing date: 20230211 Application number text: 1020230018387 |