KR102545747B1 - Method and apparatus for determining degree of attention of user - Google Patents
Method and apparatus for determining degree of attention of user Download PDFInfo
- Publication number
- KR102545747B1 KR102545747B1 KR1020220064663A KR20220064663A KR102545747B1 KR 102545747 B1 KR102545747 B1 KR 102545747B1 KR 1020220064663 A KR1020220064663 A KR 1020220064663A KR 20220064663 A KR20220064663 A KR 20220064663A KR 102545747 B1 KR102545747 B1 KR 102545747B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- content
- target
- attention
- target content
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 48
- 239000000090 biomarker Substances 0.000 claims abstract description 140
- 230000004434 saccadic eye movement Effects 0.000 claims description 106
- 230000004424 eye movement Effects 0.000 claims description 38
- 230000008859 change Effects 0.000 claims description 10
- 238000007637 random forest analysis Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 8
- 238000007477 logistic regression Methods 0.000 claims description 8
- 238000012030 stroop test Methods 0.000 claims description 7
- 230000007704 transition Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 230000009491 memory guided saccade Effects 0.000 claims description 4
- 238000003066 decision tree Methods 0.000 claims description 3
- 230000009471 action Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 abstract description 8
- 238000012545 processing Methods 0.000 description 13
- 208000036864 Attention deficit/hyperactivity disease Diseases 0.000 description 11
- 208000015802 attention deficit-hyperactivity disease Diseases 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 230000001939 inductive effect Effects 0.000 description 6
- 230000004397 blinking Effects 0.000 description 4
- 238000013145 classification model Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 208000029726 Neurodevelopmental disease Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013524 data verification Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 208000013403 hyperactivity Diseases 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Developmental Disabilities (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Psychiatry (AREA)
- Molecular Biology (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
기술 분야는 사용자의 주의력 정도를 결정하는 기술에 관한 것으로, 특히 사용자에게 컨텐츠를 제공하고, 제공된 컨텐츠에 대한 사용자의 리액션에 기초하여 사용자의 주의력 정도를 결정하는 장치 및 방법에 관한 것이다.The technical field relates to technology for determining a user's attentional level, and more particularly, to an apparatus and method for providing content to a user and determining a user's attentional level based on a user's reaction to the provided content.
ADHD(attention deficit / hyperactivity disorder)는 부주의, 과잉행동, 충동성의 증상이 주로 나타나는 질환으로서, 아동청소년기의 부정적인 경험을 유도하는 가장 흔하고 심각한 신경발달장애에 해당한다. 초중고생 유병률은 6 내지 8 퍼센트이다. 최근 성인 ADHD 환자가 급증하고 있으며, 성인 인구의 약 3 퍼센트(약 120만명)을 잠재적 질환자로 추정하고 있다. 이러한 성인 ADHD 환자가 급증하는 것은 아동청소년기에 조기 발견하지 못하여 적절하게 치료하지 못한 것에 기인한 것으로 분석되고 있다.
선행문헌번호: 한국 특허공개번호 제10-2019-0140864 (2019.12.20. 공개일)ADHD (attention deficit/hyperactivity disorder) is a disease in which symptoms of inattention, hyperactivity, and impulsivity are mainly manifested, and it is the most common and serious neurodevelopmental disorder that induces negative experiences in children and adolescents. The prevalence in primary and secondary school students is 6 to 8 percent. Recently, adult ADHD patients are rapidly increasing, and it is estimated that about 3% (about 1.2 million people) of the adult population are potential patients. It is analyzed that the rapid increase in the number of adult ADHD patients is due to failure to treat them appropriately due to failure to detect them early in childhood and adolescence.
Prior Document Number: Korean Patent Publication No. 10-2019-0140864 (2019.12.20. Publication date)
일 실시 예는 사용자의 주의력 정도를 결정하는 장치 및 방법을 제공할 수 있다.An embodiment may provide a device and method for determining a user's level of attention.
일 실시 예는 사용자의 눈 움직임에 기초하여 사용자의 주의력 정도를 결정하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and method for determining a user's attentional level based on the user's eye movements.
일 실시 예에 따른, 전자 장치에 의해 수행되는, 사용자의 주의력 정도를 결정하는 방법은, 사용자 단말의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 타겟 컨텐츠를 출력하는 단계 - 상기 타겟 컨텐츠는 시간에 흐름에 따라 상기 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠임 -; 상기 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 좌표 값을 연속적으로 수신하는 단계; 상기 좌표 값에 기초하여 상기 타겟 컨텐츠에 대해 미리 정의된 상기 사용자의 눈 움직임에 대한 하나 이상의 타겟 바이오 마커들을 생성하는 단계; 및 상기 타겟 바이오 마커들에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계를 포함하고, 상기 결정된 주의력 정도가 상기 사용자 단말을 통해 출력될 수 있다.According to an embodiment, a method for determining a user's attentional level, performed by an electronic device, includes outputting pre-produced target content to determine the user's attentional level through a display of a user terminal - the target content is content in which at least one of the shape, color, and position of at least one object of the content changes over time; continuously receiving coordinate values on the display at which eyes of the user observing the target content gaze; generating one or more target biomarkers for predefined eye movements of the user with respect to the target content based on the coordinate values; and determining the level of attention of the user based on the target biomarkers, and the determined level of attention may be output through the user terminal.
상기 타겟 컨텐츠는, 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 애니메이션과, 상기 사용자에게 행동을 지시하는 음성 또는 텍스트로 나타나는 지시(instruction)를 포함할 수 있다.The target content may include an animation in which at least one of the shape, color, and position of at least one object changes, and a voice or text instruction indicating an action to the user.
상기 연속적으로 수신되는 좌표는 상기 사용자 단말에 의해 결정되고, 상기 사용자 단말이, 제1 사용자 이미지 내의 상기 사용자의 제1 눈을 검출하는 단계; 상기 제1 눈에 기초하여 상기 사용자의 제1 시선 방향을 결정하는 단계; 상기 제1 시선 방향에 기초하여 상기 디스플레이 상의 제1 좌표 값을 결정하는 단계; 및 상기 제1 좌표 값 및 상기 제1 사용자 이미지의 제1 타임 스탬프를 연관하는 단계를 수행함으로써 상기 좌표 값이 연속적으로 결정될 수 있다.The continuously received coordinates are determined by the user terminal, and detecting, by the user terminal, a first eye of the user in a first user image; determining a first gaze direction of the user based on the first eye; determining a first coordinate value on the display based on the first gaze direction; and associating the first coordinate value with a first time stamp of the first user image, thereby continuously determining the coordinate value.
상기 타겟 컨텐츠는 상기 사용자의 프로 사케이드(pro-saccades)를 검출하기 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 시선고정 최대시간(fixation time max), 시선고정 평균시간(fixation mean), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 시선고정 횟수(fixation count) 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean) 중 하나 이상을 포함할 수 있다.The target content is content for detecting pro-saccades of the user, and the target biomarkers predefined for the target content include a fixation time max, an average fixation time. One of (fixation mean), average of times taken to transition from previous saccade to next saccade (saccade latency mean), fixation count, and average fixation to saccade velocity (saccade velocity mean). may contain more than
상기 타겟 컨텐츠는 상기 사용자의 안티 사케이드(anti-saccades)를 검출하기 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 상기 사용자가 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 시선고정 시간들의 표준편차(fixationStd), 시선고정 횟수(fixation count), 및 상기 좌표 값들 중 x 좌표 값들의 평균(coordX mean) 중 하나 이상을 포함할 수 있다.The target content is content for detecting anti-saccades of the user, and the target biomarkers predefined for the target content include a standard deviation (saccadeStd) of times when saccades lasted, the At least one of the total time the user viewed the target content (screen duration total), the standard deviation of gaze fixation times (fixationStd), the number of fixation times (fixation count), and the mean of x coordinate values (coordX mean) among the coordinate values. can include
상기 타겟 컨텐츠는 상기 사용자의 기억 유도 사케이드(memory guided saccades)를 검출하기 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 시선고정 최대시간(fixation time max), 시선고정 시간들의 총 합(fixation duration), 시선고정 평균시간(fixation mean), 상기 좌표 값들 중 y 좌표 값들의 평균(coordY mean), 및 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total) 중 하나 이상을 포함할 수 있다.The target content is content for detecting memory guided saccades of the user, and the target biomarkers predefined for the target content include fixation time max, fixation time It may include one or more of a fixation duration, a fixation mean, an average of y coordinate values among the coordinate values (coordY mean), and a total time of viewing the target content (screen duration total). can
상기 타겟 컨텐츠는 상기 사용자의 변화 감지(change detection)를 검출하기 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 문제를 해결하기 위해 소요된 시간들의 총합(total elapsed times), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차(saccade latencyStd), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 상기 타겟 컨텐츠를 바라본 시간들의 평균(screen duration mean), 시선고정 평균시간(fixation mean), 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 및 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합(saccade latency total) 중 하나 이상을 포함할 수 있다.The target content is content for detecting change detection of the user, and the target biomarkers predefined for the target content include total elapsed times, The standard deviation of the times it took to switch from the previous saccade to the next saccade (saccade latencyStd), the average of the times it took to switch from the previous saccade to the next saccade (saccade latency mean), the average of the times spent looking at the target content (screen duration mean), gaze fixation average time (fixation mean), total time of looking at the target content (screen duration total), and one or more of the total of the times taken to switch from the previous saccade to the next saccade (saccade latency total) can include
상기 타겟 컨텐츠는 상기 사용자의 스트룹 테스트(stroop test)를 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 사케이드들의 횟수(saccade count), 사케이드들이 지속된 시간의 총합(saccade duration), 상기 좌표 값들 중 x 좌표 값들의 평균(coordX mean), 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 상기 타겟 컨텐츠를 바라본 시간들의 평균(screen duration mean), 및 시선고정 평균시간(fixation mean) 중 하나 이상을 포함할 수 있다.The target content is content for a stroop test of the user, and the target biomarkers predefined for the target content include screen duration total, number of saccades (saccade count), the sum of the times saccades lasted (saccade duration), the average of x coordinate values among the coordinate values (coordX mean), the standard deviation of the times saccades lasted (saccadeStd), the target content viewed It may include one or more of a screen duration mean, and a fixation mean.
상기 전자 장치는 상기 사용자 단말을 통해 사용자에게 서로 다른 복수의 타겟 컨텐츠들을 순서적으로 출력하고 - 상기 복수의 타겟 컨텐츠들을 제1 타겟 컨텐츠 및 제2 타겟 컨텐츠를 포함함 -, 상기 타겟 바이오 마커들을 생성하는 단계는, 상기 제1 타겟 컨텐츠에 대해 수신된 제1 좌표 값들에 기초하여 제1 서브 바이오 마커들을 생성하는 단계; 상기 제2 타겟 컨텐츠에 대해 수신된 제2 좌표 값들에 기초하여 제2 서브 바이오 마커들을 생성하는 단계; 및 상기 제1 서브 바이오 마커들 및 상기 제2 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 단계를 포함할 수 있다.The electronic device sequentially outputs a plurality of different target contents to a user through the user terminal - the plurality of target contents include first target contents and second target contents - and generates the target biomarkers. The doing may include generating first sub-biomarkers based on first coordinate values received for the first target content; generating second sub biomarkers based on second coordinate values of the second target content; and generating a target biomarker set based on the first sub biomarkers and the second sub biomarkers.
상기 타겟 바이오 마커들을 생성하는 단계는, 상기 좌표 값에 기초하여 상기 타겟 컨텐츠에 대해 미리 정의된 상기 사용자의 눈 움직임에 대한 원시 타겟 바이오 마커들을 생성하는 단계; 및 상기 원시 타겟 바이오 마커들 각각에 대해 미리 설정된 정규화 방식을 적용함으로써 상기 원시 타겟 바이오 마커들에 대응하는 상기 타겟 바이오 마커들을 생성하는 단계를 포함할 수 있다.The generating of the target biomarkers may include generating original target biomarkers for eye movements of the user predefined for the target content based on the coordinate values; and generating the target biomarkers corresponding to the original target biomarkers by applying a preset normalization scheme to each of the original target biomarkers.
상기 타겟 바이오 마커들에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계는, 사용자의 주의력 정도를 결정하도록 서로 다른 방식으로 훈련된 복수의 모델들 각각에 상기 타겟 바이오 마커들을 입력하는 단계 - 상기 복수의 모델들은 제1 모델 및 제2 모델을 포함함 -; 및 상기 타겟 바이오 마커들에 대한 상기 제1 모델의 제1 결과 및 상기 타겟 바이오 마커들에 대한 상기 제2 모델의 제2 결과에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계를 포함할 수 있다.Determining the level of attention of the user based on the target biomarkers may include inputting the target biomarkers to each of a plurality of models trained in different ways to determine the level of attention of the user - the plurality of models. the models of include a first model and a second model; and determining the degree of attention of the user based on a first result of the first model for the target biomarkers and a second result of the second model for the target biomarkers. .
상기 제1 모델은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear Discriminant Analysis 및 Naive Bayes 중 어느 하나에 기초하여 훈련된 모델이고, 상기 제2 모델은 제1 모델과 상이한 모델일 수 있다.The first model is K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear A model trained based on any one of Discriminant Analysis and Naive Bayes, and the second model may be a different model from the first model.
상기 제1 모델은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, 및 Random Forest Classifier 중 어느 하나에 기초하여 훈련된 모델이고, 상기 제2 모델은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, 및 Random Forest Classifier 중 상기 제1 모델과 상이한 모델일 수 있다.The first model is a model trained based on any one of K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, and Random Forest Classifier, and the second model is K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, and Random Forest Classifier. Among the classifiers, it may be a model different from the first model.
일 실시 예에 따른, 사용자의 주의력 정도를 결정하는 전자 장치는, 사용자의 주의력 정도를 결정하는 프로그램이 기록된 메모리; 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 사용자 단말의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 타겟 컨텐츠를 출력하는 단계 - 상기 타겟 컨텐츠는 시간에 흐름에 따라 상기 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠임 -; 상기 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 좌표 값을 연속적으로 수신하는 단계; 상기 좌표 값에 기초하여 상기 타겟 컨텐츠에 대해 미리 정의된 상기 사용자의 눈 움직임에 대한 하나 이상의 타겟 바이오 마커들을 생성하는 단계; 및 상기 타겟 바이오 마커들에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계를 수행하고, 상기 결정된 주의력 정도가 상기 사용자 단말을 통해 출력될 수 있다.According to an embodiment, an electronic device for determining a level of attention of a user may include a memory in which a program for determining a level of attention of a user is recorded; and a processor that executes the program, wherein the program outputs pre-produced target content to determine a user's attention level through a display of a user terminal - the target content is the content as time passes. At least one of the shape, color, and position of at least one object of is content that changes -; continuously receiving coordinate values on the display at which eyes of the user observing the target content gaze; generating one or more target biomarkers for predefined eye movements of the user with respect to the target content based on the coordinate values; and determining the level of attention of the user based on the target biomarkers, and the determined level of attention may be output through the user terminal.
사용자의 주의력 정도를 결정하는 장치 및 방법이 제공될 수 있다.An apparatus and method for determining a user's level of attention may be provided.
사용자의 눈을 포함하는 사용자 이미지에 기초하여 사용자의 주의력 정도를 결정하는 장치 및 방법이 제공될 수 있다.An apparatus and method for determining a user's attentional level based on a user image including the user's eyes may be provided.
도 1은 일 예에 따른 사용자의 주의력 정도를 결정하는 시스템의 구성도이다.
도 2는 일 예에 따른 사용자의 주의력 정도를 결정하기 위해 사용자 단말에 출력되는 이미지들을 도시한다.
도 3은 일 실시 예에 따른 사용자의 주의력 정도를 결정하는 전자 장치의 구성도이다.
도 4는 일 실시 예에 따른 사용자의 주의력 정도를 결정하는 방법의 흐름도이다.
도 5는 일 예에 따른 사용자의 시선을 조정하기 위한 컨텐츠를 도시한다.
도 6는 일 예에 따른 사용자의 프로 사케이드를 검출하기 위한 컨텐츠를 도시한다.
도 7은 일 예에 따른 사용자의 안티 사케이드를 검출하기 위한 컨텐츠를 도시한다.
도 8은 일 예에 따른 사용자의 기억 유도 사케이드를 검출하기 위한 컨텐츠를 도시한다.
도 9는 일 예에 따른 사용자의 변화 감지를 검출하기 위한 컨텐츠를 도시한다.
도 10은 일 예에 따른 사용자의 스트룹 테스트를 위한 컨텐츠를 도시한다.
도 11은 일 예에 따른 사용자의 눈이 응시하는 디스플레이 상의 좌표 값을 연속적으로 결정하는 방법의 흐름도이다.
도 12는 일 예에 따른 원시 타겟 바이오 마커들에 기초하여 타겟 바이오 마커들을 생성하는 방법의 흐름도이다.
도 13은 일 예에 따른 복수의 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 방법의 흐름도이다.
도 14는 일 예에 따른 복수의 모델들을 이용하여 사용자의 주의력 정도를 결정하는 방법의 흐름도이다.
도 15는 일 예에 따른 복수의 모델들을 이용하여 사용자의 주의력 정도를 결정하는 방법을 도시한다.1 is a configuration diagram of a system for determining a user's attentional level according to an example.
2 illustrates images output to a user terminal to determine a user's attentional level according to an example.
3 is a configuration diagram of an electronic device for determining a user's attentional level according to an exemplary embodiment.
4 is a flowchart of a method for determining a user's attentional level according to an exemplary embodiment.
5 illustrates content for adjusting a user's gaze according to an example.
6 illustrates content for detecting a user's pro saccade according to an example.
7 illustrates content for detecting a user's anti-saccade according to an example.
8 illustrates content for detecting a user's memory-induced saccade according to an example.
9 illustrates content for detecting a change detection of a user according to an example.
10 illustrates content for a stroop test of a user according to an example.
11 is a flowchart of a method of continuously determining coordinate values on a display at which eyes of a user gaze, according to an example.
12 is a flowchart of a method of generating target biomarkers based on raw target biomarkers according to an example.
13 is a flowchart of a method of generating a target biomarker set based on a plurality of sub-biomarkers according to an example.
14 is a flowchart of a method of determining a user's attentional level using a plurality of models according to an example.
15 illustrates a method of determining a user's attentional level using a plurality of models according to an example.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these examples. Like reference numerals in each figure indicate like elements.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various changes may be made to the embodiments described below. The embodiments described below are not intended to be limiting on the embodiments, and should be understood to include all modifications, equivalents or substitutes thereto.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only to describe specific examples, and are not intended to limit the examples. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.
도 1은 일 예에 따른 사용자의 주의력 정도를 결정하는 시스템의 구성도이다.1 is a configuration diagram of a system for determining a user's attentional level according to an example.
일 측면에 따르면, 사용자의 주의력 정도를 결정하는 시스템은 사용자의 주의력 정도를 결정하는 전자 장치(110), 컨텐츠를 출력하는 사용자 단말(120), 및 의료 기관의 모니터링 단말(130)을 포함할 수 있다. 예를 들어, 전자 장치(110)는 서버일 수 있다.According to one aspect, the system for determining the level of attention of the user may include an
전자 장치(110)는 사용자 단말(120)로 사용자의 주의력 정도를 결정할 수 있도록 미리 제작된 컨텐츠를 제공할 수 있다. 예를 들어, 컨텐츠는 사용자의 눈을 포함하는 사용자 이미지들을 획득하기 위한 컨텐츠일 수 있다. 사용자 이미지들을 획득하기 위한 컨텐츠에 대해 아래에서 도 5 내지 도 10을 참조하여 상세하게 설명된다.The
일 실시 예에 따르면, 사용자 단말(120)은 전자 장치(110)와 오프라인 또는 온라인으로 연결되어 서로 통신할 수 있다. 전자 장치(110)는 사용자 단말(120)로 컨텐츠를 제공하고, 사용자 단말(120)은 디스플레이를 통해 컨텐츠를 사용자에게 출력한다. 예를 들어, 사용자 단말(120)은 카메라를 통해 컨텐츠에 대한 리액션으로서의 사용자 이미지들을 촬영할 수 있고, 촬영한 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들을 연속적으로 결정하고, 결정된 좌표 값들을 전자 장치(110)로 전송한다.According to an embodiment, the
일 실시 예에 따르면, 전자 장치(110)는 사용자가 응시한 좌표 값들에 기초하여 사용자의 주의력 정도를 결정하고, 결정된 주의력 정도를 사용자 단말(120)로 전송할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 사용자 단말(120)은 태블릿, 스마트 폰과 같은 모바일 단말일 수 있다. 사용자 단말(120)이 모바일 단말인 경우, 사용자는 시간 및 장소의 제약을 받지 않으며, 저렴한 비용으로 주의력 정도를 측정할 수 있다.According to an embodiment, the
아래에서, 사용자의 주의력 정도를 결정하는 방법에 대해 도 2 내지 도 15를 참조하여 상세하게 설명된다.Below, a method for determining the level of attention of the user will be described in detail with reference to FIGS. 2 to 15 .
도 2는 일 예에 따른 사용자의 주의력 정도를 결정하기 위해 사용자 단말에 출력되는 이미지들을 도시한다.2 illustrates images output to a user terminal to determine a user's attentional level according to an example.
아래의 이미지들(210 내지 240)은 사용자의 주의력 정도를 결정하기 위한 어플리케이션의 이미지들일 수 있다. 예를 들어, 전자 장치(110)의 사용자 또는 관리자는 어플리케이션을 제작하여 배포할 수 있고, 사용자는 사용자 단말(120)을 통해 어플리케이션을 실행할 수 있다.The
일 실시 예에 따르면, 제1 이미지(210)는 어플리케이션의 시작 화면이다.According to one embodiment, the
일 실시 예에 따르면, 제2 이미지(220)는 어플리케이션이 지원하는 기능들을 나타낸다.According to an embodiment, the
일 실시 예에 따르면, 제3 이미지(230)는 사용자에게 제공되는 컨텐츠의 일 예이다. 사용자에게 복수의 컨텐츠들이 순서적으로 제공될 수 있다.According to one embodiment, the
일 실시 예에 따르면, 제4 이미지(240)는 결정된 사용자의 주의력 정도를 나타낸다. 예를 들어, 사용자의 주의력 정도로서 결정된 제1 ADHD 레벨, 제2 ADHD 레벨 및 제3 ADHD 레벨이 출력될 수 있다. 제4 이미지(240)에는 개별적인 질병에 대한 주의 정도 이외에도 종합적인 판단이 함께 출력될 수도 있다.According to an embodiment, the
도 3은 일 실시예에 따른 사용자의 주의력 정도를 결정하는 전자 장치의 구성도이다.3 is a configuration diagram of an electronic device for determining a user's attentional level according to an exemplary embodiment.
전자 장치(300)는 통신부(310), 프로세서(320) 및 메모리(330)를 포함한다. 예를 들어, 전자 장치(300)는 도 1을 참조하여 전술된 전자 장치(110)일 수 있다.The
통신부(310)는 프로세서(320) 및 메모리(330)와 연결되어 데이터를 송수신한다. 통신부(310)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The
통신부(310)는 전자 장치(300) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(310)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(310)는 전자 장치(300)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(310)는 인터페이스(interface)일 수 있다. 통신부(310)는 외부의 장치로부터 데이터를 수신하여, 프로세서(320) 및 메모리(330)에 데이터를 전송할 수 있다.The
프로세서(320)는 통신부(310)가 수신한 데이터 및 메모리(330)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The
프로세서(320)는 메모리(예를 들어, 메모리(330))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(320)에 의해 유발된 인스트럭션들을 실행한다.
메모리(330)는 통신부(310)가 수신한 데이터 및 프로세서(320)가 처리한 데이터를 저장한다. 예를 들어, 메모리(330)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 사용자의 주의력 정도를 결정할 수 있도록 코딩되어 프로세서(320)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The
일 측면에 따르면, 메모리(330)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one aspect, the
메모리(330)는 전자 장치(300)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(300)를 동작 시키는 명령어 세트는 프로세서(320)에 의해 실행된다.The
통신부(310), 프로세서(320) 및 메모리(330)에 대해, 아래에서 도 4 내지 도 15를 참조하여 상세히 설명된다.The
도 4는 일 실시 예에 따른 사용자의 주의력 정도를 결정하는 방법의 흐름도이다.4 is a flowchart of a method for determining a user's attentional level according to an exemplary embodiment.
아래의 단계들(410 내지 440)은 도 3을 참조하여 전술된 전자 장치(300)에 의해 수행된다.
단계(410)에서, 전자 장치(300)는 사용자 단말(예를 들어, 사용자 단말(120))의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 컨텐츠를 출력한다. 컨텐츠가 사용자 단말에 출력되고, 사용자는 컨텐츠에 대한 리액션을 수행한다.In
사용자 단말은 카메라를 이용하여 상기의 리액션으로서의 사용자 이미지들을 생성할 수 있다. 예를 들어, 카메라는 미리 설정된 주기로 사용자의 눈을 포함하는 사용자 이미지들을 생성할 수 있다. 생성된 사용자 이미지들은 데이터 파일 형태일 수 있다.The user terminal may generate user images as the reaction using a camera. For example, the camera may generate user images including the user's eyes at preset intervals. The generated user images may be in the form of data files.
일 실시 예에 따르면, 사용자에게 복수의 컨텐츠들이 제공되고, 복수의 컨텐츠들 각각에 대한 사용자 이미지들이 생성될 수 있다.According to an embodiment, a plurality of contents may be provided to a user, and user images for each of the plurality of contents may be created.
일 실시 예에 따른, 사용자 이미지들을 생성하기 위한 컨텐츠들은 사용자의 눈 움직임으로서 사케이드(saccade) 및 안티 사케이드(anti-saccade) 등을 측정하기 위해 미리 제작된 컨텐츠들일 수 있다. 눈 움직임의 각 종류는 바이오 마커로 명명될 수 있고, 눈 움직임의 종류들은 아래에서 [표 1]로 나타난다.According to an embodiment, contents for generating user images may be contents prepared in advance to measure saccade and anti-saccade as eye movements of the user. Each type of eye movement can be named as a biomarker, and the types of eye movement are shown in [Table 1] below.
예를 들어, 제1 컨텐츠가 출력되는 동안 미리 설정된 주기로 제1 사용자 이미지 세트가 생성될 수 있다.For example, a first user image set may be generated at a preset cycle while the first content is output.
사용자 단말은 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값을 연속적으로 결정한다. 예를 들어, 디스플레이 상의 좌표 값은 픽셀 단위로 결정되거나, 영역 별로 결정될 수 있다. 디스플레이 상의 좌표 값을 결정하는 방법에 대해, 아래에서 도 11을 참조하여 상세히 설명된다.The user terminal continuously determines coordinate values on the display at which the eyes of the user gaze based on the user images. For example, coordinate values on the display may be determined in units of pixels or in units of regions. A method of determining a coordinate value on a display will be described in detail with reference to FIG. 11 below.
일 실시 예에 따르면, 전자 장치(300)는 좌표 값을 결정하기 위한 부가 어플리케이션이 사용자 단말에서 실행되도록 사용자 단말을 제어할 수 있다. 예를 들어, 추가 어플리케이션은 사용자 단말의 카메라를 이용하여 컨텐츠를 관찰하는 사용자의 사용자 이미지들을 생성하고, 사용자 이미지들 내의 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들을 결정할 수 있다.According to an embodiment, the
단계(420)에서, 전자 장치(300)는 사용자 단말로부터 컨텐츠를 관찰하는 사용자의 리액션을 연속적으로 수신한다. 예를 들어, 전자 장치(300)는 사용자 단말로부터 컨텐츠를 관찰하는 사용자의 눈이 응시하는 디스플레이 상의 연속적인 좌표 값들을 수신할 수 있다.In
일 실시 예에 따르면, 복수의 컨텐츠들이 제작된 경우, 단계들(410 및 420)이 반복적으로 수행될 수 있다. 예를 들어, 단계들(410 및 420)이 반복적으로 수행됨으로써 복수의 컨텐츠들 각각에 대한 사용자 좌표 값 세트들이 수신된다.According to one embodiment, when a plurality of contents are produced,
일 실시 예에 따르면, 복수의 컨텐츠들의 각각이 상이한 사용자의 눈 움직임을 관찰하기 위해 미리 제작될 수 있다. 예를 들어, 제1 컨텐츠는 사용자의 프로 사케이드(pro-saccades)를 검출하기 위한 컨텐츠일 수 있다. 예를 들어, 제2 컨텐츠는 사용자의 안티 사케이드(anti-saccades)를 검출하기 위한 컨텐츠일 수 있다. 예를 들어, 제3 컨텐츠는 사용자의 기억 유도 사케이드(memory guided saccades)를 검출하기 위한 컨텐츠일 수 있다. 예를 들어, 제4 컨텐츠는 사용자의 변화 감지(change detection)를 검출하기 위한 컨텐츠일 수 있다. 예를 들어, 제5 컨텐츠는 사용자의 스트룹 테스트(stroop test)를 위한 컨텐츠일 수 있다.According to one embodiment, each of a plurality of contents may be prepared in advance to observe eye movements of different users. For example, the first content may be content for detecting pro-saccades of the user. For example, the second content may be content for detecting user's anti-saccades. For example, the third content may be content for detecting memory guided saccades of the user. For example, the fourth content may be content for detecting user's change detection. For example, the fifth content may be content for a stroop test of the user.
일 실시 예에 따르면, 제1 컨텐츠 내지 제5 컨텐츠에 대한 제1 사용자 좌표 값 세트 내지 제5 사용자 좌표 값 세트가 수신될 수 있다.According to an embodiment, first to fifth user coordinate value sets for the first to fifth contents may be received.
단계(430)에서, 전자 장치(300)는 수신된 리액션에 기초하여 바이오 마커 정보를 생성한다. 예를 들어, 바이오 마커 정보는 하나 이상의 바이오 마커를 포함할 수 있다.In
일 실시 예에 따르면, 전자 장치(300)는 수신된 좌표 값들에 기초하여 사용자의 눈 움직임에 대한 하나 이상의 바이오 마커들을 생성할 수 있다. 예를 들어, 컨텐츠 별로 서로 다른 바이오 마커들이 생성될 수 있다. 예를 들어, 컨텐츠 별로 서로 다른 바이오 마커들이 미리 정의될 수 있다.According to an embodiment, the
이하에서 개시되는 각 컨텐츠에 대해 생성되는 타겟 바이오 마커들의 종류 및 타겟 바이오 마커들에 대한 구체적인 비율은 미리 설정한 조건에 기초한 실험에 의해 도출된 것이고, 실험을 위해 설정하는 조건에 따라 그 결과는 달라질 수 있다. 개시된 타겟 바이오 마커들의 종류 및 타겟 바이오 마커들에 대한 구체적인 비율로 본 발명이 한정되어 해석되어서는 안 된다.The types of target biomarkers and specific ratios of the target biomarkers generated for each content disclosed below are derived by experiments based on preset conditions, and the results may vary depending on the conditions set for the experiments. can The present invention should not be construed as being limited to the disclosed types of target biomarkers and specific ratios of the target biomarkers.
일 실시 예에 따르면, 사용자의 프로 사케이드(pro-saccades)를 검출하기 위한 제1 컨텐츠에 대해, 시선고정 최대시간(fixation time max), 시선고정 평균시간(fixation mean), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 시선고정 횟수(fixation count) 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 프로 사케이드를 검출하기 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다.According to an embodiment, for the first content for detecting the user's pro-saccades, fixation time max, fixation average time, fixation mean, previous saccade to next One or more of the average of times taken to switch to saccade (saccade latency mean), fixation count (fixation count), and average speed of conversion from fixation to saccade (saccade velocity mean) may be predefined as target biomarkers. can For example, among various types of eye movements, a specific type of eye movement that meets the purpose of detecting a user's pro saccade may be defined as a target biomarker.
일 실시 예에 따르면, 제1 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 시선고정 최대시간(fixation time max)에 대해 20.8092%, 시선고정 평균시간(fixation mean)에 대해 20.6771%, 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean)에 대해 19.9670%, 시선고정 횟수(fixation count)에 대해 19.4040%, 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean)에 19.1427%의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well represent the purpose of the first content may be determined in advance. For example, 20.8092% for fixation time max, 20.6771% for fixation mean, saccade latency mean Ratios of 19.9670% for fixation count, 19.4040% for fixation count, and 19.1427% for saccade velocity mean can be determined beforehand.
일 실시 예에 따르면, 사용자의 안티 사케이드(anti-saccades)를 검출하기 위한 제2 컨텐츠에 대해, 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 사용자가 제2 컨텐츠를 바라본 총 시간(screen duration total), 시선고정 시간들의 표준편차(fixationStd), 시선고정 횟수(fixation count), 및 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 제2 컨텐츠에 대해 미리 정의된 타겟 바이오 마커들은 데이터 검증을 통한 연구의 결과로서 도출될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 안티 사케이드를 검출하기 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다.According to an embodiment, with respect to the second content for detecting the user's anti-saccades, the standard deviation of the times the saccades were maintained (saccadeStd), the total time the user viewed the second content (screen) duration total), standard deviation of gaze fixation times (fixationStd), fixation count, and average of x coordinate values among gaze coordinate values (coordX mean). One or more may be predefined as target biomarkers. . Target biomarkers predefined for the second content may be derived as a result of research through data verification. For example, among various types of eye movements, a specific type of eye movement matching the purpose of detecting the user's anti-saccade may be defined as a target biomarker.
일 실시 예에 따르면, 제2 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 사케이드들이 지속된 시간들의 표준편차(saccadeStd)에 대해 21.2365%, 사용자가 제2 컨텐츠를 바라본 총 시간(screen duration total)에 대해 19.9869%, 시선고정 시간들의 표준편차(fixationStd)에 대해 19.9060%, 시선고정 횟수(fixation count)에 대해 19.4984%, 및 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean)에 대해 19.3721%의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well indicate the purpose of the second content may be determined in advance. For example, 21.2365% for the standard deviation of times the saccades lasted (saccadeStd), 19.9869% for the total time the user looked at the second content (screen duration total), and the standard deviation of gaze fixation times (fixationStd) Ratios of 19.9060% for the fixation count, 19.4984% for the fixation count, and 19.3721% for the coordX mean of the gaze coordinate values may be predetermined.
일 실시 예에 따르면, 제2 컨텐츠에 대한 타겟 바이오 마커로서 에러율(error rate)가 더 결정될 수 있다. 예를 들어, 사용자가 제2 컨텐츠의 화면에 출력된 타겟 오브젝트의 위치와 다른 위치(예: 기준점으로부터 반대 위치)로 시선을 이동시킬 것을 요구 받았지만, 실제로 사용자가 타겟 오브젝트로 시선을 이동시킨 경우 시선 오류가 결정될 수 있다. 제2 컨텐츠가 복수회의 태스크들(예: 48회)의 반복으로 구성되는 경우, 수행된 전체 태스크들 중 시선 오류가 결정된 태스크들의 비율이 에러율로 결정될 수 있다.According to an embodiment, an error rate may be further determined as a target biomarker for the second content. For example, when the user is requested to move the gaze to a position different from that of the target object displayed on the screen of the second content (eg, a position opposite to the reference point), but the user actually moves the gaze to the target object, the gaze error can be determined. When the second content is composed of a plurality of repetitions of tasks (eg, 48 times), a ratio of tasks for which gaze errors are determined among total tasks performed may be determined as an error rate.
일 실시 예에 따르면, 사용자의 기억 유도 사케이드(memory guided saccades)를 검출하기 위한 제3 컨텐츠에 대해, 시선고정 최대시간(fixation time max), 시선고정 시간들의 총 합(fixation duration), 시선고정 평균시간(fixation mean), 시선 좌표 값들 중 y 좌표 값들의 평균(coordY mean), 및 제3 컨텐츠를 바라본 총 시간(screen duration total) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 기억 유도 사케이드를 검출하기 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다. 예를 들어, 사용자가 제3 컨텐츠의 화면에 출력된 기준점이 사라진 시점부터 기억했던 타겟 오브젝트의 위치로 시선을 움직이기 시작한 시점 간의 시간이 딜레이 시간으로서 결정될 수 있고, 딜레이 시간과 관련된 타겟 바이오 마커가 정의될 수 있다.According to an embodiment, for the third content for detecting the user's memory guided saccades, a fixation time max, a total sum of fixation times (fixation duration), and fixation One or more of a fixation mean, an average of y-coordinate values among gaze coordinate values (coordY mean), and a total time for viewing the third content (screen duration total) may be predefined as target biomarkers. For example, among various types of eye movements, a specific type of eye movement that meets the purpose of detecting a user's memory inducing saccade may be defined as a target biomarker. For example, the time between when the reference point displayed on the screen of the third content disappears and when the user starts to move his gaze to the memorized location of the target object may be determined as the delay time, and the target biomarker related to the delay time may be can be defined
일 실시 예에 따르면, 제3 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 시선고정 최대시간(fixation time max)에 대해 20.7343%, 시선고정 시간들의 총 합(fixation duration)에 대해 20.3700%, 시선고정 평균시간(fixation mean)에 대해 20.1529%, 시선 좌표 값들 중 y 좌표 값들의 평균(coordY mean)에 대해 19.9199%, 및 제3 컨텐츠를 바라본 총 시간(screen duration total)에 대해 18.8229의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well indicate the purpose of the third content may be determined in advance. For example, 20.7343% for the fixation time max, 20.3700% for the total fixation duration, 20.1529% for the fixation mean, among the gaze coordinate values. Ratios of 19.9199% for the average of y-coordinate values (coordY mean) and 18.8229 for the total time of viewing the third content (screen duration total) may be determined in advance.
일 실시 예에 따르면, 사용자의 변화 감지(change detection)를 검출하기 위한 제4 컨텐츠에 대해, 문제를 해결하기 위해 소요된 시간들의 총합(total elapsed times), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차(saccade latencyStd), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 제4 컨텐츠를 바라본 시간들의 평균(screen duration mean), 시선고정 평균시간(fixation mean), 제4 컨텐츠를 바라본 총 시간(screen duration total), 및 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합(saccade latency total) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 변화 감지를 검출하기 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다.According to one embodiment, for the fourth content for detecting the change detection of the user, the total elapsed times spent to solve the problem, the previous scade to the next scade is switched Standard deviation of times taken (saccade latencyStd), average of times it took to switch from the previous saccade to the next saccade (saccade latency mean), average of times spent looking at the fourth content (screen duration mean), average gaze fixation time (fixation One or more of the mean), the total time of viewing the fourth content (screen duration total), and the total of times taken to switch from the previous scade to the next saccade (saccade latency total) may be predefined as target biomarkers. . For example, among various types of eye movements, a specific type of eye movement that meets the purpose of detecting a user's change detection may be defined as a target biomarker.
일 실시 예에 따르면, 제4 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 문제를 해결하기 위해 소요된 시간들의 총합(total elapsed times)에 대해 24.0280%, 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차(saccade latencyStd)에 대해 13.2601%, 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean)에 대해 13.2462%, 제4 컨텐츠를 바라본 시간들의 평균(screen duration mean)에 대해 12.7526%, 시선고정 평균시간(fixation mean)에 대해 12.5573%, 제4 컨텐츠를 바라본 총 시간(screen duration total)에 대해 12.1167%, 및 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합(saccade latency total)에 대해 12.0392%의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well represent the purpose of the fourth content may be determined in advance. For example, 24.0280% for the total elapsed times spent solving a problem, 13.2601% for the standard deviation of the times elapsed from one saccade to the next (saccade latencyStd), and 13.2601% for the total elapsed times 13.2462% for the average of times it took to switch from one cade to the next saccade (saccade latency mean), 12.7526% for the average of times spent looking at the fourth content (screen duration mean), and for the average fixation time (fixation mean) The ratios of 12.5573%, 12.1167% for the screen duration total, and 12.0392% for the total time taken to switch from the previous saccade to the next saccade (saccade latency total) will be predetermined. can
일 실시 예에 따르면, 사용자의 스트룹 테스트(stroop test)를 위한 제5 컨텐츠에 대해, 제5 컨텐츠를 바라본 총 시간(screen duration total), 사케이드들의 횟수(saccade count), 사케이드들이 지속된 시간의 총합(saccade duration), 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean), 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 제5 컨텐츠를 바라본 시간들의 평균(screen duration mean), 및 시선고정 평균시간(fixation mean) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 스트룹 테스트를 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다.According to an embodiment, with respect to the fifth content for the user's stroop test, the screen duration total of viewing the fifth content, the number of saccades (saccade count), and the duration of the saccades The sum of the times (saccade duration), the average of the x-coordinate values among the gaze coordinate values (coordX mean), the standard deviation of the times that the saccades lasted (saccadeStd), the average of the times of viewing the fifth content (screen duration mean), and One or more of fixation mean times may be predefined as target biomarkers. For example, among various types of eye movements, a specific type of eye movement that meets the purpose of the user's Stroop test may be defined as a target biomarker.
일 실시 예에 따르면, 제5 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 제5 컨텐츠를 바라본 총 시간(screen duration total)에 대해 21.7487%, 사케이드들의 횟수(saccade count)에 대해 14.7708%, 사케이드들이 지속된 시간의 총합(saccade duration)에 대해 14.3486%, 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean)에 대해 12.8140%, 사케이드들이 지속된 시간들의 표준편차(saccadeStd)에 대해 12.4422%, 제5 컨텐츠를 바라본 시간들의 평균(screen duration mean)에 대해 12.1322%, 및 시선고정 평균시간(fixation mean)에 대해 11.7435%의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well represent the purpose of the fifth content may be determined in advance. For example, 21.7487% for screen duration total, 14.7708% for saccade count, and 14.3486% for saccade duration total. , 12.8140% of the average of the x coordinate values (coordX mean) of the gaze coordinate values, 12.4422% of the standard deviation (saccadeStd) of the times that the saccades lasted, and the average of the times of viewing the fifth content (screen duration mean) Ratios of 12.1322% for fixation mean and 11.7435% for fixation mean may be predetermined.
단계(440)에서, 전자 장치(300)는 바이오 마커들에 기초하여 사용자의 주의력 정도를 결정할 수 있다.In
일 실시 예에 따르면, 전자 장치(300)는 바이오 마커들을 미리 훈련된 주의력 정도 분류 모델에 입력함으로써 사용자의 주의력 정도를 결정할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 주의력 정도 분류 모델은 입력된 바이오 마커들에 기초하여 복수의 주의력 정도들 중 타겟 주의력 정도를 출력할 수 있다. 예를 들어, 복수의 주의력 정도는 정상 단계 및 ADHD 단계를 포함할 수 있다. 다른 예로, 복수의 주의력 정도는 주의 단계를 더 포함할 수 있다.According to an embodiment, the attention level classification model may output a target attention level among a plurality of attention levels based on input biomarkers. For example, the plurality of attentional degrees may include a normal stage and an ADHD stage. As another example, the plurality of levels of attention may further include an attention step.
일 실시 예에 따르면, 주의력 정도 분류 모델은 타겟 주의력 정도와 함께 타겟 주의력 정도에 대한 확률을 함께 출력할 수 있다.According to an embodiment, the attention level classification model may output a probability of the target attention level together with the target attention level.
일 실시 예에 따르면, 전자 장치(300)는 사용자의 주의력 정도를 결정하도록 서로 다른 방식으로 훈련된 복수의 모델들 각각에 바이오 마커들을 입력할 수 있다. 예를 들어, 복수의 모델들은 제1 모델, 제2 모델, 제3 모델 및 제4 모델을 포함할 수 있다. 복수의 모델들의 각각은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear Discriminant Analysis 및 Naive Bayes 중 어느 하나에 기초하여 훈련된 모델일 수 있고, 복수의 모델들의 각각은 서로 상이할 수 있다. 복수의 모델들에 대해 아래에서 도 14 및 도 15를 참조하여 상세히 설명된다.According to an embodiment, the
예를 들어, 주의력 정도 분류 모델은 신경망(neural network)에 기초하여 미리 훈련될 수 있으나, 모델의 구조 및 훈련 방식에 대해서는 기재된 실시예로 한정되지 않는다.For example, an attention level classification model may be pre-trained based on a neural network, but the structure and training method of the model are not limited to the described embodiments.
일 실시 예에 따르면, 전자 장치(300)는 복수의 모델들이 출력한 결과들에 기초하여 최종적인 사용자의 주의력 정도를 결정할 수 있다. 예를 들어, 복수의 모델들이 출력한 결과들의 평균 값에 기초하여 사용자의 주의력 정도가 결정될 수 있다. 복수의 모델들이 출력한 결과들에 기초하여 사용자의 주의력 정도가 결정하는 방법에 대해, 아래에서 도 14 및 도 15를 참조하여 상세히 설명된다.According to an embodiment, the
일 실시 예에 따르면, 단계(440)가 수행된 후, 전자 장치(300)는 사용자 단말을 통해 결정된 주의력 정도를 출력할 수 있다.According to an embodiment, after
도 5는 일 예에 따른 사용자의 시선을 조정하기 위한 컨텐츠를 도시한다.5 illustrates content for adjusting a user's gaze according to an example.
일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(500)는 사용자의 눈이 응시하는 디스플레이 상의 좌표 값을 조정(calibration)하기 위한 컨텐츠일 수 있다.According to an embodiment, the
제1 단계(510)에서, 컨텐츠(500)가 시선을 조정하기 위함이라는 목적 및 컨텐츠(500)에 대한 지시(instruction) 사항을 사용자에게 전달할 수 있다. 예를 들어, 사용자의 얼굴의 위치를 고정시키고, 출력되는 오브젝트를 응시하기 위해 사용자의 눈동자 만을 움직이도록 지시할 수 있다.In the
제2 단계(520), 제3 단계(530), 제4 단계(540), 제5 단계(550) 및 제6 단계(560) 각각에서, 서로 다른 위치에 오브젝트들(521, 531, 541, 551, 561)이 출력될 수 있다. 오브젝트들(521, 531, 541, 551, 561)을 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 사용자 단말로부터 전자 장치(300)로 전송될 수 있다. 전자 장치(300)는 수신한 좌표 값들과 오브젝트들(521, 531, 541, 551, 561)에 대해 미리 설정된 좌표 값들과의 변환 관계를 계산함으로써 사용자의 시선을 조정할 수 있다.In each of the
일 실시 예에 따르면, 디스플레이의 전체 영역이 복수의 영역들로 미리 구분될 수 있다. 복수의 영역들은 제공되는 컨텐츠의 종류에 따라 다르게 설정될 수 있다. 예를 들어, 가로 화면으로 제공되는 컨텐츠인지 또는 세로 화면으로 제공되는 컨텐츠인지 여부에 따라 복수의 영역들이 다르게 설정될 수 있다. 오브젝트들(521, 531, 541, 551, 561)은 복수의 영역들 중 어느 하나에 출력될 수 있다.According to an embodiment, the entire area of the display may be pre-divided into a plurality of areas. The plurality of areas may be set differently according to the type of content to be provided. For example, a plurality of areas may be set differently depending on whether the content is provided on a horizontal screen or a vertical screen. The
제7 단계(570)에서, 시선이 조정되었음이 출력될 수 있다.In a
도 6는 일 예에 따른 사용자의 프로 사케이드를 검출하기 위한 컨텐츠를 도시한다.6 illustrates content for detecting a user's pro saccade according to an example.
일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(600)는 사용자의 눈 움직임으로서 프로 사케이드(pro-saccade)를 측정하기 위한 컨텐츠일 수 있다. 컨텐츠(600)는 컨텐츠(600)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(600)는 크게 4단계로 구성될 수 있다.According to an embodiment, the
제1 단계(610)에서, 컨텐츠(600) 내에는 사용자의 시선(615)을 유도시키기 위한 오브젝트(611)가 출력될 수 있다. 예를 들어, 오브젝트(611)는 디스플레이의 중앙에 위치할 수 있다.In the
제2 단계(620)에서, 컨텐츠(600) 내에 위치하던 오브젝트(611)가 사라질 수 있다.In the
제3 단계(630)에서, 컨텐츠(600) 내에는 오브젝트(611)가 출력되었던 위치와 다른 위치에 오브젝트(631)가 출력될 수 있다. 사용자는 오브젝트(631)를 관찰하기 위해 시선을 시선(615)에서 시선(635)으로 이동시킬 수 있다.In the
제4 단계(640)에서, 컨텐츠(600) 내에 위치하던 오브젝트(631)가 사라질 수 있다.In the
컨텐츠(600)가 디스플레이에 출력되는 동안 컨텐츠(600)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다.While the
단계들(610 내지 640)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(630)에서 출력되는 오브젝트(631)의 위치가 변화될 수 있다. 단계들(610 내지 640)의 1회 수행은 1회의 태스크로 이해될 수 있다. 오브젝트(631)의 위치들이 변화하도록 컨텐츠(600)가 미리 제작될 수 있다.
도 7은 일 예에 따른 사용자의 안티 사케이드를 검출하기 위한 컨텐츠를 도시한다.7 illustrates content for detecting a user's anti-saccade according to an example.
일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(700)는 사용자의 눈 움직임으로서 안티 사케이드(anti-saccade)을 검출하기 위한 컨텐츠일 수 있다. 컨텐츠(700)는 컨텐츠(700)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(700)는 크게 5단계로 구성될 수 있다.According to an embodiment, the
제1 단계(710)에서, 컨텐츠(700) 내에는 사용자의 시선(715)을 유도시키기 위한 오브젝트(711)가 출력될 수 있다. 오브젝트(711)는 디스플레이의 중앙에 위치할 수 있다.In the
제2 단계(720)에서, 컨텐츠(700) 내에 위치하던 오브젝트(711)가 사라질 수 있다.In the
제3 단계(730)에서, 컨텐츠(700) 내에는 오브젝트(711)가 출력되었던 위치와 다른 위치에 오브젝트(731)가 출력될 수 있다. 예를 들어, 사용자는 오브젝트(731)의 반대 위치(732)를 관찰하기 위해 시선을 오브젝트(731)의 시선(735)에서 시선(736)으로 이동시킬 수 있다. 다르 예로, 사용자는 오브젝트(731)의 반대 위치(732)를 관찰하기 위해 시선을 시선(715)에서 시선(736)으로 이동시킬 수 있다.In the
제4 단계(740)에서, 반대 위치(732)에 오브젝트(742)가 출력될 수 있다. 오브젝트(742)는 반대 위치(732)를 사용자에게 알려주기 위한 정답일 수 있다.In the
제5 단계(750)에서, 컨텐츠(700) 내에 위치하던 오브젝트(742)가 사라질 수 있다.In the
컨텐츠(700)가 디스플레이에 출력되는 동안 컨텐츠(700)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다While the
단계들(710 내지 750)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(730) 및 단계(740)에서 출력되는 오브젝트(731) 및 오브젝트(742)의 위치들이 변화될 수 있다. 단계들(710 내지 750)의 1회 수행은 1회의 태스크로 이해될 수 있다. 오브젝트(731) 및 오브젝트(742)의 위치들이 변화하도록 컨텐츠(700)가 미리 제작될 수 있다.
도 8은 일 예에 따른 사용자의 기억 유도 사케이드를 검출하기 위한 컨텐츠를 도시한다.8 illustrates content for detecting a user's memory-induced saccade according to an example.
일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(800)는 사용자의 눈 움직임으로서 시선 메모리(memory)를 측정하기 위한 컨텐츠일 수 있다. 컨텐츠(800)는 컨텐츠(800)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(800)는 크게 5단계로 구성될 수 있다.According to an embodiment, the content 800 provided to the user may be content for measuring gaze memory as eye movements of the user. The content 800 may include text or voice as instructions for eye movement of the user with respect to the content 800 . The content 800 can be largely composed of five steps.
제1 단계(810)에서, 컨텐츠(800) 내에는 사용자의 시선을 유도시키기 위한 오브젝트(811)가 출력될 수 있다. 예를 들어, 오브젝트(811)는 디스플레이의 중앙에 위치할 수 있다.In the first step 810, an
제2 단계(820)에서, 오브젝트(811)의 출력이 유지된 상태에서 오브젝트(822)가 추가로 출력될 수 있다.In the
제3 단계(830)에서, 오브젝트(811)의 출력이 유지된 상태에서 오브젝트(822)가 사라질 수 있다.In the
제4 단계(840)에서, 컨텐츠(800) 내에 위치하던 오브젝트(811)가 사라질 수 있다. 사전에 사용자는 오브젝트(822)가 출력되었던 위치(841)를 응시하도록 지시받을 수 있다.In the
제5 단계(850)에서, 위치(841)에 오브젝트(851)가 출력될 수 있다. 오브젝트(851)는 위치(841)를 사용자에게 알려주기 위한 정답일 수 있다.In a
컨텐츠(800)가 디스플레이에 출력되는 동안 컨텐츠(800)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다While the content 800 is output on the display, user images of a user observing the content 800 may be created, and based on the user images, coordinate values on the display at which the user's eyes gaze may be determined.
단계들(810 내지 850)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(820) 및 단계(850)에서 출력되는 오브젝트(822) 및 오브젝트(851)의 위치들이 변화될 수 있다. 단계들(810 내지 850)의 1회 수행은 1회의 태스크로 이해될 수 있다. 오브젝트(822) 및 오브젝트(851)의 위치들이 변화하도록 컨텐츠(800)가 미리 제작될 수 있다.Steps 810 to 850 may be repeatedly performed a preset number of times, and the locations of the
도 9는 일 예에 따른 사용자의 변화 감지를 검출하기 위한 컨텐츠를 도시한다.9 illustrates content for detecting a change detection of a user according to an example.
일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(900)는 사용자의 눈 움직임으로서 변화 감지(change detection)를 검출하기 위한 컨텐츠일 수 있다. 컨텐츠(900)는 컨텐츠(900)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(900)는 크게 3단계로 구성될 수 있다.According to an embodiment, the content 900 provided to the user may be content for detecting change detection as the user's eye movement. The content 900 may include text or voice as instructions for eye movement of the user with respect to the content 900 . The content 900 can be largely composed of three steps.
제1 단계(910)에서, 컨텐츠(900) 내에는 사용자의 시선을 유도시키기 위한 이미지(920)가 출력될 수 있다. 예를 들어, 이미지(920)는 오브젝트(922)를 포함할 수 있다. 이미지(920)가 미리 설정된 시간 동안 출력된 후, 점멸 이미지(930)가 출력될 수 있다. 점멸 이미지(930)는 사용자의 시선을 환기시키기 위한 이미지일 수 있고, 공백 이미지일 수 있다. 점멸 이미지(930)가 미리 설정된 시간 동안 출력된 후 이미지(940)가 출력될 수 있다. 이미지(940)는 이미지(920)의 일부를 수정한 이미지일 수 있다. 예를 들어, 이미지(940)는 오브젝트(922) 대신에 다른 오브젝트(942)를 포함할 수 있다.In the
일 실시 예에 따르면, 이미지(920)의 출력 및 이미지(940)의 출력 사이에 점멸 이미지(930)가 출력되는 것으로 도시되었으나, 점멸 이미지(930)가 출력되지 않고, 이미지(920)의 출력 및 이미지(940)의 출력이 교대로 수행될 수 있다.According to an embodiment, although the
미리 설정된 시간 동안 이미지들(920, 930, 940)의 출력이 반복될 수 있다.The output of the
사용자가 이미지(920) 및 이미지(940) 간의 차이를 발견한 경우, 사용자는 이미지(920) 또는 이미지(940)의 차이를 선택(예: 터치 입력)할 수 있다. 사용자의 선택이 정답인 경우, 제2 단계(950)가 수행될 수 있다.When the user finds a difference between the
미리 설정된 시간이 경과한 후에도, 사용자가 이미지(920) 및 이미지(940) 간의 차이를 발견하지 못한 경우에도 제2 단계(950)가 수행될 수 있다.The
제2 단계(950)에서, 컨텐츠(900) 내에는 이미지(920) 또는 이미지(940)의 오브젝트(922) 또는 오브젝트(942)에 대한 정답 오브젝트(952)가 출력될 수 있다. 정답 오브젝트(952)는 이미지(920) 및 이미지(940) 간의 차이를 사용자에게 알려주기 위한 정답일 수 있다.In the
제3 단계(960)에서, 컨텐츠(900) 내에는 이미지(920)와는 다른 이미지가 출력된다는 알림이 출력될 수 있다.In the
컨텐츠(900)가 디스플레이에 출력되는 동안 컨텐츠(900)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다While the content 900 is output on the display, user images of a user observing the content 900 may be generated, and based on the user images, coordinate values on the display at which the user's eyes gaze may be determined.
단계들(910 내지 930)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(910)에서 출력되는 오브젝트들(920 및 940)이 변경될 수 있다. 단계들(910 내지 930)의 1회 수행은 1회의 태스크로 이해될 수 있다.
도 10은 일 예에 따른 사용자의 스트룹 테스트를 위한 컨텐츠를 도시한다.10 illustrates content for a stroop test of a user according to an example.
일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(900)는 사용자에게 집중하기 어려운 환경을 제공하고, 제시된 지시 사항을 수행하도록 하기 위한 컨텐츠일 수 있다. 컨텐츠(1000)는 컨텐츠(1000)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(1000)는 크게 2단계로 구성될 수 있다.According to an embodiment, the content 900 provided to the user may be content for providing an environment in which it is difficult for the user to concentrate and to perform suggested instructions. The content 1000 may include text or voice as instructions for eye movement of the user with respect to the content 1000 . The content 1000 can be largely composed of two stages.
제1 단계(1010)에서, 컨텐츠(1000) 내에는 사용자의 시선을 유도시키기 위한 오브젝트(1011)가 출력될 수 있다. 오브젝트(1011)는 디스플레이의 중앙에 위치할 수 있다.In the
제2 단계(1020)에서, 컨텐츠(1000) 내에는 특정한 색을 갖는 오브젝트(1021) 및 색을 나타내는 텍스트(1022)가 출력될 수 있다. 오브젝트(1021)의 색과 텍스트(1022)가 나타내는 색은 다를 수 있다. 예를 들어, 오브젝트(1021)의 색은 빨강일 수 있다.In the
추가적으로, 컨텐츠(1000) 내에는 색을 나타내는 텍스트들(1023 내지 1026)이 출력될 수 있다. 사용자는 오브젝트(1021)의 색을 나타내는 텍스트(1024)를 선택할 수 있다.Additionally,
컨텐츠(1000)가 디스플레이에 출력되는 동안 컨텐츠(1000)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다.While the content 1000 is being output to the display, user images of a user observing the content 1000 may be generated, and based on the user images, coordinate values of the user's eyes on the display may be determined.
단계들(1010 및 1020)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(1020)에서 출력되는 특정한 색을 갖는 오브젝트(1021) 및 색을 나타내는 텍스트(1022)가 변화될 수 있다. 단계들(1010 내지 1020)의 1회 수행은 1회의 태스크로 이해될 수 있다.
도 11은 일 예에 따른 사용자의 눈이 응시하는 디스플레이 상의 좌표 값을 연속적으로 결정하는 방법의 흐름도이다.11 is a flowchart of a method of continuously determining coordinate values on a display at which eyes of a user gaze, according to an example.
일 실시 예에 따르면, 도 4를 참조하여 전술된 단계(410)가 수행된 후 아래의 단계들(1110 내지 1130)이 사용자 단말(예: 도 1의 사용자 단말(120))에 의해 수행될 수 있다. 예를 들어, 전자 장치(300)는 사용자 단말이 단계들(1110 내지 1130)을 수행하도록 사용자 단말을 제어할 수 있다. 단계들(1110 내지 1130)은 사용자 단말에 설치된 추가 어플리케이션에 의해 수행될 수 있다.According to an embodiment, after the
단계(1110)에서, 사용자 단말은 사용자 단말의 카메라를 통해 컨텐츠를 관찰하는 사용자의 눈을 포함하는 사용자 이미지들을 연속적으로 생성할 수 있다. 예를 들어, 컨텐츠(예: 제1 컨텐츠)가 출력되는 동안 미리 설정된 주기로 사용자 이미지 세트(예: 제1 사용자 이미지 세트)가 생성될 수 있다.In
일 실시 예에 따르면, 단계(1120)는 단계들(1122 내지 1128)을 포함할 수 있다.According to one embodiment,
단계(1122)에서, 사용자 단말은 컨텐츠에 대해 수신된 사용자 이미지들 중 제1 사용자 이미지 내의 사용자의 제1 눈을 검출할 수 있다.In
단계(1124)에서, 사용자 단말은 제1 눈에 기초하여 사용자의 제1 시선 방향을 결정할 수 있다. 예를 들어, 제1 사용자 이미지 내의 제1 눈의 좌표 값에 기초하여 사용자 눈의 3차원 공간 내의 위치가 결정될 수 있고, 눈의 위치 및 동공의 방향 등에 기초하여 제1 시선 방향이 결정될 수 있다. 사용자 이미지에 기초하여 사용자의 제1 시선 방향을 결정하는 소프트웨어 등이 사용될 수 있고, 기재된 실시예로 한정되지 않는다.In
단계(1126)에서, 사용자 단말은 제1 시선 방향에 기초하여 디스플레이 상의 제1 좌표 값을 결정할 수 있다. 예를 들어, 제1 좌표 값은 디스플레이 상의 픽셀 좌표 값일 수 있다. 다른 예로, 제1 좌표 값은 디스플레이의 전체 영역을 복수의 영역들로 분할한 영역들 중 어느 하나에 대응할 수 있다.In
단계(1128)에서, 사용자 단말은 제1 좌표 값 및 제1 사용자 이미지의 제1 타임 스탬프를 연관시킬 수 있다. 제1 타임 스탬프는 제1 사용자 이미지가 생성된 시각을 나타낼 수 있다.In step 1128, the user terminal may associate the first coordinate value and the first time stamp of the first user image. The first time stamp may indicate a time when the first user image was created.
단계들(1122 내지 1128)이 사용자 이미지들 각각에 대해 반복적으로 수행될 수 있다. 단계들(1122 내지 1128)이 반복적으로 수행됨에 따라, 컨텐츠에 대한 좌표 값들이 생성될 수 있고, 좌표 값들 각각에 대해 타임 스탬프가 연관될 수 있다.Steps 1122-1128 may be performed iteratively for each of the user images. As
단계(1230)에서, 사용자 단말은 결정된 좌표 값들을 전자 장치(300)로 전송할 수 있다.In step 1230, the user terminal may transmit the determined coordinate values to the
도 12는 일 예에 따른 원시 타겟 바이오 마커들에 기초하여 타겟 바이오 마커들을 생성하는 방법의 흐름도이다.12 is a flowchart of a method of generating target biomarkers based on raw target biomarkers according to an example.
일 실시 예에 따르면, 도 4를 참조하여 전술된 단계(430)는 아래의 단계들(1210 및 1220)을 포함할 수 있다.According to one embodiment, step 430 described above with reference to FIG. 4 may include
단계(1210)에서, 전자 장치(300)는 사용자 단말로부터 수신한 사용자가 응시한 좌표 값에 기초하여 타겟 컨텐츠에 대해 미리 정의된 사용자의 눈 움직임에 대한 하나 이상의 원시 타겟 바이오 마커들을 생성할 수 있다.In
단계(1220)에서, 전자 장치(300)는 하나 이상의 원시 타겟 바이오 마커들 각각에 대해 미리 설정된 정규화 방식을 적용함으로써 원시 타겟 바이오 마커들에 대응하는 타겟 바이오 마커들을 생성할 수 있다. 예를 들어, 원시 타겟 바이오 마커를 정규화하기 위해 스케일러(scaler)가 이용될 수 있다. 예를 들어, 스케일러는 최소-최대 스케일러(min-max scaler), 최대 절대 값 스케일러(max-abs scaler), 표준 스케일러(standard scaler) 및 강건한 스케일러(robust scaler)를 포함할 수 있다. 정규화를 통해 원시 타겟 바이오 마커가 비정상적인 값을 나타내는 경우에도 모델에 입력이 가능해질 수 있다.In
일 실시 예에 따르면, 스케일러는 제1 원시 타겟 바이오 마커에 대해 제1 정규화 방식을 적용함으로써 제1 원시 타겟 바이오 마커들에 대응하는 제1 타겟 바이오 마커를 생성하고, 제2 원시 타겟 바이오 마커에 대해 제2 정규화 방식을 적용함으로써 제2 원시 타겟 바이오 마커들에 대응하는 제2 타겟 바이오 마커를 생성할 수 있다.According to an embodiment, the scaler generates a first target biomarker corresponding to the first original target biomarkers by applying a first normalization method to the first original target biomarker, and generates a first target biomarker corresponding to the second original target biomarker. A second target biomarker corresponding to the second original target biomarkers may be generated by applying the second normalization method.
도 13은 일 예에 따른 복수의 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 방법의 흐름도이다.13 is a flowchart of a method of generating a target biomarker set based on a plurality of sub-biomarkers according to an example.
일 실시 예에 따르면, 도 4를 참조하여 전술된 단계(430)는 아래의 단계들(1310 내지 1330)을 포함할 수 있다.According to one embodiment, step 430 described above with reference to FIG. 4 may include
단계(1310)에서, 전자 장치(300)는 제1 타겟 컨텐츠에 대해 수신된 제1 좌표 값들에 기초하여 제1 서브 바이오 마커들을 생성할 수 있다. 예를 들어, 제1 타겟 컨텐츠가 사용자의 프로 사케이드(pro-saccades)를 검출하기 위한 컨텐츠인 경우, 제1 서브 바이오 마커들은 시선고정 최대시간(fixation time max), 시선고정 평균시간(fixation mean), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 시선고정 횟수(fixation count) 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean)를 포함할 수 있다. 일 예에 따르면, 단계(1310)를 수행하기 위해 단계들(1210 및 1220)이 수행될 수 있다.In
단계(1320)에서, 전자 장치(300)에서, 제2 타겟 컨텐츠에 대해 수신된 제2 좌표 값들에 기초하여 제2 서브 바이오 마커들을 생성할 수 있다. 예를 들어, 제2 타겟 컨텐츠가 안티 사케이드(anti-saccades)를 검출하기 위한 컨텐츠인 경우, 제2 서브 바이오 마커들은 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 사용자가 제2 컨텐츠를 바라본 총 시간(screen duration total), 시선고정 시간들의 표준편차(fixationStd), 시선고정 횟수(fixation count), 및 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean)을 포함할 수 있다.In
예를 들어, 단계(1310) 및 단계(1320)를 통해 제1 서브 바이오 마커들 및 제2 서브 바이오 마커들이 생성되는 구성이 설명되었으나, 추가적으로 제3 타겟 컨텐츠 및 제4 타겟 컨텐츠에 대한 제3 서브 바이오 마커들 및 제4 바이오 마커들이 더 생성될 수 있다.For example, although the configuration in which the first sub biomarkers and the second sub biomarkers are generated through
단계(1330)에서, 전자 장치(300)는 제1 서브 바이오 마커들 및 제2 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트가 생성될 수 있다. 예를 들어, 타겟 바이오 마커 세트가 훈련된 복수의 모델들 각각에 입력될 수 있다.In
도 14는 일 예에 따른 복수의 모델들을 이용하여 사용자의 주의력 정도를 결정하는 방법의 흐름도이다.14 is a flowchart of a method of determining a user's attentional level using a plurality of models according to an example.
일 실시 예에 따르면, 도 4를 참조하여 전술된 단계(440)는 아래의 단계들(1410 및 1420)을 포함할 수 있다.According to one embodiment, step 440 described above with reference to FIG. 4 may include
단계(1410)에서, 전자 장치(300)는 미리 훈련된 복수의 모델들 각각에 타겟 바이오 마커들(또는, 타겟 바이오 마커 세트)을 입력할 수 있다. 예를 들어, 복수의 모델들은 제1 모델, 제2 모델, 제3 모델 및 제4 모델을 포함할 수 있다. 제1 모델, 제2 모델, 제3 모델 및 제4 모델의 각각은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, 및 Random Forest Classifier일 수 있다.In
일 실시 예에 따르면, 주의력 정도를 분류하기 위한 모델로 이용될 수 있는 알고리즘 또는 분류기가 실험을 통해 선정될 수 있다. 예를 들어, 제1 모델, 제2 모델, 제3 모델 및 제4 모델이 상기의 실험에 기초하여 선정될 수 있다. 아래의 [표 2]를 통해 상기의 실험 결과가 나타날 수 있다.According to an embodiment, an algorithm or classifier that can be used as a model for classifying the degree of attention may be selected through an experiment. For example, the first model, the second model, the third model, and the fourth model may be selected based on the above experiments. [Table 2] below shows the above experimental results.
[표 2]에서 '더미(dummy)'라고 명명된 모델은 알고리즘적으로 정확하게 구현이 되지 않고, 단순하게 비정상이라는 하나의 결과만 도출하는 모델일 수 있다. 이에 따라, 더미 모델의 결과보다 높은 정확도/신뢰도를 나타내는 모델이 주의력 정도를 분류하기 위한 모델로 선정될 수 있다.The model named 'dummy' in [Table 2] may not be implemented algorithmically accurately, but may be a model that derives only one result, which is simply abnormal. Accordingly, a model exhibiting higher accuracy/reliability than the result of the dummy model may be selected as a model for classifying the degree of attention.
[표 2]에 따르면, 더미 모델의 결과보다 높은 정확도/신뢰도를 나타내는 모델들이 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier 및 Quadratic Discriminant Analysis로 나타난다. 이들 중에서 Quadratic Discriminant Analysis는 정확도 이외의 다른 지표들이(예: AUC, Recall, F1 등) 더미 모델과 거의 유사하기 때문에 최종 이용 모델에서 제외될 수 있고, K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, 및 Random Forest Classifier이 최종 이용 모델들로 결정될 수 있다.According to [Table 2], models showing higher accuracy/reliability than the results of the dummy model appear as K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, and Quadratic Discriminant Analysis. Among these, Quadratic Discriminant Analysis can be excluded from the final use model because other indicators (eg AUC, Recall, F1, etc.) other than accuracy are almost similar to the dummy model, and K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, and A Random Forest Classifier can be determined with end-use models.
일 실시 예에 따르면, Extra Trees Classifier에 기초한 모델은 훈련 과정에서 동일한 데이터가 중복적으로 이용되지 않지만, Random Forest Classifier에 기초한 모델은 훈련 과정에서 동일한 데이터가 중복적으로 이용되는 것을 허용할 수 있다. Random Forest Classifier에 기초한 모델은 데이터의 중복을 허용함으로써 다른 방식에 기초한 모델에서 캐치하지 못한 입력 데이터의 특성을 캐치할 수 있다.According to an embodiment, the model based on the Extra Trees Classifier does not use the same data repeatedly during training, but the model based on the random forest classifier allows the same data to be used repeatedly during the training process. A model based on a random forest classifier can catch characteristics of input data that cannot be captured by models based on other methods by allowing data redundancy.
일 실시 예에 따르면, 복수의 모델들 각각은 입력된 타겟 바이오 마커들에 대한 주의력 정도를 결과로서 출력할 수 있다. 예를 들어, 제1 모델이 제1 결과를 출력하고, 제2 모델이 제2 결과를 출력하고, 제3 모델이 제3 결과를 출력하고, 제4 모델이 제4 결과를 출력할 수 있다.According to an embodiment, each of the plurality of models may output the degree of attention for the input target biomarkers as a result. For example, a first model may output a first result, a second model may output a second result, a third model may output a third result, and a fourth model may output a fourth result.
단계(1420)에서, 전자 장치(300)는 제1 모델의 제1 결과 및 제2 모델의 제2 결과에 기초하여 사용자의 주의력 정도를 결정할 수 있다.In
일 실시 예에 따르면, 전자 장치(300)는 예를 들어, 제1 모델에 의한 제1 결과가 정상 단계, 제2 모델에 의한 제2 결과가 정상 단계, 제3 모델에 의한 제3 결과가 ADHD 단계, 및 제4 모델에 의한 제4 결과가 정상 단계인 경우 투표방식에 의해 사용자의 주의력 정도는 정상 단계로 결정될 수 있다.According to an embodiment, the
다른 일 실시 예에 따르면, 전자 장치(300)는 예를 들어, 제1 모델의 의한 제1 결과가 정상 단계일 확률이 90%이고, 제2 모델의 의한 제2 결과가 정상 단계일 확률이 80%이고, 제3 모델의 의한 제3 결과가 정상 단계일 확률이 50%이고, 제4 모델의 의한 제4 결과가 정상 단계일 확률이 40%인 경우 확률의 평균 값을 65%로 계산하고, 평균 값인 65%에 기초하여 사용자의 주의력 정도를 계산할 수 있다. 예를 들어, 정상 단계에 대해 미리 설정된 임계 값 보다 평균 값이 높은 경우 사용자는 정상 단계로 결정될 수 있고, 임계 값 보다 평균 값이 높지 않은 경우 사용자는 ADHD 단계로 결정될 수 있다.According to another embodiment, the
도 15는 일 예에 따른 복수의 모델들을 이용하여 사용자의 주의력 정도를 결정하는 방법을 도시한다.15 illustrates a method of determining a user's attentional level using a plurality of models according to an example.
일 실시 예에 따르면, 타겟 바이오 마커들(1510)(또는, 타겟 바이오 마커 세트)이 제1 모델(1522), 제2 모델(1524), 제3 모델(1526), 및 제4 모델(1528) 각각에 입력될 수 있다. 제1 모델(1522), 제2 모델(1524), 제3 모델(1526), 및 제4 모델(1528)은 각각 제1 결과(1532), 제2 결과(1534), 제3 결과(1536) 제4 결과(1538)를 출력할 수 있다.According to an embodiment, the target biomarkers 1510 (or target biomarker set) include a
일 실시 예에 다르면, 전자 장치(300)는 제1 결과(1532), 제2 결과(1534), 제3 결과(1536), 및 제4 결과(1538)에 투표방식(예: 다수결)을 적용함으로써 사용자의 주의력 정도를 결정할 수 있다.According to an embodiment, the
일 실시 예에 다르면, 전자 장치(300)는 제1 결과(1532), 제2 결과(1534), 제3 결과(1536), 및 제4 결과(1538)에 의해 출력된 정상 단계일 확률(또는, ADHD 단계일 확률)들의 평균 값을 계산하고, 평균 값에 기초하여 사용자의 주의력 정도를 결정할 수 있다.According to an embodiment, the
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (15)
사용자 단말의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제1 타겟 컨텐츠를 출력하는 단계;
상기 제1 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제1 좌표 값들을 연속적으로 수신하는 단계;
상기 제1 좌표 값들에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제1 타겟 컨텐츠에 대응하는 제1 서브 바이오 마커들을 생성하는 단계;
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제2 타겟 컨텐츠를 출력하는 단계;
상기 제2 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제2 좌표 값들을 연속적으로 수신하는 단계;
상기 제2 좌표 값들에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제2 타겟 컨텐츠에 대응하는 제2 서브 바이오 마커들을 생성하는 단계;
상기 제1 서브 바이오 마커들 및 상기 제2 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 단계; 및
상기 타겟 바이오 마커 세트에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계
를 포함하고,
상기 타겟 바이오 마커 세트에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계는,
사용자의 주의력 정도를 결정하도록 서로 다른 방식으로 훈련된 제1 모델 및 제2 모델을 포함하는 복수의 모델들 각각에 상기 타겟 바이오 마커 세트를 입력하는 단계; 및
상기 타겟 바이오 마커 세트에 대한 상기 제1 모델의 제1 결과 및 상기 타겟 바이오 마커 세트에 대한 상기 제2 모델의 제2 결과를 포함하는 상기 복수의 모델들의 복수의 결과들에 투표방식을 적용하거나 또는 상기 복수의 결과들의 평균 값에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계
를 포함하고,
상기 제1 타겟 컨텐츠는 상기 사용자의 프로 사케이드(pro-saccades)를 검출하기 위해 시간에 흐름에 따라 상기 제1 타겟 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠이고,
상기 제2 타겟 컨텐츠는 상기 사용자의 안티 사케이드(anti-saccades)를 검출하기 위해 시간에 흐름에 따라 상기 제2 타겟 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠이고,
상기 결정된 주의력 정도가 상기 사용자 단말을 통해 출력되는,
주의력 정도 결정 방법.
A method for determining the level of attention of a user, performed by an electronic device,
outputting pre-produced first target content to determine a level of attention of a user through a display of a user terminal;
continuously receiving first coordinate values on the display at which eyes of the user observing the first target content gaze;
generating first sub-biomarkers corresponding to the first target content for eye movement of the user based on the first coordinate values;
outputting previously produced second target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving second coordinate values on the display at which eyes of the user observing the second target content gaze;
generating second sub-biomarkers corresponding to the second target content for eye movements of the user based on the second coordinate values;
generating a target biomarker set based on the first sub-biomarkers and the second sub-biomarkers; and
Determining the level of attention of the user based on the target biomarker set
including,
Determining the level of attention of the user based on the target biomarker set,
inputting the target biomarker set to each of a plurality of models including a first model and a second model trained in different ways to determine a user's attentional level; and
A voting method is applied to a plurality of results of the plurality of models including a first result of the first model for the target biomarker set and a second result of the second model for the target biomarker set; or determining the degree of attention of the user based on an average value of the plurality of results;
including,
The first target content is content in which at least one of the shape, color, and position of at least one object of the first target content changes over time to detect pro-saccades of the user, and ,
The second target content is content in which at least one of the shape, color, and position of at least one object of the second target content changes over time in order to detect anti-saccades of the user. ,
The determined degree of attention is output through the user terminal,
Methods for determining the degree of attention.
상기 제1 타겟 컨텐츠 또는 상기 제2 타겟 컨텐츠는, 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 애니메이션과, 상기 사용자에게 행동을 지시하는 음성 또는 텍스트로 나타나는 지시(instruction)를 포함하는,
주의력 정도 결정 방법.
According to claim 1,
The first target content or the second target content includes an animation in which at least one of the shape, color, and position of at least one object changes, and a voice or text instruction indicating an action to the user. doing,
Methods for determining the degree of attention.
상기 연속적으로 수신되는 상기 제1 좌표 값들은 상기 사용자 단말에 의해 결정되고,
상기 사용자 단말이,
제1 사용자 이미지 내의 상기 사용자의 제1 눈을 검출하는 단계;
상기 제1 눈에 기초하여 상기 사용자의 제1 시선 방향을 결정하는 단계;
상기 제1 시선 방향에 기초하여 상기 디스플레이 상의 제1 좌표 값을 결정하는 단계; 및
상기 제1 좌표 값 및 상기 제1 사용자 이미지의 제1 타임 스탬프를 연관하는 단계
를 수행함으로써 상기 제1 좌표 값들이 연속적으로 결정되는,
주의력 정도 결정 방법.
According to claim 1,
The first coordinate values continuously received are determined by the user terminal,
the user terminal,
detecting a first eye of the user in a first user image;
determining a first gaze direction of the user based on the first eye;
determining a first coordinate value on the display based on the first gaze direction; and
associating the first coordinate value with a first time stamp of the first user image;
The first coordinate values are continuously determined by performing
Methods for determining the degree of attention.
상기 제1 타겟 컨텐츠에 대응하는 상기 제1 서브 바이오 마커들은, 시선고정 최대시간(fixation time max), 시선고정 평균시간(fixation mean), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 시선고정 횟수(fixation count) 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
The first sub-biomarkers corresponding to the first target content include a fixation time max, a fixation average time, and an average of times taken to switch from the previous saccade to the next saccade (fixation time max) Including one or more of saccade latency mean, fixation count, and average speed of transition from fixation to saccade (saccade velocity mean),
Methods for determining the degree of attention.
상기 제2 타겟 컨텐츠에 대응하는 상기 제2 서브 바이오 마커들은, 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 상기 사용자가 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 시선고정 시간들의 표준편차(fixationStd), 시선고정 횟수(fixation count), 및 상기 좌표 값들 중 x 좌표 값들의 평균(coordX mean) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
The second sub-biomarkers corresponding to the second target content include a standard deviation of saccade duration times (saccadeStd), a total time the user viewed the target content (screen duration total), and a standard of gaze fixation times. Including one or more of a deviation (fixationStd), a fixation count, and an average of x coordinate values (coordX mean) among the coordinate values,
Methods for determining the degree of attention.
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제3 타겟 컨텐츠를 출력하는 단계;
상기 제3 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제3 좌표 값을 연속적으로 수신하는 단계; 및
상기 제3 좌표 값에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제3 타겟 컨텐츠에 대응하는 제3 서브 바이오 마커들을 생성하는 단계
를 더 포함하고,
상기 타겟 바이오 마커 세트를 생성하는 단계는,
상기 제3 서브 바이오 마커들에 기초하여 상기 타겟 바이오 마커 세트를 생성하는 단계
를 포함하고,
상기 제3 타겟 컨텐츠는 상기 사용자의 기억 유도 사케이드(memory guided saccades)를 검출하기 위한 컨텐츠이고,
상기 제3 타겟 컨텐츠에 대응하는 상기 제3 서브 바이오 마커들은, 시선고정 최대시간(fixation time max), 시선고정 시간들의 총 합(fixation duration), 시선고정 평균시간(fixation mean), 상기 좌표 값들 중 y 좌표 값들의 평균(coordY mean), 및 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
outputting previously produced third target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving third coordinate values on the display at which eyes of the user observing the third target content gaze; and
Generating third sub-biomarkers corresponding to the third target content for eye movements of the user based on the third coordinate values
Including more,
Generating the target biomarker set,
generating the target biomarker set based on the third sub biomarkers;
including,
The third target content is content for detecting memory guided saccades of the user,
The third sub-biomarkers corresponding to the third target content include a maximum fixation time (fixation time max), a total sum of fixation times (fixation duration), an average fixation time (fixation mean), among the coordinate values. Including one or more of the average of y coordinate values (coordY mean), and the total time of viewing the target content (screen duration total),
Methods for determining the degree of attention.
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제4 타겟 컨텐츠를 출력하는 단계;
상기 제4 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제4 좌표 값을 연속적으로 수신하는 단계; 및
상기 제4 좌표 값에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제4 타겟 컨텐츠에 대응하는 제4 서브 바이오 마커들을 생성하는 단계
를 더 포함하고,
상기 타겟 바이오 마커 세트를 생성하는 단계는,
상기 제4 서브 바이오 마커들에 기초하여 상기 타겟 바이오 마커 세트를 생성하는 단계
를 포함하고,
상기 제4 타겟 컨텐츠는 상기 사용자의 변화 감지(change detection)를 검출하기 위한 컨텐츠이고,
상기 제4 타겟 컨텐츠에 대응하는 상기 제4 서브 바이오 마커들은, 문제를 해결하기 위해 소요된 시간들의 총합(total elapsed times), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차(saccade latencyStd), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 상기 타겟 컨텐츠를 바라본 시간들의 평균(screen duration mean), 시선고정 평균시간(fixation mean), 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 및 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합(saccade latency total) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
outputting pre-produced fourth target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving fourth coordinate values on the display at which eyes of the user observing the fourth target content gaze; and
Generating fourth sub-biomarkers corresponding to the fourth target content for eye movements of the user based on the fourth coordinate values
Including more,
Generating the target biomarker set,
generating the target biomarker set based on the fourth sub biomarkers;
including,
The fourth target content is content for detecting change detection of the user,
The fourth sub-biomarkers corresponding to the fourth target content are the total elapsed times, the standard deviation of the times taken to switch from the previous saccade to the next saccade (saccade latencyStd) ), the average of the times taken to switch from the previous saccade to the next saccade (saccade latency mean), the average of the times of looking at the target content (screen duration mean), the average fixation time (fixation mean), looking at the target content Including one or more of the total time (screen duration total) and the sum of the times it took to switch from the previous saccade to the next saccade (saccade latency total),
Methods for determining the degree of attention.
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제5 타겟 컨텐츠를 출력하는 단계;
상기 제5 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제5 좌표 값을 연속적으로 수신하는 단계; 및
상기 제5 좌표 값에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제5 타겟 컨텐츠에 대응하는 제5 서브 바이오 마커들을 생성하는 단계
를 더 포함하고,
상기 타겟 바이오 마커 세트를 생성하는 단계는,
상기 제5 서브 바이오 마커들에 기초하여 상기 타겟 바이오 마커 세트를 생성하는 단계
를 포함하고,
상기 제5 타겟 컨텐츠는 상기 사용자의 스트룹 테스트(stroop test)를 위한 컨텐츠이고,
상기 제5 타겟 컨텐츠에 대응하는 상기 제5 서브 바이오 마커들은, 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 사케이드들의 횟수(saccade count), 사케이드들이 지속된 시간의 총합(saccade duration), 상기 좌표 값들 중 x 좌표 값들의 평균(coordX mean), 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 상기 타겟 컨텐츠를 바라본 시간들의 평균(screen duration mean), 및 시선고정 평균시간(fixation mean) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
outputting pre-produced fifth target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving fifth coordinate values on the display at which eyes of the user observing the fifth target content gaze; and
Generating fifth sub-biomarkers corresponding to the fifth target content for eye movement of the user based on the fifth coordinate value
Including more,
Generating the target biomarker set,
generating the target biomarker set based on the fifth sub biomarkers;
including,
The fifth target content is content for a stroop test of the user,
The fifth sub-biomarkers corresponding to the fifth target content are the total time of viewing the target content (screen duration total), the number of saccades (saccade count), and the sum of the duration of saccades (saccade duration) , the average of x coordinate values among the coordinate values (coordX mean), the standard deviation of the times that saccades lasted (saccadeStd), the average of the times of viewing the target content (screen duration mean), and the fixation average time (fixation mean) ) containing one or more of,
Methods for determining the degree of attention.
상기 제1 서브 바이오 마커들을 생성하는 단계는,
상기 제1 좌표 값들에 기초하여 상기 제1 타겟 컨텐츠에 대해 미리 정의된 상기 사용자의 눈 움직임에 대한 제1 원시 타겟 바이오 마커들을 생성하는 단계; 및
상기 제1 원시 타겟 바이오 마커들 각각에 대해 미리 설정된 정규화 방식을 적용함으로써 상기 제1 원시 타겟 바이오 마커들에 대응하는 상기 제1 서브 바이오 마커들을 생성하는 단계
를 포함하는,
주의력 정도 결정 방법.
According to claim 1,
The step of generating the first sub biomarkers,
generating first raw target biomarkers for predefined eye movements of the user with respect to the first target content based on the first coordinate values; and
Generating the first sub-biomarkers corresponding to the first original target biomarkers by applying a preset normalization scheme to each of the first original target biomarkers.
including,
Methods for determining the degree of attention.
상기 제1 모델은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear Discriminant Analysis 및 Naive Bayes 중 어느 하나에 기초하여 훈련된 모델이고,
상기 제2 모델은 상기 제1 모델과 상이한 모델인,
주의력 정도 결정 방법.
According to claim 1,
The first model is K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear A model trained based on any one of Discriminant Analysis and Naive Bayes,
The second model is a model different from the first model,
Methods for determining the degree of attention.
Claims 1, 2, 3, 4, 5, 6, 7, 8, 10, and 13, a program that performs any one of the methods A computer-readable recording medium recorded thereon.
사용자의 주의력 정도를 결정하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
사용자 단말의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제1 타겟 컨텐츠를 출력하는 단계;
상기 제1 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제1 좌표 값들을 연속적으로 수신하는 단계;
상기 제1 좌표 값들에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제1 타겟 컨텐츠에 대응하는 제1 서브 바이오 마커들을 생성하는 단계;
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제2 타겟 컨텐츠를 출력하는 단계;
상기 제2 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제2 좌표 값들을 연속적으로 수신하는 단계;
상기 제2 좌표 값들에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제2 타겟 컨텐츠에 대응하는 제2 서브 바이오 마커들을 생성하는 단계;
상기 제1 서브 바이오 마커들 및 상기 제2 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 단계; 및
상기 타겟 바이오 마커 세트에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계
를 수행하고,
상기 타겟 바이오 마커 세트에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계는,
사용자의 주의력 정도를 결정하도록 서로 다른 방식으로 훈련된 제1 모델 및 제2 모델을 포함하는 복수의 모델들 각각에 상기 타겟 바이오 마커 세트를 입력하는 단계; 및
상기 타겟 바이오 마커 세트에 대한 상기 제1 모델의 제1 결과 및 상기 타겟 바이오 마커 세트에 대한 상기 제2 모델의 제2 결과를 포함하는 상기 복수의 모델들의 복수의 결과들에 투표방식을 적용하거나 또는 상기 복수의 결과들의 평균 값에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계
를 포함하고,
상기 제1 타겟 컨텐츠는 상기 사용자의 프로 사케이드(pro-saccades)를 검출하기 위해 시간에 흐름에 따라 상기 제1 타겟 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠이고,
상기 제2 타겟 컨텐츠는 상기 사용자의 안티 사케이드(anti-saccades)를 검출하기 위해 시간에 흐름에 따라 상기 제2 타겟 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠이고,
상기 결정된 주의력 정도가 상기 사용자 단말을 통해 출력되는,
전자 장치.The electronic device that determines the level of attention of the user,
a memory in which a program for determining a user's level of attention is recorded; and
Processor that runs the above program
including,
said program,
outputting pre-produced first target content to determine a level of attention of a user through a display of a user terminal;
continuously receiving first coordinate values on the display at which eyes of the user observing the first target content gaze;
generating first sub-biomarkers corresponding to the first target content for eye movement of the user based on the first coordinate values;
outputting previously produced second target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving second coordinate values on the display at which eyes of the user observing the second target content gaze;
generating second sub-biomarkers corresponding to the second target content for eye movements of the user based on the second coordinate values;
generating a target biomarker set based on the first sub-biomarkers and the second sub-biomarkers; and
Determining the level of attention of the user based on the target biomarker set
do,
Determining the level of attention of the user based on the target biomarker set,
inputting the target biomarker set to each of a plurality of models including a first model and a second model trained in different ways to determine a user's attentional level; and
A voting method is applied to a plurality of results of the plurality of models including a first result of the first model for the target biomarker set and a second result of the second model for the target biomarker set; or determining the degree of attention of the user based on an average value of the plurality of results;
including,
The first target content is content in which at least one of the shape, color, and position of at least one object of the first target content changes over time in order to detect pro-saccades of the user, and ,
The second target content is content in which at least one of the shape, color, and position of at least one object of the second target content changes over time in order to detect anti-saccades of the user. ,
The determined degree of attention is output through the user terminal,
electronic device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220064663A KR102545747B1 (en) | 2022-05-26 | 2022-05-26 | Method and apparatus for determining degree of attention of user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220064663A KR102545747B1 (en) | 2022-05-26 | 2022-05-26 | Method and apparatus for determining degree of attention of user |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102545747B1 true KR102545747B1 (en) | 2023-06-21 |
Family
ID=86989505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220064663A KR102545747B1 (en) | 2022-05-26 | 2022-05-26 | Method and apparatus for determining degree of attention of user |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102545747B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190140864A (en) * | 2018-06-12 | 2019-12-20 | 주식회사 아이디어빈스 | Method and apparatus for determining concentration level of user |
KR102155309B1 (en) * | 2020-05-08 | 2020-09-11 | 주식회사 창 헬스케어 | Method for predicting cognitive impairment, server, user device and application implementing the method |
KR20210019266A (en) * | 2019-08-12 | 2021-02-22 | 주식회사 비엔알아이 | Apparatus and method for diagnosis of reading ability based on machine learning using eye tracking |
-
2022
- 2022-05-26 KR KR1020220064663A patent/KR102545747B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190140864A (en) * | 2018-06-12 | 2019-12-20 | 주식회사 아이디어빈스 | Method and apparatus for determining concentration level of user |
KR20210019266A (en) * | 2019-08-12 | 2021-02-22 | 주식회사 비엔알아이 | Apparatus and method for diagnosis of reading ability based on machine learning using eye tracking |
KR102155309B1 (en) * | 2020-05-08 | 2020-09-11 | 주식회사 창 헬스케어 | Method for predicting cognitive impairment, server, user device and application implementing the method |
Non-Patent Citations (2)
Title |
---|
Rommelse N. N. J., etc., A review on eye movement studies in childhood and adolescent psychiatry. Brain and Cognition. 68, pp.391~414 (2008.10.02.)* * |
Stokes J. D., etc., Measuring Attentional Distraction in Child With ADHD Using Virtual Reality Technology With Eye-Tracking. Frontiers in Virtual Reality. Vol.3, Article 855895, pp.1~12 (2022.03.08.)* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210330242A1 (en) | Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes | |
JP7175522B2 (en) | Systems and methods for testing and analyzing visual acuity and its changes | |
Nag et al. | Toward continuous social phenotyping: analyzing gaze patterns in an emotion recognition task for children with autism through wearable smart glasses | |
US10359842B2 (en) | Information processing system and information processing method | |
US20170364732A1 (en) | Eye tracking via patterned contact lenses | |
EP3282924B1 (en) | Assessment of low contrast visual sensitivity | |
EP3638108B1 (en) | Sleep monitoring from implicitly collected computer interactions | |
US10725534B2 (en) | Apparatus and method of generating machine learning-based cyber sickness prediction model for virtual reality content | |
JP2018512202A (en) | Processor-implemented system and method for measuring cognitive ability | |
US11583214B2 (en) | Adaptive psychological assessment tool | |
Wang et al. | Automated student engagement monitoring and evaluation during learning in the wild | |
US20240164672A1 (en) | Stress detection | |
Hohlfeld et al. | On the applicability of computer vision based gaze tracking in mobile scenarios | |
US20230360548A1 (en) | Assist system, assist method, and assist program | |
KR102545747B1 (en) | Method and apparatus for determining degree of attention of user | |
CN116507992A (en) | Detecting unexpected user interface behavior using physiological data | |
JP6807108B2 (en) | Cognitive function measurement system, cognitive function measurement communication system and program | |
KR20210084443A (en) | Systems and methods for automatic manual assessment of spatiotemporal memory and/or saliency | |
CN113805695B (en) | Reading understanding level prediction method and device, electronic equipment and storage medium | |
US20240180416A1 (en) | System and method for providing visual field tests | |
KR102115486B1 (en) | System, method, and apparatus of diagnosing reading ability | |
Jagatap et al. | Neurally-constrained modeling of human gaze strategies in a change blindness task | |
Asghari et al. | Eye tracking auto-correction using domain information | |
US20240120071A1 (en) | Quantifying and visualizing changes over time to health and wellness | |
US20230210364A1 (en) | Eye tracking system, eye tracking method, and eye tracking program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |