[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102545747B1 - Method and apparatus for determining degree of attention of user - Google Patents

Method and apparatus for determining degree of attention of user Download PDF

Info

Publication number
KR102545747B1
KR102545747B1 KR1020220064663A KR20220064663A KR102545747B1 KR 102545747 B1 KR102545747 B1 KR 102545747B1 KR 1020220064663 A KR1020220064663 A KR 1020220064663A KR 20220064663 A KR20220064663 A KR 20220064663A KR 102545747 B1 KR102545747 B1 KR 102545747B1
Authority
KR
South Korea
Prior art keywords
user
content
target
attention
target content
Prior art date
Application number
KR1020220064663A
Other languages
Korean (ko)
Inventor
김형준
임준식
김재원
천호상
Original Assignee
주식회사 아이디어빈스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이디어빈스 filed Critical 주식회사 아이디어빈스
Priority to KR1020220064663A priority Critical patent/KR102545747B1/en
Application granted granted Critical
Publication of KR102545747B1 publication Critical patent/KR102545747B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Developmental Disabilities (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Molecular Biology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

In order to determine the level of attention of a user, content is output through a user terminal, reactions of a user observing the content are continuously received, biomarkers are generated based on the reaction, and the level of attention of the user is determined through a plurality of pre-trained models based on the biomarkers.

Description

사용자의 주의력 정도 결정 방법 및 장치{METHOD AND APPARATUS FOR DETERMINING DEGREE OF ATTENTION OF USER}Method and apparatus for determining the degree of user's attention

기술 분야는 사용자의 주의력 정도를 결정하는 기술에 관한 것으로, 특히 사용자에게 컨텐츠를 제공하고, 제공된 컨텐츠에 대한 사용자의 리액션에 기초하여 사용자의 주의력 정도를 결정하는 장치 및 방법에 관한 것이다.The technical field relates to technology for determining a user's attentional level, and more particularly, to an apparatus and method for providing content to a user and determining a user's attentional level based on a user's reaction to the provided content.

ADHD(attention deficit / hyperactivity disorder)는 부주의, 과잉행동, 충동성의 증상이 주로 나타나는 질환으로서, 아동청소년기의 부정적인 경험을 유도하는 가장 흔하고 심각한 신경발달장애에 해당한다. 초중고생 유병률은 6 내지 8 퍼센트이다. 최근 성인 ADHD 환자가 급증하고 있으며, 성인 인구의 약 3 퍼센트(약 120만명)을 잠재적 질환자로 추정하고 있다. 이러한 성인 ADHD 환자가 급증하는 것은 아동청소년기에 조기 발견하지 못하여 적절하게 치료하지 못한 것에 기인한 것으로 분석되고 있다.
선행문헌번호: 한국 특허공개번호 제10-2019-0140864 (2019.12.20. 공개일)
ADHD (attention deficit/hyperactivity disorder) is a disease in which symptoms of inattention, hyperactivity, and impulsivity are mainly manifested, and it is the most common and serious neurodevelopmental disorder that induces negative experiences in children and adolescents. The prevalence in primary and secondary school students is 6 to 8 percent. Recently, adult ADHD patients are rapidly increasing, and it is estimated that about 3% (about 1.2 million people) of the adult population are potential patients. It is analyzed that the rapid increase in the number of adult ADHD patients is due to failure to treat them appropriately due to failure to detect them early in childhood and adolescence.
Prior Document Number: Korean Patent Publication No. 10-2019-0140864 (2019.12.20. Publication date)

일 실시 예는 사용자의 주의력 정도를 결정하는 장치 및 방법을 제공할 수 있다.An embodiment may provide a device and method for determining a user's level of attention.

일 실시 예는 사용자의 눈 움직임에 기초하여 사용자의 주의력 정도를 결정하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and method for determining a user's attentional level based on the user's eye movements.

일 실시 예에 따른, 전자 장치에 의해 수행되는, 사용자의 주의력 정도를 결정하는 방법은, 사용자 단말의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 타겟 컨텐츠를 출력하는 단계 - 상기 타겟 컨텐츠는 시간에 흐름에 따라 상기 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠임 -; 상기 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 좌표 값을 연속적으로 수신하는 단계; 상기 좌표 값에 기초하여 상기 타겟 컨텐츠에 대해 미리 정의된 상기 사용자의 눈 움직임에 대한 하나 이상의 타겟 바이오 마커들을 생성하는 단계; 및 상기 타겟 바이오 마커들에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계를 포함하고, 상기 결정된 주의력 정도가 상기 사용자 단말을 통해 출력될 수 있다.According to an embodiment, a method for determining a user's attentional level, performed by an electronic device, includes outputting pre-produced target content to determine the user's attentional level through a display of a user terminal - the target content is content in which at least one of the shape, color, and position of at least one object of the content changes over time; continuously receiving coordinate values on the display at which eyes of the user observing the target content gaze; generating one or more target biomarkers for predefined eye movements of the user with respect to the target content based on the coordinate values; and determining the level of attention of the user based on the target biomarkers, and the determined level of attention may be output through the user terminal.

상기 타겟 컨텐츠는, 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 애니메이션과, 상기 사용자에게 행동을 지시하는 음성 또는 텍스트로 나타나는 지시(instruction)를 포함할 수 있다.The target content may include an animation in which at least one of the shape, color, and position of at least one object changes, and a voice or text instruction indicating an action to the user.

상기 연속적으로 수신되는 좌표는 상기 사용자 단말에 의해 결정되고, 상기 사용자 단말이, 제1 사용자 이미지 내의 상기 사용자의 제1 눈을 검출하는 단계; 상기 제1 눈에 기초하여 상기 사용자의 제1 시선 방향을 결정하는 단계; 상기 제1 시선 방향에 기초하여 상기 디스플레이 상의 제1 좌표 값을 결정하는 단계; 및 상기 제1 좌표 값 및 상기 제1 사용자 이미지의 제1 타임 스탬프를 연관하는 단계를 수행함으로써 상기 좌표 값이 연속적으로 결정될 수 있다.The continuously received coordinates are determined by the user terminal, and detecting, by the user terminal, a first eye of the user in a first user image; determining a first gaze direction of the user based on the first eye; determining a first coordinate value on the display based on the first gaze direction; and associating the first coordinate value with a first time stamp of the first user image, thereby continuously determining the coordinate value.

상기 타겟 컨텐츠는 상기 사용자의 프로 사케이드(pro-saccades)를 검출하기 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 시선고정 최대시간(fixation time max), 시선고정 평균시간(fixation mean), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 시선고정 횟수(fixation count) 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean) 중 하나 이상을 포함할 수 있다.The target content is content for detecting pro-saccades of the user, and the target biomarkers predefined for the target content include a fixation time max, an average fixation time. One of (fixation mean), average of times taken to transition from previous saccade to next saccade (saccade latency mean), fixation count, and average fixation to saccade velocity (saccade velocity mean). may contain more than

상기 타겟 컨텐츠는 상기 사용자의 안티 사케이드(anti-saccades)를 검출하기 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 상기 사용자가 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 시선고정 시간들의 표준편차(fixationStd), 시선고정 횟수(fixation count), 및 상기 좌표 값들 중 x 좌표 값들의 평균(coordX mean) 중 하나 이상을 포함할 수 있다.The target content is content for detecting anti-saccades of the user, and the target biomarkers predefined for the target content include a standard deviation (saccadeStd) of times when saccades lasted, the At least one of the total time the user viewed the target content (screen duration total), the standard deviation of gaze fixation times (fixationStd), the number of fixation times (fixation count), and the mean of x coordinate values (coordX mean) among the coordinate values. can include

상기 타겟 컨텐츠는 상기 사용자의 기억 유도 사케이드(memory guided saccades)를 검출하기 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 시선고정 최대시간(fixation time max), 시선고정 시간들의 총 합(fixation duration), 시선고정 평균시간(fixation mean), 상기 좌표 값들 중 y 좌표 값들의 평균(coordY mean), 및 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total) 중 하나 이상을 포함할 수 있다.The target content is content for detecting memory guided saccades of the user, and the target biomarkers predefined for the target content include fixation time max, fixation time It may include one or more of a fixation duration, a fixation mean, an average of y coordinate values among the coordinate values (coordY mean), and a total time of viewing the target content (screen duration total). can

상기 타겟 컨텐츠는 상기 사용자의 변화 감지(change detection)를 검출하기 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 문제를 해결하기 위해 소요된 시간들의 총합(total elapsed times), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차(saccade latencyStd), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 상기 타겟 컨텐츠를 바라본 시간들의 평균(screen duration mean), 시선고정 평균시간(fixation mean), 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 및 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합(saccade latency total) 중 하나 이상을 포함할 수 있다.The target content is content for detecting change detection of the user, and the target biomarkers predefined for the target content include total elapsed times, The standard deviation of the times it took to switch from the previous saccade to the next saccade (saccade latencyStd), the average of the times it took to switch from the previous saccade to the next saccade (saccade latency mean), the average of the times spent looking at the target content (screen duration mean), gaze fixation average time (fixation mean), total time of looking at the target content (screen duration total), and one or more of the total of the times taken to switch from the previous saccade to the next saccade (saccade latency total) can include

상기 타겟 컨텐츠는 상기 사용자의 스트룹 테스트(stroop test)를 위한 컨텐츠이고, 상기 타겟 컨텐츠에 대해 미리 정의된 상기 타겟 바이오 마커들은, 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 사케이드들의 횟수(saccade count), 사케이드들이 지속된 시간의 총합(saccade duration), 상기 좌표 값들 중 x 좌표 값들의 평균(coordX mean), 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 상기 타겟 컨텐츠를 바라본 시간들의 평균(screen duration mean), 및 시선고정 평균시간(fixation mean) 중 하나 이상을 포함할 수 있다.The target content is content for a stroop test of the user, and the target biomarkers predefined for the target content include screen duration total, number of saccades (saccade count), the sum of the times saccades lasted (saccade duration), the average of x coordinate values among the coordinate values (coordX mean), the standard deviation of the times saccades lasted (saccadeStd), the target content viewed It may include one or more of a screen duration mean, and a fixation mean.

상기 전자 장치는 상기 사용자 단말을 통해 사용자에게 서로 다른 복수의 타겟 컨텐츠들을 순서적으로 출력하고 - 상기 복수의 타겟 컨텐츠들을 제1 타겟 컨텐츠 및 제2 타겟 컨텐츠를 포함함 -, 상기 타겟 바이오 마커들을 생성하는 단계는, 상기 제1 타겟 컨텐츠에 대해 수신된 제1 좌표 값들에 기초하여 제1 서브 바이오 마커들을 생성하는 단계; 상기 제2 타겟 컨텐츠에 대해 수신된 제2 좌표 값들에 기초하여 제2 서브 바이오 마커들을 생성하는 단계; 및 상기 제1 서브 바이오 마커들 및 상기 제2 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 단계를 포함할 수 있다.The electronic device sequentially outputs a plurality of different target contents to a user through the user terminal - the plurality of target contents include first target contents and second target contents - and generates the target biomarkers. The doing may include generating first sub-biomarkers based on first coordinate values received for the first target content; generating second sub biomarkers based on second coordinate values of the second target content; and generating a target biomarker set based on the first sub biomarkers and the second sub biomarkers.

상기 타겟 바이오 마커들을 생성하는 단계는, 상기 좌표 값에 기초하여 상기 타겟 컨텐츠에 대해 미리 정의된 상기 사용자의 눈 움직임에 대한 원시 타겟 바이오 마커들을 생성하는 단계; 및 상기 원시 타겟 바이오 마커들 각각에 대해 미리 설정된 정규화 방식을 적용함으로써 상기 원시 타겟 바이오 마커들에 대응하는 상기 타겟 바이오 마커들을 생성하는 단계를 포함할 수 있다.The generating of the target biomarkers may include generating original target biomarkers for eye movements of the user predefined for the target content based on the coordinate values; and generating the target biomarkers corresponding to the original target biomarkers by applying a preset normalization scheme to each of the original target biomarkers.

상기 타겟 바이오 마커들에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계는, 사용자의 주의력 정도를 결정하도록 서로 다른 방식으로 훈련된 복수의 모델들 각각에 상기 타겟 바이오 마커들을 입력하는 단계 - 상기 복수의 모델들은 제1 모델 및 제2 모델을 포함함 -; 및 상기 타겟 바이오 마커들에 대한 상기 제1 모델의 제1 결과 및 상기 타겟 바이오 마커들에 대한 상기 제2 모델의 제2 결과에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계를 포함할 수 있다.Determining the level of attention of the user based on the target biomarkers may include inputting the target biomarkers to each of a plurality of models trained in different ways to determine the level of attention of the user - the plurality of models. the models of include a first model and a second model; and determining the degree of attention of the user based on a first result of the first model for the target biomarkers and a second result of the second model for the target biomarkers. .

상기 제1 모델은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear Discriminant Analysis 및 Naive Bayes 중 어느 하나에 기초하여 훈련된 모델이고, 상기 제2 모델은 제1 모델과 상이한 모델일 수 있다.The first model is K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear A model trained based on any one of Discriminant Analysis and Naive Bayes, and the second model may be a different model from the first model.

상기 제1 모델은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, 및 Random Forest Classifier 중 어느 하나에 기초하여 훈련된 모델이고, 상기 제2 모델은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, 및 Random Forest Classifier 중 상기 제1 모델과 상이한 모델일 수 있다.The first model is a model trained based on any one of K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, and Random Forest Classifier, and the second model is K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, and Random Forest Classifier. Among the classifiers, it may be a model different from the first model.

일 실시 예에 따른, 사용자의 주의력 정도를 결정하는 전자 장치는, 사용자의 주의력 정도를 결정하는 프로그램이 기록된 메모리; 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 사용자 단말의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 타겟 컨텐츠를 출력하는 단계 - 상기 타겟 컨텐츠는 시간에 흐름에 따라 상기 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠임 -; 상기 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 좌표 값을 연속적으로 수신하는 단계; 상기 좌표 값에 기초하여 상기 타겟 컨텐츠에 대해 미리 정의된 상기 사용자의 눈 움직임에 대한 하나 이상의 타겟 바이오 마커들을 생성하는 단계; 및 상기 타겟 바이오 마커들에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계를 수행하고, 상기 결정된 주의력 정도가 상기 사용자 단말을 통해 출력될 수 있다.According to an embodiment, an electronic device for determining a level of attention of a user may include a memory in which a program for determining a level of attention of a user is recorded; and a processor that executes the program, wherein the program outputs pre-produced target content to determine a user's attention level through a display of a user terminal - the target content is the content as time passes. At least one of the shape, color, and position of at least one object of is content that changes -; continuously receiving coordinate values on the display at which eyes of the user observing the target content gaze; generating one or more target biomarkers for predefined eye movements of the user with respect to the target content based on the coordinate values; and determining the level of attention of the user based on the target biomarkers, and the determined level of attention may be output through the user terminal.

사용자의 주의력 정도를 결정하는 장치 및 방법이 제공될 수 있다.An apparatus and method for determining a user's level of attention may be provided.

사용자의 눈을 포함하는 사용자 이미지에 기초하여 사용자의 주의력 정도를 결정하는 장치 및 방법이 제공될 수 있다.An apparatus and method for determining a user's attentional level based on a user image including the user's eyes may be provided.

도 1은 일 예에 따른 사용자의 주의력 정도를 결정하는 시스템의 구성도이다.
도 2는 일 예에 따른 사용자의 주의력 정도를 결정하기 위해 사용자 단말에 출력되는 이미지들을 도시한다.
도 3은 일 실시 예에 따른 사용자의 주의력 정도를 결정하는 전자 장치의 구성도이다.
도 4는 일 실시 예에 따른 사용자의 주의력 정도를 결정하는 방법의 흐름도이다.
도 5는 일 예에 따른 사용자의 시선을 조정하기 위한 컨텐츠를 도시한다.
도 6는 일 예에 따른 사용자의 프로 사케이드를 검출하기 위한 컨텐츠를 도시한다.
도 7은 일 예에 따른 사용자의 안티 사케이드를 검출하기 위한 컨텐츠를 도시한다.
도 8은 일 예에 따른 사용자의 기억 유도 사케이드를 검출하기 위한 컨텐츠를 도시한다.
도 9는 일 예에 따른 사용자의 변화 감지를 검출하기 위한 컨텐츠를 도시한다.
도 10은 일 예에 따른 사용자의 스트룹 테스트를 위한 컨텐츠를 도시한다.
도 11은 일 예에 따른 사용자의 눈이 응시하는 디스플레이 상의 좌표 값을 연속적으로 결정하는 방법의 흐름도이다.
도 12는 일 예에 따른 원시 타겟 바이오 마커들에 기초하여 타겟 바이오 마커들을 생성하는 방법의 흐름도이다.
도 13은 일 예에 따른 복수의 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 방법의 흐름도이다.
도 14는 일 예에 따른 복수의 모델들을 이용하여 사용자의 주의력 정도를 결정하는 방법의 흐름도이다.
도 15는 일 예에 따른 복수의 모델들을 이용하여 사용자의 주의력 정도를 결정하는 방법을 도시한다.
1 is a configuration diagram of a system for determining a user's attentional level according to an example.
2 illustrates images output to a user terminal to determine a user's attentional level according to an example.
3 is a configuration diagram of an electronic device for determining a user's attentional level according to an exemplary embodiment.
4 is a flowchart of a method for determining a user's attentional level according to an exemplary embodiment.
5 illustrates content for adjusting a user's gaze according to an example.
6 illustrates content for detecting a user's pro saccade according to an example.
7 illustrates content for detecting a user's anti-saccade according to an example.
8 illustrates content for detecting a user's memory-induced saccade according to an example.
9 illustrates content for detecting a change detection of a user according to an example.
10 illustrates content for a stroop test of a user according to an example.
11 is a flowchart of a method of continuously determining coordinate values on a display at which eyes of a user gaze, according to an example.
12 is a flowchart of a method of generating target biomarkers based on raw target biomarkers according to an example.
13 is a flowchart of a method of generating a target biomarker set based on a plurality of sub-biomarkers according to an example.
14 is a flowchart of a method of determining a user's attentional level using a plurality of models according to an example.
15 illustrates a method of determining a user's attentional level using a plurality of models according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these examples. Like reference numerals in each figure indicate like elements.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various changes may be made to the embodiments described below. The embodiments described below are not intended to be limiting on the embodiments, and should be understood to include all modifications, equivalents or substitutes thereto.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only to describe specific examples, and are not intended to limit the examples. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

도 1은 일 예에 따른 사용자의 주의력 정도를 결정하는 시스템의 구성도이다.1 is a configuration diagram of a system for determining a user's attentional level according to an example.

일 측면에 따르면, 사용자의 주의력 정도를 결정하는 시스템은 사용자의 주의력 정도를 결정하는 전자 장치(110), 컨텐츠를 출력하는 사용자 단말(120), 및 의료 기관의 모니터링 단말(130)을 포함할 수 있다. 예를 들어, 전자 장치(110)는 서버일 수 있다.According to one aspect, the system for determining the level of attention of the user may include an electronic device 110 for determining the level of attention of the user, a user terminal 120 outputting content, and a monitoring terminal 130 of a medical institution. there is. For example, the electronic device 110 may be a server.

전자 장치(110)는 사용자 단말(120)로 사용자의 주의력 정도를 결정할 수 있도록 미리 제작된 컨텐츠를 제공할 수 있다. 예를 들어, 컨텐츠는 사용자의 눈을 포함하는 사용자 이미지들을 획득하기 위한 컨텐츠일 수 있다. 사용자 이미지들을 획득하기 위한 컨텐츠에 대해 아래에서 도 5 내지 도 10을 참조하여 상세하게 설명된다.The electronic device 110 may provide pre-produced content to the user terminal 120 to determine the user's level of attention. For example, the content may be content for obtaining user images including the user's eyes. Content for obtaining user images will be described in detail with reference to FIGS. 5 to 10 below.

일 실시 예에 따르면, 사용자 단말(120)은 전자 장치(110)와 오프라인 또는 온라인으로 연결되어 서로 통신할 수 있다. 전자 장치(110)는 사용자 단말(120)로 컨텐츠를 제공하고, 사용자 단말(120)은 디스플레이를 통해 컨텐츠를 사용자에게 출력한다. 예를 들어, 사용자 단말(120)은 카메라를 통해 컨텐츠에 대한 리액션으로서의 사용자 이미지들을 촬영할 수 있고, 촬영한 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들을 연속적으로 결정하고, 결정된 좌표 값들을 전자 장치(110)로 전송한다.According to an embodiment, the user terminal 120 may communicate with the electronic device 110 by being connected offline or online. The electronic device 110 provides content to the user terminal 120, and the user terminal 120 outputs the content to the user through a display. For example, the user terminal 120 may capture user images as reactions to content through a camera, continuously determine coordinate values on a display that the user's eyes gaze at based on the captured user images, and determine the determined Coordinate values are transmitted to the electronic device 110 .

일 실시 예에 따르면, 전자 장치(110)는 사용자가 응시한 좌표 값들에 기초하여 사용자의 주의력 정도를 결정하고, 결정된 주의력 정도를 사용자 단말(120)로 전송할 수 있다.According to an embodiment, the electronic device 110 may determine the level of attention of the user based on the coordinate values that the user gazes at, and transmit the determined level of attention to the user terminal 120 .

일 실시 예에 따르면, 사용자 단말(120)은 태블릿, 스마트 폰과 같은 모바일 단말일 수 있다. 사용자 단말(120)이 모바일 단말인 경우, 사용자는 시간 및 장소의 제약을 받지 않으며, 저렴한 비용으로 주의력 정도를 측정할 수 있다.According to an embodiment, the user terminal 120 may be a mobile terminal such as a tablet or a smart phone. When the user terminal 120 is a mobile terminal, the user is not limited by time and place and can measure the level of attention at low cost.

아래에서, 사용자의 주의력 정도를 결정하는 방법에 대해 도 2 내지 도 15를 참조하여 상세하게 설명된다.Below, a method for determining the level of attention of the user will be described in detail with reference to FIGS. 2 to 15 .

도 2는 일 예에 따른 사용자의 주의력 정도를 결정하기 위해 사용자 단말에 출력되는 이미지들을 도시한다.2 illustrates images output to a user terminal to determine a user's attentional level according to an example.

아래의 이미지들(210 내지 240)은 사용자의 주의력 정도를 결정하기 위한 어플리케이션의 이미지들일 수 있다. 예를 들어, 전자 장치(110)의 사용자 또는 관리자는 어플리케이션을 제작하여 배포할 수 있고, 사용자는 사용자 단말(120)을 통해 어플리케이션을 실행할 수 있다.The images 210 to 240 below may be images of an application for determining a user's level of attention. For example, a user or manager of the electronic device 110 may create and distribute an application, and the user may execute the application through the user terminal 120 .

일 실시 예에 따르면, 제1 이미지(210)는 어플리케이션의 시작 화면이다.According to one embodiment, the first image 210 is a start screen of an application.

일 실시 예에 따르면, 제2 이미지(220)는 어플리케이션이 지원하는 기능들을 나타낸다.According to an embodiment, the second image 220 represents functions supported by applications.

일 실시 예에 따르면, 제3 이미지(230)는 사용자에게 제공되는 컨텐츠의 일 예이다. 사용자에게 복수의 컨텐츠들이 순서적으로 제공될 수 있다.According to one embodiment, the third image 230 is an example of content provided to the user. A plurality of contents may be sequentially provided to the user.

일 실시 예에 따르면, 제4 이미지(240)는 결정된 사용자의 주의력 정도를 나타낸다. 예를 들어, 사용자의 주의력 정도로서 결정된 제1 ADHD 레벨, 제2 ADHD 레벨 및 제3 ADHD 레벨이 출력될 수 있다. 제4 이미지(240)에는 개별적인 질병에 대한 주의 정도 이외에도 종합적인 판단이 함께 출력될 수도 있다.According to an embodiment, the fourth image 240 represents the determined level of attention of the user. For example, the first ADHD level, the second ADHD level, and the third ADHD level determined as the degree of attention of the user may be output. In the fourth image 240, a comprehensive judgment may be output together with the degree of attention to individual diseases.

도 3은 일 실시예에 따른 사용자의 주의력 정도를 결정하는 전자 장치의 구성도이다.3 is a configuration diagram of an electronic device for determining a user's attentional level according to an exemplary embodiment.

전자 장치(300)는 통신부(310), 프로세서(320) 및 메모리(330)를 포함한다. 예를 들어, 전자 장치(300)는 도 1을 참조하여 전술된 전자 장치(110)일 수 있다.The electronic device 300 includes a communication unit 310 , a processor 320 and a memory 330 . For example, the electronic device 300 may be the electronic device 110 described above with reference to FIG. 1 .

통신부(310)는 프로세서(320) 및 메모리(330)와 연결되어 데이터를 송수신한다. 통신부(310)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The communication unit 310 is connected to the processor 320 and the memory 330 to transmit and receive data. The communication unit 310 may transmit/receive data by being connected to another external device. Hereinafter, the expression “transmitting and receiving “A” may indicate transmitting and receiving “information or data indicating A”.

통신부(310)는 전자 장치(300) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(310)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(310)는 전자 장치(300)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(310)는 인터페이스(interface)일 수 있다. 통신부(310)는 외부의 장치로부터 데이터를 수신하여, 프로세서(320) 및 메모리(330)에 데이터를 전송할 수 있다.The communication unit 310 may be implemented as circuitry within the electronic device 300 . For example, the communication unit 310 may include an internal bus and an external bus. As another example, the communication unit 310 may be an element that connects the electronic device 300 and an external device. The communication unit 310 may be an interface. The communication unit 310 may receive data from an external device and transmit the data to the processor 320 and the memory 330 .

프로세서(320)는 통신부(310)가 수신한 데이터 및 메모리(330)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 320 processes data received by the communication unit 310 and data stored in the memory 330 . A “processor” may be a data processing device implemented in hardware having circuitry having a physical structure for executing desired operations. For example, desired operations may include codes or instructions included in a program. For example, a data processing unit implemented in hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , Application-Specific Integrated Circuit (ASIC), and Field Programmable Gate Array (FPGA).

프로세서(320)는 메모리(예를 들어, 메모리(330))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(320)에 의해 유발된 인스트럭션들을 실행한다.Processor 320 executes computer readable code (eg, software) stored in memory (eg, memory 330 ) and instructions invoked by processor 320 .

메모리(330)는 통신부(310)가 수신한 데이터 및 프로세서(320)가 처리한 데이터를 저장한다. 예를 들어, 메모리(330)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 사용자의 주의력 정도를 결정할 수 있도록 코딩되어 프로세서(320)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 330 stores data received by the communication unit 310 and data processed by the processor 320 . For example, the memory 330 may store a program (or application or software). The stored program may be a set of syntaxes that are coded and executable by the processor 320 to determine the level of attention of the user.

일 측면에 따르면, 메모리(330)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one aspect, the memory 330 may include one or more of volatile memory, non-volatile memory and random access memory (RAM), flash memory, a hard disk drive, and an optical disk drive.

메모리(330)는 전자 장치(300)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(300)를 동작 시키는 명령어 세트는 프로세서(320)에 의해 실행된다.The memory 330 stores a command set (eg, software) for operating the electronic device 300 . A set of instructions for operating the electronic device 300 is executed by the processor 320 .

통신부(310), 프로세서(320) 및 메모리(330)에 대해, 아래에서 도 4 내지 도 15를 참조하여 상세히 설명된다.The communication unit 310, the processor 320, and the memory 330 will be described in detail with reference to FIGS. 4 to 15 below.

도 4는 일 실시 예에 따른 사용자의 주의력 정도를 결정하는 방법의 흐름도이다.4 is a flowchart of a method for determining a user's attentional level according to an exemplary embodiment.

아래의 단계들(410 내지 440)은 도 3을 참조하여 전술된 전자 장치(300)에 의해 수행된다.Steps 410 to 440 below are performed by the electronic device 300 described above with reference to FIG. 3 .

단계(410)에서, 전자 장치(300)는 사용자 단말(예를 들어, 사용자 단말(120))의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 컨텐츠를 출력한다. 컨텐츠가 사용자 단말에 출력되고, 사용자는 컨텐츠에 대한 리액션을 수행한다.In step 410, the electronic device 300 outputs pre-produced content to determine the level of attention of the user through the display of the user terminal (eg, the user terminal 120). Content is output to the user terminal, and the user reacts to the content.

사용자 단말은 카메라를 이용하여 상기의 리액션으로서의 사용자 이미지들을 생성할 수 있다. 예를 들어, 카메라는 미리 설정된 주기로 사용자의 눈을 포함하는 사용자 이미지들을 생성할 수 있다. 생성된 사용자 이미지들은 데이터 파일 형태일 수 있다.The user terminal may generate user images as the reaction using a camera. For example, the camera may generate user images including the user's eyes at preset intervals. The generated user images may be in the form of data files.

일 실시 예에 따르면, 사용자에게 복수의 컨텐츠들이 제공되고, 복수의 컨텐츠들 각각에 대한 사용자 이미지들이 생성될 수 있다.According to an embodiment, a plurality of contents may be provided to a user, and user images for each of the plurality of contents may be created.

일 실시 예에 따른, 사용자 이미지들을 생성하기 위한 컨텐츠들은 사용자의 눈 움직임으로서 사케이드(saccade) 및 안티 사케이드(anti-saccade) 등을 측정하기 위해 미리 제작된 컨텐츠들일 수 있다. 눈 움직임의 각 종류는 바이오 마커로 명명될 수 있고, 눈 움직임의 종류들은 아래에서 [표 1]로 나타난다.According to an embodiment, contents for generating user images may be contents prepared in advance to measure saccade and anti-saccade as eye movements of the user. Each type of eye movement can be named as a biomarker, and the types of eye movement are shown in [Table 1] below.

눈 움직임의 종류type of eye movement 설명explanation fixation countfixation count 시선고정 횟수number of fixations saccade countsaccade count 사케이드들의 횟수number of saccades screen duration meanscreen duration mean 컨텐츠를 바라본 시간들의 평균Average time spent looking at content screen duration totalscreen duration total 컨텐츠를 바라본 총 시간Total time spent looking at content fixation durationfixation duration 시선고정 시간들의 총 합Total sum of gaze fixation times fixation meanfixation mean 시선고정 평균시간Average gaze fixation time fixationStdfixationStd 시선고정 시간들의 표준편차Standard deviation of fixation times fixation time maxfixation time max. 시선고정 최대시간maximum fixation time saccade durationsaccade duration 사케이드들이 지속된 시간의 총합The total amount of time the saccades lasted saccade meansaccade mean 사케이드가 지속된 시간들의 평균Average number of times the saccade lasted saccadeStdsaccadeStd 사케이드들이 지속된 시간들의 표준편차Standard deviation of times the saccades lasted saccade time maxsaccade time max 사케이드가 지속된 최대시간Maximum length of time saccade lasted saccade latency totalsaccade latency total 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합The sum of the times it took to transition from the previous scade to the next scade saccade latencyStdsaccade latencyStd 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차Standard deviation of times taken to transition from previous saccade to next saccade saccade latency meansaccade latency mean 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균Average time taken to transition from previous scade to next scade saccade velocity meansaccade velocity mean 시선고정에서 사케이드로 전환되는 평균 속도Average rate of transition from gaze fixation to saccade coordX meancoordX mean 시선 좌표 값들 중 x 좌표 값들의 평균Average of x coordinate values among gaze coordinate values coordY meancoordY mean 시선 좌표 값들 중 y 좌표 값들의 평균Average of y coordinate values among gaze coordinate values hit counthit count 정답을 맞힌 횟수number of correct answers total elapsed timestotal elapsed times 문제를 해결하기 위해 소요된 시간들의 총합Total amount of time spent solving the problem

예를 들어, 제1 컨텐츠가 출력되는 동안 미리 설정된 주기로 제1 사용자 이미지 세트가 생성될 수 있다.For example, a first user image set may be generated at a preset cycle while the first content is output.

사용자 단말은 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값을 연속적으로 결정한다. 예를 들어, 디스플레이 상의 좌표 값은 픽셀 단위로 결정되거나, 영역 별로 결정될 수 있다. 디스플레이 상의 좌표 값을 결정하는 방법에 대해, 아래에서 도 11을 참조하여 상세히 설명된다.The user terminal continuously determines coordinate values on the display at which the eyes of the user gaze based on the user images. For example, coordinate values on the display may be determined in units of pixels or in units of regions. A method of determining a coordinate value on a display will be described in detail with reference to FIG. 11 below.

일 실시 예에 따르면, 전자 장치(300)는 좌표 값을 결정하기 위한 부가 어플리케이션이 사용자 단말에서 실행되도록 사용자 단말을 제어할 수 있다. 예를 들어, 추가 어플리케이션은 사용자 단말의 카메라를 이용하여 컨텐츠를 관찰하는 사용자의 사용자 이미지들을 생성하고, 사용자 이미지들 내의 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들을 결정할 수 있다.According to an embodiment, the electronic device 300 may control the user terminal so that an additional application for determining coordinate values is executed in the user terminal. For example, the additional application may generate user images of a user observing content using a camera of a user terminal, and determine coordinate values on a display at which eyes of the user gaze in the user images.

단계(420)에서, 전자 장치(300)는 사용자 단말로부터 컨텐츠를 관찰하는 사용자의 리액션을 연속적으로 수신한다. 예를 들어, 전자 장치(300)는 사용자 단말로부터 컨텐츠를 관찰하는 사용자의 눈이 응시하는 디스플레이 상의 연속적인 좌표 값들을 수신할 수 있다.In step 420, the electronic device 300 continuously receives a user's reaction observing the content from the user terminal. For example, the electronic device 300 may receive, from the user terminal, continuous coordinate values on the display where the eyes of the user observing the content gaze.

일 실시 예에 따르면, 복수의 컨텐츠들이 제작된 경우, 단계들(410 및 420)이 반복적으로 수행될 수 있다. 예를 들어, 단계들(410 및 420)이 반복적으로 수행됨으로써 복수의 컨텐츠들 각각에 대한 사용자 좌표 값 세트들이 수신된다.According to one embodiment, when a plurality of contents are produced, steps 410 and 420 may be repeatedly performed. For example, as steps 410 and 420 are repeatedly performed, user coordinate value sets for each of a plurality of contents are received.

일 실시 예에 따르면, 복수의 컨텐츠들의 각각이 상이한 사용자의 눈 움직임을 관찰하기 위해 미리 제작될 수 있다. 예를 들어, 제1 컨텐츠는 사용자의 프로 사케이드(pro-saccades)를 검출하기 위한 컨텐츠일 수 있다. 예를 들어, 제2 컨텐츠는 사용자의 안티 사케이드(anti-saccades)를 검출하기 위한 컨텐츠일 수 있다. 예를 들어, 제3 컨텐츠는 사용자의 기억 유도 사케이드(memory guided saccades)를 검출하기 위한 컨텐츠일 수 있다. 예를 들어, 제4 컨텐츠는 사용자의 변화 감지(change detection)를 검출하기 위한 컨텐츠일 수 있다. 예를 들어, 제5 컨텐츠는 사용자의 스트룹 테스트(stroop test)를 위한 컨텐츠일 수 있다.According to one embodiment, each of a plurality of contents may be prepared in advance to observe eye movements of different users. For example, the first content may be content for detecting pro-saccades of the user. For example, the second content may be content for detecting user's anti-saccades. For example, the third content may be content for detecting memory guided saccades of the user. For example, the fourth content may be content for detecting user's change detection. For example, the fifth content may be content for a stroop test of the user.

일 실시 예에 따르면, 제1 컨텐츠 내지 제5 컨텐츠에 대한 제1 사용자 좌표 값 세트 내지 제5 사용자 좌표 값 세트가 수신될 수 있다.According to an embodiment, first to fifth user coordinate value sets for the first to fifth contents may be received.

단계(430)에서, 전자 장치(300)는 수신된 리액션에 기초하여 바이오 마커 정보를 생성한다. 예를 들어, 바이오 마커 정보는 하나 이상의 바이오 마커를 포함할 수 있다.In step 430, the electronic device 300 generates biomarker information based on the received reaction. For example, biomarker information may include one or more biomarkers.

일 실시 예에 따르면, 전자 장치(300)는 수신된 좌표 값들에 기초하여 사용자의 눈 움직임에 대한 하나 이상의 바이오 마커들을 생성할 수 있다. 예를 들어, 컨텐츠 별로 서로 다른 바이오 마커들이 생성될 수 있다. 예를 들어, 컨텐츠 별로 서로 다른 바이오 마커들이 미리 정의될 수 있다.According to an embodiment, the electronic device 300 may generate one or more biomarkers for eye movements of the user based on the received coordinate values. For example, different biomarkers may be generated for each content. For example, different biomarkers may be predefined for each content.

이하에서 개시되는 각 컨텐츠에 대해 생성되는 타겟 바이오 마커들의 종류 및 타겟 바이오 마커들에 대한 구체적인 비율은 미리 설정한 조건에 기초한 실험에 의해 도출된 것이고, 실험을 위해 설정하는 조건에 따라 그 결과는 달라질 수 있다. 개시된 타겟 바이오 마커들의 종류 및 타겟 바이오 마커들에 대한 구체적인 비율로 본 발명이 한정되어 해석되어서는 안 된다.The types of target biomarkers and specific ratios of the target biomarkers generated for each content disclosed below are derived by experiments based on preset conditions, and the results may vary depending on the conditions set for the experiments. can The present invention should not be construed as being limited to the disclosed types of target biomarkers and specific ratios of the target biomarkers.

일 실시 예에 따르면, 사용자의 프로 사케이드(pro-saccades)를 검출하기 위한 제1 컨텐츠에 대해, 시선고정 최대시간(fixation time max), 시선고정 평균시간(fixation mean), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 시선고정 횟수(fixation count) 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 프로 사케이드를 검출하기 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다.According to an embodiment, for the first content for detecting the user's pro-saccades, fixation time max, fixation average time, fixation mean, previous saccade to next One or more of the average of times taken to switch to saccade (saccade latency mean), fixation count (fixation count), and average speed of conversion from fixation to saccade (saccade velocity mean) may be predefined as target biomarkers. can For example, among various types of eye movements, a specific type of eye movement that meets the purpose of detecting a user's pro saccade may be defined as a target biomarker.

일 실시 예에 따르면, 제1 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 시선고정 최대시간(fixation time max)에 대해 20.8092%, 시선고정 평균시간(fixation mean)에 대해 20.6771%, 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean)에 대해 19.9670%, 시선고정 횟수(fixation count)에 대해 19.4040%, 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean)에 19.1427%의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well represent the purpose of the first content may be determined in advance. For example, 20.8092% for fixation time max, 20.6771% for fixation mean, saccade latency mean Ratios of 19.9670% for fixation count, 19.4040% for fixation count, and 19.1427% for saccade velocity mean can be determined beforehand.

일 실시 예에 따르면, 사용자의 안티 사케이드(anti-saccades)를 검출하기 위한 제2 컨텐츠에 대해, 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 사용자가 제2 컨텐츠를 바라본 총 시간(screen duration total), 시선고정 시간들의 표준편차(fixationStd), 시선고정 횟수(fixation count), 및 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 제2 컨텐츠에 대해 미리 정의된 타겟 바이오 마커들은 데이터 검증을 통한 연구의 결과로서 도출될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 안티 사케이드를 검출하기 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다.According to an embodiment, with respect to the second content for detecting the user's anti-saccades, the standard deviation of the times the saccades were maintained (saccadeStd), the total time the user viewed the second content (screen) duration total), standard deviation of gaze fixation times (fixationStd), fixation count, and average of x coordinate values among gaze coordinate values (coordX mean). One or more may be predefined as target biomarkers. . Target biomarkers predefined for the second content may be derived as a result of research through data verification. For example, among various types of eye movements, a specific type of eye movement matching the purpose of detecting the user's anti-saccade may be defined as a target biomarker.

일 실시 예에 따르면, 제2 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 사케이드들이 지속된 시간들의 표준편차(saccadeStd)에 대해 21.2365%, 사용자가 제2 컨텐츠를 바라본 총 시간(screen duration total)에 대해 19.9869%, 시선고정 시간들의 표준편차(fixationStd)에 대해 19.9060%, 시선고정 횟수(fixation count)에 대해 19.4984%, 및 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean)에 대해 19.3721%의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well indicate the purpose of the second content may be determined in advance. For example, 21.2365% for the standard deviation of times the saccades lasted (saccadeStd), 19.9869% for the total time the user looked at the second content (screen duration total), and the standard deviation of gaze fixation times (fixationStd) Ratios of 19.9060% for the fixation count, 19.4984% for the fixation count, and 19.3721% for the coordX mean of the gaze coordinate values may be predetermined.

일 실시 예에 따르면, 제2 컨텐츠에 대한 타겟 바이오 마커로서 에러율(error rate)가 더 결정될 수 있다. 예를 들어, 사용자가 제2 컨텐츠의 화면에 출력된 타겟 오브젝트의 위치와 다른 위치(예: 기준점으로부터 반대 위치)로 시선을 이동시킬 것을 요구 받았지만, 실제로 사용자가 타겟 오브젝트로 시선을 이동시킨 경우 시선 오류가 결정될 수 있다. 제2 컨텐츠가 복수회의 태스크들(예: 48회)의 반복으로 구성되는 경우, 수행된 전체 태스크들 중 시선 오류가 결정된 태스크들의 비율이 에러율로 결정될 수 있다.According to an embodiment, an error rate may be further determined as a target biomarker for the second content. For example, when the user is requested to move the gaze to a position different from that of the target object displayed on the screen of the second content (eg, a position opposite to the reference point), but the user actually moves the gaze to the target object, the gaze error can be determined. When the second content is composed of a plurality of repetitions of tasks (eg, 48 times), a ratio of tasks for which gaze errors are determined among total tasks performed may be determined as an error rate.

일 실시 예에 따르면, 사용자의 기억 유도 사케이드(memory guided saccades)를 검출하기 위한 제3 컨텐츠에 대해, 시선고정 최대시간(fixation time max), 시선고정 시간들의 총 합(fixation duration), 시선고정 평균시간(fixation mean), 시선 좌표 값들 중 y 좌표 값들의 평균(coordY mean), 및 제3 컨텐츠를 바라본 총 시간(screen duration total) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 기억 유도 사케이드를 검출하기 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다. 예를 들어, 사용자가 제3 컨텐츠의 화면에 출력된 기준점이 사라진 시점부터 기억했던 타겟 오브젝트의 위치로 시선을 움직이기 시작한 시점 간의 시간이 딜레이 시간으로서 결정될 수 있고, 딜레이 시간과 관련된 타겟 바이오 마커가 정의될 수 있다.According to an embodiment, for the third content for detecting the user's memory guided saccades, a fixation time max, a total sum of fixation times (fixation duration), and fixation One or more of a fixation mean, an average of y-coordinate values among gaze coordinate values (coordY mean), and a total time for viewing the third content (screen duration total) may be predefined as target biomarkers. For example, among various types of eye movements, a specific type of eye movement that meets the purpose of detecting a user's memory inducing saccade may be defined as a target biomarker. For example, the time between when the reference point displayed on the screen of the third content disappears and when the user starts to move his gaze to the memorized location of the target object may be determined as the delay time, and the target biomarker related to the delay time may be can be defined

일 실시 예에 따르면, 제3 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 시선고정 최대시간(fixation time max)에 대해 20.7343%, 시선고정 시간들의 총 합(fixation duration)에 대해 20.3700%, 시선고정 평균시간(fixation mean)에 대해 20.1529%, 시선 좌표 값들 중 y 좌표 값들의 평균(coordY mean)에 대해 19.9199%, 및 제3 컨텐츠를 바라본 총 시간(screen duration total)에 대해 18.8229의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well indicate the purpose of the third content may be determined in advance. For example, 20.7343% for the fixation time max, 20.3700% for the total fixation duration, 20.1529% for the fixation mean, among the gaze coordinate values. Ratios of 19.9199% for the average of y-coordinate values (coordY mean) and 18.8229 for the total time of viewing the third content (screen duration total) may be determined in advance.

일 실시 예에 따르면, 사용자의 변화 감지(change detection)를 검출하기 위한 제4 컨텐츠에 대해, 문제를 해결하기 위해 소요된 시간들의 총합(total elapsed times), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차(saccade latencyStd), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 제4 컨텐츠를 바라본 시간들의 평균(screen duration mean), 시선고정 평균시간(fixation mean), 제4 컨텐츠를 바라본 총 시간(screen duration total), 및 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합(saccade latency total) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 변화 감지를 검출하기 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다.According to one embodiment, for the fourth content for detecting the change detection of the user, the total elapsed times spent to solve the problem, the previous scade to the next scade is switched Standard deviation of times taken (saccade latencyStd), average of times it took to switch from the previous saccade to the next saccade (saccade latency mean), average of times spent looking at the fourth content (screen duration mean), average gaze fixation time (fixation One or more of the mean), the total time of viewing the fourth content (screen duration total), and the total of times taken to switch from the previous scade to the next saccade (saccade latency total) may be predefined as target biomarkers. . For example, among various types of eye movements, a specific type of eye movement that meets the purpose of detecting a user's change detection may be defined as a target biomarker.

일 실시 예에 따르면, 제4 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 문제를 해결하기 위해 소요된 시간들의 총합(total elapsed times)에 대해 24.0280%, 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차(saccade latencyStd)에 대해 13.2601%, 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean)에 대해 13.2462%, 제4 컨텐츠를 바라본 시간들의 평균(screen duration mean)에 대해 12.7526%, 시선고정 평균시간(fixation mean)에 대해 12.5573%, 제4 컨텐츠를 바라본 총 시간(screen duration total)에 대해 12.1167%, 및 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합(saccade latency total)에 대해 12.0392%의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well represent the purpose of the fourth content may be determined in advance. For example, 24.0280% for the total elapsed times spent solving a problem, 13.2601% for the standard deviation of the times elapsed from one saccade to the next (saccade latencyStd), and 13.2601% for the total elapsed times 13.2462% for the average of times it took to switch from one cade to the next saccade (saccade latency mean), 12.7526% for the average of times spent looking at the fourth content (screen duration mean), and for the average fixation time (fixation mean) The ratios of 12.5573%, 12.1167% for the screen duration total, and 12.0392% for the total time taken to switch from the previous saccade to the next saccade (saccade latency total) will be predetermined. can

일 실시 예에 따르면, 사용자의 스트룹 테스트(stroop test)를 위한 제5 컨텐츠에 대해, 제5 컨텐츠를 바라본 총 시간(screen duration total), 사케이드들의 횟수(saccade count), 사케이드들이 지속된 시간의 총합(saccade duration), 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean), 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 제5 컨텐츠를 바라본 시간들의 평균(screen duration mean), 및 시선고정 평균시간(fixation mean) 중 하나 이상이 타겟 바이오 마커들로 미리 정의될 수 있다. 예를 들어, 다양한 눈 움직임의 종류들 중 사용자의 스트룹 테스트를 위한 목적과 부합하는 눈 움직임의 특정 종류가 타겟 바이오 마커로 정의될 수 있다.According to an embodiment, with respect to the fifth content for the user's stroop test, the screen duration total of viewing the fifth content, the number of saccades (saccade count), and the duration of the saccades The sum of the times (saccade duration), the average of the x-coordinate values among the gaze coordinate values (coordX mean), the standard deviation of the times that the saccades lasted (saccadeStd), the average of the times of viewing the fifth content (screen duration mean), and One or more of fixation mean times may be predefined as target biomarkers. For example, among various types of eye movements, a specific type of eye movement that meets the purpose of the user's Stroop test may be defined as a target biomarker.

일 실시 예에 따르면, 제5 컨텐츠의 목적을 잘 나타낼 수 있는 타겟 바이오 마커들 각각에 비율이 사전에 결정될 수 있다. 예를 들어, 제5 컨텐츠를 바라본 총 시간(screen duration total)에 대해 21.7487%, 사케이드들의 횟수(saccade count)에 대해 14.7708%, 사케이드들이 지속된 시간의 총합(saccade duration)에 대해 14.3486%, 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean)에 대해 12.8140%, 사케이드들이 지속된 시간들의 표준편차(saccadeStd)에 대해 12.4422%, 제5 컨텐츠를 바라본 시간들의 평균(screen duration mean)에 대해 12.1322%, 및 시선고정 평균시간(fixation mean)에 대해 11.7435%의 비율들이 사전에 결정될 수 있다.According to an embodiment, a ratio of each of the target biomarkers that can well represent the purpose of the fifth content may be determined in advance. For example, 21.7487% for screen duration total, 14.7708% for saccade count, and 14.3486% for saccade duration total. , 12.8140% of the average of the x coordinate values (coordX mean) of the gaze coordinate values, 12.4422% of the standard deviation (saccadeStd) of the times that the saccades lasted, and the average of the times of viewing the fifth content (screen duration mean) Ratios of 12.1322% for fixation mean and 11.7435% for fixation mean may be predetermined.

단계(440)에서, 전자 장치(300)는 바이오 마커들에 기초하여 사용자의 주의력 정도를 결정할 수 있다.In step 440, the electronic device 300 may determine the level of attention of the user based on the biomarkers.

일 실시 예에 따르면, 전자 장치(300)는 바이오 마커들을 미리 훈련된 주의력 정도 분류 모델에 입력함으로써 사용자의 주의력 정도를 결정할 수 있다.According to an embodiment, the electronic device 300 may determine the user's attentional level by inputting the biomarkers into a previously trained attentional level classification model.

일 실시 예에 따르면, 주의력 정도 분류 모델은 입력된 바이오 마커들에 기초하여 복수의 주의력 정도들 중 타겟 주의력 정도를 출력할 수 있다. 예를 들어, 복수의 주의력 정도는 정상 단계 및 ADHD 단계를 포함할 수 있다. 다른 예로, 복수의 주의력 정도는 주의 단계를 더 포함할 수 있다.According to an embodiment, the attention level classification model may output a target attention level among a plurality of attention levels based on input biomarkers. For example, the plurality of attentional degrees may include a normal stage and an ADHD stage. As another example, the plurality of levels of attention may further include an attention step.

일 실시 예에 따르면, 주의력 정도 분류 모델은 타겟 주의력 정도와 함께 타겟 주의력 정도에 대한 확률을 함께 출력할 수 있다.According to an embodiment, the attention level classification model may output a probability of the target attention level together with the target attention level.

일 실시 예에 따르면, 전자 장치(300)는 사용자의 주의력 정도를 결정하도록 서로 다른 방식으로 훈련된 복수의 모델들 각각에 바이오 마커들을 입력할 수 있다. 예를 들어, 복수의 모델들은 제1 모델, 제2 모델, 제3 모델 및 제4 모델을 포함할 수 있다. 복수의 모델들의 각각은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear Discriminant Analysis 및 Naive Bayes 중 어느 하나에 기초하여 훈련된 모델일 수 있고, 복수의 모델들의 각각은 서로 상이할 수 있다. 복수의 모델들에 대해 아래에서 도 14 및 도 15를 참조하여 상세히 설명된다.According to an embodiment, the electronic device 300 may input biomarkers to each of a plurality of models trained in different ways to determine the level of attention of the user. For example, the plurality of models may include a first model, a second model, a third model, and a fourth model. Each of the plurality of models is K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, It may be a model trained based on any one of Linear Discriminant Analysis and Naive Bayes, and each of a plurality of models may be different from each other. A plurality of models are described in detail with reference to FIGS. 14 and 15 below.

예를 들어, 주의력 정도 분류 모델은 신경망(neural network)에 기초하여 미리 훈련될 수 있으나, 모델의 구조 및 훈련 방식에 대해서는 기재된 실시예로 한정되지 않는다.For example, an attention level classification model may be pre-trained based on a neural network, but the structure and training method of the model are not limited to the described embodiments.

일 실시 예에 따르면, 전자 장치(300)는 복수의 모델들이 출력한 결과들에 기초하여 최종적인 사용자의 주의력 정도를 결정할 수 있다. 예를 들어, 복수의 모델들이 출력한 결과들의 평균 값에 기초하여 사용자의 주의력 정도가 결정될 수 있다. 복수의 모델들이 출력한 결과들에 기초하여 사용자의 주의력 정도가 결정하는 방법에 대해, 아래에서 도 14 및 도 15를 참조하여 상세히 설명된다.According to an embodiment, the electronic device 300 may determine a final user's level of attention based on output results of a plurality of models. For example, the user's level of attention may be determined based on an average value of output results of a plurality of models. A method of determining the level of attention of the user based on the results output by the plurality of models will be described in detail below with reference to FIGS. 14 and 15 .

일 실시 예에 따르면, 단계(440)가 수행된 후, 전자 장치(300)는 사용자 단말을 통해 결정된 주의력 정도를 출력할 수 있다.According to an embodiment, after step 440 is performed, the electronic device 300 may output the determined level of attention through the user terminal.

도 5는 일 예에 따른 사용자의 시선을 조정하기 위한 컨텐츠를 도시한다.5 illustrates content for adjusting a user's gaze according to an example.

일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(500)는 사용자의 눈이 응시하는 디스플레이 상의 좌표 값을 조정(calibration)하기 위한 컨텐츠일 수 있다.According to an embodiment, the content 500 provided to the user may be content for calibrating coordinate values on the display at which the user's eyes gaze.

제1 단계(510)에서, 컨텐츠(500)가 시선을 조정하기 위함이라는 목적 및 컨텐츠(500)에 대한 지시(instruction) 사항을 사용자에게 전달할 수 있다. 예를 들어, 사용자의 얼굴의 위치를 고정시키고, 출력되는 오브젝트를 응시하기 위해 사용자의 눈동자 만을 움직이도록 지시할 수 있다.In the first step 510, the purpose of the content 500 to adjust the gaze and instructions for the content 500 may be delivered to the user. For example, it may be instructed to fix the position of the user's face and to move only the user's pupils to gaze at the output object.

제2 단계(520), 제3 단계(530), 제4 단계(540), 제5 단계(550) 및 제6 단계(560) 각각에서, 서로 다른 위치에 오브젝트들(521, 531, 541, 551, 561)이 출력될 수 있다. 오브젝트들(521, 531, 541, 551, 561)을 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 사용자 단말로부터 전자 장치(300)로 전송될 수 있다. 전자 장치(300)는 수신한 좌표 값들과 오브젝트들(521, 531, 541, 551, 561)에 대해 미리 설정된 좌표 값들과의 변환 관계를 계산함으로써 사용자의 시선을 조정할 수 있다.In each of the second step 520, the third step 530, the fourth step 540, the fifth step 550, and the sixth step 560, objects 521, 531, 541, 551, 561) may be output. Coordinate values on the display where the user's eyes gaze at the objects 521 , 531 , 541 , 551 , and 561 may be transmitted from the user terminal to the electronic device 300 . The electronic device 300 may adjust the user's line of sight by calculating a transformation relationship between the received coordinate values and coordinate values preset for the objects 521 , 531 , 541 , 551 , and 561 .

일 실시 예에 따르면, 디스플레이의 전체 영역이 복수의 영역들로 미리 구분될 수 있다. 복수의 영역들은 제공되는 컨텐츠의 종류에 따라 다르게 설정될 수 있다. 예를 들어, 가로 화면으로 제공되는 컨텐츠인지 또는 세로 화면으로 제공되는 컨텐츠인지 여부에 따라 복수의 영역들이 다르게 설정될 수 있다. 오브젝트들(521, 531, 541, 551, 561)은 복수의 영역들 중 어느 하나에 출력될 수 있다.According to an embodiment, the entire area of the display may be pre-divided into a plurality of areas. The plurality of areas may be set differently according to the type of content to be provided. For example, a plurality of areas may be set differently depending on whether the content is provided on a horizontal screen or a vertical screen. The objects 521, 531, 541, 551, and 561 may be output to any one of a plurality of regions.

제7 단계(570)에서, 시선이 조정되었음이 출력될 수 있다.In a seventh step 570, it may be output that the line of sight has been adjusted.

도 6는 일 예에 따른 사용자의 프로 사케이드를 검출하기 위한 컨텐츠를 도시한다.6 illustrates content for detecting a user's pro saccade according to an example.

일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(600)는 사용자의 눈 움직임으로서 프로 사케이드(pro-saccade)를 측정하기 위한 컨텐츠일 수 있다. 컨텐츠(600)는 컨텐츠(600)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(600)는 크게 4단계로 구성될 수 있다.According to an embodiment, the content 600 provided to the user may be content for measuring pro-saccade as eye movements of the user. The content 600 may include text or voice as instructions for eye movement of the user with respect to the content 600 . The content 600 can be largely composed of four steps.

제1 단계(610)에서, 컨텐츠(600) 내에는 사용자의 시선(615)을 유도시키기 위한 오브젝트(611)가 출력될 수 있다. 예를 들어, 오브젝트(611)는 디스플레이의 중앙에 위치할 수 있다.In the first step 610, an object 611 for inducing a user's gaze 615 may be output within the content 600. For example, the object 611 may be located at the center of the display.

제2 단계(620)에서, 컨텐츠(600) 내에 위치하던 오브젝트(611)가 사라질 수 있다.In the second step 620, the object 611 located in the content 600 may disappear.

제3 단계(630)에서, 컨텐츠(600) 내에는 오브젝트(611)가 출력되었던 위치와 다른 위치에 오브젝트(631)가 출력될 수 있다. 사용자는 오브젝트(631)를 관찰하기 위해 시선을 시선(615)에서 시선(635)으로 이동시킬 수 있다.In the third step 630, the object 631 may be output at a position different from the position at which the object 611 was output within the content 600. The user may move the gaze from the gaze 615 to the gaze 635 to observe the object 631 .

제4 단계(640)에서, 컨텐츠(600) 내에 위치하던 오브젝트(631)가 사라질 수 있다.In the fourth step 640, the object 631 located in the content 600 may disappear.

컨텐츠(600)가 디스플레이에 출력되는 동안 컨텐츠(600)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다.While the content 600 is output on the display, user images of a user observing the content 600 may be generated, and coordinate values on the display at which the user's eyes gaze may be determined based on the user images.

단계들(610 내지 640)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(630)에서 출력되는 오브젝트(631)의 위치가 변화될 수 있다. 단계들(610 내지 640)의 1회 수행은 1회의 태스크로 이해될 수 있다. 오브젝트(631)의 위치들이 변화하도록 컨텐츠(600)가 미리 제작될 수 있다.Steps 610 to 640 may be repeatedly performed a preset number of times, and each time the steps 610 to 640 are repeated, the position of the object 631 output in step 630 may be changed. One-time performance of steps 610 to 640 can be understood as a one-time task. The content 600 may be prepared in advance so that the positions of the object 631 change.

도 7은 일 예에 따른 사용자의 안티 사케이드를 검출하기 위한 컨텐츠를 도시한다.7 illustrates content for detecting a user's anti-saccade according to an example.

일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(700)는 사용자의 눈 움직임으로서 안티 사케이드(anti-saccade)을 검출하기 위한 컨텐츠일 수 있다. 컨텐츠(700)는 컨텐츠(700)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(700)는 크게 5단계로 구성될 수 있다.According to an embodiment, the content 700 provided to the user may be content for detecting anti-saccade as the user's eye movement. The content 700 may include text or voice as instructions for eye movement of the user with respect to the content 700 . The content 700 can be largely composed of five steps.

제1 단계(710)에서, 컨텐츠(700) 내에는 사용자의 시선(715)을 유도시키기 위한 오브젝트(711)가 출력될 수 있다. 오브젝트(711)는 디스플레이의 중앙에 위치할 수 있다.In the first step 710, an object 711 for inducing a user's gaze 715 may be output within the content 700. The object 711 may be positioned at the center of the display.

제2 단계(720)에서, 컨텐츠(700) 내에 위치하던 오브젝트(711)가 사라질 수 있다.In the second step 720, the object 711 located in the content 700 may disappear.

제3 단계(730)에서, 컨텐츠(700) 내에는 오브젝트(711)가 출력되었던 위치와 다른 위치에 오브젝트(731)가 출력될 수 있다. 예를 들어, 사용자는 오브젝트(731)의 반대 위치(732)를 관찰하기 위해 시선을 오브젝트(731)의 시선(735)에서 시선(736)으로 이동시킬 수 있다. 다르 예로, 사용자는 오브젝트(731)의 반대 위치(732)를 관찰하기 위해 시선을 시선(715)에서 시선(736)으로 이동시킬 수 있다.In the third step 730, the object 731 may be output at a position different from the position at which the object 711 was output within the content 700. For example, the user may move the gaze from the gaze 735 of the object 731 to the gaze 736 in order to observe the opposite position 732 of the object 731 . As another example, the user may move the gaze from the gaze 715 to the gaze 736 to observe the opposite position 732 of the object 731 .

제4 단계(740)에서, 반대 위치(732)에 오브젝트(742)가 출력될 수 있다. 오브젝트(742)는 반대 위치(732)를 사용자에게 알려주기 위한 정답일 수 있다.In the fourth step 740, the object 742 may be output to the opposite position 732. The object 742 may be a correct answer for informing the user of the opposite location 732 .

제5 단계(750)에서, 컨텐츠(700) 내에 위치하던 오브젝트(742)가 사라질 수 있다.In the fifth step 750, the object 742 located in the content 700 may disappear.

컨텐츠(700)가 디스플레이에 출력되는 동안 컨텐츠(700)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다While the content 700 is output on the display, user images of a user observing the content 700 may be generated, and based on the user images, coordinate values on the display at which the user's eyes gaze may be determined.

단계들(710 내지 750)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(730) 및 단계(740)에서 출력되는 오브젝트(731) 및 오브젝트(742)의 위치들이 변화될 수 있다. 단계들(710 내지 750)의 1회 수행은 1회의 태스크로 이해될 수 있다. 오브젝트(731) 및 오브젝트(742)의 위치들이 변화하도록 컨텐츠(700)가 미리 제작될 수 있다.Steps 710 to 750 may be repeatedly performed a preset number of times, and the positions of the objects 731 and 742 output in steps 730 and 740 may be changed each time they are repeated. there is. Performing steps 710 to 750 once may be understood as a single task. The content 700 may be prepared in advance so that the positions of the object 731 and the object 742 change.

도 8은 일 예에 따른 사용자의 기억 유도 사케이드를 검출하기 위한 컨텐츠를 도시한다.8 illustrates content for detecting a user's memory-induced saccade according to an example.

일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(800)는 사용자의 눈 움직임으로서 시선 메모리(memory)를 측정하기 위한 컨텐츠일 수 있다. 컨텐츠(800)는 컨텐츠(800)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(800)는 크게 5단계로 구성될 수 있다.According to an embodiment, the content 800 provided to the user may be content for measuring gaze memory as eye movements of the user. The content 800 may include text or voice as instructions for eye movement of the user with respect to the content 800 . The content 800 can be largely composed of five steps.

제1 단계(810)에서, 컨텐츠(800) 내에는 사용자의 시선을 유도시키기 위한 오브젝트(811)가 출력될 수 있다. 예를 들어, 오브젝트(811)는 디스플레이의 중앙에 위치할 수 있다.In the first step 810, an object 811 for inducing a user's gaze may be output within the content 800. For example, the object 811 may be located at the center of the display.

제2 단계(820)에서, 오브젝트(811)의 출력이 유지된 상태에서 오브젝트(822)가 추가로 출력될 수 있다.In the second step 820, the object 822 may be additionally output while the output of the object 811 is maintained.

제3 단계(830)에서, 오브젝트(811)의 출력이 유지된 상태에서 오브젝트(822)가 사라질 수 있다.In the third step 830, the object 822 may disappear while the output of the object 811 is maintained.

제4 단계(840)에서, 컨텐츠(800) 내에 위치하던 오브젝트(811)가 사라질 수 있다. 사전에 사용자는 오브젝트(822)가 출력되었던 위치(841)를 응시하도록 지시받을 수 있다.In the fourth step 840, the object 811 located in the content 800 may disappear. In advance, the user may be instructed to gaze at the position 841 where the object 822 was output.

제5 단계(850)에서, 위치(841)에 오브젝트(851)가 출력될 수 있다. 오브젝트(851)는 위치(841)를 사용자에게 알려주기 위한 정답일 수 있다.In a fifth step 850 , an object 851 may be output at the location 841 . The object 851 may be a correct answer for informing the user of the location 841 .

컨텐츠(800)가 디스플레이에 출력되는 동안 컨텐츠(800)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다While the content 800 is output on the display, user images of a user observing the content 800 may be created, and based on the user images, coordinate values on the display at which the user's eyes gaze may be determined.

단계들(810 내지 850)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(820) 및 단계(850)에서 출력되는 오브젝트(822) 및 오브젝트(851)의 위치들이 변화될 수 있다. 단계들(810 내지 850)의 1회 수행은 1회의 태스크로 이해될 수 있다. 오브젝트(822) 및 오브젝트(851)의 위치들이 변화하도록 컨텐츠(800)가 미리 제작될 수 있다.Steps 810 to 850 may be repeatedly performed a preset number of times, and the locations of the objects 822 and 851 output in steps 820 and 850 may be changed each time they are repeated. there is. One-time performance of steps 810 to 850 can be understood as a one-time task. The content 800 may be prepared in advance so that the positions of the object 822 and the object 851 are changed.

도 9는 일 예에 따른 사용자의 변화 감지를 검출하기 위한 컨텐츠를 도시한다.9 illustrates content for detecting a change detection of a user according to an example.

일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(900)는 사용자의 눈 움직임으로서 변화 감지(change detection)를 검출하기 위한 컨텐츠일 수 있다. 컨텐츠(900)는 컨텐츠(900)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(900)는 크게 3단계로 구성될 수 있다.According to an embodiment, the content 900 provided to the user may be content for detecting change detection as the user's eye movement. The content 900 may include text or voice as instructions for eye movement of the user with respect to the content 900 . The content 900 can be largely composed of three steps.

제1 단계(910)에서, 컨텐츠(900) 내에는 사용자의 시선을 유도시키기 위한 이미지(920)가 출력될 수 있다. 예를 들어, 이미지(920)는 오브젝트(922)를 포함할 수 있다. 이미지(920)가 미리 설정된 시간 동안 출력된 후, 점멸 이미지(930)가 출력될 수 있다. 점멸 이미지(930)는 사용자의 시선을 환기시키기 위한 이미지일 수 있고, 공백 이미지일 수 있다. 점멸 이미지(930)가 미리 설정된 시간 동안 출력된 후 이미지(940)가 출력될 수 있다. 이미지(940)는 이미지(920)의 일부를 수정한 이미지일 수 있다. 예를 들어, 이미지(940)는 오브젝트(922) 대신에 다른 오브젝트(942)를 포함할 수 있다.In the first step 910, an image 920 for inducing a user's gaze may be output within the content 900. For example, image 920 may include object 922 . After the image 920 is output for a preset time, the blinking image 930 may be output. The flickering image 930 may be an image for arousing the user's gaze or may be a blank image. After the blinking image 930 is output for a preset time, the image 940 may be output. The image 940 may be an image obtained by modifying a part of the image 920 . For example, the image 940 may include another object 942 instead of the object 922 .

일 실시 예에 따르면, 이미지(920)의 출력 및 이미지(940)의 출력 사이에 점멸 이미지(930)가 출력되는 것으로 도시되었으나, 점멸 이미지(930)가 출력되지 않고, 이미지(920)의 출력 및 이미지(940)의 출력이 교대로 수행될 수 있다.According to an embodiment, although the blinking image 930 is shown to be output between the output of the image 920 and the output of the image 940, the blinking image 930 is not output, and the output of the image 920 and Output of the image 940 may be performed alternately.

미리 설정된 시간 동안 이미지들(920, 930, 940)의 출력이 반복될 수 있다.The output of the images 920, 930, and 940 may be repeated for a preset period of time.

사용자가 이미지(920) 및 이미지(940) 간의 차이를 발견한 경우, 사용자는 이미지(920) 또는 이미지(940)의 차이를 선택(예: 터치 입력)할 수 있다. 사용자의 선택이 정답인 경우, 제2 단계(950)가 수행될 수 있다.When the user finds a difference between the image 920 and the image 940, the user may select (eg, touch input) the difference between the image 920 and the image 940. If the user's selection is correct, a second step 950 may be performed.

미리 설정된 시간이 경과한 후에도, 사용자가 이미지(920) 및 이미지(940) 간의 차이를 발견하지 못한 경우에도 제2 단계(950)가 수행될 수 있다.The second step 950 may be performed even if the user does not find a difference between the image 920 and the image 940 after the elapse of the preset time.

제2 단계(950)에서, 컨텐츠(900) 내에는 이미지(920) 또는 이미지(940)의 오브젝트(922) 또는 오브젝트(942)에 대한 정답 오브젝트(952)가 출력될 수 있다. 정답 오브젝트(952)는 이미지(920) 및 이미지(940) 간의 차이를 사용자에게 알려주기 위한 정답일 수 있다.In the second step 950 , the image 920 or the object 922 of the image 940 or a correct answer object 952 for the object 942 may be output in the content 900 . The answer object 952 may be a correct answer for informing the user of the difference between the image 920 and the image 940 .

제3 단계(960)에서, 컨텐츠(900) 내에는 이미지(920)와는 다른 이미지가 출력된다는 알림이 출력될 수 있다.In the third step 960, a notification that an image different from the image 920 is output in the content 900 may be output.

컨텐츠(900)가 디스플레이에 출력되는 동안 컨텐츠(900)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다While the content 900 is output on the display, user images of a user observing the content 900 may be generated, and based on the user images, coordinate values on the display at which the user's eyes gaze may be determined.

단계들(910 내지 930)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(910)에서 출력되는 오브젝트들(920 및 940)이 변경될 수 있다. 단계들(910 내지 930)의 1회 수행은 1회의 태스크로 이해될 수 있다.Steps 910 to 930 may be repeatedly performed a preset number of times, and objects 920 and 940 output in step 910 may be changed each time they are repeated. One-time performance of steps 910 to 930 can be understood as a one-time task.

도 10은 일 예에 따른 사용자의 스트룹 테스트를 위한 컨텐츠를 도시한다.10 illustrates content for a stroop test of a user according to an example.

일 실시 예에 따르면, 사용자에게 제공되는 컨텐츠(900)는 사용자에게 집중하기 어려운 환경을 제공하고, 제시된 지시 사항을 수행하도록 하기 위한 컨텐츠일 수 있다. 컨텐츠(1000)는 컨텐츠(1000)에 대한 사용자의 눈 움직임을 위한 지시로서 텍스트 또는 음성을 포함할 수 있다. 컨텐츠(1000)는 크게 2단계로 구성될 수 있다.According to an embodiment, the content 900 provided to the user may be content for providing an environment in which it is difficult for the user to concentrate and to perform suggested instructions. The content 1000 may include text or voice as instructions for eye movement of the user with respect to the content 1000 . The content 1000 can be largely composed of two stages.

제1 단계(1010)에서, 컨텐츠(1000) 내에는 사용자의 시선을 유도시키기 위한 오브젝트(1011)가 출력될 수 있다. 오브젝트(1011)는 디스플레이의 중앙에 위치할 수 있다.In the first step 1010, an object 1011 for inducing a user's gaze may be output within the content 1000. The object 1011 may be positioned at the center of the display.

제2 단계(1020)에서, 컨텐츠(1000) 내에는 특정한 색을 갖는 오브젝트(1021) 및 색을 나타내는 텍스트(1022)가 출력될 수 있다. 오브젝트(1021)의 색과 텍스트(1022)가 나타내는 색은 다를 수 있다. 예를 들어, 오브젝트(1021)의 색은 빨강일 수 있다.In the second step 1020, an object 1021 having a specific color and text 1022 representing the color may be output within the content 1000. The color of the object 1021 and the color indicated by the text 1022 may be different. For example, the color of the object 1021 may be red.

추가적으로, 컨텐츠(1000) 내에는 색을 나타내는 텍스트들(1023 내지 1026)이 출력될 수 있다. 사용자는 오브젝트(1021)의 색을 나타내는 텍스트(1024)를 선택할 수 있다.Additionally, texts 1023 to 1026 representing colors may be output within the content 1000 . A user may select text 1024 representing the color of the object 1021 .

컨텐츠(1000)가 디스플레이에 출력되는 동안 컨텐츠(1000)를 관찰하는 사용자의 사용자 이미지들이 생성될 수 있고, 사용자 이미지들에 기초하여 사용자의 눈이 응시하는 디스플레이 상의 좌표 값들이 결정될 수 있다.While the content 1000 is being output to the display, user images of a user observing the content 1000 may be generated, and based on the user images, coordinate values of the user's eyes on the display may be determined.

단계들(1010 및 1020)이 미리 설정된 횟수로 반복적으로 수행될 수 있고, 반복될 때마다 단계(1020)에서 출력되는 특정한 색을 갖는 오브젝트(1021) 및 색을 나타내는 텍스트(1022)가 변화될 수 있다. 단계들(1010 내지 1020)의 1회 수행은 1회의 태스크로 이해될 수 있다.Steps 1010 and 1020 may be repeatedly performed a preset number of times, and whenever repeated, the object 1021 having a specific color output in step 1020 and the text 1022 representing the color may be changed. there is. Performing steps 1010 to 1020 once may be understood as a single task.

도 11은 일 예에 따른 사용자의 눈이 응시하는 디스플레이 상의 좌표 값을 연속적으로 결정하는 방법의 흐름도이다.11 is a flowchart of a method of continuously determining coordinate values on a display at which eyes of a user gaze, according to an example.

일 실시 예에 따르면, 도 4를 참조하여 전술된 단계(410)가 수행된 후 아래의 단계들(1110 내지 1130)이 사용자 단말(예: 도 1의 사용자 단말(120))에 의해 수행될 수 있다. 예를 들어, 전자 장치(300)는 사용자 단말이 단계들(1110 내지 1130)을 수행하도록 사용자 단말을 제어할 수 있다. 단계들(1110 내지 1130)은 사용자 단말에 설치된 추가 어플리케이션에 의해 수행될 수 있다.According to an embodiment, after the step 410 described above with reference to FIG. 4 is performed, the following steps 1110 to 1130 may be performed by a user terminal (eg, the user terminal 120 of FIG. 1). there is. For example, the electronic device 300 may control the user terminal so that the user terminal performs steps 1110 to 1130. Steps 1110 to 1130 may be performed by an additional application installed on the user terminal.

단계(1110)에서, 사용자 단말은 사용자 단말의 카메라를 통해 컨텐츠를 관찰하는 사용자의 눈을 포함하는 사용자 이미지들을 연속적으로 생성할 수 있다. 예를 들어, 컨텐츠(예: 제1 컨텐츠)가 출력되는 동안 미리 설정된 주기로 사용자 이미지 세트(예: 제1 사용자 이미지 세트)가 생성될 수 있다.In operation 1110, the user terminal may continuously generate user images including eyes of a user observing content through a camera of the user terminal. For example, a user image set (eg, a first user image set) may be generated at a predetermined cycle while content (eg, first content) is output.

일 실시 예에 따르면, 단계(1120)는 단계들(1122 내지 1128)을 포함할 수 있다.According to one embodiment, step 1120 may include steps 1122 to 1128.

단계(1122)에서, 사용자 단말은 컨텐츠에 대해 수신된 사용자 이미지들 중 제1 사용자 이미지 내의 사용자의 제1 눈을 검출할 수 있다.In operation 1122, the user terminal may detect a first eye of a user in a first user image among user images received for content.

단계(1124)에서, 사용자 단말은 제1 눈에 기초하여 사용자의 제1 시선 방향을 결정할 수 있다. 예를 들어, 제1 사용자 이미지 내의 제1 눈의 좌표 값에 기초하여 사용자 눈의 3차원 공간 내의 위치가 결정될 수 있고, 눈의 위치 및 동공의 방향 등에 기초하여 제1 시선 방향이 결정될 수 있다. 사용자 이미지에 기초하여 사용자의 제1 시선 방향을 결정하는 소프트웨어 등이 사용될 수 있고, 기재된 실시예로 한정되지 않는다.In operation 1124, the user terminal may determine a first gaze direction of the user based on the first eye. For example, the position of the user's eyes in the 3D space may be determined based on the coordinate values of the first eyes in the first user image, and the first gaze direction may be determined based on the position of the eyes and the direction of the pupil. Software or the like that determines the user's first gaze direction based on the user's image may be used, and is not limited to the described embodiment.

단계(1126)에서, 사용자 단말은 제1 시선 방향에 기초하여 디스플레이 상의 제1 좌표 값을 결정할 수 있다. 예를 들어, 제1 좌표 값은 디스플레이 상의 픽셀 좌표 값일 수 있다. 다른 예로, 제1 좌표 값은 디스플레이의 전체 영역을 복수의 영역들로 분할한 영역들 중 어느 하나에 대응할 수 있다.In operation 1126, the user terminal may determine a first coordinate value on the display based on the first gaze direction. For example, the first coordinate value may be a pixel coordinate value on the display. As another example, the first coordinate value may correspond to one of areas obtained by dividing the entire area of the display into a plurality of areas.

단계(1128)에서, 사용자 단말은 제1 좌표 값 및 제1 사용자 이미지의 제1 타임 스탬프를 연관시킬 수 있다. 제1 타임 스탬프는 제1 사용자 이미지가 생성된 시각을 나타낼 수 있다.In step 1128, the user terminal may associate the first coordinate value and the first time stamp of the first user image. The first time stamp may indicate a time when the first user image was created.

단계들(1122 내지 1128)이 사용자 이미지들 각각에 대해 반복적으로 수행될 수 있다. 단계들(1122 내지 1128)이 반복적으로 수행됨에 따라, 컨텐츠에 대한 좌표 값들이 생성될 수 있고, 좌표 값들 각각에 대해 타임 스탬프가 연관될 수 있다.Steps 1122-1128 may be performed iteratively for each of the user images. As steps 1122 to 1128 are repeatedly performed, coordinate values for content may be generated, and a time stamp may be associated with each coordinate value.

단계(1230)에서, 사용자 단말은 결정된 좌표 값들을 전자 장치(300)로 전송할 수 있다.In step 1230, the user terminal may transmit the determined coordinate values to the electronic device 300.

도 12는 일 예에 따른 원시 타겟 바이오 마커들에 기초하여 타겟 바이오 마커들을 생성하는 방법의 흐름도이다.12 is a flowchart of a method of generating target biomarkers based on raw target biomarkers according to an example.

일 실시 예에 따르면, 도 4를 참조하여 전술된 단계(430)는 아래의 단계들(1210 및 1220)을 포함할 수 있다.According to one embodiment, step 430 described above with reference to FIG. 4 may include steps 1210 and 1220 below.

단계(1210)에서, 전자 장치(300)는 사용자 단말로부터 수신한 사용자가 응시한 좌표 값에 기초하여 타겟 컨텐츠에 대해 미리 정의된 사용자의 눈 움직임에 대한 하나 이상의 원시 타겟 바이오 마커들을 생성할 수 있다.In step 1210, the electronic device 300 may generate one or more raw target biomarkers for predefined eye movements of the user with respect to the target content based on the coordinate values received from the user terminal and gazed at by the user. .

단계(1220)에서, 전자 장치(300)는 하나 이상의 원시 타겟 바이오 마커들 각각에 대해 미리 설정된 정규화 방식을 적용함으로써 원시 타겟 바이오 마커들에 대응하는 타겟 바이오 마커들을 생성할 수 있다. 예를 들어, 원시 타겟 바이오 마커를 정규화하기 위해 스케일러(scaler)가 이용될 수 있다. 예를 들어, 스케일러는 최소-최대 스케일러(min-max scaler), 최대 절대 값 스케일러(max-abs scaler), 표준 스케일러(standard scaler) 및 강건한 스케일러(robust scaler)를 포함할 수 있다. 정규화를 통해 원시 타겟 바이오 마커가 비정상적인 값을 나타내는 경우에도 모델에 입력이 가능해질 수 있다.In operation 1220, the electronic device 300 may generate target biomarkers corresponding to the original target biomarkers by applying a preset normalization scheme to each of the one or more original target biomarkers. For example, a scaler can be used to normalize raw target biomarkers. For example, the scaler may include a min-max scaler, a max-abs scaler, a standard scaler, and a robust scaler. Through normalization, even when the raw target biomarker exhibits an abnormal value, it can be input into the model.

일 실시 예에 따르면, 스케일러는 제1 원시 타겟 바이오 마커에 대해 제1 정규화 방식을 적용함으로써 제1 원시 타겟 바이오 마커들에 대응하는 제1 타겟 바이오 마커를 생성하고, 제2 원시 타겟 바이오 마커에 대해 제2 정규화 방식을 적용함으로써 제2 원시 타겟 바이오 마커들에 대응하는 제2 타겟 바이오 마커를 생성할 수 있다.According to an embodiment, the scaler generates a first target biomarker corresponding to the first original target biomarkers by applying a first normalization method to the first original target biomarker, and generates a first target biomarker corresponding to the second original target biomarker. A second target biomarker corresponding to the second original target biomarkers may be generated by applying the second normalization method.

도 13은 일 예에 따른 복수의 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 방법의 흐름도이다.13 is a flowchart of a method of generating a target biomarker set based on a plurality of sub-biomarkers according to an example.

일 실시 예에 따르면, 도 4를 참조하여 전술된 단계(430)는 아래의 단계들(1310 내지 1330)을 포함할 수 있다.According to one embodiment, step 430 described above with reference to FIG. 4 may include steps 1310 to 1330 below.

단계(1310)에서, 전자 장치(300)는 제1 타겟 컨텐츠에 대해 수신된 제1 좌표 값들에 기초하여 제1 서브 바이오 마커들을 생성할 수 있다. 예를 들어, 제1 타겟 컨텐츠가 사용자의 프로 사케이드(pro-saccades)를 검출하기 위한 컨텐츠인 경우, 제1 서브 바이오 마커들은 시선고정 최대시간(fixation time max), 시선고정 평균시간(fixation mean), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 시선고정 횟수(fixation count) 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean)를 포함할 수 있다. 일 예에 따르면, 단계(1310)를 수행하기 위해 단계들(1210 및 1220)이 수행될 수 있다.In step 1310, the electronic device 300 may generate first sub biomarkers based on the first coordinate values received for the first target content. For example, when the first target content is content for detecting pro-saccades of the user, the first sub biomarkers are fixation time max, fixation mean ), the average of the times taken to switch from the previous saccade to the next saccade (saccade latency mean), the number of fixation counts, and the average speed of transition from fixation to saccade (saccade velocity mean). . According to one example, steps 1210 and 1220 may be performed to perform step 1310.

단계(1320)에서, 전자 장치(300)에서, 제2 타겟 컨텐츠에 대해 수신된 제2 좌표 값들에 기초하여 제2 서브 바이오 마커들을 생성할 수 있다. 예를 들어, 제2 타겟 컨텐츠가 안티 사케이드(anti-saccades)를 검출하기 위한 컨텐츠인 경우, 제2 서브 바이오 마커들은 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 사용자가 제2 컨텐츠를 바라본 총 시간(screen duration total), 시선고정 시간들의 표준편차(fixationStd), 시선고정 횟수(fixation count), 및 시선 좌표 값들 중 x 좌표 값들의 평균(coordX mean)을 포함할 수 있다.In step 1320, the electronic device 300 may generate second sub biomarkers based on the second coordinate values received for the second target content. For example, when the second target content is content for detecting anti-saccades, the second sub biomarkers are the standard deviation (saccadeStd) of the durations of the saccades, and the user selects the second content. It may include a screen duration total, a standard deviation of gaze fixation times (fixationStd), a fixation count, and an average (coordX mean) of x coordinate values among gaze coordinate values.

예를 들어, 단계(1310) 및 단계(1320)를 통해 제1 서브 바이오 마커들 및 제2 서브 바이오 마커들이 생성되는 구성이 설명되었으나, 추가적으로 제3 타겟 컨텐츠 및 제4 타겟 컨텐츠에 대한 제3 서브 바이오 마커들 및 제4 바이오 마커들이 더 생성될 수 있다.For example, although the configuration in which the first sub biomarkers and the second sub biomarkers are generated through steps 1310 and 1320 has been described, an additional third sub biomarker for the third target content and the fourth target content has been described. Biomarkers and fourth biomarkers may be further generated.

단계(1330)에서, 전자 장치(300)는 제1 서브 바이오 마커들 및 제2 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트가 생성될 수 있다. 예를 들어, 타겟 바이오 마커 세트가 훈련된 복수의 모델들 각각에 입력될 수 있다.In step 1330, the electronic device 300 may generate a target biomarker set based on the first sub biomarkers and the second sub biomarkers. For example, a target biomarker set may be input to each of a plurality of trained models.

도 14는 일 예에 따른 복수의 모델들을 이용하여 사용자의 주의력 정도를 결정하는 방법의 흐름도이다.14 is a flowchart of a method of determining a user's attentional level using a plurality of models according to an example.

일 실시 예에 따르면, 도 4를 참조하여 전술된 단계(440)는 아래의 단계들(1410 및 1420)을 포함할 수 있다.According to one embodiment, step 440 described above with reference to FIG. 4 may include steps 1410 and 1420 below.

단계(1410)에서, 전자 장치(300)는 미리 훈련된 복수의 모델들 각각에 타겟 바이오 마커들(또는, 타겟 바이오 마커 세트)을 입력할 수 있다. 예를 들어, 복수의 모델들은 제1 모델, 제2 모델, 제3 모델 및 제4 모델을 포함할 수 있다. 제1 모델, 제2 모델, 제3 모델 및 제4 모델의 각각은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, 및 Random Forest Classifier일 수 있다.In step 1410, the electronic device 300 may input target biomarkers (or target biomarker sets) to each of a plurality of previously trained models. For example, the plurality of models may include a first model, a second model, a third model, and a fourth model. Each of the first model, the second model, the third model, and the fourth model may be a K Neighbors Classifier, an Extra Trees Classifier, a Logistic Regression, and a Random Forest Classifier.

일 실시 예에 따르면, 주의력 정도를 분류하기 위한 모델로 이용될 수 있는 알고리즘 또는 분류기가 실험을 통해 선정될 수 있다. 예를 들어, 제1 모델, 제2 모델, 제3 모델 및 제4 모델이 상기의 실험에 기초하여 선정될 수 있다. 아래의 [표 2]를 통해 상기의 실험 결과가 나타날 수 있다.According to an embodiment, an algorithm or classifier that can be used as a model for classifying the degree of attention may be selected through an experiment. For example, the first model, the second model, the third model, and the fourth model may be selected based on the above experiments. [Table 2] below shows the above experimental results.

Figure 112022055778190-pat00001
Figure 112022055778190-pat00001

[표 2]에서 '더미(dummy)'라고 명명된 모델은 알고리즘적으로 정확하게 구현이 되지 않고, 단순하게 비정상이라는 하나의 결과만 도출하는 모델일 수 있다. 이에 따라, 더미 모델의 결과보다 높은 정확도/신뢰도를 나타내는 모델이 주의력 정도를 분류하기 위한 모델로 선정될 수 있다.The model named 'dummy' in [Table 2] may not be implemented algorithmically accurately, but may be a model that derives only one result, which is simply abnormal. Accordingly, a model exhibiting higher accuracy/reliability than the result of the dummy model may be selected as a model for classifying the degree of attention.

[표 2]에 따르면, 더미 모델의 결과보다 높은 정확도/신뢰도를 나타내는 모델들이 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier 및 Quadratic Discriminant Analysis로 나타난다. 이들 중에서 Quadratic Discriminant Analysis는 정확도 이외의 다른 지표들이(예: AUC, Recall, F1 등) 더미 모델과 거의 유사하기 때문에 최종 이용 모델에서 제외될 수 있고, K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, 및 Random Forest Classifier이 최종 이용 모델들로 결정될 수 있다.According to [Table 2], models showing higher accuracy/reliability than the results of the dummy model appear as K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, and Quadratic Discriminant Analysis. Among these, Quadratic Discriminant Analysis can be excluded from the final use model because other indicators (eg AUC, Recall, F1, etc.) other than accuracy are almost similar to the dummy model, and K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, and A Random Forest Classifier can be determined with end-use models.

일 실시 예에 따르면, Extra Trees Classifier에 기초한 모델은 훈련 과정에서 동일한 데이터가 중복적으로 이용되지 않지만, Random Forest Classifier에 기초한 모델은 훈련 과정에서 동일한 데이터가 중복적으로 이용되는 것을 허용할 수 있다. Random Forest Classifier에 기초한 모델은 데이터의 중복을 허용함으로써 다른 방식에 기초한 모델에서 캐치하지 못한 입력 데이터의 특성을 캐치할 수 있다.According to an embodiment, the model based on the Extra Trees Classifier does not use the same data repeatedly during training, but the model based on the random forest classifier allows the same data to be used repeatedly during the training process. A model based on a random forest classifier can catch characteristics of input data that cannot be captured by models based on other methods by allowing data redundancy.

일 실시 예에 따르면, 복수의 모델들 각각은 입력된 타겟 바이오 마커들에 대한 주의력 정도를 결과로서 출력할 수 있다. 예를 들어, 제1 모델이 제1 결과를 출력하고, 제2 모델이 제2 결과를 출력하고, 제3 모델이 제3 결과를 출력하고, 제4 모델이 제4 결과를 출력할 수 있다.According to an embodiment, each of the plurality of models may output the degree of attention for the input target biomarkers as a result. For example, a first model may output a first result, a second model may output a second result, a third model may output a third result, and a fourth model may output a fourth result.

단계(1420)에서, 전자 장치(300)는 제1 모델의 제1 결과 및 제2 모델의 제2 결과에 기초하여 사용자의 주의력 정도를 결정할 수 있다.In operation 1420, the electronic device 300 may determine the level of attention of the user based on the first result of the first model and the second result of the second model.

일 실시 예에 따르면, 전자 장치(300)는 예를 들어, 제1 모델에 의한 제1 결과가 정상 단계, 제2 모델에 의한 제2 결과가 정상 단계, 제3 모델에 의한 제3 결과가 ADHD 단계, 및 제4 모델에 의한 제4 결과가 정상 단계인 경우 투표방식에 의해 사용자의 주의력 정도는 정상 단계로 결정될 수 있다.According to an embodiment, the electronic device 300 determines, for example, that a first result by a first model is a normal stage, a second result by a second model is a normal stage, and a third result by a third model is ADHD. If the step and the fourth result by the fourth model are normal, the user's attention level may be determined to be normal by a voting method.

다른 일 실시 예에 따르면, 전자 장치(300)는 예를 들어, 제1 모델의 의한 제1 결과가 정상 단계일 확률이 90%이고, 제2 모델의 의한 제2 결과가 정상 단계일 확률이 80%이고, 제3 모델의 의한 제3 결과가 정상 단계일 확률이 50%이고, 제4 모델의 의한 제4 결과가 정상 단계일 확률이 40%인 경우 확률의 평균 값을 65%로 계산하고, 평균 값인 65%에 기초하여 사용자의 주의력 정도를 계산할 수 있다. 예를 들어, 정상 단계에 대해 미리 설정된 임계 값 보다 평균 값이 높은 경우 사용자는 정상 단계로 결정될 수 있고, 임계 값 보다 평균 값이 높지 않은 경우 사용자는 ADHD 단계로 결정될 수 있다.According to another embodiment, the electronic device 300 has, for example, a probability that a first result from the first model is a normal stage is 90% and a probability that a second result from the second model is a normal stage is 80%. %, if the probability that the third result by the third model is the normal stage is 50%, and the probability that the fourth result by the fourth model is the normal stage is 40%, the average value of the probability is calculated as 65%, The degree of attention of the user may be calculated based on the average value of 65%. For example, if the average value of the normal level is higher than a predetermined threshold value, the user may be determined to be in the normal level, and if the average value is not higher than the threshold value, the user may be determined to be in the ADHD level.

도 15는 일 예에 따른 복수의 모델들을 이용하여 사용자의 주의력 정도를 결정하는 방법을 도시한다.15 illustrates a method of determining a user's attentional level using a plurality of models according to an example.

일 실시 예에 따르면, 타겟 바이오 마커들(1510)(또는, 타겟 바이오 마커 세트)이 제1 모델(1522), 제2 모델(1524), 제3 모델(1526), 및 제4 모델(1528) 각각에 입력될 수 있다. 제1 모델(1522), 제2 모델(1524), 제3 모델(1526), 및 제4 모델(1528)은 각각 제1 결과(1532), 제2 결과(1534), 제3 결과(1536) 제4 결과(1538)를 출력할 수 있다.According to an embodiment, the target biomarkers 1510 (or target biomarker set) include a first model 1522, a second model 1524, a third model 1526, and a fourth model 1528. can be entered into each. The first model 1522, the second model 1524, the third model 1526, and the fourth model 1528 are a first result 1532, a second result 1534, and a third result 1536, respectively. A fourth result 1538 can be output.

일 실시 예에 다르면, 전자 장치(300)는 제1 결과(1532), 제2 결과(1534), 제3 결과(1536), 및 제4 결과(1538)에 투표방식(예: 다수결)을 적용함으로써 사용자의 주의력 정도를 결정할 수 있다.According to an embodiment, the electronic device 300 applies a voting method (eg, majority vote) to the first result 1532, the second result 1534, the third result 1536, and the fourth result 1538. By doing so, the level of attention of the user can be determined.

일 실시 예에 다르면, 전자 장치(300)는 제1 결과(1532), 제2 결과(1534), 제3 결과(1536), 및 제4 결과(1538)에 의해 출력된 정상 단계일 확률(또는, ADHD 단계일 확률)들의 평균 값을 계산하고, 평균 값에 기초하여 사용자의 주의력 정도를 결정할 수 있다.According to an embodiment, the electronic device 300 has a probability (or , Probability of ADHD stage) is calculated, and based on the average value, the degree of attention of the user may be determined.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (15)

전자 장치에 의해 수행되는, 사용자의 주의력 정도를 결정하는 방법은,
사용자 단말의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제1 타겟 컨텐츠를 출력하는 단계;
상기 제1 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제1 좌표 값들을 연속적으로 수신하는 단계;
상기 제1 좌표 값들에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제1 타겟 컨텐츠에 대응하는 제1 서브 바이오 마커들을 생성하는 단계;
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제2 타겟 컨텐츠를 출력하는 단계;
상기 제2 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제2 좌표 값들을 연속적으로 수신하는 단계;
상기 제2 좌표 값들에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제2 타겟 컨텐츠에 대응하는 제2 서브 바이오 마커들을 생성하는 단계;
상기 제1 서브 바이오 마커들 및 상기 제2 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 단계; 및
상기 타겟 바이오 마커 세트에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계
를 포함하고,
상기 타겟 바이오 마커 세트에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계는,
사용자의 주의력 정도를 결정하도록 서로 다른 방식으로 훈련된 제1 모델 및 제2 모델을 포함하는 복수의 모델들 각각에 상기 타겟 바이오 마커 세트를 입력하는 단계; 및
상기 타겟 바이오 마커 세트에 대한 상기 제1 모델의 제1 결과 및 상기 타겟 바이오 마커 세트에 대한 상기 제2 모델의 제2 결과를 포함하는 상기 복수의 모델들의 복수의 결과들에 투표방식을 적용하거나 또는 상기 복수의 결과들의 평균 값에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계
를 포함하고,
상기 제1 타겟 컨텐츠는 상기 사용자의 프로 사케이드(pro-saccades)를 검출하기 위해 시간에 흐름에 따라 상기 제1 타겟 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠이고,
상기 제2 타겟 컨텐츠는 상기 사용자의 안티 사케이드(anti-saccades)를 검출하기 위해 시간에 흐름에 따라 상기 제2 타겟 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠이고,
상기 결정된 주의력 정도가 상기 사용자 단말을 통해 출력되는,
주의력 정도 결정 방법.
A method for determining the level of attention of a user, performed by an electronic device,
outputting pre-produced first target content to determine a level of attention of a user through a display of a user terminal;
continuously receiving first coordinate values on the display at which eyes of the user observing the first target content gaze;
generating first sub-biomarkers corresponding to the first target content for eye movement of the user based on the first coordinate values;
outputting previously produced second target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving second coordinate values on the display at which eyes of the user observing the second target content gaze;
generating second sub-biomarkers corresponding to the second target content for eye movements of the user based on the second coordinate values;
generating a target biomarker set based on the first sub-biomarkers and the second sub-biomarkers; and
Determining the level of attention of the user based on the target biomarker set
including,
Determining the level of attention of the user based on the target biomarker set,
inputting the target biomarker set to each of a plurality of models including a first model and a second model trained in different ways to determine a user's attentional level; and
A voting method is applied to a plurality of results of the plurality of models including a first result of the first model for the target biomarker set and a second result of the second model for the target biomarker set; or determining the degree of attention of the user based on an average value of the plurality of results;
including,
The first target content is content in which at least one of the shape, color, and position of at least one object of the first target content changes over time to detect pro-saccades of the user, and ,
The second target content is content in which at least one of the shape, color, and position of at least one object of the second target content changes over time in order to detect anti-saccades of the user. ,
The determined degree of attention is output through the user terminal,
Methods for determining the degree of attention.
제1항에 있어서,
상기 제1 타겟 컨텐츠 또는 상기 제2 타겟 컨텐츠는, 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 애니메이션과, 상기 사용자에게 행동을 지시하는 음성 또는 텍스트로 나타나는 지시(instruction)를 포함하는,
주의력 정도 결정 방법.
According to claim 1,
The first target content or the second target content includes an animation in which at least one of the shape, color, and position of at least one object changes, and a voice or text instruction indicating an action to the user. doing,
Methods for determining the degree of attention.
제1항에 있어서,
상기 연속적으로 수신되는 상기 제1 좌표 값들은 상기 사용자 단말에 의해 결정되고,
상기 사용자 단말이,
제1 사용자 이미지 내의 상기 사용자의 제1 눈을 검출하는 단계;
상기 제1 눈에 기초하여 상기 사용자의 제1 시선 방향을 결정하는 단계;
상기 제1 시선 방향에 기초하여 상기 디스플레이 상의 제1 좌표 값을 결정하는 단계; 및
상기 제1 좌표 값 및 상기 제1 사용자 이미지의 제1 타임 스탬프를 연관하는 단계
를 수행함으로써 상기 제1 좌표 값들이 연속적으로 결정되는,
주의력 정도 결정 방법.
According to claim 1,
The first coordinate values continuously received are determined by the user terminal,
the user terminal,
detecting a first eye of the user in a first user image;
determining a first gaze direction of the user based on the first eye;
determining a first coordinate value on the display based on the first gaze direction; and
associating the first coordinate value with a first time stamp of the first user image;
The first coordinate values are continuously determined by performing
Methods for determining the degree of attention.
제1항에 있어서,
상기 제1 타겟 컨텐츠에 대응하는 상기 제1 서브 바이오 마커들은, 시선고정 최대시간(fixation time max), 시선고정 평균시간(fixation mean), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 시선고정 횟수(fixation count) 및 시선고정에서 사케이드로 전환되는 평균 속도(saccade velocity mean) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
The first sub-biomarkers corresponding to the first target content include a fixation time max, a fixation average time, and an average of times taken to switch from the previous saccade to the next saccade (fixation time max) Including one or more of saccade latency mean, fixation count, and average speed of transition from fixation to saccade (saccade velocity mean),
Methods for determining the degree of attention.
제1항에 있어서,
상기 제2 타겟 컨텐츠에 대응하는 상기 제2 서브 바이오 마커들은, 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 상기 사용자가 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 시선고정 시간들의 표준편차(fixationStd), 시선고정 횟수(fixation count), 및 상기 좌표 값들 중 x 좌표 값들의 평균(coordX mean) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
The second sub-biomarkers corresponding to the second target content include a standard deviation of saccade duration times (saccadeStd), a total time the user viewed the target content (screen duration total), and a standard of gaze fixation times. Including one or more of a deviation (fixationStd), a fixation count, and an average of x coordinate values (coordX mean) among the coordinate values,
Methods for determining the degree of attention.
제1항에 있어서,
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제3 타겟 컨텐츠를 출력하는 단계;
상기 제3 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제3 좌표 값을 연속적으로 수신하는 단계; 및
상기 제3 좌표 값에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제3 타겟 컨텐츠에 대응하는 제3 서브 바이오 마커들을 생성하는 단계
를 더 포함하고,
상기 타겟 바이오 마커 세트를 생성하는 단계는,
상기 제3 서브 바이오 마커들에 기초하여 상기 타겟 바이오 마커 세트를 생성하는 단계
를 포함하고,
상기 제3 타겟 컨텐츠는 상기 사용자의 기억 유도 사케이드(memory guided saccades)를 검출하기 위한 컨텐츠이고,
상기 제3 타겟 컨텐츠에 대응하는 상기 제3 서브 바이오 마커들은, 시선고정 최대시간(fixation time max), 시선고정 시간들의 총 합(fixation duration), 시선고정 평균시간(fixation mean), 상기 좌표 값들 중 y 좌표 값들의 평균(coordY mean), 및 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
outputting previously produced third target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving third coordinate values on the display at which eyes of the user observing the third target content gaze; and
Generating third sub-biomarkers corresponding to the third target content for eye movements of the user based on the third coordinate values
Including more,
Generating the target biomarker set,
generating the target biomarker set based on the third sub biomarkers;
including,
The third target content is content for detecting memory guided saccades of the user,
The third sub-biomarkers corresponding to the third target content include a maximum fixation time (fixation time max), a total sum of fixation times (fixation duration), an average fixation time (fixation mean), among the coordinate values. Including one or more of the average of y coordinate values (coordY mean), and the total time of viewing the target content (screen duration total),
Methods for determining the degree of attention.
제1항에 있어서,
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제4 타겟 컨텐츠를 출력하는 단계;
상기 제4 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제4 좌표 값을 연속적으로 수신하는 단계; 및
상기 제4 좌표 값에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제4 타겟 컨텐츠에 대응하는 제4 서브 바이오 마커들을 생성하는 단계
를 더 포함하고,
상기 타겟 바이오 마커 세트를 생성하는 단계는,
상기 제4 서브 바이오 마커들에 기초하여 상기 타겟 바이오 마커 세트를 생성하는 단계
를 포함하고,
상기 제4 타겟 컨텐츠는 상기 사용자의 변화 감지(change detection)를 검출하기 위한 컨텐츠이고,
상기 제4 타겟 컨텐츠에 대응하는 상기 제4 서브 바이오 마커들은, 문제를 해결하기 위해 소요된 시간들의 총합(total elapsed times), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 표준편차(saccade latencyStd), 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 평균(saccade latency mean), 상기 타겟 컨텐츠를 바라본 시간들의 평균(screen duration mean), 시선고정 평균시간(fixation mean), 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 및 이전 사케이드에서 다음 사케이드로 전환되는데 걸린 시간들의 총합(saccade latency total) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
outputting pre-produced fourth target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving fourth coordinate values on the display at which eyes of the user observing the fourth target content gaze; and
Generating fourth sub-biomarkers corresponding to the fourth target content for eye movements of the user based on the fourth coordinate values
Including more,
Generating the target biomarker set,
generating the target biomarker set based on the fourth sub biomarkers;
including,
The fourth target content is content for detecting change detection of the user,
The fourth sub-biomarkers corresponding to the fourth target content are the total elapsed times, the standard deviation of the times taken to switch from the previous saccade to the next saccade (saccade latencyStd) ), the average of the times taken to switch from the previous saccade to the next saccade (saccade latency mean), the average of the times of looking at the target content (screen duration mean), the average fixation time (fixation mean), looking at the target content Including one or more of the total time (screen duration total) and the sum of the times it took to switch from the previous saccade to the next saccade (saccade latency total),
Methods for determining the degree of attention.
제1항에 있어서,
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제5 타겟 컨텐츠를 출력하는 단계;
상기 제5 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제5 좌표 값을 연속적으로 수신하는 단계; 및
상기 제5 좌표 값에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제5 타겟 컨텐츠에 대응하는 제5 서브 바이오 마커들을 생성하는 단계
를 더 포함하고,
상기 타겟 바이오 마커 세트를 생성하는 단계는,
상기 제5 서브 바이오 마커들에 기초하여 상기 타겟 바이오 마커 세트를 생성하는 단계
를 포함하고,
상기 제5 타겟 컨텐츠는 상기 사용자의 스트룹 테스트(stroop test)를 위한 컨텐츠이고,
상기 제5 타겟 컨텐츠에 대응하는 상기 제5 서브 바이오 마커들은, 상기 타겟 컨텐츠를 바라본 총 시간(screen duration total), 사케이드들의 횟수(saccade count), 사케이드들이 지속된 시간의 총합(saccade duration), 상기 좌표 값들 중 x 좌표 값들의 평균(coordX mean), 사케이드들이 지속된 시간들의 표준편차(saccadeStd), 상기 타겟 컨텐츠를 바라본 시간들의 평균(screen duration mean), 및 시선고정 평균시간(fixation mean) 중 하나 이상을 포함하는,
주의력 정도 결정 방법.
According to claim 1,
outputting pre-produced fifth target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving fifth coordinate values on the display at which eyes of the user observing the fifth target content gaze; and
Generating fifth sub-biomarkers corresponding to the fifth target content for eye movement of the user based on the fifth coordinate value
Including more,
Generating the target biomarker set,
generating the target biomarker set based on the fifth sub biomarkers;
including,
The fifth target content is content for a stroop test of the user,
The fifth sub-biomarkers corresponding to the fifth target content are the total time of viewing the target content (screen duration total), the number of saccades (saccade count), and the sum of the duration of saccades (saccade duration) , the average of x coordinate values among the coordinate values (coordX mean), the standard deviation of the times that saccades lasted (saccadeStd), the average of the times of viewing the target content (screen duration mean), and the fixation average time (fixation mean) ) containing one or more of,
Methods for determining the degree of attention.
삭제delete 제1항에 있어서,
상기 제1 서브 바이오 마커들을 생성하는 단계는,
상기 제1 좌표 값들에 기초하여 상기 제1 타겟 컨텐츠에 대해 미리 정의된 상기 사용자의 눈 움직임에 대한 제1 원시 타겟 바이오 마커들을 생성하는 단계; 및
상기 제1 원시 타겟 바이오 마커들 각각에 대해 미리 설정된 정규화 방식을 적용함으로써 상기 제1 원시 타겟 바이오 마커들에 대응하는 상기 제1 서브 바이오 마커들을 생성하는 단계
를 포함하는,
주의력 정도 결정 방법.
According to claim 1,
The step of generating the first sub biomarkers,
generating first raw target biomarkers for predefined eye movements of the user with respect to the first target content based on the first coordinate values; and
Generating the first sub-biomarkers corresponding to the first original target biomarkers by applying a preset normalization scheme to each of the first original target biomarkers.
including,
Methods for determining the degree of attention.
삭제delete 삭제delete 제1항에 있어서,
상기 제1 모델은 K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear Discriminant Analysis 및 Naive Bayes 중 어느 하나에 기초하여 훈련된 모델이고,
상기 제2 모델은 상기 제1 모델과 상이한 모델인,
주의력 정도 결정 방법.
According to claim 1,
The first model is K Neighbors Classifier, Extra Trees Classifier, Logistic Regression, Random Forest Classifier, Quadratic Discriminant Analysis, Light Gradient Boosting Machine, Ada Boost Classifier, Ridge Classifier, SVM-Linear Kernel, Decision Tree Classifier, Gradient Boosting Classifier, Linear A model trained based on any one of Discriminant Analysis and Naive Bayes,
The second model is a model different from the first model,
Methods for determining the degree of attention.
제1항, 제2항, 제3항, 제4항, 제5항, 제6항, 제7항, 제8항, 제10항, 및 제13항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
Claims 1, 2, 3, 4, 5, 6, 7, 8, 10, and 13, a program that performs any one of the methods A computer-readable recording medium recorded thereon.
사용자의 주의력 정도를 결정하는 전자 장치는,
사용자의 주의력 정도를 결정하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
사용자 단말의 디스플레이를 통해 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제1 타겟 컨텐츠를 출력하는 단계;
상기 제1 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제1 좌표 값들을 연속적으로 수신하는 단계;
상기 제1 좌표 값들에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제1 타겟 컨텐츠에 대응하는 제1 서브 바이오 마커들을 생성하는 단계;
상기 사용자 단말의 상기 디스플레이를 통해 상기 사용자의 주의력 정도를 결정하기 위해 미리 제작된 제2 타겟 컨텐츠를 출력하는 단계;
상기 제2 타겟 컨텐츠를 관찰하는 상기 사용자의 눈이 응시하는 상기 디스플레이 상의 제2 좌표 값들을 연속적으로 수신하는 단계;
상기 제2 좌표 값들에 기초하여 상기 사용자의 눈 움직임에 대한 상기 제2 타겟 컨텐츠에 대응하는 제2 서브 바이오 마커들을 생성하는 단계;
상기 제1 서브 바이오 마커들 및 상기 제2 서브 바이오 마커들에 기초하여 타겟 바이오 마커 세트를 생성하는 단계; 및
상기 타겟 바이오 마커 세트에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계
를 수행하고,
상기 타겟 바이오 마커 세트에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계는,
사용자의 주의력 정도를 결정하도록 서로 다른 방식으로 훈련된 제1 모델 및 제2 모델을 포함하는 복수의 모델들 각각에 상기 타겟 바이오 마커 세트를 입력하는 단계; 및
상기 타겟 바이오 마커 세트에 대한 상기 제1 모델의 제1 결과 및 상기 타겟 바이오 마커 세트에 대한 상기 제2 모델의 제2 결과를 포함하는 상기 복수의 모델들의 복수의 결과들에 투표방식을 적용하거나 또는 상기 복수의 결과들의 평균 값에 기초하여 상기 사용자의 상기 주의력 정도를 결정하는 단계
를 포함하고,
상기 제1 타겟 컨텐츠는 상기 사용자의 프로 사케이드(pro-saccades)를 검출하기 위해 시간에 흐름에 따라 상기 제1 타겟 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠이고,
상기 제2 타겟 컨텐츠는 상기 사용자의 안티 사케이드(anti-saccades)를 검출하기 위해 시간에 흐름에 따라 상기 제2 타겟 컨텐츠의 적어도 하나의 오브젝트의 형상, 색채 및 위치 중 적어도 하나가 변화하는 컨텐츠이고,
상기 결정된 주의력 정도가 상기 사용자 단말을 통해 출력되는,
전자 장치.
The electronic device that determines the level of attention of the user,
a memory in which a program for determining a user's level of attention is recorded; and
Processor that runs the above program
including,
said program,
outputting pre-produced first target content to determine a level of attention of a user through a display of a user terminal;
continuously receiving first coordinate values on the display at which eyes of the user observing the first target content gaze;
generating first sub-biomarkers corresponding to the first target content for eye movement of the user based on the first coordinate values;
outputting previously produced second target content to determine the level of attention of the user through the display of the user terminal;
continuously receiving second coordinate values on the display at which eyes of the user observing the second target content gaze;
generating second sub-biomarkers corresponding to the second target content for eye movements of the user based on the second coordinate values;
generating a target biomarker set based on the first sub-biomarkers and the second sub-biomarkers; and
Determining the level of attention of the user based on the target biomarker set
do,
Determining the level of attention of the user based on the target biomarker set,
inputting the target biomarker set to each of a plurality of models including a first model and a second model trained in different ways to determine a user's attentional level; and
A voting method is applied to a plurality of results of the plurality of models including a first result of the first model for the target biomarker set and a second result of the second model for the target biomarker set; or determining the degree of attention of the user based on an average value of the plurality of results;
including,
The first target content is content in which at least one of the shape, color, and position of at least one object of the first target content changes over time in order to detect pro-saccades of the user, and ,
The second target content is content in which at least one of the shape, color, and position of at least one object of the second target content changes over time in order to detect anti-saccades of the user. ,
The determined degree of attention is output through the user terminal,
electronic device.
KR1020220064663A 2022-05-26 2022-05-26 Method and apparatus for determining degree of attention of user KR102545747B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220064663A KR102545747B1 (en) 2022-05-26 2022-05-26 Method and apparatus for determining degree of attention of user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220064663A KR102545747B1 (en) 2022-05-26 2022-05-26 Method and apparatus for determining degree of attention of user

Publications (1)

Publication Number Publication Date
KR102545747B1 true KR102545747B1 (en) 2023-06-21

Family

ID=86989505

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220064663A KR102545747B1 (en) 2022-05-26 2022-05-26 Method and apparatus for determining degree of attention of user

Country Status (1)

Country Link
KR (1) KR102545747B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190140864A (en) * 2018-06-12 2019-12-20 주식회사 아이디어빈스 Method and apparatus for determining concentration level of user
KR102155309B1 (en) * 2020-05-08 2020-09-11 주식회사 창 헬스케어 Method for predicting cognitive impairment, server, user device and application implementing the method
KR20210019266A (en) * 2019-08-12 2021-02-22 주식회사 비엔알아이 Apparatus and method for diagnosis of reading ability based on machine learning using eye tracking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190140864A (en) * 2018-06-12 2019-12-20 주식회사 아이디어빈스 Method and apparatus for determining concentration level of user
KR20210019266A (en) * 2019-08-12 2021-02-22 주식회사 비엔알아이 Apparatus and method for diagnosis of reading ability based on machine learning using eye tracking
KR102155309B1 (en) * 2020-05-08 2020-09-11 주식회사 창 헬스케어 Method for predicting cognitive impairment, server, user device and application implementing the method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Rommelse N. N. J., etc., A review on eye movement studies in childhood and adolescent psychiatry. Brain and Cognition. 68, pp.391~414 (2008.10.02.)* *
Stokes J. D., etc., Measuring Attentional Distraction in Child With ADHD Using Virtual Reality Technology With Eye-Tracking. Frontiers in Virtual Reality. Vol.3, Article 855895, pp.1~12 (2022.03.08.)* *

Similar Documents

Publication Publication Date Title
US20210330242A1 (en) Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes
JP7175522B2 (en) Systems and methods for testing and analyzing visual acuity and its changes
Nag et al. Toward continuous social phenotyping: analyzing gaze patterns in an emotion recognition task for children with autism through wearable smart glasses
US10359842B2 (en) Information processing system and information processing method
US20170364732A1 (en) Eye tracking via patterned contact lenses
EP3282924B1 (en) Assessment of low contrast visual sensitivity
EP3638108B1 (en) Sleep monitoring from implicitly collected computer interactions
US10725534B2 (en) Apparatus and method of generating machine learning-based cyber sickness prediction model for virtual reality content
JP2018512202A (en) Processor-implemented system and method for measuring cognitive ability
US11583214B2 (en) Adaptive psychological assessment tool
Wang et al. Automated student engagement monitoring and evaluation during learning in the wild
US20240164672A1 (en) Stress detection
Hohlfeld et al. On the applicability of computer vision based gaze tracking in mobile scenarios
US20230360548A1 (en) Assist system, assist method, and assist program
KR102545747B1 (en) Method and apparatus for determining degree of attention of user
CN116507992A (en) Detecting unexpected user interface behavior using physiological data
JP6807108B2 (en) Cognitive function measurement system, cognitive function measurement communication system and program
KR20210084443A (en) Systems and methods for automatic manual assessment of spatiotemporal memory and/or saliency
CN113805695B (en) Reading understanding level prediction method and device, electronic equipment and storage medium
US20240180416A1 (en) System and method for providing visual field tests
KR102115486B1 (en) System, method, and apparatus of diagnosing reading ability
Jagatap et al. Neurally-constrained modeling of human gaze strategies in a change blindness task
Asghari et al. Eye tracking auto-correction using domain information
US20240120071A1 (en) Quantifying and visualizing changes over time to health and wellness
US20230210364A1 (en) Eye tracking system, eye tracking method, and eye tracking program

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant