KR102620967B1 - Electronic apparatus and method of correcting posture thereof - Google Patents
Electronic apparatus and method of correcting posture thereof Download PDFInfo
- Publication number
- KR102620967B1 KR102620967B1 KR1020180019821A KR20180019821A KR102620967B1 KR 102620967 B1 KR102620967 B1 KR 102620967B1 KR 1020180019821 A KR1020180019821 A KR 1020180019821A KR 20180019821 A KR20180019821 A KR 20180019821A KR 102620967 B1 KR102620967 B1 KR 102620967B1
- Authority
- KR
- South Korea
- Prior art keywords
- wearable device
- user
- posture
- data
- sensing data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 34
- 238000004891 communication Methods 0.000 claims abstract description 46
- 238000005259 measurement Methods 0.000 claims description 14
- 238000005286 illumination Methods 0.000 claims description 12
- 230000036544 posture Effects 0.000 description 70
- 238000010586 diagram Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 11
- 238000012937 correction Methods 0.000 description 10
- 230000036541 health Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000000758 substrate Substances 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 208000003464 asthenopia Diseases 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- 241000270666 Testudines Species 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 239000002985 plastic film Substances 0.000 description 1
- 229920006255 plastic film Polymers 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/10—Photometry, e.g. photographic exposure meter by comparison with reference light or electric value provisionally void
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
- G05B23/0205—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
- G05B23/0218—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
- G05B23/0224—Process history based detection method, e.g. whereby history implies the availability of large amounts of data
- G05B23/0227—Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions
- G05B23/0235—Qualitative history assessment, whereby the type of data acted upon, e.g. waveforms, images or patterns, is not relevant, e.g. rule based assessment; if-then decisions based on a comparison with predetermined threshold or range, e.g. "classical methods", carried out during normal operation; threshold adaptation or choice; when or how to compare with the threshold
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/725—Cordless telephones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Health & Medical Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Epidemiology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
사용자 자세 교정을 위한 전자 장치가 개시된다. 본 개시의 일 실시예에 따른 전자 장치는, 통신부, 출력부, 적어도 하나의 명령어를 포함하는 메모리 및 통신부, 출력부 및 메모리와 연결되어 전자 장치를 제어하는 프로세서를 포함하며, 프로세서는, 적어도 하나의 명령어를 실행함으로써, 통신부를 통해 사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하며, 통신부틀 통해 웨어러블 장치로부터 웨어러블 장치가 감지한 센싱 데이터를 수신하고, 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 사용자의 자세를 가이드하기 위하여 기설정된 조건에 대응되는 메시지를 출력하도록 출력부를 제어한다.An electronic device for correcting a user's posture is disclosed. An electronic device according to an embodiment of the present disclosure includes a communication unit, an output unit, a memory including at least one instruction, and a processor connected to the communication unit, the output unit, and the memory to control the electronic device, and the processor includes at least one By executing the command, a communication connection is made with the wearable device worn by the user through the communication unit, and sensing data detected by the wearable device is received from the wearable device through the communication boot, and the received sensing data satisfies preset conditions. In this case, the output unit is controlled to output a message corresponding to a preset condition to guide the user's posture.
Description
본 개시는 전자 장치 및 그의 자세 교정 방법에 관한 것으로서, 보다 상세하게는 사용자의 시력 보호를 위해 사용자가 바라보는 오브젝트와의 거리를 측정하거나, 주변 조도를 측정하여 사용자의 자세를 교정하기 위한 메시지를 출력하거나, 사용자의 머리의 기울기를 측정하여 사용자의 자세를 교정하기 위한 메시지를 출력할 수 있는 전자 장치 및 그의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a method for correcting its posture. More specifically, it provides a message for correcting the user's posture by measuring the distance to an object the user is looking at to protect the user's eyesight or by measuring the surrounding illumination. It relates to an electronic device that can output a message to correct a user's posture by measuring the tilt of the user's head and a method of controlling the same.
근래 많은 사람들은 직장에서 컴퓨터를 사용하여 사무 작업을 수행하고 있다. 직장인들은 하루 중 대부분의 시간을 컴퓨터 모니터를 바라보며, 업무 시간 외에도 스마트폰, 영상 시청 등 다양한 컨텐츠를 시청하고 있다. 이에 따라 사람들의 눈의 피로도가 급증하고 있으며, 한 연구에 따르면, 컴퓨터를 사용하는 근로자의 50%~90%는 눈의 피로와 눈과 관련된 불편한 증상들이 발생한다고 한다. 예를 들어, 사람들은 도 1의 오른쪽에 도시된 바와 같은 자세가 올바른 자세라는 사실을 알면서도, 도 1의 왼편에 도시된 바와 같이, 잘못된 자세로 업무를 수행하는 경우가 종종 있다. 많은 사람들이 자신의 자세가 잘못된 자세인지를 인지하지 못하고 장시간 업무를 수행하게 된다.Nowadays, many people use computers at work to perform office work. Office workers spend most of their day looking at computer monitors, and outside of work hours, they watch a variety of content, including smartphones and videos. Accordingly, people's eye fatigue is rapidly increasing, and according to one study, 50% to 90% of workers who use computers experience eye fatigue and uncomfortable symptoms related to the eyes. For example, although people know that the posture shown on the right side of FIG. 1 is the correct posture, they often perform work in an incorrect posture as shown on the left side of FIG. 1. Many people work for long periods of time without realizing that their posture is incorrect.
한편, 근래에는 다양한 웨어러블 장치를 통해 사용자의 생활 습관 또는 자세 교정을 안내하기 위한 방법들이 개시되고 있다. 그러나 종래의 웨어러블 장치들은 사용자의 수면 습관, 걷는 자세 교정, 하루 운동량 등을 측정하여 사용자에게 알리는 기능들을 제공하고 있으나, 사용자의 눈의 피로도와 관련된 데이터를 측정하여 제공하고 있지는 않고 있다. Meanwhile, in recent years, methods have been disclosed to guide users in correcting their lifestyle habits or posture through various wearable devices. However, conventional wearable devices provide functions that measure and inform the user of the user's sleeping habits, walking posture correction, daily exercise amount, etc., but do not measure and provide data related to the user's eye fatigue.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 사용자의 자세 교정을 도와주는 전자 장치 및 웨어러블 장치에 관한 것이다.The present disclosure is intended to solve the above-mentioned problems and relates to electronic devices and wearable devices that help users correct their posture.
상기 문제를 해결하기 위한 본 개시의 일 실시예에 따른 사용자 자세 교정을 위한 전자 장치는, 통신부, 출력부, 적어도 하나의 명령어를 포함하는 메모리 및 상기 통신부, 상기 출력부 및 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서를 포함하며, 상기 프로세서는, 상기 적어도 하나의 명령어를 실행함으로써, 상기 통신부를 통해 사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하며, 상기 통신부틀 통해 상기 웨어러블 장치로부터 상기 웨어러블 장치가 감지한 센싱 데이터를 수신하고, 상기 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 상기 기설정된 조건에 대응되는 메시지를 출력하도록 상기 출력부를 제어한다.An electronic device for correcting a user's posture according to an embodiment of the present disclosure for solving the above problem includes a communication unit, an output unit, a memory including at least one command, and is connected to the communication unit, the output unit, and the memory. and a processor that controls an electronic device, wherein the processor performs a communication connection with a wearable device worn by a user through the communication unit by executing the at least one command, and transmits communication from the wearable device through the communication boot. Sensing data detected by a wearable device is received, and when the received sensing data satisfies a preset condition, the output unit is controlled to output a message corresponding to the preset condition to guide the user's posture.
이때, 상기 센싱 데이터는, 상기 웨어러블 장치의 거리 측정 센서에 의해 감지된 상기 외부 장치와 오브젝트 사이의 거리에 대한 데이터, 상기 웨어러블 장치의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 상기 웨어러블 장치의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나를 포함할 수 있다.At this time, the sensing data includes data about the distance between the external device and the object detected by the distance measurement sensor of the wearable device, data about the angle detected by the gyro sensor of the wearable device, and illuminance of the wearable device. It may include at least one of data about illuminance detected by the sensor.
이때, 상기 센싱 데이터가 상기 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터인 경우, 상기 프로세서는, 상기 감지된 거리가 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.At this time, when the sensing data is data about the distance between the wearable device and the object detected by the distance measurement sensor, the processor guides the user's posture when the detected distance is less than or equal to a first threshold. The output unit can be controlled to output information for:
이때, 상기 프로세서는, 상기 감지된 거리를 시간 정보와 매칭하여 상기 메모리에 저장하고, 상기 감지된 거리가 기 설정된 시간동안 상기 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.At this time, the processor matches the sensed distance with time information and stores it in the memory, and when the sensed distance is below the first threshold for a preset time, it outputs information to guide the user's posture. The output unit can be controlled to do this.
이때, 상기 센싱데이터가 상기 자이로 센서에 의해 감지된 각도에 대한 데이터인 경우, 상기 프로세서는, 상기 감지된 각도가 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.At this time, when the sensing data is data about the angle detected by the gyro sensor, the processor outputs information for guiding the user's posture when the sensed angle is less than a second threshold. The output part can be controlled.
이때, 상기 프로세서는, 상기 감지된 각도를 시간 정보와 매칭하여 상기 메모리에 저장하고, 상기 감지된 각도가 기 설정된 시간동안 상기 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.At this time, the processor matches the sensed angle with time information and stores it in the memory, and when the sensed angle is below the second threshold for a preset time, it outputs information to guide the user's posture. The output unit can be controlled to do this.
이때, 상기 센싱데이터가 상기 조도 센서에 의해 감지된 조도에 대한 데이터인 경우, 상기 프로세서는, 상기 감지된 조도가 제3 임계값 이상인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.At this time, when the sensing data is data about the illuminance detected by the illuminance sensor, the processor is configured to output information for guiding the user's posture when the sensed illuminance is greater than or equal to a third threshold. The output part can be controlled.
이때, 상기 프로세서는, 상기 통신부를 통해 상기 웨어러블 장치 주변의 조도를 감지하기 위한 제1 센서로부터 획득된 제1 센싱 데이터 및 상기 웨어러블 장치를 착용한 사용자가 바라보는 영역의 조도를 감지하기 위한 제2 센서로부터 획득된 제2 센싱 데이터를 수신하고, 상기 제1 센싱 데이터로부터 획득된 제1 조도값과 상기 제2 센싱 데이터로부터 획득된 제2 조도값의 차이가 제4 임계값 이상이면, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어할 수 있다.At this time, the processor includes first sensing data obtained from a first sensor for detecting the illumination around the wearable device through the communication unit and second sensing data for detecting the illumination of the area viewed by the user wearing the wearable device. When receiving second sensing data obtained from a sensor, and the difference between the first illuminance value obtained from the first sensing data and the second illuminance value obtained from the second sensing data is greater than or equal to a fourth threshold, the user's The output unit can be controlled to output information for guiding posture.
한편, 상술한 문제를 해결하기 위한 본 개시의 또 다른 실시예에 따른 사용자 자세 교정을 위한 전자 장치의 제어 방법은, 사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하는 단계, 상기 웨어러블 장치로부터 상기 웨어러블 장치가 감지한 센싱 데이터를 수신하는 단계, 상기 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 상기 기설정된 조건에 대응되는 메시지를 출력하는 단계를 포함한다.Meanwhile, a method of controlling an electronic device for correcting a user's posture according to another embodiment of the present disclosure for solving the above-described problem includes performing a communication connection with a wearable device worn by a user, It includes receiving sensing data sensed by a wearable device and, when the received sensing data satisfies a preset condition, outputting a message corresponding to the preset condition to guide the user's posture.
이때, 상기 센싱 데이터는, 상기 웨어러블 장치의 거리 측정 센서에 의해 감지된 상기 외부 장치와 오브젝트 사이의 거리에 대한 데이터, 상기 웨어러블 장치의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 상기 웨어러블 장치의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나를 포함할 수 있다.At this time, the sensing data includes data about the distance between the external device and the object detected by the distance measurement sensor of the wearable device, data about the angle detected by the gyro sensor of the wearable device, and illuminance of the wearable device. It may include at least one of data about illuminance detected by the sensor.
이때, 상기 출력하는 단계는, 상기 센싱 데이터가 상기 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터이고, 상기 감지된 거리가 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력할 수 있다.At this time, the output step is to determine the user's posture when the sensing data is data about the distance between the wearable device and the object detected by the distance measurement sensor, and the detected distance is less than or equal to a first threshold. Information for guidance can be printed.
이때, 상기 출력하는 단계는, 상기 감지된 거리를 시간 정보와 매칭하는 단계 및 상기 감지된 거리가 기 설정된 시간동안 상기 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하는 단계를 포함할 수 있다.At this time, the output step includes matching the sensed distance with time information and, if the sensed distance is less than the first threshold for a preset time, outputting information for guiding the user's posture. may include.
이때, 상기 출력하는 단계는, 상기 센싱데이터가 상기 자이로 센서에 의해 감지된 각도에 대한 데이터이고, 상기 감지된 각도가 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력할 수 있다.At this time, in the output step, if the sensing data is data about the angle detected by the gyro sensor and the detected angle is less than or equal to a second threshold, information for guiding the user's posture can be output. there is.
이때, 상기 출력하는 단계는, 상기 감지된 각도를 시간 정보와 매칭하는 단계 및 상기 감지된 각도가 기 설정된 시간 동안 상기 제2 임계값 이하인 경우, 사용자의 자세를 가이드 하기 위한 정보를 출력하는 단계를 포함할 수 있다.At this time, the output step includes matching the sensed angle with time information and, if the sensed angle is below the second threshold for a preset time, outputting information for guiding the user's posture. It can be included.
이때, 상기 출력하는 단계는, 상기 센싱데이터가 상기 조도 센서에 의해 감지된 조도에 대한 데이터이고, 상기 감지된 조도가 제3 임계값 이상인 경우, 사용자의 자세를 가이드 하기 위한 정보를 출력할 수 있다.At this time, in the output step, if the sensing data is data about the illuminance detected by the illuminance sensor and the sensed illuminance is greater than or equal to a third threshold, information for guiding the user's posture may be output. .
이때, 상기 수신하는 단계는, 상기 통신부를 통해 상기 웨어러블 장치 주변의 조도를 감지하기 위한 제1 센서로부터 획득된 제1 센싱 데이터 및 상기 웨어러블 장치를 착용한 사용자가 바라보는 영역의 조도를 감지하기 위한 제2 센서로부터 획득된 제2 센싱 데이터를 수신하는 단계를 포함하고, 상기 출력하는 단계는, 상기 제1 센싱 데이터로부터 획득된 제1 조도값과 상기 제2 센싱 데이터로부터 획득된 제2 조도값의 차이가 제4 임계값 이상이면, 사용자의 자세를 가이드 하기 위한 정보를 출력할 수 있다.At this time, the receiving step includes first sensing data obtained from a first sensor for detecting the illuminance around the wearable device through the communication unit and illuminance of the area viewed by the user wearing the wearable device. Receiving second sensing data obtained from a second sensor, wherein the outputting step includes a first illuminance value obtained from the first sensing data and a second illuminance value obtained from the second sensing data. If the difference is greater than or equal to the fourth threshold, information for guiding the user's posture may be output.
상술한 본 개시의 다양한 실시예에 따라, 전자 장치는 사용자가 바라보는 오브젝트, 주변 조도, 사용자의 목의 기울기 중 적어도 하나를 측정하여 사용자의 자세를 교정하기 위한 메시지를 출력할 수 있다.According to various embodiments of the present disclosure described above, the electronic device may output a message for correcting the user's posture by measuring at least one of the object the user is looking at, ambient illumination, and the tilt of the user's neck.
도 1은 종래 사람들의 잘못된 자세 및 올바른 자세를 설명하기 위한 예시도이다.
도 2a 및 도 2b는 본 개시의 일 실시예에 따른 자세 교정 시스템을 설명하기 위한 예시도이다.
도 3a는 본 개시의 일 실시예에 다른 전자 장치(100)의 구성을 설명하기 위한 블록도이다.
도 3b는 본 개시의 일 실시예에 따른 전자 장치(100)의 구성을 상세히 설명하기 위한 블록도이다.
도 4는 본 개시의 일 실시예에 따른 웨어러블 장치의 구성을 설명하기 위한 블록도이다.
도 5a 내지 도 5c는 본 개시의 일 실시예에 따른 사용자와 오브젝트 사이의 거리를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.
도 6a 내지 도 6e는 본 개시의 일 실시예에 따른, 사용자 목의 기울기를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.
도 7a 내지 도 7d는 본 개시의 일 실시예에 따른, 사용자 주변의 조도를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.
도 8은 본 개시의 일 실시예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.Figure 1 is an example diagram for explaining incorrect and correct postures of conventional people.
2A and 2B are exemplary diagrams for explaining a posture correction system according to an embodiment of the present disclosure.
FIG. 3A is a block diagram for explaining the configuration of another
FIG. 3B is a block diagram for explaining in detail the configuration of the
Figure 4 is a block diagram for explaining the configuration of a wearable device according to an embodiment of the present disclosure.
FIGS. 5A to 5C are diagrams illustrating a method of determining the distance between a user and an object and outputting a message guiding the user's posture according to the determined result, according to an embodiment of the present disclosure.
FIGS. 6A to 6E are exemplary diagrams for explaining a method of determining the tilt of a user's neck and outputting a message guiding the user's posture according to the determined result, according to an embodiment of the present disclosure.
FIGS. 7A to 7D are diagrams illustrating a method of determining the illuminance around a user and outputting a message guiding the user's posture according to the determined result, according to an embodiment of the present disclosure.
FIG. 8 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the present disclosure will be described in detail.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure have selected general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but this may vary depending on the intention or precedent of a technician working in the art, the emergence of new technology, etc. . In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Embodiments of the present disclosure may be subject to various changes and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the disclosed spirit and technical scope. In describing the embodiments, if it is determined that a detailed description of related known technology may obscure the point, the detailed description will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. Terms are used only to distinguish one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “consist of” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are intended to indicate the presence of one or more other It should be understood that this does not exclude in advance the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof.
본 개시의 실시 예에서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의'모듈' 혹은 복수의'부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In an embodiment of the present disclosure, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or as a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'units' are integrated into at least one module and implemented by at least one processor (not shown), except for 'modules' or 'units' that need to be implemented with specific hardware. It can be.
본 개시의 실시 예에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In an embodiment of the present disclosure, when a part is said to be “connected” to another part, this means not only when it is “directly connected” but also when it is “electrically connected” with another element in between. Also includes. Additionally, when a part is said to “include” a certain component, this means that it may further include other components, rather than excluding other components, unless specifically stated to the contrary.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice them. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present disclosure in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
또한, 본 개시의 실시 예에서, "어플리케이션"은 특정한 업무를 수행하기 위해 고안된 일련의 컴퓨터 프로그램 집합을 말한다. 본 개시의 실시 예에서, 어플리케이션은 다양할 수 있다. 예를 들어, 게임 애플리케이션, 동영상 재생 애플리케이션, 지도 애플리케이션, 메모 애플리케이션, 캘린더 애플리케이션, 폰 북 애플리케이션, 방송 애플리케이션, 운동 지원 애플리케이션, 결제 애플리케이션, 사진 폴더 애플리케이션, 의료 기기 제어 어플리케이션, 다수의 의료 기기의 사용자 인터페이스 제공 어플리케이션 등이 있을 수 있으나, 이에 한정되는 것은 아니다.Additionally, in embodiments of the present disclosure, “application” refers to a set of computer programs designed to perform a specific task. In embodiments of the present disclosure, applications may vary. For example, game applications, video playback applications, map applications, memo applications, calendar applications, phone book applications, broadcasting applications, exercise support applications, payment applications, photo folder applications, medical device control applications, and user interfaces of many medical devices. There may be provided applications, but it is not limited thereto.
도 2a는 본 개시의 일 실시예에 따른 자세 교정 시스템을 설명하기 위한 예시도이다.FIG. 2A is an exemplary diagram for explaining a posture correction system according to an embodiment of the present disclosure.
도 2a에 개시된 바와 같이, 자세 교정 시스템(100)은 전자 장치(100) 및 웨어러블 장치(200)으로 구성될 수 있다.As disclosed in FIG. 2A, the
전자 장치(100)는 웨어러블 장치(200)로부터 수신한 센싱 데이터를 바탕으로, 사용자의 자세가 잘못되었는지 여부를 판단하고, 올바른 자세로 교정하기 위한 메시지를 출력하기 위한 구성이다.The
이때, 전자 장치(100)는 스마트 폰으로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어 중 적어도 하나를 포함할 수 있다.At this time, the
또 다른 실시 예로, 전자 장치(100)는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어(Digital Video Disk player), 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.As another example, the
웨어러블 장치(200)는 센싱 데이터를 수집하기 위한 구성이다. 이때, 웨어러블 장치(200)는 엑세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘텍트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 이어 폰, 헤드 폰, 직물 또는 의류 일체 형(예: 전자 의복), 신체 부착 형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식 형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다. The
또 다른 실시예로, 웨어러블 장치(200)는 독립된 장치일 수 있다. 구체적으로, 도 2b에 도시된 바와 같이, 웨어러블 장치는 센싱 데이터를 수집할 수 있는 구성을 포함하는 독립된 장치로, 각종 외부 장치에 부착될 수 있는 구성일 수 있다. 예를 들어, 웨어러블 장치(200)는 안경, 이어폰, 머리띠, 헤드폰 등 사용자의 머리에 착용되는 다양한 엑세서리에 부착될 수 있는 형태로 구성될 수 있다. 본 개시에서는 웨어러블 장치(200)가 사용자의 머리에 착용되는 장치 또는 사용자의 머리에 착용되는 장치에 부착되는 장치인 것으로 설명하지만 이에 한정되는 것은 아니고, 다양한 위치에 착용되거나, 부착될 수 있음은 물론이다.In another embodiment, the
도 3a는 본 개시의 일 실시예에 다른 전자 장치(100)의 구성을 설명하기 위한 블록도이다. 도 3a에 도시된 바와 같이, 전자 장치(100)는 통신부(110), 출력부(120), 메모리(130) 및 프로세서(140)를 포함한다.FIG. 3A is a block diagram for explaining the configuration of another
통신부(110)는 외부 장치와의 통신을 수행하기 위한 구성이다. 구체적으로, 전자 장치(100)는 웨어러블 장치(200)와 통신부(110)를 통해 연결될 수 있다. 나아가, 전자 장치(100)는 통신부(110)을 통해 다른 외부 장치로 다양한 데이터를 송수신할 수 있음은 물론이다.The
출력부(120)는 전자 장치(100)의 다양한 데이터를 출력하기 위한 구성이다. 구체적으로, 전자 장치(100)는 출력부(120)를 통해 사용자의 자세를 교정하기 위한 메시지를 출력할 수 있다. 이때 출력부(120)를 통해 출력되는 메시지는 자세 교정과 관련된 UI 화면 또는 자세 교정과 관련된 오디오 신호일 수 있다.The
메모리(130)는 전자 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(130)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 구체적으로, 메모리(130)는 적어도 하나의 명령어를 포함할 수 있으며, 프로세서(140)에 의해 적어도 하나의 명령어를 실행될 수 있다.The
프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(140)는 웨어러블 장치(200)와 통신 연결을 수행하고, 웨어러블 장치(200)로부터 센싱 데이터를 수신하도록 통신부(110)를 제어할 수 있다. 수신한 센싱 테이터가 기 설정된 조건을 만족하는 경우, 프로세서(140)는 사용자의 자세를 가이드 하기 위하여 기 설정된 조건에 대응되는 메시지를 출력하도록 출력부(120)를 제어할 수 있다.The
이때, 센싱 데이터는 웨어러블 장치(200)에 포함된 거리 감지 센서, 자이로 센서, 조도 센서 등에 의해 감지된 데이터일 수 있다. 구체적으로, 센싱 데이터는 웨어러블 장치(200)에서 오브젝트까지의 거리 데이터, 웨어러블 장치(200)의 기울기 데이터 및 주변 조도 데이터 중 적어도 하나를 포함할 수 있다.At this time, the sensing data may be data sensed by a distance sensor, gyro sensor, or illuminance sensor included in the
한편, 기 설정된 조건은 센싱 데이터의 종류에 따라 달라질 수 있다. 구체적으로, 센싱 데이터가 웨어러블 장치(200)의 거리 측정 센서에 의해 감지된 웨어러블 장치(200)와 오브젝트 사이의 거리에 대한 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값 이상인지, 이하인지에 대한 조건을 수 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값 이하인 상태를 유지하는 시간과 관련된 조건일 수도 있다. 기 설정된 조건은 웨어러블 장치(200)와 오브젝트 사이의 거리의 평균 값이 제1 임계값 이하인지 여부에 대한 조건일 수 있다.Meanwhile, preset conditions may vary depending on the type of sensing data. Specifically, when the sensing data is data about the distance between the
또 다른 실시예로, 센싱 데이터가 웨어러블 장치(200)의 자이로 센서에 의해 감지된 기울기 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200)의 기울기가 제2 임계값 이상인지, 이하인지에 대한 조건을 수 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)의 기울기가 제2 임계값 이하인 상태를 유지하는 시간과 관련된 조건일 수도 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)의 평균 기울기 값이 제2 임계값 이하인지 여부에 대한 조건일 수 있다.In another embodiment, when the sensing data is tilt data detected by the gyro sensor of the
또 다른 실시예로, 센싱 데이터가 웨어러블 장치(200)의 조도 센서에 의해 감지된 조도 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200) 주변의 조도가 제3 임계값 이상인지, 이하인지에 대한 조건을 수 있다. 또는, 기 설정된 조건은 웨어러블 장치(200) 주변의 조도가 제3 임계값 이하인 상태를 유지하는 시간과 관련된 조건일 수도 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)주변의 조도값과 오브젝트 영역의 조도값의 차이가 제4 임계값 이상인지, 이하인지에 대한 조건일 수 있다. 상술한 기 설정된 조건은 후술하는 다양한 실시예에서 자세히 설명한다.In another embodiment, when the sensing data is illuminance data detected by the illuminance sensor of the
도 3b는 본 개시의 일 실시예에 따른 전자 장치(100)의 구성을 상세히 설명하기 위한 블록도이다. 도 3b에 도시된 바와 같이, 전자 장치(100)는 통신부(110), 출력부(120), 메모리(130), 프로세서(140) 외에 입력부(150), 오디오 처리부(160) 등을 더 포함할 수 있다. 다만, 상술한 구성에 한정되는 것은 아니고, 필요에 따라 일부 구성이 추가되거나 생략될 수 있음은 물론이다.FIG. 3B is a block diagram for explaining in detail the configuration of the
통신부(110)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(110)는 와이파이 칩(111), 블루투스 칩(112), 무선 통신 칩(113), NFC칩(114) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩(111), 블루투스 칩(112), NFC 칩(114)은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩(111)이나 블루투스칩(112)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩(113)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. The
출력부(120)는 전자 장치(100)의 다양한 데이터를 출력하기 위한 구성이다. 구체적으로, 출력부(120)는 디스플레이(121) 및 오디오 출력부(122)를 포함할 수 있다.The
디스플레이(121)는 상술한 바와 같이, 다양한 화면을 표시할 수 있다. 이때, 디스플레이(121)는 다양한 형태의 디스플레이 패널로 구현될 수 있다. 예로, 디스플레이 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), AM-OLED(Active-Matrix Organic Light-Emitting Diode), LcoS(Liquid Crystal on Silicon) 또는 DLP(Digital Light Processing) 등과 같은 다양한 디스플레이 기술로 구현될 수 있다.As described above, the display 121 can display various screens. At this time, the display 121 may be implemented as various types of display panels. For example, display panels may be LCD (Liquid Crystal Display), OLED (Organic Light Emitting Diodes), AM-OLED (Active-Matrix Organic Light-Emitting Diode), LcoS (Liquid Crystal on Silicon), or DLP (Digital Light Processing). It can be implemented with various display technologies.
또한, 디스플레이(121)는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다. 플렉서블 디스플레이는 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부리거나 말 수 있는 것을 특징으로 할 수 있다. 이러한 플렉서블 디스플레이는 일반적으로 사용되는 유리 기판뿐 아니라 플라스틱 기판을 사용하여 제조될 수도 있다. 플라스틱 기판을 사용하는 경우, 기판의 손상을 방지하기 위해서 기존의 제조 프로세서를 사용하지 않고 저온 제조 프로세서를 사용하여 형성될 수 있다. 또한, 플렉서블 액정을 싸고 있는 유리 기판을 플라스틱 필름으로 대체하여, 접고 펼 수 있는 유연성을 부여할 수 있다. 이러한 플렉서블 디스플레이는 얇고 가벼울 뿐만 아니라 충격에도 강하며, 또한 휘거나 굽힐 수 있고 다양한 형태로 제작이 가능하다는 장점을 갖고 있다.Additionally, the display 121 may be coupled to at least one of the front area, side area, and rear area of the
오디오 출력부(122)는 오디오 처리부(160)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. 구체적으로, 오디오 처리부(160)는 오디오 데이터에 대한 처리를 수행하는 구성 요소다. 오디오 처리부(160)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 오디오 처리부(160)에서 처리된 오디오 데이터는 오디오 출력부(160)로 출력될 수 있다. 특히, 오디오 출력부(122)는 스피커로 구현될 수 있으나, 이는 일 실시 예에 불과할 뿐, 오디오 데이터를 출력할 수 있는 출력 단자로 구현될 수 있다.The
입력부(150)는 다양한 입력을 수신하기 위하여 터치 패널(151), 펜센서(152), 키(153) 및 마이크(154)를 포함할 수 있다. 터치 패널(151)은 디스플레이(121) 및 터치 센서(미도시)가 결합되어 구성될 수 있으며, 터치 센서는 정전식, 감압식, 적외선 방식, 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 터치 패널은 디스플레이 기능뿐만 아니라 터치 입력 위치, 터치된 면적뿐만 아니라 터치 입력 압력까지도 검출하는 기능을 가질 수 있고, 또한 실질적인 터치(real-touch)뿐만 아니라 근접 터치(proximity touch)도 검출하는 기능을 가질 수 있다. 펜 센서(152)는 터치 패널(151)의 일부로 구현될 수 있으며 또는 별도의 인식용 시트를 포함할 수 있다. 키(153)는 물리적 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 마이크(154)는 내장형 마이크 또는 외장형 마이크 중 적어도 하나를 포함할 수 있다.The
특히, 입력부(150)는 상술한 다양한 구성들로부터 외부 명령을 수신하여 프로세서(140)로 전달할 수 있다. 프로세서(140)는 수신한 입력에 대응되는 제어 신호를 생성하여 전자 장치(100)를 제어할 수 있다.In particular, the
프로세서(140)는 메모리(130)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어할 수 있다.The
프로세서(140)는 RAM(141), ROM(142), 그래픽 처리부(143), 메인 CPU(144), 제1 내지 n 인터페이스(145-1 ~ 145-n) 및 버스(146)로 구성될 수 있다. 이때, RAM(141), ROM(142), 그래픽 처리부(143), 메인 CPU(144), 제1 내지 n 인터페이스(145-1 ~ 145-n) 등은 버스(146)를 통해 서로 연결될 수 있다. The
RAM(141)은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 전자 장치(100)가 부팅되면 O/S가 RAM(141)에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM(141)에 저장될 수 있다.
ROM(142)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(144)는 ROM(142)에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM(141)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(144)는 메모리(130)에 저장된 각종 어플리케이션 프로그램을 RAM(141)에 복사하고, RAM(141)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The
그래픽 처리부(143)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부(150)로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이(121)의 디스플레이 영역 내에 표시될 수 있다. The
메인 CPU(144)는 메모리(130)에 액세스하여, 메모리(130)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(144)는 메모리(130)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The
제1 내지 n 인터페이스(145-1 내지 145-n)는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스(145-1 내지 145-n) 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 145-1 to 145-n are connected to the various components described above. One of the first to n interfaces 145-1 to 145-n may be a network interface connected to an external device through a network.
도 4는 본 개시의 일 실시예에 따른 웨어러블 장치의 구성을 설명하기 위한 블록도이다. 도 4에 도시된 바와 같이, 웨어러블 장치(200)는 통신부(210), 센서(220), 및 프로세서(230)를 포함한다. Figure 4 is a block diagram for explaining the configuration of a wearable device according to an embodiment of the present disclosure. As shown in FIG. 4 , the
통신부(210)는 외부 장치와 통신을 수행하기 위한 구성으로, 상술한 바와 같이, 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩등과 같은 다양한 통신 칩을 포함할 수 있다. 통신부(210)는 센서(220)에 의해 감지된 다양한 센싱 데이터를 전자 장치(100)로 전송할 수 있다.The
센서(220)는 다양한 센싱 데이터를 감지하기 위한 구성이다. 도 4에 도시된 바와 같이, 센서(220)는 거리 측정 센서, 조도 센서, 소음 감지 센서, 자이로 센서 등을 포함할 수 있다. The
거리 측정 센서는 웨어러블 장치(200)와 오브젝트 사이의 거리를 측정하기 위한 센서이다. 이때, 거리 센서는 광센서로 구성될 수 있으나, 이에 한정되는 것은 아니고, 필요에 따라, 적외선 센서, 초음파 센서 등으로 구성될 수 있음은 물론이다.The distance measurement sensor is a sensor for measuring the distance between the
조도 센서는 주변 조도를 측정하기 위한 구성이다. 이때, 조도 센서는 두개 이상으로 구성될 수 있다. 구체적으로, 조도 센서가 제1 조도 센서 및 제2 조도 센서로 구성되는 경우, 제1 조도 센서는 웨어러블 장치(200) 주변의 조도를 감지하고, 제2 조도 센서는 오브젝트가 위치한 영역 근처의 조도를 감지할 수 있다.The illuminance sensor is configured to measure the surrounding illuminance. At this time, the illuminance sensor may consist of two or more. Specifically, when the illuminance sensor consists of a first illuminance sensor and a second illuminance sensor, the first illuminance sensor detects the illuminance around the
소음 측정 센서는 주변 소음을 측정하기 위한 구성이며, 자이로 센서는 기존의 가속도 센서에 각각 회전을 넣어 6축 방향을 인식하여 하여 좀더 세밀하고 정밀한 동작을 인식할 수 있도록 도와주는 센서로, 웨어러블 장치(200)의 위치를 감지하기 위한 구성이다.The noise measurement sensor is designed to measure ambient noise, and the gyro sensor is a sensor that recognizes 6-axis directions by rotating each of the existing acceleration sensors, helping to recognize more detailed and precise movements. It is a wearable device ( 200) is configured to detect the location.
센서(220)는 상기 구성들 이외에도 가속도 센서, 근접 센서, 충격 센서, 중력 센서, 지자기 센서 등 다양한 종류의 센서를 포함할 수 있음은 물론이다.Of course, the
프로세서(230)은 웨어러블 장치(200)를 제어하기 위한 구성으로, 센서(220)에 의해 감지된 다양한 정보를 전자 장치(100)로 전송하기 위하여 통신부(210)을 제어할 수 있다.The
한편, 웨어러블 장치(200)는 상술한 구성 외에도 필요에 따라 추가 구성을 더 포함할 수 있다. 예를 들어, 웨어러블 장치(200)가 이어폰으로 구현되는 경우, 웨어러블 장치(200)는 오디오 출력부를 더 포함할 수 있다. 이 경우, 웨어러블 장치(200)는 전자 장치(100)로부터 자세 교정과 관련된 오디오 메시지에 대한 데이터를 수신하여 출력할 수 있다. 또는, 웨어러블 장치(200)가 헤드 마운티드 디스플레이(HMD)로 구현되는 경우, 웨어러블 장치(200)는 디스플레이를 더 포함할 수 있다. 이 경우, 웨어러블 장치(200)는 전자 장치(100)로부터 자세 교정과 관련된 UI 메시지에 대한 데이터를 수신하여 출력할 수 있다. 이 외에도 웨어러블 장치(200)가 어떤 장치로 구현되는지에 따라 다양한 구성이 추가될 수 있음은 물론이다.Meanwhile, the
이하에서는 도 5a 내지 도 7c를 이용하여 다양한 자세 교정 방법에 대하여 살펴본다.Below, we will look at various posture correction methods using FIGS. 5A to 7C.
도 5a 내지 도 5c는 본 개시의 일 실시예에 따른 사용자와 오브젝트 사이의 거리를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.FIGS. 5A to 5C are diagrams illustrating a method of determining the distance between a user and an object and outputting a message guiding the user's posture according to the determined result, according to an embodiment of the present disclosure.
사용자가 오브젝트를 너무 가까이 응시하거나, 동일 거리의 오브젝트를 장시간 응시하는 것은 난시 또는 근시 등의 질병을 가져올 수 있다. 따라서, 전자 장치(100)는 사용자가 응시하는 오브젝트와의 거리 및 오브젝트 응시 시간을 측정하여 사용자의 자세를 가이드 할 필요가 있다.If a user stares too close at an object or stares at an object at the same distance for a long time, it can lead to diseases such as astigmatism or myopia. Therefore, the
도 5a에 도시된 바와 같이, 웨어러블 장치(200)의 거리 측정 센서(221)는 웨어러블 장치(200)와 오브젝트(500) 사이의 거리 w를 측정하여 전자 장치(100)로 전송할 수 있다. 이때, 웨어러블 장치(200)는 거리 데이터를 기 설정된 시간 간격(예를 들어, 10초 간격)으로 측정하여 전자 장치(100)로 전송할 수 있다. 이때, 거리 w의 전송 방법은 다양할 수 있다. 예를 들어, 웨어러블 장치(100)는 거리 w에 대한 데이터를 획득할 때마다 거리 데이터를 전자 장치(100)로 전송할 수도 있으며, 일정 시간 간격으로 전송할 수도 있다. As shown in FIG. 5A , the distance measurement sensor 221 of the
전자 장치(100)는 웨어러블 장치(200)으로부터 수신한 거리 데이터를 분석하여 사용자의 자세를 판단할 수 있다. 예를 들어, 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값(예를 들어 0.4m) 이하인 경우, 전자 장치(100)는 사용자의 자세 교정이 필요하다고 판단할 수 있다. 임계값을 정하는 방법에 대하여는 후술한다.The
이때, 전자 장치(100)는 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값(예를 들어 0.4m) 이하가 되면, 사용자의 자세를 가이드하는 메시지를 출력할 수 있다. 예를 들어, 도 5b에 도시된 바와 같이, 전자 장치(100)는 "전방의 물체와의 거리가 너무 가깝습니다. 눈 건강을 위해 적정 거리를 유지해 주시기 바랍니다."와 같은 메시지 UI를 출력할 수 있다. 이때, 전자 장치(100)는 메시지 UI가 출력됨을 알리기 위해, 메시지 UI가 표시될 때, 전자 장치(100)를 진동시키거나, 알람음을 출력할 수 있다. 이때, 상기 메시지 UI에 대한 데이터는 웨어러블 장치(200)로 전송되어 웨어러블 장치(200)가 표시할 수도 있다. 즉, 웨어러블 장치(200)가 헤드 마운티드 디스플레이 장치인 경우, 메시지 UI는 웨어러블 장치(200)에서 출력될 수 있다. At this time, when the distance between the
또 다른 실시예로, 상기 메시지 UI는 오디오 데이터의 형태로 출력될 수도 있다. 상술한 바와 같이, 전자 장치(100) 또는 웨어러블 장치(200)의 종류에 따라, "전방의 물체와의 거리가 너무 가깝습니다. 눈 건강을 위해 적정 거리를 유지해 주시기 바랍니다."라는 오디오 데이터는 전자 장치(100) 또는 웨어러블 장치(200)에서 출력될 수 있다.In another embodiment, the message UI may be output in the form of audio data. As described above, depending on the type of
한편, 도 5c에 도시된 바와 같이, 전자 장치(100)는 수신한 거리 데이터를 시간 정보와 매칭하여 저장할 수 있다. 전자 장치(100)는 시간 정보와 매칭된 거리 데이터를 바탕으로, 사용자가 오브젝트를 응시하는 평균 응시 거리를 획득할 수 있다. 획득된 평균 응시 거리가 제1 임계값(예를 들어 0.4m) 이하인 경우, 전자 장치(100)는 사용자의 자세를 가이드하는 메시지를 출력할 수 있다.Meanwhile, as shown in FIG. 5C, the
또 다른 실시예로, 전자 장치(100)는 시간에 따른 거리 데이터의 변화를 측정할 수 있다. 기 설정된 시간 동안, 거리 데이터가 변하지 않는 경우, 전자 장치(100)는 사용자의 자세를 가이드하는 메시지를 출력할 수 있다. 예를 들어, 전자 장치(100)는 "동일 거리의 물체를 너무 오래 응시하고 있습니다. 눈 건강을 위해 먼 거리르 쳐다보세요." 와 같은 메시지를 출력할 수 있다.In another embodiment, the
결론적으로, 전자 장치(100)는 거리 데이터를 이용하여, 1)사용자가 응시하는 오브젝트가 가까운지 여부, 2) 사용자가 응시하는 오브젝트의 평균 거리가 가까운지 여부 및 3) 사용자가 동일 오브젝트(동일한 거리에 위치한 오브젝트)를 얼마나 오랫동안 응시하고 있는지를 판단하여 사용자의 자세를 가이드 하는 메시지를 출력할 수 있다.In conclusion, the
도 6a 내지 도 6e는 본 개시의 일 실시예에 따른, 사용자 목의 기울기를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.FIGS. 6A to 6E are exemplary diagrams for explaining a method of determining the tilt of a user's neck and outputting a message guiding the user's posture according to the determined result, according to an embodiment of the present disclosure.
머리의 자세가 잘못되면, 목의 긴장, 피곤함, 거북목 증후군, 두통등의 질명이 발생할 수 있다. 따라서, 전자 장치(100)는 도 6a에 도시된 바와 같이, 사용자의 머리의 자세 및 목의 기울기를 측정하여 사용자의 자세를 가이드 할 필요가 있다.If the head posture is incorrect, conditions such as neck tension, fatigue, turtle neck syndrome, and headaches may occur. Therefore, the
구체적으로, 전자 장치(100)는 자이로 센서, 중력 센서, 지자기 센서 등을 이용하여 사용자의 목의 기울기를 측정할 수 있다. 도 6b에 도시된 바와 같이, 전자 장치(100)는 웨어러블 장치(200)로부터 중력 방향을 기준으로, 웨어러블 장치(200)가 기울어진 기울기에 대한 각도 데이터를 수신할 수 있다. 수신한 각도 데이터가 제2 임계값(예를 들어 30도) 이상인 경우, 전자 장치(100)는 사용자의 자세를 가이드 하기 위한 메시지를 출력할 수 있다. 예를 들어, 도 6c에 도시된 바와 같이, 전자 장치(100)는 "목 건강을 위해 올바른 자세를 유지하여 주시기 바랍니다."와 같은 메시지 UI를 출력할 수 있다. 이때, 전자 장치(100)는 메시지 UI가 출력됨을 알리기 위해, 메시지 UI가 표시될 때, 전자 장치(100)를 진동시키거나, 알람음을 출력할 수 있다. 이때, 상기 메시지 UI에 대한 데이터는 웨어러블 장치(200)로 전송되어 웨어러블 장치(200)가 표시할 수도 있다. 즉, 웨어러블 장치(200)가 헤드 마운티드 디스플레이 장치인 경우, 메시지 UI는 웨어러블 장치(200)에서 출력될 수 있다. Specifically, the
또 다른 실시예로, 상기 메시지 UI는 오디오 데이터의 형태로 출력될 수도 있다. 상술한 바와 같이, 전자 장치(100) 또는 웨어러블 장치(200)의 종류에 따라, "목 건강을 위해 올바른 자세를 유지하여 주시기 바랍니다."라는 오디오 데이터는 전자 장치(100) 또는 웨어러블 장치(200)에서 출력될 수 있다.In another embodiment, the message UI may be output in the form of audio data. As described above, depending on the type of the
한편, 정확한 각도 데이터를 획득하기 위하여는, 웨어러블 장치(200)를 올바르게 착용할 필요가 있다. 즉, 사용자는 올바른 자세에서 센서에 의해 측정되는 기울기가 0이 되도록 웨어러블 장치(200)를 착용해야, 전자 장치(100) 사용자의 자세를 정확히 판단할 수 있다. 이를 위해 전자 장치(100)는 웨어러블 장치의 착용을 가이드 하기 위한 메시지를 출력할 수 있다.Meanwhile, in order to obtain accurate angle data, the
구체적으로, 도 6d에 도시된 바와 같이, 전자 장치(100)는 사용자가 올바르게 웨어러블 장치(200)를 착용할 것을 안내하는 메시지 UI를 표시할 수 있다. 예를 들어, 전자 장치(100)는 "웨어러블 장치를 착용하여 주시기 바랍니다. 확인을 누르시면, 웨어러블 장치의 위치 조정을 위한 단계로 넘어갑니다" 와 같은 메시지 UI를 출력할 수 있다. Specifically, as shown in FIG. 6D, the
메시지 UI를 통해 확인 명령이 입력되면, 전자 장치(100)는 도 6e에 도시된 바와 같이, 웨어러블 장치(200)의 위치를 조정하기 위한 UI를 표시할 수 있다. 센서에 의해 측정되는 각도가 0이 되도록 웨어러블 장치(200)의 위치가 조정된 후 확인 명령이 입력되면, 전자 장치(100)는 웨어러블 장치(200)의 착용이 완료된 것으로 판단하고, 센싱 데이터를 이용하여 사용자의 자세를 판단할 수 있다.When a confirmation command is input through the message UI, the
한편, 도 5a 내지 도 5c의 경우와 마찬가지로, 전자 장치(100)는 각도 데이터를 시간 정보와 매칭할 수 있다. 전자 장치(100)는 시간 정보와 매칭된 각도 데이터를 바탕으로, 사용자의 머리가 기울어진 평균 시간을 획득할 수 있다. 획득된 평균 시간이 제2 임계값(예를 들어 0.4m) 이상인 경우, 전자 장치(100)는 사용자의 자세를 가이드하는 메시지를 출력할 수 있다.Meanwhile, similar to the case of FIGS. 5A to 5C, the
또 다른 실시예로, 전자 장치(100)는 시간에 따른 각도 데이터의 변화를 측정할 수 있다. 기 설정된 시간 동안, 각도 데이터가 변하지 않는 경우, 전자 장치(100)는 사용자의 자세를 가이드하는 메시지를 출력할 수 있다. 예를 들어, 전자 장치(100)는 "동일 자세를 오랜 시간 유지하고 있습니다. 목 건강을 위해 스트레칭해주세요." 와 같은 메시지를 출력할 수 있다.In another embodiment, the
도 7a 내지 도 7d는 본 개시의 일 실시예에 따른, 사용자 주변의 조도를 판단하고, 판단된 결과에 따라 사용자의 자세를 가이드하는 메시지를 출력하는 방법을 설명하기 위한 예시도이다.FIGS. 7A to 7D are diagrams illustrating a method of determining the illuminance around a user and outputting a message guiding the user's posture according to the determined result, according to an embodiment of the present disclosure.
주변 조도 값은 사용자의 시력에 영향을 미칠 수 있다. 따라서, 전자 장치(100)는 주변 조도 및 오브젝트 영역의 조도를 판단하여, 주변 조도 값을 가이드할 필요가 있다.Ambient illuminance values can affect the user's vision. Therefore, the
구체적으로, 전자 장치(100)는 웨어러블 장치(200)로부터 주변 조도 데이터를 수신할 수 있다. 수신한 주변 조도가 제3 임계값(에를 들어 500lux) 이상(또는 이하)인 경우, 전자 장치(100)는 도 7b에 도시된 바와 같이, "주변이 너무 밝습니다. 눈 건강을 위해 조도를 낮춰 주세요" 또는 "주변이 너무 어둡습니다. 눈 건강을 위해 조도를 높여 주세요" 와 같은 메시지 UI를 출력할 수 있다. 상술한 바와 같이 메시지는 오디오로 출력될 수도 있으며, 웨어러블 장치(200)에서 출력될 수 있음은 물론이다.Specifically, the
한편, 도 7c에 도시된 바와 같이, 오브젝트가 빛을 내는 광원일 경우가 있다. 이 경우, 전자 장치(100)는 주변 조도 및 오브젝트가 발산하는 빛의 세기를 판단하여, 사용자의 건강 상태를 판단할 수 있다. 예를 들어, 주변 조도값과, 오브젝트 영역의 조도 값의 차이가 제4 임계값 이상인 경우, 전자 장치(100)는 도 7d에 도시된 바와 같이 "모니터의 밝기가 너무 밝습니다. 모니터의 밝기를 줄여주세요" 와 같은 메시지 UI를 출력할 수 있다. 다만, 필요에 따라 전자 장치(100)는 "모니터의 밝기가 너무 어둡습니다. 모니터를 밝게 해주세요", "주변이 너무 밝습니다. 눈 건강을 위해 조도를 낮춰 주세요" 또는 "주변이 너무 어둡습니다. 눈 건강을 위해 조도를 높여 주세요"와 같은 UI를 출력할 수 있음은 물론이다.Meanwhile, as shown in FIG. 7C, there are cases where an object is a light source that emits light. In this case, the
이하에서는 상술한 다양한 임계 값(웨어러블 장치(200)와 오브젝트 사이의 거리, 웨어러블 장치(200)의 기울기, 주변 조도 및 오브젝트 영역의 조도와 관련된 임계값)을 결정하는 방법에 대하여 살펴본다. 상술한 다양한 임계값은 전자 장치(100)에 의해 결정될 수도 있으나, 외부 서버에서 결정될 수도 있다. 이하에서는 외부 서버가 임계값을 결정하는 것으로 설명한다.Hereinafter, we will look at a method of determining the various threshold values described above (thresholds related to the distance between the
먼저, 외부 서버는 의학적으로 승인된 원시 데이터를 수집할 수 있다. 이때 주어진 시간 동안 모든 센서로부터 획득된 원시 데이터는 변수 벡터 Vi로 표시될 수 있다. 수집된 데이터는 다양한 전문가들에 의해 분류 될 수 있다. 이때, 전문가들은 원시 데이터에 바이너리 마크를 부가할 수 있다. 즉, 원시 데이터는 0(예를 들어 나쁜 자세) 또는 1(예를 들어 올바른 자세) 중 하나의 바이너리 마크가 부가될 수 있다. First, an external server can collect medically approved raw data. At this time, the raw data acquired from all sensors during a given time can be expressed as a variable vector Vi. Collected data can be classified by various experts. At this time, experts can add a binary mark to the raw data. That is, the raw data may be given a binary mark of 0 (eg, bad posture) or 1 (eg, correct posture).
외부 서버는 바이너리 마크가 부가된 원시 데이터를 다양한 방법으로 분류할 수 있다. 예를 들어, 외부 서버는 PCA(Programmable Counter Array)에 의해 주요 선분을 자동으로 선택하도록 훈련된 분류기를 훈련 시킬 수 있다. 이때, 분류기는 Naive Bayes Classifier로 구현될 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 원시 데이터는 지도 학습(supervised learning)을 통해 분류될 수 있다. 또는, 원시 데이터는 별다른 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 분류 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 원시 데이터를 분류 할 수 있다. The external server can classify the raw data to which the binary mark is attached in various ways. For example, an external server can train a classifier trained to automatically select key line segments by Programmable Counter Array (PCA). At this time, the classifier may be implemented as a Naive Bayes Classifier, but is not limited to this. For example, raw data can be classified through supervised learning. Alternatively, raw data can be classified through unsupervised learning, which discovers classification criteria by learning on its own using learning data without any guidance.
또는 원시 데이터 분류 모델은 신경망(Neural Network)모델을 기반으로 이루어 질 수 있다. 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다. 신경망 모델은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다. 나아가 원시 데이터 분류 모델은 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다.Alternatively, the raw data classification model may be based on a neural network model. Neural network models can be designed to simulate human brain structure on a computer. A neural network model may include a plurality of network nodes with weights that simulate neurons of a human neural network. A plurality of network nodes can each form a connection relationship to simulate synaptic activity in which neurons send and receive signals through synapses. Furthermore, the raw data classification model may include a neural network model or a deep learning model developed from a neural network model. In a deep learning model, multiple network nodes are located at different depths (or layers) and can exchange data according to convolutional connections.
예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 분류 모델로서 사용될 수 있으나, 이에 한정되지 않는다. 상술한 다양한 모델은, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 학습될 수 있다.For example, models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN) may be used as classification models, but are not limited thereto. The various models described above can be learned using a learning algorithm including error back-propagation or gradient descent.
전자 장치(100)는 상술한 다양한 임계값에 대한 정보를 외부 서버로부터 수신하고, 웨어러블 장치(200)로부터 수신한 센싱 데이터와 외부 서버로부터 수신한 임계값을 비교하여 사용자의 자세를 판단할 수 있다. 이때, 전자 장치(100)는 임계값에 대한 정보는 기 설정된 주기로 외부 서버로부터 수신할 수 있다. 또는 외부 서버에서 판단된 임계값이 변경되는 경우, 전자 장치(100)는 변경된 임계값에 대한 정보를 수신할 수 있다.The
한편, 상술한 실시예에서는 전자 장치(100)가 외부 서버로부터 임계값에 대한 정보를 수신한다고 설명하였으나, 전자 장치(100)가 상술한 방법을 통해 임계값을 획득할 수 있음은 물론이다.Meanwhile, in the above-described embodiment, it has been described that the
도 8은 본 개시의 일 실시예에 따른 전자 장치(100)의 제어 방법을 설명하기 위한 흐름도이다.FIG. 8 is a flowchart illustrating a control method of the
전자 장치(100)는 웨어러블 장치(200)와 통신 연결을 수행할 수 있다(S810).The
전자 장치(100)는 통신 연결된 웨어러블 장치(200)로부터 웨어러블 장치(200)가 감지한 센싱 데이터를 수신할 수 있다(S820). 상술한 바와 같이, 전자 장치(100)가 수신하는 센싱 데이터는 웨어러블 장치(200)의 거리 측정 센서에 의해 감지된 웨어러블 장치(200) 오브젝트 사이의 거리에 대한 데이터, 웨어러블 장치(200)의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 웨어러블 장치(200)의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나일 수 있다.The
전자 장치(100)는 수신한 센싱 데이터가 기 설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 기 설정된 조건에 대응되는 메시지를 출력할 수 있다(S830). 이때, 기 설정된 조건은 센싱 데이터와 센싱 데이터에 대응되는 임계값에 대한 조건을 수 있다. 구체적으로, 센싱 데이터가 웨어러블 장치(200)와 오브젝트 사이의 거리 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값 이하인지에 대한 조건일 수 있다. 또는, 기 설정된 조건은, 웨어러블 장치(200)와 오브젝트 사이의 거리가 제1 임계값 이하인 상태로 기 설정된 시간(예를 들어 5분) 이상을 유지 하였는지에 대한 조건일 수 있다. 또 다른 실시예로, 센싱 데이터가 자이로 센서에 의해 감지된 각도 데이터인 경우, 기 설정된 조건은 웨어러블 장치(200)의 각도가 제2 임계값 이하인지에 대한 조건일 수 있다. 또는, 기 설정된 조건은, 웨어러블 장치(200)의 각도가 제2 임계값 이하인 상태로 기 설정된 시간(예를 들어 5분) 이상을 유지 하였는지에 대한 조건일 수 있다. 또 다른 실시예로, 센싱 데이터가 조도 센서에 의해 감지된 조도 데이터인 경우, 기 설정된 조건은 주변 조도가 제3 임계값 이하인지에 대한 조건일 수 있다. 또는, 기 설정된 조건은, 주변 조도가 제3 임계값 이하인 상태로 기 설정된 시간(예를 들어 5분) 이상을 유지 하였는지에 대한 조건일 수 있다. 또는, 기 설정된 조건은 웨어러블 장치(200)의 제1 조도 센서로부터 획득된 주변 조도 및 웨어러블 장치(200)의 제2 조도 센서로부터 획득된 사용자가 바라보는 영역의 조도의 차이가 제 4 임계값 이상인지에 대한 조건일 수 있다.When the received sensing data satisfies a preset condition, the
상기에서 설명된 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The methods described above may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The above hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 개시는 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 개시는 상기의 실시 예에 한정되는 것은 아니며, 본 개시가 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, although the present disclosure has been described with limited examples and drawings, the present disclosure is not limited to the above embodiments, and various modifications and variations can be made from these descriptions by those skilled in the art. This is possible. Therefore, the scope of the present disclosure should not be limited to the described embodiments, but should be determined by the claims and equivalents thereof as well as the claims described later.
100: 전자 장치 110: 통신부
120: 출력부 130: 메모리
140: 프로세서 200: 웨어러블 장치100: Electronic device 110: Communication department
120: output unit 130: memory
140: Processor 200: Wearable device
Claims (16)
통신부;
출력부;
적어도 하나의 명령어를 포함하는 메모리;및
상기 통신부, 상기 출력부 및 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서;를 포함하며,
상기 프로세서는, 상기 적어도 하나의 명령어를 실행함으로써,
상기 통신부를 통해 사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하며,
상기 통신부를 통해 상기 웨어러블 장치로부터 상기 웨어러블 장치가 감지한 센싱 데이터를 수신하고,
상기 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 상기 기설정된 조건에 대응되는 메시지를 출력하도록 상기 출력부를 제어하고,
상기 프로세서는,
상기 통신부를 통해 상기 웨어러블 장치 주변의 조도를 감지하기 위한 제1 센서로부터 획득된 제1 센싱 데이터 및 상기 웨어러블 장치를 착용한 사용자가 바라보는 영역의 조도를 감지하기 위한 제2 센서로부터 획득된 제2 센싱 데이터를 포함하는 센싱 데이터를 수신하고,
상기 제1 센싱 데이터로부터 획득된 제1 조도값과 상기 제2 센싱 데이터로부터 획득된 제2 조도값의 차이가 기설정된 값 이상인 조건이 만족되면, 상기 사용자의 자세를 가이드하기 위한 메시지를 출력하도록 상기 출력부를 제어하는 전자 장치.In an electronic device for correcting a user's posture,
Ministry of Communications;
output unit;
a memory containing at least one instruction; and
It includes a processor connected to the communication unit, the output unit, and the memory to control the electronic device,
The processor executes the at least one instruction,
Performs a communication connection with a wearable device worn by the user through the communication unit,
Receiving sensing data detected by the wearable device from the wearable device through the communication unit,
When the received sensing data satisfies a preset condition, controlling the output unit to output a message corresponding to the preset condition to guide the user's posture,
The processor,
First sensing data obtained from a first sensor for detecting the illumination intensity around the wearable device through the communication unit, and second sensing data obtained from a second sensor for detecting the illumination intensity of the area viewed by the user wearing the wearable device. Receive sensing data including sensing data,
When the condition that the difference between the first illuminance value obtained from the first sensing data and the second illuminance value obtained from the second sensing data is greater than or equal to a preset value is satisfied, output a message for guiding the user's posture. Electronic device that controls the output unit.
상기 센싱 데이터는, 상기 웨어러블 장치의 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터, 상기 웨어러블 장치의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 상기 웨어러블 장치의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
According to paragraph 1,
The sensing data includes data on the distance between the wearable device and the object detected by the distance measurement sensor of the wearable device, data on the angle detected by the gyro sensor of the wearable device, and data on the illuminance sensor of the wearable device. An electronic device comprising at least one of data on illuminance detected by an electronic device.
상기 센싱 데이터가 상기 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터인 경우,
상기 프로세서는, 상기 감지된 거리가 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
According to paragraph 2,
When the sensing data is data about the distance between the wearable device and the object detected by the distance measurement sensor,
The processor controls the output unit to output information for guiding the user's posture when the detected distance is less than or equal to a first threshold.
상기 프로세서는,
상기 감지된 거리를 시간 정보와 매칭하여 상기 메모리에 저장하고, 상기 감지된 거리가 기 설정된 시간동안 상기 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
According to paragraph 3,
The processor,
The sensed distance is matched with time information and stored in the memory, and when the sensed distance is below the first threshold for a preset time, the output unit is controlled to output information for guiding the user's posture. An electronic device characterized in that:
상기 센싱 데이터가 상기 자이로 센서에 의해 감지된 각도에 대한 데이터인 경우,
상기 프로세서는, 상기 감지된 각도가 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.According to paragraph 2,
If the sensing data is data about the angle detected by the gyro sensor,
The processor controls the output unit to output information for guiding the user's posture when the sensed angle is less than or equal to a second threshold.
상기 프로세서는,
상기 감지된 각도를 시간 정보와 매칭하여 상기 메모리에 저장하고, 상기 감지된 각도가 기 설정된 시간동안 상기 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.
According to clause 5,
The processor,
The sensed angle is matched with time information and stored in the memory, and when the sensed angle is below the second threshold for a preset time, the output unit is controlled to output information for guiding the user's posture. An electronic device characterized in that:
상기 센싱 데이터가 상기 조도 센서에 의해 감지된 조도에 대한 데이터인경우,
상기 프로세서는, 상기 감지된 조도가 제3 임계값 이상인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하기 위해 상기 출력부를 제어하는 것을 특징으로 하는 전자 장치.According to paragraph 2,
If the sensing data is data about the illuminance detected by the illuminance sensor,
The processor controls the output unit to output information for guiding the user's posture when the sensed illumination level is greater than or equal to a third threshold.
사용자에 의해 착용된 웨어러블 장치와 통신 연결을 수행하는 단계;
상기 웨어러블 장치로부터 상기 웨어러블 장치가 감지한 센싱 데이터를 수신하는 단계;
상기 수신된 센싱 데이터가 기설정된 조건을 만족하는 경우, 상기 사용자의 자세를 가이드하기 위하여 상기 기설정된 조건에 대응되는 메시지를 출력하는 단계;를 포함하고,
상기 제어 방법은,
상기 웨어러블 장치 주변의 조도를 감지하기 위한 제1 센서로부터 획득된 제1 센싱 데이터 및 상기 웨어러블 장치를 착용한 사용자가 바라보는 영역의 조도를 감지하기 위한 제2 센서로부터 획득된 제2 센싱 데이터를 포함하는 센싱 데이터를 수신하는 단계; 및
상기 제1 센싱 데이터로부터 획득된 제1 조도값과 상기 제2 센싱 데이터로부터 획득된 제2 조도값의 차이가 기설정된 값 이상인 제2 조건이 만족되면, 상기 사용자의 자세를 가이드하기 위한 메시지를 출력하는 단계;를 포함하는 제어 방법.In a method of controlling an electronic device for correcting a user's posture,
Performing a communication connection with a wearable device worn by a user;
Receiving sensing data detected by the wearable device from the wearable device;
When the received sensing data satisfies a preset condition, outputting a message corresponding to the preset condition to guide the user's posture,
The control method is,
Includes first sensing data obtained from a first sensor for detecting the illuminance around the wearable device and second sensing data obtained from a second sensor for detecting the illuminance of the area viewed by the user wearing the wearable device. receiving sensing data; and
When the second condition is satisfied that the difference between the first illuminance value obtained from the first sensing data and the second illuminance value obtained from the second sensing data is more than a preset value, output a message to guide the user's posture A control method comprising:
상기 센싱 데이터는, 상기 웨어러블 장치의 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터, 상기 웨어러블 장치의 자이로 센서에 의해 감지된 각도에 대한 데이터 및 상기 웨어러블 장치의 조도 센서에 의해 감지된 조도에 대한 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 제어 방법.
According to clause 9,
The sensing data includes data on the distance between the wearable device and the object detected by the distance measurement sensor of the wearable device, data on the angle detected by the gyro sensor of the wearable device, and data on the illuminance sensor of the wearable device. A control method comprising at least one of data on illuminance detected by a control method.
상기 출력하는 단계는,
상기 센싱 데이터가 상기 거리 측정 센서에 의해 감지된 상기 웨어러블 장치와 오브젝트 사이의 거리에 대한 데이터이고, 상기 감지된 거리가 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하는 제어 방법.
According to clause 10,
The output step is,
When the sensing data is data about the distance between the wearable device and an object detected by the distance measurement sensor, and the detected distance is less than or equal to a first threshold, control for outputting information for guiding the user's posture. method.
상기 출력하는 단계는, 상기 감지된 거리를 시간 정보와 매칭하는 단계; 및
상기 감지된 거리가 기 설정된 시간동안 상기 제1 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하는 단계; 를 포함하는 제어 방법.
According to clause 11,
The output step includes matching the sensed distance with time information; and
If the detected distance is less than or equal to the first threshold for a preset time, outputting information to guide the user's posture; A control method comprising:
상기 출력하는 단계는,
상기 센싱 데이터가 상기 자이로 센서에 의해 감지된 각도에 대한 데이터이고, 상기 감지된 각도가 제2 임계값 이하인 경우, 상기 사용자의 자세를 가이드 하기 위한 정보를 출력하는 제어 방법.According to clause 10,
The output step is,
A control method for outputting information for guiding the user's posture when the sensing data is data about an angle detected by the gyro sensor and the sensed angle is less than or equal to a second threshold.
상기 출력하는 단계는,
상기 감지된 각도를 시간 정보와 매칭하는 단계; 및
상기 감지된 각도가 기 설정된 시간 동안 상기 제2 임계값 이하인 경우, 사용자의 자세를 가이드 하기 위한 정보를 출력하는 단계; 를 포함하는 제어 방법.
According to clause 13,
The output step is,
Matching the sensed angle with time information; and
If the sensed angle is below the second threshold for a preset time, outputting information to guide the user's posture; A control method comprising:
상기 출력하는 단계는,
상기 센싱 데이터가 상기 조도 센서에 의해 감지된 조도에 대한 데이터이고, 상기 감지된 조도가 제3 임계값 이상인 경우, 사용자의 자세를 가이드 하기 위한 정보를 출력하는 제어 방법.
According to clause 10,
The output step is,
A control method for outputting information for guiding a user's posture when the sensing data is data about the illuminance detected by the illuminance sensor and the sensed illuminance is greater than or equal to a third threshold.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180019821A KR102620967B1 (en) | 2018-02-20 | 2018-02-20 | Electronic apparatus and method of correcting posture thereof |
PCT/KR2019/001166 WO2019164145A1 (en) | 2018-02-20 | 2019-01-28 | Electronic device and posture correction method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180019821A KR102620967B1 (en) | 2018-02-20 | 2018-02-20 | Electronic apparatus and method of correcting posture thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190099847A KR20190099847A (en) | 2019-08-28 |
KR102620967B1 true KR102620967B1 (en) | 2024-01-05 |
Family
ID=67687791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180019821A KR102620967B1 (en) | 2018-02-20 | 2018-02-20 | Electronic apparatus and method of correcting posture thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102620967B1 (en) |
WO (1) | WO2019164145A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102130761B1 (en) * | 2019-09-02 | 2020-07-08 | 트레스테크(주) | Speaker assembly |
CN112333500A (en) * | 2019-11-26 | 2021-02-05 | 河南水滴智能技术有限公司 | Eyesight protection technology and method for children watching TV |
CN113297876A (en) * | 2020-02-21 | 2021-08-24 | 佛山市云米电器科技有限公司 | Motion posture correction method based on intelligent refrigerator, intelligent refrigerator and storage medium |
CN114724232A (en) * | 2020-12-18 | 2022-07-08 | 华为技术有限公司 | Posture recognition and correction method, device and system and electronic equipment |
CN115005807A (en) * | 2022-04-27 | 2022-09-06 | 未来穿戴健康科技股份有限公司 | Massage apparatus control method, massage apparatus, and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010147281A1 (en) | 2009-06-16 | 2010-12-23 | (주)엘지전자 | Viewing range notification method and tv receiver for implementing the same |
JP2013127548A (en) | 2011-12-19 | 2013-06-27 | Nikon Corp | Display device and display control program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11133937A (en) * | 1997-11-04 | 1999-05-21 | Sony Corp | Eyesight weakening preventing device and method |
KR20060005239A (en) * | 2004-07-12 | 2006-01-17 | 엘지전자 주식회사 | (an) image display device for having function of protection sight and method of controlling the same |
KR102055898B1 (en) * | 2012-12-12 | 2019-12-13 | 엘지전자 주식회사 | image outputting device and method for operating thereof |
KR101729008B1 (en) * | 2014-04-04 | 2017-04-21 | 엘지전자 주식회사 | Lighting system and the operating method |
KR20160062521A (en) * | 2014-11-25 | 2016-06-02 | 인제대학교 산학협력단 | System and method for preventing neck disc |
KR20170092232A (en) * | 2016-02-03 | 2017-08-11 | 경북대학교 산학협력단 | Apparatus and method for eyesight protection, recording medium for performing the method |
-
2018
- 2018-02-20 KR KR1020180019821A patent/KR102620967B1/en active IP Right Grant
-
2019
- 2019-01-28 WO PCT/KR2019/001166 patent/WO2019164145A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010147281A1 (en) | 2009-06-16 | 2010-12-23 | (주)엘지전자 | Viewing range notification method and tv receiver for implementing the same |
JP2013127548A (en) | 2011-12-19 | 2013-06-27 | Nikon Corp | Display device and display control program |
Also Published As
Publication number | Publication date |
---|---|
KR20190099847A (en) | 2019-08-28 |
WO2019164145A1 (en) | 2019-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102620967B1 (en) | Electronic apparatus and method of correcting posture thereof | |
US10561334B2 (en) | Portable apparatus and method of changing screen of content thereof | |
US11561579B2 (en) | Integrated computational interface device with holder for wearable extended reality appliance | |
EP3120222B1 (en) | Trainable sensor-based gesture recognition | |
US10952667B2 (en) | Device and method of controlling wearable device | |
US20180191391A1 (en) | Bendable user terminal device and method for displaying thereof | |
US10310631B2 (en) | Electronic device and method of adjusting user interface thereof | |
US10884577B2 (en) | Identification of dynamic icons based on eye movement | |
US10924147B2 (en) | Wearable device for transmitting a message comprising strings associated with a state of a user | |
KR20210058969A (en) | Neural network system for gesture, wear, activity or handheld detection in wearables or mobile devices | |
US9430041B2 (en) | Method of controlling at least one function of device by using eye action and device for performing the method | |
KR102616850B1 (en) | An external device capable of being combined with an electronic device, and a display method thereof. | |
US20160154777A1 (en) | Device and method for outputting response | |
US20240028129A1 (en) | Systems for detecting in-air and surface gestures available for use in an artificial-reality environment using sensors at a wrist-wearable device, and methods of use thereof | |
US20240061513A1 (en) | Multi-stage gestures detected based on neuromuscular-signal sensors of a wearable device to activate user-interface interactions with low-false positive rates, and systems and methods of use thereof | |
US20240019938A1 (en) | Systems for detecting gestures performed within activation-threshold distances of artificial-reality objects to cause operations at physical electronic devices, and methods of use thereof | |
KR20170004825A (en) | Method and apparatus for context based application grouping in virtual reality | |
KR102476619B1 (en) | Electronic device and control method thereof | |
CN113272888A (en) | Electronic device for changing display characteristics according to external light and method thereof | |
US20200066041A1 (en) | Presentation of content based on attention center of user | |
KR102327139B1 (en) | Portable Device and Method for controlling brightness in portable device | |
Srinivas et al. | A survey report on mobile eye-based Human-Computer Interaction | |
US12145256B2 (en) | Healthcare robot and control method therefor | |
WO2023049065A1 (en) | Eye reflections using ir light sources on a transparent substrate | |
US20210394369A1 (en) | Healthcare robot and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |