KR20160123200A - Touch input processing method and electronic device supporting the same - Google Patents
Touch input processing method and electronic device supporting the same Download PDFInfo
- Publication number
- KR20160123200A KR20160123200A KR1020150065395A KR20150065395A KR20160123200A KR 20160123200 A KR20160123200 A KR 20160123200A KR 1020150065395 A KR1020150065395 A KR 1020150065395A KR 20150065395 A KR20150065395 A KR 20150065395A KR 20160123200 A KR20160123200 A KR 20160123200A
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- state
- electronic device
- sensor
- information
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims description 20
- 230000035945 sensitivity Effects 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims description 81
- 238000012545 processing Methods 0.000 claims description 44
- 230000008859 change Effects 0.000 claims description 39
- 238000013459 approach Methods 0.000 claims description 20
- 238000001228 spectrum Methods 0.000 claims description 13
- 239000000126 substance Substances 0.000 claims description 10
- 230000006870 function Effects 0.000 description 203
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 61
- 238000004891 communication Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 22
- 210000004243 sweat Anatomy 0.000 description 19
- 238000011109 contamination Methods 0.000 description 14
- 230000008571 general function Effects 0.000 description 9
- 230000001413 cellular effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 239000000428 dust Substances 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 239000004576 sand Substances 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 239000002689 soil Substances 0.000 description 5
- -1 electricity Substances 0.000 description 4
- 230000007257 malfunction Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000012528 membrane Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000008103 glucose Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명의 다양한 실시 예들은 터치 입력을 처리하는 방법과 관련된다.Various embodiments of the invention relate to a method of processing touch input.
전자 장치들은 사용자 인터페이스(user interface, UI)의 일환으로 터치 스크린, 터치 패드, 또는 터치 키 등과 같은 터치 방식의 입력 장치를 지원하고 있다. 터치 방식의 입력 장치는 정전용량식, 감압식, 적외선 방식 또는 초음파 방식 등 다양한 방식으로 구현되고 있다. 예를 들면, 정전용량식 터치 입력 방식은 전도성 물체 예컨대, 사용자의 손가락 또는 스타일러스 펜(stylus pen) 등에 의해 생기는 정전용량의 변화를 판단하여 터치를 인식할 수 있다.Electronic devices support touch-based input devices such as touch screens, touch pads, or touch keys as part of a user interface (UI). The touch-type input device is implemented in various ways such as a capacitance type, a pressure reduction type, an infrared type, or an ultrasonic type. For example, the capacitive touch input method can recognize a touch by determining a change in capacitance caused by a conductive object such as a user's finger or a stylus pen.
그러나 상술한 정전용량식 터치 입력 방식은 상기 전도성 물체(터치 물체)에 정전용량의 변화를 줄 수 있는 요인이 있을 경우 오작동할 수 있다. 예컨대, 물 또는 땀 등이 묻어 있는 상태의 손가락이 접촉되거나 장갑 착용 상태의 손가락이 접촉되는 경우, 정전용량식 터치 입력 장치는 터치 물체의 접촉을 올바르게 인식하지 못하거나 사용자가 의도하지 않은 터치 좌표를 접촉 지점으로 인식할 수 있다. 또한, 감압식, 적외선 방식 또는 초음파 방식 등의 터치 입력 방식도 손가락 등과 같은 터치 물체에 물 또는 땀 등이 묻어 있거나 또는 장갑을 착용한 경우, 오작동할 수 있다.However, the capacitive touch input method described above can malfunction when there is a factor that can change the electrostatic capacity of the conductive object (touch object). For example, in the case where a finger in a state in which water, sweat, or the like is in contact or a finger in the state of wearing gloves is contacted, the capacitive touch input device does not correctly recognize the touch of the touch object, It can be recognized as a contact point. In addition, a touch input method such as a pressure sensitive type, an infrared type, or an ultrasonic type may malfunction when water, sweat, or the like is stuck on a touch object such as a finger or gloves are worn.
본 발명의 다양한 실시 예들은, 터치 물체의 접근 또는 접촉에 따른 센서 정보에 대응하여 터치 물체의 상태를 판단하고, 터치 물체의 상태에 따라 터치 입력을 처리하는 방법 및 이를 지원하는 전자 장치를 제공할 수 있다.Various embodiments of the present invention provide a method of processing a touch input according to a state of a touch object, determining a state of the touch object in response to sensor information according to approach or contact of the touch object, and an electronic device supporting the touch input .
본 발명의 다양한 실시 예에 따른 전자 장치는, 터치 물체를 센싱하여 센서 정보를 수집하는 제 1 터치 센서, 상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 프로세서, 및 상기 터치 물체의 상태에 따라 터치 감도가 조정되는 제 2 터치 센서를 포함할 수 있다.An electronic device according to various embodiments of the present invention includes a first touch sensor for sensing a touch object to collect sensor information, a processor for determining a state of the touch object corresponding to the sensor information, And a second touch sensor in which the touch sensitivity is adjusted.
본 발명의 다양한 실시 예에 따르면, 터치 물체의 상태에 따라 터치 입력을 처리함으로써 터치 입력 장치의 오작동을 방지할 수 있다.According to various embodiments of the present invention, malfunction of the touch input device can be prevented by processing the touch input according to the state of the touch object.
도 1은 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 구성을 개략적으로 나타낸다.
도 2는 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 블록도를 나타낸다.
도 3은 다양한 실시 예에 따른 센서 정보에 대응하여 터치 입력을 처리하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.
도 4는 다양한 실시 예에 따른 센서 정보를 이용하여 터치 기능을 설정하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.
도 5는 다양한 실시 예에 따른 터치 기능 선택 객체를 이용하여 터치 기능을 설정하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.
도 6은 다양한 실시 예에 따른 지문 인식 센서를 기반으로 터치 물체의 상태를 판단하는 실시 예를 나타낸다.
도 7은 다양한 실시 예에 따른 터치 기능 선택 객체를 나타낸다.
도 8은 다양한 실시 예에 따른 터치 물체의 상태에 따라 터치 감도를 조정하는 실시 예를 나타낸다.
도 9는 다양한 실시 예에 따른 터치 물체의 상태에 따라 표시 객체의 출력 상태를 조정하는 실시 예를 나타낸다.
도 10은 다양한 실시 예에 따른 지문 인식 센서를 기반으로 터치 입력을 처리하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.
도 11은 다양한 실시 예에 따른 손가락 상태 이벤트 테이블을 나타낸다.
도 12는 다양한 실시 예에 따른 지문 인식 이벤트에 대응하는 손가락 상태 이벤트를 설명하기 위한 도면을 나타낸다.
도 13은 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 운용 방법을 나타낸다.
도 14는 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치를 나타낸다.
도 15는 다양한 실시 예에 따른 전자 장치의 블록도를 나타낸다.
도 16은 다양한 실시 예에 따른 프로그램 모듈의 블록도를 나타낸다.1 schematically shows a configuration of an electronic device related to touch input processing according to various embodiments.
2 shows a block diagram of an electronic device associated with touch input processing according to various embodiments.
3 illustrates a method of operating an electronic device associated with a method for processing a touch input in response to sensor information according to various embodiments.
4 illustrates a method of operating an electronic device related to a method of setting a touch function using sensor information according to various embodiments.
FIG. 5 illustrates a method of operating an electronic device related to a method of setting a touch function using a touch function selection object according to various embodiments.
FIG. 6 illustrates an embodiment of determining the state of a touch object based on a fingerprint sensor according to various embodiments.
7 shows a touch function selection object according to various embodiments.
FIG. 8 shows an embodiment for adjusting the touch sensitivity according to the state of the touch object according to various embodiments.
9 shows an embodiment for adjusting the output state of a display object according to the state of a touch object according to various embodiments.
10 illustrates a method of operating an electronic device associated with a method for processing a touch input based on a fingerprint sensor according to various embodiments.
11 shows a finger status event table according to various embodiments.
12 shows a diagram for explaining a finger status event corresponding to a fingerprint recognition event according to various embodiments.
13 illustrates a method of operating an electronic device associated with touch input processing according to various embodiments.
14 illustrates an electronic device in a network environment in accordance with various embodiments.
15 shows a block diagram of an electronic device according to various embodiments.
16 shows a block diagram of a program module according to various embodiments.
이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings. It should be understood, however, that this invention is not intended to be limited to the particular embodiments described herein but includes various modifications, equivalents, and / or alternatives of the embodiments of this document . In connection with the description of the drawings, like reference numerals may be used for similar components.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, the expressions "have," "may," "include," or "include" may be used to denote the presence of a feature (eg, a numerical value, a function, Quot ;, and does not exclude the presence of additional features.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, the expressions "A or B," "at least one of A and / or B," or "one or more of A and / or B," etc. may include all possible combinations of the listed items . For example, "A or B," "at least one of A and B," or "at least one of A or B" includes (1) at least one A, (2) Or (3) at least one A and at least one B all together.
본 문서에서 사용된 "제 1", "제 2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.The expressions "first," " second, "" first, " or "second ", etc. used in this document may describe various components, It is used to distinguish the components and does not limit the components. For example, the first user equipment and the second user equipment may represent different user equipment, regardless of order or importance. For example, without departing from the scope of the rights described in this document, the first component can be named as the second component, and similarly the second component can also be named as the first component.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.(Or functionally or communicatively) coupled with / to "another component (eg, a second component), or a component (eg, a second component) Quot; connected to ", it is to be understood that any such element may be directly connected to the other element or may be connected through another element (e.g., a third element). On the other hand, when it is mentioned that a component (e.g., a first component) is "directly connected" or "directly connected" to another component (e.g., a second component) It can be understood that there is no other component (e.g., a third component) between other components.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used herein, the phrase " configured to " (or set) to be "adapted to, " To be designed to, "" adapted to, "" made to, "or" capable of ". The term " configured to (or set up) "may not necessarily mean" specifically designed to "in hardware. Instead, in some situations, the expression "configured to" may mean that the device can "do " with other devices or components. For example, a processor configured (or configured) to perform the phrases "A, B, and C" may be implemented by executing one or more software programs stored in a memory device or a dedicated processor (e.g., an embedded processor) , And a generic-purpose processor (e.g., a CPU or an application processor) capable of performing the corresponding operations.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope of the other embodiments. The singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art. The general predefined terms used in this document may be interpreted in the same or similar sense as the contextual meanings of the related art and, unless expressly defined in this document, include ideally or excessively formal meanings . In some cases, even the terms defined in this document can not be construed as excluding the embodiments of this document.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.An electronic device in accordance with various embodiments of the present document may be, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, Such as a desktop personal computer, a laptop personal computer, a netbook computer, a workstation, a server, a personal digital assistant (PDA), a portable multimedia player (PMP) A device, a camera, or a wearable device. According to various embodiments, the wearable device may be of the accessory type (e.g., a watch, a ring, a bracelet, a bracelet, a necklace, a pair of glasses, a contact lens or a head-mounted-device (HMD) (E. G., Electronic apparel), a body attachment type (e. G., A skin pad or tattoo), or a bioimplantable type (e.g., implantable circuit).
어떤 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.In some embodiments, the electronic device may be a home appliance. Home appliances include, for example, televisions, digital video disc (DVD) players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwaves, washing machines, air cleaners, set- Such as a home automation control panel, a security control panel, a TV box such as Samsung HomeSync TM , Apple TV TM or Google TV TM , a game console such as Xbox TM and PlayStation TM , , An electronic key, a camcorder, or an electronic frame.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.In an alternative embodiment, the electronic device may be any of a variety of medical devices (e.g., various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or a body temperature meter), magnetic resonance angiography (MRA) Navigation systems, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), infotainment (infotainment) systems, ) Automotive electronic equipment (eg marine navigation systems, gyro compass, etc.), avionics, security devices, head units for vehicles, industrial or home robots, automatic teller's machines (ATMs) Point of sale, or internet of things (eg, light bulbs, various sensors, electrical or gas meters, sprinkler devices, fire alarms, thermostats, street lights, A toaster, a fitness equipment, a hot water tank, a heater, a boiler, and the like).
어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.According to some embodiments, the electronic device is a piece of furniture or a part of a building / structure, an electronic board, an electronic signature receiving device, a projector, Water, electricity, gas, or radio wave measuring instruments, etc.). In various embodiments, the electronic device may be a combination of one or more of the various devices described above. An electronic device according to some embodiments may be a flexible electronic device. Further, the electronic device according to the embodiment of the present document is not limited to the above-described devices, and may include a new electronic device according to technological advancement.
이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An electronic apparatus according to various embodiments will now be described with reference to the accompanying drawings. In this document, the term user may refer to a person using an electronic device or a device using an electronic device (e.g., an artificial intelligence electronic device).
도 1은 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 구성을 개략적으로 나타낸다. 전자 장치 100은 터치 물체의 비정상 상태로 인해 발생할 수 있는 터치 입력의 오동작을 방지하기 위해 터치 물체의 상태에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치 100은 터치 물체에 묻은 물 또는 땀 등으로 인해 발생할 수 있는 고스트 터치(ghost touch) 현상 즉, 사용자가 의도하지 않은 영역이 터치되었다고 인식하는 현상을 방지하기 위해 터치 입력 처리 방식을 조정할 수 있다.1 schematically shows a configuration of an electronic device related to touch input processing according to various embodiments. The
상술한 기능을 수행하기 위해 전자 장치 100은 터치 물체의 접근 또는 접촉에 따른 센서 정보를 수집하고, 수집된 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다. 이와 관련하여, 도 1을 참조하면, 전자 장치 100은 제 1 터치 센서 110, 제 2 터치 센서 150, 및 프로세서 130을 포함할 수 있다.In order to perform the above-described functions, the
제 1 터치 센서 110은 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수집할 수 있다. 예컨대, 제 1 터치 센서 110은 상기 터치 물체의 접근 또는 접촉에 대응하는 정전용량의 변화 또는 압력의 변화 등으로 산출되는 터치 정보를 수집할 수 있다. 한 실시 예에 따르면, 제 1 터치 센서 110은 지문 인식 센서(또는, 지문 센서), 촉각 센서, 또는 pH 농도 센서 등을 포함할 수 있다. 예컨대, 제 1 터치 센서 110은 상기 지문 인식 센서를 포함하는 경우 사용자 지문에 포함된 융선들의 길이, 방향, 또는 특이 지점(예: 융선이 갈라지는 지점, 융선들이 이어지는 지점, 또는 융선이 끝나는 지점 등)에 대한 지문 정보를 수집할 수 있다. 또한, 제 1 터치 센서 110은 상기 촉각 센서를 포함하는 경우 상기 터치 물체의 접촉에 대응하는 접촉력의 세기, 방향, 또는 압력의 분포 등과 같은 접촉 상태 정보를 수집할 수 있다. 다양한 실시 예에 따르면, 제 1 터치 센서 110은 상기 pH 농도 센서를 포함하는 경우 상기 터치 물체의 접촉면에 대한 pH 농도 분포 등의 정보를 수집할 수 있다. 또한, 제 1 터치 센서 110은 수집된 센서 정보를 프로세서 130에 전달할 수 있다.The first touch sensor 110 may collect sensor information corresponding to approach or contact of a touch object. For example, the first touch sensor 110 may collect touch information calculated by a change in capacitance or a change in pressure corresponding to approach or contact of the touch object. According to one embodiment, the first touch sensor 110 may include a fingerprint sensor (or a fingerprint sensor), a tactile sensor, or a pH concentration sensor. For example, when the first touch sensor 110 includes the fingerprint recognition sensor, the length, direction, or specific point of the ridges included in the user fingerprint (e.g., the point where the ridges are split, the ridges are connected to each other, The fingerprint information can be collected. In addition, when the first touch sensor 110 includes the tactile sensor, the first touch sensor 110 may collect contact state information such as the intensity, direction, or pressure distribution of the contact force corresponding to the touch of the touch object. According to various embodiments, when the first touch sensor 110 includes the pH concentration sensor, the first touch sensor 110 may collect information such as a pH concentration distribution on the contact surface of the touch object. In addition, the first touch sensor 110 may transmit the collected sensor information to the
제 1 터치 센서 110에 포함된 하나 이상의 센서들은 전자 장치 100의 일정 영역에 배치될 수 있다. 예컨대, 상기 지문 인식 센서는 전자 장치 100의 전면부 하단 영역 또는 배면부 상단 영역에 배치될 수 있다. 다양한 실시 예에 따르면, 상기 지문 인식 센서는 전자 장치 100에 포함된 특정 물리 버튼 예컨대, 홈 버튼 또는 사이드 버튼 등에 포함된 형태로 구성될 수도 있다. 또한, 상기 촉각 센서 또는 상기 pH 농도 센서 등은 상기 지문 인식 센서와 유사하게 전자 장치 100의 일정 영역에 배치될 수 있다. 한 실시 예에 따르면, 상기 촉각 센서 또는 상기 pH 농도 센서 등은 상기 지문 인식 센서와 인접한 위치에 배치될 수도 있다.One or more sensors included in the first touch sensor 110 may be disposed in a certain area of the
제 2 터치 센서 150은 제 1 터치 센서 110과 동일한 또는 유사한 구성을 포함할 수 있다. 예컨대, 제 2 터치 센서 150은 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수집할 수 있다. 다양한 실시 예에 따르면, 제 2 터치 센서 150은 패널(panel)의 형태로 구성되어 터치 스크린 패널(touch screen panel, TSP)에 포함될 수 있다.The second touch sensor 150 may include the same or similar components as the first touch sensor 110. For example, the second touch sensor 150 may collect sensor information corresponding to approach or contact of a touch object. According to various embodiments, the second touch sensor 150 may be formed in the form of a panel and may be included in a touch screen panel (TSP).
프로세서 130은 수집된 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다. 한 실시 예에 따르면, 프로세서 130은 터치 물체의 정상 상태 정보와 상기 센서 정보를 비교하여 터치 물체의 상태를 판단할 수 있다. 예를 들어, 프로세서 130은 터치 물체의 정상 상태 정보와 수집된 센서 정보를 비교하고, 정보들 간의 유사도가 일정 비율 이하인 경우 터치 물체의 상태가 비정상 상태임을 판단할 수 있다.The
상기 정상 상태 정보는 제 1 터치 센서 110을 기반으로 제 1 터치 센서 110과 터치 물체 사이에 이물질(예: 물, 땀, 먼지, 모래, 흙, 또는 장갑 등)이 감지되지 않은 상태(정상 상태)에서 수집된 센서 정보를 포함할 수 있다. 예컨대, 상기 정상 상태 정보는 지문 인식 센서를 기반으로 손가락에 물, 땀, 먼지, 모래, 또는 흙 등이 묻지 않은 상태 및 장갑을 착용하지 않은 상태에서 수집된 사용자의 지문 정보일 수 있다. 또한, 상기 정상 상태 정보는 상기 정상 상태에서 수집한 접촉 상태 정보, pH 농도 분포 정보, 또는 터치 정보일 수 있다. 다양한 실시 예에 따르면, 상기 정상 상태 정보는 전자 장치 100의 첫 시작(cold start) 또는 특정 조건을 만족하는 특정 시점에 수집된 정보일 수 있다. 예컨대, 상기 정상 상태 정보는 지문 인식 기능 사용과 관련하여 사용자의 지문을 등록하는 시점에 저장된 정보일 수 있다.The steady state information is a state (normal state) in which no foreign matter (e.g., water, sweat, dust, sand, soil, or gloves) is detected between the first touch sensor 110 and the touch object based on the first touch sensor 110, And the sensor information collected from the sensor. For example, the steady state information may be fingerprint information of a user collected in a state in which the finger is not exposed to water, sweat, dust, sand, or soil based on the fingerprint recognition sensor, or in a state in which the user does not wear the glove. The steady state information may be contact state information, pH concentration distribution information, or touch information collected in the steady state. According to various embodiments, the steady state information may be information that is collected at a cold start of the
프로세서 130은 터치 물체의 상태가 비정상 상태인 경우, 터치 물체의 상태를 보다 세밀하게 분류할 수 있다. 예컨대, 프로세서 130은 터치 물체의 상태를 수막 상태, 오염막 상태, 또는 장갑 착용 상태 중 적어도 하나로 분류할 수 있다. 상기 수막 상태는 터치 물체에 물 또는 땀 등과 같은 수분이 포함된 이물질이 묻은 상태이며, 상기 오염막 상태는 터치 물체에 먼지, 모래, 또는 흙 등과 같이 수분이 포함되지 않은 이물질이 묻은 상태를 나타낼 수 있다. 그리고 사용자가 장갑을 착용한 상태로 터치 동작을 수행하는 경우 상기 장갑 착용 상태로 분류될 수 있다.When the state of the touch object is abnormal, the
다양한 실시 예에 따르면, 프로세서 130은 상기 이물질의 패턴 정보를 이용하여 터치 물체의 상태를 세밀하게 분류할 수 있다. 한 실시 예에 따르면, 프로세서 130은 상기 센서 정보와 상기 이물질의 패턴 정보를 비교하고, 정보들 간의 유사도가 일정 비율 이상인 경우 상기 이물질의 종류에 따라 터치 물체의 상태를 분류할 수 있다. 예컨대, 프로세서 130은 상기 이물질이 물 또는 땀 등과 같이 수분을 포함하는 물질인 경우 터치 물체의 상태를 수막 상태로 판단할 수 있다. 또한, 프로세서 130은 상기 이물질이 장갑의 소재로 사용될 수 있는 물질이면서 상기 유사도가 지정된 비율(예: 90%) 이상인 경우 터치 물체의 상태를 장갑 착용 상태로 판단할 수 있다.According to various embodiments, the
이와 관련하여, 상기 이물질의 패턴 정보는 제 1 터치 센서 110에 포함된 하나 이상의 센서들이 상기 이물질을 센싱하여 얻어지는 정보일 수 있다. 예컨대, 상기 이물질의 패턴 정보는 지문 인식 센서가 지문 인식 기능 수행 중 수집한 상기 이물질의 센서 정보일 수 있다. 또한, 상기 이물질의 패턴 정보는 상기 이물질의 pH 농도 정보, 표면 상태 정보, 또는 전기 전도도 등과 같은 정보를 포함할 수 있다.In this regard, the pattern information of the foreign object may be information obtained by sensing one or more sensors included in the first touch sensor 110. For example, the pattern information of the foreign object may be sensor information of the foreign object collected during the fingerprint recognition function by the fingerprint recognition sensor. In addition, the pattern information of the foreign matter may include information such as pH concentration information of the foreign matter, surface state information, electric conductivity, and the like.
다양한 실시 예에 따르면, 상기 이물질의 패턴 정보는 상기 이물질의 주파수 스펙트럼 정보일 수 있다. 이 경우, 프로세서 130은 상기 센서 정보를 주파수 스펙트럼 정보로 변환하고, 상기 이물질의 주파수 스펙트럼 정보와 비교할 수 있다. 또한, 프로세서 130은 상술한 주파수 스펙트럼 정보들 간의 유사도가 일정 비율 이상인 경우 상기 이물질의 종류에 따라 터치 물체의 상태를 수막 상태, 오염막 상태, 또는 장갑 착용 상태로 분류할 수 있다.According to various embodiments, the pattern information of the foreign matter may be the frequency spectrum information of the foreign matter. In this case, the
다양한 실시 예에 따르면, 상기 이물질의 패턴 정보를 이용하여 터치 물체의 상태를 판단함으로써 프로세서 130은 호버링(hovering) 동작에 의한 터치 입력 상태와 장갑 착용 상태를 구분할 수 있다. 예컨대, 프로세서 130은 호버링 동작에 따른 센서 정보를 주파수 스펙트럼 정보로 변환하고, 장갑의 주파수 스펙트럼 정보와 비교할 수 있다. 이 경우, 프로세서 130은 상술한 주파수 스펙트럼 정보들이 나타내는 특정 주파수의 크기 또는 일정 크기 이상을 가지는 주파수의 범위 등을 비교하여 장갑 착용 상태와 호버링 동작에 의한 터치 입력 상태를 구분할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 프로세서 130은 사용자 입력을 통해 터치 물체의 상태를 세밀하게 분류할 수 있다. 한 실시 예에 따르면, 프로세서 130은 터치 물체의 상태를 선택할 수 있는 화면을 출력하도록 제어할 수 있다. 예컨대, 프로세서 130은 터치 물체의 정상 상태에 대응하는 일반 기능, 수막 상태에 대응하는 수막 기능, 오염막 상태에 대응하는 오염막 기능, 또는 장갑 착용 상태에 대응하는 장갑 기능 등의 항목들을 포함하는 터치 기능 선택 객체를 출력하도록 제어할 수 있다. 또한, 프로세서 130은 선택된 항목에 대응하는 상태를 터치 물체의 상태로 판단할 수 있다.According to various embodiments, the
프로세서 130은 분류된 터치 물체의 상태에 따라 터치 입력 처리 방식을 조정할 수 있다. 한 실시 예에 따르면, 프로세서 130은 터치 물체의 상태에 따라 터치 감도를 조정할 수 있다. 예컨대, 프로세서 130은 터치 물체가 수막 상태로 판단되면 터치 감도를 낮춰 물 또는 땀 등과 같은 수분을 포함하는 물질이 터치 입력으로 인식되는 현상을 방지할 수 있다. 또한, 프로세서 130은 터치 물체의 상태에 따라 표시 객체의 터치 영역(표시 객체가 터치되었다고 인식되는 영역)을 조정하고, 그에 대응하여 상기 표시 객체의 크기 또는 위치 등을 조정할 수 있다. 예컨대, 프로세서 130은 터치 물체가 수막 상태로 판단되면 표시 객체의 터치 영역을 일정 비율 넓게 조정하고, 그에 대응하여 상기 표시 객체의 크기도 일정 비율로 크게 조정할 수 있다.The
도 2는 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치 200의 블록도를 나타낸다. 전자 장치 200은 도 1의 전자 장치 100이 확장된 형태일 수 있다.2 shows a block diagram of an
도 2를 참조하면, 전자 장치 200은 센서 210, 프로세서 220, 메모리 230, 터치 입력 장치 280, 및 디스플레이 290을 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 200은 구성요소들 중 적어도 하나를 생략하거나 다른 구성 요소를 추가적으로 구비할 수 있다. 예컨대, 전자 장치 200은 음성 출력 장치를 더 포함할 수 있다.Referring to FIG. 2, the
센서 210은 도 1의 제 1 터치 센서 110과 동일 또는 유사한 구성을 포함할 수 있다. 예컨대, 센서 210은 생체 인식 센서로서, 지문 인식 센서, 촉각 센서, 또는 pH 농도 센서 중 적어도 하나를 포함할 수 있다. 센서 210은 특정 조건을 만족하는 특정 시점에 터치 물체를 센싱하여 수집된 센서 정보를 프로세서 220에 전달할 수 있다. 한 실시 예에 따르면, 센서 210은 상기 지문 인식 센서를 포함하는 경우 지문 인식 기능 수행 중 수집한 정보를 프로세서 220에 전달하여 손가락 상태를 판단할 수 있다. 다양한 실시 예에 따르면, 센서 210은 패널의 형태로 구성된 터치 센서(예: 터치 입력 장치 280)를 포함할 수도 있다. 이 경우, 센서 210은 터치 인식 기능 수행 중 수집한 터치 정보를 특정 조건을 만족하는 특정 시점에 프로세서 220에 전달할 수 있다. 예컨대, 센서 210은 상기 터치 센서를 기반으로 센싱된 터치 물체의 첫 터치 동작에 대응하는 센서 정보를 프로세서 220에 전달하여 터치 물체의 상태를 판단할 수 있다. 이에 따라, 상기 특정 시점을 포함하여 이후에 센싱한 터치 정보는 터치 입력 장치 280에 전달되어 터치 물체의 상태에 따라 처리될 수 있다.The
다양한 실시 예에 따르면, 센서 210은 터치 물체의 상태가 판단된 시점을 기준으로 지정된 시간 이상이 흐른 시점에 새롭게 수집된 센서 정보를 프로세서 220에 전달하여 터치 물체의 상태를 업데이트할 수 있다. 예컨대, 상기 지문 인식 센서는 손가락 상태가 판단된 시점을 기준으로 지정된 시간이 흐르면 지문 정보를 다시 수집하여 프로세서 220에 전달할 수 있다. 이와 관련하여, 프로세서 220은 상기 지문 인식 센서에 손가락을 접근 또는 접촉할 수 있도록 유도하는 표시 객체 또는 음성 정보를 출력하도록 제어할 수 있다. 또한, 상기 터치 센서는 첫 터치 동작 이후 지정된 시간 이상이 흐른 시점에 센싱된 터치 정보를 프로세서 220에 전달할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 상술한 터치 물체의 상태를 판단 및 업데이트 하는 기능은 복수 개의 센서들에 기반하여 수행될 수 있다. 예컨대, 터치 물체의 상태가 처음 판단 되는 경우에는 상기 지문 인식 센서를 기반으로 수집된 지문 정보를 이용하여 터치 물체 상태 판단 기능을 수행하고 이 후 터치 물체의 상태를 업데이트 하는 경우에는 상기 터치 센서를 기반으로 수집된 터치 정보를 이용하여 터치 물체 상태 업데이트 기능을 수행할 수 있다. 이에 따라 사용자는 터치 물체의 상태를 업데이트하기 위해 별도로 지문 인식 센서에 손가락을 접근 또는 접촉하는 동작을 생략할 수 있다.According to various embodiments, the function of determining and updating the state of the touch object described above may be performed based on a plurality of sensors. For example, when the state of the touch object is first determined, a touch object state determination function is performed using the fingerprint information collected based on the fingerprint recognition sensor, and then, when the state of the touch object is updated, The touch object state update function can be performed using the touch information collected by the touch object. Accordingly, the user can omit the operation of accessing or contacting the finger with the fingerprint recognition sensor separately for updating the state of the touch object.
다양한 실시 예에 따르면, 센서 210은 상기 센서 정보의 수집 과정에서 발생하는 이벤트(예: 지문 인식 이벤트 등)를 프로세서 220에 전달할 수 있다. 예컨대, 센서 210은 상기 센서 정보의 수집 성공에 따른 이벤트(예: 지문 인식 성공 이벤트 등)를 분석하고 프로세서 220에 전달할 수 있다. 다양한 실시 예에 따르면, 프로세서 220은 상기 이벤트(예: 지문 인식 이벤트 등)를 터치 물체 상태 이벤트(예: 손가락 상태 이벤트 등)(또는, 그에 대응되는 정보)로 매핑(mapping)하여 관리할 수 있다. 또한, 프로세서 220은 상기 매핑된 이벤트(또는, 그에 대응되는 명령)를 관련된 구성요소들(예: 터치 입력 장치 280 또는 디스플레이 290 등)에 전달할 수 있다.According to various embodiments, the
프로세서 220은 전자 장치 200에 포함된 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있다. 한 실시 예에 따르면, 프로세서 220은 메모리 230에 저장된 하나 이상의 어플리케이션 프로그램들을 구동하여 프로세서 220에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 예컨대, 프로세서 220은 메모리 230에 저장된 터치 입력 제어 프로그램 231을 구동하여 도 1의 프로세서 130과 동일하거나 또는 유사한 동작 및 기능을 수행할 수 있다.The
다양한 실시 예에 따르면, 프로세서 220은 센서 210을 활성화할 수 있다. 한 실시 예에 따르면, 프로세서 220은 지문 인식 기능 수행과 관련하여 지문 인식 센서를 활성화할 수 있다. 또한, 프로세서 220은 전자 장치 200의 사용 시작 시점 예컨대, 전자 장치 200의 화면이 턴-온(turn-on) 상태로 변경되는 시점에 센서 210을 활성화할 수 있다. 또한, 전자 장치 200은 특정 어플리케이션 프로그램이 실행되거나 또는 특정 어플리케이션 프로그램이 요청하는 시점에 센서 210을 활성화할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 프로세서 220은 센서 210으로부터 전달받은 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다. 한 실시 예에 따르면, 프로세서 220은 터치 입력 제어 프로그램 231의 구현된 동작 또는 기능 수행과 관련하여, 센서 210으로부터 센서 정보를 전달받을 수 있으며, 전달받은 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 프로세서 220은 판단된 터치 물체의 상태에 따라 지정된 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 전자 장치 200에 포함된 해당 구성요소에 전달할 수 있다. 예컨대, 프로세서 220은 터치 물체가 수막 상태인 경우 수막 상태 이벤트(또는, 그에 대응하는 명령)를 터치 입력 장치 280 또는 디스플레이 290에 전달할 수 있다. 이와 관련하여, 상기 터치 물체 상태 이벤트는 터치 물체의 상태가 정상 상태인 경우 정상 상태 이벤트로 지정될 수 있으며, 수막 상태인 경우 수막 상태 이벤트로 지정될 수 있다. 또한, 상기 터치 물체 상태 이벤트는 터치 물체의 상태가 오염막 상태인 경우 오염막 상태 이벤트로 지정될 수 있으며, 장갑 착용 상태인 경우 장갑 착용 상태 이벤트로 지정될 수 있다.According to various embodiments, the
메모리 230은 전자 장치 200의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리 230은 터치 입력 제어 프로그램 231을 저장할 수 있다. 터치 입력 제어 프로그램 231은 터치 입력 처리와 관련된 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.
다양한 실시 예에 따르면, 메모리 230은 터치 물체의 정상 상태 정보를 저장할 수 있다. 예컨대, 메모리 230은 센서 210을 기반으로 터치 물체가 정상 상태일 때 수집된 센서 정보를 저장할 수 있다. 다양한 실시 예에 따르면, 메모리 230은 다양한 이물질의 패턴 정보들을 저장할 수 있다. 예컨대, 메모리 230은 센서 210을 기반으로 상기 이물질(예: 물, 땀, 먼지, 모래, 흙, 또는 장갑 등)을 센싱하여 얻어진 센서 정보를 저장할 수 있다. 또한, 메모리 230은 상기 이물질의 pH 농도, 표면 상태, 전기 전도도, 또는 주파수 스펙트럼 정보 등을 저장할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 메모리 230은 터치 입력 제어 프로그램 231에 구현된 동작 또는 기능 수행과 관련하여, 터치 물체의 상태와 관련된 정보를 저장할 수 있다. 예컨대, 메모리 230은 판단된 터치 물체의 상태, 상태 판단 시점(터치 물체의 상태가 판단된 시점), 조정된 터치 감도의 레벨(민감도), 또는 조정된 표시 객체들의 크기 또는 위치 등의 표시 설정 정보 등을 저장할 수 있다.According to various embodiments, the
터치 입력 장치 280은 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수집할 수 있다. 터치 입력 장치 280은 도 1의 제 2 터치 센서 150과 동일 또는 유사한 구성을 포함할 수 있다. 터치 입력 장치 280은 터치 제어 장치 240 및 터치 패널 250 등을 포함할 수 있다.The
터치 제어 장치 240은 터치 인식 기능과 관련하여 터치 패널 250의 제어 및 데이터 처리를 수행할 수 있다. 한 실시 예에 따르면, 터치 제어 장치 240은 터치 패널 250의 터치 감도를 설정할 수 있다. 예컨대, 정전용량식 터치 입력 방식인 경우, 터치 제어 장치 240은 유효한 터치 입력으로 처리하는 정전용량 변화 크기의 범위를 설정할 수 있다.The
다양한 실시 예에 따르면, 터치 제어 장치 240은 터치 패널 250으로부터 터치 정보(예: 터치 좌표, 터치 시간, 또는 터치 세기 등)를 수신할 수 있다. 또한, 터치 제어 장치 240은 수신된 터치 정보에 대응하는 터치 입력이 유효한 터치 입력인지를 판단할 수 있다. 예컨대, 터치 제어 장치 240은 터치 세기(예: 정전용량 변화 크기)를 상기 터치 감도에 대응하는 터치 세기의 범위와 비교하여 유효한 터치 입력인지를 판단할 수 있다. 또한, 터치 제어 장치 240은 유효한 터치 입력으로 판단된 터치 입력에 대응하는 터치 정보를 프로세서 220에 전달할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 터치 제어 장치 240은 프로세서 220으로부터 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 수신하고, 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)에 따라 터치 기능을 설정할 수 있다. 예컨대, 터치 제어 장치 240은 상기 터치 물체 상태 이벤트가 정상 상태 이벤트인 경우 상기 터치 기능을 일반 기능으로 설정할 수 있으며, 상기 터치 물체 상태 이벤트가 수막 상태 이벤트, 오염막 상태 이벤트, 또는 장갑 착용 상태 이벤트인 경우, 각각 수막 기능, 오염막 기능, 또는 장갑 기능으로 상기 터치 기능을 설정할 수 있다.According to various embodiments, the
이와 관련하여, 상기 터치 기능은 터치 물체의 상태에 따라 터치 패널 250의 터치 감도를 달리하여 터치 입력의 유효성을 판단하는 기능을 포함할 수 있다. 한 실시 예에 따르면, 상기 터치 기능이 수막 기능으로 설정되면, 터치 제어 장치 240은 터치 패널 250의 터치 감도를 낮춰 물 또는 땀 등에 의한 터치 입력은 무효화시키거나 노이즈 처리할 수 있다. 예컨대, 터치 제어 장치 240은 유효한 터치 입력으로 처리되는 정전용량 변화 크기를 높일 수 있다. 이에 따라, 터치 물체에 묻은 물 또는 땀 등과 같이 터치 패널 250에 정전용량 변화를 일으킬 수 있는 물질이 터치 물체와 인접한 지점에 투하되어 터치 패널 250에 접촉되거나, 또는 터치 물체의 접촉점을 기준으로 인접한 영역으로 번지는 경우라 하더라도 터치 제어 장치 240은 물 또는 땀 등에 의한 낮은 정전용량 변화는 무효화시키거나 노이즈 처리할 수 있다. 또한, 상기 터치 기능이 오염막 기능 또는 장갑 기능으로 설정되면, 터치 제어 장치 240은 터치 패널 250의 터치 감도를 높일 수 있다. 이에 따라, 터치 제어 장치 240은 먼지, 모래, 흙, 또는 장갑 등으로 인해 터치 물체의 접근 또는 접촉에 대응하는 정전용량 변화 크기가 낮게 측정되더라도 유효한 터치 입력으로 처리할 수 있다.In this regard, the touch function may include a function of determining the validity of the touch input by changing the touch sensitivity of the
터치 패널 250은 정전식, 감압식, 적외선 방식, 또는 초음파 방식 등으로 터치 물체의 접근 또는 접촉을 감지하는 기능을 수행할 수 있다. 터치 패널 250은 감지된 터치 물체의 접근 또는 접촉에 대응하는 터치 정보 예컨대, 터치 좌표, 터치 시간, 또는 터치 세기 등을 터치 제어 장치 240에 전달할 수 있다. 다양한 실시 예에 따르면, 터치 패널 250은 터치 제어 장치 240을 포함하는 형태로 구성될 수 있다.The
다양한 실시 예에 따르면, 터치 입력 장치 280은 터치 물체의 접근 또는 접촉에 대응하여 수집한 센서 정보를 프로세서 220에 전달할 수 있다. 이 경우, 프로세서 220은 상기 센서 정보를 이용하여 터치 물체의 상태를 판단할 수 있다. 또한, 프로세서 220은 상기 터치 물체의 상태에 대응하는 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 센서 210 또는 터치 입력 장치 280 중 적어도 하나에 전달할 수 있다. 프로세서 220으로부터 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 수신하면, 센서 210 또는 터치 입력 장치 280은 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)에 따라 센서 210 또는 터치 입력 장치 280의 기능 수행과 관련한 캘리브레이션(calibration) 작업(예: 터치 포인트(point) 조정 또는 터치 감도 설정 등)을 수행할 수 있다.According to various embodiments, the
디스플레이 290은 데이터를 시각적으로 화면에 출력할 수 있다. 예컨대, 디스플레이 290은 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)를 표시할 수 있다. 디스플레이 290은 디스플레이 제어 장치 260 및 디스플레이 패널 270 등을 포함할 수 있다.The
디스플레이 제어 장치 260은 화면 표시 기능과 관련하여 디스플레이 패널 270의 제어 및 데이터 처리를 수행할 수 있다. 한 실시 예에 따르면, 디스플레이 제어 장치 260은 프로세서 220으로부터 표시 객체 정보를 수신하여 디스플레이 패널 270에 출력하도록 제어할 수 있다.The display control device 260 can perform control and data processing of the
다양한 실시 예에 따르면, 디스플레이 제어 장치 260은 프로세서 220으로부터 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 수신하고, 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)에 따라 상기 표시 객체의 출력을 제어할 수 있다. 한 실시 예에 따르면, 디스플레이 제어 장치 260은 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)에 따라 상기 표시 객체의 크기 또는 위치 등을 조정하여 표시하도록 제어할 수 있다. 예컨대, 디스플레이 제어 장치 260은 상기 터치 물체 상태 이벤트가 수막 상태 이벤트인 경우, 상기 표시 객체의 크기를 지정된 비율만큼 크게 조정하여 표시하도록 제어할 수 있다.According to various embodiments, the display control device 260 receives a touch object state event (or a corresponding command) from the
다양한 실시 예에 따르면, 디스플레이 제어 장치 260은 프로세서 220으로부터 터치 물체의 다양한 상태에 대응하는 항목들을 포함하는 터치 기능 선택 객체의 정보를 수신하여 디스플레이 패널 270에 표시하도록 제어할 수 있다. 예컨대, 디스플레이 제어 장치 260은 터치 물체의 정상 상태에 대응하는 일반 기능, 수막 상태에 대응하는 수막 기능, 오염막 상태에 대응하는 오염막 기능, 또는 장갑 착용 상태에 대응하는 장갑 기능 등의 항목들을 포함하는 터치 기능 선택 객체를 디스플레이 패널 270에 표시하도록 제어할 수 있다.According to various embodiments, the display control device 260 may receive information of a touch function selection object including items corresponding to various states of the touch object from the
다양한 실시 예에 따르면, 디스플레이 제어 장치 260은 터치 물체의 상태를 나타내는 터치 물체 상태 아이콘(또는 이미지)을 디스플레이 패널 270에 표시하도록 제어할 수 있다. 디스플레이 제어 장치 260은 터치 물체의 상태에 따라 상기 터치 물체 상태 아이콘의 이미지를 다르게 표시하도록 제어할 수 있다. 예컨대, 디스플레이 제어 장치 260은 터치 물체의 상태에 따라 상기 터치 물체 상태 아이콘을 나타내는 이미지의 형태, 색, 또는 크기 등을 다르게 표시하도록 제어할 수 있다. 한 실시 예에 따르면, 디스플레이 제어 장치 260은 터치 입력 처리 기능의 상태(턴-온(turn-on) 상태 또는 턴-오프(turn-off) 상태)에 따라 상기 터치 물체 상태 아이콘의 표시 유/무, 투명도, 또는 배경색 등을 달리하여 표시할 수 있다. 예컨대, 터치 입력 처리 기능을 사용하지 않는 상태(턴-오프 상태)인 경우, 디스플레이 제어 장치 260은 상기 터치 물체 상태 아이콘을 화면에 출력하지 않을 수 있다. 또한, 터치 입력 처리 기능을 사용하는 상태(턴-온 상태)인 경우, 디스플레이 제어 장치 260은 터치 물체의 상태에 따라 형태, 색, 또는 크기 등이 다른 이미지로 설정된 상기 터치 물체 상태 아이콘을 투명도 또는 배경색 등을 달리하여 표시하도록 제어할 수 있다.According to various embodiments, the display control device 260 may control the
디스플레이 패널 270은 사용자에게 각종 콘텐츠 예컨대, 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등과 같은 표시 객체를 표시할 수 있다. 디스플레이 패널 270은 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 다양한 실시 예에 따르면, 디스플레이 패널 270은 디스플레이 제어 장치 260을 포함하는 형태로 구성될 수 있다. 한 실시 예에 따르면, 디스플레이 패널 270은 터치 패널 250과 하나의 모듈로 구성될 수도 있다. 어떤 실시 예에서는, 터치 입력 장치 280과 디스플레이 290이 하나의 모듈로 구성될 수도 있다.
다양한 실시 예에 따르면, 프로세서 220은 터치 제어 장치 240 또는 디스플레이 제어 장치 260에 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 전달하여 터치 설정을 조정하는 대신에, 직접 터치 패널 250의 터치 감도를 조정하거나 또는 디스플레이 패널 270에 표시 객체의 크기 또는 위치 등을 조정하여 표시하도록 제어할 수 있다. 또한, 프로세서 220은 상기 터치 기능 선택 객체 또는 상기 터치 물체 상태 아이콘(또는 이미지)을 디스플레이 패널 270에 표시하도록 제어할 수도 있다.According to various embodiments, instead of adjusting the touch settings by communicating a touch object state event (or a corresponding command) to the
다양한 실시 예에 따르면, 전자 장치 200은 음성 출력 장치를 더 포함할 수 있다. 이 경우, 상기 음성 출력 장치는 터치 물체의 상태와 관련된 음성 정보를 출력할 수 있다. 예컨대, 상기 음성 출력 장치는 터치 물체의 상태가 판단된 시점 또는 터치 물체의 상태에 따라 터치 입력 처리 방식이 조정되는 시점에 터치 물체의 상태와 관련된 음성 정보를 출력할 수 있다.According to various embodiments, the
상술한 바와 같이, 다양한 실시 예에 따르면, 전자 장치(예: 전자 장치 200)는 터치 물체를 센싱하여 센서 정보를 수집하는 제 1 터치 센서(예: 센서 210), 상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 프로세서(예: 프로세서 220), 및 상기 터치 물체의 상태에 따라 터치 감도가 조정되는 제 2 터치 센서(예: 터치 입력 장치 280)를 포함할 수 있다.As described above, according to various embodiments, an electronic device (e.g., electronic device 200) may include a first touch sensor (e.g., sensor 210) that senses a touch object and collects sensor information, A processor (e.g., processor 220) for determining the state of an object, and a second touch sensor (e.g., touch input device 280) whose touch sensitivity is adjusted according to the state of the touch object.
다양한 실시 예에 따르면, 상기 제 1 터치 센서는 지문 인식 센서, 촉각 센서, pH 농도 센서, 또는 터치 센서 중 적어도 하나를 포함할 수 있다.According to various embodiments, the first touch sensor may include at least one of a fingerprint recognition sensor, a tactile sensor, a pH concentration sensor, or a touch sensor.
다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체와 상기 제 1 터치 센서 사이에 이물질이 감지되지 않은 상태에 대응하는 정상 상태 정보, 및 상기 제 1 터치 센서를 기반으로 상기 이물질을 센싱한 정보, 상기 이물질의 pH 농도 정보, 표면 상태 정보, 전기 전도도 정보, 또는 주파수 스펙트럼 정보 중 적어도 하나를 포함하는 상기 이물질의 패턴 정보를 상기 센서 정보와 비교하여 상기 터치 물체의 상태를 판단할 수 있다.According to various embodiments, the processor may further include: steady state information corresponding to a state in which a foreign object is not detected between the touch object and the first touch sensor; information obtained by sensing the foreign object based on the first touch sensor; The state of the touch object can be determined by comparing the pattern information of the foreign object including at least one of the pH concentration information of the foreign substance, the surface state information, the electric conductivity information, and the frequency spectrum information with the sensor information.
다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태에 따라 디스플레이(예: 디스플레이 290)에 출력되는 표시 객체들의 터치 영역을 조정하도록 제어할 수 있다.According to various embodiments, the processor may control to adjust the touch region of display objects output to the display (e.g., display 290) according to the state of the touch object.
다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 영역에 대응하도록 상기 표시 객체들의 크기 또는 위치 중 적어도 하나를 변경하도록 제어할 수 있다.According to various embodiments, the processor may control to change at least one of the size or position of the display objects to correspond to the touch region.
다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태에 대응하는 적어도 하나의 항목을 포함하는 터치 기능 선택 객체를 디스플레이에 표시하도록 제어할 수 있다.According to various embodiments, the processor can control to display on the display a touch function selection object that includes at least one item corresponding to the state of the touch object.
다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 기능 선택 객체를 상기 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 전자 장치에 포함된 특정 물리 버튼이 선택되는 시점, 상기 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 상기 특정 어플리케이션 프로그램이 요청하는 시점, 상기 화면의 일정 영역이 상기 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동되는 시점, 또는 상기 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 중 적어도 하나의 시점에 표시하도록 제어할 수 있다.According to various embodiments, the processor may be configured to switch the touch function selection object from a state in which the screen of the electronic device is turned off to a turn-on state, a state in which the touch input processing function is turned off, A time at which a specific physical button included in the electronic device is selected, a time at which a specific application program included in the electronic device is executed or a time at which the specific application program requests a certain area, It is possible to control the touch object to be displayed at at least one of a time when the touch object moves within a predetermined distance in a predetermined direction in a predetermined direction or a time when the electronic device moves or swivels in a predetermined direction by a predetermined number of times have.
다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태를 판단한 시점을 기준으로 지정된 시간이 경과된 시점에 상기 터치 물체를 센싱하여 수집한 센서 정보를 기반으로 상기 터치 물체의 상태를 업데이트하고, 상기 제 2 터치 센서는 업데이트된 상기 터치 물체의 상태에 따라 터치 감도가 조정될 수 있다.According to various embodiments, the processor updates the state of the touch object based on sensor information collected by sensing the touch object at a point of time after a predetermined time has elapsed based on a time point at which the state of the touch object is determined, And the second touch sensor can be adjusted in touch sensitivity according to the state of the updated touch object.
다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태에 따라 형태, 색, 또는 크기 중 적어도 하나가 다른 이미지로 설정된 아이콘을 디스플레이의 일정 영역에 표시하도록 제어할 수 있다.According to various embodiments, the processor may control to display an icon set in another image of at least one of the shape, color, or size according to the state of the touch object in a certain area of the display.
다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태가 변경되면 상기 터치 물체 상태 변경과 관련한 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 객체의 출력 또는 상기 터치 물체 상태 변경과 관련한 음성 정보의 출력 중 적어도 하나를 제어할 수 있다.According to various embodiments, the processor may further include an output of an object including at least one of a text, an image, or an icon associated with the change of the touch object state when the state of the touch object is changed, And / or the output.
도 3은 다양한 실시 예에 따른 센서 정보에 대응하여 터치 입력을 처리하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다. 다양한 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치 200)는 화면이 턴-오프 상태에서 턴-온 상태로 변경되는 시점 또는 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 또는 특정 어플리케이션 프로그램이 요청하는 시점에 센서(예: 도 2의 센서 210)를 활성화시킬 수 있다.3 illustrates a method of operating an electronic device associated with a method for processing a touch input in response to sensor information according to various embodiments. According to various embodiments, the electronic device (e. G.,
도 3을 참조하면, 동작 310에서와 같이 전자 장치는 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 상기 센서로부터 수신할 수 있다. 예컨대, 전자 장치는 지문 인식 센서로부터 사용자 지문에 포함된 융선들의 길이, 방향, 또는 특이 지점에 대한 정보를 포함하는 지문 정보를 수신하거나, 촉각 센서로부터 터치 물체의 접촉에 대응하는 접촉력의 세기, 방향, 또는 압력의 분포 등의 정보를 포함하는 접촉 상태 정보를 수신하거나, pH 농도 센서로부터 터치 물체의 접촉면에 대한 pH 농도 분포 등의 정보를 수신하거나, 또는 터치 센서로부터 터치 물체의 접근 또는 접촉에 따른 정전용량의 변화 또는 압력의 변화 등으로 판단될 수 있는 터치 정보를 수신할 수 있다.Referring to FIG. 3, as in
상기 센서 정보를 수신하는 동작과 관련하여, 전자 장치는 특정 조건을 만족하는 특정 시점에 상기 센서 정보를 수신할 수 있다. 한 실시 예에 따르면, 전자 장치는 지문 인식 기능과 관련하여 사용자의 지문을 인식하는 시점에 수집된 지문 정보를 상기 지문 인식 센서로부터 수신할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 상기 터치 센서를 기반으로 센싱된 터치 물체의 첫 터치 동작에 대응하는 상기 센서 정보를 수신할 수 있다. 또한, 전자 장치는 첫 터치 동작 이후 지정된 시간 이상이 흐른 시점에 센싱된 터치 동작에 대응하는 상기 센서 정보를 수신할 수도 있다.With respect to the operation of receiving the sensor information, the electronic device may receive the sensor information at a specific time point that satisfies a specific condition. According to one embodiment, the electronic device can receive fingerprint information collected at the time of recognizing the user's fingerprint with respect to the fingerprint recognition function from the fingerprint recognition sensor. According to various embodiments, the electronic device may receive the sensor information corresponding to the first touch operation of the sensed touch object based on the touch sensor. In addition, the electronic device may receive the sensor information corresponding to the sensed touch operation at a point of time longer than a specified time after the first touch operation.
상기 센서 정보를 수신하면, 동작 320에서와 같이, 전자 장치는 상기 센서 정보를 분석하여 터치 물체의 상태를 확인할 수 있다. 한 실시 예에 따르면, 전자 장치는 저장매체(예: 도 2의 메모리 230)에 저장된 터치 물체의 정상 상태 정보와 상기 센서 정보를 비교하여 터치 물체의 상태를 확인할 수 있다. 예컨대, 전자 장치는 상기 지문 인식 센서로부터 수신된 지문 정보와 상기 저장매체에 저장된 정상 상태의 지문 정보(예: 손가락과 지문 인식 센서 사이에 이물질이 감지되지 않은 상태에서 수집된 지문 정보)를 비교하여 손가락 상태를 확인할 수 있다.Upon receipt of the sensor information, the electronic device may analyze the sensor information to confirm the status of the touch object, as in
다양한 실시 예에 따르면, 상기 지문 인식 센서는 사용자의 지문 정보를 내부적으로 분석하여 사용자의 손가락 상태를 판단할 수 있다. 또한, 상기 지문 인식 센서는 사용자의 손가락 상태에 대응하는 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 전자 장치로 전달할 수 있으며, 전자 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 바탕으로 손가락 상태를 확인할 수 있다. 또는, 상기 지문 인식 센서는 사용자의 지문 정보 수집 과정에서 발생하는 지문 인식 이벤트를 전자 장치로 전달할 수 있다. 이 경우, 전자 장치는 상기 지문 인식 이벤트를 손가락 상태 이벤트(또는, 그에 대응하는 정보)로 매핑하여 관리할 수 있다. 이 과정에서, 전자 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 바탕으로 손가락 상태를 확인할 수 있다.According to various embodiments, the fingerprint recognition sensor can internally analyze the fingerprint information of the user to determine the state of the user's finger. Further, the fingerprint recognition sensor may transmit a finger status event (or information corresponding thereto) corresponding to the finger state of the user to the electronic device, and the electronic device may transmit the finger status event (or the corresponding information) The finger status can be confirmed. Alternatively, the fingerprint recognition sensor may transmit a fingerprint recognition event generated in the fingerprint information collection process of the user to the electronic device. In this case, the electronic device can manage the fingerprint recognition event by mapping it to a finger state event (or information corresponding thereto). In this process, the electronic device can confirm the finger state based on the finger state event (or information corresponding thereto).
다양한 실시 예에 따르면, 터치 물체의 상태가 정상 상태인 경우, 동작 330을 스킵할 수 있다. 터치 물체의 상태가 정상 상태가 아닌 경우, 동작 330에서와 같이, 전자 장치는 터치 물체의 상태를 세밀하게 분류할 수 있다. 예컨대, 전자 장치는 터치 물체의 상태를 수막 상태, 오염막 상태, 또는 장갑 착용 상태 등으로 분류할 수 있다. 이와 관련하여, 터치 물체의 상태를 세밀하게 분류하는 방법은 상기 센서 정보를 이용하는 방법 또는 상기 터치 기능 선택 객체를 이용하는 방법을 포함할 수 있다. 상기 터치 물체의 상태를 세밀하게 분류하는 방법과 관련한 전자 장치의 운용 방법은 후술하는 실시 예를 통해 설명하도록 한다.According to various embodiments, if the state of the touch object is in a normal state, then
동작 340에서, 전자 장치는 터치 물체의 상태가 변경되었는지를 판단할 수 있다. 예컨대, 전자 장치는 상기 저장매체에서 이전에 판단되어 저장된 터치 물체의 상태를 확인할 수 있다. 전자 장치는 상기 저장매체 저장된 터치 물체의 상태와 새롭게 판단된 터치 물체의 상태를 비교하여 변경 여부를 판단할 수 있다. 상기 저장매체에 터치 물체의 상태와 관련된 정보가 저장되어 있지 않은 경우, 전자 장치는 새롭게 판단된 터치 물체의 상태 및 상태 판단 시점 등을 상기 저장매체에 저장할 수 있다. 또한, 터치 물체의 상태가 변경된 경우에도 전자 장치는 새롭게 판단된 터치 물체의 상태 및 상태 판단 시점 등을 상기 저장매체에 저장할 수 있다.At
터치 물체의 상태가 변경된 경우, 동작 350에서와 같이, 전자 장치는 터치 물체의 상태에 따른 터치 기능의 설정을 수행할 수 있다. 예컨대, 전자 장치는 터치 물체의 상태에 따라 일반 기능, 수막 기능, 오염막 기능, 또는 장갑 기능 등으로 터치 기능을 설정할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 설정된 터치 기능에 따라 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 상기 터치 입력 장치에 상기 설정된 터치 기능과 관련된 정보를 전달할 수 있다. 예컨대, 전자 장치는 상기 설정된 터치 기능과 관련된 정보를 명령의 형태로 상기 터치 입력 장치에 전달할 수 있다. 상기 터치 입력 장치는 전달받은 정보에 따라 상기 터치 입력 장치의 기능 수행과 관련한 캘리브레이션 작업(예: 터치 포인트 조정 또는 터치 감도 설정 등)을 수행할 수 있다. 또한, 전자 장치는 터치 물체의 상태에 따라 표시 객체의 터치 영역을 조정하고, 그에 대응하여 상기 표시 객체의 크기 또는 위치 등 출력 상태를 제어할 수 있다.If the state of the touch object is changed, as in
터치 물체의 상태가 변경되지 않은 경우, 전자 장치는 이전에 설정된 터치 기능의 설정을 유지할 수 있다. 예컨대, 전자 장치는 상기 터치 입력 장치의 터치 감도를 그대로 유지할 수 있으며, 상기 표시 객체의 출력 상태를 그대로 유지할 수 있다. 동작 360에서와 같이, 전자 장치는 설정된 터치 기능에 따라 상기 센서 정보가 수신된 시점을 포함하여 이후에 감지되는 터치 물체의 접근 또는 접촉에 따른 터치 입력을 처리할 수 있다.If the state of the touch object is not changed, the electronic device can maintain the setting of the previously set touch function. For example, the electronic device can maintain the touch sensitivity of the touch input device as it is, and can maintain the output state of the display object as it is. As in
다양한 실시 예에 따르면, 전자 장치는 상기 저장매체에 저장된 상기 상태 판단 시점을 기준으로 지정된 시간이 경과된 시점에 동작 310 이하의 동작을 수행하도록 제어할 수 있다. 예컨대, 전자 장치는 새롭게 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수신할 수 있으며, 수신된 센서 정보를 기반으로 터치 물체의 상태를 업데이트할 수 있다. 이에 따라, 전자 장치는 터치 물체의 상태 변화를 보다 정확히 판단할 수 있으며, 터치 물체의 상태 변화에 따라 터치 입력 처리 방식을 조정할 수 있다.According to various embodiments, the electronic device may control to perform an operation after the
다양한 실시 예에 따르면, 터치 물체의 상태를 세밀하게 분류하는 방법은 센서(예: 도 2의 센서 210)를 기반으로 수집된 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 이용하는 방법 또는 터치 물체의 다양한 상태에 대응하는 항목들을 포함하는 터치 기능 선택 객체를 이용하는 방법을 포함할 수 있다.According to various embodiments, a method of finely categorizing the state of a touch object may include a method of using sensor information corresponding to approach or contact of the collected touch object based on a sensor (e.g.,
도 4는 다양한 실시 예에 따른 센서 정보를 이용하여 터치 기능을 설정하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.4 illustrates a method of operating an electronic device related to a method of setting a touch function using sensor information according to various embodiments.
먼저 도 4를 참조하면, 동작 410에서와 같이, 전자 장치는 센서를 기반으로 수집된 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 확인할 수 있다. 예컨대, 상기 센서 정보는 지문 인식 센서를 기반으로 수집된 지문 정보, 촉각 센서를 기반으로 수집된 접촉 상태 정보, pH 농도 센서를 기반으로 수집된 접촉면의 pH 농도 분포 정보, 또는 터치 센서를 기반으로 수집된 터치 정보 등을 포함할 수 있다.Referring first to FIG. 4, as in
동작 430에서, 전자 장치는 상기 센서 정보를 분석하여 터치 물체의 상태를 세밀하게 분류할 수 있다. 한 실시 예에 따르면, 전자 장치는 저장매체(예: 도 2의 메모리 230)에 저장된 다양한 이물질의 패턴 정보들을 상기 센서 정보와 비교하여 터치 물체의 상태를 세밀하게 분류할 수 있다. 예컨대, 전자 장치는 다양한 이물질의 패턴 정보들과 상기 센서 정보의 유사도를 판단할 수 있다. 이를 통해, 전자 장치는 터치 물체의 상태를 정상 상태, 수막 상태, 오염막 상태, 또는 장갑 착용 상태 등으로 분류할 수 있다.In
터치 물체의 상태가 분류되면, 동작 450에서와 같이, 전자 장치는 터치 물체의 상태에 따른 터치 기능을 지정할 수 있다. 예컨대, 전자 장치는 터치 기능을 터치 물체의 상태가 정상 상태인 경우 일반 기능으로 지정할 수 있으며, 수막 상태인 경우 수막 기능으로 지정할 수 있다. 또한, 전자 장치는 터치 기능을 터치 물체의 상태가 오염막 상태인 경우 오염막 기능으로 지정할 수 있으며, 장갑 착용 상태인 경우 장갑 기능으로 지정할 수 있다.Once the state of the touch object is classified, as in
터치 기능이 지정되면, 동작 470에서와 같이, 전자 장치는 지정된 터치 기능에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치는 터치 설정을 변경할 수 있다. 한 실시 예에 따르면, 전자 장치는 터치 기능에 따라 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 예컨대, 터치 기능이 수막 기능으로 지정되면, 전자 장치는 터치 입력 장치의 터치 감도를 낮게 조정하여 물 또는 땀 등에 의해 발생되는 터치 입력을 무효화시키거나 노이즈 처리할 수 있다. 또한, 터치 기능이 오염막 기능 또는 장갑 기능으로 지정되면, 전자 장치는 터치 입력 장치의 터치 감도를 높게 조정하여 먼지, 모래, 흙, 또는 장갑 등으로 인해 터치 물체의 접근 또는 접촉에 대응하는 터치 세기가 낮게 측정되어 터치 입력으로 인식되지 못하는 현상을 방지할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 터치 입력 장치에 상기 터치 기능과 관련된 정보를 (예컨대, 명령의 형태로) 전달할 수 있으며, 상기 터치 입력 장치는 전달받는 정보에 따라 상기 터치 입력 장치의 기능 수행과 관련한 캘리브레이션 작업을 수행할 수 있다. 어떤 실시 예에서, 상기 터치 입력 장치는 전달받는 정보에 따라 내부적으로 동작하는 고스트 터치 인식에 대한 알고리즘 및 임계값을 변경할 수 있다.If a touch function is designated, the electronic device can adjust the touch input processing method according to the designated touch function, as in
다양한 실시 예에 따르면, 전자 장치는 지정된 터치 기능에 따라 표시 객체들의 터치 영역을 조정할 수 있다. 또한, 전자 장치는 상기 터치 영역에 대응되도록 상기 표시 객체들의 크기 또는 위치 등 출력 상태를 조정할 수 있다. 예컨대, 터치 기능이 수막 기능으로 지정되면, 전자 장치는 상기 표시 객체들의 크기를 일정 비율로 크게 표시할 수 있다. 이를 통해, 전자 장치는 터치 물체에 묻은 물 또는 땀 등이 번져서 의도하지 않은 영역이 선택되는 것을 방지할 수 있다.According to various embodiments, the electronic device can adjust the touch region of the display objects according to the designated touch function. In addition, the electronic device can adjust the output state such as the size or the position of the display objects to correspond to the touch area. For example, if the touch function is designated as a water film function, the electronic device can display the size of the display objects at a predetermined ratio. As a result, the electronic device can prevent the unintentional region from being selected by spreading water or sweat on the touch object.
상술한 바와 같이 센서를 기반으로 수집된 센서 정보를 이용하여 터치 물체의 상태를 세밀하게 분류하는 방법 대신에 전자 장치는 사용자로부터 터치 물체의 상태를 입력 받을 수 있다. 예컨대, 전자 장치는 터치 물체의 다양한 상태에 대응하는 항목들을 포함하는 터치 기능 선택 객체를 화면에 표시함으로써 사용자로 하여금 터치 물체의 상태를 선택하도록 유도할 수 있다.As described above, instead of the method of finely classifying the state of the touch object using the sensor information collected based on the sensor, the electronic device can receive the state of the touch object from the user. For example, the electronic device can guide the user to select the state of the touch object by displaying a touch function selection object including items corresponding to various states of the touch object on the screen.
도 5는 다양한 실시 예에 따른 터치 기능 선택 객체를 이용하여 터치 기능을 설정하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.FIG. 5 illustrates a method of operating an electronic device related to a method of setting a touch function using a touch function selection object according to various embodiments.
도 5를 참조하면, 동작 510에서와 같이, 전자 장치는 상기 터치 기능 선택 객체를 화면에 표시할 수 있다. 이 경우, 전자 장치는 상기 터치 기능 선택 객체를 통해 사용자로부터 터치 물체의 상태를 입력 받을 수 있다. 사용자 입력이 일정 시간 이상 수신되지 않거나 또는 사용자 입력이 유효한 선택(예: 상기 터치 기능 선택 객체의 항목들 중 어느 하나의 항목이 선택)이 아닌 경우, 전자 장치는 상기 터치 기능 선택 객체의 출력 상태를 유지할 수 있다. 또는, 전자 장치는 상기 터치 기능 선택 객체의 출력을 종료하고 터치 기능을 이전에 설정된 정보로 유지할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 사용자로 하여금 터치 물체의 상태를 선택하도록 유도하는 텍스트, 이미지, 또는 아이콘 등을 포함하는 객체를 화면에 표시하거나, 터치 물체의 상태를 선택하도록 유도하는 음성 정보를 음성 출력 장치를 통해 출력할 수도 있다.Referring to FIG. 5, as in
다양한 실시 예에 따르면, 동작 510에서와 같이 상기 터치 기능 선택 객체를 화면에 표시하는 동작은 특정 조건을 만족하는 특정 시점에 수행될 수도 있다. 한 실시 예에 따르면, 전자 장치는 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 특정 물리 버튼이 선택되는 시점, 특정 어플리케이션 프로그램이 실행되거나 또는 특정 어플리케이션 프로그램이 요청하는 시점, 화면의 일정 영역이 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동(flick 동작)되는 시점, 또는 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 등에 상기 터치 기능 선택 객체를 화면에 표시할 수 있다.According to various embodiments, the act of displaying the touch function selection object on the screen, as in
동작 530에서와 같이, 전자 장치는 상기 유효한 선택 시 발생되는 터치 기능 선택 이벤트를 수신할 수 있다. 예컨대, 전자 장치는 상기 항목에 따라 정상 상태 이벤트, 수막 상태 이벤트, 오염막 상태 이벤트, 또는 장갑 착용 상태 이벤트 등을 수신할 수 있다. 상기 터치 기능 선택 이벤트가 수신되면, 동작 550에서와 같이, 전자 장치는 상기 터치 기능 선택 이벤트에 대응되는 터치 기능을 확인할 수 있다. 예컨대, 전자 장치는 상기 터치 기능 선택 이벤트가 상기 정상 상태 이벤트인 경우 일반 기능으로, 상기 수막 상태 이벤트인 경우 수막 기능으로, 상기 오염막 상태 이벤트인 경우 오염막 기능으로, 또는 상기 장갑 착용 상태 이벤트인 경우 장갑 기능으로 확인할 수 있다.As in
선택된 터치 기능이 확인되면, 동작 570에서와 같이, 전자 장치는 선택된 터치 기능에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치는 터치 설정을 변경할 수 있다. 한 실시 예에 따르면, 전자 장치는 선택된 터치 기능에 따라 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 또한, 전자 장치는 선택된 터치 기능에 따라 표시 객체들의 터치 영역을 조정할 수 있으며, 그에 대응하여 상기 표시 객체들의 출력 상태를 조정할 수 있다.Once the selected touch function is confirmed, as in
상술한 바와 같이, 다양한 실시 예에 따르면, 전자 장치의 터치 입력 처리 방법은 제 1 터치 센서를 기반으로 터치 물체를 센싱하여 센서 정보를 수집하는 동작, 상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 동작, 및 상기 터치 물체의 상태에 따라 제 2 터치 센서의 터치 감도를 조정하는 동작을 포함할 수 있다.As described above, according to various embodiments, a touch input processing method of an electronic device includes an operation of sensing a touch object based on a first touch sensor and collecting sensor information, a state of the touch object corresponding to the sensor information And an operation of adjusting the touch sensitivity of the second touch sensor according to the state of the touch object.
다양한 실시 예에 따르면, 상기 센서 정보를 수집하는 동작은 지문 인식 센서, 촉각 센서, pH 농도 센서, 또는 터치 센서 중 적어도 하나를 기반으로 상기 터치 물체의 접근 또는 접촉에 대응하는 상기 센서 정보를 수집하는 동작을 포함할 수 있다.According to various embodiments, the act of collecting the sensor information may include collecting the sensor information corresponding to approach or touch of the touch object based on at least one of a fingerprint sensor, a tactile sensor, a pH concentration sensor, or a touch sensor Operation.
다양한 실시 예에 따르면, 상기 터치 물체의 상태를 판단하는 동작은 상기 터치 물체와 상기 제 1 터치 센서 사이에 이물질이 감지되지 않은 상태에 대응하는 정상 상태 정보, 및 상기 제 1 터치 센서를 기반으로 상기 이물질을 센싱한 정보, 상기 이물질의 pH 농도 정보, 표면 상태 정보, 전기 전도도 정보, 또는 주파수 스펙트럼 정보 중 적어도 하나를 포함하는 상기 이물질의 패턴 정보를 상기 센서 정보와 비교하는 동작을 포함할 수 있다.According to various embodiments, the operation of determining the state of the touch object may include steady state information corresponding to a state in which no foreign object is detected between the touch object and the first touch sensor, And comparing the sensor information with the pattern information of the foreign object including at least one of the information of sensing the foreign substance, the pH concentration information of the foreign matter, the surface state information, the electric conductivity information, and the frequency spectrum information.
다양한 실시 예에 따르면, 상기 터치 물체의 상태를 판단하는 동작은 상기 터치 물체의 상태에 대응하는 적어도 하나의 항목을 포함하는 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 동작을 포함할 수 있다.According to various embodiments, the act of determining the state of the touch object may include controlling to display on the display a touch function selection object including at least one item corresponding to the state of the touch object.
다양한 실시 예에 따르면, 상기 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 동작은 상기 터치 기능 선택 객체를 상기 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 전자 장치에 포함된 특정 물리 버튼이 선택되는 시점, 상기 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 상기 특정 어플리케이션 프로그램이 요청하는 시점, 상기 화면의 일정 영역이 상기 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동되는 시점, 또는 상기 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 중 적어도 하나의 시점에 표시하도록 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the operation of controlling the display of the touch function selection object on the display may include a point of time when the screen of the electronic device changes from the turned-off state to the turn-on state, A time point at which a specific physical button included in the electronic device is selected, a time point at which a specific application program included in the electronic device is executed or a time point at which the specific application program requests, When the touch object is moved in a predetermined distance by a predetermined distance in a certain direction in a state where a certain area of the screen is pressed by the touch object or when the electronic device moves or rotates by a predetermined number of times The operation of controlling the display of at least one point in time Can.
다양한 실시 예에 따르면, 상기 터치 입력 처리 방법은 상기 터치 물체의 상태에 따라 디스플레이에 출력되는 표시 객체들의 터치 영역을 조정하도록 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the touch input processing method may further include an operation of controlling the touch area of the display objects output to the display according to the state of the touch object.
다양한 실시 예에 따르면, 상기 터치 영역을 조정하도록 제어하는 동작은 상기 터치 영역에 대응하도록 상기 표시 객체들의 크기 또는 위치 중 적어도 하나를 변경하도록 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the operation of controlling the touch area may further include controlling to change at least one of the size or the position of the display objects to correspond to the touch area.
다양한 실시 예에 따르면, 상기 터치 입력 처리 방법은 상기 터치 물체의 상태를 판단한 시점을 기준으로 지정된 시간이 경과된 시점에 상기 터치 물체를 센싱하여 수집한 센서 정보를 기반으로 상기 터치 물체의 상태를 업데이트하는 동작, 및 업데이트된 상기 터치 물체의 상태에 따라 상기 제 2 터치 센서의 터치 감도를 조정하는 동작을 더 포함할 수 있다.According to various embodiments, the touch input processing method includes updating the state of the touch object based on sensor information obtained by sensing the touch object at a point of time when a predetermined time has elapsed based on a time point at which the state of the touch object is determined And adjusting the touch sensitivity of the second touch sensor according to the updated state of the touch object.
다양한 실시 예에 따르면, 상기 터치 입력 처리 방법은 상기 터치 물체의 상태에 따라 형태, 색, 또는 크기 중 적어도 하나가 다른 이미지로 설정된 아이콘을 디스플레이의 일정 영역에 표시하도록 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the touch input processing method may further include an operation of displaying an icon set in at least one of a shape, a color, and a size in a predetermined region of the display according to the state of the touch object have.
다양한 실시 예에 따르면, 상기 터치 입력 처리 방법은 상기 터치 물체의 상태가 변경되면 상기 터치 물체 상태 변경과 관련한 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 객체의 출력 또는 상기 터치 물체 상태 변경과 관련한 음성 정보의 출력 중 적어도 하나를 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the touch input processing method further includes a step of, when the state of the touch object changes, outputting an object including at least one of a text, an image, or an icon related to the change of the touch object state, And outputting the audio information.
도 6은 다양한 실시 예에 따른 지문 인식 센서를 기반으로 터치 물체의 상태를 판단하는 실시 예를 나타낸다.FIG. 6 illustrates an embodiment of determining the state of a touch object based on a fingerprint sensor according to various embodiments.
도 6을 참조하면, 전자 장치 600은 지문 인식 센서가 내장된 물리 버튼(혹은 물리 패널) 610을 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 600은 사용자 인증과 관련하여 사용자 지문 인식 기능을 지원할 수 있다. 전자 장치 600의 화면이 턴-오프된 상태에서, 턴-온 상태 변경을 위한 입력 신호가 발생하면, 전자 장치 600은 상기 지문 인식 센서를 활성화시킬 수 있다. 또한, 전자 장치 600은 사용자의 손가락 630을 상기 지문 인식 센서가 내장된 물리 버튼 610에 접근 또는 접촉하도록 유도할 수 있다. 예컨대, 전자 장치 600은 화면에 지문 인식 기능 사용을 유도하는 텍스트, 이미지, 또는 아이콘 등의 객체를 표시하거나 음성 출력 장치를 통해 지문 인식 기능 사용을 유도하는 음성 정보를 출력할 수 있다.Referring to FIG. 6, the
지문 인식 기능 수행과 관련하여, 상기 지문 인식 센서를 기반으로 센서 정보가 수집되면, 전자 장치 600은 상기 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다. 예컨대, 전자 장치 600은 터치 물체의 상태를 정상 상태, 수막 상태, 오염막 상태, 또는 장갑 착용 상태 등으로 판단할 수 있다. 또한, 전자 장치 600은 판단된 터치 물체의 상태에 따라 터치 기능을 지정할 수 있다. 터치 기능이 지정되면, 전자 장치 600은 지정된 터치 기능에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치 600은 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 또한, 전자 장치 600은 지정된 터치 기능에 따라 표시 객체의 터치 영역을 조정할 수 있으며, 그에 따라 상기 표시 객체의 출력 상태를 조정할 수 있다.When the sensor information is collected based on the fingerprint recognition sensor, the
다양한 실시 예에 따르면, 전자 장치 600은 판단된 터치 물체의 상태에 따라 지정된 터치 기능에 대응하는 정보를 출력할 수 있다. 예컨대, 전자 장치 600은 지정된 터치 기능으로 설정되었음을 알리는 텍스트, 이미지, 또는 아이콘 등을 포함하는 알림 객체 670을 화면에 출력할 수 있다. 또한, 전자 장치 600은 지정된 터치 기능으로 설정되었음을 알리는 음성 정보를 음성 출력 장치를 통해 출력할 수 있다. 다양한 실시 예에 따르면, 전자 장치 600은 알림 객체 670을 팝업 또는 화면 전환 등의 방식으로 표시할 수 있다. 도시된 도면에서는 알림 객체 670이 팝업으로 표시된 형태를 나타낸다. 전자 장치 600은 알림 객체 670이 일정 시간 이상 표시된 상태로 유지되거나, 또는 사용자 입력이 발생하면 알림 객체 670의 화면 출력을 종료하고 이전 화면을 출력하도록 제어할 수 있다. 한 실시 예에 따르면, 알림 객체 670이 팝업으로 표시되는 경우, 전자 장치 600은 일정 시간 동안 일정 시간 간격으로 알림 객체 670의 색, 투명도, 크기, 또는 위치 등을 다르게 하여 표시할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 전자 장치 600은 터치 물체 상태 아이콘 650을 화면의 일정 영역 예컨대, 인디케이터 바에 표시할 수 있다. 전자 장치 600은 터치 물체의 상태에 따라 터치 물체 상태 아이콘 650의 이미지를 다르게 표시할 수 있다. 예컨대, 전자 장치 600은 터치 물체의 상태가 수막 상태인 경우, 물방울 모양 이미지로 터치 물체 상태 아이콘 650을 표시할 수 있다. 또한, 전자 장치 600은 터치 물체의 상태가 장갑 착용 상태인 경우, 장갑 모양 이미지로 터치 물체 상태 아이콘 650을 표시할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 전자 장치 600은 터치 입력 처리 기능의 상태(턴-온 상태 또는 턴-오프 상태)에 따라 터치 물체 상태 아이콘 650의 표시 유/무, 투명도, 또는 배경색 등을 달리하여 표시할 수 있다. 예컨대, 터치 입력 처리 기능이 턴-오프된 상태에서, 턴-온 상태로의 변경을 위한 입력 신호가 발생하면, 전자 장치 600은 터치 물체 상태 아이콘 650을 화면의 일정 영역에 표시할 수 있다. 또한, 터치 입력 처리 기능이 턴-온 상태에서, 턴-오프 상태로의 변경을 위한 입력 신호가 발생하면, 전자 장치 600은 터치 물체 상태 아이콘 650을 화면에 출력하지 않거나, 터치 물체 상태 아이콘 650의 투명도를 높여 흐리게 표시하거나, 또는 터치 물체 상태 아이콘 650의 배경색 등을 다르게 표시할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 전자 장치 600에 포함된 프로세서(예: 도 2의 프로세서 220)는 상기 지문 인식 센서를 기반으로 수집된 정보 또는 상기 수집된 정보를 변환한 정보 등을 터치 제어 장치(예: 도 2의 터치 제어 장치 240)에 전달할 수 있다. 상기 터치 제어 장치는 상기 정보(상기 수집된 정보 또는 상기 변환한 정보)를 이용하여 터치 패널(예: 도 2의 터치 패널 250)의 터치 감도를 조정할 수 있다. 어떤 실시 예에서는, 상기 프로세서는 상기 정보에 대응하는 이벤트(예: 터치 물체 상태 이벤트)(또는, 그에 대응하는 명령)를 상기 터치 입력 장치에 전달하여, 상기 터치 입력 장치가 터치 감도를 조정할 수 있도록 제어할 수 있다. 예를 들면, 상기 프로세서는 상기 지문 센서를 기반으로 터치 물체의 상태가 수막 상태인지를 판단할 수 있다. 또한, 상기 프로세서는 수막 상태에 대응하는 수막 상태 이벤트(또는, 그에 대응하는 명령)를 상기 터치 입력 장치에 전달하여 상기 터치 입력 장치의 터치 감도를 조정하도록 제어할 수 있다.According to various embodiments, a processor (e.g.,
도 7은 다양한 실시 예에 따른 터치 기능 선택 객체를 나타낸다. 전자 장치 700은 터치 물체의 다양한 상태에 대응하는 터치 기능들을 항목들로 포함하는 터치 기능 선택 객체를 표시할 수 있다. 예컨대, 전자 장치 700은 일반 기능, 수막 기능, 오염막 기능, 또는 장갑 기능 등을 항목들로 포함하는 터치 기능 선택 객체를 표시할 수 있다.7 shows a touch function selection object according to various embodiments. The
도 7을 참조하면, 전자 장치 700은 상단 메뉴(화면의 상단 영역을 누른 상태에서 아래로 드래그(drag)하면 표시되는 메뉴)에 서브 메뉴 형식으로 터치 기능 선택 객체를 표시할 수 있다. 예컨대, 전자 장치 700은 현재 설정된 터치 기능에 대응하는 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 서브 메뉴 객체 710을 상단 메뉴에 표시할 수 있다. 전자 장치 700은 터치 기능에 따라 서브 메뉴 객체 710의 텍스트, 이미지, 또는 아이콘 등을 변경하여 표시할 수 있다. 다양한 실시 예에 따르면, 전자 장치 700은 서브 메뉴 객체 710이 선택되면, 현재 설정된 터치 기능을 변경할 수 있다. 예컨대, 전자 장치 700은 서브 메뉴 객체 710이 선택되면 현재 설정된 터치 기능을 일반 기능, 수막 기능, 오염막 기능, 또는 장갑 기능 중 적어도 하나로 변경할 수 있다. 이 경우, 전자 장치 700은 새롭게 설정된 터치 기능에 대응하도록 서브 메뉴 객체 710의 텍스트, 이미지, 또는 아이콘 등을 변경하여 표시할 수 있다. 전자 장치 700은 터치 입력 처리 기능의 상태에 따라 서브 메뉴 객체 710의 투명도, 색, 또는 배경색 등을 달리하여 표시할 수 있다.Referring to FIG. 7, the
다양한 실시 예에 따르면, 전자 장치 700은 화면의 일정 영역에 팝업 형식으로 터치 기능 선택 객체를 표시할 수 있다. 예컨대, 전자 장치 700은 터치 기능들(일반 기능, 수막 기능, 오염막 기능, 또는 장갑 기능 등)에 대응하는 텍스트, 이미지, 또는 아이콘 등을 항목들로 포함하는 팝업 객체 730을 화면의 일정 영역에 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 700은 사용자가 상기 항목들 중에서 어느 하나의 항목을 선택할 수 있도록 상기 항목들을 버튼 객체로 구성하거나 또는 버튼 객체를 더 포함시켜 구성할 수 있다. 또한, 전자 장치 700은 상기 항목들 중에서 어느 하나의 항목이 선택되면, 현재 설정된 터치 기능을 선택된 항목에 대응하는 터치 기능으로 변경할 수 있다.According to various embodiments, the
다양한 실시 예에 따르면, 전자 장치 700은 팝업 객체 730이 일정 시간 이상 표시된 상태로 유지되거나 또는 사용자 입력이 수신되면 팝업 객체 730의 화면 출력을 종료할 수 있다. 이 경우, 전자 장치 700은 팝업 객체 730과 관련된 리소스(resource)를 반환하도록 처리할 수 있다. 한 실시 예에 따르면, 전자 장치 700은 팝업 객체 730이 일정 시간 이상 표시된 상태로 유지되어 화면 출력을 종료하는 경우 또는 사용자 입력이 유효한 선택(예: 팝업 객체 730에 포함된 항목을 선택)이 아닌 경우, 현재 설정된 터치 기능을 유지할 수 있으며 팝업 객체 730이 표시되기 전 화면으로 복귀하도록 처리할 수 있다. 다양한 실시 예에 따르면, 전자 장치 700은 사용자 입력이 유효한 선택인 경우, 현재 설정된 터치 기능을 선택된 터치 기능으로 변경할 수 있다. 이 경우, 전자 장치 700은 팝업 객체 730의 화면 출력을 종료하고, 선택된 터치 기능으로 변경되었음을 알리는 텍스트, 이미지, 또는 아이콘 등을 포함하는 객체를 화면에 출력할 수 있다. 또한, 전자 장치 700은 선택된 터치 기능으로 변경되었음을 알리는 음성 정보를 음성 출력 장치를 통해 출력할 수도 있다.According to various embodiments, the
다양한 실시 예에 따르면, 전자 장치 700은 터치 기능 선택 객체를 화면 전환 방식으로 표시할 수도 있다. 예컨대, 전자 장치 700은 터치 기능들에 대응하는 텍스트, 이미지, 또는 아이콘 등을 항목들로 포함하는 리스트 등의 객체를 전체 화면에 구성하여 표시할 수 있다.According to various embodiments, the
도 8은 다양한 실시 예에 따른 터치 물체의 상태에 따라 터치 감도를 조정하는 실시 예를 나타낸다.FIG. 8 shows an embodiment for adjusting the touch sensitivity according to the state of the touch object according to various embodiments.
도 8을 참조하면, 전자 장치 800은 터치 패널 810을 포함할 수 있다. 터치 패널 810은 전자 장치 800의 화면 표시 영역이 세로 방향 및 가로 방향으로 나뉘어 격자 모양을 띠는 하나 이상의 셀로 구성될 수 있다. 예컨대, 터치 패널 810은 복수 개의 세로 방향 선 811 및 복수 개의 가로 방향 선 813이 만나는 지점을 중심으로 일정 영역을 차지하는 복수 개의 셀로 구성될 수 있다. 또한, 터치 패널 810은 각각의 세로 방향 선 811 및 각각의 가로 방향 선 813이 만나는 지점을 각각의 셀에 대응하는 터치 좌표로 지정할 수 있다.Referring to FIG. 8, the
다양한 실시 예에 따르면, 손가락 830에 물 또는 땀 등이 묻은 상태로 터치 동작을 수행하는 경우, 손가락 830이 접촉되는 영역 831을 기준으로 물 또는 땀 등이 번지는 영역 850이 생길 수 있다. 전자 장치 800은 영역 831에 포함된 터치 좌표 833을 유효한 터치 입력에 대응하는 터치 좌표로 인식할 수 있다. 또한, 전자 장치 800은 영역 850에 포함된 터치 좌표 851을 유효한 터치 입력에 대응하는 터치 좌표로 인식할 수도 있다. 그러나 터치 좌표 851은 사용자가 의도하지 않은 터치 좌표일 수 있다. 또한, 물 또는 땀 등이 묻은 상태로 터치 동작을 수행하는 경우, 물 또는 땀 등이 투하된 영역 870이 생길 수 있다. 이 경우, 전자 장치 800은 영역 870에 포함된 터치 좌표 871을 유효한 터치 입력에 대응하는 터치 좌표로 인식할 수 있다.According to various embodiments, when a touch operation is performed in a state where water or sweat is applied to the
상술한 바와 같이 사용자가 의도하지 않은 터치 좌표가 인식되는 것을 방지하기 위해 전자 장치 800은 터치 물체의 상태에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치 800은 터치 물체의 상태에 따라 터치 패널 810의 터치 감도를 조정할 수 있다. 한 실시 예에 따르면, 전자 장치 800은 터치 물체의 상태가 수막 상태로 판단되면 터치 패널 810의 터치 감도를 낮게 조정할 수 있다. 예컨대, 전자 장치 800은 정전용량 변화의 크기가 지정된 크기 이상일 경우에만 유효한 터치 입력으로 처리되도록 터치 감도를 조정할 수 있다. 이에 따라, 전자 장치 800은 손가락 830의 접촉에 대응하는 정전용량 변화는 유효한 터치 입력으로 처리할 수 있으며, 물 또는 땀 등으로 인한 정전용량 변화는 무효화시키거나 노이즈 처리할 수 있다. 또한, 전자 장치 800은 터치 좌표 833만을 유효한 터치 입력에 대응하는 터치 좌표로 처리할 수 있다.As described above, in order to prevent the unintended touch coordinates from being recognized by the user, the
도 9는 다양한 실시 예에 따른 터치 물체의 상태에 따라 표시 객체의 출력 상태를 조정하는 실시 예를 나타낸다. 전자 장치 900은 터치 물체의 상태에 따라 터치 감도를 조정하는 방법뿐만 아니라 표시 객체의 터치 영역을 조정하는 방법을 더 수행할 수 있다. 또한, 전자 장치 900은 상기 표시 객체의 터치 영역에 대응하도록 상기 표시 객체의 출력 상태를 조정할 수 있다.9 shows an embodiment for adjusting the output state of a display object according to the state of a touch object according to various embodiments. The
도 9를 참조하면, 전자 장치 900은 터치 물체의 상태에 따라 화면 910을 화면 930으로 변경하여 표시할 수 있다. 전자 장치 900은 터치 물체의 상태를 판단하고, 상태 변경이 확인되면, 상기 표시 객체의 터치 영역을 조정할 수 있다. 또한, 전자 장치 900은 상기 표시 객체의 터치 영역에 대응하도록 상기 표시 객체의 출력 상태를 변경할 수 있다. 예를 들면, 전자 장치 900은 터치 물체의 상태가 정상 상태인 경우에 화면 910을 표시할 수 있다. 또한, 전자 장치 900은 터치 물체의 상태가 수막 상태로 변경되면 화면 910에 표시된 상기 표시 객체의 터치 영역을 일정 비율로 크게 조정할 수 있다. 이 경우, 전자 장치 900은 상기 표시 객체의 터치 영역에 대응하도록 상기 표시 객체의 크기를 일정 비율로 크게 조정한 화면 930을 출력할 수 있다. 상술한 방법을 통해 전자 장치 900은 터치 입력을 보다 정확하게 인식할 수 있도록 제어할 수 있다.Referring to FIG. 9, the
도 10은 다양한 실시 예에 따른 지문 인식 센서를 기반으로 터치 입력을 처리하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다. 다양한 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치 200)는 전자 장치의 특정 기능 수행 상태에 따라 상기 지문 인식 센서를 통해 감지된 터치 입력(예: 손가락 터치)을 다르게 처리할 수 있다. 예컨대, 전자 장치는 지문 인식 기능의 수행 상태인지 또는 터치 물체(예: 손가락)의 상태를 판단하는 기능의 수행 상태인지에 따라 상기 터치 입력을 다르게 처리할 수 있다.10 illustrates a method of operating an electronic device associated with a method for processing a touch input based on a fingerprint sensor according to various embodiments. According to various embodiments, an electronic device (e.g.,
도 10을 참조하면, 전자 장치는 동작 1010에서와 같이, 상기 지문 인식 센서를 기반으로 손가락 터치를 감지할 수 있다. 또한, 전자 장치는 동작 1020에서와 같이, 지문 인식 기능의 수행 상태인지를 판단할 수 있다. 한 실시 예에 따르면, 전자 장치의 전원이 꺼진 상태에서 켜지는 시점에, 전자 장치는 지문 인식 기능을 수행할 수 있다. 또한, 전자 장치는 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변경되는 시점 또는 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 특정 어플리케이션 프로그램이 요청하는 시점에, 지문 인식 기능을 수행할 수 있다.Referring to FIG. 10, the electronic device may sense a finger touch based on the fingerprint recognition sensor, as in
지문 인식 기능의 수행 상태인 경우, 동작 1030에서와 같이, 전자 장치는 손가락 터치에 대응하는 센서 정보를 기반으로 지문 인식 기능을 수행할 수 있다. 예컨대, 전자 장치는 상기 센서 정보에 대응하는 사용자 지문 정보(예: 사용자 지문에 포함된 융선들의 길이, 방향, 또는 특이 지점에 대한 정보 등)를 수집할 수 있다. 또한, 전자 장치는 상기 지문 정보를 이용해 사용자 인증 등의 기능을 수행할 수 있다.In the case of the fingerprint recognition function, as in
지문 인식 기능의 수행 상태가 아닌 경우, 동작 1040에서와 같이, 전자 장치는 손가락 상태를 판단하는 기능의 수행 상태인지를 판단할 수 있다. 어떤 실시 예에서는, 지문 인식 기능의 수행 상태가 아닌 경우, 전자 장치는 동작 1040을 스킵(skip)하고 동작 1050 이하의 동작들을 수행할 수 있다. 다양한 실시 예에 따르면, 지문 인식 기능의 수행 상태인 경우라 하더라도, 전자 장치는 동작 1030의 수행과 함께 동작 1050 이하의 동작들을 수행할 수도 있다.If the fingerprint recognition function is not performed, the electronic device can determine whether the fingerprint recognition function is being performed, as in
다양한 실시 예에 따르면, 전자 장치는 특정 물리 버튼(예: 홈 버튼 또는 파워 버튼 등)의 동작이 지정된 조건을 만족하는 시점, 홈 화면 또는 메뉴 화면 등에 구성된 특정 객체(예: 아이콘(또는 이미지) 등)가 선택되는 시점, 또는 특정 어플리케이션 프로그램이 실행되거나 특정 어플리케이션 프로그램이 요청하는 시점 등에 손가락 상태를 판단하는 기능을 수행할 수 있다. 예컨대, 특정 물리 버튼이 지정된 시간 안에 지정된 횟수로 선택되거나(예: 눌리거나), 또는 전자 장치가 지문 인식 수행을 완료한 시점에 특정 물리 버튼이 선택되는 경우, 전자 장치는 손가락 상태 판단 기능을 수행할 수 있다. 또한, 터치 입력 처리 기능의 상태를 변경할 수 있도록 기능하는 특정 객체(예: 도 6의 터치 물체 상태 아이콘 650)가 선택되는 시점에 전자 장치는 손가락 상태 판단 기능을 수행할 수 있다. 전자 장치는 특정 어플리케이션 프로그램 예컨대, 건강 관리 어플리케이션 프로그램이 실행되는 시점에 손가락 상태 판단 기능을 수행할 수도 있다.According to various embodiments, the electronic device may include a specific object (e.g., an icon (or image), etc.) configured at a point in time when an action of a particular physical button (e.g., a home button or a power button) May be selected, or a function of determining a finger state, for example, when a specific application program is executed or when a specific application program requests it. For example, when a specific physical button is selected (e.g., pressed) a predetermined number of times within a specified time, or when a specific physical button is selected at the time when the electronic device completes performing the fingerprint recognition, the electronic device performs a finger state determination function can do. In addition, the electronic device can perform a finger state determination function at a time point when a specific object (e.g., the touch
다양한 실시 예에 따르면, 전자 장치는 상기 지문 인식 센서를 기반으로 동작 1030과 같이 지문 인식 기능을 수행하는 동시에 또는 일정 시간 간격을 두고, 상기 지문 인식 센서를 통해 수집된 정보를 활용해 동작 1050 이하의 동작들을 수행할 수 있다. 예컨대, 전자 장치는 지문 인식 기능 수행 중 특정 지문 인식 이벤트가 발생하면, 상기 특정 지문 인식 이벤트, 상기 특정 지문 인식 이벤트에 대응하는 손가락 상태 이벤트, 또는 상기 지문 인식 센서를 기반으로 수집된 정보를 프로세서(예: 도 2의 프로세서 220) 또는 터치 입력 장치(예: 도 2의 터치 입력 장치 280) 중 적어도 하나에 전달하여 터치 입력을 처리하도록 제어할 수 있다. 어떤 실시 예에서, 전자 장치는 상기 지문 인식 센서를 기반으로 수집된 정보를 메모리(예: 도 2의 메모리 230)에 저장할 수도 있다. 이 경우, 전자 장치는 특정 시점에 상기 메모리에 저장된 상기 정보를 기반으로 손가락 상태를 판단할 수도 있다.According to various embodiments, the electronic device performs the fingerprint recognition function, such as
동작 1050에서, 전자 장치는 상기 센서 정보에 대응하는 손가락 상태 정보를 확인할 수 있다. 한 실시 예에 따르면, 전자 장치는 상기 센서 정보를 분석하여 손가락 상태를 판단할 수 있다. 또는, 전자 장치는 상기 지문 인식 기능 수행 중 발생한 지문 인식 이벤트 또는 상기 지문 인식 이벤트에 대응하는 손가락 상태 이벤트 등을 통해 손가락 상태를 확인할 수도 있다.At
동작 1060에서, 전자 장치는 손가락 상태에 따라 터치 기능을 설정할 수 있다. 예컨대, 전자 장치는 손가락 상태가 수막 상태, 오염막 상태, 또는 장갑 착용 상태인 경우, 각각 수막 기능, 오염막 기능, 또는 장갑 기능으로 상기 터치 기능을 설정할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 상기 터치 입력 장치에 전달할 수 있다. 이 경우, 상기 터치 입력 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 기반으로, 상기 터치 입력 장치 내부에서 상기 터치 기능을 설정(예: 터치 감도 조절 또는 고스트 터치 입력 제거 기능 수행 등)하도록 제어할 수 있다. 동작 1070에서, 전자 장치는 설정된 상기 터치 기능에 따라 터치 입력을 처리할 수 있다.In
도 11은 다양한 실시 예에 따른 손가락 상태 이벤트 테이블을 나타낸다. 다양한 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치 200)는 터치 물체 상태 이벤트(예: 손가락 상태 이벤트)를 통해 터치 물체(예: 손가락)의 상태를 확인할 수 있다. 예컨대, 전자 장치는 터치 입력 처리를 제어할 수 있도록 구현된 프로그램(예: 도 2의 터치 입력 제어 프로그램)을 포함할 수 있다. 전자 장치는 상기 터치 입력 제어 프로그램에 구현된 처리 루틴에 따라 터치 물체 상태 이벤트를 통해 터치 물체의 상태를 확인할 수 있다. 이 경우, 상기 터치 입력 제어 프로그램은 터치 물체 상태 이벤트에 대응하는 터치 물체의 상태를 지정하는 터치 물체 상태 이벤트 테이블(예: 손가락 상태 이벤트 테이블 1110)을 포함할 수 있다. 한 실시 예에 따르면, 전자 장치는 상기 터치 물체 상태 이벤트 테이블을 메모리(예: 도 2의 메모리 230)에 저장할 수도 있다.11 shows a finger status event table according to various embodiments. According to various embodiments, an electronic device (e.g.,
도 11을 참조하면, 손가락 상태 이벤트 테이블 1110은 손가락 상태에 대응하는 이벤트 정보를 포함할 수 있다. 예를 들어, 손가락 상태 이벤트 테이블 1110은 손가락 상태에 따라 지정된 이벤트의 식별자 정보를 포함할 수 있다. 또한, 손가락 상태 이벤트 테이블 1110은 센서(예: 도 2의 센서 210)의 동작 상태 정보를 포함할 수도 있다. 한 실시 예에 따르면, 손가락 상태 이벤트 테이블 1110은 상기 센서 관련 하드웨어 또는 소프트웨어 오류 정보, 또는 상기 센서를 통해 손가락 상태에 대응하는 센서 정보 수집 중 발생하는 인터럽트(interrupt) 정보 등을 포함할 수 있다. 예컨대, 손가락 상태 이벤트 테이블 1110은 센서 정보 수집 중 발생하는 상기 센서의 오류 정보 또는 인터럽트 정보 등에 대응하는 이벤트의 식별자 정보를 포함할 수 있다. Referring to FIG. 11, the finger status event table 1110 may include event information corresponding to the finger status. For example, the finger status event table 1110 may include identifier information of an event specified according to the finger status. In addition, the finger status event table 1110 may include the operation status information of the sensor (e.g., the
도 12는 다양한 실시 예에 따른 지문 인식 이벤트에 대응하는 손가락 상태 이벤트를 설명하기 위한 도면을 나타낸다.12 shows a diagram for explaining a finger status event corresponding to a fingerprint recognition event according to various embodiments.
도 12를 참조하면, 전자 장치(예: 도 2의 전자 장치 200)는 지문 인식 이벤트 1210을 손가락 상태 이벤트 1230(또는, 그에 대응하는 정보)에 대응시킬 수 있다. 한 실시 예에 따르면, 지문 인식 센서(예: 도 2의 센서 210)는 센서 정보의 수집 과정에서 발생하는 지문 인식 이벤트 1210을 전자 장치에 전달할 수 있다. 예컨대, 상기 지문 인식 센서는 지문 인식에 성공한 경우, 상기 센서 정보 또는 지문 인식 성공에 대응하는 지문 인식 성공 이벤트(예: 지문 인식 이벤트 1210 중 식별자가 "STATUS_GOOD"으로 지정된 이벤트) 중 적어도 하나를 프로세서(예: 도 2의 프로세서 220)에 전달할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 지문 인식 이벤트 1210을 이벤트 발생 시간 정보와 함께 메모리(예: 도 2의 메모리 230)에 저장할 수도 있다.Referring to FIG. 12, an electronic device (e.g.,
다양한 실시 예에 따르면, 전자 장치는 지문 인식 이벤트 1210를 손가락 상태 이벤트 1230(또는, 그에 대응하는 정보)로 매핑하여 관리할 수 있다. 예컨대, 전자 장치는 지문 인식 성공 이벤트(예: 지문 인식 이벤트 1210 중 식별자가 "STATUS_GOOD"으로 지정된 이벤트) 발생에 대응하여 해당 이벤트를 정상 상태의 손가락 상태 이벤트(예: 손가락 상태 이벤트 1230 중 식별자가 "STATUS_FINGERCONDITION_GOOD"으로 지정된 이벤트)(또는, 그에 대응하는 정보) 또는 마른 상태의 손가락 상태 이벤트(예: 손가락 상태 이벤트 1230 중 식별자가 "STATUS_FINGERCONDITION_DRY"로 지정된 이벤트)(또는, 그에 대응하는 정보) 중 적어도 하나에 매핑하여 관리할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 터치 입력 장치(예: 도 2의 터치 입력 장치 280) 또는 디스플레이(예: 도 2의 디스플레이 290) 중 적어도 하나에 전달할 수 있다. 예컨대, 전자 장치는 지문 인식 이벤트 1210 중 손가락이나 상기 지문 인식 센서가 젖은 상태 이벤트(예: 식별자가 "IMAGE_QUALITY_WET_FINGER"로 지정된 이벤트) 발생에 대응하여, 해당 이벤트를 젖은 손가락 상태 이벤트(예: 손가락 상태 이벤트 1230 중 식별자가 "STATUS_FINGERCONDITION_WET"으로 지정된 이벤트)(또는, 그에 대응하는 정보)에 매핑하여 관리할 수 있다. 또한, 전자 장치는 상기 젖은 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 상기 터치 입력 장치 또는 상기 디스플레이 중 적어도 하나에 전달하여 터치 입력을 처리하도록 제어할 수 있다.According to various embodiments, the electronic device may manage the fingerprint recognition event 1210 by mapping it to a finger state event 1230 (or information corresponding thereto). For example, the electronic device responds to the occurrence of a fingerprint recognition success event (e.g., an event whose identifier is identified as "STATUS_GOOD" in the fingerprint recognition event 1210) as a finger state event in a normal state (e.g., STATUS_FINGERCONDITION_GOOD ") (or information corresponding thereto) or a finger state event in a dry state (e.g., an event specified by the identifier" STATUS_FINGERCONDITION_DRY "in the finger state event 1230) (or information corresponding thereto) Can be managed by mapping. According to various embodiments, the electronic device may provide the finger state event (or corresponding information) to at least one of a touch input device (e.g.,
다양한 실시 예에 따르면, 전자 장치는 상기 메모리에 저장된 지문 인식 이벤트 1210 및 이벤트 발생 시간 정보를 기반으로 터치 입력을 처리하도록 제어할 수 있다. 예컨대, 전자 장치는 상기 이벤트 발생 시간 정보를 기반으로 가장 최근에 저장된 지문 인식 이벤트 1210을 확인할 수 있다. 전자 장치는 지문 인식 이벤트 1210의 저장 시간이 지정된 시간을 초과하지 않은 경우, 지문 인식 이벤트 1210에 대응하는 손가락 상태 이벤트 1230(또는, 그에 대응하는 정보)을 상기 터치 입력 장치 또는 상기 디스플레이 중 적어도 하나에 전달하여 터치 입력을 처리하도록 제어할 수 있다. 한 실시 예에 따르면, 지문 인식 이벤트 1210의 저장 시간이 지정된 시간을 초과한 경우, 전자 장치는 상기 지문 인식 센서에 손가락을 접근 또는 접촉할 수 있도록 유도하는 표시 객체 또는 음성 정보를 출력하도록 제어할 수 있다.According to various embodiments, the electronic device can control to process the touch input based on the fingerprint recognition event 1210 and the event occurrence time information stored in the memory. For example, the electronic device can identify the most recently stored fingerprint recognition event 1210 based on the event occurrence time information. If the storage time of the fingerprint recognition event 1210 does not exceed the designated time, the electronic device sends a finger state event 1230 (or corresponding information) corresponding to the fingerprint recognition event 1210 to at least one of the touch input device or the display To control the touch input to be processed. According to one embodiment, when the storage time of the fingerprint recognition event 1210 exceeds a specified time, the electronic device can control to output a display object or voice information that induces the fingerprint sensor to access or contact the finger have.
다양한 실시 예에 따르면, 센서(예: 도 2의 센서 210)의 센서 정보 수집 중 발생하는 이벤트(예: 지문 인식 이벤트 1210 등) 및 터치 물체 상태 이벤트(예: 손가락 상태 이벤트 1230 등)(또는, 그에 대응하는 정보)의 매핑 및 관리 작업은 터치 입력 제어 프로그램(예: 도 2의 터치 입력 제어 프로그램 231)에 구현된 처리 루틴에 따라 수행될 수 있다. 도시된 도면에서는, 전자 장치가 지문 인식 센서의 지문 인식 이벤트 1210을 손가락 상태 이벤트 1230(또는, 그에 대응하는 정보)에 매핑하는 경우에 대해서만 나타냈지만, 이 외에도 전자 장치는 다양한 센서의 이벤트를 터치 물체 상태 이벤트(예: 손가락 상태 이벤트 1230 등)에 매핑하여 관리할 수 있다.According to various embodiments, events (e.g., fingerprint recognition events 1210, etc.) and touch object state events (e.g., finger status events 1230, etc.) that occur during sensor information collection (e.g.,
도 13은 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 운용 방법을 나타낸다.13 illustrates a method of operating an electronic device associated with touch input processing according to various embodiments.
도 13을 참조하면, 동작 1310에서, 전자 장치(예: 도 2의 전자 장치 200)는 센서(예: 도 2의 센서 210)를 기반으로 터치 물체를 센싱하여 센서 정보를 수집할 수 있다. 예컨대, 상기 센서는 상기 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수집할 수 있다.Referring to FIG. 13, at
다양한 실시 예에 따르면, 상기 센서는 수집된 센서 정보를 전자 장치에 전달할 수 있다. 한 실시 예에 따르면, 상기 센서는 상기 센서 정보의 수집과 관련하여 발생하는 이벤트(예: 도 12의 지문 인식 이벤트 1210 등)를 전자 장치에 전달할 수도 있다. 이 경우, 전자 장치는 상기 이벤트를 터치 물체 상태 이벤트(예: 도 12의 손가락 상태 이벤트 1230 등)(또는, 그에 대응하는 정보)에 매핑하여 관리할 수 있다.According to various embodiments, the sensor may communicate the collected sensor information to the electronic device. According to one embodiment, the sensor may communicate to an electronic device an event (e.g., a fingerprint recognition event 1210 in Figure 12) that occurs in association with the collection of the sensor information. In this case, the electronic device can manage the event by mapping the event to a touch object state event (e.g., finger state event 1230 in FIG. 12) (or information corresponding thereto).
동작 1330에서, 전자 장치는 상기 센서 정보를 기반으로 상기 터치 물체의 상태를 판단할 수 있다. 예컨대, 전자 장치는 상기 센서 정보를 분석하고, 분석된 정보와 상기 터치 물체의 정상 상태 정보 및 이물질의 패턴 정보를 비교하여 상기 터치 물체의 상태를 판단할 수 있다. 한 실시 예에 따르면, 전자 장치는 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 정보)를 기반으로 상기 터치 물체의 상태를 판단할 수도 있다.In
동작 1350에서, 전자 장치는 판단된 상기 터치 물체의 상태에 따라 터치 설정을 조정할 수 있다. 한 실시 예에 따르면, 전자 장치는 상기 터치 물체의 상태에 따라 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 또한, 전자 장치는 상기 터치 물체의 상태에 따라 디스플레이(예: 도 2의 디스플레이 290)에 표시되는 표시 객체들의 터치 영역을 조정할 수 있으며, 그에 따라 상기 표시 객체의 출력 상태를 조정할 수 있다.At
도 14는 다양한 실시 예에 따른 네트워크 환경 1400 내의 전자 장치 1401을 나타낸다.14 shows an electronic device 1401 in a
도 14를 참조하면, 전자 장치 1401은 버스 1410, 프로세서 1420, 메모리 1430, 입출력 인터페이스 1450, 디스플레이 1460, 및 통신 인터페이스 1470을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치 1401은, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.14, an electronic device 1401 may include a
버스 1410은, 예를 들면, 구성요소들 1410-1470을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.The
프로세서 1420은, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서 1420은, 예를 들면, 전자 장치 1401의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.Processor 1420 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP). Processor 1420 may perform computations or data processing related to, for example, control and / or communication of at least one other component of electronic device 1401. [
메모리 1430은, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리 1430은, 예를 들면, 전자 장치 1401의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리 1430은 소프트웨어 및/또는 프로그램 1440을 저장할 수 있다. 프로그램 1440은, 예를 들면, 커널 1441, 미들웨어 1443, 어플리케이션 프로그래밍 인터페이스(application programming interface(API)) 1445, 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 1447 등을 포함할 수 있다. 커널 1441, 미들웨어 1443, 또는 API 1445의 적어도 일부는, 운영 시스템(operating system(OS))으로 지칭될 수 있다.
커널 1441은, 예를 들면, 다른 프로그램들(예: 미들웨어 1443, API 1445, 또는 어플리케이션 프로그램 1447)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 1410, 프로세서 1420, 또는 메모리 1430 등)을 제어 또는 관리할 수 있다. 또한, 커널 1441은 미들웨어 1443, API 1445, 또는 어플리케이션 프로그램 1447에서 전자 장치 1401의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.The
미들웨어 1443은, 예를 들면, API 1445 또는 어플리케이션 프로그램 1447이 커널 1441과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다.The
또한, 미들웨어 1443은 어플리케이션 프로그램 1447로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어 1443은 어플리케이션 프로그램 1447 중 적어도 하나에 전자 장치 1401의 시스템 리소스(예: 버스 1410, 프로세서 1420, 또는 메모리 1430 등)를 사용할 수 있는 우선 순위를 부여할 수 있다. 예컨대, 미들웨어 1443은 상기 적어도 하나에 부여된 우선 순위에 따라 상기 하나 이상의 작업 요청들을 처리함으로써, 상기 하나 이상의 작업 요청들에 대한 스케쥴링 또는 로드 밸런싱 등을 수행할 수 있다.In addition, the
API 1445는, 예를 들면, 어플리케이션 1447이 커널 1441 또는 미들웨어 1443에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.The API 1445 is an interface for the application 1447 to control the functions provided by the
입출력 인터페이스 1450은, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치 1401의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스 1450은 전자 장치 1401의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.The input /
디스플레이 1460은, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이 1460은, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)를 표시할 수 있다. 디스플레이 1460은, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 인터페이스 1470은, 예를 들면, 전자 장치 1401과 외부 장치(예: 제 1 외부 전자 장치 1402, 제 2 외부 전자 장치 1404, 또는 서버 1406) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스 1470은 무선 통신 또는 유선 통신을 통해서 네트워크 1462에 연결되어 외부 장치(예: 제 2 외부 전자 장치 1404 또는 서버 1406)와 통신할 수 있다.The
무선 통신은, 예를 들면, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용할 수 있다. 또한, 무선 통신은, 예를 들면, 근거리 통신 1464를 포함할 수 있다. 근거리 통신 1464는, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), 또는 GNSS(global navigation satellite system) 등 중 적어도 하나를 포함할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system 중 적어도 하나를 포함할 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 혼용되어 사용(interchangeably used)될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크 1462는 통신 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 망(telephone network) 중 적어도 하나를 포함할 수 있다.Wireless communications may include, for example, cellular communication protocols such as long-term evolution (LTE), LTE Advance (LTE), code division multiple access (CDMA), wideband CDMA (WCDMA) mobile telecommunications system, WiBro (Wireless Broadband), or Global System for Mobile Communications (GSM). The wireless communication may also include, for example,
제 1 및 제 2 외부 전자 장치 1402, 1404 각각은 전자 장치 1401과 동일한 또는 다른 종류의 장치일 수 있다. 한 실시 예에 따르면, 서버 1406은 하나 또는 그 이상의 서버들의 그룹을 포함할 수 있다. 다양한 실시 예에 따르면, 전자 장치 1401에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치 1402, 1404, 또는 서버 1406)에서 실행될 수 있다. 한 실시 예에 따르면, 전자 장치 1401이 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치 1401은 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치 1402, 1404, 또는 서버 1406)에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치 1402, 1404, 또는 서버 1406)는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치 1401로 전달할 수 있다. 전자 장치 1401은 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.Each of the first and second external
도 15는 다양한 실시 예에 따른 전자 장치 1501의 블록도이다. 전자 장치 1501은, 예를 들면, 도 14에 도시된 전자 장치 1401의 전체 또는 일부를 포함할 수 있다. 전자 장치 1501은 하나 이상의 프로세서(예: AP(application processor)) 1510, 통신 모듈 1520, 가입자 식별 모듈 1524, 메모리 1530, 센서 모듈 1540, 입력 장치 1550, 디스플레이 1560, 인터페이스 1570, 오디오 모듈 1580, 카메라 모듈 1591, 전력 관리 모듈 1595, 배터리 1596, 인디케이터 1597, 및 모터 1598을 포함할 수 있다.15 is a block diagram of an electronic device 1501 according to various embodiments. The electronic device 1501 may include all or part of the electronic device 1401 shown in Fig. 14, for example. The electronic device 1501 may include one or more processors (e.g., APs) 1510, a
프로세서 1510은, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서 1510에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서 1510은, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 1510은 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서 1510은 도 15에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈 1521)를 포함할 수도 있다. 프로세서 1510은 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.The
통신 모듈 1520은, 도 14의 통신 인터페이스 1470과 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈 1520은, 예를 들면, 셀룰러 모듈 1521, WiFi 모듈 1523, 블루투스 모듈 1525, GNSS 모듈 1527(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈 1528 및 RF(radio frequency) 모듈 1529를 포함할 수 있다.The
셀룰러 모듈 1521은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1521은 가입자 식별 모듈(예: SIM 카드) 1524를 이용하여 통신 네트워크 내에서 전자 장치 1501의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1521은 프로세서 1510이 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1521은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.The
WiFi 모듈 1523, 블루투스 모듈 1525, GNSS 모듈 1527 또는 NFC 모듈 1528 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈 1521, WiFi 모듈 1523, 블루투스 모듈 1525, GNSS 모듈 1527 또는 NFC 모듈 1528 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.Each of the
RF 모듈 1529는, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈 1529는, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈 1521, WiFi 모듈 1523, 블루투스 모듈 1525, GNSS 모듈 1527 또는 NFC 모듈 1528 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.The
가입자 식별 모듈 1524는, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.The
메모리 1530(예: 메모리 1430)은, 예를 들면, 내장 메모리 1532 또는 외장 메모리 1534를 포함할 수 있다. 내장 메모리 1532는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.Memory 1530 (e.g., memory 1430) may include, for example,
외장 메모리 1534는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리 1534는 다양한 인터페이스를 통하여 전자 장치 1501과 기능적으로 및/또는 물리적으로 연결될 수 있다.The
센서 모듈 1540은, 예를 들면, 물리량을 계측하거나 전자 장치 1501의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 1540은, 예를 들면, 제스처 센서 1540A, 자이로 센서 1540B, 기압 센서 1540C, 마그네틱 센서 1540D, 가속도 센서 1540E, 그립 센서 1540F, 근접 센서 1540G, 컬러(color) 센서 1540H(예: RGB(red, green, blue) 센서), 생체 센서 1540I, 온/습도 센서 1540J, 조도 센서 1540K, 또는 UV(ultra violet) 센서 1540M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈 1540은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈 1540은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치 1501은 프로세서 1510의 일부로서 또는 별도로, 센서 모듈 1540을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서 1510이 슬립(sleep) 상태에 있는 동안, 센서 모듈 1540을 제어할 수 있다.The
입력 장치 1550은, 예를 들면, 터치 패널(touch panel) 1552, (디지털) 펜 센서(pen sensor) 1554, 키(key) 1556, 또는 초음파(ultrasonic) 입력 장치 1558을 포함할 수 있다. 터치 패널 1552는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널 1552는 제어 회로를 더 포함할 수도 있다. 터치 패널 1552는 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.The input device 1550 may include, for example, a
(디지털) 펜 센서 1554는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키 1556은, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치 1558은 마이크(예: 마이크 1588)를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.(Digital) pen sensor 1554 may be, for example, part of a touch panel or may include a separate recognition sheet.
디스플레이 1560(예: 디스플레이 1460)은 패널 1562, 홀로그램 장치 1564, 또는 프로젝터 1566을 포함할 수 있다. 패널 1562는, 도 14의 디스플레이 1460과 동일 또는 유사한 구성을 포함할 수 있다. 패널 1562는, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 1562는 터치 패널 1552와 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 1564는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 1566은 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치 1501의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 1560은 패널 1562, 홀로그램 장치 1564, 또는 프로젝터 1566을 제어하기 위한 제어 회로를 더 포함할 수 있다.Display 1560 (e.g., display 1460) may include a
인터페이스 1570은, 예를 들면, HDMI(high-definition multimedia interface) 1572, USB(universal serial bus) 1574, 광 인터페이스(optical interface) 1576, 또는 D-sub(D-subminiature) 1578을 포함할 수 있다. 인터페이스 1570은, 예를 들면, 도 14에 도시된 통신 인터페이스 1470에 포함될 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스 1570은, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.The
오디오 모듈 1580은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 1580의 적어도 일부 구성요소는, 예를 들면, 도 14에 도시된 입출력 인터페이스 1450에 포함될 수 있다. 오디오 모듈 1580은, 예를 들면, 스피커 1582, 리시버 1584, 이어폰 1586, 또는 마이크 1588 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈 1591은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.The
전력 관리 모듈 1595는, 예를 들면, 전자 장치 1501의 전력을 관리할 수 있다. 한 실시 예에 따르면, 전력 관리 모듈 1595는 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리 1596의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리 1596은, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.The
인디케이터 1597은 전자 장치 1501 또는 그 일부(예: 프로세서 1510)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터 1598은 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치 1501은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.The
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.Each of the components described in this document may be composed of one or more components, and the name of the component may be changed according to the type of the electronic device. In various embodiments, the electronic device may comprise at least one of the components described herein, some components may be omitted, or may further include additional other components. In addition, some of the components of the electronic device according to various embodiments may be combined into one entity, so that the functions of the components before being combined can be performed in the same manner.
도 16은 다양한 실시 예에 따른 프로그램 모듈의 블록도이다. 한 실시 예에 따르면, 프로그램 모듈 1610(예: 프로그램 1440)은 전자 장치(예: 전자 장치 1401)에 관련된 자원을 제어하는 운영 체제(operating system(OS)) 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램 1447)을 포함할 수 있다. 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.16 is a block diagram of a program module in accordance with various embodiments. According to one embodiment, the program module 1610 (e.g., program 1440) includes an operating system (OS) that controls resources associated with an electronic device (e.g., electronic device 1401) and / (E.g., an application program 1447). The operating system may be, for example, android, iOS, windows, symbian, tizen, or bada.
프로그램 모듈 1610은 커널 1620, 미들웨어 1630, 어플리케이션 프로그래밍 인터페이스(application programming interface (API)) 1660, 및/또는 어플리케이션 1670을 포함할 수 있다. 프로그램 모듈 1610의 적어도 일부는 전자 장치 상에 프리로드(preload) 되거나, 외부 전자 장치(예: 전자 장치 1402, 1404, 서버 1406 등)로부터 다운로드(download) 가능하다.The
커널 1620(예: 커널 1441)은, 예를 들면, 시스템 리소스 매니저 1621 및/또는 디바이스 드라이버 1623을 포함할 수 있다. 시스템 리소스 매니저 1621은 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시 예에 따르면, 시스템 리소스 매니저 1621은 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 디바이스 드라이버 1623은, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다.The kernel 1620 (e.g., kernel 1441) may include, for example, a system resource manager 1621 and / or a device driver 1623. The system resource manager 1621 can perform control, allocation, or recovery of system resources. According to one embodiment, the system resource manager 1621 may include a process manager, a memory manager, or a file system manager. The device driver 1623 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication (IPC) driver.
미들웨어 1630은, 예를 들면, 어플리케이션 1670이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션 1670이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API 1660을 통해 다양한 기능들을 어플리케이션 1670으로 제공할 수 있다. 한 실시 예에 따르면, 미들웨어 1630(예: 미들웨어 1443)은 런타임 라이브러리 1635, 어플리케이션 매니저(application manager) 1641, 윈도우 매니저(window manager) 1642, 멀티미디어 매니저(multimedia manager) 1643, 리소스 매니저(resource manager) 1644, 파워 매니저(power manager) 1645, 데이터베이스 매니저(database manager) 1646, 패키지 매니저(package manager) 1647, 연결 매니저(connectivity manager) 1648, 통지 매니저(notification manager) 1649, 위치 매니저(location manager) 1650, 그래픽 매니저(graphic manager) 1651, 또는 보안 매니저(security manager) 1652 중 적어도 하나를 포함할 수 있다.The middleware 1630 may provide various functions to the application 1670 through the
런타임 라이브러리 1635는, 예를 들면, 어플리케이션 1670이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리 1635는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.The runtime library 1635 may include, for example, a library module used by the compiler to add new functionality via a programming language while the application 1670 is running. The runtime library 1635 may perform input / output management, memory management, or functions for arithmetic functions.
어플리케이션 매니저 1641은, 예를 들면, 어플리케이션 1670 중 적어도 하나의 어플리케이션의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저 1642는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저 1643은 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저 1644는 어플리케이션 1670 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.The
파워 매니저 1645는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저 1646은 어플리케이션 1670 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저 1647은 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.The power manager 1645 operates in conjunction with a basic input / output system (BIOS), for example, to manage a battery or a power source, and to provide power information necessary for the operation of the electronic device. The database manager 1646 may create, retrieve, or modify a database to be used in at least one of the applications 1670. The package manager 1647 can manage installation or update of an application distributed in the form of a package file.
연결 매니저 1648은, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저 1649는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저 1650은 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저 1651은 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저 1652는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치(예: 전자 장치 1401)가 전화 기능을 포함한 경우, 미들웨어 1630은 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.The connection manager 1648 can manage wireless connections, such as, for example, WiFi or Bluetooth. The
미들웨어 1630은 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 미들웨어 1630은 차별화된 기능을 제공하기 위해 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어 1630은 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.Middleware 1630 may include a middleware module that forms a combination of various functions of the above-described components. The middleware 1630 can provide a module specialized for each type of operating system to provide differentiated functions. In addition, the middleware 1630 may dynamically delete some existing components or add new ones.
API 1660(예: API 1445)은, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.API 1660 (e.g., API 1445) is a collection of API programming functions, for example, and can be provided in different configurations depending on the operating system. For example, for Android or iOS, you can provide one API set per platform, and for tizen, you can provide more than two API sets per platform.
어플리케이션 1670(예: 어플리케이션 프로그램 1447)은, 예를 들면, 홈 1671, 다이얼러 1672, SMS/MMS 1673, IM(instant message) 1674, 브라우저 1675, 카메라 1676, 알람 1677, 컨택트 1678, 음성 다이얼 1679, 이메일 1680, 달력 1681, 미디어 플레이어 1682, 앨범 1683, 또는 시계 1684, 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 수행할 수 있는 하나 이상의 어플리케이션을 포함할 수 있다.An application 1670 (e.g., an application program 1447) may include, for example, a home 1671, a
한 실시 예에 따르면, 어플리케이션 1670은 전자 장치(예: 전자 장치 1401)와 외부 전자 장치(예: 전자 장치 1402, 1404) 사이의 정보 교환을 지원하는 어플리케이션(이하, 설명의 편의 상, "정보 교환 어플리케이션")을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.According to one embodiment, an application 1670 is an application that supports the exchange of information between an electronic device (e.g., electronic device 1401) and an external electronic device (e.g., electronic device 1402, 1404) Application "). The information exchange application may include, for example, a notification relay application for communicating specific information to an external electronic device, or a device management application for managing an external electronic device.
예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션, 또는 환경 정보 어플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치(예: 전자 장치 1402, 1404)로 전달하는 기능을 포함할 수 있다. 또한, 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다.For example, the notification delivery application may send notification information generated in other applications (e.g., SMS / MMS applications, email applications, healthcare applications, or environmental information applications) of the electronic device to external
장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치(예: 전자 장치 1402, 1404)의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 외부 전자 장치에서 동작하는 어플리케이션 또는 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스 등)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.The device management application may be used to control at least one function (e.g., turn-on / turn-off) of an external electronic device (e.g., (E. G., Installing, deleting, or otherwise) managing services provided by an external electronic device or external electronic device (e. G., A call service or message service) Update).
한 실시 예에 따르면, 어플리케이션 1670은 외부 전자 장치(예: 전자 장치 1402, 1404)의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션 등)을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션 1670은 외부 전자 장치(예: 서버 1406 또는 전자 장치 1402, 1404)로부터 수신된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션 1670은 프리로드 어플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 어플리케이션(third party application)을 포함할 수 있다. 도시된 실시 예에 따른 프로그램 모듈 1610의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다.According to one embodiment, the application 1670 may include an application (e.g., a healthcare application of a mobile medical device, etc.) designated according to attributes of an external electronic device (e.g., electronic device 1402, 1404). According to one embodiment, the application 1670 may include an application received from an external electronic device (e.g.,
다양한 실시 예에 따르면, 프로그램 모듈 1610의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 프로그램 모듈 1610의 적어도 일부는, 예를 들면, 프로세서(예: 프로세서 1510)에 의해 구현(implement)(예: 실행)될 수 있다. 프로그램 모듈 1610의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.According to various embodiments, at least some of the
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.As used in this document, the term "module" may refer to a unit comprising, for example, one or a combination of two or more of hardware, software or firmware. A "module" may be interchangeably used with terms such as, for example, unit, logic, logical block, component, or circuit. A "module" may be a minimum unit or a portion of an integrally constructed component. A "module" may be a minimum unit or a portion thereof that performs one or more functions. "Modules" may be implemented either mechanically or electronically. For example, a "module" may be an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs) or programmable-logic devices And may include at least one.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서 1420)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리 1430이 될 수 있다.At least a portion of a device (e.g., modules or functions thereof) or a method (e.g., operations) according to various embodiments may include, for example, computer-readable storage media in the form of program modules, As shown in FIG. When the instruction is executed by a processor (e.g., processor 1420), the one or more processors may perform a function corresponding to the instruction. The computer-readable storage medium may be, for example, a
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.The computer readable recording medium may be a hard disk, a floppy disk, a magnetic media (e.g., a magnetic tape), an optical media (e.g., a compact disc read only memory (CD-ROM) digital versatile discs, magneto-optical media such as floptical disks, hardware devices such as read only memory (ROM), random access memory (RAM) Etc. The program instructions may also include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter, etc. The above- May be configured to operate as one or more software modules to perform the operations of the embodiment, and vice versa.
다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.Modules or program modules according to various embodiments may include at least one or more of the elements described above, some of which may be omitted, or may further include additional other elements. Operations performed by modules, program modules, or other components in accordance with various embodiments may be performed in a sequential, parallel, iterative, or heuristic manner. Also, some operations may be performed in a different order, omitted, or other operations may be added. And the embodiments disclosed in this document are presented for the purpose of explanation and understanding of the disclosed technology and do not limit the scope of the technology described in this document. Accordingly, the scope of this document should be interpreted to include all modifications based on the technical idea of this document or various other embodiments.
Claims (20)
터치 물체를 센싱하여 센서 정보를 수집하는 제 1 터치 센서,
상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 프로세서, 및
상기 터치 물체의 상태에 따라 터치 감도가 조정되는 제 2 터치 센서를 포함하는 전자 장치.In an electronic device,
A first touch sensor that senses a touch object and collects sensor information,
A processor for determining a state of the touch object corresponding to the sensor information,
And a second touch sensor whose touch sensitivity is adjusted according to the state of the touch object.
상기 제 1 터치 센서는 지문 인식 센서, 촉각 센서, pH 농도 센서, 또는 터치 센서 중 적어도 하나를 포함하는 전자 장치.The method according to claim 1,
Wherein the first touch sensor includes at least one of a fingerprint recognition sensor, a tactile sensor, a pH concentration sensor, or a touch sensor.
상기 프로세서는
상기 터치 물체와 상기 제 1 터치 센서 사이에 이물질이 감지되지 않은 상태에 대응하는 정상 상태 정보, 및
상기 제 1 터치 센서를 기반으로 상기 이물질을 센싱한 정보, 상기 이물질의 pH 농도 정보, 표면 상태 정보, 전기 전도도 정보, 또는 주파수 스펙트럼 정보 중 적어도 하나를 포함하는 상기 이물질의 패턴 정보를 상기 센서 정보와 비교하여 상기 터치 물체의 상태를 판단하는 전자 장치.The method according to claim 1,
The processor
Steady state information corresponding to a state in which no foreign matter is detected between the touch object and the first touch sensor,
Wherein the sensor information includes at least one of sensing information of the foreign substance based on the first touch sensor, pH concentration information of the foreign matter, surface state information, electric conductivity information, and frequency spectrum information, To determine the state of the touch object.
상기 프로세서는
상기 터치 물체의 상태에 따라 디스플레이에 출력되는 표시 객체들의 터치 영역을 조정하도록 제어하는 전자 장치.The method according to claim 1,
The processor
And controls the touch area of the display objects output to the display according to the state of the touch object.
상기 프로세서는
상기 터치 영역에 대응하도록 상기 표시 객체들의 크기 또는 위치 중 적어도 하나를 변경하도록 제어하는 전자 장치.The method of claim 4,
The processor
And changes at least one of a size or a position of the display objects to correspond to the touch area.
상기 프로세서는
상기 터치 물체의 상태에 대응하는 적어도 하나의 항목을 포함하는 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 전자 장치.The method according to claim 1,
The processor
And a touch function selection object including at least one item corresponding to the state of the touch object.
상기 프로세서는
상기 터치 기능 선택 객체를 상기 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 전자 장치에 포함된 특정 물리 버튼이 선택되는 시점, 상기 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 상기 특정 어플리케이션 프로그램이 요청하는 시점, 상기 화면의 일정 영역이 상기 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동되는 시점, 또는 상기 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 중 적어도 하나의 시점에 표시하도록 제어하는 전자 장치.The method of claim 6,
The processor
A point of time when the screen of the electronic device changes from a turn-off state to a turn-on state, a time point when the touch input processing function is turned off to a turn-on state, When a specific application program included in the electronic device is executed or when a specific application program requests a certain object, a certain area of the screen is pressed by the touch object, Or at a time point at which the electronic device moves or rotates in a predetermined direction a predetermined number of times at a predetermined interval.
상기 프로세서는
상기 터치 물체의 상태를 판단한 시점을 기준으로 지정된 시간이 경과된 시점에 상기 터치 물체를 센싱하여 수집한 센서 정보를 기반으로 상기 터치 물체의 상태를 업데이트하고,
상기 제 2 터치 센서는
업데이트된 상기 터치 물체의 상태에 따라 터치 감도가 조정되는 전자 장치.The method according to claim 1,
The processor
Wherein the state of the touch object is updated based on sensor information obtained by sensing the touch object at a point of time that has elapsed from a point of time when the state of the touch object is determined,
The second touch sensor
And the touch sensitivity is adjusted according to the updated state of the touch object.
상기 프로세서는
상기 터치 물체의 상태에 따라 형태, 색, 또는 크기 중 적어도 하나가 다른 이미지로 설정된 아이콘을 디스플레이의 일정 영역에 표시하도록 제어하는 전자 장치.The method according to claim 1,
The processor
And controls the display unit to display an icon having at least one of a shape, a color, and a size set to another image according to the state of the touch object in a predetermined area of the display.
상기 프로세서는
상기 터치 물체의 상태가 변경되면 상기 터치 물체 상태 변경과 관련한 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 객체의 출력 또는 상기 터치 물체 상태 변경과 관련한 음성 정보의 출력 중 적어도 하나를 제어하는 전자 장치.The method according to claim 1,
The processor
An output of an object including at least one of a text, an image, and an icon related to the change of the touch object state or an output of voice information associated with the change of the touch object state when the state of the touch object changes, .
제 1 터치 센서를 기반으로 터치 물체를 센싱하여 센서 정보를 수집하는 동작,
상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 동작, 및
상기 터치 물체의 상태에 따라 제 2 터치 센서의 터치 감도를 조정하는 동작을 포함하는 터치 입력 처리 방법.A method of processing a touch input of an electronic device,
An operation of sensing the touch object based on the first touch sensor to collect sensor information,
Determining the state of the touch object corresponding to the sensor information, and
And adjusting a touch sensitivity of the second touch sensor according to a state of the touch object.
상기 센서 정보를 수집하는 동작은
지문 인식 센서, 촉각 센서, pH 농도 센서, 또는 터치 센서 중 적어도 하나를 기반으로 상기 터치 물체의 접근 또는 접촉에 대응하는 상기 센서 정보를 수집하는 동작을 포함하는 터치 입력 처리 방법.The method of claim 11,
The operation of collecting the sensor information
And collecting the sensor information corresponding to approach or contact of the touch object based on at least one of a fingerprint recognition sensor, a tactile sensor, a pH concentration sensor, or a touch sensor.
상기 터치 물체의 상태를 판단하는 동작은
상기 터치 물체와 상기 제 1 터치 센서 사이에 이물질이 감지되지 않은 상태에 대응하는 정상 상태 정보, 및
상기 제 1 터치 센서를 기반으로 상기 이물질을 센싱한 정보, 상기 이물질의 pH 농도 정보, 표면 상태 정보, 전기 전도도 정보, 또는 주파수 스펙트럼 정보 중 적어도 하나를 포함하는 상기 이물질의 패턴 정보를 상기 센서 정보와 비교하는 동작을 포함하는 터치 입력 처리 방법.The method of claim 11,
The operation of determining the state of the touch object
Steady state information corresponding to a state in which no foreign matter is detected between the touch object and the first touch sensor,
Wherein the sensor information includes at least one of sensing information of the foreign substance based on the first touch sensor, pH concentration information of the foreign matter, surface state information, electric conductivity information, and frequency spectrum information, And comparing the touch input with the touch input.
상기 터치 물체의 상태를 판단하는 동작은
상기 터치 물체의 상태에 대응하는 적어도 하나의 항목을 포함하는 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 동작을 포함하는 터치 입력 처리 방법.The method of claim 11,
The operation of determining the state of the touch object
And controlling to display on the display a touch function selection object including at least one item corresponding to the state of the touch object.
상기 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 동작은
상기 터치 기능 선택 객체를 상기 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 전자 장치에 포함된 특정 물리 버튼이 선택되는 시점, 상기 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 상기 특정 어플리케이션 프로그램이 요청하는 시점, 상기 화면의 일정 영역이 상기 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동되는 시점, 또는 상기 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 중 적어도 하나의 시점에 표시하도록 제어하는 동작을 더 포함하는 터치 입력 처리 방법.15. The method of claim 14,
The operation of controlling to display the touch function selection object on the display
A point of time when the screen of the electronic device changes from a turn-off state to a turn-on state, a time point when the touch input processing function is turned off to a turn-on state, When a specific application program included in the electronic device is executed or when a specific application program requests a certain object, a certain area of the screen is pressed by the touch object, To the at least one of a time when the electronic device is moved within a predetermined distance by a predetermined distance or a time when the electronic device moves or swivels in a predetermined direction a predetermined number of times at a predetermined interval.
상기 터치 입력 처리 방법은
상기 터치 물체의 상태에 따라 디스플레이에 출력되는 표시 객체들의 터치 영역을 조정하도록 제어하는 동작을 더 포함하는 터치 입력 처리 방법.The method of claim 11,
The touch input processing method
And controlling the touch region of the display objects to be displayed on the display according to the state of the touch object.
상기 터치 영역을 조정하도록 제어하는 동작은
상기 터치 영역에 대응하도록 상기 표시 객체들의 크기 또는 위치 중 적어도 하나를 변경하도록 제어하는 동작을 더 포함하는 터치 입력 처리 방법.18. The method of claim 16,
The operation of controlling to adjust the touch area
And controlling to change at least one of a size and a position of the display objects to correspond to the touch area.
상기 터치 입력 처리 방법은
상기 터치 물체의 상태를 판단한 시점을 기준으로 지정된 시간이 경과된 시점에 상기 터치 물체를 센싱하여 수집한 센서 정보를 기반으로 상기 터치 물체의 상태를 업데이트하는 동작, 및
업데이트된 상기 터치 물체의 상태에 따라 상기 제 2 터치 센서의 터치 감도를 조정하는 동작을 더 포함하는 터치 입력 처리 방법.The method of claim 11,
The touch input processing method
Updating the state of the touch object based on sensor information obtained by sensing the touch object at a point of time when a predetermined time has elapsed based on a time at which the state of the touch object is determined;
And adjusting the touch sensitivity of the second touch sensor according to the updated state of the touch object.
상기 터치 입력 처리 방법은
상기 터치 물체의 상태에 따라 형태, 색, 또는 크기 중 적어도 하나가 다른 이미지로 설정된 아이콘을 디스플레이의 일정 영역에 표시하도록 제어하는 동작을 더 포함하는 터치 입력 처리 방법.The method of claim 11,
The touch input processing method
And controlling the display unit to display an icon having at least one of a shape, a color, and a size set to a different image according to a state of the touch object in a predetermined area of the display.
상기 터치 입력 처리 방법은
상기 터치 물체의 상태가 변경되면 상기 터치 물체 상태 변경과 관련한 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 객체의 출력 또는 상기 터치 물체 상태 변경과 관련한 음성 정보의 출력 중 적어도 하나를 제어하는 동작을 더 포함하는 터치 입력 처리 방법.The method of claim 11,
The touch input processing method
An output of an object including at least one of a text, an image, and an icon related to the change of the touch object state or an output of voice information related to the change of the touch object state when the state of the touch object changes, Wherein the touch input processing method further includes:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/095,413 US9904409B2 (en) | 2015-04-15 | 2016-04-11 | Touch input processing method that adjusts touch sensitivity based on the state of a touch object and electronic device for supporting the same |
EP16165404.1A EP3082025A1 (en) | 2015-04-15 | 2016-04-14 | Touch input processing method and electronic device for supporting the same |
CN201610236856.8A CN106055138A (en) | 2015-04-15 | 2016-04-15 | Touch input processing method and electronic device for supporting the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150052965 | 2015-04-15 | ||
KR20150052965 | 2015-04-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160123200A true KR20160123200A (en) | 2016-10-25 |
Family
ID=57446615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150065395A KR20160123200A (en) | 2015-04-15 | 2015-05-11 | Touch input processing method and electronic device supporting the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160123200A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018128422A1 (en) * | 2017-01-06 | 2018-07-12 | 삼성전자 주식회사 | Method and apparatus for processing distortion of fingerprint image |
WO2019160173A1 (en) * | 2018-02-14 | 2019-08-22 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
CN112639805A (en) * | 2018-09-04 | 2021-04-09 | 三星电子株式会社 | Electronic device including fingerprint sensor in ultrasonic display and method of operating the same |
CN113591666A (en) * | 2021-07-26 | 2021-11-02 | 深圳创联时代电子商务有限公司 | Control method and device applied to mobile phone, computer readable medium and mobile phone |
WO2022050627A1 (en) * | 2020-09-01 | 2022-03-10 | 삼성전자 주식회사 | Electronic device comprising flexible display, and operation method thereof |
US11614829B2 (en) | 2020-12-04 | 2023-03-28 | Samsung Display Co., Ltd. | Display device and driving method thereof |
US11687167B2 (en) | 2019-08-30 | 2023-06-27 | Google Llc | Visual indicator for paused radar gestures |
US11790693B2 (en) | 2019-07-26 | 2023-10-17 | Google Llc | Authentication management through IMU and radar |
US11841933B2 (en) | 2019-06-26 | 2023-12-12 | Google Llc | Radar-based authentication status feedback |
US11868537B2 (en) | 2019-07-26 | 2024-01-09 | Google Llc | Robust radar-based gesture-recognition by user equipment |
US12008169B2 (en) | 2019-08-30 | 2024-06-11 | Google Llc | Radar gesture input methods for mobile devices |
WO2024177199A1 (en) * | 2023-02-20 | 2024-08-29 | 삼성메디슨 주식회사 | Ultrasound imaging device and operation method thereof |
US12093463B2 (en) | 2019-07-26 | 2024-09-17 | Google Llc | Context-sensitive control of radar-based gesture-recognition |
WO2024214912A1 (en) * | 2023-04-12 | 2024-10-17 | 삼성전자주식회사 | Electronic device for sensing contact with fluid via touch sensor |
-
2015
- 2015-05-11 KR KR1020150065395A patent/KR20160123200A/en unknown
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018128422A1 (en) * | 2017-01-06 | 2018-07-12 | 삼성전자 주식회사 | Method and apparatus for processing distortion of fingerprint image |
US11093776B2 (en) | 2017-01-06 | 2021-08-17 | Samsung Electronics Co., Ltd. | Method and apparatus for processing distortion of fingerprint image |
WO2019160173A1 (en) * | 2018-02-14 | 2019-08-22 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
CN112639805A (en) * | 2018-09-04 | 2021-04-09 | 三星电子株式会社 | Electronic device including fingerprint sensor in ultrasonic display and method of operating the same |
US11841933B2 (en) | 2019-06-26 | 2023-12-12 | Google Llc | Radar-based authentication status feedback |
US11790693B2 (en) | 2019-07-26 | 2023-10-17 | Google Llc | Authentication management through IMU and radar |
US12093463B2 (en) | 2019-07-26 | 2024-09-17 | Google Llc | Context-sensitive control of radar-based gesture-recognition |
US11868537B2 (en) | 2019-07-26 | 2024-01-09 | Google Llc | Robust radar-based gesture-recognition by user equipment |
US12183120B2 (en) | 2019-07-26 | 2024-12-31 | Google Llc | Authentication management through IMU and radar |
US11687167B2 (en) | 2019-08-30 | 2023-06-27 | Google Llc | Visual indicator for paused radar gestures |
US12008169B2 (en) | 2019-08-30 | 2024-06-11 | Google Llc | Radar gesture input methods for mobile devices |
WO2022050627A1 (en) * | 2020-09-01 | 2022-03-10 | 삼성전자 주식회사 | Electronic device comprising flexible display, and operation method thereof |
US11614829B2 (en) | 2020-12-04 | 2023-03-28 | Samsung Display Co., Ltd. | Display device and driving method thereof |
CN113591666A (en) * | 2021-07-26 | 2021-11-02 | 深圳创联时代电子商务有限公司 | Control method and device applied to mobile phone, computer readable medium and mobile phone |
WO2024177199A1 (en) * | 2023-02-20 | 2024-08-29 | 삼성메디슨 주식회사 | Ultrasound imaging device and operation method thereof |
WO2024214912A1 (en) * | 2023-04-12 | 2024-10-17 | 삼성전자주식회사 | Electronic device for sensing contact with fluid via touch sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9904409B2 (en) | Touch input processing method that adjusts touch sensitivity based on the state of a touch object and electronic device for supporting the same | |
KR102319803B1 (en) | Electronic device, operating method thereof and recording medium | |
KR20160123200A (en) | Touch input processing method and electronic device supporting the same | |
KR102413108B1 (en) | Method and electronic device for recognizing touch | |
US10282019B2 (en) | Electronic device and method for processing gesture input | |
KR102340480B1 (en) | Electronic device and method for controlling thereof | |
KR20160104976A (en) | Touch module and electronic device and operating method thereof | |
KR20180128178A (en) | Method for displaying contents and electronic device thereof | |
KR102459031B1 (en) | Electronic device and method for displaying application used therein | |
KR20170019040A (en) | Organism condition information providing method and electronic device supporting the same | |
KR20160128872A (en) | Fingerprint information processing method and electronic device supporting the same | |
KR102388590B1 (en) | Electronic device and method for inputting in electronic device | |
KR20160125142A (en) | Method and apparatus for sensing fingerprints | |
KR102398503B1 (en) | Electronic device for detecting pressure of input and operating method thereof | |
KR102386480B1 (en) | Apparatus and method for distinguishing input by external device thereof | |
US20190324640A1 (en) | Electronic device for providing user interface according to electronic device usage environment and method therefor | |
KR20170043801A (en) | Apparatus and method for obtaining coordinate through touch panel thereof | |
KR102644876B1 (en) | Information processing system and electronic device including the same | |
KR20170022192A (en) | Electronic device having the touch sensor | |
KR102343990B1 (en) | Device For Controlling Respectively Multiple Areas of Display and Method thereof | |
KR20160128606A (en) | Device For Providing Shortcut User Interface and Method Thereof | |
KR20180089810A (en) | Electronic device and method for determining touch coordinate thereof | |
KR20170066050A (en) | Object notification method and electronic device supporting the same | |
KR20170089655A (en) | Method and electronic device processing an input using view layers | |
KR20180089088A (en) | Electronic device and a method for controlling a biometric sensor associated with a display using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150511 |
|
PG1501 | Laying open of application | ||
PC1203 | Withdrawal of no request for examination |