[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20160123200A - Touch input processing method and electronic device supporting the same - Google Patents

Touch input processing method and electronic device supporting the same Download PDF

Info

Publication number
KR20160123200A
KR20160123200A KR1020150065395A KR20150065395A KR20160123200A KR 20160123200 A KR20160123200 A KR 20160123200A KR 1020150065395 A KR1020150065395 A KR 1020150065395A KR 20150065395 A KR20150065395 A KR 20150065395A KR 20160123200 A KR20160123200 A KR 20160123200A
Authority
KR
South Korea
Prior art keywords
touch
state
electronic device
sensor
information
Prior art date
Application number
KR1020150065395A
Other languages
Korean (ko)
Inventor
이성준
김민정
허원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/095,413 priority Critical patent/US9904409B2/en
Priority to EP16165404.1A priority patent/EP3082025A1/en
Priority to CN201610236856.8A priority patent/CN106055138A/en
Publication of KR20160123200A publication Critical patent/KR20160123200A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is an electronic device which comprises: a first touch sensor configured to sense a touch object to collect sensor information; a processor configured to determine a state of the touch object which corresponds to the sensor information; and a second touch sensor configured to adjust touch sensitivity in accordance with a state of the touch object. A variety of other embodiments found by the present specification are possible.

Description

터치 입력 처리 방법 및 이를 지원하는 전자 장치{Touch input processing method and electronic device supporting the same}TECHNICAL FIELD The present invention relates to a touch input processing method and an electronic device supporting the touch input processing method.

본 발명의 다양한 실시 예들은 터치 입력을 처리하는 방법과 관련된다.Various embodiments of the invention relate to a method of processing touch input.

전자 장치들은 사용자 인터페이스(user interface, UI)의 일환으로 터치 스크린, 터치 패드, 또는 터치 키 등과 같은 터치 방식의 입력 장치를 지원하고 있다. 터치 방식의 입력 장치는 정전용량식, 감압식, 적외선 방식 또는 초음파 방식 등 다양한 방식으로 구현되고 있다. 예를 들면, 정전용량식 터치 입력 방식은 전도성 물체 예컨대, 사용자의 손가락 또는 스타일러스 펜(stylus pen) 등에 의해 생기는 정전용량의 변화를 판단하여 터치를 인식할 수 있다.Electronic devices support touch-based input devices such as touch screens, touch pads, or touch keys as part of a user interface (UI). The touch-type input device is implemented in various ways such as a capacitance type, a pressure reduction type, an infrared type, or an ultrasonic type. For example, the capacitive touch input method can recognize a touch by determining a change in capacitance caused by a conductive object such as a user's finger or a stylus pen.

그러나 상술한 정전용량식 터치 입력 방식은 상기 전도성 물체(터치 물체)에 정전용량의 변화를 줄 수 있는 요인이 있을 경우 오작동할 수 있다. 예컨대, 물 또는 땀 등이 묻어 있는 상태의 손가락이 접촉되거나 장갑 착용 상태의 손가락이 접촉되는 경우, 정전용량식 터치 입력 장치는 터치 물체의 접촉을 올바르게 인식하지 못하거나 사용자가 의도하지 않은 터치 좌표를 접촉 지점으로 인식할 수 있다. 또한, 감압식, 적외선 방식 또는 초음파 방식 등의 터치 입력 방식도 손가락 등과 같은 터치 물체에 물 또는 땀 등이 묻어 있거나 또는 장갑을 착용한 경우, 오작동할 수 있다.However, the capacitive touch input method described above can malfunction when there is a factor that can change the electrostatic capacity of the conductive object (touch object). For example, in the case where a finger in a state in which water, sweat, or the like is in contact or a finger in the state of wearing gloves is contacted, the capacitive touch input device does not correctly recognize the touch of the touch object, It can be recognized as a contact point. In addition, a touch input method such as a pressure sensitive type, an infrared type, or an ultrasonic type may malfunction when water, sweat, or the like is stuck on a touch object such as a finger or gloves are worn.

본 발명의 다양한 실시 예들은, 터치 물체의 접근 또는 접촉에 따른 센서 정보에 대응하여 터치 물체의 상태를 판단하고, 터치 물체의 상태에 따라 터치 입력을 처리하는 방법 및 이를 지원하는 전자 장치를 제공할 수 있다.Various embodiments of the present invention provide a method of processing a touch input according to a state of a touch object, determining a state of the touch object in response to sensor information according to approach or contact of the touch object, and an electronic device supporting the touch input .

본 발명의 다양한 실시 예에 따른 전자 장치는, 터치 물체를 센싱하여 센서 정보를 수집하는 제 1 터치 센서, 상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 프로세서, 및 상기 터치 물체의 상태에 따라 터치 감도가 조정되는 제 2 터치 센서를 포함할 수 있다.An electronic device according to various embodiments of the present invention includes a first touch sensor for sensing a touch object to collect sensor information, a processor for determining a state of the touch object corresponding to the sensor information, And a second touch sensor in which the touch sensitivity is adjusted.

본 발명의 다양한 실시 예에 따르면, 터치 물체의 상태에 따라 터치 입력을 처리함으로써 터치 입력 장치의 오작동을 방지할 수 있다.According to various embodiments of the present invention, malfunction of the touch input device can be prevented by processing the touch input according to the state of the touch object.

도 1은 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 구성을 개략적으로 나타낸다.
도 2는 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 블록도를 나타낸다.
도 3은 다양한 실시 예에 따른 센서 정보에 대응하여 터치 입력을 처리하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.
도 4는 다양한 실시 예에 따른 센서 정보를 이용하여 터치 기능을 설정하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.
도 5는 다양한 실시 예에 따른 터치 기능 선택 객체를 이용하여 터치 기능을 설정하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.
도 6은 다양한 실시 예에 따른 지문 인식 센서를 기반으로 터치 물체의 상태를 판단하는 실시 예를 나타낸다.
도 7은 다양한 실시 예에 따른 터치 기능 선택 객체를 나타낸다.
도 8은 다양한 실시 예에 따른 터치 물체의 상태에 따라 터치 감도를 조정하는 실시 예를 나타낸다.
도 9는 다양한 실시 예에 따른 터치 물체의 상태에 따라 표시 객체의 출력 상태를 조정하는 실시 예를 나타낸다.
도 10은 다양한 실시 예에 따른 지문 인식 센서를 기반으로 터치 입력을 처리하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.
도 11은 다양한 실시 예에 따른 손가락 상태 이벤트 테이블을 나타낸다.
도 12는 다양한 실시 예에 따른 지문 인식 이벤트에 대응하는 손가락 상태 이벤트를 설명하기 위한 도면을 나타낸다.
도 13은 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 운용 방법을 나타낸다.
도 14는 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치를 나타낸다.
도 15는 다양한 실시 예에 따른 전자 장치의 블록도를 나타낸다.
도 16은 다양한 실시 예에 따른 프로그램 모듈의 블록도를 나타낸다.
1 schematically shows a configuration of an electronic device related to touch input processing according to various embodiments.
2 shows a block diagram of an electronic device associated with touch input processing according to various embodiments.
3 illustrates a method of operating an electronic device associated with a method for processing a touch input in response to sensor information according to various embodiments.
4 illustrates a method of operating an electronic device related to a method of setting a touch function using sensor information according to various embodiments.
FIG. 5 illustrates a method of operating an electronic device related to a method of setting a touch function using a touch function selection object according to various embodiments.
FIG. 6 illustrates an embodiment of determining the state of a touch object based on a fingerprint sensor according to various embodiments.
7 shows a touch function selection object according to various embodiments.
FIG. 8 shows an embodiment for adjusting the touch sensitivity according to the state of the touch object according to various embodiments.
9 shows an embodiment for adjusting the output state of a display object according to the state of a touch object according to various embodiments.
10 illustrates a method of operating an electronic device associated with a method for processing a touch input based on a fingerprint sensor according to various embodiments.
11 shows a finger status event table according to various embodiments.
12 shows a diagram for explaining a finger status event corresponding to a fingerprint recognition event according to various embodiments.
13 illustrates a method of operating an electronic device associated with touch input processing according to various embodiments.
14 illustrates an electronic device in a network environment in accordance with various embodiments.
15 shows a block diagram of an electronic device according to various embodiments.
16 shows a block diagram of a program module according to various embodiments.

이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings. It should be understood, however, that this invention is not intended to be limited to the particular embodiments described herein but includes various modifications, equivalents, and / or alternatives of the embodiments of this document . In connection with the description of the drawings, like reference numerals may be used for similar components.

본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, the expressions "have," "may," "include," or "include" may be used to denote the presence of a feature (eg, a numerical value, a function, Quot ;, and does not exclude the presence of additional features.

본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, the expressions "A or B," "at least one of A and / or B," or "one or more of A and / or B," etc. may include all possible combinations of the listed items . For example, "A or B," "at least one of A and B," or "at least one of A or B" includes (1) at least one A, (2) Or (3) at least one A and at least one B all together.

본 문서에서 사용된 "제 1", "제 2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.The expressions "first," " second, "" first, " or "second ", etc. used in this document may describe various components, It is used to distinguish the components and does not limit the components. For example, the first user equipment and the second user equipment may represent different user equipment, regardless of order or importance. For example, without departing from the scope of the rights described in this document, the first component can be named as the second component, and similarly the second component can also be named as the first component.

어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.(Or functionally or communicatively) coupled with / to "another component (eg, a second component), or a component (eg, a second component) Quot; connected to ", it is to be understood that any such element may be directly connected to the other element or may be connected through another element (e.g., a third element). On the other hand, when it is mentioned that a component (e.g., a first component) is "directly connected" or "directly connected" to another component (e.g., a second component) It can be understood that there is no other component (e.g., a third component) between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used herein, the phrase " configured to " (or set) to be "adapted to, " To be designed to, "" adapted to, "" made to, "or" capable of ". The term " configured to (or set up) "may not necessarily mean" specifically designed to "in hardware. Instead, in some situations, the expression "configured to" may mean that the device can "do " with other devices or components. For example, a processor configured (or configured) to perform the phrases "A, B, and C" may be implemented by executing one or more software programs stored in a memory device or a dedicated processor (e.g., an embedded processor) , And a generic-purpose processor (e.g., a CPU or an application processor) capable of performing the corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope of the other embodiments. The singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art. The general predefined terms used in this document may be interpreted in the same or similar sense as the contextual meanings of the related art and, unless expressly defined in this document, include ideally or excessively formal meanings . In some cases, even the terms defined in this document can not be construed as excluding the embodiments of this document.

본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.An electronic device in accordance with various embodiments of the present document may be, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, Such as a desktop personal computer, a laptop personal computer, a netbook computer, a workstation, a server, a personal digital assistant (PDA), a portable multimedia player (PMP) A device, a camera, or a wearable device. According to various embodiments, the wearable device may be of the accessory type (e.g., a watch, a ring, a bracelet, a bracelet, a necklace, a pair of glasses, a contact lens or a head-mounted-device (HMD) (E. G., Electronic apparel), a body attachment type (e. G., A skin pad or tattoo), or a bioimplantable type (e.g., implantable circuit).

어떤 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.In some embodiments, the electronic device may be a home appliance. Home appliances include, for example, televisions, digital video disc (DVD) players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwaves, washing machines, air cleaners, set- Such as a home automation control panel, a security control panel, a TV box such as Samsung HomeSync TM , Apple TV TM or Google TV TM , a game console such as Xbox TM and PlayStation TM , , An electronic key, a camcorder, or an electronic frame.

다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.In an alternative embodiment, the electronic device may be any of a variety of medical devices (e.g., various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or a body temperature meter), magnetic resonance angiography (MRA) Navigation systems, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), infotainment (infotainment) systems, ) Automotive electronic equipment (eg marine navigation systems, gyro compass, etc.), avionics, security devices, head units for vehicles, industrial or home robots, automatic teller's machines (ATMs) Point of sale, or internet of things (eg, light bulbs, various sensors, electrical or gas meters, sprinkler devices, fire alarms, thermostats, street lights, A toaster, a fitness equipment, a hot water tank, a heater, a boiler, and the like).

어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.According to some embodiments, the electronic device is a piece of furniture or a part of a building / structure, an electronic board, an electronic signature receiving device, a projector, Water, electricity, gas, or radio wave measuring instruments, etc.). In various embodiments, the electronic device may be a combination of one or more of the various devices described above. An electronic device according to some embodiments may be a flexible electronic device. Further, the electronic device according to the embodiment of the present document is not limited to the above-described devices, and may include a new electronic device according to technological advancement.

이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An electronic apparatus according to various embodiments will now be described with reference to the accompanying drawings. In this document, the term user may refer to a person using an electronic device or a device using an electronic device (e.g., an artificial intelligence electronic device).

도 1은 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 구성을 개략적으로 나타낸다. 전자 장치 100은 터치 물체의 비정상 상태로 인해 발생할 수 있는 터치 입력의 오동작을 방지하기 위해 터치 물체의 상태에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치 100은 터치 물체에 묻은 물 또는 땀 등으로 인해 발생할 수 있는 고스트 터치(ghost touch) 현상 즉, 사용자가 의도하지 않은 영역이 터치되었다고 인식하는 현상을 방지하기 위해 터치 입력 처리 방식을 조정할 수 있다.1 schematically shows a configuration of an electronic device related to touch input processing according to various embodiments. The electronic device 100 may adjust the touch input processing method according to the state of the touch object in order to prevent a malfunction of the touch input that may occur due to an abnormal state of the touch object. For example, the electronic device 100 adjusts the touch input processing method to prevent a ghost touch phenomenon that may occur due to water or sweat on the touch object, that is, a phenomenon that the user perceives that an unintended area is touched .

상술한 기능을 수행하기 위해 전자 장치 100은 터치 물체의 접근 또는 접촉에 따른 센서 정보를 수집하고, 수집된 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다. 이와 관련하여, 도 1을 참조하면, 전자 장치 100은 제 1 터치 센서 110, 제 2 터치 센서 150, 및 프로세서 130을 포함할 수 있다.In order to perform the above-described functions, the electronic device 100 collects sensor information according to approach or contact of the touch object, and analyzes the collected sensor information to determine the state of the touch object. In this regard, referring to FIG. 1, the electronic device 100 may include a first touch sensor 110, a second touch sensor 150, and a processor 130.

제 1 터치 센서 110은 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수집할 수 있다. 예컨대, 제 1 터치 센서 110은 상기 터치 물체의 접근 또는 접촉에 대응하는 정전용량의 변화 또는 압력의 변화 등으로 산출되는 터치 정보를 수집할 수 있다. 한 실시 예에 따르면, 제 1 터치 센서 110은 지문 인식 센서(또는, 지문 센서), 촉각 센서, 또는 pH 농도 센서 등을 포함할 수 있다. 예컨대, 제 1 터치 센서 110은 상기 지문 인식 센서를 포함하는 경우 사용자 지문에 포함된 융선들의 길이, 방향, 또는 특이 지점(예: 융선이 갈라지는 지점, 융선들이 이어지는 지점, 또는 융선이 끝나는 지점 등)에 대한 지문 정보를 수집할 수 있다. 또한, 제 1 터치 센서 110은 상기 촉각 센서를 포함하는 경우 상기 터치 물체의 접촉에 대응하는 접촉력의 세기, 방향, 또는 압력의 분포 등과 같은 접촉 상태 정보를 수집할 수 있다. 다양한 실시 예에 따르면, 제 1 터치 센서 110은 상기 pH 농도 센서를 포함하는 경우 상기 터치 물체의 접촉면에 대한 pH 농도 분포 등의 정보를 수집할 수 있다. 또한, 제 1 터치 센서 110은 수집된 센서 정보를 프로세서 130에 전달할 수 있다.The first touch sensor 110 may collect sensor information corresponding to approach or contact of a touch object. For example, the first touch sensor 110 may collect touch information calculated by a change in capacitance or a change in pressure corresponding to approach or contact of the touch object. According to one embodiment, the first touch sensor 110 may include a fingerprint sensor (or a fingerprint sensor), a tactile sensor, or a pH concentration sensor. For example, when the first touch sensor 110 includes the fingerprint recognition sensor, the length, direction, or specific point of the ridges included in the user fingerprint (e.g., the point where the ridges are split, the ridges are connected to each other, The fingerprint information can be collected. In addition, when the first touch sensor 110 includes the tactile sensor, the first touch sensor 110 may collect contact state information such as the intensity, direction, or pressure distribution of the contact force corresponding to the touch of the touch object. According to various embodiments, when the first touch sensor 110 includes the pH concentration sensor, the first touch sensor 110 may collect information such as a pH concentration distribution on the contact surface of the touch object. In addition, the first touch sensor 110 may transmit the collected sensor information to the processor 130.

제 1 터치 센서 110에 포함된 하나 이상의 센서들은 전자 장치 100의 일정 영역에 배치될 수 있다. 예컨대, 상기 지문 인식 센서는 전자 장치 100의 전면부 하단 영역 또는 배면부 상단 영역에 배치될 수 있다. 다양한 실시 예에 따르면, 상기 지문 인식 센서는 전자 장치 100에 포함된 특정 물리 버튼 예컨대, 홈 버튼 또는 사이드 버튼 등에 포함된 형태로 구성될 수도 있다. 또한, 상기 촉각 센서 또는 상기 pH 농도 센서 등은 상기 지문 인식 센서와 유사하게 전자 장치 100의 일정 영역에 배치될 수 있다. 한 실시 예에 따르면, 상기 촉각 센서 또는 상기 pH 농도 센서 등은 상기 지문 인식 센서와 인접한 위치에 배치될 수도 있다.One or more sensors included in the first touch sensor 110 may be disposed in a certain area of the electronic device 100. [ For example, the fingerprint recognition sensor may be disposed at a front end lower end region or a rear end upper end region of the electronic device 100. According to various embodiments, the fingerprint recognition sensor may be configured to be included in a specific physical button included in the electronic device 100, such as a home button or a side button. The tactile sensor or the pH concentration sensor may be disposed in a predetermined area of the electronic device 100, similar to the fingerprint recognition sensor. According to one embodiment, the tactile sensor or the pH concentration sensor may be disposed at a position adjacent to the fingerprint recognition sensor.

제 2 터치 센서 150은 제 1 터치 센서 110과 동일한 또는 유사한 구성을 포함할 수 있다. 예컨대, 제 2 터치 센서 150은 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수집할 수 있다. 다양한 실시 예에 따르면, 제 2 터치 센서 150은 패널(panel)의 형태로 구성되어 터치 스크린 패널(touch screen panel, TSP)에 포함될 수 있다.The second touch sensor 150 may include the same or similar components as the first touch sensor 110. For example, the second touch sensor 150 may collect sensor information corresponding to approach or contact of a touch object. According to various embodiments, the second touch sensor 150 may be formed in the form of a panel and may be included in a touch screen panel (TSP).

프로세서 130은 수집된 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다. 한 실시 예에 따르면, 프로세서 130은 터치 물체의 정상 상태 정보와 상기 센서 정보를 비교하여 터치 물체의 상태를 판단할 수 있다. 예를 들어, 프로세서 130은 터치 물체의 정상 상태 정보와 수집된 센서 정보를 비교하고, 정보들 간의 유사도가 일정 비율 이하인 경우 터치 물체의 상태가 비정상 상태임을 판단할 수 있다.The processor 130 may analyze the collected sensor information to determine the state of the touch object. According to one embodiment, the processor 130 may determine the state of the touch object by comparing the steady state information of the touch object with the sensor information. For example, the processor 130 compares the steady state information of the touch object with the collected sensor information, and can determine that the state of the touch object is in an abnormal state when the degree of similarity between the information is less than a predetermined ratio.

상기 정상 상태 정보는 제 1 터치 센서 110을 기반으로 제 1 터치 센서 110과 터치 물체 사이에 이물질(예: 물, 땀, 먼지, 모래, 흙, 또는 장갑 등)이 감지되지 않은 상태(정상 상태)에서 수집된 센서 정보를 포함할 수 있다. 예컨대, 상기 정상 상태 정보는 지문 인식 센서를 기반으로 손가락에 물, 땀, 먼지, 모래, 또는 흙 등이 묻지 않은 상태 및 장갑을 착용하지 않은 상태에서 수집된 사용자의 지문 정보일 수 있다. 또한, 상기 정상 상태 정보는 상기 정상 상태에서 수집한 접촉 상태 정보, pH 농도 분포 정보, 또는 터치 정보일 수 있다. 다양한 실시 예에 따르면, 상기 정상 상태 정보는 전자 장치 100의 첫 시작(cold start) 또는 특정 조건을 만족하는 특정 시점에 수집된 정보일 수 있다. 예컨대, 상기 정상 상태 정보는 지문 인식 기능 사용과 관련하여 사용자의 지문을 등록하는 시점에 저장된 정보일 수 있다.The steady state information is a state (normal state) in which no foreign matter (e.g., water, sweat, dust, sand, soil, or gloves) is detected between the first touch sensor 110 and the touch object based on the first touch sensor 110, And the sensor information collected from the sensor. For example, the steady state information may be fingerprint information of a user collected in a state in which the finger is not exposed to water, sweat, dust, sand, or soil based on the fingerprint recognition sensor, or in a state in which the user does not wear the glove. The steady state information may be contact state information, pH concentration distribution information, or touch information collected in the steady state. According to various embodiments, the steady state information may be information that is collected at a cold start of the electronic device 100 or at a particular point in time that meets certain conditions. For example, the steady state information may be information stored at the time of registering the fingerprint of the user in association with the use of the fingerprint recognition function.

프로세서 130은 터치 물체의 상태가 비정상 상태인 경우, 터치 물체의 상태를 보다 세밀하게 분류할 수 있다. 예컨대, 프로세서 130은 터치 물체의 상태를 수막 상태, 오염막 상태, 또는 장갑 착용 상태 중 적어도 하나로 분류할 수 있다. 상기 수막 상태는 터치 물체에 물 또는 땀 등과 같은 수분이 포함된 이물질이 묻은 상태이며, 상기 오염막 상태는 터치 물체에 먼지, 모래, 또는 흙 등과 같이 수분이 포함되지 않은 이물질이 묻은 상태를 나타낼 수 있다. 그리고 사용자가 장갑을 착용한 상태로 터치 동작을 수행하는 경우 상기 장갑 착용 상태로 분류될 수 있다.When the state of the touch object is abnormal, the processor 130 can further classify the state of the touch object. For example, the processor 130 may classify the state of the touch object into at least one of a water film state, a contaminated film state, or a glove wearing state. In the water film state, a foreign matter including moisture such as water or sweat is adhered to a touch object, and the state of the contamination film may indicate a state where a foreign object not containing moisture such as dust, sand, have. If the user performs a touch operation with the glove worn, the user can be classified into the glove wearing state.

다양한 실시 예에 따르면, 프로세서 130은 상기 이물질의 패턴 정보를 이용하여 터치 물체의 상태를 세밀하게 분류할 수 있다. 한 실시 예에 따르면, 프로세서 130은 상기 센서 정보와 상기 이물질의 패턴 정보를 비교하고, 정보들 간의 유사도가 일정 비율 이상인 경우 상기 이물질의 종류에 따라 터치 물체의 상태를 분류할 수 있다. 예컨대, 프로세서 130은 상기 이물질이 물 또는 땀 등과 같이 수분을 포함하는 물질인 경우 터치 물체의 상태를 수막 상태로 판단할 수 있다. 또한, 프로세서 130은 상기 이물질이 장갑의 소재로 사용될 수 있는 물질이면서 상기 유사도가 지정된 비율(예: 90%) 이상인 경우 터치 물체의 상태를 장갑 착용 상태로 판단할 수 있다.According to various embodiments, the processor 130 can finely classify the state of the touch object using the pattern information of the foreign object. According to one embodiment, the processor 130 compares the sensor information with the pattern information of the foreign object, and classifies the state of the touch object according to the kind of the foreign object when the degree of similarity between the information is equal to or greater than a certain ratio. For example, when the foreign object is a substance including water such as water or sweat, the processor 130 may determine the state of the touch object as a water film state. In addition, the processor 130 may determine that the state of the touch object is wearing the glove when the foreign matter is a material that can be used as a material of the glove, and the degree of similarity is a predetermined ratio (e.g., 90%) or more.

이와 관련하여, 상기 이물질의 패턴 정보는 제 1 터치 센서 110에 포함된 하나 이상의 센서들이 상기 이물질을 센싱하여 얻어지는 정보일 수 있다. 예컨대, 상기 이물질의 패턴 정보는 지문 인식 센서가 지문 인식 기능 수행 중 수집한 상기 이물질의 센서 정보일 수 있다. 또한, 상기 이물질의 패턴 정보는 상기 이물질의 pH 농도 정보, 표면 상태 정보, 또는 전기 전도도 등과 같은 정보를 포함할 수 있다.In this regard, the pattern information of the foreign object may be information obtained by sensing one or more sensors included in the first touch sensor 110. For example, the pattern information of the foreign object may be sensor information of the foreign object collected during the fingerprint recognition function by the fingerprint recognition sensor. In addition, the pattern information of the foreign matter may include information such as pH concentration information of the foreign matter, surface state information, electric conductivity, and the like.

다양한 실시 예에 따르면, 상기 이물질의 패턴 정보는 상기 이물질의 주파수 스펙트럼 정보일 수 있다. 이 경우, 프로세서 130은 상기 센서 정보를 주파수 스펙트럼 정보로 변환하고, 상기 이물질의 주파수 스펙트럼 정보와 비교할 수 있다. 또한, 프로세서 130은 상술한 주파수 스펙트럼 정보들 간의 유사도가 일정 비율 이상인 경우 상기 이물질의 종류에 따라 터치 물체의 상태를 수막 상태, 오염막 상태, 또는 장갑 착용 상태로 분류할 수 있다.According to various embodiments, the pattern information of the foreign matter may be the frequency spectrum information of the foreign matter. In this case, the processor 130 may convert the sensor information into frequency spectrum information and compare the frequency spectrum information with the foreign substance frequency spectrum information. If the degree of similarity between the frequency spectrum information is greater than a predetermined ratio, the processor 130 may classify the state of the touch object into a water film state, a contaminated film state, or a glove wearing state according to the type of the foreign matter.

다양한 실시 예에 따르면, 상기 이물질의 패턴 정보를 이용하여 터치 물체의 상태를 판단함으로써 프로세서 130은 호버링(hovering) 동작에 의한 터치 입력 상태와 장갑 착용 상태를 구분할 수 있다. 예컨대, 프로세서 130은 호버링 동작에 따른 센서 정보를 주파수 스펙트럼 정보로 변환하고, 장갑의 주파수 스펙트럼 정보와 비교할 수 있다. 이 경우, 프로세서 130은 상술한 주파수 스펙트럼 정보들이 나타내는 특정 주파수의 크기 또는 일정 크기 이상을 가지는 주파수의 범위 등을 비교하여 장갑 착용 상태와 호버링 동작에 의한 터치 입력 상태를 구분할 수 있다.According to various embodiments, the processor 130 can distinguish the touch input state from the hovering operation and the glove wearing state by determining the state of the touch object using the pattern information of the foreign object. For example, the processor 130 may convert sensor information resulting from the hovering operation into frequency spectrum information and compare it with frequency spectrum information of the gloves. In this case, the processor 130 can discriminate between the glove wearing state and the touch input state by the hovering operation by comparing the frequency of the specific frequency indicated by the frequency spectrum information or the frequency range having a predetermined size or more.

다양한 실시 예에 따르면, 프로세서 130은 사용자 입력을 통해 터치 물체의 상태를 세밀하게 분류할 수 있다. 한 실시 예에 따르면, 프로세서 130은 터치 물체의 상태를 선택할 수 있는 화면을 출력하도록 제어할 수 있다. 예컨대, 프로세서 130은 터치 물체의 정상 상태에 대응하는 일반 기능, 수막 상태에 대응하는 수막 기능, 오염막 상태에 대응하는 오염막 기능, 또는 장갑 착용 상태에 대응하는 장갑 기능 등의 항목들을 포함하는 터치 기능 선택 객체를 출력하도록 제어할 수 있다. 또한, 프로세서 130은 선택된 항목에 대응하는 상태를 터치 물체의 상태로 판단할 수 있다.According to various embodiments, the processor 130 may fine-tune the state of the touch object through user input. According to one embodiment, the processor 130 may control the display of a screen for selecting the state of the touch object. For example, the processor 130 may include a touch including items such as a general function corresponding to a normal state of a touch object, a water film function corresponding to a water film state, a function of a contamination film corresponding to a state of a contaminated film, You can control to output the function selection object. In addition, the processor 130 may determine the state corresponding to the selected item as the state of the touch object.

프로세서 130은 분류된 터치 물체의 상태에 따라 터치 입력 처리 방식을 조정할 수 있다. 한 실시 예에 따르면, 프로세서 130은 터치 물체의 상태에 따라 터치 감도를 조정할 수 있다. 예컨대, 프로세서 130은 터치 물체가 수막 상태로 판단되면 터치 감도를 낮춰 물 또는 땀 등과 같은 수분을 포함하는 물질이 터치 입력으로 인식되는 현상을 방지할 수 있다. 또한, 프로세서 130은 터치 물체의 상태에 따라 표시 객체의 터치 영역(표시 객체가 터치되었다고 인식되는 영역)을 조정하고, 그에 대응하여 상기 표시 객체의 크기 또는 위치 등을 조정할 수 있다. 예컨대, 프로세서 130은 터치 물체가 수막 상태로 판단되면 표시 객체의 터치 영역을 일정 비율 넓게 조정하고, 그에 대응하여 상기 표시 객체의 크기도 일정 비율로 크게 조정할 수 있다.The processor 130 may adjust the touch input processing method according to the state of the classified touch object. According to one embodiment, the processor 130 may adjust the touch sensitivity according to the state of the touch object. For example, when the touch object is judged to be in the water film state, the processor 130 may reduce the touch sensitivity and prevent a phenomenon that a substance including water such as water or sweat is recognized as a touch input. In addition, the processor 130 may adjust a touch area (a region in which a display object is recognized as being touched) of the display object according to the state of the touch object, and adjust the size or position of the display object corresponding thereto. For example, if the touch object is judged to be in the water film state, the processor 130 may adjust the touch area of the display object to a predetermined ratio and adjust the size of the display object to a predetermined ratio.

도 2는 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치 200의 블록도를 나타낸다. 전자 장치 200은 도 1의 전자 장치 100이 확장된 형태일 수 있다.2 shows a block diagram of an electronic device 200 in connection with touch input processing in accordance with various embodiments. The electronic device 200 may be of the expanded form of the electronic device 100 of FIG.

도 2를 참조하면, 전자 장치 200은 센서 210, 프로세서 220, 메모리 230, 터치 입력 장치 280, 및 디스플레이 290을 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 200은 구성요소들 중 적어도 하나를 생략하거나 다른 구성 요소를 추가적으로 구비할 수 있다. 예컨대, 전자 장치 200은 음성 출력 장치를 더 포함할 수 있다.Referring to FIG. 2, the electronic device 200 may include a sensor 210, a processor 220, a memory 230, a touch input device 280, and a display 290. According to one embodiment, the electronic device 200 may omit at least one of the components or additionally include other components. For example, the electronic device 200 may further include a voice output device.

센서 210은 도 1의 제 1 터치 센서 110과 동일 또는 유사한 구성을 포함할 수 있다. 예컨대, 센서 210은 생체 인식 센서로서, 지문 인식 센서, 촉각 센서, 또는 pH 농도 센서 중 적어도 하나를 포함할 수 있다. 센서 210은 특정 조건을 만족하는 특정 시점에 터치 물체를 센싱하여 수집된 센서 정보를 프로세서 220에 전달할 수 있다. 한 실시 예에 따르면, 센서 210은 상기 지문 인식 센서를 포함하는 경우 지문 인식 기능 수행 중 수집한 정보를 프로세서 220에 전달하여 손가락 상태를 판단할 수 있다. 다양한 실시 예에 따르면, 센서 210은 패널의 형태로 구성된 터치 센서(예: 터치 입력 장치 280)를 포함할 수도 있다. 이 경우, 센서 210은 터치 인식 기능 수행 중 수집한 터치 정보를 특정 조건을 만족하는 특정 시점에 프로세서 220에 전달할 수 있다. 예컨대, 센서 210은 상기 터치 센서를 기반으로 센싱된 터치 물체의 첫 터치 동작에 대응하는 센서 정보를 프로세서 220에 전달하여 터치 물체의 상태를 판단할 수 있다. 이에 따라, 상기 특정 시점을 포함하여 이후에 센싱한 터치 정보는 터치 입력 장치 280에 전달되어 터치 물체의 상태에 따라 처리될 수 있다.The sensor 210 may have the same or similar configuration as the first touch sensor 110 of FIG. For example, the sensor 210 may be a biometric sensor, and may include at least one of a fingerprint recognition sensor, a tactile sensor, or a pH concentration sensor. The sensor 210 senses a touch object at a specific time point that satisfies a specific condition, and can transmit the collected sensor information to the processor 220. According to one embodiment, when the sensor 210 includes the fingerprint recognition sensor, the sensor 210 may transmit information collected during the fingerprint recognition function to the processor 220 to determine the finger state. According to various embodiments, the sensor 210 may include a touch sensor (e.g., a touch input device 280) configured in the form of a panel. In this case, the sensor 210 can transmit the collected touch information to the processor 220 at a specific time that satisfies a specific condition. For example, the sensor 210 may transmit the sensor information corresponding to the first touch operation of the sensed touch object to the processor 220 based on the touch sensor to determine the state of the touch object. Accordingly, the touch information sensed after the specific time is transmitted to the touch input device 280 and can be processed according to the state of the touch object.

다양한 실시 예에 따르면, 센서 210은 터치 물체의 상태가 판단된 시점을 기준으로 지정된 시간 이상이 흐른 시점에 새롭게 수집된 센서 정보를 프로세서 220에 전달하여 터치 물체의 상태를 업데이트할 수 있다. 예컨대, 상기 지문 인식 센서는 손가락 상태가 판단된 시점을 기준으로 지정된 시간이 흐르면 지문 정보를 다시 수집하여 프로세서 220에 전달할 수 있다. 이와 관련하여, 프로세서 220은 상기 지문 인식 센서에 손가락을 접근 또는 접촉할 수 있도록 유도하는 표시 객체 또는 음성 정보를 출력하도록 제어할 수 있다. 또한, 상기 터치 센서는 첫 터치 동작 이후 지정된 시간 이상이 흐른 시점에 센싱된 터치 정보를 프로세서 220에 전달할 수 있다.According to various embodiments, the sensor 210 can update the state of the touch object by transmitting newly collected sensor information to the processor 220 at a point of time longer than a specified time based on the time when the state of the touch object is determined. For example, the fingerprint recognition sensor may collect the fingerprint information again and pass the fingerprint information to the processor 220 after a predetermined time based on the determination of the finger status. In this regard, the processor 220 may control the fingerprint recognition sensor to output a display object or voice information to guide the finger to approach or touch the finger. In addition, the touch sensor may transmit the sensed touch information to the processor 220 at a point of time longer than a predetermined time after the first touch operation.

다양한 실시 예에 따르면, 상술한 터치 물체의 상태를 판단 및 업데이트 하는 기능은 복수 개의 센서들에 기반하여 수행될 수 있다. 예컨대, 터치 물체의 상태가 처음 판단 되는 경우에는 상기 지문 인식 센서를 기반으로 수집된 지문 정보를 이용하여 터치 물체 상태 판단 기능을 수행하고 이 후 터치 물체의 상태를 업데이트 하는 경우에는 상기 터치 센서를 기반으로 수집된 터치 정보를 이용하여 터치 물체 상태 업데이트 기능을 수행할 수 있다. 이에 따라 사용자는 터치 물체의 상태를 업데이트하기 위해 별도로 지문 인식 센서에 손가락을 접근 또는 접촉하는 동작을 생략할 수 있다.According to various embodiments, the function of determining and updating the state of the touch object described above may be performed based on a plurality of sensors. For example, when the state of the touch object is first determined, a touch object state determination function is performed using the fingerprint information collected based on the fingerprint recognition sensor, and then, when the state of the touch object is updated, The touch object state update function can be performed using the touch information collected by the touch object. Accordingly, the user can omit the operation of accessing or contacting the finger with the fingerprint recognition sensor separately for updating the state of the touch object.

다양한 실시 예에 따르면, 센서 210은 상기 센서 정보의 수집 과정에서 발생하는 이벤트(예: 지문 인식 이벤트 등)를 프로세서 220에 전달할 수 있다. 예컨대, 센서 210은 상기 센서 정보의 수집 성공에 따른 이벤트(예: 지문 인식 성공 이벤트 등)를 분석하고 프로세서 220에 전달할 수 있다. 다양한 실시 예에 따르면, 프로세서 220은 상기 이벤트(예: 지문 인식 이벤트 등)를 터치 물체 상태 이벤트(예: 손가락 상태 이벤트 등)(또는, 그에 대응되는 정보)로 매핑(mapping)하여 관리할 수 있다. 또한, 프로세서 220은 상기 매핑된 이벤트(또는, 그에 대응되는 명령)를 관련된 구성요소들(예: 터치 입력 장치 280 또는 디스플레이 290 등)에 전달할 수 있다.According to various embodiments, the sensor 210 may communicate to the processor 220 an event (e.g., a fingerprint recognition event) that occurs during the acquisition of the sensor information. For example, the sensor 210 may analyze an event (e.g., a fingerprint recognition success event) in response to the success of collection of the sensor information and transmit the analyzed event to the processor 220. According to various embodiments, the processor 220 may map and manage the event (e.g., a fingerprint recognition event) to a touch object state event (e.g., a finger state event) (or information corresponding thereto) . The processor 220 may also pass the mapped event (or a corresponding command) to the associated components (e.g., touch input device 280 or display 290, etc.).

프로세서 220은 전자 장치 200에 포함된 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있다. 한 실시 예에 따르면, 프로세서 220은 메모리 230에 저장된 하나 이상의 어플리케이션 프로그램들을 구동하여 프로세서 220에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 예컨대, 프로세서 220은 메모리 230에 저장된 터치 입력 제어 프로그램 231을 구동하여 도 1의 프로세서 130과 동일하거나 또는 유사한 동작 및 기능을 수행할 수 있다.The processor 220 may perform computations or data processing relating to control and / or communication of at least one other component included in the electronic device 200. According to one embodiment, the processor 220 may drive one or more application programs stored in the memory 230 to control a plurality of hardware or software components coupled to the processor 220, and may perform various data processing and operations. For example, the processor 220 may drive the touch input control program 231 stored in the memory 230 to perform the same or similar operations and functions as the processor 130 of FIG.

다양한 실시 예에 따르면, 프로세서 220은 센서 210을 활성화할 수 있다. 한 실시 예에 따르면, 프로세서 220은 지문 인식 기능 수행과 관련하여 지문 인식 센서를 활성화할 수 있다. 또한, 프로세서 220은 전자 장치 200의 사용 시작 시점 예컨대, 전자 장치 200의 화면이 턴-온(turn-on) 상태로 변경되는 시점에 센서 210을 활성화할 수 있다. 또한, 전자 장치 200은 특정 어플리케이션 프로그램이 실행되거나 또는 특정 어플리케이션 프로그램이 요청하는 시점에 센서 210을 활성화할 수 있다.According to various embodiments, the processor 220 may activate the sensor 210. According to one embodiment, the processor 220 may activate a fingerprint recognition sensor in conjunction with performing a fingerprint recognition function. In addition, the processor 220 may activate the sensor 210 at a point in time when the electronic device 200 is started to be used, for example, when the screen of the electronic device 200 is changed to a turn-on state. In addition, the electronic device 200 can activate the sensor 210 at a time when a specific application program is executed or a specific application program requests.

다양한 실시 예에 따르면, 프로세서 220은 센서 210으로부터 전달받은 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다. 한 실시 예에 따르면, 프로세서 220은 터치 입력 제어 프로그램 231의 구현된 동작 또는 기능 수행과 관련하여, 센서 210으로부터 센서 정보를 전달받을 수 있으며, 전달받은 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다.According to various embodiments, the processor 220 can determine the state of the touch object by analyzing sensor information received from the sensor 210. [ According to one embodiment, the processor 220 can receive sensor information from the sensor 210 in connection with the implemented operation or function of the touch input control program 231 and analyze the received sensor information to determine the state of the touch object .

다양한 실시 예에 따르면, 프로세서 220은 판단된 터치 물체의 상태에 따라 지정된 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 전자 장치 200에 포함된 해당 구성요소에 전달할 수 있다. 예컨대, 프로세서 220은 터치 물체가 수막 상태인 경우 수막 상태 이벤트(또는, 그에 대응하는 명령)를 터치 입력 장치 280 또는 디스플레이 290에 전달할 수 있다. 이와 관련하여, 상기 터치 물체 상태 이벤트는 터치 물체의 상태가 정상 상태인 경우 정상 상태 이벤트로 지정될 수 있으며, 수막 상태인 경우 수막 상태 이벤트로 지정될 수 있다. 또한, 상기 터치 물체 상태 이벤트는 터치 물체의 상태가 오염막 상태인 경우 오염막 상태 이벤트로 지정될 수 있으며, 장갑 착용 상태인 경우 장갑 착용 상태 이벤트로 지정될 수 있다.According to various embodiments, the processor 220 may communicate a designated touch object state event (or a corresponding command) to a corresponding component included in the electronic device 200 according to the determined state of the touch object. For example, the processor 220 may pass a hydro-state event (or a corresponding command) to the touch input device 280 or the display 290 when the touch object is in the water-state. In this regard, the touch object state event may be designated as a normal state event when the state of the touch object is a normal state, and may be designated as a water film state event when the state is a water film state. In addition, the touch object state event may be designated as a contamination film state event when the state of the touch object is a contaminated film state, or may be designated as a glove wearing state event when the object is wearing a glove.

메모리 230은 전자 장치 200의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리 230은 터치 입력 제어 프로그램 231을 저장할 수 있다. 터치 입력 제어 프로그램 231은 터치 입력 처리와 관련된 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.Memory 230 may store instructions or data related to at least one other component of electronic device 200. According to one embodiment, the memory 230 may store the touch input control program 231. The touch input control program 231 may include a module, a program, a routine, a set of instructions or a process related to touch input processing.

다양한 실시 예에 따르면, 메모리 230은 터치 물체의 정상 상태 정보를 저장할 수 있다. 예컨대, 메모리 230은 센서 210을 기반으로 터치 물체가 정상 상태일 때 수집된 센서 정보를 저장할 수 있다. 다양한 실시 예에 따르면, 메모리 230은 다양한 이물질의 패턴 정보들을 저장할 수 있다. 예컨대, 메모리 230은 센서 210을 기반으로 상기 이물질(예: 물, 땀, 먼지, 모래, 흙, 또는 장갑 등)을 센싱하여 얻어진 센서 정보를 저장할 수 있다. 또한, 메모리 230은 상기 이물질의 pH 농도, 표면 상태, 전기 전도도, 또는 주파수 스펙트럼 정보 등을 저장할 수 있다.According to various embodiments, the memory 230 may store steady state information of the touch object. For example, the memory 230 may store sensor information collected when the touch object is in a normal state based on the sensor 210. [ According to various embodiments, the memory 230 may store pattern information of various foreign objects. For example, the memory 230 may store sensor information obtained by sensing the foreign object (e.g., water, sweat, dust, sand, soil, gloves, etc.) based on the sensor 210. Also, the memory 230 may store the pH concentration, surface condition, electric conductivity, or frequency spectrum information of the foreign matter.

다양한 실시 예에 따르면, 메모리 230은 터치 입력 제어 프로그램 231에 구현된 동작 또는 기능 수행과 관련하여, 터치 물체의 상태와 관련된 정보를 저장할 수 있다. 예컨대, 메모리 230은 판단된 터치 물체의 상태, 상태 판단 시점(터치 물체의 상태가 판단된 시점), 조정된 터치 감도의 레벨(민감도), 또는 조정된 표시 객체들의 크기 또는 위치 등의 표시 설정 정보 등을 저장할 수 있다.According to various embodiments, the memory 230 may store information related to the state of the touch object, in connection with performing an action or function implemented in the touch input control program 231. For example, the memory 230 stores display setting information such as a state of the determined touch object, a state determination point (a point at which the state of the touch object is determined), a level (sensitivity) of the adjusted touch sensitivity, And so on.

터치 입력 장치 280은 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수집할 수 있다. 터치 입력 장치 280은 도 1의 제 2 터치 센서 150과 동일 또는 유사한 구성을 포함할 수 있다. 터치 입력 장치 280은 터치 제어 장치 240 및 터치 패널 250 등을 포함할 수 있다.The touch input device 280 may collect sensor information corresponding to approach or contact of a touch object. The touch input device 280 may have the same or similar configuration as the second touch sensor 150 of FIG. The touch input device 280 may include a touch control device 240, a touch panel 250, and the like.

터치 제어 장치 240은 터치 인식 기능과 관련하여 터치 패널 250의 제어 및 데이터 처리를 수행할 수 있다. 한 실시 예에 따르면, 터치 제어 장치 240은 터치 패널 250의 터치 감도를 설정할 수 있다. 예컨대, 정전용량식 터치 입력 방식인 경우, 터치 제어 장치 240은 유효한 터치 입력으로 처리하는 정전용량 변화 크기의 범위를 설정할 수 있다.The touch control device 240 can perform control and data processing of the touch panel 250 in association with the touch recognition function. According to one embodiment, the touch control device 240 can set the touch sensitivity of the touch panel 250. For example, in the case of the capacitive touch input method, the touch control device 240 can set a range of capacitance change magnitudes processed by a valid touch input.

다양한 실시 예에 따르면, 터치 제어 장치 240은 터치 패널 250으로부터 터치 정보(예: 터치 좌표, 터치 시간, 또는 터치 세기 등)를 수신할 수 있다. 또한, 터치 제어 장치 240은 수신된 터치 정보에 대응하는 터치 입력이 유효한 터치 입력인지를 판단할 수 있다. 예컨대, 터치 제어 장치 240은 터치 세기(예: 정전용량 변화 크기)를 상기 터치 감도에 대응하는 터치 세기의 범위와 비교하여 유효한 터치 입력인지를 판단할 수 있다. 또한, 터치 제어 장치 240은 유효한 터치 입력으로 판단된 터치 입력에 대응하는 터치 정보를 프로세서 220에 전달할 수 있다.According to various embodiments, the touch control device 240 may receive touch information (e.g., touch coordinates, touch time, or touch intensity, etc.) from the touch panel 250. Also, the touch control device 240 can determine whether the touch input corresponding to the received touch information is a valid touch input. For example, the touch control device 240 may compare the touch intensity (e.g., capacitance change size) with a range of the touch intensity corresponding to the touch sensitivity to determine whether the touch input is a valid touch input. In addition, the touch control device 240 can transmit the touch information corresponding to the touch input determined to be a valid touch input to the processor 220.

다양한 실시 예에 따르면, 터치 제어 장치 240은 프로세서 220으로부터 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 수신하고, 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)에 따라 터치 기능을 설정할 수 있다. 예컨대, 터치 제어 장치 240은 상기 터치 물체 상태 이벤트가 정상 상태 이벤트인 경우 상기 터치 기능을 일반 기능으로 설정할 수 있으며, 상기 터치 물체 상태 이벤트가 수막 상태 이벤트, 오염막 상태 이벤트, 또는 장갑 착용 상태 이벤트인 경우, 각각 수막 기능, 오염막 기능, 또는 장갑 기능으로 상기 터치 기능을 설정할 수 있다.According to various embodiments, the touch control device 240 may receive a touch object state event (or a corresponding command) from the processor 220 and set the touch function according to the touch object state event (or a corresponding command) have. For example, when the touch object state event is a normal state event, the touch control device 240 may set the touch function as a general function. If the touch object state event is a water film state event, a contamination film state event, The touch function can be set by a water film function, a contaminated membrane function, or a glove function, respectively.

이와 관련하여, 상기 터치 기능은 터치 물체의 상태에 따라 터치 패널 250의 터치 감도를 달리하여 터치 입력의 유효성을 판단하는 기능을 포함할 수 있다. 한 실시 예에 따르면, 상기 터치 기능이 수막 기능으로 설정되면, 터치 제어 장치 240은 터치 패널 250의 터치 감도를 낮춰 물 또는 땀 등에 의한 터치 입력은 무효화시키거나 노이즈 처리할 수 있다. 예컨대, 터치 제어 장치 240은 유효한 터치 입력으로 처리되는 정전용량 변화 크기를 높일 수 있다. 이에 따라, 터치 물체에 묻은 물 또는 땀 등과 같이 터치 패널 250에 정전용량 변화를 일으킬 수 있는 물질이 터치 물체와 인접한 지점에 투하되어 터치 패널 250에 접촉되거나, 또는 터치 물체의 접촉점을 기준으로 인접한 영역으로 번지는 경우라 하더라도 터치 제어 장치 240은 물 또는 땀 등에 의한 낮은 정전용량 변화는 무효화시키거나 노이즈 처리할 수 있다. 또한, 상기 터치 기능이 오염막 기능 또는 장갑 기능으로 설정되면, 터치 제어 장치 240은 터치 패널 250의 터치 감도를 높일 수 있다. 이에 따라, 터치 제어 장치 240은 먼지, 모래, 흙, 또는 장갑 등으로 인해 터치 물체의 접근 또는 접촉에 대응하는 정전용량 변화 크기가 낮게 측정되더라도 유효한 터치 입력으로 처리할 수 있다.In this regard, the touch function may include a function of determining the validity of the touch input by changing the touch sensitivity of the touch panel 250 according to the state of the touch object. According to one embodiment, when the touch function is set to the water film function, the touch control device 240 may reduce the touch sensitivity of the touch panel 250, thereby invalidating the touch input due to water, sweat or the like, or performing noise processing. For example, the touch control device 240 can increase the magnitude of capacitance change processed by a valid touch input. Accordingly, a substance, such as water or sweat, adhering to the touch object, which is capable of causing a change in capacitance on the touch panel 250, is dropped to a point adjacent to the touch object and is contacted to the touch panel 250, The touch control device 240 can invalidate or noise-process a change in capacitance caused by water, sweat or the like. Also, when the touch function is set to the function of the contamination film or the glove function, the touch control device 240 can increase the touch sensitivity of the touch panel 250. Accordingly, the touch control device 240 can process an effective touch input even if the magnitude of capacitance change corresponding to approach or contact of the touch object is low due to dust, sand, soil, gloves, or the like.

터치 패널 250은 정전식, 감압식, 적외선 방식, 또는 초음파 방식 등으로 터치 물체의 접근 또는 접촉을 감지하는 기능을 수행할 수 있다. 터치 패널 250은 감지된 터치 물체의 접근 또는 접촉에 대응하는 터치 정보 예컨대, 터치 좌표, 터치 시간, 또는 터치 세기 등을 터치 제어 장치 240에 전달할 수 있다. 다양한 실시 예에 따르면, 터치 패널 250은 터치 제어 장치 240을 포함하는 형태로 구성될 수 있다.The touch panel 250 can perform a function of detecting approach or contact of a touch object by an electrostatic type, a pressure sensitive type, an infrared ray type, an ultrasonic wave type, or the like. The touch panel 250 may transmit touch information, for example, touch coordinates, touch time, or touch intensity corresponding to approach or touch of the sensed touch object to the touch control device 240. According to various embodiments, the touch panel 250 may be configured to include a touch control device 240.

다양한 실시 예에 따르면, 터치 입력 장치 280은 터치 물체의 접근 또는 접촉에 대응하여 수집한 센서 정보를 프로세서 220에 전달할 수 있다. 이 경우, 프로세서 220은 상기 센서 정보를 이용하여 터치 물체의 상태를 판단할 수 있다. 또한, 프로세서 220은 상기 터치 물체의 상태에 대응하는 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 센서 210 또는 터치 입력 장치 280 중 적어도 하나에 전달할 수 있다. 프로세서 220으로부터 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 수신하면, 센서 210 또는 터치 입력 장치 280은 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)에 따라 센서 210 또는 터치 입력 장치 280의 기능 수행과 관련한 캘리브레이션(calibration) 작업(예: 터치 포인트(point) 조정 또는 터치 감도 설정 등)을 수행할 수 있다.According to various embodiments, the touch input device 280 may communicate the collected sensor information to the processor 220 in response to an approach or touch of a touch object. In this case, the processor 220 can determine the state of the touch object using the sensor information. Further, the processor 220 may transmit a touch object state event (or a corresponding command) corresponding to the state of the touch object to at least one of the sensor 210 and the touch input device 280. Upon receipt of the touch object state event (or a corresponding command) from the processor 220, the sensor 210 or the touch input device 280 displays the touch object state event (or a command corresponding thereto) (E.g., a point adjustment or a touch sensitivity setting) related to the performance of the function of the touch panel.

디스플레이 290은 데이터를 시각적으로 화면에 출력할 수 있다. 예컨대, 디스플레이 290은 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)를 표시할 수 있다. 디스플레이 290은 디스플레이 제어 장치 260 및 디스플레이 패널 270 등을 포함할 수 있다.The display 290 can visually output data to the screen. For example, display 290 may display various content (e.g., text, images, video, icons, or symbols). The display 290 may include a display controller 260, a display panel 270, and the like.

디스플레이 제어 장치 260은 화면 표시 기능과 관련하여 디스플레이 패널 270의 제어 및 데이터 처리를 수행할 수 있다. 한 실시 예에 따르면, 디스플레이 제어 장치 260은 프로세서 220으로부터 표시 객체 정보를 수신하여 디스플레이 패널 270에 출력하도록 제어할 수 있다.The display control device 260 can perform control and data processing of the display panel 270 with respect to the display function. According to one embodiment, the display control device 260 can receive display object information from the processor 220 and output the display object information to the display panel 270.

다양한 실시 예에 따르면, 디스플레이 제어 장치 260은 프로세서 220으로부터 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 수신하고, 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)에 따라 상기 표시 객체의 출력을 제어할 수 있다. 한 실시 예에 따르면, 디스플레이 제어 장치 260은 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)에 따라 상기 표시 객체의 크기 또는 위치 등을 조정하여 표시하도록 제어할 수 있다. 예컨대, 디스플레이 제어 장치 260은 상기 터치 물체 상태 이벤트가 수막 상태 이벤트인 경우, 상기 표시 객체의 크기를 지정된 비율만큼 크게 조정하여 표시하도록 제어할 수 있다.According to various embodiments, the display control device 260 receives a touch object state event (or a corresponding command) from the processor 220 and, depending on the touch object state event (or a corresponding command) Can be controlled. According to one embodiment, the display control device 260 may control the display object to display and adjust the size or position of the display object according to the touch object state event (or a corresponding command). For example, when the touch object state event is a water film state event, the display control device 260 may control the size of the display object to be adjusted by a predetermined ratio.

다양한 실시 예에 따르면, 디스플레이 제어 장치 260은 프로세서 220으로부터 터치 물체의 다양한 상태에 대응하는 항목들을 포함하는 터치 기능 선택 객체의 정보를 수신하여 디스플레이 패널 270에 표시하도록 제어할 수 있다. 예컨대, 디스플레이 제어 장치 260은 터치 물체의 정상 상태에 대응하는 일반 기능, 수막 상태에 대응하는 수막 기능, 오염막 상태에 대응하는 오염막 기능, 또는 장갑 착용 상태에 대응하는 장갑 기능 등의 항목들을 포함하는 터치 기능 선택 객체를 디스플레이 패널 270에 표시하도록 제어할 수 있다.According to various embodiments, the display control device 260 may receive information of a touch function selection object including items corresponding to various states of the touch object from the processor 220, and display the information on the display panel 270. For example, the display control device 260 includes items such as a general function corresponding to the steady state of the touch object, a water film function corresponding to the water film state, a function of the contamination film corresponding to the state of the contamination film, or a glove function corresponding to the wearing state of the glove The touch function selection object to be displayed on the display panel 270 can be controlled.

다양한 실시 예에 따르면, 디스플레이 제어 장치 260은 터치 물체의 상태를 나타내는 터치 물체 상태 아이콘(또는 이미지)을 디스플레이 패널 270에 표시하도록 제어할 수 있다. 디스플레이 제어 장치 260은 터치 물체의 상태에 따라 상기 터치 물체 상태 아이콘의 이미지를 다르게 표시하도록 제어할 수 있다. 예컨대, 디스플레이 제어 장치 260은 터치 물체의 상태에 따라 상기 터치 물체 상태 아이콘을 나타내는 이미지의 형태, 색, 또는 크기 등을 다르게 표시하도록 제어할 수 있다. 한 실시 예에 따르면, 디스플레이 제어 장치 260은 터치 입력 처리 기능의 상태(턴-온(turn-on) 상태 또는 턴-오프(turn-off) 상태)에 따라 상기 터치 물체 상태 아이콘의 표시 유/무, 투명도, 또는 배경색 등을 달리하여 표시할 수 있다. 예컨대, 터치 입력 처리 기능을 사용하지 않는 상태(턴-오프 상태)인 경우, 디스플레이 제어 장치 260은 상기 터치 물체 상태 아이콘을 화면에 출력하지 않을 수 있다. 또한, 터치 입력 처리 기능을 사용하는 상태(턴-온 상태)인 경우, 디스플레이 제어 장치 260은 터치 물체의 상태에 따라 형태, 색, 또는 크기 등이 다른 이미지로 설정된 상기 터치 물체 상태 아이콘을 투명도 또는 배경색 등을 달리하여 표시하도록 제어할 수 있다.According to various embodiments, the display control device 260 may control the display panel 270 to display a touch object status icon (or image) indicating the status of the touch object. The display control device 260 may control to display the image of the touch object state icon differently according to the state of the touch object. For example, the display control device 260 may control to display the shape, color, or size of the image representing the touch object state icon differently according to the state of the touch object. According to one embodiment, the display control device 260 displays the touch object state icon in accordance with the state of the touch input processing function (turn-on state or turn-off state) , Transparency, background color, or the like. For example, when the touch input processing function is not used (turn-off state), the display control device 260 may not output the touch object state icon on the screen. In addition, when the touch input processing function is used (turn-on state), the display control device 260 displays the touch object state icon set in the image of different shape, color, or size according to the state of the touch object, The background color, and the like.

디스플레이 패널 270은 사용자에게 각종 콘텐츠 예컨대, 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등과 같은 표시 객체를 표시할 수 있다. 디스플레이 패널 270은 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 다양한 실시 예에 따르면, 디스플레이 패널 270은 디스플레이 제어 장치 260을 포함하는 형태로 구성될 수 있다. 한 실시 예에 따르면, 디스플레이 패널 270은 터치 패널 250과 하나의 모듈로 구성될 수도 있다. 어떤 실시 예에서는, 터치 입력 장치 280과 디스플레이 290이 하나의 모듈로 구성될 수도 있다.Display panel 270 may display a variety of content to the user, such as text, images, video, icons, symbols, or the like. The display panel 270 may be embodied as being flexible, transparent, or wearable. According to various embodiments, the display panel 270 may be configured to include a display controller 260. According to one embodiment, the display panel 270 may be composed of a touch panel 250 and a single module. In some embodiments, the touch input device 280 and the display 290 may be configured as a single module.

다양한 실시 예에 따르면, 프로세서 220은 터치 제어 장치 240 또는 디스플레이 제어 장치 260에 터치 물체 상태 이벤트(또는, 그에 대응하는 명령)를 전달하여 터치 설정을 조정하는 대신에, 직접 터치 패널 250의 터치 감도를 조정하거나 또는 디스플레이 패널 270에 표시 객체의 크기 또는 위치 등을 조정하여 표시하도록 제어할 수 있다. 또한, 프로세서 220은 상기 터치 기능 선택 객체 또는 상기 터치 물체 상태 아이콘(또는 이미지)을 디스플레이 패널 270에 표시하도록 제어할 수도 있다.According to various embodiments, instead of adjusting the touch settings by communicating a touch object state event (or a corresponding command) to the touch control device 240 or the display control device 260, the processor 220 directly adjusts the touch sensitivity of the touch panel 250 Or adjust the size or position of the display object on the display panel 270 and display it. In addition, the processor 220 may control the touch function selection object or the touch object state icon (or the image) to be displayed on the display panel 270.

다양한 실시 예에 따르면, 전자 장치 200은 음성 출력 장치를 더 포함할 수 있다. 이 경우, 상기 음성 출력 장치는 터치 물체의 상태와 관련된 음성 정보를 출력할 수 있다. 예컨대, 상기 음성 출력 장치는 터치 물체의 상태가 판단된 시점 또는 터치 물체의 상태에 따라 터치 입력 처리 방식이 조정되는 시점에 터치 물체의 상태와 관련된 음성 정보를 출력할 수 있다.According to various embodiments, the electronic device 200 may further include a voice output device. In this case, the sound output apparatus can output sound information related to the state of the touch object. For example, the sound output apparatus may output voice information related to the state of the touch object at a time when the state of the touch object is determined or the touch input processing method is adjusted according to the state of the touch object.

상술한 바와 같이, 다양한 실시 예에 따르면, 전자 장치(예: 전자 장치 200)는 터치 물체를 센싱하여 센서 정보를 수집하는 제 1 터치 센서(예: 센서 210), 상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 프로세서(예: 프로세서 220), 및 상기 터치 물체의 상태에 따라 터치 감도가 조정되는 제 2 터치 센서(예: 터치 입력 장치 280)를 포함할 수 있다.As described above, according to various embodiments, an electronic device (e.g., electronic device 200) may include a first touch sensor (e.g., sensor 210) that senses a touch object and collects sensor information, A processor (e.g., processor 220) for determining the state of an object, and a second touch sensor (e.g., touch input device 280) whose touch sensitivity is adjusted according to the state of the touch object.

다양한 실시 예에 따르면, 상기 제 1 터치 센서는 지문 인식 센서, 촉각 센서, pH 농도 센서, 또는 터치 센서 중 적어도 하나를 포함할 수 있다.According to various embodiments, the first touch sensor may include at least one of a fingerprint recognition sensor, a tactile sensor, a pH concentration sensor, or a touch sensor.

다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체와 상기 제 1 터치 센서 사이에 이물질이 감지되지 않은 상태에 대응하는 정상 상태 정보, 및 상기 제 1 터치 센서를 기반으로 상기 이물질을 센싱한 정보, 상기 이물질의 pH 농도 정보, 표면 상태 정보, 전기 전도도 정보, 또는 주파수 스펙트럼 정보 중 적어도 하나를 포함하는 상기 이물질의 패턴 정보를 상기 센서 정보와 비교하여 상기 터치 물체의 상태를 판단할 수 있다.According to various embodiments, the processor may further include: steady state information corresponding to a state in which a foreign object is not detected between the touch object and the first touch sensor; information obtained by sensing the foreign object based on the first touch sensor; The state of the touch object can be determined by comparing the pattern information of the foreign object including at least one of the pH concentration information of the foreign substance, the surface state information, the electric conductivity information, and the frequency spectrum information with the sensor information.

다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태에 따라 디스플레이(예: 디스플레이 290)에 출력되는 표시 객체들의 터치 영역을 조정하도록 제어할 수 있다.According to various embodiments, the processor may control to adjust the touch region of display objects output to the display (e.g., display 290) according to the state of the touch object.

다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 영역에 대응하도록 상기 표시 객체들의 크기 또는 위치 중 적어도 하나를 변경하도록 제어할 수 있다.According to various embodiments, the processor may control to change at least one of the size or position of the display objects to correspond to the touch region.

다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태에 대응하는 적어도 하나의 항목을 포함하는 터치 기능 선택 객체를 디스플레이에 표시하도록 제어할 수 있다.According to various embodiments, the processor can control to display on the display a touch function selection object that includes at least one item corresponding to the state of the touch object.

다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 기능 선택 객체를 상기 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 전자 장치에 포함된 특정 물리 버튼이 선택되는 시점, 상기 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 상기 특정 어플리케이션 프로그램이 요청하는 시점, 상기 화면의 일정 영역이 상기 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동되는 시점, 또는 상기 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 중 적어도 하나의 시점에 표시하도록 제어할 수 있다.According to various embodiments, the processor may be configured to switch the touch function selection object from a state in which the screen of the electronic device is turned off to a turn-on state, a state in which the touch input processing function is turned off, A time at which a specific physical button included in the electronic device is selected, a time at which a specific application program included in the electronic device is executed or a time at which the specific application program requests a certain area, It is possible to control the touch object to be displayed at at least one of a time when the touch object moves within a predetermined distance in a predetermined direction in a predetermined direction or a time when the electronic device moves or swivels in a predetermined direction by a predetermined number of times have.

다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태를 판단한 시점을 기준으로 지정된 시간이 경과된 시점에 상기 터치 물체를 센싱하여 수집한 센서 정보를 기반으로 상기 터치 물체의 상태를 업데이트하고, 상기 제 2 터치 센서는 업데이트된 상기 터치 물체의 상태에 따라 터치 감도가 조정될 수 있다.According to various embodiments, the processor updates the state of the touch object based on sensor information collected by sensing the touch object at a point of time after a predetermined time has elapsed based on a time point at which the state of the touch object is determined, And the second touch sensor can be adjusted in touch sensitivity according to the state of the updated touch object.

다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태에 따라 형태, 색, 또는 크기 중 적어도 하나가 다른 이미지로 설정된 아이콘을 디스플레이의 일정 영역에 표시하도록 제어할 수 있다.According to various embodiments, the processor may control to display an icon set in another image of at least one of the shape, color, or size according to the state of the touch object in a certain area of the display.

다양한 실시 예에 따르면, 상기 프로세서는 상기 터치 물체의 상태가 변경되면 상기 터치 물체 상태 변경과 관련한 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 객체의 출력 또는 상기 터치 물체 상태 변경과 관련한 음성 정보의 출력 중 적어도 하나를 제어할 수 있다.According to various embodiments, the processor may further include an output of an object including at least one of a text, an image, or an icon associated with the change of the touch object state when the state of the touch object is changed, And / or the output.

도 3은 다양한 실시 예에 따른 센서 정보에 대응하여 터치 입력을 처리하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다. 다양한 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치 200)는 화면이 턴-오프 상태에서 턴-온 상태로 변경되는 시점 또는 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 또는 특정 어플리케이션 프로그램이 요청하는 시점에 센서(예: 도 2의 센서 210)를 활성화시킬 수 있다.3 illustrates a method of operating an electronic device associated with a method for processing a touch input in response to sensor information according to various embodiments. According to various embodiments, the electronic device (e. G., Electronic device 200 of FIG. 2) may be configured to determine when the screen changes from turn-off to turn-on, (E.g., sensor 210 of FIG. 2) at the time of the request.

도 3을 참조하면, 동작 310에서와 같이 전자 장치는 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 상기 센서로부터 수신할 수 있다. 예컨대, 전자 장치는 지문 인식 센서로부터 사용자 지문에 포함된 융선들의 길이, 방향, 또는 특이 지점에 대한 정보를 포함하는 지문 정보를 수신하거나, 촉각 센서로부터 터치 물체의 접촉에 대응하는 접촉력의 세기, 방향, 또는 압력의 분포 등의 정보를 포함하는 접촉 상태 정보를 수신하거나, pH 농도 센서로부터 터치 물체의 접촉면에 대한 pH 농도 분포 등의 정보를 수신하거나, 또는 터치 센서로부터 터치 물체의 접근 또는 접촉에 따른 정전용량의 변화 또는 압력의 변화 등으로 판단될 수 있는 터치 정보를 수신할 수 있다.Referring to FIG. 3, as in operation 310, the electronic device may receive sensor information from the sensor corresponding to an approach or touch of a touch object. For example, the electronic device receives fingerprint information including information on the length, direction, or specific point of the ridges included in the user fingerprint from the fingerprint recognition sensor, or receives the fingerprint information from the tactile sensor, Or a distribution of pressure, or receives information such as a pH concentration distribution with respect to a contact surface of a touch object from a pH concentration sensor, or receives information from a pH sensor on contact or contact with a touch object It is possible to receive touch information that can be judged by a change in capacitance or a change in pressure.

상기 센서 정보를 수신하는 동작과 관련하여, 전자 장치는 특정 조건을 만족하는 특정 시점에 상기 센서 정보를 수신할 수 있다. 한 실시 예에 따르면, 전자 장치는 지문 인식 기능과 관련하여 사용자의 지문을 인식하는 시점에 수집된 지문 정보를 상기 지문 인식 센서로부터 수신할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 상기 터치 센서를 기반으로 센싱된 터치 물체의 첫 터치 동작에 대응하는 상기 센서 정보를 수신할 수 있다. 또한, 전자 장치는 첫 터치 동작 이후 지정된 시간 이상이 흐른 시점에 센싱된 터치 동작에 대응하는 상기 센서 정보를 수신할 수도 있다.With respect to the operation of receiving the sensor information, the electronic device may receive the sensor information at a specific time point that satisfies a specific condition. According to one embodiment, the electronic device can receive fingerprint information collected at the time of recognizing the user's fingerprint with respect to the fingerprint recognition function from the fingerprint recognition sensor. According to various embodiments, the electronic device may receive the sensor information corresponding to the first touch operation of the sensed touch object based on the touch sensor. In addition, the electronic device may receive the sensor information corresponding to the sensed touch operation at a point of time longer than a specified time after the first touch operation.

상기 센서 정보를 수신하면, 동작 320에서와 같이, 전자 장치는 상기 센서 정보를 분석하여 터치 물체의 상태를 확인할 수 있다. 한 실시 예에 따르면, 전자 장치는 저장매체(예: 도 2의 메모리 230)에 저장된 터치 물체의 정상 상태 정보와 상기 센서 정보를 비교하여 터치 물체의 상태를 확인할 수 있다. 예컨대, 전자 장치는 상기 지문 인식 센서로부터 수신된 지문 정보와 상기 저장매체에 저장된 정상 상태의 지문 정보(예: 손가락과 지문 인식 센서 사이에 이물질이 감지되지 않은 상태에서 수집된 지문 정보)를 비교하여 손가락 상태를 확인할 수 있다.Upon receipt of the sensor information, the electronic device may analyze the sensor information to confirm the status of the touch object, as in operation 320. According to one embodiment, the electronic device can check the state of the touch object by comparing the sensor information with the steady state information of the touch object stored in the storage medium (e.g., the memory 230 of FIG. 2). For example, the electronic device compares fingerprint information received from the fingerprint recognition sensor with fingerprint information of a normal state stored in the storage medium (for example, fingerprint information collected in a state where no foreign matter is detected between the finger and the fingerprint recognition sensor) You can check your finger status.

다양한 실시 예에 따르면, 상기 지문 인식 센서는 사용자의 지문 정보를 내부적으로 분석하여 사용자의 손가락 상태를 판단할 수 있다. 또한, 상기 지문 인식 센서는 사용자의 손가락 상태에 대응하는 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 전자 장치로 전달할 수 있으며, 전자 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 바탕으로 손가락 상태를 확인할 수 있다. 또는, 상기 지문 인식 센서는 사용자의 지문 정보 수집 과정에서 발생하는 지문 인식 이벤트를 전자 장치로 전달할 수 있다. 이 경우, 전자 장치는 상기 지문 인식 이벤트를 손가락 상태 이벤트(또는, 그에 대응하는 정보)로 매핑하여 관리할 수 있다. 이 과정에서, 전자 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 바탕으로 손가락 상태를 확인할 수 있다.According to various embodiments, the fingerprint recognition sensor can internally analyze the fingerprint information of the user to determine the state of the user's finger. Further, the fingerprint recognition sensor may transmit a finger status event (or information corresponding thereto) corresponding to the finger state of the user to the electronic device, and the electronic device may transmit the finger status event (or the corresponding information) The finger status can be confirmed. Alternatively, the fingerprint recognition sensor may transmit a fingerprint recognition event generated in the fingerprint information collection process of the user to the electronic device. In this case, the electronic device can manage the fingerprint recognition event by mapping it to a finger state event (or information corresponding thereto). In this process, the electronic device can confirm the finger state based on the finger state event (or information corresponding thereto).

다양한 실시 예에 따르면, 터치 물체의 상태가 정상 상태인 경우, 동작 330을 스킵할 수 있다. 터치 물체의 상태가 정상 상태가 아닌 경우, 동작 330에서와 같이, 전자 장치는 터치 물체의 상태를 세밀하게 분류할 수 있다. 예컨대, 전자 장치는 터치 물체의 상태를 수막 상태, 오염막 상태, 또는 장갑 착용 상태 등으로 분류할 수 있다. 이와 관련하여, 터치 물체의 상태를 세밀하게 분류하는 방법은 상기 센서 정보를 이용하는 방법 또는 상기 터치 기능 선택 객체를 이용하는 방법을 포함할 수 있다. 상기 터치 물체의 상태를 세밀하게 분류하는 방법과 관련한 전자 장치의 운용 방법은 후술하는 실시 예를 통해 설명하도록 한다.According to various embodiments, if the state of the touch object is in a normal state, then operation 330 may be skipped. If the state of the touch object is not in a steady state, as in operation 330, the electronic device can fine-tune the state of the touch object. For example, the electronic device can classify the state of the touch object into a water film state, a contaminated film state, or a glove wearing state. In this regard, a method of finely classifying the state of the touch object may include a method of using the sensor information or a method of using the touch function selection object. The method of operating the electronic device related to the method of finely classifying the state of the touch object will be described with reference to the embodiments described later.

동작 340에서, 전자 장치는 터치 물체의 상태가 변경되었는지를 판단할 수 있다. 예컨대, 전자 장치는 상기 저장매체에서 이전에 판단되어 저장된 터치 물체의 상태를 확인할 수 있다. 전자 장치는 상기 저장매체 저장된 터치 물체의 상태와 새롭게 판단된 터치 물체의 상태를 비교하여 변경 여부를 판단할 수 있다. 상기 저장매체에 터치 물체의 상태와 관련된 정보가 저장되어 있지 않은 경우, 전자 장치는 새롭게 판단된 터치 물체의 상태 및 상태 판단 시점 등을 상기 저장매체에 저장할 수 있다. 또한, 터치 물체의 상태가 변경된 경우에도 전자 장치는 새롭게 판단된 터치 물체의 상태 및 상태 판단 시점 등을 상기 저장매체에 저장할 수 있다.At operation 340, the electronic device may determine whether the state of the touch object has changed. For example, the electronic device can confirm the state of the touch object previously determined and stored in the storage medium. The electronic device may compare the state of the touch object stored in the storage medium with the state of the newly determined touch object to determine whether or not the object is changed. If the information related to the state of the touch object is not stored in the storage medium, the electronic device can store the state of the newly determined touch object, the time of state determination, and the like in the storage medium. In addition, even when the state of the touch object is changed, the electronic device can store the state of the newly determined touch object, the time of state determination, and the like in the storage medium.

터치 물체의 상태가 변경된 경우, 동작 350에서와 같이, 전자 장치는 터치 물체의 상태에 따른 터치 기능의 설정을 수행할 수 있다. 예컨대, 전자 장치는 터치 물체의 상태에 따라 일반 기능, 수막 기능, 오염막 기능, 또는 장갑 기능 등으로 터치 기능을 설정할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 설정된 터치 기능에 따라 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 상기 터치 입력 장치에 상기 설정된 터치 기능과 관련된 정보를 전달할 수 있다. 예컨대, 전자 장치는 상기 설정된 터치 기능과 관련된 정보를 명령의 형태로 상기 터치 입력 장치에 전달할 수 있다. 상기 터치 입력 장치는 전달받은 정보에 따라 상기 터치 입력 장치의 기능 수행과 관련한 캘리브레이션 작업(예: 터치 포인트 조정 또는 터치 감도 설정 등)을 수행할 수 있다. 또한, 전자 장치는 터치 물체의 상태에 따라 표시 객체의 터치 영역을 조정하고, 그에 대응하여 상기 표시 객체의 크기 또는 위치 등 출력 상태를 제어할 수 있다.If the state of the touch object is changed, as in operation 350, the electronic device can perform the setting of the touch function according to the state of the touch object. For example, the electronic device can set a touch function by a general function, a water film function, a contamination film function, or a glove function according to the state of a touch object. According to various embodiments, the electronic device may adjust the touch sensitivity of the touch input device (e.g., the touch input device 280 of FIG. 2) according to the set touch function. According to various embodiments, the electronic device may communicate information related to the set touch function to the touch input device. For example, the electronic device can transmit information related to the set touch function to the touch input device in the form of an instruction. The touch input device may perform a calibration operation (e.g., a touch point adjustment or a touch sensitivity setting) related to the performance of the touch input device according to the received information. Also, the electronic device can adjust the touch area of the display object according to the state of the touch object, and control the output state such as the size or position of the display object correspondingly.

터치 물체의 상태가 변경되지 않은 경우, 전자 장치는 이전에 설정된 터치 기능의 설정을 유지할 수 있다. 예컨대, 전자 장치는 상기 터치 입력 장치의 터치 감도를 그대로 유지할 수 있으며, 상기 표시 객체의 출력 상태를 그대로 유지할 수 있다. 동작 360에서와 같이, 전자 장치는 설정된 터치 기능에 따라 상기 센서 정보가 수신된 시점을 포함하여 이후에 감지되는 터치 물체의 접근 또는 접촉에 따른 터치 입력을 처리할 수 있다.If the state of the touch object is not changed, the electronic device can maintain the setting of the previously set touch function. For example, the electronic device can maintain the touch sensitivity of the touch input device as it is, and can maintain the output state of the display object as it is. As in operation 360, the electronic device may process the touch input in response to the approach or touch of the touch object detected later including the time when the sensor information is received according to the set touch function.

다양한 실시 예에 따르면, 전자 장치는 상기 저장매체에 저장된 상기 상태 판단 시점을 기준으로 지정된 시간이 경과된 시점에 동작 310 이하의 동작을 수행하도록 제어할 수 있다. 예컨대, 전자 장치는 새롭게 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수신할 수 있으며, 수신된 센서 정보를 기반으로 터치 물체의 상태를 업데이트할 수 있다. 이에 따라, 전자 장치는 터치 물체의 상태 변화를 보다 정확히 판단할 수 있으며, 터치 물체의 상태 변화에 따라 터치 입력 처리 방식을 조정할 수 있다.According to various embodiments, the electronic device may control to perform an operation after the operation 310 at a point in time that has elapsed after a predetermined time based on the state determination time stored in the storage medium. For example, the electronic device may receive sensor information corresponding to approach or contact of a new touch object, and may update the state of the touch object based on the received sensor information. Accordingly, the electronic device can more accurately determine the state change of the touch object, and can adjust the touch input processing method according to the change of the state of the touch object.

다양한 실시 예에 따르면, 터치 물체의 상태를 세밀하게 분류하는 방법은 센서(예: 도 2의 센서 210)를 기반으로 수집된 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 이용하는 방법 또는 터치 물체의 다양한 상태에 대응하는 항목들을 포함하는 터치 기능 선택 객체를 이용하는 방법을 포함할 수 있다.According to various embodiments, a method of finely categorizing the state of a touch object may include a method of using sensor information corresponding to approach or contact of the collected touch object based on a sensor (e.g., sensor 210 of FIG. 2) A method of using a touch function selection object that includes items corresponding to various states.

도 4는 다양한 실시 예에 따른 센서 정보를 이용하여 터치 기능을 설정하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.4 illustrates a method of operating an electronic device related to a method of setting a touch function using sensor information according to various embodiments.

먼저 도 4를 참조하면, 동작 410에서와 같이, 전자 장치는 센서를 기반으로 수집된 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 확인할 수 있다. 예컨대, 상기 센서 정보는 지문 인식 센서를 기반으로 수집된 지문 정보, 촉각 센서를 기반으로 수집된 접촉 상태 정보, pH 농도 센서를 기반으로 수집된 접촉면의 pH 농도 분포 정보, 또는 터치 센서를 기반으로 수집된 터치 정보 등을 포함할 수 있다.Referring first to FIG. 4, as in operation 410, the electronic device can identify sensor information corresponding to an approach or touch of a collected touch object based on the sensor. For example, the sensor information may include fingerprint information collected based on a fingerprint sensor, contact state information collected based on a tactile sensor, pH concentration distribution information of a contact surface collected based on a pH concentration sensor, Touch information, and the like.

동작 430에서, 전자 장치는 상기 센서 정보를 분석하여 터치 물체의 상태를 세밀하게 분류할 수 있다. 한 실시 예에 따르면, 전자 장치는 저장매체(예: 도 2의 메모리 230)에 저장된 다양한 이물질의 패턴 정보들을 상기 센서 정보와 비교하여 터치 물체의 상태를 세밀하게 분류할 수 있다. 예컨대, 전자 장치는 다양한 이물질의 패턴 정보들과 상기 센서 정보의 유사도를 판단할 수 있다. 이를 통해, 전자 장치는 터치 물체의 상태를 정상 상태, 수막 상태, 오염막 상태, 또는 장갑 착용 상태 등으로 분류할 수 있다.In operation 430, the electronic device may analyze the sensor information to fine-tune the state of the touch object. According to one embodiment, the electronic device can classify the state of the touch object by comparing the pattern information of various foreign substances stored in the storage medium (e.g., the memory 230 of FIG. 2) with the sensor information. For example, the electronic device can determine the degree of similarity between the pattern information of various foreign substances and the sensor information. Thus, the electronic device can classify the state of the touch object as a normal state, a water film state, a contaminated film state, or a glove wearing state.

터치 물체의 상태가 분류되면, 동작 450에서와 같이, 전자 장치는 터치 물체의 상태에 따른 터치 기능을 지정할 수 있다. 예컨대, 전자 장치는 터치 기능을 터치 물체의 상태가 정상 상태인 경우 일반 기능으로 지정할 수 있으며, 수막 상태인 경우 수막 기능으로 지정할 수 있다. 또한, 전자 장치는 터치 기능을 터치 물체의 상태가 오염막 상태인 경우 오염막 기능으로 지정할 수 있으며, 장갑 착용 상태인 경우 장갑 기능으로 지정할 수 있다.Once the state of the touch object is classified, as in operation 450, the electronic device can specify a touch function according to the state of the touch object. For example, the electronic device can designate the touch function as a general function when the state of the touch object is in the normal state, and can designate it as the water film function in the case of the water film state. In addition, the electronic device can designate the touch function as the function of the contamination membrane when the state of the touch object is the contaminated film state, or as the function of the glove when wearing the glove.

터치 기능이 지정되면, 동작 470에서와 같이, 전자 장치는 지정된 터치 기능에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치는 터치 설정을 변경할 수 있다. 한 실시 예에 따르면, 전자 장치는 터치 기능에 따라 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 예컨대, 터치 기능이 수막 기능으로 지정되면, 전자 장치는 터치 입력 장치의 터치 감도를 낮게 조정하여 물 또는 땀 등에 의해 발생되는 터치 입력을 무효화시키거나 노이즈 처리할 수 있다. 또한, 터치 기능이 오염막 기능 또는 장갑 기능으로 지정되면, 전자 장치는 터치 입력 장치의 터치 감도를 높게 조정하여 먼지, 모래, 흙, 또는 장갑 등으로 인해 터치 물체의 접근 또는 접촉에 대응하는 터치 세기가 낮게 측정되어 터치 입력으로 인식되지 못하는 현상을 방지할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 터치 입력 장치에 상기 터치 기능과 관련된 정보를 (예컨대, 명령의 형태로) 전달할 수 있으며, 상기 터치 입력 장치는 전달받는 정보에 따라 상기 터치 입력 장치의 기능 수행과 관련한 캘리브레이션 작업을 수행할 수 있다. 어떤 실시 예에서, 상기 터치 입력 장치는 전달받는 정보에 따라 내부적으로 동작하는 고스트 터치 인식에 대한 알고리즘 및 임계값을 변경할 수 있다.If a touch function is designated, the electronic device can adjust the touch input processing method according to the designated touch function, as in operation 470. [ For example, the electronic device may change the touch settings. According to one embodiment, the electronic device can adjust the touch sensitivity of the touch input device (e.g., the touch input device 280 of FIG. 2) according to the touch function. For example, if the touch function is designated as a water film function, the electronic device can adjust the touch sensitivity of the touch input device to a low level to invalidate the touch input generated by water, sweat or the like, or perform noise processing. Further, when the touch function is designated as the function of the contamination film or the glove function, the electronic device adjusts the touch sensitivity of the touch input device to a high level so that the touch intensity corresponding to approach or contact of the touch object due to dust, sand, soil, Can be prevented from being recognized as a touch input. According to various embodiments, the electronic device may transmit information related to the touch function to the touch input device (e.g., in the form of an instruction), and the touch input device may perform functions of the touch input device It is possible to carry out the related calibration work. In some embodiments, the touch input device may change the algorithm and threshold for ghost touch recognition to operate internally according to the information being received.

다양한 실시 예에 따르면, 전자 장치는 지정된 터치 기능에 따라 표시 객체들의 터치 영역을 조정할 수 있다. 또한, 전자 장치는 상기 터치 영역에 대응되도록 상기 표시 객체들의 크기 또는 위치 등 출력 상태를 조정할 수 있다. 예컨대, 터치 기능이 수막 기능으로 지정되면, 전자 장치는 상기 표시 객체들의 크기를 일정 비율로 크게 표시할 수 있다. 이를 통해, 전자 장치는 터치 물체에 묻은 물 또는 땀 등이 번져서 의도하지 않은 영역이 선택되는 것을 방지할 수 있다.According to various embodiments, the electronic device can adjust the touch region of the display objects according to the designated touch function. In addition, the electronic device can adjust the output state such as the size or the position of the display objects to correspond to the touch area. For example, if the touch function is designated as a water film function, the electronic device can display the size of the display objects at a predetermined ratio. As a result, the electronic device can prevent the unintentional region from being selected by spreading water or sweat on the touch object.

상술한 바와 같이 센서를 기반으로 수집된 센서 정보를 이용하여 터치 물체의 상태를 세밀하게 분류하는 방법 대신에 전자 장치는 사용자로부터 터치 물체의 상태를 입력 받을 수 있다. 예컨대, 전자 장치는 터치 물체의 다양한 상태에 대응하는 항목들을 포함하는 터치 기능 선택 객체를 화면에 표시함으로써 사용자로 하여금 터치 물체의 상태를 선택하도록 유도할 수 있다.As described above, instead of the method of finely classifying the state of the touch object using the sensor information collected based on the sensor, the electronic device can receive the state of the touch object from the user. For example, the electronic device can guide the user to select the state of the touch object by displaying a touch function selection object including items corresponding to various states of the touch object on the screen.

도 5는 다양한 실시 예에 따른 터치 기능 선택 객체를 이용하여 터치 기능을 설정하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다.FIG. 5 illustrates a method of operating an electronic device related to a method of setting a touch function using a touch function selection object according to various embodiments.

도 5를 참조하면, 동작 510에서와 같이, 전자 장치는 상기 터치 기능 선택 객체를 화면에 표시할 수 있다. 이 경우, 전자 장치는 상기 터치 기능 선택 객체를 통해 사용자로부터 터치 물체의 상태를 입력 받을 수 있다. 사용자 입력이 일정 시간 이상 수신되지 않거나 또는 사용자 입력이 유효한 선택(예: 상기 터치 기능 선택 객체의 항목들 중 어느 하나의 항목이 선택)이 아닌 경우, 전자 장치는 상기 터치 기능 선택 객체의 출력 상태를 유지할 수 있다. 또는, 전자 장치는 상기 터치 기능 선택 객체의 출력을 종료하고 터치 기능을 이전에 설정된 정보로 유지할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 사용자로 하여금 터치 물체의 상태를 선택하도록 유도하는 텍스트, 이미지, 또는 아이콘 등을 포함하는 객체를 화면에 표시하거나, 터치 물체의 상태를 선택하도록 유도하는 음성 정보를 음성 출력 장치를 통해 출력할 수도 있다.Referring to FIG. 5, as in operation 510, the electronic device may display the touch function selection object on the screen. In this case, the electronic device can receive the state of the touch object from the user through the touch function selection object. If the user input is not received for a certain period of time or the user input is not a valid selection (e.g., any one of the items of the touch function selection object is selected), the electronic device displays the output state of the touch function selection object . Alternatively, the electronic device may terminate the output of the touch function selection object and maintain the touch function as previously set information. According to various embodiments, the electronic device may display audio information that induces a user to select a state of a touch object, or to display an object including a text, an image, or an icon that prompts a user to select a state of the touch object It may be output through a voice output device.

다양한 실시 예에 따르면, 동작 510에서와 같이 상기 터치 기능 선택 객체를 화면에 표시하는 동작은 특정 조건을 만족하는 특정 시점에 수행될 수도 있다. 한 실시 예에 따르면, 전자 장치는 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 특정 물리 버튼이 선택되는 시점, 특정 어플리케이션 프로그램이 실행되거나 또는 특정 어플리케이션 프로그램이 요청하는 시점, 화면의 일정 영역이 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동(flick 동작)되는 시점, 또는 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 등에 상기 터치 기능 선택 객체를 화면에 표시할 수 있다.According to various embodiments, the act of displaying the touch function selection object on the screen, as in operation 510, may be performed at a specific time point that satisfies a specific condition. According to one embodiment, the electronic device may be configured such that a time at which the screen changes from a turn-off state to a turn-on state, a time at which the touch input processing function changes from a turn-off state to a turn- When a certain application program is executed or when a specific application program requests a certain area of the screen is pressed by a touch object and the touch object is flicked within a predetermined distance in a predetermined direction , Or a point in time when the electronic device moves or rotates in a predetermined direction a predetermined number of times at a predetermined interval.

동작 530에서와 같이, 전자 장치는 상기 유효한 선택 시 발생되는 터치 기능 선택 이벤트를 수신할 수 있다. 예컨대, 전자 장치는 상기 항목에 따라 정상 상태 이벤트, 수막 상태 이벤트, 오염막 상태 이벤트, 또는 장갑 착용 상태 이벤트 등을 수신할 수 있다. 상기 터치 기능 선택 이벤트가 수신되면, 동작 550에서와 같이, 전자 장치는 상기 터치 기능 선택 이벤트에 대응되는 터치 기능을 확인할 수 있다. 예컨대, 전자 장치는 상기 터치 기능 선택 이벤트가 상기 정상 상태 이벤트인 경우 일반 기능으로, 상기 수막 상태 이벤트인 경우 수막 기능으로, 상기 오염막 상태 이벤트인 경우 오염막 기능으로, 또는 상기 장갑 착용 상태 이벤트인 경우 장갑 기능으로 확인할 수 있다.As in operation 530, the electronic device may receive a touch function selection event that is generated upon the valid selection. For example, the electronic device may receive a steady state event, a water film state event, a contaminated film state event, or a glove wearing state event according to the item. When the touch function selection event is received, as in operation 550, the electronic device can confirm the touch function corresponding to the touch function selection event. For example, the electronic device may be a general function if the touch function selection event is the steady state event, a water film function in the case of the water film state event, a contamination film function in the case of the contamination film state event, In case of gloves function can be confirmed.

선택된 터치 기능이 확인되면, 동작 570에서와 같이, 전자 장치는 선택된 터치 기능에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치는 터치 설정을 변경할 수 있다. 한 실시 예에 따르면, 전자 장치는 선택된 터치 기능에 따라 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 또한, 전자 장치는 선택된 터치 기능에 따라 표시 객체들의 터치 영역을 조정할 수 있으며, 그에 대응하여 상기 표시 객체들의 출력 상태를 조정할 수 있다.Once the selected touch function is confirmed, as in operation 570, the electronic device can adjust the touch input processing method according to the selected touch function. For example, the electronic device may change the touch settings. According to one embodiment, the electronic device can adjust the touch sensitivity of the touch input device (e.g., the touch input device 280 of FIG. 2) according to the selected touch function. Also, the electronic device can adjust the touch area of the display objects according to the selected touch function, and adjust the output state of the display objects correspondingly.

상술한 바와 같이, 다양한 실시 예에 따르면, 전자 장치의 터치 입력 처리 방법은 제 1 터치 센서를 기반으로 터치 물체를 센싱하여 센서 정보를 수집하는 동작, 상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 동작, 및 상기 터치 물체의 상태에 따라 제 2 터치 센서의 터치 감도를 조정하는 동작을 포함할 수 있다.As described above, according to various embodiments, a touch input processing method of an electronic device includes an operation of sensing a touch object based on a first touch sensor and collecting sensor information, a state of the touch object corresponding to the sensor information And an operation of adjusting the touch sensitivity of the second touch sensor according to the state of the touch object.

다양한 실시 예에 따르면, 상기 센서 정보를 수집하는 동작은 지문 인식 센서, 촉각 센서, pH 농도 센서, 또는 터치 센서 중 적어도 하나를 기반으로 상기 터치 물체의 접근 또는 접촉에 대응하는 상기 센서 정보를 수집하는 동작을 포함할 수 있다.According to various embodiments, the act of collecting the sensor information may include collecting the sensor information corresponding to approach or touch of the touch object based on at least one of a fingerprint sensor, a tactile sensor, a pH concentration sensor, or a touch sensor Operation.

다양한 실시 예에 따르면, 상기 터치 물체의 상태를 판단하는 동작은 상기 터치 물체와 상기 제 1 터치 센서 사이에 이물질이 감지되지 않은 상태에 대응하는 정상 상태 정보, 및 상기 제 1 터치 센서를 기반으로 상기 이물질을 센싱한 정보, 상기 이물질의 pH 농도 정보, 표면 상태 정보, 전기 전도도 정보, 또는 주파수 스펙트럼 정보 중 적어도 하나를 포함하는 상기 이물질의 패턴 정보를 상기 센서 정보와 비교하는 동작을 포함할 수 있다.According to various embodiments, the operation of determining the state of the touch object may include steady state information corresponding to a state in which no foreign object is detected between the touch object and the first touch sensor, And comparing the sensor information with the pattern information of the foreign object including at least one of the information of sensing the foreign substance, the pH concentration information of the foreign matter, the surface state information, the electric conductivity information, and the frequency spectrum information.

다양한 실시 예에 따르면, 상기 터치 물체의 상태를 판단하는 동작은 상기 터치 물체의 상태에 대응하는 적어도 하나의 항목을 포함하는 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 동작을 포함할 수 있다.According to various embodiments, the act of determining the state of the touch object may include controlling to display on the display a touch function selection object including at least one item corresponding to the state of the touch object.

다양한 실시 예에 따르면, 상기 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 동작은 상기 터치 기능 선택 객체를 상기 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 전자 장치에 포함된 특정 물리 버튼이 선택되는 시점, 상기 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 상기 특정 어플리케이션 프로그램이 요청하는 시점, 상기 화면의 일정 영역이 상기 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동되는 시점, 또는 상기 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 중 적어도 하나의 시점에 표시하도록 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the operation of controlling the display of the touch function selection object on the display may include a point of time when the screen of the electronic device changes from the turned-off state to the turn-on state, A time point at which a specific physical button included in the electronic device is selected, a time point at which a specific application program included in the electronic device is executed or a time point at which the specific application program requests, When the touch object is moved in a predetermined distance by a predetermined distance in a certain direction in a state where a certain area of the screen is pressed by the touch object or when the electronic device moves or rotates by a predetermined number of times The operation of controlling the display of at least one point in time Can.

다양한 실시 예에 따르면, 상기 터치 입력 처리 방법은 상기 터치 물체의 상태에 따라 디스플레이에 출력되는 표시 객체들의 터치 영역을 조정하도록 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the touch input processing method may further include an operation of controlling the touch area of the display objects output to the display according to the state of the touch object.

다양한 실시 예에 따르면, 상기 터치 영역을 조정하도록 제어하는 동작은 상기 터치 영역에 대응하도록 상기 표시 객체들의 크기 또는 위치 중 적어도 하나를 변경하도록 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the operation of controlling the touch area may further include controlling to change at least one of the size or the position of the display objects to correspond to the touch area.

다양한 실시 예에 따르면, 상기 터치 입력 처리 방법은 상기 터치 물체의 상태를 판단한 시점을 기준으로 지정된 시간이 경과된 시점에 상기 터치 물체를 센싱하여 수집한 센서 정보를 기반으로 상기 터치 물체의 상태를 업데이트하는 동작, 및 업데이트된 상기 터치 물체의 상태에 따라 상기 제 2 터치 센서의 터치 감도를 조정하는 동작을 더 포함할 수 있다.According to various embodiments, the touch input processing method includes updating the state of the touch object based on sensor information obtained by sensing the touch object at a point of time when a predetermined time has elapsed based on a time point at which the state of the touch object is determined And adjusting the touch sensitivity of the second touch sensor according to the updated state of the touch object.

다양한 실시 예에 따르면, 상기 터치 입력 처리 방법은 상기 터치 물체의 상태에 따라 형태, 색, 또는 크기 중 적어도 하나가 다른 이미지로 설정된 아이콘을 디스플레이의 일정 영역에 표시하도록 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the touch input processing method may further include an operation of displaying an icon set in at least one of a shape, a color, and a size in a predetermined region of the display according to the state of the touch object have.

다양한 실시 예에 따르면, 상기 터치 입력 처리 방법은 상기 터치 물체의 상태가 변경되면 상기 터치 물체 상태 변경과 관련한 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 객체의 출력 또는 상기 터치 물체 상태 변경과 관련한 음성 정보의 출력 중 적어도 하나를 제어하는 동작을 더 포함할 수 있다.According to various embodiments, the touch input processing method further includes a step of, when the state of the touch object changes, outputting an object including at least one of a text, an image, or an icon related to the change of the touch object state, And outputting the audio information.

도 6은 다양한 실시 예에 따른 지문 인식 센서를 기반으로 터치 물체의 상태를 판단하는 실시 예를 나타낸다.FIG. 6 illustrates an embodiment of determining the state of a touch object based on a fingerprint sensor according to various embodiments.

도 6을 참조하면, 전자 장치 600은 지문 인식 센서가 내장된 물리 버튼(혹은 물리 패널) 610을 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 600은 사용자 인증과 관련하여 사용자 지문 인식 기능을 지원할 수 있다. 전자 장치 600의 화면이 턴-오프된 상태에서, 턴-온 상태 변경을 위한 입력 신호가 발생하면, 전자 장치 600은 상기 지문 인식 센서를 활성화시킬 수 있다. 또한, 전자 장치 600은 사용자의 손가락 630을 상기 지문 인식 센서가 내장된 물리 버튼 610에 접근 또는 접촉하도록 유도할 수 있다. 예컨대, 전자 장치 600은 화면에 지문 인식 기능 사용을 유도하는 텍스트, 이미지, 또는 아이콘 등의 객체를 표시하거나 음성 출력 장치를 통해 지문 인식 기능 사용을 유도하는 음성 정보를 출력할 수 있다.Referring to FIG. 6, the electronic device 600 may include a physical button (or a physical panel) 610 having a fingerprint recognition sensor built therein. According to one embodiment, the electronic device 600 may support a user fingerprinting function in connection with user authentication. When an input signal for a turn-on state change occurs while the screen of the electronic device 600 is turned off, the electronic device 600 can activate the fingerprint recognition sensor. In addition, the electronic device 600 may direct a user's finger 630 to access or contact the physical button 610 with the fingerprint sensor. For example, the electronic device 600 may display an object such as a text, an image, or an icon that induces the use of the fingerprint recognition function on the screen, or may output voice information that induces the use of the fingerprint recognition function through the voice output device.

지문 인식 기능 수행과 관련하여, 상기 지문 인식 센서를 기반으로 센서 정보가 수집되면, 전자 장치 600은 상기 센서 정보를 분석하여 터치 물체의 상태를 판단할 수 있다. 예컨대, 전자 장치 600은 터치 물체의 상태를 정상 상태, 수막 상태, 오염막 상태, 또는 장갑 착용 상태 등으로 판단할 수 있다. 또한, 전자 장치 600은 판단된 터치 물체의 상태에 따라 터치 기능을 지정할 수 있다. 터치 기능이 지정되면, 전자 장치 600은 지정된 터치 기능에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치 600은 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 또한, 전자 장치 600은 지정된 터치 기능에 따라 표시 객체의 터치 영역을 조정할 수 있으며, 그에 따라 상기 표시 객체의 출력 상태를 조정할 수 있다.When the sensor information is collected based on the fingerprint recognition sensor, the electronic device 600 may analyze the sensor information to determine the state of the touch object. For example, the electronic device 600 can determine the state of the touch object as a normal state, a water film state, a contaminated film state, a glove wearing state, or the like. Also, the electronic device 600 can designate the touch function according to the state of the determined touch object. When the touch function is designated, the electronic device 600 can adjust the touch input processing method according to the designated touch function. For example, the electronic device 600 can adjust the touch sensitivity of the touch input device (e.g., the touch input device 280 of FIG. 2). Also, the electronic device 600 can adjust the touch area of the display object according to the designated touch function, thereby adjusting the output state of the display object.

다양한 실시 예에 따르면, 전자 장치 600은 판단된 터치 물체의 상태에 따라 지정된 터치 기능에 대응하는 정보를 출력할 수 있다. 예컨대, 전자 장치 600은 지정된 터치 기능으로 설정되었음을 알리는 텍스트, 이미지, 또는 아이콘 등을 포함하는 알림 객체 670을 화면에 출력할 수 있다. 또한, 전자 장치 600은 지정된 터치 기능으로 설정되었음을 알리는 음성 정보를 음성 출력 장치를 통해 출력할 수 있다. 다양한 실시 예에 따르면, 전자 장치 600은 알림 객체 670을 팝업 또는 화면 전환 등의 방식으로 표시할 수 있다. 도시된 도면에서는 알림 객체 670이 팝업으로 표시된 형태를 나타낸다. 전자 장치 600은 알림 객체 670이 일정 시간 이상 표시된 상태로 유지되거나, 또는 사용자 입력이 발생하면 알림 객체 670의 화면 출력을 종료하고 이전 화면을 출력하도록 제어할 수 있다. 한 실시 예에 따르면, 알림 객체 670이 팝업으로 표시되는 경우, 전자 장치 600은 일정 시간 동안 일정 시간 간격으로 알림 객체 670의 색, 투명도, 크기, 또는 위치 등을 다르게 하여 표시할 수 있다.According to various embodiments, the electronic device 600 may output information corresponding to the designated touch function according to the state of the determined touch object. For example, the electronic device 600 may output a notification object 670 including a text, an image, or an icon indicating that the designated touch function is set, to the screen. Also, the electronic device 600 can output voice information indicating that the designated touch function is set through the voice output device. According to various embodiments, the electronic device 600 may display the notification object 670 in a pop-up or screen switching manner. In the drawing, the notification object 670 is displayed in a pop-up form. The electronic device 600 can control the notification object 670 to remain displayed for a predetermined period of time or to terminate the screen output of the notification object 670 and output the previous screen when a user input occurs. According to one embodiment, when the notification object 670 is displayed as a pop-up, the electronic device 600 may display the color, transparency, size, or position of the notification object 670 differently at predetermined time intervals for a predetermined time.

다양한 실시 예에 따르면, 전자 장치 600은 터치 물체 상태 아이콘 650을 화면의 일정 영역 예컨대, 인디케이터 바에 표시할 수 있다. 전자 장치 600은 터치 물체의 상태에 따라 터치 물체 상태 아이콘 650의 이미지를 다르게 표시할 수 있다. 예컨대, 전자 장치 600은 터치 물체의 상태가 수막 상태인 경우, 물방울 모양 이미지로 터치 물체 상태 아이콘 650을 표시할 수 있다. 또한, 전자 장치 600은 터치 물체의 상태가 장갑 착용 상태인 경우, 장갑 모양 이미지로 터치 물체 상태 아이콘 650을 표시할 수 있다.According to various embodiments, the electronic device 600 may display the touch object status icon 650 in a certain area of the screen, e.g., an indicator bar. The electronic device 600 may display an image of the touch object state icon 650 differently according to the state of the touch object. For example, when the state of the touch object is the water film state, the electronic device 600 can display the touch object state icon 650 in a droplet shape image. In addition, the electronic device 600 may display the touch object status icon 650 in a glove-like image when the state of the touch object is in a glove wearing state.

다양한 실시 예에 따르면, 전자 장치 600은 터치 입력 처리 기능의 상태(턴-온 상태 또는 턴-오프 상태)에 따라 터치 물체 상태 아이콘 650의 표시 유/무, 투명도, 또는 배경색 등을 달리하여 표시할 수 있다. 예컨대, 터치 입력 처리 기능이 턴-오프된 상태에서, 턴-온 상태로의 변경을 위한 입력 신호가 발생하면, 전자 장치 600은 터치 물체 상태 아이콘 650을 화면의 일정 영역에 표시할 수 있다. 또한, 터치 입력 처리 기능이 턴-온 상태에서, 턴-오프 상태로의 변경을 위한 입력 신호가 발생하면, 전자 장치 600은 터치 물체 상태 아이콘 650을 화면에 출력하지 않거나, 터치 물체 상태 아이콘 650의 투명도를 높여 흐리게 표시하거나, 또는 터치 물체 상태 아이콘 650의 배경색 등을 다르게 표시할 수 있다.According to various embodiments, the electronic device 600 may display the touch object state icon 650 in different display states, transparency, or background color depending on the state (turn-on state or turn-off state) of the touch input processing function . For example, when the touch input processing function is turned off and an input signal for changing to the turn-on state is generated, the electronic device 600 can display the touch object state icon 650 in a certain area of the screen. In addition, when an input signal for changing the touch input processing function from the turn-on state to the turn-off state occurs, the electronic device 600 does not output the touch object state icon 650 to the screen, The background color of the touch object state icon 650 and the like can be displayed differently.

다양한 실시 예에 따르면, 전자 장치 600에 포함된 프로세서(예: 도 2의 프로세서 220)는 상기 지문 인식 센서를 기반으로 수집된 정보 또는 상기 수집된 정보를 변환한 정보 등을 터치 제어 장치(예: 도 2의 터치 제어 장치 240)에 전달할 수 있다. 상기 터치 제어 장치는 상기 정보(상기 수집된 정보 또는 상기 변환한 정보)를 이용하여 터치 패널(예: 도 2의 터치 패널 250)의 터치 감도를 조정할 수 있다. 어떤 실시 예에서는, 상기 프로세서는 상기 정보에 대응하는 이벤트(예: 터치 물체 상태 이벤트)(또는, 그에 대응하는 명령)를 상기 터치 입력 장치에 전달하여, 상기 터치 입력 장치가 터치 감도를 조정할 수 있도록 제어할 수 있다. 예를 들면, 상기 프로세서는 상기 지문 센서를 기반으로 터치 물체의 상태가 수막 상태인지를 판단할 수 있다. 또한, 상기 프로세서는 수막 상태에 대응하는 수막 상태 이벤트(또는, 그에 대응하는 명령)를 상기 터치 입력 장치에 전달하여 상기 터치 입력 장치의 터치 감도를 조정하도록 제어할 수 있다.According to various embodiments, a processor (e.g., processor 220 of FIG. 2) included in electronic device 600 may collect information based on the fingerprint recognition sensor or information that transforms the collected information into a touch control device (e.g., To the touch control device 240 of FIG. 2). The touch control device can adjust the touch sensitivity of the touch panel (e.g., the touch panel 250 of FIG. 2) using the information (the collected information or the converted information). In some embodiments, the processor communicates an event (e.g., a touch object state event) corresponding to the information (or a corresponding command) to the touch input device so that the touch input device can adjust the touch sensitivity Can be controlled. For example, the processor can determine whether the state of the touch object is the water film state based on the fingerprint sensor. In addition, the processor may control the touch input device to adjust the touch sensitivity of the touch input device by transmitting a water film status event corresponding to the water film state (or a corresponding command) to the touch input device.

도 7은 다양한 실시 예에 따른 터치 기능 선택 객체를 나타낸다. 전자 장치 700은 터치 물체의 다양한 상태에 대응하는 터치 기능들을 항목들로 포함하는 터치 기능 선택 객체를 표시할 수 있다. 예컨대, 전자 장치 700은 일반 기능, 수막 기능, 오염막 기능, 또는 장갑 기능 등을 항목들로 포함하는 터치 기능 선택 객체를 표시할 수 있다.7 shows a touch function selection object according to various embodiments. The electronic device 700 may display a touch function selection object that includes touch functions corresponding to various states of the touch object as items. For example, the electronic device 700 may display a touch function selection object that includes a general function, a water film function, a contamination film function, or a glove function as items.

도 7을 참조하면, 전자 장치 700은 상단 메뉴(화면의 상단 영역을 누른 상태에서 아래로 드래그(drag)하면 표시되는 메뉴)에 서브 메뉴 형식으로 터치 기능 선택 객체를 표시할 수 있다. 예컨대, 전자 장치 700은 현재 설정된 터치 기능에 대응하는 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 서브 메뉴 객체 710을 상단 메뉴에 표시할 수 있다. 전자 장치 700은 터치 기능에 따라 서브 메뉴 객체 710의 텍스트, 이미지, 또는 아이콘 등을 변경하여 표시할 수 있다. 다양한 실시 예에 따르면, 전자 장치 700은 서브 메뉴 객체 710이 선택되면, 현재 설정된 터치 기능을 변경할 수 있다. 예컨대, 전자 장치 700은 서브 메뉴 객체 710이 선택되면 현재 설정된 터치 기능을 일반 기능, 수막 기능, 오염막 기능, 또는 장갑 기능 중 적어도 하나로 변경할 수 있다. 이 경우, 전자 장치 700은 새롭게 설정된 터치 기능에 대응하도록 서브 메뉴 객체 710의 텍스트, 이미지, 또는 아이콘 등을 변경하여 표시할 수 있다. 전자 장치 700은 터치 입력 처리 기능의 상태에 따라 서브 메뉴 객체 710의 투명도, 색, 또는 배경색 등을 달리하여 표시할 수 있다.Referring to FIG. 7, the electronic device 700 may display a touch function selection object in a submenu format in an upper menu (a menu displayed by dragging the upper area of the screen downward). For example, the electronic device 700 may display a submenu object 710 on the upper menu including at least one of text, images, or icons corresponding to the currently set touch function. The electronic device 700 may change the text, image, icon, or the like of the submenu object 710 according to the touch function. According to various embodiments, when the submenu object 710 is selected, the electronic device 700 can change the currently set touch function. For example, when the sub menu object 710 is selected, the electronic device 700 can change the currently set touch function to at least one of a general function, a water film function, a contamination film function, or a glove function. In this case, the electronic device 700 may change the text, image, icon, or the like of the submenu object 710 so as to correspond to the newly set touch function. The electronic device 700 may display the transparency, color, or background color of the submenu object 710 according to the state of the touch input processing function.

다양한 실시 예에 따르면, 전자 장치 700은 화면의 일정 영역에 팝업 형식으로 터치 기능 선택 객체를 표시할 수 있다. 예컨대, 전자 장치 700은 터치 기능들(일반 기능, 수막 기능, 오염막 기능, 또는 장갑 기능 등)에 대응하는 텍스트, 이미지, 또는 아이콘 등을 항목들로 포함하는 팝업 객체 730을 화면의 일정 영역에 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 700은 사용자가 상기 항목들 중에서 어느 하나의 항목을 선택할 수 있도록 상기 항목들을 버튼 객체로 구성하거나 또는 버튼 객체를 더 포함시켜 구성할 수 있다. 또한, 전자 장치 700은 상기 항목들 중에서 어느 하나의 항목이 선택되면, 현재 설정된 터치 기능을 선택된 항목에 대응하는 터치 기능으로 변경할 수 있다.According to various embodiments, the electronic device 700 may display a touch function selection object in a pop-up format in a certain area of the screen. For example, the electronic device 700 may include a pop-up object 730 that includes text, images, icons, or the like corresponding to the touch functions (general function, water film function, Can be displayed. According to one embodiment, the electronic device 700 may configure the items as a button object or further include a button object so that the user can select any one of the items. In addition, when any one of the items is selected, the electronic device 700 can change the currently set touch function to a touch function corresponding to the selected item.

다양한 실시 예에 따르면, 전자 장치 700은 팝업 객체 730이 일정 시간 이상 표시된 상태로 유지되거나 또는 사용자 입력이 수신되면 팝업 객체 730의 화면 출력을 종료할 수 있다. 이 경우, 전자 장치 700은 팝업 객체 730과 관련된 리소스(resource)를 반환하도록 처리할 수 있다. 한 실시 예에 따르면, 전자 장치 700은 팝업 객체 730이 일정 시간 이상 표시된 상태로 유지되어 화면 출력을 종료하는 경우 또는 사용자 입력이 유효한 선택(예: 팝업 객체 730에 포함된 항목을 선택)이 아닌 경우, 현재 설정된 터치 기능을 유지할 수 있으며 팝업 객체 730이 표시되기 전 화면으로 복귀하도록 처리할 수 있다. 다양한 실시 예에 따르면, 전자 장치 700은 사용자 입력이 유효한 선택인 경우, 현재 설정된 터치 기능을 선택된 터치 기능으로 변경할 수 있다. 이 경우, 전자 장치 700은 팝업 객체 730의 화면 출력을 종료하고, 선택된 터치 기능으로 변경되었음을 알리는 텍스트, 이미지, 또는 아이콘 등을 포함하는 객체를 화면에 출력할 수 있다. 또한, 전자 장치 700은 선택된 터치 기능으로 변경되었음을 알리는 음성 정보를 음성 출력 장치를 통해 출력할 수도 있다.According to various embodiments, the electronic device 700 may terminate the output of the pop-up object 730 when the pop-up object 730 remains displayed for a period of time or when a user input is received. In this case, the electronic device 700 may process to return a resource associated with the pop-up object 730. According to one embodiment, when the pop-up object 730 remains displayed for a certain period of time and ends the screen output, or when the user input is not a valid selection (e.g., selecting an item included in the pop-up object 730) , The currently set touch function can be maintained and the popup object 730 can be processed to return to the screen before being displayed. According to various embodiments, the electronic device 700 may change the currently set touch function to the selected touch function if the user input is a valid selection. In this case, the electronic device 700 may terminate the screen output of the pop-up object 730 and output an object including a text, an image, or an icon indicating that the selected touch function has been changed to the screen. Also, the electronic device 700 may output voice information indicating that the selected touch function has been changed through the voice output device.

다양한 실시 예에 따르면, 전자 장치 700은 터치 기능 선택 객체를 화면 전환 방식으로 표시할 수도 있다. 예컨대, 전자 장치 700은 터치 기능들에 대응하는 텍스트, 이미지, 또는 아이콘 등을 항목들로 포함하는 리스트 등의 객체를 전체 화면에 구성하여 표시할 수 있다.According to various embodiments, the electronic device 700 may display the touch function selection object in a screen switching manner. For example, the electronic device 700 can display and display an object such as a list including items of text, images, icons, or the like corresponding to the touch functions on the entire screen.

도 8은 다양한 실시 예에 따른 터치 물체의 상태에 따라 터치 감도를 조정하는 실시 예를 나타낸다.FIG. 8 shows an embodiment for adjusting the touch sensitivity according to the state of the touch object according to various embodiments.

도 8을 참조하면, 전자 장치 800은 터치 패널 810을 포함할 수 있다. 터치 패널 810은 전자 장치 800의 화면 표시 영역이 세로 방향 및 가로 방향으로 나뉘어 격자 모양을 띠는 하나 이상의 셀로 구성될 수 있다. 예컨대, 터치 패널 810은 복수 개의 세로 방향 선 811 및 복수 개의 가로 방향 선 813이 만나는 지점을 중심으로 일정 영역을 차지하는 복수 개의 셀로 구성될 수 있다. 또한, 터치 패널 810은 각각의 세로 방향 선 811 및 각각의 가로 방향 선 813이 만나는 지점을 각각의 셀에 대응하는 터치 좌표로 지정할 수 있다.Referring to FIG. 8, the electronic device 800 may include a touch panel 810. The touch panel 810 may be constituted by one or more cells having a lattice shape in which the screen display area of the electronic device 800 is divided into a vertical direction and a horizontal direction. For example, the touch panel 810 may include a plurality of cells occupying a predetermined area centering on a point where a plurality of vertical direction lines 811 and a plurality of horizontal direction lines 813 meet. In addition, the touch panel 810 can designate a point at which each vertical line 811 and each horizontal line 813 meet by touch coordinates corresponding to each cell.

다양한 실시 예에 따르면, 손가락 830에 물 또는 땀 등이 묻은 상태로 터치 동작을 수행하는 경우, 손가락 830이 접촉되는 영역 831을 기준으로 물 또는 땀 등이 번지는 영역 850이 생길 수 있다. 전자 장치 800은 영역 831에 포함된 터치 좌표 833을 유효한 터치 입력에 대응하는 터치 좌표로 인식할 수 있다. 또한, 전자 장치 800은 영역 850에 포함된 터치 좌표 851을 유효한 터치 입력에 대응하는 터치 좌표로 인식할 수도 있다. 그러나 터치 좌표 851은 사용자가 의도하지 않은 터치 좌표일 수 있다. 또한, 물 또는 땀 등이 묻은 상태로 터치 동작을 수행하는 경우, 물 또는 땀 등이 투하된 영역 870이 생길 수 있다. 이 경우, 전자 장치 800은 영역 870에 포함된 터치 좌표 871을 유효한 터치 입력에 대응하는 터치 좌표로 인식할 수 있다.According to various embodiments, when a touch operation is performed in a state where water or sweat is applied to the finger 830, a region 850 in which water or sweat may spread may be generated based on the region 831 where the finger 830 is contacted. The electronic device 800 can recognize the touch coordinates 833 included in the area 831 as touch coordinates corresponding to a valid touch input. In addition, the electronic device 800 may recognize the touch coordinates 851 included in the area 850 as touch coordinates corresponding to valid touch inputs. However, the touch coordinate 851 may be a touch coordinate that is not intended by the user. In addition, when the touch operation is performed in a state in which water or sweat is adhered, a region 870 in which water or sweat is dropped may occur. In this case, the electronic device 800 can recognize the touch coordinates 871 included in the area 870 as touch coordinates corresponding to a valid touch input.

상술한 바와 같이 사용자가 의도하지 않은 터치 좌표가 인식되는 것을 방지하기 위해 전자 장치 800은 터치 물체의 상태에 따라 터치 입력 처리 방식을 조정할 수 있다. 예컨대, 전자 장치 800은 터치 물체의 상태에 따라 터치 패널 810의 터치 감도를 조정할 수 있다. 한 실시 예에 따르면, 전자 장치 800은 터치 물체의 상태가 수막 상태로 판단되면 터치 패널 810의 터치 감도를 낮게 조정할 수 있다. 예컨대, 전자 장치 800은 정전용량 변화의 크기가 지정된 크기 이상일 경우에만 유효한 터치 입력으로 처리되도록 터치 감도를 조정할 수 있다. 이에 따라, 전자 장치 800은 손가락 830의 접촉에 대응하는 정전용량 변화는 유효한 터치 입력으로 처리할 수 있으며, 물 또는 땀 등으로 인한 정전용량 변화는 무효화시키거나 노이즈 처리할 수 있다. 또한, 전자 장치 800은 터치 좌표 833만을 유효한 터치 입력에 대응하는 터치 좌표로 처리할 수 있다.As described above, in order to prevent the unintended touch coordinates from being recognized by the user, the electronic device 800 can adjust the touch input processing method according to the state of the touch object. For example, the electronic device 800 can adjust the touch sensitivity of the touch panel 810 according to the state of the touch object. According to one embodiment, the electronic device 800 can adjust the touch sensitivity of the touch panel 810 to a low level when the state of the touch object is determined to be a water film state. For example, the electronic device 800 may adjust the touch sensitivity so that it is processed with a valid touch input only when the magnitude of the capacitance change is greater than or equal to a specified magnitude. Accordingly, the electronic device 800 can process the capacitance change corresponding to the contact of the finger 830 with an effective touch input, and can invalidate or noise-process the capacitance change due to water, sweat, or the like. In addition, the electronic device 800 can process only the touch coordinates 833 as touch coordinates corresponding to effective touch inputs.

도 9는 다양한 실시 예에 따른 터치 물체의 상태에 따라 표시 객체의 출력 상태를 조정하는 실시 예를 나타낸다. 전자 장치 900은 터치 물체의 상태에 따라 터치 감도를 조정하는 방법뿐만 아니라 표시 객체의 터치 영역을 조정하는 방법을 더 수행할 수 있다. 또한, 전자 장치 900은 상기 표시 객체의 터치 영역에 대응하도록 상기 표시 객체의 출력 상태를 조정할 수 있다.9 shows an embodiment for adjusting the output state of a display object according to the state of a touch object according to various embodiments. The electronic device 900 can further perform a method of adjusting the touch area of the display object as well as a method of adjusting the touch sensitivity according to the state of the touch object. Also, the electronic device 900 may adjust the output state of the display object to correspond to the touch region of the display object.

도 9를 참조하면, 전자 장치 900은 터치 물체의 상태에 따라 화면 910을 화면 930으로 변경하여 표시할 수 있다. 전자 장치 900은 터치 물체의 상태를 판단하고, 상태 변경이 확인되면, 상기 표시 객체의 터치 영역을 조정할 수 있다. 또한, 전자 장치 900은 상기 표시 객체의 터치 영역에 대응하도록 상기 표시 객체의 출력 상태를 변경할 수 있다. 예를 들면, 전자 장치 900은 터치 물체의 상태가 정상 상태인 경우에 화면 910을 표시할 수 있다. 또한, 전자 장치 900은 터치 물체의 상태가 수막 상태로 변경되면 화면 910에 표시된 상기 표시 객체의 터치 영역을 일정 비율로 크게 조정할 수 있다. 이 경우, 전자 장치 900은 상기 표시 객체의 터치 영역에 대응하도록 상기 표시 객체의 크기를 일정 비율로 크게 조정한 화면 930을 출력할 수 있다. 상술한 방법을 통해 전자 장치 900은 터치 입력을 보다 정확하게 인식할 수 있도록 제어할 수 있다.Referring to FIG. 9, the electronic device 900 can display the screen 910 by changing the screen 910 to the screen 930 according to the state of the touch object. The electronic device 900 can determine the state of the touch object and adjust the touch area of the display object when the state change is confirmed. Also, the electronic device 900 may change the output state of the display object to correspond to the touch region of the display object. For example, the electronic device 900 can display the screen 910 when the state of the touch object is in a normal state. Also, when the state of the touch object is changed to the water film state, the electronic device 900 can adjust the touch area of the display object displayed on the screen 910 to a large ratio. In this case, the electronic device 900 may output a screen 930 in which the size of the display object is adjusted to a predetermined ratio to correspond to the touch area of the display object. Through the above-described method, the electronic device 900 can control so as to recognize the touch input more accurately.

도 10은 다양한 실시 예에 따른 지문 인식 센서를 기반으로 터치 입력을 처리하는 방법과 관련한 전자 장치의 운용 방법을 나타낸다. 다양한 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치 200)는 전자 장치의 특정 기능 수행 상태에 따라 상기 지문 인식 센서를 통해 감지된 터치 입력(예: 손가락 터치)을 다르게 처리할 수 있다. 예컨대, 전자 장치는 지문 인식 기능의 수행 상태인지 또는 터치 물체(예: 손가락)의 상태를 판단하는 기능의 수행 상태인지에 따라 상기 터치 입력을 다르게 처리할 수 있다.10 illustrates a method of operating an electronic device associated with a method for processing a touch input based on a fingerprint sensor according to various embodiments. According to various embodiments, an electronic device (e.g., electronic device 200 of FIG. 2) may process touch input (e.g., finger touch) sensed through the fingerprint recognition sensor differently depending on the specific function performing state of the electronic device . For example, the electronic device may process the touch input differently depending on whether the fingerprint recognition function is performed or a function of determining a state of a touch object (e.g., a finger).

도 10을 참조하면, 전자 장치는 동작 1010에서와 같이, 상기 지문 인식 센서를 기반으로 손가락 터치를 감지할 수 있다. 또한, 전자 장치는 동작 1020에서와 같이, 지문 인식 기능의 수행 상태인지를 판단할 수 있다. 한 실시 예에 따르면, 전자 장치의 전원이 꺼진 상태에서 켜지는 시점에, 전자 장치는 지문 인식 기능을 수행할 수 있다. 또한, 전자 장치는 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변경되는 시점 또는 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 특정 어플리케이션 프로그램이 요청하는 시점에, 지문 인식 기능을 수행할 수 있다.Referring to FIG. 10, the electronic device may sense a finger touch based on the fingerprint recognition sensor, as in operation 1010. In addition, the electronic device may determine whether the fingerprint recognition function is in an execution state, as in operation 1020. [ According to one embodiment, at a point in time when the electronic device is turned on with the power turned off, the electronic device can perform a fingerprint recognition function. Further, the electronic device performs a fingerprint recognition function at a time point when the screen of the electronic device changes from a turned-off state to a turn-on state, or when a specific application program included in the electronic device is executed or a specific application program requests can do.

지문 인식 기능의 수행 상태인 경우, 동작 1030에서와 같이, 전자 장치는 손가락 터치에 대응하는 센서 정보를 기반으로 지문 인식 기능을 수행할 수 있다. 예컨대, 전자 장치는 상기 센서 정보에 대응하는 사용자 지문 정보(예: 사용자 지문에 포함된 융선들의 길이, 방향, 또는 특이 지점에 대한 정보 등)를 수집할 수 있다. 또한, 전자 장치는 상기 지문 정보를 이용해 사용자 인증 등의 기능을 수행할 수 있다.In the case of the fingerprint recognition function, as in operation 1030, the electronic device may perform a fingerprint recognition function based on the sensor information corresponding to the finger touch. For example, the electronic device may collect user fingerprint information corresponding to the sensor information (e.g., information about the length, direction, or specific point of the ridges included in the user fingerprint, etc.). Further, the electronic device can perform functions such as user authentication using the fingerprint information.

지문 인식 기능의 수행 상태가 아닌 경우, 동작 1040에서와 같이, 전자 장치는 손가락 상태를 판단하는 기능의 수행 상태인지를 판단할 수 있다. 어떤 실시 예에서는, 지문 인식 기능의 수행 상태가 아닌 경우, 전자 장치는 동작 1040을 스킵(skip)하고 동작 1050 이하의 동작들을 수행할 수 있다. 다양한 실시 예에 따르면, 지문 인식 기능의 수행 상태인 경우라 하더라도, 전자 장치는 동작 1030의 수행과 함께 동작 1050 이하의 동작들을 수행할 수도 있다.If the fingerprint recognition function is not performed, the electronic device can determine whether the fingerprint recognition function is being performed, as in operation 1040. [ In some embodiments, the electronic device may skip operation 1040 and perform operations below operation 1050 if the fingerprint recognition function is not in a running state. According to various embodiments, even when the fingerprint recognition function is in the performing state, the electronic device may perform operations at operation 1050 and below with the execution of operation 1030. [

다양한 실시 예에 따르면, 전자 장치는 특정 물리 버튼(예: 홈 버튼 또는 파워 버튼 등)의 동작이 지정된 조건을 만족하는 시점, 홈 화면 또는 메뉴 화면 등에 구성된 특정 객체(예: 아이콘(또는 이미지) 등)가 선택되는 시점, 또는 특정 어플리케이션 프로그램이 실행되거나 특정 어플리케이션 프로그램이 요청하는 시점 등에 손가락 상태를 판단하는 기능을 수행할 수 있다. 예컨대, 특정 물리 버튼이 지정된 시간 안에 지정된 횟수로 선택되거나(예: 눌리거나), 또는 전자 장치가 지문 인식 수행을 완료한 시점에 특정 물리 버튼이 선택되는 경우, 전자 장치는 손가락 상태 판단 기능을 수행할 수 있다. 또한, 터치 입력 처리 기능의 상태를 변경할 수 있도록 기능하는 특정 객체(예: 도 6의 터치 물체 상태 아이콘 650)가 선택되는 시점에 전자 장치는 손가락 상태 판단 기능을 수행할 수 있다. 전자 장치는 특정 어플리케이션 프로그램 예컨대, 건강 관리 어플리케이션 프로그램이 실행되는 시점에 손가락 상태 판단 기능을 수행할 수도 있다.According to various embodiments, the electronic device may include a specific object (e.g., an icon (or image), etc.) configured at a point in time when an action of a particular physical button (e.g., a home button or a power button) May be selected, or a function of determining a finger state, for example, when a specific application program is executed or when a specific application program requests it. For example, when a specific physical button is selected (e.g., pressed) a predetermined number of times within a specified time, or when a specific physical button is selected at the time when the electronic device completes performing the fingerprint recognition, the electronic device performs a finger state determination function can do. In addition, the electronic device can perform a finger state determination function at a time point when a specific object (e.g., the touch object state icon 650 in Fig. 6) functioning to change the state of the touch input processing function is selected. The electronic device may perform a finger state determination function at the time when a specific application program, for example, a health care application program, is executed.

다양한 실시 예에 따르면, 전자 장치는 상기 지문 인식 센서를 기반으로 동작 1030과 같이 지문 인식 기능을 수행하는 동시에 또는 일정 시간 간격을 두고, 상기 지문 인식 센서를 통해 수집된 정보를 활용해 동작 1050 이하의 동작들을 수행할 수 있다. 예컨대, 전자 장치는 지문 인식 기능 수행 중 특정 지문 인식 이벤트가 발생하면, 상기 특정 지문 인식 이벤트, 상기 특정 지문 인식 이벤트에 대응하는 손가락 상태 이벤트, 또는 상기 지문 인식 센서를 기반으로 수집된 정보를 프로세서(예: 도 2의 프로세서 220) 또는 터치 입력 장치(예: 도 2의 터치 입력 장치 280) 중 적어도 하나에 전달하여 터치 입력을 처리하도록 제어할 수 있다. 어떤 실시 예에서, 전자 장치는 상기 지문 인식 센서를 기반으로 수집된 정보를 메모리(예: 도 2의 메모리 230)에 저장할 수도 있다. 이 경우, 전자 장치는 특정 시점에 상기 메모리에 저장된 상기 정보를 기반으로 손가락 상태를 판단할 수도 있다.According to various embodiments, the electronic device performs the fingerprint recognition function, such as operation 1030, based on the fingerprint recognition sensor, or at a predetermined time interval, using the information collected through the fingerprint recognition sensor, Operations can be performed. For example, when a specific fingerprint recognition event occurs during execution of the fingerprint recognition function, the electronic device transmits the fingerprint recognition event, the finger status event corresponding to the specific fingerprint recognition event, or the information collected based on the fingerprint recognition sensor to the processor (E.g., the processor 220 of FIG. 2) or a touch input device (e.g., the touch input device 280 of FIG. 2) to process the touch input. In some embodiments, the electronic device may store information collected based on the fingerprint recognition sensor in a memory (e.g., memory 230 of FIG. 2). In this case, the electronic device may determine the finger state based on the information stored in the memory at a specific point in time.

동작 1050에서, 전자 장치는 상기 센서 정보에 대응하는 손가락 상태 정보를 확인할 수 있다. 한 실시 예에 따르면, 전자 장치는 상기 센서 정보를 분석하여 손가락 상태를 판단할 수 있다. 또는, 전자 장치는 상기 지문 인식 기능 수행 중 발생한 지문 인식 이벤트 또는 상기 지문 인식 이벤트에 대응하는 손가락 상태 이벤트 등을 통해 손가락 상태를 확인할 수도 있다.At operation 1050, the electronic device may verify finger status information corresponding to the sensor information. According to one embodiment, the electronic device may analyze the sensor information to determine a finger condition. Alternatively, the electronic device may check the finger status through a fingerprint recognition event occurring during the fingerprint recognition function or a finger status event corresponding to the fingerprint recognition event.

동작 1060에서, 전자 장치는 손가락 상태에 따라 터치 기능을 설정할 수 있다. 예컨대, 전자 장치는 손가락 상태가 수막 상태, 오염막 상태, 또는 장갑 착용 상태인 경우, 각각 수막 기능, 오염막 기능, 또는 장갑 기능으로 상기 터치 기능을 설정할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 상기 터치 입력 장치에 전달할 수 있다. 이 경우, 상기 터치 입력 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 기반으로, 상기 터치 입력 장치 내부에서 상기 터치 기능을 설정(예: 터치 감도 조절 또는 고스트 터치 입력 제거 기능 수행 등)하도록 제어할 수 있다. 동작 1070에서, 전자 장치는 설정된 상기 터치 기능에 따라 터치 입력을 처리할 수 있다.In operation 1060, the electronic device can set the touch function according to the finger state. For example, when the finger state is a water film state, a contaminated film state, or a glove wearing state, the electronic device can set the touch function with a water film function, a contaminated membrane function, or a glove function, respectively. According to various embodiments, the electronic device may communicate the finger status event (or information corresponding thereto) to the touch input device. In this case, the touch input device sets the touch function within the touch input device based on the finger state event (or information corresponding thereto) (e.g., performs a touch sensitivity adjustment or a ghost touch input removal function) . At operation 1070, the electronic device may process the touch input according to the set touch function.

도 11은 다양한 실시 예에 따른 손가락 상태 이벤트 테이블을 나타낸다. 다양한 실시 예에 따르면, 전자 장치(예: 도 2의 전자 장치 200)는 터치 물체 상태 이벤트(예: 손가락 상태 이벤트)를 통해 터치 물체(예: 손가락)의 상태를 확인할 수 있다. 예컨대, 전자 장치는 터치 입력 처리를 제어할 수 있도록 구현된 프로그램(예: 도 2의 터치 입력 제어 프로그램)을 포함할 수 있다. 전자 장치는 상기 터치 입력 제어 프로그램에 구현된 처리 루틴에 따라 터치 물체 상태 이벤트를 통해 터치 물체의 상태를 확인할 수 있다. 이 경우, 상기 터치 입력 제어 프로그램은 터치 물체 상태 이벤트에 대응하는 터치 물체의 상태를 지정하는 터치 물체 상태 이벤트 테이블(예: 손가락 상태 이벤트 테이블 1110)을 포함할 수 있다. 한 실시 예에 따르면, 전자 장치는 상기 터치 물체 상태 이벤트 테이블을 메모리(예: 도 2의 메모리 230)에 저장할 수도 있다.11 shows a finger status event table according to various embodiments. According to various embodiments, an electronic device (e.g., electronic device 200 of FIG. 2) can verify the status of a touch object (e.g., a finger) through a touch object state event (e.g., a finger state event). For example, the electronic device may include a program (e.g., the touch input control program of Fig. 2) implemented to control the touch input process. The electronic device can confirm the state of the touch object through the touch object state event according to the processing routine implemented in the touch input control program. In this case, the touch input control program may include a touch object state event table (e.g., a finger state event table 1110) for specifying a state of a touch object corresponding to a touch object state event. According to one embodiment, the electronic device may store the touch object state event table in a memory (e.g., memory 230 in FIG. 2).

도 11을 참조하면, 손가락 상태 이벤트 테이블 1110은 손가락 상태에 대응하는 이벤트 정보를 포함할 수 있다. 예를 들어, 손가락 상태 이벤트 테이블 1110은 손가락 상태에 따라 지정된 이벤트의 식별자 정보를 포함할 수 있다. 또한, 손가락 상태 이벤트 테이블 1110은 센서(예: 도 2의 센서 210)의 동작 상태 정보를 포함할 수도 있다. 한 실시 예에 따르면, 손가락 상태 이벤트 테이블 1110은 상기 센서 관련 하드웨어 또는 소프트웨어 오류 정보, 또는 상기 센서를 통해 손가락 상태에 대응하는 센서 정보 수집 중 발생하는 인터럽트(interrupt) 정보 등을 포함할 수 있다. 예컨대, 손가락 상태 이벤트 테이블 1110은 센서 정보 수집 중 발생하는 상기 센서의 오류 정보 또는 인터럽트 정보 등에 대응하는 이벤트의 식별자 정보를 포함할 수 있다. Referring to FIG. 11, the finger status event table 1110 may include event information corresponding to the finger status. For example, the finger status event table 1110 may include identifier information of an event specified according to the finger status. In addition, the finger status event table 1110 may include the operation status information of the sensor (e.g., the sensor 210 in FIG. 2). According to one embodiment, the finger status event table 1110 may include information related to hardware or software related to the sensor, interrupt information generated during sensor information collection corresponding to the finger status through the sensor, and the like. For example, the finger status event table 1110 may include identifier information of an event corresponding to error information or interrupt information of the sensor occurring during sensor information collection.

도 12는 다양한 실시 예에 따른 지문 인식 이벤트에 대응하는 손가락 상태 이벤트를 설명하기 위한 도면을 나타낸다.12 shows a diagram for explaining a finger status event corresponding to a fingerprint recognition event according to various embodiments.

도 12를 참조하면, 전자 장치(예: 도 2의 전자 장치 200)는 지문 인식 이벤트 1210을 손가락 상태 이벤트 1230(또는, 그에 대응하는 정보)에 대응시킬 수 있다. 한 실시 예에 따르면, 지문 인식 센서(예: 도 2의 센서 210)는 센서 정보의 수집 과정에서 발생하는 지문 인식 이벤트 1210을 전자 장치에 전달할 수 있다. 예컨대, 상기 지문 인식 센서는 지문 인식에 성공한 경우, 상기 센서 정보 또는 지문 인식 성공에 대응하는 지문 인식 성공 이벤트(예: 지문 인식 이벤트 1210 중 식별자가 "STATUS_GOOD"으로 지정된 이벤트) 중 적어도 하나를 프로세서(예: 도 2의 프로세서 220)에 전달할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 지문 인식 이벤트 1210을 이벤트 발생 시간 정보와 함께 메모리(예: 도 2의 메모리 230)에 저장할 수도 있다.Referring to FIG. 12, an electronic device (e.g., electronic device 200 of FIG. 2) may associate a fingerprint recognition event 1210 with a finger status event 1230 (or information corresponding thereto). According to one embodiment, a fingerprint recognition sensor (e.g., sensor 210 of FIG. 2) may communicate a fingerprint recognition event 1210 that occurs during the acquisition of sensor information to the electronic device. For example, if the fingerprint recognition sensor succeeds in the fingerprint recognition, the fingerprint recognition sensor transmits at least one of the sensor information or the fingerprint recognition success event corresponding to the success of the fingerprint recognition (e.g., the event whose identifier is designated as "STATUS_GOOD" E.g., processor 220 of FIG. 2). According to various embodiments, the electronic device may store the fingerprint recognition event 1210 in a memory (e.g., memory 230 in FIG. 2) along with the event occurrence time information.

다양한 실시 예에 따르면, 전자 장치는 지문 인식 이벤트 1210를 손가락 상태 이벤트 1230(또는, 그에 대응하는 정보)로 매핑하여 관리할 수 있다. 예컨대, 전자 장치는 지문 인식 성공 이벤트(예: 지문 인식 이벤트 1210 중 식별자가 "STATUS_GOOD"으로 지정된 이벤트) 발생에 대응하여 해당 이벤트를 정상 상태의 손가락 상태 이벤트(예: 손가락 상태 이벤트 1230 중 식별자가 "STATUS_FINGERCONDITION_GOOD"으로 지정된 이벤트)(또는, 그에 대응하는 정보) 또는 마른 상태의 손가락 상태 이벤트(예: 손가락 상태 이벤트 1230 중 식별자가 "STATUS_FINGERCONDITION_DRY"로 지정된 이벤트)(또는, 그에 대응하는 정보) 중 적어도 하나에 매핑하여 관리할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 상기 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 터치 입력 장치(예: 도 2의 터치 입력 장치 280) 또는 디스플레이(예: 도 2의 디스플레이 290) 중 적어도 하나에 전달할 수 있다. 예컨대, 전자 장치는 지문 인식 이벤트 1210 중 손가락이나 상기 지문 인식 센서가 젖은 상태 이벤트(예: 식별자가 "IMAGE_QUALITY_WET_FINGER"로 지정된 이벤트) 발생에 대응하여, 해당 이벤트를 젖은 손가락 상태 이벤트(예: 손가락 상태 이벤트 1230 중 식별자가 "STATUS_FINGERCONDITION_WET"으로 지정된 이벤트)(또는, 그에 대응하는 정보)에 매핑하여 관리할 수 있다. 또한, 전자 장치는 상기 젖은 손가락 상태 이벤트(또는, 그에 대응하는 정보)를 상기 터치 입력 장치 또는 상기 디스플레이 중 적어도 하나에 전달하여 터치 입력을 처리하도록 제어할 수 있다.According to various embodiments, the electronic device may manage the fingerprint recognition event 1210 by mapping it to a finger state event 1230 (or information corresponding thereto). For example, the electronic device responds to the occurrence of a fingerprint recognition success event (e.g., an event whose identifier is identified as "STATUS_GOOD" in the fingerprint recognition event 1210) as a finger state event in a normal state (e.g., STATUS_FINGERCONDITION_GOOD ") (or information corresponding thereto) or a finger state event in a dry state (e.g., an event specified by the identifier" STATUS_FINGERCONDITION_DRY "in the finger state event 1230) (or information corresponding thereto) Can be managed by mapping. According to various embodiments, the electronic device may provide the finger state event (or corresponding information) to at least one of a touch input device (e.g., touch input device 280 of FIG. 2) or a display (e.g., display 290 of FIG. 2) . For example, the electronic device responds to the occurrence of a wet state event (e.g., an event designated by the identifier "IMAGE_QUALITY_WET_FINGER") with a finger or the fingerprint recognition sensor of the fingerprint recognition event 1210, (Or an event corresponding to the event whose identifier is designated as "STATUS_FINGERCONDITION_WET ") among the 1230s. In addition, the electronic device can control to process the touch input by transmitting the wet finger state event (or information corresponding thereto) to at least one of the touch input device or the display.

다양한 실시 예에 따르면, 전자 장치는 상기 메모리에 저장된 지문 인식 이벤트 1210 및 이벤트 발생 시간 정보를 기반으로 터치 입력을 처리하도록 제어할 수 있다. 예컨대, 전자 장치는 상기 이벤트 발생 시간 정보를 기반으로 가장 최근에 저장된 지문 인식 이벤트 1210을 확인할 수 있다. 전자 장치는 지문 인식 이벤트 1210의 저장 시간이 지정된 시간을 초과하지 않은 경우, 지문 인식 이벤트 1210에 대응하는 손가락 상태 이벤트 1230(또는, 그에 대응하는 정보)을 상기 터치 입력 장치 또는 상기 디스플레이 중 적어도 하나에 전달하여 터치 입력을 처리하도록 제어할 수 있다. 한 실시 예에 따르면, 지문 인식 이벤트 1210의 저장 시간이 지정된 시간을 초과한 경우, 전자 장치는 상기 지문 인식 센서에 손가락을 접근 또는 접촉할 수 있도록 유도하는 표시 객체 또는 음성 정보를 출력하도록 제어할 수 있다.According to various embodiments, the electronic device can control to process the touch input based on the fingerprint recognition event 1210 and the event occurrence time information stored in the memory. For example, the electronic device can identify the most recently stored fingerprint recognition event 1210 based on the event occurrence time information. If the storage time of the fingerprint recognition event 1210 does not exceed the designated time, the electronic device sends a finger state event 1230 (or corresponding information) corresponding to the fingerprint recognition event 1210 to at least one of the touch input device or the display To control the touch input to be processed. According to one embodiment, when the storage time of the fingerprint recognition event 1210 exceeds a specified time, the electronic device can control to output a display object or voice information that induces the fingerprint sensor to access or contact the finger have.

다양한 실시 예에 따르면, 센서(예: 도 2의 센서 210)의 센서 정보 수집 중 발생하는 이벤트(예: 지문 인식 이벤트 1210 등) 및 터치 물체 상태 이벤트(예: 손가락 상태 이벤트 1230 등)(또는, 그에 대응하는 정보)의 매핑 및 관리 작업은 터치 입력 제어 프로그램(예: 도 2의 터치 입력 제어 프로그램 231)에 구현된 처리 루틴에 따라 수행될 수 있다. 도시된 도면에서는, 전자 장치가 지문 인식 센서의 지문 인식 이벤트 1210을 손가락 상태 이벤트 1230(또는, 그에 대응하는 정보)에 매핑하는 경우에 대해서만 나타냈지만, 이 외에도 전자 장치는 다양한 센서의 이벤트를 터치 물체 상태 이벤트(예: 손가락 상태 이벤트 1230 등)에 매핑하여 관리할 수 있다.According to various embodiments, events (e.g., fingerprint recognition events 1210, etc.) and touch object state events (e.g., finger status events 1230, etc.) that occur during sensor information collection (e.g., sensor 210 of FIG. 2) And the corresponding information) can be performed in accordance with the processing routine implemented in the touch input control program (e.g., the touch input control program 231 in Fig. 2). Although the figure shows only the case where the electronic device maps the fingerprint recognition event 1210 of the fingerprint recognition sensor to the finger state event 1230 (or the corresponding information), in addition to this, And can be managed by mapping to a status event (e.g., finger status event 1230).

도 13은 다양한 실시 예에 따른 터치 입력 처리와 관련한 전자 장치의 운용 방법을 나타낸다.13 illustrates a method of operating an electronic device associated with touch input processing according to various embodiments.

도 13을 참조하면, 동작 1310에서, 전자 장치(예: 도 2의 전자 장치 200)는 센서(예: 도 2의 센서 210)를 기반으로 터치 물체를 센싱하여 센서 정보를 수집할 수 있다. 예컨대, 상기 센서는 상기 터치 물체의 접근 또는 접촉에 대응하는 센서 정보를 수집할 수 있다.Referring to FIG. 13, at operation 1310, an electronic device (e.g., electronic device 200 of FIG. 2) may acquire sensor information by sensing a touch object based on a sensor (e.g., sensor 210 of FIG. 2). For example, the sensor may collect sensor information corresponding to approach or contact of the touch object.

다양한 실시 예에 따르면, 상기 센서는 수집된 센서 정보를 전자 장치에 전달할 수 있다. 한 실시 예에 따르면, 상기 센서는 상기 센서 정보의 수집과 관련하여 발생하는 이벤트(예: 도 12의 지문 인식 이벤트 1210 등)를 전자 장치에 전달할 수도 있다. 이 경우, 전자 장치는 상기 이벤트를 터치 물체 상태 이벤트(예: 도 12의 손가락 상태 이벤트 1230 등)(또는, 그에 대응하는 정보)에 매핑하여 관리할 수 있다.According to various embodiments, the sensor may communicate the collected sensor information to the electronic device. According to one embodiment, the sensor may communicate to an electronic device an event (e.g., a fingerprint recognition event 1210 in Figure 12) that occurs in association with the collection of the sensor information. In this case, the electronic device can manage the event by mapping the event to a touch object state event (e.g., finger state event 1230 in FIG. 12) (or information corresponding thereto).

동작 1330에서, 전자 장치는 상기 센서 정보를 기반으로 상기 터치 물체의 상태를 판단할 수 있다. 예컨대, 전자 장치는 상기 센서 정보를 분석하고, 분석된 정보와 상기 터치 물체의 정상 상태 정보 및 이물질의 패턴 정보를 비교하여 상기 터치 물체의 상태를 판단할 수 있다. 한 실시 예에 따르면, 전자 장치는 상기 터치 물체 상태 이벤트(또는, 그에 대응하는 정보)를 기반으로 상기 터치 물체의 상태를 판단할 수도 있다.In operation 1330, the electronic device may determine the state of the touch object based on the sensor information. For example, the electronic device may analyze the sensor information, and determine the state of the touch object by comparing the analyzed information with the steady-state information of the touch object and the pattern information of the foreign object. According to one embodiment, the electronic device may determine the state of the touch object based on the touch object state event (or information corresponding thereto).

동작 1350에서, 전자 장치는 판단된 상기 터치 물체의 상태에 따라 터치 설정을 조정할 수 있다. 한 실시 예에 따르면, 전자 장치는 상기 터치 물체의 상태에 따라 터치 입력 장치(예: 도 2의 터치 입력 장치 280)의 터치 감도를 조정할 수 있다. 또한, 전자 장치는 상기 터치 물체의 상태에 따라 디스플레이(예: 도 2의 디스플레이 290)에 표시되는 표시 객체들의 터치 영역을 조정할 수 있으며, 그에 따라 상기 표시 객체의 출력 상태를 조정할 수 있다.At operation 1350, the electronic device may adjust the touch settings according to the determined state of the touch object. According to one embodiment, the electronic device can adjust the touch sensitivity of the touch input device (e.g., the touch input device 280 of FIG. 2) according to the state of the touch object. In addition, the electronic device can adjust the touch area of the display objects displayed on the display (e.g., the display 290 in FIG. 2) according to the state of the touch object, thereby adjusting the output state of the display object.

도 14는 다양한 실시 예에 따른 네트워크 환경 1400 내의 전자 장치 1401을 나타낸다.14 shows an electronic device 1401 in a network environment 1400 according to various embodiments.

도 14를 참조하면, 전자 장치 1401은 버스 1410, 프로세서 1420, 메모리 1430, 입출력 인터페이스 1450, 디스플레이 1460, 및 통신 인터페이스 1470을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치 1401은, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.14, an electronic device 1401 may include a bus 1410, a processor 1420, a memory 1430, an input / output interface 1450, a display 1460, and a communication interface 1470. In some embodiments, the electronic device 1401 may omit at least one of the components, or may additionally include other components.

버스 1410은, 예를 들면, 구성요소들 1410-1470을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.The bus 1410 may include circuitry, for example, for connecting the components 1410-1470 to each other and for communicating (e.g., control messages and / or data) between the components.

프로세서 1420은, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서 1420은, 예를 들면, 전자 장치 1401의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.Processor 1420 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP). Processor 1420 may perform computations or data processing related to, for example, control and / or communication of at least one other component of electronic device 1401. [

메모리 1430은, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리 1430은, 예를 들면, 전자 장치 1401의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리 1430은 소프트웨어 및/또는 프로그램 1440을 저장할 수 있다. 프로그램 1440은, 예를 들면, 커널 1441, 미들웨어 1443, 어플리케이션 프로그래밍 인터페이스(application programming interface(API)) 1445, 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 1447 등을 포함할 수 있다. 커널 1441, 미들웨어 1443, 또는 API 1445의 적어도 일부는, 운영 시스템(operating system(OS))으로 지칭될 수 있다.Memory 1430 may include volatile and / or non-volatile memory. Memory 1430 may, for example, store instructions or data related to at least one other component of electronic device 1401. According to one embodiment, the memory 1430 may store software and / or programs 1440. The program 1440 may include, for example, a kernel 1441, a middleware 1443, an application programming interface (API) 1445, and / or an application program (or "application" At least a portion of the kernel 1441, middleware 1443, or API 1445 may be referred to as an operating system (OS).

커널 1441은, 예를 들면, 다른 프로그램들(예: 미들웨어 1443, API 1445, 또는 어플리케이션 프로그램 1447)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 1410, 프로세서 1420, 또는 메모리 1430 등)을 제어 또는 관리할 수 있다. 또한, 커널 1441은 미들웨어 1443, API 1445, 또는 어플리케이션 프로그램 1447에서 전자 장치 1401의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.The kernel 1441 may include, for example, system resources (e.g., bus 1410, processor 1420, etc.) used to execute an operation or function implemented in other programs (e.g., middleware 1443, API 1445, or application program 1447) Memory 1430, etc.). In addition, the kernel 1441 may provide an interface that can control or manage system resources by accessing individual components of the electronic device 1401 in the middleware 1443, API 1445, or application program 1447.

미들웨어 1443은, 예를 들면, API 1445 또는 어플리케이션 프로그램 1447이 커널 1441과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다.The middleware 1443 can perform an intermediary function, for example, such that the API 1445 or the application program 1447 communicates with the kernel 1441 to exchange data.

또한, 미들웨어 1443은 어플리케이션 프로그램 1447로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어 1443은 어플리케이션 프로그램 1447 중 적어도 하나에 전자 장치 1401의 시스템 리소스(예: 버스 1410, 프로세서 1420, 또는 메모리 1430 등)를 사용할 수 있는 우선 순위를 부여할 수 있다. 예컨대, 미들웨어 1443은 상기 적어도 하나에 부여된 우선 순위에 따라 상기 하나 이상의 작업 요청들을 처리함으로써, 상기 하나 이상의 작업 요청들에 대한 스케쥴링 또는 로드 밸런싱 등을 수행할 수 있다.In addition, the middleware 1443 may process one or more task requests received from the application program 1447 according to the priority order. For example, middleware 1443 may prioritize the use of system resources (e.g., bus 1410, processor 1420, or memory 1430, etc.) of electronic device 1401 in at least one of application programs 1447. For example, the middleware 1443 can perform the scheduling or load balancing of the one or more task requests by processing the one or more task requests according to the priority assigned to the at least one task.

API 1445는, 예를 들면, 어플리케이션 1447이 커널 1441 또는 미들웨어 1443에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.The API 1445 is an interface for the application 1447 to control the functions provided by the kernel 1441 or the middleware 1443. The API 1445 includes at least one interface for file control, window control, image processing, Or functions (e.g., commands).

입출력 인터페이스 1450은, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치 1401의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스 1450은 전자 장치 1401의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.The input / output interface 1450 may serve as an interface through which commands or data input from, for example, a user or other external device can be communicated to another component (s) of the electronic device 1401. The input / output interface 1450 may also output commands or data received from other component (s) of the electronic device 1401 to a user or other external device.

디스플레이 1460은, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이 1460은, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)를 표시할 수 있다. 디스플레이 1460은, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.Display 1460 can be, for example, a liquid crystal display (LCD), a light-emitting diode (LED) display, an organic light-emitting diode (OLED) A microelectromechanical systems (MEMS) display, or an electronic paper display. Display 1460 may display various content (e.g., text, images, video, icons, symbols, etc.) to a user, for example. Display 1460 may include a touch screen and may receive touch, gesture, proximity, or hovering input, for example, using an electronic pen or a portion of the user's body.

통신 인터페이스 1470은, 예를 들면, 전자 장치 1401과 외부 장치(예: 제 1 외부 전자 장치 1402, 제 2 외부 전자 장치 1404, 또는 서버 1406) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스 1470은 무선 통신 또는 유선 통신을 통해서 네트워크 1462에 연결되어 외부 장치(예: 제 2 외부 전자 장치 1404 또는 서버 1406)와 통신할 수 있다.The communication interface 1470 may establish communication between the electronic device 1401 and an external device (e.g., the first external electronic device 1402, the second external electronic device 1404, or the server 1406). For example, the communication interface 1470 may be connected to the network 1462 via wireless or wired communication to communicate with an external device (e.g., a second external electronic device 1404 or server 1406).

무선 통신은, 예를 들면, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용할 수 있다. 또한, 무선 통신은, 예를 들면, 근거리 통신 1464를 포함할 수 있다. 근거리 통신 1464는, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), 또는 GNSS(global navigation satellite system) 등 중 적어도 하나를 포함할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system 중 적어도 하나를 포함할 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 혼용되어 사용(interchangeably used)될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크 1462는 통신 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 망(telephone network) 중 적어도 하나를 포함할 수 있다.Wireless communications may include, for example, cellular communication protocols such as long-term evolution (LTE), LTE Advance (LTE), code division multiple access (CDMA), wideband CDMA (WCDMA) mobile telecommunications system, WiBro (Wireless Broadband), or Global System for Mobile Communications (GSM). The wireless communication may also include, for example, local communication 1464. The local area communication 1464 may include at least one of, for example, wireless fidelity (WiFi), Bluetooth, near field communication (NFC), or global navigation satellite system (GNSS). GNSS can be classified into two types according to the use area or bandwidth, for example, Global Positioning System (GPS), Global Navigation Satellite System (Glonass), Beidou Navigation Satellite System (Beidou) And may include at least one. Hereinafter, in this document, "GPS" can be interchangeably used with "GNSS ". The wired communication may include at least one of, for example, a universal serial bus (USB), a high definition multimedia interface (HDMI), a recommended standard 232 (RS-232), or plain old telephone service (POTS). The network 1462 may include at least one of a telecommunications network, e.g., a computer network (e.g., a LAN or WAN), the Internet, or a telephone network.

제 1 및 제 2 외부 전자 장치 1402, 1404 각각은 전자 장치 1401과 동일한 또는 다른 종류의 장치일 수 있다. 한 실시 예에 따르면, 서버 1406은 하나 또는 그 이상의 서버들의 그룹을 포함할 수 있다. 다양한 실시 예에 따르면, 전자 장치 1401에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치 1402, 1404, 또는 서버 1406)에서 실행될 수 있다. 한 실시 예에 따르면, 전자 장치 1401이 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치 1401은 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치 1402, 1404, 또는 서버 1406)에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치 1402, 1404, 또는 서버 1406)는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치 1401로 전달할 수 있다. 전자 장치 1401은 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.Each of the first and second external electronic devices 1402, 1404 may be the same or different kind of device as the electronic device 1401. According to one embodiment, the server 1406 may include one or more groups of servers. According to various embodiments, all or a portion of the operations performed on the electronic device 1401 may be performed on one or more other electronic devices (e.g., electronic device 1402, 1404, or server 1406). According to one embodiment, in the event that the electronic device 1401 has to perform some function or service automatically or upon request, the electronic device 1401 may, instead of or in addition to executing the function or service itself, (E.g., electronic device 1402, 1404, or server 1406). Other electronic devices (e.g., electronic device 1402, 1404, or server 1406) may execute the requested function or additional function and forward the results to electronic device 1401. The electronic device 1401 can directly or additionally process the received result to provide the requested function or service. For this purpose, for example, cloud computing, distributed computing, or client-server computing technology may be used.

도 15는 다양한 실시 예에 따른 전자 장치 1501의 블록도이다. 전자 장치 1501은, 예를 들면, 도 14에 도시된 전자 장치 1401의 전체 또는 일부를 포함할 수 있다. 전자 장치 1501은 하나 이상의 프로세서(예: AP(application processor)) 1510, 통신 모듈 1520, 가입자 식별 모듈 1524, 메모리 1530, 센서 모듈 1540, 입력 장치 1550, 디스플레이 1560, 인터페이스 1570, 오디오 모듈 1580, 카메라 모듈 1591, 전력 관리 모듈 1595, 배터리 1596, 인디케이터 1597, 및 모터 1598을 포함할 수 있다.15 is a block diagram of an electronic device 1501 according to various embodiments. The electronic device 1501 may include all or part of the electronic device 1401 shown in Fig. 14, for example. The electronic device 1501 may include one or more processors (e.g., APs) 1510, a communication module 1520, a subscriber identification module 1524, a memory 1530, a sensor module 1540, an input device 1550, a display 1560, an interface 1570, an audio module 1580, 1591, a power management module 1595, a battery 1596, an indicator 1597, and a motor 1598.

프로세서 1510은, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서 1510에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서 1510은, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 1510은 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서 1510은 도 15에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈 1521)를 포함할 수도 있다. 프로세서 1510은 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.The processor 1510 may, for example, operate an operating system or an application program to control a number of hardware or software components coupled to the processor 1510, and may perform various data processing and operations. The processor 1510 may be implemented with, for example, a system on chip (SoC). According to one embodiment, the processor 1510 may further include a graphics processing unit (GPU) and / or an image signal processor. Processor 1510 may include at least a portion (e.g., cellular module 1521) of the components shown in FIG. Processor 1510 may load and process instructions or data received from at least one of the other components (e.g., non-volatile memory) into volatile memory and store the various data in non-volatile memory.

통신 모듈 1520은, 도 14의 통신 인터페이스 1470과 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈 1520은, 예를 들면, 셀룰러 모듈 1521, WiFi 모듈 1523, 블루투스 모듈 1525, GNSS 모듈 1527(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈 1528 및 RF(radio frequency) 모듈 1529를 포함할 수 있다.The communication module 1520 may have the same or similar configuration as the communication interface 1470 of Fig. The communication module 1520 may include, for example, a cellular module 1521, a WiFi module 1523, a Bluetooth module 1525, a GNSS module 1527 (e.g., a GPS module, a Glonass module, a Beidou module or a Galileo module), an NFC module 1528, Module 1529. < / RTI >

셀룰러 모듈 1521은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1521은 가입자 식별 모듈(예: SIM 카드) 1524를 이용하여 통신 네트워크 내에서 전자 장치 1501의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1521은 프로세서 1510이 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1521은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.The cellular module 1521 can provide voice calls, video calls, text services, or Internet services, for example, over a communication network. According to one embodiment, the cellular module 1521 may utilize a subscriber identity module (e.g., a SIM card) 1524 to perform the identification and authentication of the electronic device 1501 within the communication network. According to one embodiment, the cellular module 1521 may perform at least some of the functions that the processor 1510 may provide. According to one embodiment, the cellular module 1521 may include a communication processor (CP).

WiFi 모듈 1523, 블루투스 모듈 1525, GNSS 모듈 1527 또는 NFC 모듈 1528 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈 1521, WiFi 모듈 1523, 블루투스 모듈 1525, GNSS 모듈 1527 또는 NFC 모듈 1528 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.Each of the WiFi module 1523, the Bluetooth module 1525, the GNSS module 1527, or the NFC module 1528 may include, for example, a processor for processing data transmitted and received through a corresponding module. According to some embodiments, at least some (e.g., two or more) of the cellular module 1521, the WiFi module 1523, the Bluetooth module 1525, the GNSS module 1527, or the NFC module 1528 may be included in one integrated chip (IC) .

RF 모듈 1529는, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈 1529는, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈 1521, WiFi 모듈 1523, 블루투스 모듈 1525, GNSS 모듈 1527 또는 NFC 모듈 1528 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.The RF module 1529 can transmit and receive a communication signal (e.g., an RF signal), for example. The RF module 1529 may include, for example, a transceiver, a power amplifier module (PAM), a frequency filter, a low noise amplifier (LNA), or an antenna. According to another embodiment, at least one of the cellular module 1521, the WiFi module 1523, the Bluetooth module 1525, the GNSS module 1527 or the NFC module 1528 can transmit and receive an RF signal through a separate RF module.

가입자 식별 모듈 1524는, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.The subscriber identity module 1524 may include, for example, a card containing a subscriber identity module and / or an embedded SIM and may include unique identification information (e.g., an integrated circuit card identifier (ICCID) (E.g., international mobile subscriber identity (IMSI)).

메모리 1530(예: 메모리 1430)은, 예를 들면, 내장 메모리 1532 또는 외장 메모리 1534를 포함할 수 있다. 내장 메모리 1532는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.Memory 1530 (e.g., memory 1430) may include, for example, internal memory 1532 or external memory 1534. The built-in memory 1532 may be a volatile memory such as a dynamic RAM (DRAM), a static random access memory (SRAM), or a synchronous dynamic RAM (SDRAM), a non-volatile memory such as an OTPROM one time programmable ROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (e.g. NAND flash or NOR flash) , Or a solid state drive (SSD).

외장 메모리 1534는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리 1534는 다양한 인터페이스를 통하여 전자 장치 1501과 기능적으로 및/또는 물리적으로 연결될 수 있다.The external memory 1534 may be a flash drive, for example, a compact flash (CF), a secure digital (SD), a micro secure digital (SD-SD), a mini secure digital (SD) , A multi-media card (MMC), a memory stick, or the like. The external memory 1534 may be functionally and / or physically connected to the electronic device 1501 through various interfaces.

센서 모듈 1540은, 예를 들면, 물리량을 계측하거나 전자 장치 1501의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 1540은, 예를 들면, 제스처 센서 1540A, 자이로 센서 1540B, 기압 센서 1540C, 마그네틱 센서 1540D, 가속도 센서 1540E, 그립 센서 1540F, 근접 센서 1540G, 컬러(color) 센서 1540H(예: RGB(red, green, blue) 센서), 생체 센서 1540I, 온/습도 센서 1540J, 조도 센서 1540K, 또는 UV(ultra violet) 센서 1540M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈 1540은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈 1540은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치 1501은 프로세서 1510의 일부로서 또는 별도로, 센서 모듈 1540을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서 1510이 슬립(sleep) 상태에 있는 동안, 센서 모듈 1540을 제어할 수 있다.The sensor module 1540 may, for example, measure a physical quantity or sense an operating state of the electronic device 1501 and convert the measured or sensed information into an electrical signal. The sensor module 1540 includes a gesture sensor 1540A, a gyro sensor 1540B, an air pressure sensor 1540C, a magnetic sensor 1540D, an acceleration sensor 1540E, a grip sensor 1540F, a proximity sensor 1540G, a color sensor 1540H green, and blue sensors), a biological sensor 1540I, a temperature / humidity sensor 1540J, an illuminance sensor 1540K, or an ultraviolet (UV) sensor 1540M. Additionally or alternatively, the sensor module 1540 can be, for example, an E-nose sensor, an electromyography sensor, an electroencephalogram sensor, an electrocardiogram sensor, an IR an infrared sensor, an iris sensor, and / or a fingerprint sensor. The sensor module 1540 may further include a control circuit for controlling at least one sensor belonging to the sensor module 1540. In some embodiments, the electronic device 1501 may further include a processor configured to control the sensor module 1540, either as part of the processor 1510 or separately, to control the sensor module 1540 while the processor 1510 is in a sleep state .

입력 장치 1550은, 예를 들면, 터치 패널(touch panel) 1552, (디지털) 펜 센서(pen sensor) 1554, 키(key) 1556, 또는 초음파(ultrasonic) 입력 장치 1558을 포함할 수 있다. 터치 패널 1552는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널 1552는 제어 회로를 더 포함할 수도 있다. 터치 패널 1552는 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.The input device 1550 may include, for example, a touch panel 1552, a (digital) pen sensor 1554, a key 1556, or an ultrasonic input device 1558. The touch panel 1552 can employ, for example, at least one of an electrostatic type, a pressure sensitive type, an infrared type, and an ultrasonic type. Further, the touch panel 1552 may further include a control circuit. The touch panel 1552 may further include a tactile layer to provide a tactile response to the user.

(디지털) 펜 센서 1554는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키 1556은, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치 1558은 마이크(예: 마이크 1588)를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.(Digital) pen sensor 1554 may be, for example, part of a touch panel or may include a separate recognition sheet. Key 1556 may include, for example, a physical button, an optical key, or a keypad. The ultrasonic input device 1558 can detect the ultrasonic wave generated by the input tool through the microphone (e.g., the microphone 1588) and confirm the data corresponding to the ultrasonic wave detected.

디스플레이 1560(예: 디스플레이 1460)은 패널 1562, 홀로그램 장치 1564, 또는 프로젝터 1566을 포함할 수 있다. 패널 1562는, 도 14의 디스플레이 1460과 동일 또는 유사한 구성을 포함할 수 있다. 패널 1562는, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 1562는 터치 패널 1552와 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 1564는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 1566은 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치 1501의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 1560은 패널 1562, 홀로그램 장치 1564, 또는 프로젝터 1566을 제어하기 위한 제어 회로를 더 포함할 수 있다.Display 1560 (e.g., display 1460) may include a panel 1562, a hologram device 1564, or a projector 1566. Panel 1562 may include the same or similar configuration as display 1460 of FIG. The panel 1562 can be embodied, for example, flexible, transparent, or wearable. The panel 1562 may be composed of a touch panel 1552 and one module. The hologram device 1564 can display stereoscopic images in the air using the interference of light. The projector 1566 can display images by projecting light onto the screen. The screen may, for example, be located inside or outside the electronic device 1501. According to one embodiment, the display 1560 may further include control circuitry for controlling the panel 1562, the hologram device 1564, or the projector 1566.

인터페이스 1570은, 예를 들면, HDMI(high-definition multimedia interface) 1572, USB(universal serial bus) 1574, 광 인터페이스(optical interface) 1576, 또는 D-sub(D-subminiature) 1578을 포함할 수 있다. 인터페이스 1570은, 예를 들면, 도 14에 도시된 통신 인터페이스 1470에 포함될 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스 1570은, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.The interface 1570 may include, for example, a high-definition multimedia interface (HDMI) 1572, a universal serial bus (USB) 1574, an optical interface 1576, or a D-sub (D-subminiature) 1578. The interface 1570 may be included in the communication interface 1470 shown in Fig. 14, for example. Additionally or alternatively, the interface 1570 can be, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card / multi-media card (MMC) ) Standard interface.

오디오 모듈 1580은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 1580의 적어도 일부 구성요소는, 예를 들면, 도 14에 도시된 입출력 인터페이스 1450에 포함될 수 있다. 오디오 모듈 1580은, 예를 들면, 스피커 1582, 리시버 1584, 이어폰 1586, 또는 마이크 1588 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.Audio module 1580 can, for example, convert sound and electrical signals in both directions. At least some of the components of the audio module 1580 may be included in, for example, the input / output interface 1450 shown in FIG. The audio module 1580 can process sound information input or output through, for example, a speaker 1582, a receiver 1584, an earphone 1586, a microphone 1588, or the like.

카메라 모듈 1591은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.The camera module 1591 is, for example, a device capable of capturing still images and moving images, and according to one embodiment, one or more image sensors (e.g., a front sensor or a rear sensor), a lens, an image signal processor And may include a flash (e.g., LED or xenon lamp).

전력 관리 모듈 1595는, 예를 들면, 전자 장치 1501의 전력을 관리할 수 있다. 한 실시 예에 따르면, 전력 관리 모듈 1595는 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리 1596의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리 1596은, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.The power management module 1595 can manage the power of the electronic device 1501, for example. According to one embodiment, the power management module 1595 may include a power management integrated circuit (PMIC), a charger integrated circuit ("IC"), or a battery or fuel gauge. The PMIC may have a wired and / or wireless charging scheme. The wireless charging scheme may include, for example, a magnetic resonance scheme, a magnetic induction scheme, or an electromagnetic wave scheme, and may further include an additional circuit for wireless charging, for example, a coil loop, a resonant circuit, have. The battery gauge can measure, for example, the remaining amount of the battery 1596, the voltage during charging, the current, or the temperature. The battery 1596 may include, for example, a rechargeable battery and / or a solar battery.

인디케이터 1597은 전자 장치 1501 또는 그 일부(예: 프로세서 1510)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터 1598은 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치 1501은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.The indicator 1597 may indicate a particular state of the electronic device 1501 or a portion thereof (e.g., processor 1510), such as a boot state, a message state, or a charged state. The motor 1598 can convert an electrical signal into mechanical vibration and can generate vibration, haptic effects, and the like. Although not shown, the electronic device 1501 may include a processing unit (e.g., a GPU) for mobile TV support. The processing unit for supporting the mobile TV can process media data conforming to standards such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or media flow ( TM ).

본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.Each of the components described in this document may be composed of one or more components, and the name of the component may be changed according to the type of the electronic device. In various embodiments, the electronic device may comprise at least one of the components described herein, some components may be omitted, or may further include additional other components. In addition, some of the components of the electronic device according to various embodiments may be combined into one entity, so that the functions of the components before being combined can be performed in the same manner.

도 16은 다양한 실시 예에 따른 프로그램 모듈의 블록도이다. 한 실시 예에 따르면, 프로그램 모듈 1610(예: 프로그램 1440)은 전자 장치(예: 전자 장치 1401)에 관련된 자원을 제어하는 운영 체제(operating system(OS)) 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램 1447)을 포함할 수 있다. 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.16 is a block diagram of a program module in accordance with various embodiments. According to one embodiment, the program module 1610 (e.g., program 1440) includes an operating system (OS) that controls resources associated with an electronic device (e.g., electronic device 1401) and / (E.g., an application program 1447). The operating system may be, for example, android, iOS, windows, symbian, tizen, or bada.

프로그램 모듈 1610은 커널 1620, 미들웨어 1630, 어플리케이션 프로그래밍 인터페이스(application programming interface (API)) 1660, 및/또는 어플리케이션 1670을 포함할 수 있다. 프로그램 모듈 1610의 적어도 일부는 전자 장치 상에 프리로드(preload) 되거나, 외부 전자 장치(예: 전자 장치 1402, 1404, 서버 1406 등)로부터 다운로드(download) 가능하다.The program module 1610 may include a kernel 1620, a middleware 1630, an application programming interface (API) 1660, and / or an application 1670. At least a portion of the program module 1610 may be preloaded on an electronic device or downloaded from an external electronic device (e.g., electronic device 1402, 1404, server 1406, etc.).

커널 1620(예: 커널 1441)은, 예를 들면, 시스템 리소스 매니저 1621 및/또는 디바이스 드라이버 1623을 포함할 수 있다. 시스템 리소스 매니저 1621은 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시 예에 따르면, 시스템 리소스 매니저 1621은 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 디바이스 드라이버 1623은, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다.The kernel 1620 (e.g., kernel 1441) may include, for example, a system resource manager 1621 and / or a device driver 1623. The system resource manager 1621 can perform control, allocation, or recovery of system resources. According to one embodiment, the system resource manager 1621 may include a process manager, a memory manager, or a file system manager. The device driver 1623 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication (IPC) driver.

미들웨어 1630은, 예를 들면, 어플리케이션 1670이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션 1670이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API 1660을 통해 다양한 기능들을 어플리케이션 1670으로 제공할 수 있다. 한 실시 예에 따르면, 미들웨어 1630(예: 미들웨어 1443)은 런타임 라이브러리 1635, 어플리케이션 매니저(application manager) 1641, 윈도우 매니저(window manager) 1642, 멀티미디어 매니저(multimedia manager) 1643, 리소스 매니저(resource manager) 1644, 파워 매니저(power manager) 1645, 데이터베이스 매니저(database manager) 1646, 패키지 매니저(package manager) 1647, 연결 매니저(connectivity manager) 1648, 통지 매니저(notification manager) 1649, 위치 매니저(location manager) 1650, 그래픽 매니저(graphic manager) 1651, 또는 보안 매니저(security manager) 1652 중 적어도 하나를 포함할 수 있다.The middleware 1630 may provide various functions to the application 1670 through the API 1660, for example, to provide functions that are commonly needed by the application 1670, or to allow the application 1670 to efficiently use limited system resources within the electronic device have. According to one embodiment, the middleware 1630 (e.g., middleware 1443) includes a runtime library 1635, an application manager 1641, a window manager 1642, a multimedia manager 1643, a resource manager 1644 A power manager 1645, a database manager 1646, a package manager 1647, a connectivity manager 1648, a notification manager 1649, a location manager 1650, A graphical manager 1651, or a security manager 1652. [

런타임 라이브러리 1635는, 예를 들면, 어플리케이션 1670이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리 1635는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.The runtime library 1635 may include, for example, a library module used by the compiler to add new functionality via a programming language while the application 1670 is running. The runtime library 1635 may perform input / output management, memory management, or functions for arithmetic functions.

어플리케이션 매니저 1641은, 예를 들면, 어플리케이션 1670 중 적어도 하나의 어플리케이션의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저 1642는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저 1643은 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저 1644는 어플리케이션 1670 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.The application manager 1641 may, for example, manage the life cycle of at least one of the applications 1670. The window manager 1642 can manage the GUI resources used on the screen. The multimedia manager 1643 can identify the format required for playback of various media files and can encode or decode a media file using a codec suitable for the format. The resource manager 1644 can manage resources such as source code, memory or storage space of at least one of the applications 1670.

파워 매니저 1645는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저 1646은 어플리케이션 1670 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저 1647은 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.The power manager 1645 operates in conjunction with a basic input / output system (BIOS), for example, to manage a battery or a power source, and to provide power information necessary for the operation of the electronic device. The database manager 1646 may create, retrieve, or modify a database to be used in at least one of the applications 1670. The package manager 1647 can manage installation or update of an application distributed in the form of a package file.

연결 매니저 1648은, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저 1649는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저 1650은 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저 1651은 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저 1652는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치(예: 전자 장치 1401)가 전화 기능을 포함한 경우, 미들웨어 1630은 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.The connection manager 1648 can manage wireless connections, such as, for example, WiFi or Bluetooth. The notification manager 1649 may display or notify events such as arrival messages, appointments, proximity notifications, etc. in a manner that is not disturbed to the user. The location manager 1650 can manage the location information of the electronic device. The graphic manager 1651 can manage the graphical effect to be provided to the user or a related user interface. The security manager 1652 can provide all the security functions necessary for system security or user authentication. According to one embodiment, when an electronic device (e.g., electronic device 1401) includes a telephone function, middleware 1630 may further include a telephony manager for managing the voice or video call capabilities of the electronic device.

미들웨어 1630은 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 미들웨어 1630은 차별화된 기능을 제공하기 위해 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어 1630은 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.Middleware 1630 may include a middleware module that forms a combination of various functions of the above-described components. The middleware 1630 can provide a module specialized for each type of operating system to provide differentiated functions. In addition, the middleware 1630 may dynamically delete some existing components or add new ones.

API 1660(예: API 1445)은, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.API 1660 (e.g., API 1445) is a collection of API programming functions, for example, and can be provided in different configurations depending on the operating system. For example, for Android or iOS, you can provide one API set per platform, and for tizen, you can provide more than two API sets per platform.

어플리케이션 1670(예: 어플리케이션 프로그램 1447)은, 예를 들면, 홈 1671, 다이얼러 1672, SMS/MMS 1673, IM(instant message) 1674, 브라우저 1675, 카메라 1676, 알람 1677, 컨택트 1678, 음성 다이얼 1679, 이메일 1680, 달력 1681, 미디어 플레이어 1682, 앨범 1683, 또는 시계 1684, 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 수행할 수 있는 하나 이상의 어플리케이션을 포함할 수 있다.An application 1670 (e.g., an application program 1447) may include, for example, a home 1671, a dialer 1672, an SMS / MMS 1673, an instant message 1674, a browser 1675, a camera 1676, an alarm 1677, 1680, a calendar 1681, a media player 1682, an album 1683, or a clock 1684, providing health care (e.g., measuring exercise or blood glucose), or providing environmental information (e.g., pressure, humidity, And the like) capable of performing the functions of the < / RTI >

한 실시 예에 따르면, 어플리케이션 1670은 전자 장치(예: 전자 장치 1401)와 외부 전자 장치(예: 전자 장치 1402, 1404) 사이의 정보 교환을 지원하는 어플리케이션(이하, 설명의 편의 상, "정보 교환 어플리케이션")을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.According to one embodiment, an application 1670 is an application that supports the exchange of information between an electronic device (e.g., electronic device 1401) and an external electronic device (e.g., electronic device 1402, 1404) Application "). The information exchange application may include, for example, a notification relay application for communicating specific information to an external electronic device, or a device management application for managing an external electronic device.

예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션, 또는 환경 정보 어플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치(예: 전자 장치 1402, 1404)로 전달하는 기능을 포함할 수 있다. 또한, 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다.For example, the notification delivery application may send notification information generated in other applications (e.g., SMS / MMS applications, email applications, healthcare applications, or environmental information applications) of the electronic device to external electronic devices 1404 via a network. Further, the notification delivery application can receive notification information from, for example, an external electronic device and provide it to the user.

장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치(예: 전자 장치 1402, 1404)의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 외부 전자 장치에서 동작하는 어플리케이션 또는 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스 등)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.The device management application may be used to control at least one function (e.g., turn-on / turn-off) of an external electronic device (e.g., (E. G., Installing, deleting, or otherwise) managing services provided by an external electronic device or external electronic device (e. G., A call service or message service) Update).

한 실시 예에 따르면, 어플리케이션 1670은 외부 전자 장치(예: 전자 장치 1402, 1404)의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션 등)을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션 1670은 외부 전자 장치(예: 서버 1406 또는 전자 장치 1402, 1404)로부터 수신된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션 1670은 프리로드 어플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 어플리케이션(third party application)을 포함할 수 있다. 도시된 실시 예에 따른 프로그램 모듈 1610의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다.According to one embodiment, the application 1670 may include an application (e.g., a healthcare application of a mobile medical device, etc.) designated according to attributes of an external electronic device (e.g., electronic device 1402, 1404). According to one embodiment, the application 1670 may include an application received from an external electronic device (e.g., server 1406 or electronic devices 1402, 1404). According to one embodiment, application 1670 may include a preloaded application or a third party application downloadable from a server. The names of the components of the program module 1610 according to the illustrated embodiment may vary depending on the type of the operating system.

다양한 실시 예에 따르면, 프로그램 모듈 1610의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 프로그램 모듈 1610의 적어도 일부는, 예를 들면, 프로세서(예: 프로세서 1510)에 의해 구현(implement)(예: 실행)될 수 있다. 프로그램 모듈 1610의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.According to various embodiments, at least some of the program modules 1610 may be implemented in software, firmware, hardware, or a combination of at least two of them. At least some of the program modules 1610 may be implemented (e.g., executed) by, for example, a processor (e.g., processor 1510). At least some of the program modules 1610 may include, for example, modules, programs, routines, sets of instructions or processes, etc., to perform one or more functions.

본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.As used in this document, the term "module" may refer to a unit comprising, for example, one or a combination of two or more of hardware, software or firmware. A "module" may be interchangeably used with terms such as, for example, unit, logic, logical block, component, or circuit. A "module" may be a minimum unit or a portion of an integrally constructed component. A "module" may be a minimum unit or a portion thereof that performs one or more functions. "Modules" may be implemented either mechanically or electronically. For example, a "module" may be an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs) or programmable-logic devices And may include at least one.

다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서 1420)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리 1430이 될 수 있다.At least a portion of a device (e.g., modules or functions thereof) or a method (e.g., operations) according to various embodiments may include, for example, computer-readable storage media in the form of program modules, As shown in FIG. When the instruction is executed by a processor (e.g., processor 1420), the one or more processors may perform a function corresponding to the instruction. The computer-readable storage medium may be, for example, a memory 1430.

컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.The computer readable recording medium may be a hard disk, a floppy disk, a magnetic media (e.g., a magnetic tape), an optical media (e.g., a compact disc read only memory (CD-ROM) digital versatile discs, magneto-optical media such as floptical disks, hardware devices such as read only memory (ROM), random access memory (RAM) Etc. The program instructions may also include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter, etc. The above- May be configured to operate as one or more software modules to perform the operations of the embodiment, and vice versa.

다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.Modules or program modules according to various embodiments may include at least one or more of the elements described above, some of which may be omitted, or may further include additional other elements. Operations performed by modules, program modules, or other components in accordance with various embodiments may be performed in a sequential, parallel, iterative, or heuristic manner. Also, some operations may be performed in a different order, omitted, or other operations may be added. And the embodiments disclosed in this document are presented for the purpose of explanation and understanding of the disclosed technology and do not limit the scope of the technology described in this document. Accordingly, the scope of this document should be interpreted to include all modifications based on the technical idea of this document or various other embodiments.

Claims (20)

전자 장치에 있어서,
터치 물체를 센싱하여 센서 정보를 수집하는 제 1 터치 센서,
상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 프로세서, 및
상기 터치 물체의 상태에 따라 터치 감도가 조정되는 제 2 터치 센서를 포함하는 전자 장치.
In an electronic device,
A first touch sensor that senses a touch object and collects sensor information,
A processor for determining a state of the touch object corresponding to the sensor information,
And a second touch sensor whose touch sensitivity is adjusted according to the state of the touch object.
청구항 1에 있어서,
상기 제 1 터치 센서는 지문 인식 센서, 촉각 센서, pH 농도 센서, 또는 터치 센서 중 적어도 하나를 포함하는 전자 장치.
The method according to claim 1,
Wherein the first touch sensor includes at least one of a fingerprint recognition sensor, a tactile sensor, a pH concentration sensor, or a touch sensor.
청구항 1에 있어서,
상기 프로세서는
상기 터치 물체와 상기 제 1 터치 센서 사이에 이물질이 감지되지 않은 상태에 대응하는 정상 상태 정보, 및
상기 제 1 터치 센서를 기반으로 상기 이물질을 센싱한 정보, 상기 이물질의 pH 농도 정보, 표면 상태 정보, 전기 전도도 정보, 또는 주파수 스펙트럼 정보 중 적어도 하나를 포함하는 상기 이물질의 패턴 정보를 상기 센서 정보와 비교하여 상기 터치 물체의 상태를 판단하는 전자 장치.
The method according to claim 1,
The processor
Steady state information corresponding to a state in which no foreign matter is detected between the touch object and the first touch sensor,
Wherein the sensor information includes at least one of sensing information of the foreign substance based on the first touch sensor, pH concentration information of the foreign matter, surface state information, electric conductivity information, and frequency spectrum information, To determine the state of the touch object.
청구항 1에 있어서,
상기 프로세서는
상기 터치 물체의 상태에 따라 디스플레이에 출력되는 표시 객체들의 터치 영역을 조정하도록 제어하는 전자 장치.
The method according to claim 1,
The processor
And controls the touch area of the display objects output to the display according to the state of the touch object.
청구항 4에 있어서,
상기 프로세서는
상기 터치 영역에 대응하도록 상기 표시 객체들의 크기 또는 위치 중 적어도 하나를 변경하도록 제어하는 전자 장치.
The method of claim 4,
The processor
And changes at least one of a size or a position of the display objects to correspond to the touch area.
청구항 1에 있어서,
상기 프로세서는
상기 터치 물체의 상태에 대응하는 적어도 하나의 항목을 포함하는 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 전자 장치.
The method according to claim 1,
The processor
And a touch function selection object including at least one item corresponding to the state of the touch object.
청구항 6에 있어서,
상기 프로세서는
상기 터치 기능 선택 객체를 상기 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 전자 장치에 포함된 특정 물리 버튼이 선택되는 시점, 상기 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 상기 특정 어플리케이션 프로그램이 요청하는 시점, 상기 화면의 일정 영역이 상기 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동되는 시점, 또는 상기 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 중 적어도 하나의 시점에 표시하도록 제어하는 전자 장치.
The method of claim 6,
The processor
A point of time when the screen of the electronic device changes from a turn-off state to a turn-on state, a time point when the touch input processing function is turned off to a turn-on state, When a specific application program included in the electronic device is executed or when a specific application program requests a certain object, a certain area of the screen is pressed by the touch object, Or at a time point at which the electronic device moves or rotates in a predetermined direction a predetermined number of times at a predetermined interval.
청구항 1에 있어서,
상기 프로세서는
상기 터치 물체의 상태를 판단한 시점을 기준으로 지정된 시간이 경과된 시점에 상기 터치 물체를 센싱하여 수집한 센서 정보를 기반으로 상기 터치 물체의 상태를 업데이트하고,
상기 제 2 터치 센서는
업데이트된 상기 터치 물체의 상태에 따라 터치 감도가 조정되는 전자 장치.
The method according to claim 1,
The processor
Wherein the state of the touch object is updated based on sensor information obtained by sensing the touch object at a point of time that has elapsed from a point of time when the state of the touch object is determined,
The second touch sensor
And the touch sensitivity is adjusted according to the updated state of the touch object.
청구항 1에 있어서,
상기 프로세서는
상기 터치 물체의 상태에 따라 형태, 색, 또는 크기 중 적어도 하나가 다른 이미지로 설정된 아이콘을 디스플레이의 일정 영역에 표시하도록 제어하는 전자 장치.
The method according to claim 1,
The processor
And controls the display unit to display an icon having at least one of a shape, a color, and a size set to another image according to the state of the touch object in a predetermined area of the display.
청구항 1에 있어서,
상기 프로세서는
상기 터치 물체의 상태가 변경되면 상기 터치 물체 상태 변경과 관련한 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 객체의 출력 또는 상기 터치 물체 상태 변경과 관련한 음성 정보의 출력 중 적어도 하나를 제어하는 전자 장치.
The method according to claim 1,
The processor
An output of an object including at least one of a text, an image, and an icon related to the change of the touch object state or an output of voice information associated with the change of the touch object state when the state of the touch object changes, .
전자 장치의 터치 입력 처리 방법에 있어서,
제 1 터치 센서를 기반으로 터치 물체를 센싱하여 센서 정보를 수집하는 동작,
상기 센서 정보에 대응하는 상기 터치 물체의 상태를 판단하는 동작, 및
상기 터치 물체의 상태에 따라 제 2 터치 센서의 터치 감도를 조정하는 동작을 포함하는 터치 입력 처리 방법.
A method of processing a touch input of an electronic device,
An operation of sensing the touch object based on the first touch sensor to collect sensor information,
Determining the state of the touch object corresponding to the sensor information, and
And adjusting a touch sensitivity of the second touch sensor according to a state of the touch object.
청구항 11에 있어서,
상기 센서 정보를 수집하는 동작은
지문 인식 센서, 촉각 센서, pH 농도 센서, 또는 터치 센서 중 적어도 하나를 기반으로 상기 터치 물체의 접근 또는 접촉에 대응하는 상기 센서 정보를 수집하는 동작을 포함하는 터치 입력 처리 방법.
The method of claim 11,
The operation of collecting the sensor information
And collecting the sensor information corresponding to approach or contact of the touch object based on at least one of a fingerprint recognition sensor, a tactile sensor, a pH concentration sensor, or a touch sensor.
청구항 11에 있어서,
상기 터치 물체의 상태를 판단하는 동작은
상기 터치 물체와 상기 제 1 터치 센서 사이에 이물질이 감지되지 않은 상태에 대응하는 정상 상태 정보, 및
상기 제 1 터치 센서를 기반으로 상기 이물질을 센싱한 정보, 상기 이물질의 pH 농도 정보, 표면 상태 정보, 전기 전도도 정보, 또는 주파수 스펙트럼 정보 중 적어도 하나를 포함하는 상기 이물질의 패턴 정보를 상기 센서 정보와 비교하는 동작을 포함하는 터치 입력 처리 방법.
The method of claim 11,
The operation of determining the state of the touch object
Steady state information corresponding to a state in which no foreign matter is detected between the touch object and the first touch sensor,
Wherein the sensor information includes at least one of sensing information of the foreign substance based on the first touch sensor, pH concentration information of the foreign matter, surface state information, electric conductivity information, and frequency spectrum information, And comparing the touch input with the touch input.
청구항 11에 있어서,
상기 터치 물체의 상태를 판단하는 동작은
상기 터치 물체의 상태에 대응하는 적어도 하나의 항목을 포함하는 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 동작을 포함하는 터치 입력 처리 방법.
The method of claim 11,
The operation of determining the state of the touch object
And controlling to display on the display a touch function selection object including at least one item corresponding to the state of the touch object.
청구항 14에 있어서,
상기 터치 기능 선택 객체를 디스플레이에 표시하도록 제어하는 동작은
상기 터치 기능 선택 객체를 상기 전자 장치의 화면이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 터치 입력 처리 기능이 턴-오프된 상태에서 턴-온 상태로 변하는 시점, 상기 전자 장치에 포함된 특정 물리 버튼이 선택되는 시점, 상기 전자 장치에 포함된 특정 어플리케이션 프로그램이 실행되거나 상기 특정 어플리케이션 프로그램이 요청하는 시점, 상기 화면의 일정 영역이 상기 터치 물체에 의해 눌린 상태에서 상기 터치 물체가 일정 방향으로 일정 거리만큼 일정 시간 안에 이동되는 시점, 또는 상기 전자 장치가 일정 간격으로 일정 횟수만큼 일정 방향으로 이동하거나 회전하는 시점 중 적어도 하나의 시점에 표시하도록 제어하는 동작을 더 포함하는 터치 입력 처리 방법.
15. The method of claim 14,
The operation of controlling to display the touch function selection object on the display
A point of time when the screen of the electronic device changes from a turn-off state to a turn-on state, a time point when the touch input processing function is turned off to a turn-on state, When a specific application program included in the electronic device is executed or when a specific application program requests a certain object, a certain area of the screen is pressed by the touch object, To the at least one of a time when the electronic device is moved within a predetermined distance by a predetermined distance or a time when the electronic device moves or swivels in a predetermined direction a predetermined number of times at a predetermined interval.
청구항 11에 있어서,
상기 터치 입력 처리 방법은
상기 터치 물체의 상태에 따라 디스플레이에 출력되는 표시 객체들의 터치 영역을 조정하도록 제어하는 동작을 더 포함하는 터치 입력 처리 방법.
The method of claim 11,
The touch input processing method
And controlling the touch region of the display objects to be displayed on the display according to the state of the touch object.
청구항 16에 있어서,
상기 터치 영역을 조정하도록 제어하는 동작은
상기 터치 영역에 대응하도록 상기 표시 객체들의 크기 또는 위치 중 적어도 하나를 변경하도록 제어하는 동작을 더 포함하는 터치 입력 처리 방법.
18. The method of claim 16,
The operation of controlling to adjust the touch area
And controlling to change at least one of a size and a position of the display objects to correspond to the touch area.
청구항 11에 있어서,
상기 터치 입력 처리 방법은
상기 터치 물체의 상태를 판단한 시점을 기준으로 지정된 시간이 경과된 시점에 상기 터치 물체를 센싱하여 수집한 센서 정보를 기반으로 상기 터치 물체의 상태를 업데이트하는 동작, 및
업데이트된 상기 터치 물체의 상태에 따라 상기 제 2 터치 센서의 터치 감도를 조정하는 동작을 더 포함하는 터치 입력 처리 방법.
The method of claim 11,
The touch input processing method
Updating the state of the touch object based on sensor information obtained by sensing the touch object at a point of time when a predetermined time has elapsed based on a time at which the state of the touch object is determined;
And adjusting the touch sensitivity of the second touch sensor according to the updated state of the touch object.
청구항 11에 있어서,
상기 터치 입력 처리 방법은
상기 터치 물체의 상태에 따라 형태, 색, 또는 크기 중 적어도 하나가 다른 이미지로 설정된 아이콘을 디스플레이의 일정 영역에 표시하도록 제어하는 동작을 더 포함하는 터치 입력 처리 방법.
The method of claim 11,
The touch input processing method
And controlling the display unit to display an icon having at least one of a shape, a color, and a size set to a different image according to a state of the touch object in a predetermined area of the display.
청구항 11에 있어서,
상기 터치 입력 처리 방법은
상기 터치 물체의 상태가 변경되면 상기 터치 물체 상태 변경과 관련한 텍스트, 이미지, 또는 아이콘 중 적어도 하나를 포함하는 객체의 출력 또는 상기 터치 물체 상태 변경과 관련한 음성 정보의 출력 중 적어도 하나를 제어하는 동작을 더 포함하는 터치 입력 처리 방법.
The method of claim 11,
The touch input processing method
An output of an object including at least one of a text, an image, and an icon related to the change of the touch object state or an output of voice information related to the change of the touch object state when the state of the touch object changes, Wherein the touch input processing method further includes:
KR1020150065395A 2015-04-15 2015-05-11 Touch input processing method and electronic device supporting the same KR20160123200A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/095,413 US9904409B2 (en) 2015-04-15 2016-04-11 Touch input processing method that adjusts touch sensitivity based on the state of a touch object and electronic device for supporting the same
EP16165404.1A EP3082025A1 (en) 2015-04-15 2016-04-14 Touch input processing method and electronic device for supporting the same
CN201610236856.8A CN106055138A (en) 2015-04-15 2016-04-15 Touch input processing method and electronic device for supporting the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150052965 2015-04-15
KR20150052965 2015-04-15

Publications (1)

Publication Number Publication Date
KR20160123200A true KR20160123200A (en) 2016-10-25

Family

ID=57446615

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150065395A KR20160123200A (en) 2015-04-15 2015-05-11 Touch input processing method and electronic device supporting the same

Country Status (1)

Country Link
KR (1) KR20160123200A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018128422A1 (en) * 2017-01-06 2018-07-12 삼성전자 주식회사 Method and apparatus for processing distortion of fingerprint image
WO2019160173A1 (en) * 2018-02-14 2019-08-22 엘지전자 주식회사 Mobile terminal and control method thereof
CN112639805A (en) * 2018-09-04 2021-04-09 三星电子株式会社 Electronic device including fingerprint sensor in ultrasonic display and method of operating the same
CN113591666A (en) * 2021-07-26 2021-11-02 深圳创联时代电子商务有限公司 Control method and device applied to mobile phone, computer readable medium and mobile phone
WO2022050627A1 (en) * 2020-09-01 2022-03-10 삼성전자 주식회사 Electronic device comprising flexible display, and operation method thereof
US11614829B2 (en) 2020-12-04 2023-03-28 Samsung Display Co., Ltd. Display device and driving method thereof
US11687167B2 (en) 2019-08-30 2023-06-27 Google Llc Visual indicator for paused radar gestures
US11790693B2 (en) 2019-07-26 2023-10-17 Google Llc Authentication management through IMU and radar
US11841933B2 (en) 2019-06-26 2023-12-12 Google Llc Radar-based authentication status feedback
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US12008169B2 (en) 2019-08-30 2024-06-11 Google Llc Radar gesture input methods for mobile devices
WO2024177199A1 (en) * 2023-02-20 2024-08-29 삼성메디슨 주식회사 Ultrasound imaging device and operation method thereof
US12093463B2 (en) 2019-07-26 2024-09-17 Google Llc Context-sensitive control of radar-based gesture-recognition
WO2024214912A1 (en) * 2023-04-12 2024-10-17 삼성전자주식회사 Electronic device for sensing contact with fluid via touch sensor

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018128422A1 (en) * 2017-01-06 2018-07-12 삼성전자 주식회사 Method and apparatus for processing distortion of fingerprint image
US11093776B2 (en) 2017-01-06 2021-08-17 Samsung Electronics Co., Ltd. Method and apparatus for processing distortion of fingerprint image
WO2019160173A1 (en) * 2018-02-14 2019-08-22 엘지전자 주식회사 Mobile terminal and control method thereof
CN112639805A (en) * 2018-09-04 2021-04-09 三星电子株式会社 Electronic device including fingerprint sensor in ultrasonic display and method of operating the same
US11841933B2 (en) 2019-06-26 2023-12-12 Google Llc Radar-based authentication status feedback
US11790693B2 (en) 2019-07-26 2023-10-17 Google Llc Authentication management through IMU and radar
US12093463B2 (en) 2019-07-26 2024-09-17 Google Llc Context-sensitive control of radar-based gesture-recognition
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US12183120B2 (en) 2019-07-26 2024-12-31 Google Llc Authentication management through IMU and radar
US11687167B2 (en) 2019-08-30 2023-06-27 Google Llc Visual indicator for paused radar gestures
US12008169B2 (en) 2019-08-30 2024-06-11 Google Llc Radar gesture input methods for mobile devices
WO2022050627A1 (en) * 2020-09-01 2022-03-10 삼성전자 주식회사 Electronic device comprising flexible display, and operation method thereof
US11614829B2 (en) 2020-12-04 2023-03-28 Samsung Display Co., Ltd. Display device and driving method thereof
CN113591666A (en) * 2021-07-26 2021-11-02 深圳创联时代电子商务有限公司 Control method and device applied to mobile phone, computer readable medium and mobile phone
WO2024177199A1 (en) * 2023-02-20 2024-08-29 삼성메디슨 주식회사 Ultrasound imaging device and operation method thereof
WO2024214912A1 (en) * 2023-04-12 2024-10-17 삼성전자주식회사 Electronic device for sensing contact with fluid via touch sensor

Similar Documents

Publication Publication Date Title
US9904409B2 (en) Touch input processing method that adjusts touch sensitivity based on the state of a touch object and electronic device for supporting the same
KR102319803B1 (en) Electronic device, operating method thereof and recording medium
KR20160123200A (en) Touch input processing method and electronic device supporting the same
KR102413108B1 (en) Method and electronic device for recognizing touch
US10282019B2 (en) Electronic device and method for processing gesture input
KR102340480B1 (en) Electronic device and method for controlling thereof
KR20160104976A (en) Touch module and electronic device and operating method thereof
KR20180128178A (en) Method for displaying contents and electronic device thereof
KR102459031B1 (en) Electronic device and method for displaying application used therein
KR20170019040A (en) Organism condition information providing method and electronic device supporting the same
KR20160128872A (en) Fingerprint information processing method and electronic device supporting the same
KR102388590B1 (en) Electronic device and method for inputting in electronic device
KR20160125142A (en) Method and apparatus for sensing fingerprints
KR102398503B1 (en) Electronic device for detecting pressure of input and operating method thereof
KR102386480B1 (en) Apparatus and method for distinguishing input by external device thereof
US20190324640A1 (en) Electronic device for providing user interface according to electronic device usage environment and method therefor
KR20170043801A (en) Apparatus and method for obtaining coordinate through touch panel thereof
KR102644876B1 (en) Information processing system and electronic device including the same
KR20170022192A (en) Electronic device having the touch sensor
KR102343990B1 (en) Device For Controlling Respectively Multiple Areas of Display and Method thereof
KR20160128606A (en) Device For Providing Shortcut User Interface and Method Thereof
KR20180089810A (en) Electronic device and method for determining touch coordinate thereof
KR20170066050A (en) Object notification method and electronic device supporting the same
KR20170089655A (en) Method and electronic device processing an input using view layers
KR20180089088A (en) Electronic device and a method for controlling a biometric sensor associated with a display using the same

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150511

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination