[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102339898B1 - Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same - Google Patents

Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same Download PDF

Info

Publication number
KR102339898B1
KR102339898B1 KR1020200033734A KR20200033734A KR102339898B1 KR 102339898 B1 KR102339898 B1 KR 102339898B1 KR 1020200033734 A KR1020200033734 A KR 1020200033734A KR 20200033734 A KR20200033734 A KR 20200033734A KR 102339898 B1 KR102339898 B1 KR 102339898B1
Authority
KR
South Korea
Prior art keywords
ear
mobile device
subject
image
features
Prior art date
Application number
KR1020200033734A
Other languages
Korean (ko)
Other versions
KR20210117484A (en
Inventor
김익재
남기표
조정현
최희승
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020200033734A priority Critical patent/KR102339898B1/en
Priority to US16/845,362 priority patent/US11558197B2/en
Publication of KR20210117484A publication Critical patent/KR20210117484A/en
Application granted granted Critical
Publication of KR102339898B1 publication Critical patent/KR102339898B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • H04M1/724631User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device by limiting the access to the user interface, e.g. locking a touch-screen or a keypad

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Telephone Function (AREA)

Abstract

실시예들은, 잠금 상태에서 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계; 상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계; 및 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인하는 단계를 포함하는. 귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치에 관련된다.Embodiments may include: acquiring an image of a subject in which at least a part of the subject's body appears in a locked state; if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject; and confirming whether the set of ear features of the extracted subject satisfies a preset condition. It relates to a method of unlocking a mobile device using ear recognition-based authentication and a mobile device for performing the same.

Description

귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치{METHOD FOR UNLOCKING MOBILE DEVICE USING AUTHENTICATION BASED ON EAR RECOGNITION AND MOBILE DEVICE PERFORMING THE SAME}METHOD FOR UNLOCKING MOBILE DEVICE USING AUTHENTICATION BASED ON EAR RECOGNITION AND MOBILE DEVICE PERFORMING THE SAME

본 발명은 모바일 잠금 해제 기술에 관한 것으로서, 보다 상세하게는 대상의 귀를 인식하여 대상이 모바일 장치의 등록 사용자인지 확인하고, 확인 결과 여부에 따라 잠금 상태를 해제 상태로 변경하는 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치에 관한 것이다. The present invention relates to a mobile unlocking technology, and more particularly, a method of unlocking a mobile device by recognizing a target's ear to confirm that the target is a registered user of the mobile device, and changing the locked state to the unlocked state according to the result of the check and to a mobile device that performs the same.

애플의 아이폰의 등장 이후 폭발적으로 증가한 (예컨대, 스마트 폰 등을 포함한) 모바일 장치에 대한 수요는 국내외에서 지속적으로 끊임없이 이어지고 있다. Since the advent of Apple's iPhone, the demand for mobile devices (including, for example, smart phones, etc.) that has exploded continues to continue at home and abroad.

이러한 모바일 장치는 터치를 주된 입력 방식으로 사용한다. 사용자가 의도하지 않은 터치 입력은 불필요한 전력 손실을 야기한다. 전력 손실을 낮추기 위해, 모바일 장치는 사용자가 사용을 개시하기 이전에는 대부분의 터치 입력에 응답하지 않도록 구성된, 잠금 상태를 유지한다. 잠금 상태에서 미리 허용된 제한적인 입력에 대해서만 모바일 장치가 반응하며, 미리 결정된 잠금 해제 조건을 만족하는 경우에 잠금이 해제된다. These mobile devices use touch as a main input method. A touch input not intended by the user causes unnecessary power loss. To lower power dissipation, the mobile device remains locked, configured not to respond to most touch input until the user begins use. In the locked state, the mobile device responds only to a limited input allowed in advance, and the lock is released when a predetermined unlocking condition is satisfied.

최근 모바일 장치에 보유되는 소유자의 개인 정보의 수량, 중요도도 점차 증가하고 있어, 모바일 장치의 잠금 해제 및 보안 인증이 결합되고 있는 추세이다. 모바일 장치는 현대인들의 생활 속에 밀접하게 자리잡았으며, 자신의 모바일 장치와 상호작용하는 시간은 하루 전체 활동 시간 중에서 상당한 시간을 차지하며, 하루 사용 빈도 또한 적지 않다. 따라서, 모바일 장치의 보안을 위한 인증에 요구되는 입력은 사용자 편의성을 저해하지 않아야 한다. Recently, the quantity and importance of the owner's personal information held in the mobile device are also gradually increasing, so the unlocking and security authentication of the mobile device are being combined. Mobile devices are closely located in the lives of modern people, and the time spent interacting with one's mobile devices occupies a significant portion of the total daily activity time, and the frequency of daily use is also not small. Therefore, the input required for authentication for security of the mobile device should not impair user convenience.

모바일 장치의 잠금 해제 방법의 경우, 스마트폰의 도입 초반 시기에는 대부분 사용자의 패턴 입력 혹은 비밀번호 입력을 통해 잠금 해제를 수행하였다(특허 문헌 1). 그러나, 이러한 직접 입력 방법은 다른 사람으로의 노출 등의 문제가 있다. 이 문제를 해결하기 위해 패턴이나 비밀번호를 보다 복잡하게 설정하는 방안이 있으나, 사용자가 기 설정한 패턴 또는 비밀번호를 망각할 우려가 있고, 잠금 해제를 하기 위한 사용자의 입력 과정이 길어져 사용자 편의성을 저해하는 한계를 가진다.In the case of a method of unlocking a mobile device, in the early stage of introduction of a smart phone, most of the unlocking was performed through a user's pattern input or password input (Patent Document 1). However, this direct input method has problems such as exposure to other people. To solve this problem, there is a way to set a more complicated pattern or password, but there is a risk that the user forgets the preset pattern or password, and the user's input process for unlocking the lock is long, which impairs user convenience. It has limitations.

이러한 보안 이슈 및 불편함을 해결하기 위해, 사용자의 생체 정보를 활용하는 생체 인증 기반의 잠금 해제 방법들이 활용되었다. 대부분 지문, 얼굴, 홍채 정보를 활용하여 본인 인증을 통해 잠금 해제를 수행하고 있으며, 이 생체 정보는 현재 금융 업무를 위한 비대면 인증 방법으로도 활용되고 있다. In order to solve these security issues and inconveniences, biometric authentication-based unlocking methods using user's biometric information were used. Most of the unlocking is performed through identity authentication using fingerprint, face, and iris information, and this biometric information is currently being used as a non-face-to-face authentication method for financial business.

최근 버튼의 최소화 및 화면의 대형화 트렌드로 인해 얼굴 인식 또는 홍채 인식 방식이 지문 인식 방식에 비해 선호되고 있다. 얼굴 인식 또는 홍채 인식은, 내장된 전면 카메라를 통해 인증을 시도하므로 별도의 센서를 요하지 않고 사용자의 직접적인 접촉이 필요없이 바로 활용 가능하다는 장점이 있다(특허 문헌 2 및 3). 그러나, 선글라스 혹은 마스크 등 액세서리를 착용할 경우 인증의 성공율이 낮은 한계가 있다. Due to the recent trend of minimization of buttons and enlargement of screens, face recognition or iris recognition is preferred over fingerprint recognition. Face recognition or iris recognition has the advantage that authentication is attempted through the built-in front camera, so it does not require a separate sensor and can be used immediately without the need for direct user contact (Patent Documents 2 and 3). However, there is a limitation in that the success rate of authentication is low when wearing accessories such as sunglasses or a mask.

등록특허공보 제10-1581618호Registered Patent Publication No. 10-1581618 미국 특허공개공보 US 20170076077호US Patent Publication No. US 20170076077 미국 특허공개공보 US 20150269419호US Patent Publication No. US 20150269419

본 발명의 실시예들은 대상의 귀를 인식하여 대상이 모바일 장치의 등록 사용자인지 확인하고, 확인 결과 여부에 따라 잠금 상태를 해제 상태로 변경하는 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치를 제공할 수 있다.Embodiments of the present invention provide a method for unlocking a mobile device for recognizing a target's ear, confirming that the target is a registered user of the mobile device, and changing the locked state to the unlocked state according to the result of the check, and a mobile device for performing the same. can

본 발명의 일 측면에 따른 귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법은, 촬영유닛, 디스플레이 유닛, 및 프로세서를 포함 모바일 장치에 의해 수행된다. 상기 잠금 해제 방법은: 잠금 상태에서 잠금 해제 시도를 감지하는 단계; 잠금 상태에서 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계; 상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계; 및 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인하는 단계를 포함할 수 있다. A mobile device unlocking method using ear recognition-based authentication according to an aspect of the present invention is performed by a mobile device including a recording unit, a display unit, and a processor. The unlocking method includes: detecting an unlocking attempt in a locked state; acquiring an image of a subject in which at least a part of the subject's body appears in a locked state; if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject; and confirming whether the set of the extracted ear features of the target satisfies a preset condition.

일 실시예에서, 상기 대상의 귀 특징의 세트를 추출하는 단계는: 귀의 전역적 특성에 대한 제1 특징의 세트를 추출하도록 구성된 전역적 특성 분석 모델에 상기 검출된 귀 영역을 적용하는 단계; 및 귀의 지역적 특성에 대한 제2 특징의 세트를 추출하도록 구성된 지역적 특성 분석 모델에 상기 검출된 귀 영역을 적용하는 단계를 포함할 수 있다.In one embodiment, extracting the set of ear features of the subject comprises: applying the detected ear region to a global feature analysis model configured to extract a first set of features for global features of the ear; and applying the detected ear region to a regional characteristic analysis model configured to extract a second set of features for the regional characteristic of the ear.

일 실시예에서, 상기 전역적 특성 분석 모델 또는 지역적 특성 분석 모델은, 동일한 훈련 대상으로부터 획득된 다중 이미지를 훈련 이미지로 이용하여 제1 특징의 세트 또는 제2 특징의 세트를 추출하도록 구성되며, 상기 다중 이미지는 훈련 대상의 귀의 적어도 일부를 공유할 수 있다. In an embodiment, the global feature analysis model or the regional feature analysis model is configured to extract a first set of features or a set of second features by using multiple images obtained from the same training object as a training image, Multiple images may share at least a portion of the training subject's ear.

일 실시예에서, 상기 귀의 전역적 특성은 귀의 윤곽 및 귀의 구성 중 하나 이상을 포함하고, 상기 귀의 지역적 특성은 귀에 존재하는 국소적 패턴을 포함할 수 있다.In an embodiment, the global characteristic of the ear may include one or more of an ear contour and an ear configuration, and the regional characteristic of the ear may include a local pattern present in the ear.

일 실시예에서, 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인하는 단계는, 상기 제1 특징의 세트 및 제2 특징의 세트를 미리 저장된 상기 모바일 장치의 사용자의 제1 특징의 세트 및 제2 특징의 세트와 비교하여 상기 대상과 사용자 간의 귀 특징의 유사도를 산출하는 단계; 및 유사도에 의한 매칭 정도가 소정 임계치 보다 높은 경우 제1 인터페이스 상태를 제2 인터페이스 상태로 변경하는 단계를 포함할 수 있다.In an embodiment, the step of confirming whether the set of ear features of the extracted target satisfies a preset condition includes pre-stored a set of first features and a set of second features of a first feature of the user of the mobile device calculating a similarity of ear features between the subject and the user by comparing them with the set of and the second set of features; and changing the first interface state to the second interface state when the matching degree based on the similarity is higher than a predetermined threshold.

일 실시예에서, 상기 대상과 사용자 간의 귀 특징의 유사도를 산출하는 단계는: 상기 대상의 제1 특징의 세트와 미리 저장된 상기 모바일 장치의 사용자의 제1 특징의 세트를 비교하여 상기 대상과 사용자의 귀의 전역적 특성의 유사의 정도를 나타내는 제1 유사도를 산출하는 단계; 상기 대상의 제2 특징의 세트와 미리 저장된 상기 모바일 장치의 사용자의 제2 특징의 세트를 비교하여 상기 대상과 사용자의 귀의 지역적 특성의 유사의 정도를 나타내는 제2 유사도를 산출하는 단계; 및 상기 제1 유사도 및 제2 유사도를 결합하여 상기 대상과 사용자 간의 귀 특징의 유사도를 산출하는 단계를 포함할 수 있다.In one embodiment, calculating the degree of similarity of ear features between the subject and the user comprises: comparing the set of first features of the subject with a pre-stored set of first features of the user of the mobile device to determine the degree of similarity between the subject and the user. calculating a first degree of similarity indicating a degree of similarity of global characteristics of the ear; calculating a second degree of similarity indicating a degree of similarity between the subject's second feature set and the pre-stored set of second features of the user of the mobile device; and calculating a similarity of an ear feature between the target and the user by combining the first degree of similarity and the second degree of similarity.

일 실시예에서, 상기 방법은: 상기 전역적 특성 분석 모델 또는 지역적 특성 분석 모델에 적용하기 이전에, 모바일 장치의 모션 변화가 감지된 경우, 상기 모바일 장치의 모션 변화에 기초하여 상기 대상 이미지 또는 귀 영역의 이미지의 촬영 각도를 보정하는 단계를 더 포함할 수 있다.In one embodiment, the method comprises: before applying to the global characteristic analysis model or the regional characteristic analysis model, when a change in motion of the mobile device is detected, based on the change in motion of the mobile device, the target image or the ear The method may further include correcting a photographing angle of the image of the region.

일 실시예에서, 상기 잠금 상태는 기본 잠금 상태를 포함한다. 또한 상기 모바일 장치 잠금 해제 방법은: 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인되면, 하나 이상의 애플리케이션 인터페이스 객체가 나타난 화면(screen)을 디스플레이하는 단계를 더 포함할 수 있다.In one embodiment, the lock state includes a default lock state. In addition, the method of unlocking the mobile device may further include: if it is checked whether the extracted set of ear features of the target satisfies a preset condition, displaying a screen on which one or more application interface objects are displayed.

일 실시예에서, 상기 잠금 상태는 해제 상태를 더 포함한다. 또한, 상기 모바일 장치 잠금 해제 방법은: 하나 이상의 애플리케이션 인터페이스 객체가 나타난 화면을 디스플레이하기 이전에, 상기 기본 잠금 상태를 해제 상태로 변경하고, 상태 변경을 알리는 단계를 더 포함할 수 있다.In one embodiment, the locked state further includes an unlocked state. The method of unlocking the mobile device may further include: before displaying a screen on which one or more application interface objects are displayed, changing the basic lock state to an unlock state and notifying the state change.

일 실시예에서, 상기 잠금 상태는 기본 잠금 상태 및 애플리케이션 잠금 상태를 포함하며, 상기 모바일 장치 잠금 해제 방법은: 상기 기본 잠금 상태에서 이벤트가 발생하면, 이벤트 발생에 대응하는 인터페이스 화면을 디스플레이하는 단계; 및 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 상기 이벤트에 대응하는 애플리케이션의 동작을 실행하는 단계를 포함할 수 있다.In an embodiment, the lock state includes a basic lock state and an application lock state, and the method for unlocking the mobile device includes: when an event occurs in the basic lock state, displaying an interface screen corresponding to the occurrence of the event; and after it is checked whether the extracted set of ear features of the target satisfies a preset condition, executing an operation of an application corresponding to the event.

일 실시예에서, 상기 이벤트는 인커밍 전화를 포함하며, 상기 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 인커밍 전화의 연결이 실행될 수 있다.In an embodiment, the event includes an incoming call, and after it is confirmed whether the set of the extracted subject's ear features satisfies a preset condition, the connection of the incoming call may be performed.

일 실시예에서, 상기 잠금 상태는 기본 잠금 상태, 해제 상태 및 애플리케이션 잠금 상태를 포함하며, 상기 모바일 장치 잠금 해제 방법은: 귀 인식과 상이한 잠금 해제 입력을 수신하여 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이하는 단계; 상기 해제 상태에서 이벤트가 발생하면, 이벤트 발생에 대응하는 인터페이스 화면을 디스플레이하는 단계; 및 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 상기 이벤트에 대응하는 애플리케이션의 동작을 실행하는 단계를 더 포함할 수 있다. 여기서, 상기 대상의 이미지는 상기 이벤트가 발생한 이후 획득된다. In one embodiment, the lock state includes a basic lock state, an unlock state, and an application lock state, and the method for unlocking the mobile device includes: a screen displayed by one or more application interface objects by receiving an unlock input different from ear recognition; displaying a screen); displaying an interface screen corresponding to the occurrence of an event when an event occurs in the release state; and after it is checked whether the extracted set of ear features of the target satisfies a preset condition, the method may further include executing an operation of an application corresponding to the event. Here, the image of the target is acquired after the event occurs.

일 실시예에서, 상기 상이한 잠금 해제 입력은 터치, 논터치 제스처, 타이핑, 및 보이스, 및 귀와 상이한 부분의 촬영 중 하나 이상을 포함할 수 있다.In an embodiment, the different unlocking input may include one or more of a touch, a non-touch gesture, a typing, and a voice, and a photographing of a part different from the ear.

일 실시예에서, 상기 이벤트는 인커밍 전화를 포함하고, 상기 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 인커밍 전화의 수신 수락이 실행될 수 있다. In an embodiment, the event includes an incoming call, and after it is confirmed that the set of ear features of the extracted subject satisfies a preset condition, acceptance of the incoming call may be executed.

일 실시예에서, 상기 방법은: 귀 영역을 검출하기 이전에, 모바일 장치의 조도 정도가 임계치 이하인 경우, 상기 대상에게 모바일 장치와 대상과의 거리를 조절하게 하는 안내를 제공하는 단계를 더 포함할 수 있다.In an embodiment, the method further comprises: prior to detecting the ear region, when the illuminance level of the mobile device is less than or equal to a threshold, providing the subject with a guide to adjust the distance between the mobile device and the subject can

일 실시예에서, 상기 방법은: 귀 특징의 세트를 추출하기 이전에, 검출된 귀 영역이 대상의 귀의 적어도 일부를 포함하는지 확인하는 단계; 상기 검출된 귀 영역이 대상의 귀의 적어도 일부를 포함한 경우, 상기 검출된 귀 영역의 크기가 소정 크기 범위에 속하는지 확인하는 단계; 및 상기 검출된 귀 영역의 크기가 소정 크기 범위에 속하지 않는 경우, 상기 소정 크기 범위에 속하는 귀 영역을 획득하기 위해 상기 대상에게 모바일 장치와 대상과의 거리를 조절하게 하는 안내를 제공하는 단계를 더 포함할 수 있다.In one embodiment, the method further comprises: prior to extracting the set of ear features, verifying that the detected ear region includes at least a portion of the subject's ear; when the detected ear area includes at least a part of the subject's ear, checking whether the size of the detected ear area falls within a predetermined size range; and if the size of the detected ear region does not fall within a predetermined size range, providing a guide for adjusting the distance between the mobile device and the object to the subject in order to obtain an ear region belonging to the predetermined size range. may include

일 실시예에서, 상기 잠금 상태에서 잠금 해제 시도를 감지하는 단계는, 지정된 단위 시간 동안 기 지정 범위 내 모바일 장치의 회전 각도의 변화를 감지하는 경우, 그리고 지정된 단위 시간 동안 기 지정 범위 내에서 조도가 유지되는 것을 감지하는 경우 중 하나 이상의 경우를 감지하면 잠금 해제 시도를 감지하는 것으로 결정하는 단계; 및 잠금 해제를 위한 귀 인식을 활성화하는 단계를 포함할 수 있다.In an embodiment, the detecting of an attempt to unlock the lock in the locked state includes detecting a change in the rotation angle of the mobile device within a predetermined range for a specified unit time, and illuminance within a predetermined range for a specified unit time. determining to detect an unlocking attempt upon detecting one or more of the instances of detecting being held; and activating ear recognition for unlocking.

본 발명의 다른 일 측면에 따른 컴퓨터 판독 가능 기록매체는 프로세서를 포함한 컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장할 수 있따. 여기서, 상기 컴퓨터의 프로세서에 의해 실행되는 경우 상기 프로세서가 제1항 내지 제17항 중 어느 하나의 항에 따른 모바일 장치 잠금 해제 방법을 수행하게 할 수 있다. A computer-readable recording medium according to another aspect of the present invention may be readable by a computing device including a processor and store program instructions operable by the computing device. Here, when executed by the processor of the computer, the processor may perform the method of unlocking the mobile device according to any one of claims 1 to 17.

본 발명의 또 다른 일 측면에 따른 모바일 장치는 대상에 대한 이미지를 획득하는 촬영기기; 디스플레이; 프로세서; 및 상기 프로세서에 의해 실행되도록 구성된 프로그램을 저장하는 메모리를 포함할 수 있다. 여기서, 상기 프로그램은: 잠금 상태에서 잠금 해제 시도를 감지하는 단계; 잠금 상태에서 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계; 상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계; 및 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인하는 단계;를 수행하기 위한 명령들을 포함할 수 있다.A mobile device according to another aspect of the present invention includes: a photographing device for acquiring an image of a target; display; processor; and a memory storing a program configured to be executed by the processor. Here, the program includes: detecting an attempt to unlock the lock in the locked state; acquiring an image of a subject in which at least a part of the subject's body appears in a locked state; if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject; and confirming whether the extracted set of ear features of the target satisfies a preset condition.

일 실시예에서, 상기 잠금 상태는 기본 잠금 상태를 포함하고, 상기 프로그램은: 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인되면, 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이하는 단계;를 수행하기 위한 명령들을 더 포함할 수 있다.In one embodiment, the lock status includes a default lock status, and the program: when it is confirmed that the set of ear features of the extracted subject satisfies a preset condition, a screen indicated by one or more application interface objects It may further include instructions for performing; displaying.

일 실시예에서, 상기 잠금 상태는 기본 잠금 상태 및 애플리케이션 잠금 상태를 포함하며, 상기 프로그램은: 상기 기본 잠금 상태에서 이벤트가 발생하면, 이벤트 발생에 대응하는 인터페이스 화면을 디스플레이하는 단계; 및 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 상기 이벤트에 대응하는 애플리케이션의 동작을 실행하는 단계를 수행하기 위한 명령들을 더 포함할 수 있다. In one embodiment, the lock state includes a basic lock state and an application lock state, and the program includes: when an event occurs in the basic lock state, displaying an interface screen corresponding to the occurrence of the event; and after it is confirmed whether the extracted set of ear features of the target satisfies a preset condition, executing the operation of the application corresponding to the event may further include instructions.

일 실시예에서, 터치 입력을 획득하는 터치 유닛, 터치와 상이한 입력을 획득하는 기타 입력 유닛, 및 마이크 중 하나 이상을 더 포함하고, 상기 잠금 상태는 기본 잠금 상태, 해제 상태 및 애플리케이션 잠금 상태를 포함하며, 상기 프로그램은: 귀 인식과 상이한 잠금 해제 입력을 수신하여 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이하는 단계; 상기 해제 상태에서 이벤트가 발생하면, 이벤트 발생에 대응하는 인터페이스 화면을 디스플레이하는 단계; 및 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 상기 이벤트에 대응하는 애플리케이션의 동작을 실행하는 단계를 수행하기 위한 명령들을 더 포함할 수 있다.In one embodiment, further comprising one or more of a touch unit acquiring a touch input, another input unit acquiring an input different from a touch, and a microphone, wherein the lock state includes a default lock state, an unlock state and an application lock state wherein the program comprises: receiving an unlock input different from ear recognition and displaying a screen represented by one or more application interface objects; displaying an interface screen corresponding to the occurrence of an event when an event occurs in the release state; and after it is confirmed whether the extracted set of ear features of the target satisfies a preset condition, executing the operation of the application corresponding to the event may further include instructions.

본 발명의 일 측면에 따른 모바일 장치는 귀를 인식하여 잠금을 해제할 수 있어, 잠금 해제를 시도하는 대상이 선글라스, 마스크 등과 같은 얼굴을 가리는 물품을 장착한 경우에도 잠금 해제 동작을 수행할 수 있다. 이 과정에서, 선글라스, 마스크 등의 액세서리를 착용 시에도 인식 성능 저하 등의 이슈 없이 모바일 장치를 통한 본인 인증을 수행함으로써 잠금 해제가 가능하다. The mobile device according to an aspect of the present invention can unlock the lock by recognizing the ear, so that the unlock operation can be performed even when the object that attempts to unlock the device is equipped with an article that covers the face, such as sunglasses or a mask. . In this process, even when wearing accessories such as sunglasses and a mask, it is possible to unlock by performing identity authentication through a mobile device without an issue such as a decrease in recognition performance.

또한, 모바일 장치는 모바일 장치와 귀가 근접하게 하는 이벤트(예컨대, 인커밍 전화)가 발생한 경우 이벤트에 대응하는 애플리케이션의 잠금 상태를 해제하고 실행할 수 있어, 모바일 장치의 보안을 더욱 강화할 수 있다. In addition, when an event (eg, an incoming call) that brings the mobile device and an ear close to it occurs, the mobile device may unlock and execute an application corresponding to the event, thereby further enhancing security of the mobile device.

나아가, 귀 인식 기반 잠금 해제 기술은 금융 관련 업무를 위한 비대면 인증에서도 활용 할 수 있다.Furthermore, the ear recognition-based unlock technology can be used for non-face-to-face authentication for financial-related tasks.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 위한 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1은, 본 발명의 일 실시예에 따른, 모바일 장치의 개략적인 블록도이다.
도 2는, 본 발명의 일 실시예에 따른, 귀 특징을 추출하는 동작을 설명하기 위한 도면이다.
도 3은, 본 발명의 실시예에 따른, 귀 특성 분석 모델에서 추출 가능한 다양한 특징 벡터를 이미지로 나타낸 도면이다.
도 4a 및 도 4b는, 본 발명의 다양한 실시예들에 따른, 기본 잠금 상태를 해제하는 과정의 흐름도이다.
도 5는, 본 발명의 일 실시예에 따른, 대상 이미지를 도시한 도면이다.
도 6은, 본 발명의 일 실시예에 따른, 기본 잠금 상태를 해제한 결과를 도시한 도면이다.
도 7은, 본 발명의 일 실시예에 따른, 모션 정보에 기초한 방향 보정의 결과를 도시한 도면이다.
도 8은, 본 발명의 일 실시예에 따른, 전화 애플리케이션 잠금 상태를 해제하는 과정의 흐름도이다.
도 9는, 본 발명의 다른 일 실시예에 따른, 전화 애플리케이션 잠금 상태를 해제하는 과정의 흐름도이다.
In order to more clearly explain the technical solutions of the embodiments of the present invention or the prior art, drawings necessary for the description of the embodiments are briefly introduced below. It should be understood that the following drawings are for the purpose of explaining the embodiments of the present specification and not for the purpose of limitation. In addition, some elements to which various modifications such as exaggeration and omission have been applied may be shown in the drawings below for clarity of description.
1 is a schematic block diagram of a mobile device, according to an embodiment of the present invention;
2 is a diagram for explaining an operation of extracting an ear feature according to an embodiment of the present invention.
3 is a diagram illustrating various feature vectors extractable from an ear characteristic analysis model as images, according to an embodiment of the present invention.
4A and 4B are flowcharts of a process of releasing a basic lock state according to various embodiments of the present disclosure;
5 is a diagram illustrating a target image according to an embodiment of the present invention.
6 is a diagram illustrating a result of releasing a basic lock state according to an embodiment of the present invention.
7 is a diagram illustrating a result of direction correction based on motion information according to an embodiment of the present invention.
8 is a flowchart of a process of unlocking a phone application lock state according to an embodiment of the present invention.
9 is a flowchart of a process of unlocking a phone application lock state according to another embodiment of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of referring to specific embodiments only, and is not intended to limit the present invention. As used herein, the singular forms also include the plural forms unless the phrases clearly indicate the opposite. The meaning of "comprising," as used herein, specifies a particular characteristic, region, integer, step, operation, element and/or component, and includes the presence or absence of another characteristic, region, integer, step, operation, element and/or component. It does not exclude additions.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된(disclosed) 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined otherwise, all terms including technical and scientific terms used herein have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention belongs. Commonly used terms defined in the dictionary are additionally interpreted as having a meaning consistent with the related technical literature and the currently disclosed (disclosed) content, and unless defined, they are not interpreted in an ideal or very formal meaning.

이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은, 본 발명의 일 실시예에 따른, 모바일 장치의 개략적인 블록도이다. 1 is a schematic block diagram of a mobile device, according to an embodiment of the present invention;

실시예들에서, 모바일 장치(100)는 대상의 귀 이미지를 획득하여 대상의 귀를 인식하고 하나 이상의 잠금 상태를 잠금 해제 상태로 변경하는 동작을 수행하도록 구성된다. 상기 모바일 장치(100)는, 예를 들어 스마트 폰, 셀룰러 폰, 스마트 글래스, 스마트 워치, 웨어러블 장치, 디지털 카메라, 태블릿, 노트북, 랩탑 컴퓨터 등으로 구현될 수 있으나, 이에 제한되진 않는다. In embodiments, the mobile device 100 is configured to obtain an ear image of the subject to recognize the subject's ears and to perform an operation of changing one or more locked states to an unlocked state. The mobile device 100 may be implemented as, for example, a smart phone, a cellular phone, smart glasses, a smart watch, a wearable device, a digital camera, a tablet, a notebook computer, or a laptop computer, but is not limited thereto.

도 1을 참조하면, 모바일 장치(100)는 메모리(110), 프로세서(130); 인터페이스(140); 통신 모듈(150); 정보를 입/출력하는 하나 이상의 인터페이스 유닛을 포함한다. 상기 인터페이스 유닛은 촬영유닛(171), 터치 유닛(172), 기타 입력 유닛(173), 디스플레이 유닛(174), 스피커(175), 마이크(176) 중 적어도 촬영유닛(171), 디스플레이 유닛(174)을 포함한다. 일부 실시예에서, 모바일 장치(100)는 자이로 센서(177) 및/또는 조도 센서(178)를 더 포함할 수도 있다. 또한, 모바일 장치(100)는 가속도 센서(미도시)를 더 포함할 수 있다. Referring to FIG. 1 , a mobile device 100 includes a memory 110 , a processor 130 ; interface 140; communication module 150; It includes one or more interface units for inputting/outputting information. The interface unit includes at least a recording unit 171, a display unit 174 among a recording unit 171, a touch unit 172, a guitar input unit 173, a display unit 174, a speaker 175, and a microphone 176. ) is included. In some embodiments, the mobile device 100 may further include a gyro sensor 177 and/or an illumination sensor 178 . Also, the mobile device 100 may further include an acceleration sensor (not shown).

실시예들에 따른 모바일 장치(100)는 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 모바일 장치(100)는 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", “모듈(module)”“장치”, 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 가능한 컴퓨팅 장치일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.Mobile device 100 according to embodiments may be entirely hardware, entirely software, or may have aspects that are partly hardware and partly software. For example, the mobile device 100 may collectively refer to hardware equipped with data processing capability and operating software for driving the same. As used herein, terms such as “unit”, “module,” “device,” or “system” are intended to refer to a combination of hardware and software run by the hardware. For example, the hardware may be a data processing capable computing device including a central processing unit (CPU), a graphic processing unit (GPU), or another processor. In addition, software may refer to a running process, an object, an executable file, a thread of execution, a program, and the like.

메모리(110)는 불휘발성 메모리를 포함할 수 있다. 상기 불휘발성 메모리는, 예를 들어 SDD, HDD, 플래시 메모리 등을 포함할 수 있으나, 이에 제한되지 않으며 다른 불휘발성 반도체 메모리를 포함할 수 있다. 일부 실시예에서, 메모리(110)는 모바일 장치(100)의 외부에 원격으로 위치하는 저장 장치, 예컨대, 유/무선의 통신 네트워크를 통해 액세스되는 분산형 저장소(storage)를 더 포함할 수도 있다. The memory 110 may include a nonvolatile memory. The nonvolatile memory may include, for example, SDD, HDD, flash memory, etc., but is not limited thereto and may include other nonvolatile semiconductor memories. In some embodiments, the memory 110 may further include a storage device remotely located outside the mobile device 100 , for example, a distributed storage accessed through a wired/wireless communication network.

프로세서(130)는 데이터 처리 및/또는 이미지 처리를 수행하도록 구성된다. 상기 프로세서(130)는 CPU, GPU 등을 포함할 수 있다. 도 1에서 프로세서(130)는 단일 구성요소로 도시되었으나, 이에 제한되지 않는다. 예를 들어, 설계에 따라서 단일 칩 또는 다수의 칩으로 구현될 수 있다. The processor 130 is configured to perform data processing and/or image processing. The processor 130 may include a CPU, a GPU, or the like. In FIG. 1 , the processor 130 is illustrated as a single component, but is not limited thereto. For example, it may be implemented as a single chip or multiple chips depending on the design.

프로세서(130)의 동작에 대해서는 아래의 도 2 내지 도 9를 참조하여 보다 상세하게 서술한다. The operation of the processor 130 will be described in more detail with reference to FIGS. 2 to 9 below.

인터페이스(140)는 모바일 장치(100)의 입/출력과 관련된 장치들을 메모리(110) 및/또는 프로세서(130)와 연결시킨다. 상기 인터페이스(140)는 연결된 입/출력과 관련된 장치들에 따라 소프트웨어 및/또는 하드웨어의 조합으로 구현될 수 있다. 예를 들어, 상기 인터페이스(140)는 통신용 인터페이스, 터치 및 기타 입력 유닛용 인터페이스, 오디오용 인터페이스 등을 포함하며, 상기 오디오 인터페이스는 데이터를 전기 신호로 변환하고 전기 신호로 전송하는 오디오 회로(예컨대, 헤드셋 잭 등)를 포함할 수 있으며, 상기 터치 및 기타 입력 유닛용 인터페이스는 하나 이상의 입력 유닛을 통해 획득된 사용자 입력에 대응하는 전기 신호를 프로세서(130)로 전송하는 하나 이상의 입력 제어자를 포함할 수 있다. The interface 140 connects devices related to input/output of the mobile device 100 with the memory 110 and/or the processor 130 . The interface 140 may be implemented as a combination of software and/or hardware according to connected input/output-related devices. For example, the interface 140 includes an interface for communication, an interface for touch and other input units, an interface for audio, and the like, wherein the audio interface includes an audio circuit (eg, converts data into an electrical signal and transmits the electrical signal) headset jack, etc.), and the interface for touch and other input units may include one or more input controllers that transmit electrical signals corresponding to user input obtained through one or more input units to the processor 130 . have.

통신 모듈(150)는 전자파를 송/수신하도록 구성된다. 통신 모듈(150)는 전기 신호를 전자파로 변환하거나, 또는 전자파를 전기 신호로 변환한다. 모바일 장치(100)는 통신 모듈(150)를 통해 사용자가 통화를 하게 하거나, 또는 인터넷 상의 서비스를 제공하는 애플리케이션을 사용하게 한다. 상기 통신 모듈(150)는 객체와 객체가 네트워킹할 수 있는, 유선 통신, 무선 통신, 3G, 4G, 유선 인터넷 또는 무선 인터넷 등을 포함한, 다양한 통신 방법에 의해 다른 장치와 통신할 수 있다. 예를 들어, 통신 모듈(150)는 월드 와이드 웹(WWW, World Wide Web)과 같은 인터넷, 인트라넷과 같은 네트워크 및/또는 셀룰러 전화 네트워크, 무선 네트워크, 그리고 무선 통신을 통해 통신하도록 구성된다. 상기 무선 통신은, 예를 들어, GSM(Global System for Mobile Network, CDMA(ode Division Multiple Access, W-CDMA(Wideband Code Division Multiple Access), TDMA(Time Division Multiple Access), Bluetooth, Wi-Fi, Wi-MAX(orld Interoperability for Microwave Access), 및/또는 이메일, 인스턴트 메시징, 단문 문자 서비스(SMS) 등을 위한 통신 프로토콜을 이용한 무선 통신 표준을 포함하나, 이에 제한되지 않는다. The communication module 150 is configured to transmit/receive electromagnetic waves. The communication module 150 converts an electrical signal into an electromagnetic wave or converts an electromagnetic wave into an electrical signal. The mobile device 100 allows a user to make a call or use an application that provides a service on the Internet through the communication module 150 . The communication module 150 may communicate with other devices through various communication methods, including wired communication, wireless communication, 3G, 4G, wired Internet, or wireless Internet, in which an object and an object can network. For example, the communication module 150 is configured to communicate via the Internet, such as the World Wide Web (WWW), a network such as an intranet and/or a cellular telephone network, a wireless network, and wireless communication. The wireless communication is, for example, GSM (Global System for Mobile Network, CDMA (ode division multiple access, W-CDMA) (Wideband Code Division Multiple Access), TDMA (Time Division Multiple Access), Bluetooth, Wi-Fi, Wi wireless communication standards using communication protocols for - Old Interoperability for Microwave Access (MAX), and/or e-mail, instant messaging, short text service (SMS), and the like.

촬영 유닛(171)은 피사체를 촬영하여 피사체의 이미지 데이터를 획득하는 구성요소로서, 예를 들어, 이미지 센서, 카메라, 비디오 카메라 등을 포함한 다양한 촬영장치일 수 있다. The photographing unit 171 is a component that obtains image data of the object by photographing the object, and may be, for example, various photographing devices including an image sensor, a camera, a video camera, and the like.

터치 유닛(172), 기타 입력 유닛(173)은 사용자의 입력과 관련된 명령을 수신하도록 구성된 구성요소이다. 사용자의 신체 일부 또는 다른 객체가 포인팅 객체로 활용되어 터치 유닛(172)에 입력된다. 상기 터치 유닛(172)은 감압식 또는 정전기식 센서 등을 포함할 수 있으나, 이에 제한되진 않는다. 상기 기타 입력 유닛(173)는 예를 들어 버튼, 다이얼, 스위치, 스틱 등을 포함한다. The touch unit 172 and other input units 173 are components configured to receive a command related to a user's input. A part of the user's body or another object is used as a pointing object and is input to the touch unit 172 . The touch unit 172 may include, but is not limited to, a pressure sensitive sensor or an electrostatic sensor. The guitar input unit 173 includes, for example, a button, a dial, a switch, a stick, and the like.

디스플레이 유닛(174)는 모바일 장치(100)에 저장 및/또는 처리된 정보를 디스플레이하는 구성요소로서, 예를 들어, LCD, OLED, 플렉서블 스크린 등을 포함할 수 있으나, 이에 제한되진 않는다. The display unit 174 is a component that displays information stored and/or processed in the mobile device 100 , and may include, for example, an LCD, an OLED, a flexible screen, and the like, but is not limited thereto.

도 1에서 터치 유닛(172)와 디스플레이 유닛(174)이 분리되어 있지만, 많은 실시예들에서 터치 유닛(172)와 디스플레이 유닛(174)은 입력 수신 및 정보 출력을 수행하도록 하나의 구성요소로 구현될 수 있다. 예를 들어, 터치 유닛(172)와 디스플레이 유닛(174)은 터치 패널이 스크린과 레이어 구조를 이루는 터치 스크린으로 구현될 수 있다. 터치 입력은 (예컨대, 사용자의 신체, 또는 도구 등을 포함한) 포인팅 객체에 의해 입력된다.Although the touch unit 172 and the display unit 174 are separated in FIG. 1 , in many embodiments, the touch unit 172 and the display unit 174 are implemented as one component to perform input reception and information output. can be For example, the touch unit 172 and the display unit 174 may be implemented as a touch screen in which the touch panel forms a layer structure with the screen. The touch input is input by a pointing object (eg, including a user's body, a tool, etc.).

스피커(175)는 전기 신호를 가청 영역의 주파수를 갖는 음파로 변환한다. 프로세서(130)에서 처리된 데이터 또는 메모리(110)에 미리 저장된 데이터가 인터페이스(140)를 통해 전기 신호로 변환되어 스피커(175)에 입력되고 최종적으로 음파가 출력된다. 마이크(176)는 음파를 전기 신호로 변환한다. 스피커(175) 및 마이크(176)는 상기 모바일 장치(100)가 전화 애플리케이션을 수행하도록 구성된 경우, 전화를 위해 사용될 수 있다. The speaker 175 converts an electrical signal into a sound wave having a frequency in the audible region. Data processed by the processor 130 or data stored in advance in the memory 110 are converted into electrical signals through the interface 140 and input to the speaker 175, and finally sound waves are output. The microphone 176 converts sound waves into electrical signals. A speaker 175 and a microphone 176 may be used for a phone call when the mobile device 100 is configured to perform a phone application.

자이로 센서(177)는 물체의 회전을 감지하는 센서로서, 모바일 장치(100)가 회전 모션(rotation motion)을 가질 경우 발생하는 물리적 변화(예컨대, 코리올리 힘(Coriolis Force))를 전기 신호로 변환하도록 구성된다. 상기 전기 신호는 프로세서(130)로 전송된다. The gyro sensor 177 is a sensor that detects the rotation of an object, and converts a physical change (eg, Coriolis force) that occurs when the mobile device 100 has a rotation motion into an electrical signal. is composed The electrical signal is transmitted to the processor 130 .

조도 센서(178)는 주변의 조도를 감지하는 센서로서, 모바일 장치(100)의 주변의 조도의 세기를 전기 신호로 변환하도록 구성된다.The illuminance sensor 178 is a sensor for detecting ambient illuminance, and is configured to convert the intensity of illuminance around the mobile device 100 into an electrical signal.

이하, 설명의 명료성을 위해서, 터치 스크린을 포함한 스마트 폰으로 구현된 모바일 장치(100)를 기초로 본 발명을 보다 상세하게 서술한다. 그러나, 상기 실시예는 단지 예시적인 것으로서, 본 발명이 이에 제한되지 않는 다는 것은 통상의 기술자에게 명백할 것이다.Hereinafter, for clarity of explanation, the present invention will be described in more detail based on the mobile device 100 implemented as a smart phone including a touch screen. However, it will be apparent to those skilled in the art that the above embodiments are merely exemplary, and the present invention is not limited thereto.

귀 인식 기반 신원 확인Identification based on ear recognition

모바일 장치(100)는 이미지에서 귀가 누구의 귀인지 식별하는 귀 인식 동작을 수행하도록 구성된다. The mobile device 100 is configured to perform an ear recognition operation that identifies whose ear the ear is in the image.

도 2는, 본 발명의 일 실시예에 따른, 귀 특징을 추출하는 동작을 설명하기 위한 도면이다. 2 is a diagram for explaining an operation of extracting an ear feature according to an embodiment of the present invention.

모바일 장치(100)는 하나 이상의 후보자에 대한 정보를 포함한다. 일 실시예예서, 상기 후보자는 모바일 장치(100)의 사용자로 등록된 사람일 수 있다. The mobile device 100 includes information about one or more candidates. In one embodiment, the candidate may be a person registered as a user of the mobile device 100 .

상기 후보자에 대한 정보는 대상의 신원을 확인하기 위한 인증 동작을 위해 사용될 정보를 포함한다. 상기 후보자에 대한 정보는 후보자의 귀와 관련된 특성(이하, “귀 특성”) 정보를 포함한다. 상기 귀 특성 정보는 후보자가 갖고 있는 귀의 개별적이고 고유한 특성을 표현한 귀 특징으로 이루어진 귀 특징의 세트를 포함한다. 귀 특징은 귀 특성 서술자에 의해 제1 특징 또는 제2 특징으로 분류될 수 있다. 귀 특징의 세트에 대해서는 아래에서 보다 상세하게 서술한다. The information about the candidate includes information to be used for an authentication operation to confirm the identity of the subject. The information on the candidate includes information on characteristics related to the candidate's ears (hereinafter, “ear characteristics”). The ear characteristic information includes a set of ear characteristics comprising ear characteristics expressing individual and unique characteristics of the ear possessed by the candidate. The ear characteristic may be classified as the first characteristic or the second characteristic by the ear characteristic descriptor. The set of ear features is described in more detail below.

또한, 상기 후보자에 대한 정보는, 예를 들어, 후보자 신원(ID) 정보, 후보자 이미지 정보 등을 더 포함할 수 있으나, 이에 제한되진 않는다. In addition, the information on the candidate may further include, for example, candidate identification (ID) information, candidate image information, and the like, but is not limited thereto.

모바일 장치(100)는 (예컨대, 촬영 유닛(171)에 의해) 대상의 이미지를 획득한다. 상기 대상의 이미지는 대상의 신체의 적어도 일부가 나타난 이미지이다. The mobile device 100 acquires an image of the object (eg, by the photographing unit 171 ). The image of the subject is an image in which at least a part of the subject's body appears.

일부 실시예에서, 상기 대상의 이미지는 대상의 귀의 적어도 일부를 포함한, 귀 이미지일 수 있다. 상기 귀 이미지는 얼굴 전면부를 중심으로 촬영하여 획득되거나, 또는 얼굴 측면부를 중심으로 촬영하여 획득된다. 즉, 상기 대상의 이미지는 도 2에 도시된 얼굴 측면부를 촬영한 이미지에 제한되지 않는다. In some embodiments, the image of the subject may be an image of an ear, including at least a portion of the subject's ear. The ear image is acquired by photographing the front part of the face, or by photographing the side part of the face as the center. That is, the image of the target is not limited to the image obtained by photographing the side of the face shown in FIG. 2 .

모바일 장치(100)는 대상의 이미지에서 귀 영역을 검출한다. 모바일 장치(100)는 영역 검출 알고리즘을 통해 대상의 이미지에서 귀 영역을 검출할 수 있다. 상기 영역 검출 알고리즘은 예를 들어, Haar, Convolution Neural Network (CNN), Scale Invariant Feature Transform (SIFT), Histogram of Gradients (HOG), Neural Network (NN), Support Vector Machine (SVM), Gabor 방식 등을 수행하는 알고리즘을 포함하나, 이에 제한되진 않는다. The mobile device 100 detects an ear region in the image of the object. The mobile device 100 may detect the ear region from the image of the target through the region detection algorithm. The region detection algorithm is, for example, Haar, Convolution Neural Network (CNN), Scale Invariant Feature Transform (SIFT), Histogram of Gradients (HOG), Neural Network (NN), Support Vector Machine (SVM), Gabor method, etc. Including, but not limited to, the algorithm to perform.

또한, 상기 영역 검출 알고리즘은 귀 이미지를 기반으로 귀 특성(예컨대, 형태적 특성)을 적용하여 귀 영역을 검출하는데 적합하게 구성된 알고리즘일 수 있다. Also, the region detection algorithm may be an algorithm configured to suitably detect an ear region by applying an ear characteristic (eg, a morphological characteristic) based on an ear image.

도 2에 도시된 바와 같이 대상의 얼굴 측면부를 포함한 대상 이미지가 획득되면, 전술한 영역 검출 알고리즘을 통해 모바일 장치(100)는 도 2와 같이 귀 영역을 검출할 수 있다. As shown in FIG. 2 , when the target image including the side face of the target is acquired, the mobile device 100 may detect the ear region as shown in FIG. 2 through the above-described region detection algorithm.

또한, 모바일 장치(100)는 귀 영역의 이미지를 생성할 수 있다. 즉, 대상의 이미지에서 귀 영역의 이미지가 서브 이미지로 추출된다. Also, the mobile device 100 may generate an image of the ear region. That is, the image of the ear region is extracted as a sub-image from the image of the target.

이하, 모바일 장치(100)가 귀 영역을 검출한 것을 가정하고 특징 추출 과정을 계속하여 서술한다. Hereinafter, it is assumed that the mobile device 100 has detected the ear region, and the feature extraction process is continuously described.

모바일 장치(100)는 귀 영역에 포함된 귀 부분이 갖는 특성을 나타내는 특징을 추출한다. 귀는 사람마다 형상, 피부 질감, 피부 표면 구성(예컨대, 점 등)이 상이하도록 구성된다. 즉, 귀의 고유한 특성은 귀를 분석하는 관점에 대응한다. 이로 인해, 두 개의 귀를 비교 분석할 경우, 귀의 고유한 특성에 기초하여 두 개의 귀가 동일한지, 상이한지 여부가 결정될 수 있다. The mobile device 100 extracts a feature representing a characteristic of the ear part included in the ear region. The ear is configured to have a different shape, skin texture, and skin surface composition (eg, dots, etc.) for each person. That is, the intrinsic characteristics of the ear correspond to the point of view of analyzing the ear. Accordingly, when the two ears are compared and analyzed, it may be determined whether the two ears are the same or different based on the unique characteristics of the ears.

귀 특성은 예를 들어 귀의 전체 또는 부분적 윤곽(예컨대, 귓볼 크기, 귓 구멍의 비율 등), 피부 질감, 골격 구조(예컨대, 귓 구멍의 형태), 점 등을 포함하며, 상기 귀 특성을 나타내는 특징 벡터는 이미지를 통해 표현된 귀 특성을 각각 수치화한 값(들)을 포함한다. Ear characteristics include, for example, the full or partial contour of the ear (eg, ear lobe size, ear canal ratio, etc.), skin texture, skeletal structure (eg, shape of the ear canal), dots, and the like, characteristics indicative of the ear characteristics. The vector includes numerical value(s) of each ear characteristic expressed through the image.

모바일 장치(100)는 하나 이상의 귀 특성에 연관된 특징을 귀 영역의 이미지로부터 추출한다. 이를 위해, 모바일 장치(100)는 미리 모델링된 귀 특성 분석 모델을 포함한다. 귀 특성 분석 모델에 의해 추출되는 특징은 하나 이상일 수 있으며, 세트를 구성할 수 있다. 특징의 세트는 특징 벡터로 지칭될 수 있다. The mobile device 100 extracts features related to one or more ear characteristics from the image of the ear region. To this end, the mobile device 100 includes a pre-modeled ear characteristic analysis model. There may be one or more features extracted by the ear characteristic analysis model, and may constitute a set. A set of features may be referred to as a feature vector.

일 실시예에서, 모바일 장치(100)는 귀의 전역적 특성에 연관된 제1 특징들 및/또는 귀의 지역적 특성에 연관된 제2 특징들을 귀 영역 이미지로부터 추출할 수 있다. 이를 위해, 모바일 장치(100)는 귀의 전역적 특성을 나타내는 제1 특징 벡터를 출력하는 전역적 특성 분석 모델 및/또는 귀의 지역적 특성을 나타내는 제2 특징 벡터를 출력하는 지역적 특성 분석 모델을 포함할 수 있다. In an embodiment, the mobile device 100 may extract first features related to the global characteristic of the ear and/or second characteristics related to the regional characteristic of the ear from the image of the ear region. To this end, the mobile device 100 may include a global characteristic analysis model that outputs a first feature vector representing the global characteristic of the ear and/or a regional characteristic analysis model that outputs a second characteristic vector that indicates the regional characteristic of the ear. have.

전역적 특성은, 예를 들어 이미지 내의 전체적인 윤곽이나 구성과 관련된다. 전역적 특성 분석 모델은 귀 특성을 추출하는데 있어서 귀 영역 이미지의 전체를 사용한다. 전역적 특성 분석 모델은, 예를 들어 PCA(Principal Components Analysis), LDA(Local Discriminant Analysis), ICA(Independent Components Analysis) 등을 포함한 전역적 특성 서술자 방식을 이용하여 귀 영역 이미지에 표현된 전역적 특성을 나타내는 특징 벡터를 추출할 수 있으나, 이에 제한되진 않는다. Global properties relate to, for example, the overall outline or composition within an image. The global characterization model uses the entire ear region image to extract ear characteristics. The global characteristic analysis model uses global characteristic descriptor methods including, for example, Principal Components Analysis (PCA), Local Discriminant Analysis (LDA), Independent Components Analysis (ICA), and the like, and global characteristics expressed in the ear region image. It is possible to extract a feature vector representing , but is not limited thereto.

지역적 특성은 국소적인 패턴으로 표현되는 특성으로서, 예를 들어 귀의 이주, 주간절흔 등의 국소적 가지(branch) 형태, 귀에 존재하는 점, 피부 질감, 주름 등과 관련된다. 지역적 특성 분석 모델은, 예를 들어 CNN(Convolution Neural Network), LBP(Local Binary Pattern), SIFT(Scale Invariant Feature Transform), LE(Learning-based Encoding), HOG(Histogram of Oriented Gradient) 등을 포함한 지역적 특성 서술자 방식을 이용하여 귀 영역 이미지에 표현된 지역적 특성을 나타내는 특징 벡터를 추출할 수 있으나, 이에 제한되진 않는다. Regional characteristics are characteristics expressed in a local pattern, and are related to, for example, ear migration, local branch shape such as diurnal notch, points present in the ear, skin texture, wrinkles, and the like. Regional feature analysis models include, for example, Convolution Neural Network (CNN), Local Binary Pattern (LBP), Scale Invariant Feature Transform (SIFT), Learning-based Encoding (LE), Histogram of Oriented Gradient (HOG), etc. A feature vector representing a regional feature expressed in the ear region image may be extracted using the feature descriptor method, but is not limited thereto.

일부 실시예에서, 상기 전역적 특성 분석 모델 또는 지역적 특성 분석 모델은, 동일한 훈련 대상으로부터 획득된 다중 이미지를 훈련 이미지로 이용하여 제1 특징의 세트 또는 제2 특징의 세트를 추출하도록 구성된다. 상기 다중 이미지는 훈련 대상의 귀의 적어도 일부를 공유한다. In some embodiments, the global feature analysis model or the regional feature analysis model is configured to extract a first set of features or a second set of features by using multiple images obtained from the same training object as a training image. The multiple images share at least a portion of the training subject's ear.

특정 실시예들에서, 훈련 이미지는 예를 들어, 귀 특성 분석 모델 및 임계치가 얼굴 전면부 중심의 이미지 및/또는 얼굴 측면부 중심의 이미지를 포함할 수 있다. In certain embodiments, the training image may include, for example, an image centered on the anterior portion of the face and/or an image centered on the side of the face where the ear characteristics analysis model and threshold are centered.

도 3은, 본 발명의 실시예에 따른, 귀 특성 분석 모델에서 추출 가능한 다양한 특징 벡터를 이미지로 나타낸 도면이다. 3 is a diagram illustrating various feature vectors extractable from an ear characteristic analysis model as images, according to an embodiment of the present invention.

전술한 바와 같이, 대상을 표현하는 귀의 고유한 특성은 지역적 또는 전역적 특성으로 분류될 수 있으며, 나아가 동일한 특성에 대하여도 (예를 들어, 지역적 특성을 추출하기 위해) 사용되는 특성 서술자가 다양하기 때문에, 하나의 귀 영역 이미지로부터, 도 3에 도시된 바와 같이, 다양한 이미지로 표현되는 다양한 특징 벡터가 추출된다. 즉, 상기 신원확인 장치(100)는 귀 특성 분석 모델의 설정에 의해 귀 특성을 다양한 측면에서 분석할 수 있다. As described above, the unique characteristic of the ear expressing the object can be classified as a regional or global characteristic, and furthermore, even for the same characteristic, the characteristic descriptors used (for example, to extract the regional characteristic) vary. Therefore, from one ear region image, as shown in FIG. 3 , various feature vectors expressed in various images are extracted. That is, the identification apparatus 100 may analyze the ear characteristics in various aspects by setting the ear characteristics analysis model.

모바일 장치(100)는 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인한다. 일부 실시예들에서, 모바일 장치(100)는 미리 설정된 조건을 만조하는 경우, 인터페이스 상태에 기초하여 하나 이상의 동작을 수행할 수 있다. 또한, 대상의 신원을 확인한다.The mobile device 100 checks whether the set of the extracted ear features of the target satisfies a preset condition. In some embodiments, when a preset condition is satisfied, the mobile device 100 may perform one or more operations based on the interface state. Also, verify the identity of the subject.

미리 설정된 조건은 귀 유사도가 임계치(Tscore) 보다 높은 지 여부를 포함한다. The preset condition includes whether the ear similarity is higher than a threshold (Tscore).

모바일 장치(100)는 미리 저장된 후보자의 귀 특징들과 대상의 추출된 귀 특징들을 비교하여 대상과 후보자 간의 귀 유사도를 산출한다. The mobile device 100 calculates an ear similarity between the subject and the candidate by comparing the previously stored ear features of the candidate with the extracted ear features of the subject.

상기 대상의 특징 벡터와 후보자의 특징 벡터는 특성별로 비교된다. 예를 들어, 도 2에 도시된 바와 같이, 대상의 전역적 특성을 나타내는 제1 특징 벡터는 후보자의 전역적 특성을 나타내는 제1 특징 벡터와 비교되고, 대상의 지역적 특성을 나타내는 제2 특징 벡터는 후보자의 지역적 특성을 나타내는 제2 특징 벡터와 비교된다. The feature vector of the target and the feature vector of the candidate are compared for each feature. For example, as shown in FIG. 2 , the first feature vector representing the global characteristic of the target is compared with the first feature vector representing the global characteristic of the candidate, and the second feature vector representing the local characteristic of the target is It is compared with a second feature vector representing the regional characteristics of the candidate.

상기 대상의 특징 벡터와 미리 저장된 후보자의 특징 벡터를 각 특성별로 비교하여 상기 대상의 귀 특성과 후보자의 귀 특성 간의 유사도를 산출하기 위해 다양한 유사도 비교 알고리즘을 이용할 수 있다. 상기 유사도 비교 알고리즘은, 예를 들어 유클리디언 거리(Euclidean Distance), 코사인 거리 (Cosine Distance), 마할라노비스 거리 (Mahalanobis Distance) 등을 포함할 수 있으나, 이에 제한되진 않는다. Various similarity comparison algorithms may be used to calculate a similarity between the ear characteristic of the target and the ear characteristic of the candidate by comparing the feature vector of the target and the feature vector of the candidate stored in advance for each characteristic. The similarity comparison algorithm may include, for example, Euclidean Distance, Cosine Distance, Mahalanobis Distance, and the like, but is not limited thereto.

또한, 모바일 장치(100)는 산출된 특성별 유사도를 결합(concatenate)하여 대상의 귀 특성과 후보자의 간의 최종적인 유사도를 산출할 수 있다. Also, the mobile device 100 may calculate the final similarity between the ear characteristic of the target and the candidate by concatenating the calculated similarities for each characteristic.

모바일 장치(100)는, 예를 들어 SUM, MIN, MAX, PRODUCT, Weighted SUM, SVM 등을 포함한 결합 방식을 통해 복수의 특성별 유사도(예컨대, 지역적 특성과 관련된 유사도 및 전역적 특성과 관련된 유사도)를 결합할 수 있으나, 이에 제한되진 않는다. The mobile device 100 determines, for example, a plurality of characteristics-specific similarities (eg, regional characteristics-related similarities and global characteristics-related similarities) through a combination method including SUM, MIN, MAX, PRODUCT, Weighted SUM, SVM, and the like. may be combined, but is not limited thereto.

상기 임계치(Tscore) 보다 높은 유사도가 산출되어 조건이 만족되는 것은, 대상과 매칭하는 후보자가 존재하는 것을 판단는데 활용되거나, 또는 미리 저장된 후보자와 대상이 매칭하는지 여부를 판단하는데 활용될 수 있다. When the similarity higher than the threshold (Tscore) is calculated and the condition is satisfied, it may be used to determine whether a candidate matching the target exists or to determine whether a previously stored candidate and the target match.

모바일 장치(100)는 조건이 만족될 경우, 대상의 신원을 매칭하는 후보자로 결정한다. 상기 후보자가 모바일 장치(100)의 등록 사용자일 경우, 대상이 실제 등록 사용자일 경우에 임계치(Tscore) 보다 높은 유사도가 산출될 것이다. 그러면, 인증이 완료되고 대상이 등록 사용자로 확인된다. 대상이 등록 사용자와 상이한 경우, 임계치(Tscore)와 동일하거나 낮은 유사도가 산출되어, 인증이 실패되고 대상이 등록 사용자가 아닌 것으로 확인된다. When the condition is satisfied, the mobile device 100 determines a candidate matching the identity of the target. When the candidate is a registered user of the mobile device 100 , a similarity higher than the threshold Tscore is calculated when the target is an actual registered user. Then, authentication is completed and the target is confirmed as a registered user. When the target is different from the registered user, a similarity equal to or lower than the threshold Tscore is calculated, so that authentication fails and it is confirmed that the target is not the registered user.

임계치(Tscore)는 추출되는 귀 특성, 유사도의 결합 방식 및/또는 상기 귀 특성 추출을 위해 사용되는 이미지 특성에 의존하여 결정된 값일 수 있다. The threshold value Tscore may be a value determined depending on the extracted ear characteristic, a combination method of similarity, and/or an image characteristic used for extracting the ear characteristic.

예를 들어, 지역적 특성만이 추출되는 경우, 또는 전역적 특성만이 추출되는 경우, 또는 전역적 특성 및 지역적 특성이 모두 추출되는 경우의 임계치(Tscore)는 서로 상이할 수 있다. For example, when only a regional characteristic is extracted, when only a global characteristic is extracted, or when both a global characteristic and a regional characteristic are extracted, the threshold values Tscore may be different from each other.

상기 이미지 특성은 모델에 입력되는 이미지(예컨대, 귀 영역 이미지)의 특성을 나타낸다. 상기 이미지 특성은, 예를 들어, 이미지에서 귀가 차지하는 비율, 이미지에 나타난 귀의 부분, 귀의 촬영 각도 등을 포함하나, 이에 제한되진 않는다. The image characteristics indicate characteristics of an image (eg, an ear region image) input to the model. The image characteristics include, but are not limited to, for example, the proportion of the ear in the image, the portion of the ear shown in the image, the angle of the ear, and the like.

그러나, 임계치(Tscore)는 전술한 실시예에 제한되진 않는다. 예를 들어, 상기 임계치(Tscore)는 사용자의 입력에 의해 설정된 특정 값일 수 있다. However, the threshold Tscore is not limited to the above-described embodiment. For example, the threshold Tscore may be a specific value set by a user input.

일부 실시예에서, 귀 특성을 나타내는 특징을 추출하기 이전에, 모바일 장치(100)는 귀 이미지를 전처리하도록 구성된다. 이에 대해서는 아래의 도 4b를 참조하여 보다 상세하게 서술한다.In some embodiments, prior to extracting features indicative of an ear characteristic, the mobile device 100 is configured to pre-process the ear image. This will be described in more detail with reference to FIG. 4B below.

사용자 인터페이스 동작 - 기본 잠금 및 해제User Interface Behavior - Basic Lock and Unlock

상기 모바일 장치(100)는 복수의 인터페이스 상태를 가질 수 있다. 인터페이스 상태는 모바일 장치(100)에 의해 수신되는 사용자 입력에 대하여 해당 상태에 따라 사용자 입력에 응답하는 동작이 미리 결정되는 인터페이스 모드이다. 모바일 장치(100)는 인터페이스 상태에 연관된 화면(screen)을 디스플레이할 수 있다. 인터페이스 상태의 변화는 디스플레이되는 화면 또는 화면 일부의 변화로 구현될 수 있다. The mobile device 100 may have a plurality of interface states. The interface state is an interface mode in which an operation to respond to a user input received by the mobile device 100 is determined in advance according to a corresponding state. The mobile device 100 may display a screen related to an interface state. A change in the interface state may be implemented as a change in a displayed screen or a part of the screen.

일 실시예에서, 상기 인터페이스 상태는 기본 잠금 상태 및 해제 상태를 포함한다. In one embodiment, the interface state includes a basic lock state and an unlock state.

또한, 복수의 인터페이스 상태는 모바일 장치(100)에 설치된 복수의 애플리케이션의 상태를 포함할 수도 있다. Also, the plurality of interface states may include states of a plurality of applications installed in the mobile device 100 .

기본 잠금 상태에서 모바일 장치(100)는 전력 온(on)이 되고 동작 가능하지만, 대부분의 사용자 입력을 무시한다. 즉, 기본 잠금 상태에서 모바일 장치(100)는 사용자 입력에 응답하여 아무런 동작을 취하지 않고/않거나 사용자 입력에 응답하여 동작하는 것으로 사전에 결정된 모바일 장치(100)의 동작 세트를 수행하는 것이 금지된다. 사전결정된 동작 세트는 사용자 인터페이스와 사전결정된 기능 세트의 활성 또는 비활성 사이의 내비게이션을 포함한다. 또한, 사용자 인터페이스 사이의 내비게이션 시도에 대응하는 사용자 입력에는 응답하지 않는다. 잠금 상태는 의도하지 않은 또는 인증되지 않은 모바일 장치(100)의 사용 또는 모바일 장치(100) 상의 기능의 활성 또는 비활성을 방지한다. In the basic locked state, the mobile device 100 is powered on and operable, but ignores most user input. That is, in the basic locked state, the mobile device 100 is prohibited from performing a predetermined set of actions of the mobile device 100 such that the mobile device 100 takes no action in response to the user input and/or operates in response to the user input. The predetermined set of actions includes navigation between the user interface and activation or deactivation of the predetermined set of functions. It also does not respond to user input corresponding to attempts to navigate between user interfaces. The locked state prevents unintentional or unauthorized use of the mobile device 100 or activation or deactivation of a function on the mobile device 100 .

기본 잠금 상태에서 모바일 장치(100)는 잠금을 해제하려는 시도에 대응하는 입력 또는 파워 오프(off)에 대응하는 입력을 포함하는 제한적인 사용자 입력의 세트에 응답한다. In the default locked state, the mobile device 100 responds to a limited set of user inputs including an input corresponding to an attempt to unlock or an input corresponding to a power off.

기본 잠금 해제 상태(이하, “해제 상태”)의 경우, 장치(100)는 보통의 동작 상태이며 모바일 장치(100)는 사용자 인터페이스(UI)와의 상호 작용에 대응하는 사용자 입력을 검출하고 응답한다. 해제 상태에서 모바일 장치(100)는 사용자 인터페이스(UI) 사이의 내비게이션, 데이터의 입력 및 기능의 활성 또는 비활성을 위한 사용자 입력을 검출하고 응답한다. In the case of the default unlocking state (hereinafter, “unlocked state”), the device 100 is in a normal operating state and the mobile device 100 detects and responds to a user input corresponding to an interaction with a user interface (UI). In the unlocked state, the mobile device 100 detects and responds to user input for navigation between user interfaces (UIs), input of data, and activation or deactivation of functions.

도 4a 및 도 4b는, 본 발명의 다양한 실시예들에 따른, 기본 잠금 상태를 해제하는 과정의 흐름도이다.4A and 4B are flowcharts of a process of releasing a basic lock state according to various embodiments of the present disclosure;

도 4a를 참조하면, 모바일 장치(100)는 기본 잠금 상태에서 상기 기본 잠금 상태를 해제 상태로 변경하려는 해제 시도를 감지할 수 있다. Referring to FIG. 4A , the mobile device 100 may detect an unlock attempt to change the basic lock state to the unlock state from the basic lock state.

모바일 장치(100)는 사용자와 모바일 장치 간의 상호작용에 따른 특정 물리적 변화가 감지되는 경우 상기 해제 시도가 있는 것으로 판단한다. 모바일 장치(100)는 해제 시도가 감지되면 잠금 장치 해제 동작을 활성화한다. 즉, 해제 시도의 여부에 의해 귀 인식 동작이 활성화된다. The mobile device 100 determines that the release attempt has been made when a specific physical change according to the interaction between the user and the mobile device is detected. The mobile device 100 activates a lock device unlocking operation when an unlocking attempt is detected. That is, the ear recognition operation is activated depending on whether the release attempt is made.

일 실시예에서, 상기 해제 시도는 임의의 사용자 입력을 포함한다. 예를 들어, 모바일 장치(100) 내 터치 입력 영역에서 임의의 지점에 접촉하거나, 또는 버튼을 눌러 수신되는 임의의 사용자 입력일 수 있다.In one embodiment, the unlock attempt comprises any user input. For example, it may be any user input received by touching a certain point in the touch input area within the mobile device 100 or pressing a button.

일부 실시예에서, 해제 시도는 모바일 장치(100)에 포함된 센서들에 의해 감지될 수 있다. In some embodiments, the unlock attempt may be detected by sensors included in the mobile device 100 .

예를 들어, 모바일 장치(100)에 빌트인(built-in) 되어있는 자이로 센서(177)에 의해 지정된 단위 시간 동안 기 지정 범위 내의 회전 및/또는 각도 변화를 감지할 경우, 가속도 센서에 의해 기 지정된 단위 시간 동안 기 지정 범위 내의 속도를 변화를 감지할 경우 해제 시도가 있는 것으로 모바일 장치(100)는 판단할 수 있다. For example, when detecting a change in rotation and/or angle within a preset range for a unit time designated by the gyro sensor 177 built-in in the mobile device 100, a preset designated by the acceleration sensor When detecting a change in speed within a predetermined range for a unit time, the mobile device 100 may determine that there is an attempt to release.

또는 복수의 센서의 감지 결과에 기초하여 해제 시도 여부가 판단될 수 있다. 예를 들어, 자이로 센서(177)와 가속도 센서에 의해 위치 정보를 각각 획득하고, 지정된 단위 시간 동안 기 지정 범위 내의 단말기 위치 변화가 감지되는 경우, 및/또는 조도 센서(178)에 의해 지정된 단위 시간 동안 기 지정 범위 내 조도가 유지되는 경우 해제 시도가 있는 것으로 모바일 장치(100)는 판단할 수 있다. Alternatively, it may be determined whether a release attempt is made based on the detection results of the plurality of sensors. For example, when position information is respectively acquired by the gyro sensor 177 and the acceleration sensor, and a change in the terminal position within a predetermined range is detected for a specified unit time, and/or a unit time specified by the illuminance sensor 178 If the illuminance within the preset range is maintained during the period, the mobile device 100 may determine that there is a release attempt.

즉, 모바일 장치(100)는 예컨대 전술한 4가지 경우 중 하나 이상의 경우가 감지되는 경우 해제 시도가 있는 것으로 판단하고, 모바일 장치의 잠금 해제를 위한 동작 시도 조건으로 활용할 수 있다. That is, when one or more of the above-described four cases is detected, for example, the mobile device 100 may determine that there is an unlock attempt, and use it as an operation attempt condition for unlocking the mobile device.

모바일 장치(100)는 해제 시도가 감지되면, 기본 잠금 상태에서 귀 인식 기반해 모바일 장치의 잠금을 해제하는 동작을 수행할 수 있다. When an unlock attempt is detected, the mobile device 100 may perform an operation of unlocking the mobile device based on ear recognition in the basic lock state.

모바일 장치(100)는 대상 이미지를 획득한다(S410). 일부 실시예에서, 모바일 장치(100)는 귀 특징 추출 과정에 의존하여 대상에게 특정 신체 부분을 촬영하도록 유도할 수 있다. 귀 특성 분석 모델 및 임계치가 특정 신체 부분의 이미지에 기초하여 모델링되었을 수 있기 때문이다. The mobile device 100 acquires a target image (S410). In some embodiments, the mobile device 100 may induce the subject to photograph a specific body part by relying on an ear feature extraction process. This is because the ear characterization model and threshold may have been modeled based on images of specific body parts.

예를 들어, 귀 특성 분석 모델 및 임계치가 얼굴 전면부 중심의 이미지 및/또는 얼굴 측면부 중심의 이미지 에서 검출된 귀 영역에 기초하여 모델링되면, 도 5에 도시된 바와 같이, 모바일 장치(100)는 얼굴 전면부의 비중이 얼굴 측면부의 비중 보다 높은, 얼굴 전면부 중심의 부분을 촬영하게 유도하거나, 또는, 도 3에 도시된 바와 같이, 얼굴 측면부의 비중이 얼굴 전면부의 비중 보다 높은, 얼굴 측면부 중심의 부분을 촬영하게 유도할 수 있다. For example, if the ear characteristic analysis model and the threshold are modeled based on the ear region detected in the image centered on the front part of the face and/or the image centered on the side of the face, as shown in FIG. 5 , the mobile device 100 The specific gravity of the front of the face is higher than the specific gravity of the side of the face, leading to shooting the central part of the front of the face, or, as shown in FIG. 3, the specific gravity of the side of the face is higher than the specific gravity of the front of the face. You may be tempted to take a picture.

이어서, 모바일 장치(100)는 단계(S410)의 대상 이미지에서 귀 영역을 검출하고(S430), 귀 특징의 세트(예컨대, 귀 특징 벡터)를 추출한다(S450). Next, the mobile device 100 detects an ear region in the target image of step S410 ( S430 ) and extracts a set of ear features (eg, an ear feature vector) ( S450 ).

일부 실시예들에서, 단계(S450)에서, 모바일 장치(100)는 전역적 특성과 관련된 특징의 서브 세트(예컨대, 제1 특징 벡터) 및/또는 지역적 특성과 관련된 특징의 서브 세트(예컨대, 제2 특징 벡터)를 추출할 수 있다. In some embodiments, in step S450 , the mobile device 100 provides a subset of features associated with a global feature (eg, a first feature vector) and/or a subset of features associated with a regional feature (eg, a second feature vector). 2 feature vectors) can be extracted.

모바일 장치(100)는 대상의 귀 특징의 세트와 미리 저장된 후보자의 귀 특징의 세트에 기초하여 대상과 후보자 간의 귀 유사도를 산출한다(S470). The mobile device 100 calculates an ear similarity between the subject and the candidate based on the set of ear features of the subject and the set of pre-stored ear features of the candidate ( S470 ).

상기 일부 실시예에서, 후보자의 귀 특징의 세트 또한 전역적 특성과 관련된 특징의 서브 세트 및/또는 지역적 특성과 관련된 특징의 서브 세트를 포함한다. 대상과 후보자의 특징들은 연관된 귀의 특성에 의존하여 특성별 유사도를 산출한다. 대상의 제1 특징벡터와 후보자의 제1 특징벡터를 유사도 비교 알고리즘에 적용하여 대상과 후보자의 제1 유사도를 산출하거나 및/또는 대상의 제2 특징벡터와 후보자의 제2 특징벡터를 유사도 비교 알고리즘에 적용하여 대상과 후보자의 제2 유사도를 산출한다. 제1 유사도 및 제2 유사도가 산출된 경우, 산출된 제1 유사도 및 제2 유사도를 결합(concatenate)하여 대상과 후보자 간의 귀 유사도를 산출한다(S470). In some of the above embodiments, the set of the candidate's ear features also includes a subset of features related to global features and/or a subset of features related to regional features. The characteristics of the subject and the candidate depend on the associated ear characteristics to calculate the similarity for each characteristic. The first feature vector of the object and the first feature vector of the candidate are applied to the similarity comparison algorithm to calculate the first similarity between the object and the candidate, and/or the second feature vector of the object and the second feature vector of the candidate are compared with the similarity comparison algorithm is applied to calculate the second degree of similarity between the target and the candidate. When the first and second similarities are calculated, the ear similarity between the target and the candidate is calculated by concatenating the calculated first and second similarities ( S470 ).

모바일 장치(100)는 단계(S470)의 귀 유사도가 미리 설정된 임계치 (Tscore) 보다 높은 지 여부를 판단한다(S480). 높은 값을 갖는 경우, 기본 잠금 상태는 해제 상태로 변경된다(S490).The mobile device 100 determines whether the ear similarity in step S470 is higher than a preset threshold Tscore (S480). When it has a high value, the basic lock state is changed to an unlock state (S490).

일부 실시예에서, 대상과 후보자 간의 유사도가 임계치(Tscore) 미만인 경우, 미리 설정된 횟수 내에서 이전 단계들(S410 내지 S470)의 적어도 일부가 반복될 수 있다. In some embodiments, when the similarity between the target and the candidate is less than the threshold Tscore, at least a portion of the previous steps S410 to S470 may be repeated within a preset number of times.

복수 후보자를 갖는 일부 실시예에서, 특정 후보자와 대상 간의 산출된 유사도가 임계치(Tscore) 미만이고 미리 설정된 횟수를 초과하여 특징 추출 동작 및 신원 확인 동작이 반복된 경우, 모바일 장치(100)는 데이터베이스 내에서 대상과 매칭하는 다른 후보자를 검색한다. In some embodiments having a plurality of candidates, when the calculated similarity between the specific candidate and the target is less than the threshold Tscore and the feature extraction operation and the identification operation are repeated more than a preset number of times, the mobile device 100 is stored in the database. Search for other candidates matching the target in .

다른 대안적인 실시예들에서, 모바일 장치(100)는 보다 사용자 편의적이고 정밀한 귀 인식을 수행하도록 더 구성될 수 있다. 이러한 다른 대안적인 실시예들은 도 4a의 실시예들과 유사하므로, 차이점을 위주로 설명한다. In other alternative embodiments, the mobile device 100 may be further configured to perform more user-friendly and precise ear recognition. Since these other alternative embodiments are similar to those of FIG. 4A , differences will be mainly described.

도 4b를 참조하면, 모바일 장치(100)는 대상 이미지를 획득한 이후(S410), (예컨대, 조도 센서(178)에 의해) 모바일 장치(100)의 주변 조도를 확인한다(S423). 모바일 장치(100)의 주변 조도가 임계치(Ti) 이하인 경우, 모바일 장치(100)는 대상에게 모바일 장치와 대상과의 거리를 조절하게 하는 안내를 제공한다. 상기 안내는 예를 들어, “귀가 너무 가까이 있습니다”와 같은 음성 안내일 수 있으나, 이에 제한지 않으며, 진동 등과 같은 비-음성 또는 이들과의 조합에 의해 수행될 수 있다. Referring to FIG. 4B , after acquiring the target image ( S410 ), the mobile device 100 checks the ambient illuminance of the mobile device 100 (eg, by the illuminance sensor 178 ) ( S423 ). When the ambient illuminance of the mobile device 100 is less than or equal to the threshold Ti, the mobile device 100 provides a guide for adjusting the distance between the mobile device and the target. The guidance may be, for example, voice guidance such as “Your ear is too close”, but is not limited thereto, and may be performed by non-voice such as vibration or a combination thereof.

추가적으로, 모바일 장치(100)의 주변 조도가 임계치(Ti) 보다 높은 경우, 모바일 장치(100)는 모바일 장치(100)의 모션 변화가 발생했는지 확인한다(S425). (예컨대, 자이로 센서(178)에 의해) 모바일 장치(100)의 모션 변화가 감지된 경우, 상기 모바일 장치의 모션 변화에 기초하여 대상의 이미지의 촬영 각도를 보정한다. Additionally, when the ambient illuminance of the mobile device 100 is higher than the threshold Ti, the mobile device 100 checks whether a change in motion of the mobile device 100 has occurred ( S425 ). When a change in motion of the mobile device 100 is detected (eg, by the gyro sensor 178 ), a shooting angle of the image of the target is corrected based on the change in motion of the mobile device.

도 7에 도시된 바와 같이, 모바일 장치(100)가 사용자의 손의 움직임에 따른 모션이 발생한 경우, 단계(S410)에서는 획득되는 이미지는 보정 전 이미지를 포함한다. 모바일 장치(100)는 모션 변화가 감지되면, 모션 변화에 기초하여 보정 값을 산출하고, 보정 값을 적용하여 대상의 이미지를 모션 변화가 없는 이미지로 보정한다. 일부 실시예에서, 상기 보정 값은 모션 변화에 포함된 회전 각도와 크기는 동일하고, 방향이 반대인 값일 수 있다. As shown in FIG. 7 , when a motion occurs in the mobile device 100 according to the movement of the user's hand, the image obtained in step S410 includes the image before correction. When a change in motion is detected, the mobile device 100 calculates a correction value based on the change in motion, and applies the correction value to correct the image of the object into an image having no change in motion. In some embodiments, the compensation value may be a value having the same magnitude and the same rotation angle included in the motion change, but having the opposite direction.

단계(S430)에서 모바일 장치(100)는 귀 영역이라고 추정되는 서브 영역을 대상 이미지에서 추출한다. 모바일 장치(100)는 추출되는 서브 영역이 대상의 실제 귀 부분을 포함하는지 확인하도록 더 구성될 수 있다(S431). 검출 영역의 이미지에 귀 부분이 실제로 포함되지 않는 것으로 판단되면, “장비를 이동해주세요”와 같은 재촬영을 유도하는 안내를 제공할 수 있다. In step S430 , the mobile device 100 extracts a sub-region estimated to be an ear region from the target image. The mobile device 100 may be further configured to check whether the extracted sub-region includes the actual ear part of the target ( S431 ). If it is determined that the image of the detection area does not actually include the ear part, a guide to induce re-shooting, such as “Please move the equipment,” may be provided.

단계(S430)에서 추출된 영역이 대상의 실제 귀를 포함하여 귀 영역으로 판단된 경우(S431, 검출된 귀 영역이 소정의 크기 범위에 속하는지 판단한다(S433 및 S435). 상기 소정 크기 범위는 최대값(Ts_max) 및 최소값(Ts_min)으로 이루어진다. When it is determined that the region extracted in step S430 is an ear region including the real ear of the target (S431, it is determined whether the detected ear region belongs to a predetermined size range (S433 and S435). The predetermined size range is It consists of a maximum value (Ts_max) and a minimum value (Ts_min).

일부 실시예에서, 모바일 장치(100)는 검출된 귀 영역이 최대값(Ts_max) 이상의 크기를 갖거나, 또는 최소값(Ts_min) 이하의 크기를 갖는 경우, 소정 크기 범위에 속하는 새로운 귀 영역을 검출하기 위해 재 촬영을 유도하는 안내를 제공한다(S434 및 S436). 예를 들어, “귀가 너무 멀리 있습니다” 또는 “귀가 너무 가까이 있습니다”와 같은 상기 대상에게 모바일 장치와 대상과의 거리를 조절하게 하는 안내를 제공할 수 있다. In some embodiments, when the detected ear region has a size greater than or equal to the maximum value (Ts_max), or has a size less than or equal to the minimum value (Ts_min), the mobile device 100 detects a new ear region belonging to a predetermined size range. To provide a guide for inducing re-photography (S434 and S436). For example, it is possible to provide a guide to the subject to adjust the distance between the mobile device and the subject, such as “Your ears are too far” or “Your ears are too close”.

다른 대안적인 일부 실시예에서, 소정 크기 범위에 속하는 새로운 귀 영역을 검출하기 위해 재 촬영을 유도하는 안내를 제공하는 대신에, 획득된 귀 영역의 크기를 소정의 크기 범위에 속하도록 정규화 처리를 할 수도 있다. In some other alternative embodiments, instead of providing a guide for inducing re-imaging to detect a new ear region belonging to a predetermined size range, normalizing the acquired ear region size to fall within a predetermined size range is performed. may be

모바일 장치(100)는 요구되는 영상 크기를 만족시키기 위하여 여백 공간을 검정 픽셀로 채워 놓는 제로-패딩 (Zero-Padding) 방식, 혹은 귀 영역 영상의 크기를 확장한 후, 확장된 영상 내에서 모바일 장치(100)가 요구하는 영상 크기에 해당하는 일부 구간을 잘라내어 활용하는 크롭핑 (cropping) 방식 등을 활용하여 정규화를 수행할 수 있으나, 이에 제한되지 않고 귀의 비율을 유지하는 다양한 크기 정규화 방식을 이용하여 정규화 동작을 수행하도록 구성된다.The mobile device 100 performs a zero-padding method in which a blank space is filled with black pixels in order to satisfy a required image size, or expands the size of the ear region image and then the mobile device in the expanded image Normalization can be performed using a cropping method that cuts out and utilizes some sections corresponding to the image size required by (100), but is not limited thereto, and various size normalization methods that maintain the ratio of the ears can be used. configured to perform a normalization operation.

이러한 크기 제어를 통해 귀 영역의 형태적 변형 및 왜곡을 방지하여 귀 인식의 오류를 방지할 수 있다. Through this size control, it is possible to prevent an error in ear recognition by preventing morphological deformation and distortion of the ear region.

이러한 단계(S410 내지 S490)를 통해 기본 잠금 상태는 해제 상태로 변경되어, 모바일 장치(100)의 잠금은 해제된다. Through these steps ( S410 to S490 ), the basic lock state is changed to the unlock state, and the lock of the mobile device 100 is released.

일부 실시예에서, 해제 상태로 변경되면(즉, 기본 잠금이 해제되면), 도 6에 도시되 바와 같이, 상태의 변경 결과를 디스플레이할 수 있다. 모바일 장치(100)는 기본 잠금 상태에서 해제 상태로 변경되면, 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이한다(S490). In some embodiments, when the unlock state is changed (ie, when the basic lock is released), as shown in FIG. 6 , a result of the state change may be displayed. When the mobile device 100 changes from the basic lock state to the unlock state, it displays a screen indicated by one or more application interface objects (S490).

또한, 모바일 장치(100)는 귀 유사도가 임계치(Tscore), 후보자와 대상이 매칭하는 것으로 결정한다(S490). 후보자가 등록 사용자인 경우, 대상의 신원은 모바일 장치(100)의 등록 사용자로 확인된다. Also, the mobile device 100 determines that the ear similarity threshold Tscore and the candidate match the target (S490). If the candidate is a registered user, the identity of the subject is verified as the registered user of the mobile device 100 .

사용자 인터페이스 동작 - 애플리케이션 잠금 및 허용User Interface Behavior - Lock and Allow Applications

전술한 상기 인터페이스 상태는 애플리케이션 잠금 상태 및 허용 상태를 더 포함할 수 있다. 상기 애플리케이션 잠금 상태에 연관된 애플리케이션은 기본 잠금 상태 및/또는 해제 상태에서 실행 가능한 하나 이상의 액티브 애플리케이션을 포함할 수 있다. 상기 하나 이상의 애플리케이션은 이벤트에 대응한다. 이벤트는 기본 잠금 상태 또는 해제 상태에서 발생할 수 있다. 일부 실시예에서, 모바일 장치(100)는 이벤트 발생에 대응하는 액티브 애플리케이션에 연관된 화면(screen)을 디스플레이할 수 있다.The interface state described above may further include an application lock state and an allow state. The application associated with the application lock state may include one or more active applications executable in the default lock state and/or unlock state. The one or more applications respond to an event. Events can occur in the default lock state or unlock state. In some embodiments, the mobile device 100 may display a screen associated with an active application corresponding to the occurrence of an event.

일부 실시예에서, 이벤트는 인커밍 전화, 인커밍 메시지, 음성 메일 통지 등을 포함한다. 이러한 이벤트는 모바일 장치(100)의 사용자에게 음성을 제공하는 것과 관련된다. 상기 일부 실시예들에서, 인커밍 메시지는 텍스트를 음성으로 변환하는 동작을 통해 사용자에게 제공된다.In some embodiments, events include incoming calls, incoming messages, voicemail notifications, and the like. This event relates to providing a voice to the user of the mobile device 100 . In some of the above embodiments, the incoming message is provided to the user through text-to-speech conversion.

애플리케이션 잠금 상태에서 애플리케이션에 대한 사용자 입력은 적어도 일부 무시된다. 즉, 애플리케이션 잠금 상태에서 모바일 장치(100)는 해당 애플리케이션에 대한 사용자 입력에 응답하여 동작하는 것으로 사전에 결정된 애플리케이션의 동작 세트를 수행하는 것이 적어도 일부 금지된다. 예를 들어, 애플리케이션 잠금 상태에서 이벤트가 발생한 경우, 모바일 장치(100)는 이벤트에 대응하는 애플리케이션의 동작의 실행을 개시(initiate)하는 것과 관련된 사용자 입력에 반응하지만, 실행 이후 동작과 관련된 사용자 입력에는 반응하지 않도록 구성된다. 하나 이상의 액티브 애플리케이션은 해제 상태 또는 기본 잠금 상태에서 미리결정된 사용자 입력에 응답할 수 있다. In the application lock state, user input to the application is at least partially ignored. That is, in the application lock state, the mobile device 100 is at least partially prohibited from performing an operation set of an application determined in advance as operating in response to a user input for the corresponding application. For example, when an event occurs in the application lock state, the mobile device 100 responds to a user input related to initiating execution of an operation of the application corresponding to the event, but the user input related to the operation after execution It is designed not to react. The one or more active applications may respond to a predetermined user input in an unlocked state or a default locked state.

인터페이스 허용 상태(이하, “허용 상태”)의 경우, 장치(100)는 애플리케이션의 실행이 승인된 상태이며, 모바일 장치(100)는 해당 애플리케이션에 대한 애플리케이션 인터페이스(AU)와의 상호 작용에 대응하는 사용자 입력을 검출하고 응답한다. 즉, 애플리케이션의 실행 이후 동작들이 허용된다. 허용 상태에서 모바일 장치(100)는 해당 애플리케이션에 포함된 기능을 수행하기 위한 사용자 입력을 검출하고 응답한다. 애플리케이션 잠금 상태 및 허용 상태에 연관된 애플리케이션은 허용 상태에서 가능한 동작이 애플리케이션 잠금 상태에서 수행되지 않을 수 있다. In the case of the interface permission state (hereinafter, the “allowed state”), the device 100 is a state in which the execution of the application is approved, and the mobile device 100 is a user corresponding to the interaction with the application interface (AU) for the application. Detect and respond to input. That is, operations after the execution of the application are permitted. In the permitted state, the mobile device 100 detects and responds to a user input for performing a function included in the corresponding application. In the application lock state and the application associated with the permission state, an operation that is possible in the permission state may not be performed in the application lock state.

이하, 설명의 명료성을 위해, 이벤트는 인커밍 전화로, 이벤트에 대응하는 액티브 애플리케이션은 전화 애플리케이션으로 본 발명을 보다 상세하게 예시적으로 서술한다.Hereinafter, for clarity of explanation, the present invention will be exemplarily described in more detail as an event as an incoming phone call and an active application corresponding to the event as a phone application.

도 8은, 본 발명의 일 실시예에 따른, 전화 애플리케이션 잠금 상태를 해제하는 과정의 흐름도이다. 8 is a flowchart of a process of unlocking a phone application lock state according to an embodiment of the present invention.

도 8의 실시예는 도 4a의 실시예들과 일부 유사하므로 차이점을 위주로 설명한다.Since the embodiment of FIG. 8 is somewhat similar to the embodiment of FIG. 4A , differences will be mainly described.

도 8을 참조하면, 모바일 장치(100)는 해제 시도를 감지한다. 상기 해제 시도는 기본 잠금 상태에서 인커밍 전화가 발생한 경우에 감지되는, 애플리케이션 잠금 해제를 위한 시도이다. Referring to FIG. 8 , the mobile device 100 detects a release attempt. The unlock attempt is an attempt to unlock the application, which is detected when an incoming call occurs in the basic lock state.

일부 실시예에서, 도 8의 해제 시도의 판단 조건은 도 4a의 해제 시도와 동일한 경우로 설정될 수 있다. In some embodiments, the determination condition of the release attempt of FIG. 8 may be set to the same case as that of the release attempt of FIG. 4A .

다른 일부 실시예에서, 도 8의 해제 시도의 판단 조건은 도 4a의 해제 시도와 상이할 수 있다. 도 8의 해제 시도의 판단 조건은 인커밍 전화의 발생과 관련되므로, 인커밍 전화를 착신하기 위한 사용자와 모바일 장치(100) 간의 상호작용에 따른 물리적 변화에 기초하여 설정될 수 있다. 예를 들어, 도 8a의 해제 시도의 판단 조건은 도 4a의 해제 시도의 판단 조건 대비 보다 큰 물리적 변화(예컨대, 보다 큰 회전 변화, 가속도 변화 등등)가 발생할 경우로 설정될 수 있다. In some other embodiments, the determination condition of the unlock attempt of FIG. 8 may be different from the unlock attempt of FIG. 4A . Since the determination condition of the release attempt of FIG. 8 is related to the occurrence of an incoming call, it may be set based on a physical change according to the interaction between the mobile device 100 and the user for receiving the incoming call. For example, the determination condition of the release attempt of FIG. 8A may be set when a larger physical change (eg, greater rotational change, acceleration change, etc.) occurs compared to the determination condition of the release attempt of FIG. 4A .

애플리케이션 잠금 상태에서 모바일 장치(100)는 인커밍 전화의 수락 또는 거부, 음향 조절 등을 포함한, 전화 애플리케이션에 대해 미리 결정된 동작들에 대해서만 응답한다. In the application lock state, the mobile device 100 responds only to predetermined actions for the phone application, including accepting or rejecting an incoming call, adjusting the sound, and the like.

일부 실시예에서, 인커밍 전화가 발생하면, 모바일 장치(100)는 인커밍 전화의 알림을 나타내는 인터페이스 화면을 디스플레이할 수도 있다. In some embodiments, when an incoming call occurs, the mobile device 100 may display an interface screen indicating a notification of the incoming call.

일부 실시예에서, 도 8의 해제 시도는 도 4a의 해제 시도와 동일한 사용자 입력을 포함할 수 있다. 다른 일부 실시예에서, 도 8의 해제 시도는 이벤트에 대응하는 전화 애플리케이션의 동작을 개시하는 사용자 입력 여부를 포함할 수 있다. 예를 들어, 인커밍 전화에 대응하는 애플리케이션 잠금 해제 시도는 전화 애플리케이션에서 전화 수신의 수락과 같은, 인커밍 전화의 연결을 위한 동작을 개시하게 하는 사용자 입력(예컨대, 전화 아이콘의 이동 등)을 포함할 수 있다. In some embodiments, the unlock attempt of FIG. 8 may include the same user input as the unlock attempt of FIG. 4A . In some other embodiments, the unlock attempt of FIG. 8 may include whether a user input starts an operation of a phone application corresponding to an event. For example, an application unlock attempt corresponding to an incoming call may include user input (eg, moving a phone icon, etc.) that causes the phone application to initiate an action for connecting the incoming call, such as accepting an incoming call. can do.

모바일 장치(100)는 해제 시도를 감지하면, 대상 이미지를 획득하고(S810), 귀 영역을 검출하며(S830), 대상의 귀 특징의 세트를 추출하고(S850), 대상과 후보자 간의 귀 유사도를 계산한다(S880). 귀 유사도가 임계치(Tscore) 보다 높은 경우, 상기 이벤트에 대응하는 애플리케이션의 동작을 실행한다. When the mobile device 100 detects a release attempt, it acquires a target image (S810), detects an ear region (S830), extracts a set of ear features of the target (S850), and calculates the ear similarity between the target and the candidate Calculate (S880). When the ear similarity is higher than the threshold Tscore, the operation of the application corresponding to the event is executed.

일부 실시예에서, 귀 유사도가 임계치(Tscore) 보다 높은 것으로 판단된 이후 수행되는 상기 이벤트에 대응하는 애플리케이션의 동작은 인커밍 전화의 연결 동작일 수 있다. 이 경우, 귀 유사도 산출을 포함한 귀 인식 동작은 인커밍 전화의 수신을 수락하는 입력을 검증하는 동작에 해당한다. 모바일 장치(100)가 인커밍 전화의 수신을 수락하는 별도의 사용자 입력을 수신한 경우에도 귀 유사도가 임계치(Tscore) 이하인 것으로 판단되면 전화가 연결되지 않는다. In some embodiments, the operation of the application corresponding to the event performed after it is determined that the ear similarity is higher than the threshold Tscore may be an incoming call connection operation. In this case, the ear recognition operation including calculating the ear similarity corresponds to the operation of verifying the input for accepting the incoming call. Even when the mobile device 100 receives a separate user input for accepting the incoming call, if it is determined that the ear similarity is equal to or less than the threshold Tscore, the call is not connected.

다른 일부 실시예에서, 귀 유사도가 임계치(Tscore) 보다 높은 것으로 판단된 이후 수행되는 상기 이벤트에 대응하는 애플리케이션의 동작은 인커밍 전화의 수신을 승인하는 동작 및 전화의 연결 동작일 수 있다. 귀 유사도가 임계치(Tscore) 이하인 것으로 판단되면 인커밍 전화의 수신을 거절하는 동작이 수행되고 전화가 연결되지 않는다. 특정 실시예들에서, 소정 횟수 범위의 귀 인식 동작이 반복 수행된 이후 전화의 수신이 거절될 수 있다.In some other embodiments, the operation of the application corresponding to the event performed after it is determined that the ear similarity is higher than the threshold Tscore may be an operation of approving reception of an incoming call and an operation of connecting a call. If it is determined that the ear similarity is less than or equal to the threshold Tscore, an operation of rejecting the incoming call is performed and the call is not connected. In certain embodiments, the reception of the call may be rejected after the ear recognition operation is repeatedly performed within a range of a predetermined number of times.

즉, 이 경우, 사용자는 모바일 장치(100)를 귀 주변에 위치시켜 통화를 수신하기 위한 제스쳐를 취하는 것으로 수락 및 연결의 사용자 입력을 수행할 수 있다. 인커밍 전화의 수신을 수락하는 별도의 사요자 입력이 요구되지 않는다. That is, in this case, the user may perform a user input of acceptance and connection by placing the mobile device 100 around the ear and taking a gesture for receiving a call. No separate user input is required to accept incoming calls.

상기 다른 일부 실시예에서, 대상 이미지는 사용자의 수신 제스쳐가 감지되는 것에 응답하여 수행된다(S805). 특정 실시예들에서, 대상 이미지는 수신 제스쳐의 중간에서 촬영될 수 있다. 여기서, 중간은 제스쳐의 시작과 끝 사이의 경로 중 어느 하나이다. In some other embodiments, the target image is performed in response to the user's receiving gesture being detected (S805). In certain embodiments, the target image may be taken in the middle of the receive gesture. Here, the middle is any one of the paths between the beginning and the end of the gesture.

예를 들어, 모바일 장치(100)의 조도를 위해 귀 인식이 완료되기 이전에는 귀와 모바일 장치(100) 사이의 간격을 상대적으로 넓게 갖는 제스쳐를 취하고, 통화의 연결 이후 모바일 장치(100)가 귀에 보다 밀착하는 제스쳐를 갖느 경우, 대상 이미지는 귀와 모바일 장치(100) 사이의 간격을 상대적으로 넓게 갖는 제스쳐를 취한 상황에서 획득된다. For example, for the illumination of the mobile device 100 , before ear recognition is completed, a gesture having a relatively wide interval between the ear and the mobile device 100 is taken, and after connection of a call, the mobile device 100 listens to the ear. In the case of having a close gesture, the target image is obtained in a situation where the gesture is made with a relatively wide gap between the ear and the mobile device 100 .

또한, 모바일 장치(100)는 인커밍 전화를 수신하는 모바일 장치(100)의 사용자(즉, 귀 인식 대상)가 등록 사용자인 것을 확인하고 애플리케이션 잠금 상태를 허용 상태로 변경한다(S890). In addition, the mobile device 100 confirms that the user (ie, the ear recognition target) of the mobile device 100 receiving the incoming call is a registered user, and changes the application lock state to the allow state (S890).

단계(S890)에서 기본 잠금 및 애플리케이션 잠금은 모두 해제 된다. 즉, 애플리케이션 잠금 상태는 허용 상태로 변경되고 기본 잠금 상태도 해제 상태로 변경된다. 이로 인해, 인커밍 전화에 대응하는 전화 애플리케이션의 실행이 종료된 이후, 모바일 장치(100)는 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이할 수 있다. In step S890, both the basic lock and the application lock are released. That is, the application lock state is changed to the allow state, and the default lock state is also changed to the released state. Accordingly, after the execution of the phone application corresponding to the incoming call is terminated, the mobile device 100 may display a screen indicated by one or more application interface objects.

도 9은, 본 발명의 다른 일 실시예에 따른, 전화 애플리케이션 잠금 상태를 해제하는 과정의 흐름도이다. 9 is a flowchart of a process of unlocking a phone application lock state according to another embodiment of the present invention.

도 9의 실시예는 도 8의 실시예들과 유사하므로 차이점을 위주로 설명한다.Since the embodiment of FIG. 9 is similar to the embodiment of FIG. 8 , differences will be mainly described.

도 9를 참조하면, 모바일 장치(100)는 귀 인식 기반 이외의 다른 사용자 입력에 기초하여 기본 잠금을 해제할 수 있다(S901). 상기 사용자 입력은 귀 인식과 상이한 잠금 해제 입력으로서, 이미지 분석이 요구되지 않는 입력 또는 귀 인식과 상이한 이미지 분석을 위한 입력일 수 있다. 이미지 분석이 요구되지 않는 입력은 예를 들어 터치, 논터치 제스처, 타이핑, 및 보이스 중 하나 이상을 포함하나 이에 제한되진 않는다. 여기서 터치는 패턴 입력을 포함한다. 귀 인식과 상이한 이미지 분석을 위한 입력은 예를 들어 홍채 인식을 위해 홍채를 촬영하는 것, 지문 인식을 위해 지문을 촬영하는 것일 수 있으나, 이에 제한되진 않는다. 상기 상이한 이미지 분석을 위한 입력은 가시광선 영역과 상이한 파장을 갖는 신호를 이용하여 획득딜 수 있다. Referring to FIG. 9 , the mobile device 100 may release the basic lock based on a user input other than based on ear recognition ( S901 ). The user input is an unlock input different from ear recognition, and may be an input for which image analysis is not required or an input for image analysis different from ear recognition. Inputs for which image analysis is not required include, but are not limited to, one or more of, for example, touch, non-touch gestures, typing, and voice. Here, the touch includes a pattern input. An input for image analysis different from ear recognition may be, for example, photographing an iris for iris recognition or photographing a fingerprint for fingerprint recognition, but is not limited thereto. The input for the different image analysis may be obtained using a signal having a wavelength different from that of the visible ray region.

귀 인식과 상이한 경로로 기본 잠금이 해제되어도 모바일 장치(100)는 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이할 수 있다(S903). Even when the basic lock is released by a path different from the ear recognition, the mobile device 100 may display a screen indicated by one or more application interface objects (S903).

해제 상태에서 이벤트가 발생할 수 있다. 예를 들어, 도 8에서 설명한 바와 같이 인커밍 전화가 발생할 수 있다. 단계(S903)에서 모바일 장치(100)는 애플리케이션 잠금 상태 하에 있다. 모바일 장치(100)는 귀 인식 동작(S910 내지 S980)에 기초하여 이벤트에 대응하는 애플리케이션의 동작을 수행한다. Events can occur in the unlocked state. For example, an incoming call may occur as described in FIG. 8 . In step S903, the mobile device 100 is under the application lock state. The mobile device 100 performs an operation of the application corresponding to the event based on the ear recognition operations S910 to S980 .

이벤트가 전화 인커밍인 경우, 귀 유사도가 임계치(Tscore) 보다 높으면 전화의 연결 동작이 수행된다. 일부 실시예에서, 귀 유사도가 임계치(Tscore) 보다 높으면 전화의 수신의 수락 및 연결 동작이 수행될 수 있다. When the event is an incoming phone call, if the ear similarity is higher than a threshold Tscore, a phone connection operation is performed. In some embodiments, if the ear similarity is higher than the threshold Tscore, the reception of the call and the connection operation may be performed.

추가적으로, 상기 이벤트는 금융 관련 이벤트를 더 포함한다 상기 애플리케이션 잠금 상태에 연관된 애플리케이션은 기본 잠금 상태 및/또는 해제 상태에서 실행 가능한 인증 애플리케이션을 더 포함할 수 있다. 상기 인증 애플리케이션은 다른 애플리케이션과 연동되어 다른 애플리케이션의 동작을 보조하는 서브 애플리케이션을 포함한다. 예를 들어, 모바일 장치(100)는 비대면 금융 애플리케이션 및 비대면 금융 애플리케이션을 보조하는 인증 애플리케이션을 포함할 수 있다.Additionally, the event further includes a financial-related event. The application associated with the application lock state may further include an authentication application executable in the default lock state and/or unlock state. The authentication application includes a sub-application that assists the operation of the other application by interworking with the other application. For example, the mobile device 100 may include a non-face-to-face financial application and an authentication application that assists the non-face-to-face financial application.

상기 금융 관련 이벤트는 예를 들어 계좌 이체, 온라인 거래 등과 같은 다양한 비대면 금융 동작일 수 있다. 이러한 이벤트에 대응하는 애플리케이션은 금융 애플리케이션 및/또는 비대면 금융을 보조하는 인증 애플리케이션을 포함한다. The financial-related event may be, for example, various non-face-to-face financial operations such as account transfer, online transaction, and the like. Applications corresponding to such events include financial applications and/or authentication applications that assist non-face-to-face finance.

일부 실시예에서, 귀 유사도가 임계치(Tscore) 보다 높으면 신원 확인 대상이 등록 사용자로 확인되거나, 비대면 금융 동작이 수행될 수 있다. In some embodiments, if the ear similarity is higher than the threshold Tscore, the identification target may be identified as a registered user, or a non-face-to-face financial operation may be performed.

도 8 및 도 9를 참조하여 전술한 이벤트 관련 동작은 도 4b에 기초하여 변형될 수도 있음이 통상의 기술자에게 명백할 것이다. It will be apparent to those skilled in the art that the event-related operation described above with reference to FIGS. 8 and 9 may be modified based on FIG. 4B .

이와 같이, 이벤트에 대응하는 애플리케이션의 동작이 귀 인식 여부에 기초하여 수행됨으로써, 애플리케이션의 동작을 개시하기 위한 사용자 입력이 생략되어 사용자 편의성이 증가하거나, 또는 해제 상태에서 추가적인 신원 확인이 수행되어 보안이 강화되는 장점을 가진다. In this way, since the operation of the application corresponding to the event is performed based on whether or not the ear is recognized, the user input for starting the operation of the application is omitted to increase user convenience, or additional identification is performed in the unlocked state to improve security has the advantage of being strengthened.

이상에서 설명한 실시예들에 따른 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. The method for unlocking the mobile device according to the embodiments described above and the operation performed by the mobile device may be at least partially implemented as a computer program and recorded in a computer-readable recording medium. For example, embodied with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor for performing any or all steps, operations, or processes described.

상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be any device that may be incorporated into or may be a computing device such as a desktop computer, laptop computer, notebook, smart phone, or the like. A computer is a device having one or more alternative and special purpose processors, memory, storage, and networking components (either wireless or wired). The computer may run, for example, an operating system compatible with Microsoft's Windows, an operating system such as Apple OS X or iOS, a Linux distribution, or Google's Android OS.

상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of recording identification devices in which computer-readable data is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage identification device, and the like. In addition, the computer-readable recording medium may be distributed in a network-connected computer system, and the computer-readable code may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment may be easily understood by those skilled in the art to which the present embodiment belongs.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.Although the present invention as described above has been described with reference to the embodiments shown in the drawings, it will be understood that these are merely exemplary, and that various modifications and variations of the embodiments are possible therefrom by those of ordinary skill in the art. However, such modifications should be considered to be within the technical protection scope of the present invention. Accordingly, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

Claims (22)

촬영유닛, 디스플레이 유닛, 및 프로세서를 포함한 모바일 장치에 의해 수행되는 귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법에 있어서,
잠금 상태에서 잠금 해제 시도를 감지하는 단계 - 상기 잠금 상태는 기본 잠금 상태 및 해제 상태를 포함함;
귀 인식과 상이한 잠금 해제 입력을 수신하여 기본 잠금 상태를 해제 상태로 변경하고 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이하는 단계;
변경된 해제 상태에서 이벤트가 발생하면, 이벤트 발생에 대응하는 인터페이스 화면을 디스플레이하는 단계;
이벤트가 발생된 이후에 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계;
상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계;
상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인하는 단계; 및
상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인되면 상기 이벤트에 대응하는 애플리케이션의 동작을 실행하는 단계를 포함하는 모바일 장치 잠금 해제 방법.
In a mobile device unlocking method using ear recognition-based authentication performed by a mobile device including a recording unit, a display unit, and a processor,
detecting an unlock attempt in a lock state, wherein the lock state includes a default lock state and an unlock state;
receiving an unlock input different from ear recognition to change the default lock state to the unlock state and display a screen indicated by one or more application interface objects;
When an event occurs in the changed release state, displaying an interface screen corresponding to the event occurrence;
acquiring an image of the object in which at least a part of the object's body appears after the event has occurred;
if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject;
checking whether the set of the extracted ear features of the target satisfies a preset condition; and
and executing an operation of an application corresponding to the event when it is confirmed that the extracted set of ear features of the target satisfies a preset condition.
제1항에 있어서, 상기 대상의 귀 특징의 세트를 추출하는 단계는:
귀의 전역적 특성에 대한 제1 특징의 세트를 추출하도록 구성된 전역적 특성 분석 모델에 검출된 귀 영역을 적용하는 단계; 및
귀의 지역적 특성에 대한 제2 특징의 세트를 추출하도록 구성된 지역적 특성 분석 모델에 검출된 귀 영역을 적용하는 단계를 포함하는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
The method of claim 1 , wherein extracting the set of ear features of the subject comprises:
applying the detected region of the ear to a global characterization model configured to extract a first set of features for global characteristics of the ear; and
and applying the detected ear region to a regional characterization model configured to extract a second set of features for regional characteristics of the ear.
제2항에 있어서, 상기 전역적 특성 분석 모델은,
동일한 훈련 대상으로부터 획득된 다중 이미지를 훈련 이미지로 이용하여 제1 특징의 세트를 추출하도록 학습되며,
상기 지역적 특성 분석 모델은,
동일한 훈련 대상으로부터 획득된 다중 이미지를 훈련 이미지로 이용하여 제2 특징의 세트를 추출하도록 학습되며,
상기 다중 이미지는 훈련 대상의 귀의 적어도 일부를 공유하는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
According to claim 2, wherein the global characteristic analysis model,
It is learned to extract a set of first features by using multiple images obtained from the same training object as a training image,
The regional characteristic analysis model is,
It is learned to extract a set of second features by using multiple images obtained from the same training object as a training image,
and the multiple images share at least a portion of the training subject's ear.
제2항에 있어서,
상기 귀의 전역적 특성은 귀의 윤곽 및 귀의 구성 중 하나 이상을 포함하고,
상기 귀의 지역적 특성은 귀에 존재하는 국소적 패턴을 포함하는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
3. The method of claim 2,
wherein the global characteristic of the ear comprises one or more of the contour of the ear and the composition of the ear;
wherein the regional characteristic of the ear comprises a local pattern present in the ear.
제2항에 있어서, 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인하는 단계는,
상기 제1 특징의 세트 및 제2 특징의 세트를 미리 저장된 상기 모바일 장치의 사용자의 제1 특징의 세트 및 제2 특징의 세트와 비교하여 상기 대상과 사용자 간의 귀 특징의 유사도를 산출하는 단계; 및
유사도에 의한 매칭 정도가 소정 임계치 보다 높은 경우 제1 인터페이스 상태를 제2 인터페이스 상태로 변경하는 단계를 포함하는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
The method of claim 2, wherein the step of confirming whether the set of ear features of the extracted target satisfies a preset condition comprises:
comparing the first set of features and the set of second features with a pre-stored set of first and second features of a user of the mobile device to calculate a degree of similarity of ear features between the subject and the user; and
and changing the first interface state to the second interface state when the matching degree based on the similarity is higher than a predetermined threshold.
제5항에 있어서, 상기 대상과 사용자 간의 귀 특징의 유사도를 산출하는 단계는:
상기 대상의 제1 특징의 세트와 미리 저장된 상기 모바일 장치의 사용자의 제1 특징의 세트를 비교하여 상기 대상과 사용자의 귀의 전역적 특성의 유사의 정도를 나타내는 제1 유사도를 산출하는 단계;
상기 대상의 제2 특징의 세트와 미리 저장된 상기 모바일 장치의 사용자의 제2 특징의 세트를 비교하여 상기 대상과 사용자의 귀의 전역적 특성의 유사의 정도를 나타내는 제2 유사도를 산출하는 단계; 및
상기 제1 유사도 및 제2 유사도를 결합하여 상기 대상과 사용자 간의 귀 특징의 유사도를 산출하는 단계를 포함하는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
The method of claim 5, wherein calculating the degree of similarity between the subject and the user of the ear feature comprises:
comparing a set of first characteristics of the subject with a pre-stored set of first characteristics of a user of the mobile device to calculate a first degree of similarity representing a degree of similarity between the global characteristics of the subject and the user's ears;
comparing the set of second characteristics of the subject with a pre-stored set of second characteristics of the user of the mobile device to calculate a second degree of similarity indicating a degree of similarity between the global characteristics of the subject and the user's ears; and
and calculating a similarity of an ear feature between the target and the user by combining the first degree of similarity and the second degree of similarity.
제2항에 있어서,
상기 전역적 특성 분석 모델 또는 지역적 특성 분석 모델에 적용하기 이전에, 모바일 장치의 모션 변화가 감지된 경우, 상기 모바일 장치의 모션 변화에 기초하여 상기 대상 이미지 또는 귀 영역의 이미지의 촬영 각도를 보정하는 단계를 더 포함하는 모바일 장치 잠금 해제 방법.
3. The method of claim 2,
Before applying to the global characteristic analysis model or regional characteristic analysis model, if a change in motion of the mobile device is detected, correcting the shooting angle of the target image or the image of the ear region based on the change in motion of the mobile device A method of unlocking a mobile device further comprising steps.
제1항에 있어서,
상기 모바일 장치 잠금 해제 방법은:
귀 인식과 상이한 잠금 해제 입력을 수신하기 이전에, 잠금 상태에서 잠금 해제 시도를 감지하는 단계;
귀 인식과 상이한 잠금 해제 입력을 수신하기 이전에 잠금 상태에서 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계;
상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계; 및
상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인되면, 하나 이상의 애플리케이션 인터페이스 객체가 나타난 화면(screen)을 디스플레이하는 단계를 더 포함하는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
According to claim 1,
How to unlock the mobile device:
prior to receiving an unlocking input different from ear recognition, detecting an unlocking attempt in a locked state;
obtaining an image of the subject in which at least a part of the subject's body appears in a locked state before receiving an unlocking input different from ear recognition;
if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject; and
and displaying a screen on which one or more application interface objects are displayed when it is confirmed that the extracted set of ear features of the target satisfies a preset condition.
제8항에 있어서, 상기 모바일 장치 잠금 해제 방법은:
하나 이상의 애플리케이션 인터페이스 객체가 나타난 화면을 디스플레이하기 이전에, 상기 기본 잠금 상태를 해제 상태로 변경하고, 상태 변경을 알리는 단계를 더 포함하는 모바일 장치 잠금 해제 방법.
The method of claim 8, wherein the method of unlocking the mobile device comprises:
Before displaying a screen on which one or more application interface objects are displayed, the method further comprising changing the basic lock state to an unlock state and notifying the state change.
제1항에 있어서,
상기 잠금 상태는 애플리케이션 잠금 상태를 더 포함하며, 상기 모바일 장치 잠금 해제 방법은:
귀 인식과 상이한 잠금 해제 입력을 수신하기 이전에, 상기 기본 잠금 상태에서 이벤트가 발생하면, 이벤트 발생에 대응하는 인터페이스 화면을 디스플레이하는 단계 - 상기 기본 잠금 상태에서 이벤트에 대응하는 애플리케이션은 애플리케이션 잠금 상태로 설정됨;
상기 이벤트 발생에 대응한 인터페이스 화면이 디스플레이되는 상태에서 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계;
상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계; 및
상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 상기 이벤트에 대응하는 애플리케이션의 동작을 실행하는 단계를 포함하는 모바일 장치 잠금 해제 방법.
According to claim 1,
The lock state further includes an application lock state, wherein the method for unlocking the mobile device includes:
Before receiving an unlock input different from ear recognition, if an event occurs in the basic lock state, displaying an interface screen corresponding to the occurrence of the event - In the basic lock state, the application corresponding to the event enters the application lock state set;
acquiring an image of a target in which at least a part of the target's body is displayed while an interface screen corresponding to the occurrence of the event is displayed;
if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject; and
and executing an operation of an application corresponding to the event after it is checked whether the extracted set of ear features of the target satisfies a preset condition.
제10항에 있어서,
상기 이벤트는 인커밍 전화를 포함하며,
상기 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 인커밍 전화의 연결이 실행되는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
11. The method of claim 10,
The event includes an incoming call,
and after it is confirmed whether the set of the extracted subject's ear features satisfies a preset condition, the connection of the incoming call is executed.
삭제delete 제1항에 있어서,
상기 상이한 잠금 해제 입력은 터치, 논터치 제스처, 타이핑, 및 보이스, 및 귀와 상이한 부분의 촬영 중 하나 이상을 포함하는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
According to claim 1,
wherein the different unlocking input includes one or more of a touch, a non-touch gesture, a typing, and a voice, and a photographing of a portion different from the ear.
제1항에 있어서,
상기 이벤트는 인커밍 전화를 포함하며,
상기 상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 인커밍 전화의 수신 수락이 실행되는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
According to claim 1,
The event includes an incoming call,
and after it is confirmed whether the set of the extracted subject's ear features satisfies a preset condition, acceptance of incoming calls is executed.
제1항에 있어서,
귀 영역을 검출하기 이전에, 모바일 장치의 조도 정도가 임계치 이하인 경우, 상기 대상에게 모바일 장치와 대상과의 거리를 조절하게 하는 안내를 제공하는 단계를 더 포함하는 모바일 장치 잠금 해제 방법.
According to claim 1,
Prior to detecting the ear region, if the illuminance level of the mobile device is less than or equal to a threshold, providing a guide for adjusting a distance between the mobile device and the object to the target.
제1항에 있어서,
귀 특징의 세트를 추출하기 이전에, 검출된 귀 영역이 대상의 귀의 적어도 일부를 포함하는지 확인하는 단계;
상기 검출된 귀 영역이 대상의 귀의 적어도 일부를 포함한 경우, 상기 검출된 귀 영역의 크기가 소정 크기 범위에 속하는지 확인하는 단계; 및
상기 검출된 귀 영역의 크기가 소정 크기 범위에 속하지 않는 경우, 상기 소정 크기 범위에 속하는 귀 영역을 획득하기 위해 상기 대상에게 모바일 장치와 대상과의 거리를 조절하게 하는 안내를 제공하는 단계를 더 포함하는 모바일 장치 잠금 해제 방법.
According to claim 1,
prior to extracting the set of ear features, verifying that the detected ear region includes at least a portion of the subject's ear;
when the detected ear area includes at least a part of the subject's ear, checking whether the size of the detected ear area falls within a predetermined size range; and
When the size of the detected ear region does not fall within a predetermined size range, the method further comprising the step of providing a guide to the subject to adjust the distance between the mobile device and the object to obtain an ear region belonging to the predetermined size range How to unlock your mobile device.
제1항에 있어서, 상기 잠금 상태에서 잠금 해제 시도를 감지하는 단계는,
지정된 단위 시간 동안 기 지정 범위 내 모바일 장치의 회전 각도의 변화를 감지하는 경우, 그리고 지정된 단위 시간 동안 기 지정 범위 내에서 조도가 유지되는 것을 감지하는 경우 중 하나 이상의 경우를 감지하면 잠금 해제 시도를 감지하는 것으로 결정하는 단계; 및
잠금 해제를 위한 귀 인식을 활성화하는 단계를 포함하는 것을 특징으로 하는 모바일 장치 잠금 해제 방법.
The method of claim 1, wherein detecting an attempt to unlock the lock in the locked state comprises:
Detect an unlock attempt when detecting one or more of: detecting a change in the rotation angle of the mobile device within a predetermined range for a specified unit time, and detecting that the illuminance is maintained within a predetermined range for a specified unit time deciding to do; and
A method of unlocking a mobile device comprising the step of activating ear recognition for unlocking.
프로세서를 포함한 컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어가 저장된 컴퓨터 판독가능 기록매체로서, 상기 프로그램 명령어가 상기 컴퓨터의 프로세서에 의해 실행되는 경우 상기 프로세서가 제1항 내지 제11항, 제13항 내지 제17항 중 어느 하나의 항에 따른 모바일 장치 잠금 해제 방법을 수행하게 하는 컴퓨터 판독가능 기록매체.
A computer readable recording medium readable by a computing device including a processor and storing program instructions operable by the computing device, wherein the processor is configured to cause the program instructions to be executed by the processor of the computer. A computer-readable recording medium for performing the method of unlocking a mobile device according to any one of claims 11, 13 to 17.
대상에 대한 이미지를 획득하는 촬영기기;
디스플레이;
터치 입력을 획득하는 터치 유닛, 터치와 상이한 입력을 획득하는 기타 입력 유닛, 및 마이크 중 하나 이상의 유닛;
프로세서; 및
상기 프로세서에 의해 실행되도록 구성된 프로그램을 저장하는 메모리를 포함하며, 상기 프로그램은:
잠금 상태에서 잠금 해제 시도를 감지하는 단계 - 상기 잠금 상태는 기본 잠금 상태 및 해제 상태를 포함함;
귀 인식과 상이한 잠금 해제 입력을 수신하여 기본 잠금 상태를 해제 상태로 변경하고 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이하는 단계;
상기 이미 변경된 해제 상태에서 이벤트가 발생하면, 이벤트 발생에 대응하는 인터페이스 화면을 디스플레이하는 단계;
이벤트가 발생된 이후에 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계;
상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계;
상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인하는 단계; 및
상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인되면 상기 이벤트에 대응하는 애플리케이션의 동작을 실행하는 단계;를 수행하기 위한 명령들을 포함하는 것을 특징으로 하는 모바일 장치.
a photographing device for acquiring an image of an object;
display;
at least one unit of a touch unit for acquiring a touch input, another input unit for acquiring an input different from the touch, and a microphone;
processor; and
a memory storing a program configured to be executed by the processor, the program comprising:
detecting an unlock attempt in a lock state, wherein the lock state includes a default lock state and an unlock state;
receiving an unlock input different from ear recognition to change the default lock state to the unlock state and display a screen indicated by one or more application interface objects;
displaying an interface screen corresponding to the occurrence of an event when an event occurs in the already changed release state;
acquiring an image of the object in which at least a part of the object's body appears after the event has occurred;
if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject;
checking whether the set of the extracted ear features of the target satisfies a preset condition; and
and executing an operation of an application corresponding to the event when it is confirmed whether the extracted set of ear features of the target satisfies a preset condition.
제19항에 있어서,
상기 프로그램은:
귀 인식과 상이한 잠금 해제 입력을 수신하기 이전에, 잠금 상태에서 잠금 해제 시도를 감지하는 단계;
귀 인식과 상이한 잠금 해제 입력을 수신하기 이전에 잠금 상태에서 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계;
상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계; 및
상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인되면, 하나 이상의 애플리케이션 인터페이스 객체가 나타낸 화면(screen)을 디스플레이하는 단계;를 수행하기 위한 명령들을 더 포함하는 것을 특징으로 하는 모바일 장치.
20. The method of claim 19,
The program is:
prior to receiving an unlocking input different from ear recognition, detecting an unlocking attempt in a locked state;
obtaining an image of the subject in which at least a part of the subject's body appears in a locked state before receiving an unlocking input different from ear recognition;
if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject; and
When it is confirmed that the extracted set of ear features of the target satisfies a preset condition, displaying a screen indicated by one or more application interface objects; .
제19항에 있어서,
상기 잠금 상태는 애플리케이션 잠금 상태를 더 포함하며, 상기 프로그램은:
귀 인식과 상이한 잠금 해제 입력을 수신하기 이전에, 상기 기본 잠금 상태에서 이벤트가 발생하면, 이벤트 발생에 대응하는 인터페이스 화면을 디스플레이하는 단계 - 상기 기본 잠금 상태에서 이벤트에 대응하는 애플리케이션은 애플리케이션 잠금 상태로 설정됨;
상기 이벤트 발생에 대응한 인터페이스 화면이 디스플레이되는 상태에서 대상의 신체의 적어도 일부가 나타난 대상의 이미지를 획득하는 단계;
상기 대상의 이미지가 귀의 적어도 일부를 포함한 경우, 상기 대상의 이미지에서 상기 대상의 귀 특징의 세트를 추출하는 단계; 및
상기 추출된 대상의 귀 특징의 세트가 미리 설정된 조건을 만족하는지 확인된 이후, 상기 이벤트에 대응하는 애플리케이션의 동작을 실행하는 단계를 수행하기 위한 명령들을 더 포함하는 것을 특징으로 하는 모바일 장치.
20. The method of claim 19,
The lock state further includes an application lock state, wherein the program includes:
Before receiving an unlock input different from ear recognition, if an event occurs in the basic lock state, displaying an interface screen corresponding to the occurrence of the event - In the basic lock state, the application corresponding to the event enters the application lock state set;
acquiring an image of a target in which at least a part of the target's body is displayed while an interface screen corresponding to the occurrence of the event is displayed;
if the image of the subject includes at least a portion of an ear, extracting a set of ear features of the subject from the image of the subject; and
The mobile device of claim 1, further comprising instructions for performing the step of executing an operation of an application corresponding to the event after it is confirmed whether the extracted set of ear features of the target satisfies a preset condition.
삭제delete
KR1020200033734A 2019-04-10 2020-03-19 Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same KR102339898B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200033734A KR102339898B1 (en) 2020-03-19 2020-03-19 Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same
US16/845,362 US11558197B2 (en) 2019-04-10 2020-04-10 Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200033734A KR102339898B1 (en) 2020-03-19 2020-03-19 Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same

Publications (2)

Publication Number Publication Date
KR20210117484A KR20210117484A (en) 2021-09-29
KR102339898B1 true KR102339898B1 (en) 2021-12-17

Family

ID=77924690

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200033734A KR102339898B1 (en) 2019-04-10 2020-03-19 Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same

Country Status (1)

Country Link
KR (1) KR102339898B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114732200B (en) * 2022-03-23 2024-06-25 周小洋 Mobile phone timing box unlocking method and device, electronic equipment and mobile phone timing box

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206833A (en) * 2006-01-31 2007-08-16 Toshiba Corp Biological collation method and device
US20160026781A1 (en) * 2014-07-16 2016-01-28 Descartes Biometrics, Inc. Ear biometric capture, authentication, and identification method and system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8994499B2 (en) 2011-03-16 2015-03-31 Apple Inc. Locking and unlocking a mobile device using facial recognition
KR102198852B1 (en) 2014-03-24 2021-01-05 삼성전자 주식회사 Iris recognition apparatus and and mobile apparatus having the same
KR101581618B1 (en) 2015-02-02 2015-12-30 성균관대학교산학협력단 Unlocking method for application in terminal
KR102401170B1 (en) * 2015-10-21 2022-05-24 삼성전자주식회사 Method and device for complex authentication
KR102359558B1 (en) * 2017-03-28 2022-02-09 삼성전자주식회사 Face verifying method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206833A (en) * 2006-01-31 2007-08-16 Toshiba Corp Biological collation method and device
US20160026781A1 (en) * 2014-07-16 2016-01-28 Descartes Biometrics, Inc. Ear biometric capture, authentication, and identification method and system

Also Published As

Publication number Publication date
KR20210117484A (en) 2021-09-29

Similar Documents

Publication Publication Date Title
US11100208B2 (en) Electronic device and method for controlling the same
US10789343B2 (en) Identity authentication method and apparatus
US9747428B2 (en) Dynamic keyboard and touchscreen biometrics
US9904840B2 (en) Fingerprint recognition method and apparatus
US20200026939A1 (en) Electronic device and method for controlling the same
CN107223254B (en) Method, user device, and storage medium for hidden setting processing
US11461949B2 (en) Electronic device for providing avatar and operating method thereof
US11558197B2 (en) Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same
US11263634B2 (en) Payment method and device
US11127019B2 (en) Security verification method and device for smart card application
KR20130105527A (en) Facial feature detection
KR20160147515A (en) Method for authenticating user and electronic device supporting the same
US10803159B2 (en) Electronic device and method for controlling the same
KR102514036B1 (en) Electronic device and method for controlling the same
EP3696695B1 (en) Method for performing biometric authentication according to display of object related to biometric authentication and electronic device therefor
KR102339898B1 (en) Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same
US12019724B2 (en) Device and method for authenticating user based on facial characteristics and mask characteristics of the user
Ngoc Diep et al. SigVer3D: Accelerometer based verification of 3-D signatures on mobile devices
KR102521661B1 (en) Entrance control method for contaless entrance control and system performing the same
KR102577587B1 (en) Method and apparatus for authenticating fingerprint
KR102249663B1 (en) Identification system and method based on ear recognition
KR102538492B1 (en) An electric device and method for electric device
CN110677927A (en) Method and device for automatically connecting wearable device, storage medium and electronic device
Yamazaki et al. Toward more secure and convenient user authentication in smart device era
CN116246635A (en) Voiceprint recognition method, voiceprint recognition device, voiceprint recognition equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant