CN107818251B - 一种人脸识别方法及移动终端 - Google Patents
一种人脸识别方法及移动终端 Download PDFInfo
- Publication number
- CN107818251B CN107818251B CN201710892696.7A CN201710892696A CN107818251B CN 107818251 B CN107818251 B CN 107818251B CN 201710892696 A CN201710892696 A CN 201710892696A CN 107818251 B CN107818251 B CN 107818251B
- Authority
- CN
- China
- Prior art keywords
- mobile terminal
- information
- state information
- face recognition
- historical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Telephone Function (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种人脸识别方法及移动终端,该方法应用于移动终端,所述移动终端包括摄像头,所述方法包括:获取移动终端的当前状态信息;根据所述当前状态信息以及所述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别;当确定需要执行人脸识别时,启动所述移动终端的摄像头,通过所述摄像头采集人脸信息,并对所述人脸信息进行验证。本发明根据移动终端的当前状态信息和历史状态信息,直接启动人脸识别,无需用户的额外操作,提升了人脸识别的快捷性和易用性,提高了用户的操作体验和移动终端的智能程度。
Description
技术领域
本发明实施例涉及通信领域,尤其涉及一种人脸识别方法及移动终端。
背景技术
随着移动终端计算能力、摄像头成像技术和人脸识别技术的发展,将人脸识别技术应用到移动终端上已愈发成为一种趋势。目前,这项技术在移动终端上主要用于解锁设备时的身份识别,以代替传统的输入密码的解锁方式;还可以用于网上支付时的身份识别等其它场景。
但是,出于对功耗和隐私的要求,移动终端不能在任何时候都激活摄像头,采集人脸信息进行验证,而一般需要用户进行主动的触发。例如,当人脸识别应用于移动终端的解锁场景时,需要用户按电源键点亮屏幕来触发人脸识别。
显然,在先技术中,上述人脸识别方法存在触发条件过于单一,且触发方法需要用户额外的操作:例如应用于移动终端的解锁场景时需要按压电源键点亮屏幕,存在操作不便的问题。
发明内容
本发明实施例提供一种人脸识别方法,以解决在先技术中人脸识别方法存在操作不便的问题。
为了解决上述技术问题,本发明是这样实现的:一种人脸识别方法,应用于移动终端,所述移动终端包括摄像头,所述方法包括:
获取移动终端的当前状态信息;
根据所述当前状态信息以及所述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别;
当确定需要执行人脸识别时,启动所述移动终端的摄像头,通过所述摄像头采集人脸信息,并对所述人脸信息进行验证。
本发明实施例还提供了一种移动终端,包括摄像头,所述移动终端还包括:
当前状态获取模块,用于获取移动终端的当前状态信息;
人脸识别判断模块,用于根据所述当前状态信息以及所述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别;
第一执行模块,用于当确定需要执行人脸识别时,启动所述移动终端的摄像头,通过所述摄像头采集人脸信息,并对所述人脸信息进行验证。
本发明实施例另外提供了一种移动终端,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上述权利要求中任一项所述的人脸识别方法的步骤。
本发明实施例另外还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上述权利要求中任一项所述的人脸识别方法的步骤。
本发明实施例根据移动终端的当前状态信息和历史状态信息,直接启动人脸识别,无需用户的额外操作,提升了人脸识别的快捷性和易用性,提高了用户的操作体验和移动终端的智能程度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明方法实施例一的一种人脸识别方法的步骤的流程图;
图2是本发明方法实施例二的一种人脸识别方法的步骤的流程图;
图3是本发明装置实施例三的一种移动终端之一的结构框图;
图4是本发明装置实施例三的一种移动终端之二的结构框图;
图5是本发明装置实施例四的一种移动终端的结构框图;
图6是本发明装置实施例五的一种移动终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
【方法实施例一】
参照图1所示,本发明实施例提供了一种人脸识别方法,应用于移动终端,上述移动终端包括摄像头,上述方法具体可以包括步骤101-103:
步骤101:获取移动终端的当前状态信息。
在本发明实施例中,移动终端包括但不限于是诸如手机、平板电脑、笔记本电脑、掌上电脑、可穿戴设备等包括摄像头的移动终端。上述人脸识别方法可以应用于解锁移动终端、通过移动终端进行支付等各种需要身份验证的场景中。
上述当前状态信息至少可以包括以下内容中的至少一种:握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离时间信息、位置信息和光线强度;还可以包括存在未读系统通知、存在未接来电等当前状态信息。
当然,在本发明实施例中,以预设周期获取上述移动终端的当前状态信息。
在本发明实施例中,可以通过调用上述移动终端的各状态参数传感器,例如三轴加速度传感器、重力传感器、陀螺仪传感器、距离传感器、光敏传感器等等分别获取移动终端的加速度信息、握持方式、角速度、与水平面之间的角度、与人脸之间的距离和光线强度等信息。
步骤102:根据上述当前状态信息以及上述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别。
在本发明实施例的一种实施方式中,当上述当前状态信息满足预设条件时,确定需要执行人脸识别;上述预设条件根据上述移动终端执行人脸识别时的历史状态信息得到,可以以表的形式存储于上述移动终端的存储器中,也可以存储于云端等等。
上述预设条件可以是与标准状态信息相匹配的条件。上述当前状态信息与上述标准状态信息是否匹配,可以采用计算二者相似度的方式。例如,计算上述当前状态信息与上述标准状态信息的相似度;若上述相似度大于预设相似度阈值,则上述当前状态信息与上述标准状态信息匹配;即上述当前状态信息满足预设条件。
示例性地,上述当前状态信息和上述标准状态信息可以都是向量的形式,不同参数作为上述向量的基,而不同的参数值作为上述向量的各基的数值大小;那么上述当前状态信息和上述标准状态信息的余弦值可以作为上述当前状态信息和上述标准状态信息的相似度。
可以理解的是,上述移动终端执行人脸识别时的历史状态信息,例如握持方式、加速度、角速度、与人脸之间的距离等应该具备一定的特征。因此在上述移动终端执行人脸识别的场景下,获取在执行人脸识别之前上述移动终端的历史状态信息,可以作为标准状态信息。
当然,上述标准状态信息可以是上述移动终端执行人脸识别并验证通过时的历史状态信息;避免引入上述移动终端的非合法用户进行人脸识别的历史状态信息,提高判断的准确度。
步骤103:当确定需要执行人脸识别时,启动上述移动终端的摄像头,通过上述摄像头采集人脸信息,并对上述人脸信息进行验证。
在本发明实施例中,启动上述移动终端的摄像头获取图像;若获取的图像中存在人脸信息,则对该人脸信息进行验证;判断该图像中的人脸信息与预置的合法用户的人脸信息是否匹配;若该图像中的人脸信息与预置的合法用户的人脸信息匹配,则验证通过;若该图像中的人脸信息与预置的合法用户的人脸信息不匹配,则无操作,即验证失败,或者提示人脸信息有误等。
具体地,上述移动终端可以首先对上述获取的人脸信息进行预处理,例如光线补偿、滤波、锐化等,以此改善上述人脸信息;然后从预处理后的上述人脸信息中提取特征,可以包括像素统计特征等基于统计的特征,还可以包括人脸的眼睛、鼻子等局部特征区域之间的结构位置关系等几何特征;然后将上述提取的特征与上述预置的合法用户的人脸信息的相应特征匹配,计算匹配度;当上述匹配度大于预设匹配度阈值,则该信息中的人脸信息与预置的合法用户的人脸信息匹配,则验证通过;反之,则该信息中的人脸信息与预置的合法用户的人脸信息不匹配,则验证失败。
在本发明实施例中,根据移动终端的当前状态信息和历史状态信息,直接启动人脸识别,无需用户的额外操作,提升了人脸识别的快捷性和易用性,提高了用户的操作体验和移动终端的智能程度。
【方法实施例二】
参照图2所示,本发明实施例提供了一种人脸识别方法,应用于移动终端,上述移动终端包括摄像头,上述方法具体可以包括步骤201-208:
步骤201:在检测到移动终端执行进行人脸识别并验证通过时,获取上述移动终端的历史状态信息。
在本发明实施例中,因为在移动终端执行人脸识别之前,移动终端的状态信息可能是多种多样的,难以通过一种固定的规则来根据移动终端当前状态信息确定用户当前是否具有人脸识别功能的需求。因此在本发明实施例中,通过机器学习的方式构建分类模型,对移动终端的当前状态信息进行分类,可以将当前状态信息分为第一类,即需要执行人脸识别,自动触发人脸识别;或者分为第二类,即不需要执行人脸识别。
当然,为了建立上述分类模型,首先需要获取大量的移动终端执行人脸识别并验证通过时,上述移动终端的历史状态信息。
因为本发明实施例终究是要在保证隐私性和安全性的基础上提高触发人脸识别的便捷性,因此仅采集验证通过的场景下移动终端的历史状态信息;若验证失败,则可能操作者并不是移动终端的合法用户,那么采集的移动终端的历史状态信息就存在不一致,没有意义,反而还会引入额外的巨大误差;因此仅采集验证通过的场景下移动终端的历史状态信息,可以提高分类模型的准确度。
可选地,上述历史状态信息包括在检测到上述移动终端执行人脸识别并验证通过之前上述移动终端的第一历史状态信息;上述第一历史状态信息包括以下内容中的至少一种:握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离、时间信息、位置信息和光线强度。
其中,上述握持方式可以为横屏握持或竖屏握持,并不限于用户握持,也可以由自拍杆之类握持,握持方式是针对移动终端的形态而言的;上述加速度可以包括各个方向的加速度值中的一种或任意组合;上述角速度可以包括各个方向的角速度值中的一种或任意组合;上述与水平面之间的角度可以为移动终端的正面(即屏幕所在面)与水平面的夹角,也可以移动终端的其它基准面与水平面的夹角;上述与人脸之间的距离可以采用距离传感器获得,也可以通过其他方式;上述时间信息可以为标准时间,一般可以通过移动终端内置时钟得到,也可以通过网络连接得到;上述位置信息可以为经纬度参数,通过移动终端的GPS模块、或者基站定位等方式可以得到;上述光线强度可以通过光敏传感器获得,或者其它方式。
步骤202:从上述历史状态信息中提取出历史特征信息。
在本发明实施例中,可以将上述历史状态信息进行向量化,将上述历史状态信息转化为历史状态向量;可以直接以上述历史状态向量作为历史状态信息,当然也可以对上述历史状态向量进行归一化等预处理之后作为历史特征信息。
在本发明实施例中,上述历史状态信息还包括在检测到上述验证通过之后上述移动终端的第二历史状态信息;上述从上述历史状态信息中提取出历史特征信息的步骤包括:根据预置的第二历史状态信息和历史特征信息的对应关系,获取与上述第二历史状态信息对应的历史特征信息。
本发明实施例可以根据在检测到上述移动终端执行人脸识别并验证通过之前上述移动终端的第一历史状态信息来建立分类模型;还可以检测移动终端验证通过之后用户的行为特征等第二历史状态信息来辅助建立分类模型。
上述移动终端可以预先设有第二历史状态信息与历史特征信息的对应关系。
示例性地,上述第二历史状态信息可以为检测到在验证通过之后预设时间内用户查看系统通知的操作,则意味着移动终端在执行人脸识别之前已经接收到系统通知,可能用户注意到上述移动终端接收到上述系统通知时的声音、指示灯等提示,因此才主动触发人脸识别。因此,可以将上述移动终端接收到系统通知这个状态信息数值化,作为与第二历史状态信息对应的历史特征信息。
同样地,上述第二历史状态信息可以为检测到查看未接来电的操作,可以将上述移动终端接收到系统通知这个状态信息数值化,作为与第二历史状态信息对应的历史特征信息。
因此本发明实施例还可以基于用户在验证通过之后的行为特征建立分类模型,从另一方面提高了分类模型的准确度。
示例性地,可以按照下面的规则对上述历史状态信息进行向量化:
第一向量分量为移动终端与水平面之间的角度,第二向量分量为移动终端的加速度的大小,第三向量分量对应上述第二历史状态信息。
例如,与水平面之间的角度为30°,加速度为1m/s2,检测到在验证通过之后预设时间内用户查看系统通知的操作;则将上述移动终端接收到系统通知这个状态信息数值化为1,上述历史特征信息为[3,1,1]。
又例如,与水平面之间的角度为10°,加速度为0.5m/s2,检测到在验证通过之后预设时间内用户查看未接来电的操作;则将上述移动终端接收到未接来电这个状态信息数值化为2,上述历史特征信息为[1,0.5,2]。
再例如,与水平面之间的角度为5°,加速度为0.1m/s2,在验证通过之后预设时间内未检测到用户查看未接来电或系统通知的操作;则数值化为0,上述历史特征信息为[0.5,0.1,0]。
综上,得到历史特征信息[3,1,1],[1,0.5,2],[0.5,0.1,0],[1,1,1],[5,1,0]……
当然,上述示例仅是为了举例说明;在实际应用中,上述向量可以包括更多分量;上述历史特征信息越多,则得到的分类模型相应地更准确,鲁棒性更强。
当然,可以分别采用三个向量分量来表示上述加速度、角速度等。总之,本发明实施例对此不作限制。
步骤203:对上述历史特征信息进行机器学习,建立分类模型。
可选地,上述对上述历史特征信息进行机器学习,建立分类模型的步骤203可以包括:对上述历史特征信息进行聚类;根据聚类结果建立分类模型;上述分类模型包括每一簇的代表特征信息。
聚类的目的是将收集到的上述历史特征信息分成几个簇,每个簇的聚类中心可以代表该簇的所有历史特征信息的特点,即该簇的代表特征信息。
在本发明实施例中,可以通过k-means算法进行聚类:以k为参数,把n个对象分成k个簇,使簇内具有较高的相似度,而簇间的相似度较低。k-means算法的处理过程如下:首先,随机地选择k个对象,每个对象初始地代表了一个簇的平均值或中心;对剩余的每个对象,根据其与各簇中心的距离,将它赋给最近的簇;然后重新确定每个簇的中心。这个过程不断重复,直到聚类结果不再变化。每个簇的中心可以是该簇中其它对象与该中心的距离和最近的对象。
当然,本发明实施例也可以采用层次聚类算法的其它聚类算法。在此不再赘述。
示意性地,对向量A1、A2、A3、A4、A5、A6进行聚类,得到的分类模型为:
第一簇:A1、A2、A6;代表特征信息为A6;
第二簇:A3;代表特征信息为A3;
第三簇:A4、A5;代表特征信息为A4。
相应地,上述三个簇分别代表了上述历史特征信息的三种模式。
可选地,上述对上述历史特征信息进行机器学习,建立分类模型的步骤203可以包括:构造生成式对抗网络模型的判别器模型和生成器模型;由上述生成器模型根据输入噪声生成噪声特征信息;根据上述历史特征信息和上述噪声特征信息,对上述判别器模型和上述生成器模型进行训练;将训练好的判别器模型作为分类模型。
GAN(生成式对抗网络Generative Adversarial Networks)可以通过学习训练得出上述历史特征数据的结构,当将移动终端的当前特征数据输入该网络中时,如果判断跟上述历史特征数据是同一类数据,则认为用户有使用人脸识别的需求,此时需要执行人脸识别,然后自动触发人脸识别;如果判断跟上述历史特征数据不是同一类数据,则认为用户没有使用人脸识别的需求,此时不需要执行人脸识别。
GAN包括一个生成器G(Generator)和一个判别器D(Discriminator)。生成器的目的是尽量去学习真实的数据分布,使得生成的数据尽可能接近真实数据;而判别器的目的是尽量正确判别输入数据是来自真实数据还是来自生成器。生成器和判别器需要不断通过数据进行训练优化,并在不断的相互对抗中提高生成能力和判别能力。当最终判别器的判别能力提升到一定程度,并且无法正确判别输入数据的来源时,可以认为这个生成器G已经学到了真实数据的分布,而此时判别器的判别能力也已经提升到一定极限。
任意可微分的函数都可以用来表示GAN的生成器和判别器,因此,可以用可微分函数D和G来分别表示判别器和生成器,它们的输入数据为真实数据x和噪声z。
上述真实数据x为上述历史特征信息;x~pdata(x)为历史特征信息的概率分布;上述z为噪声;z~pz(z)为噪声的概率分布;可以取均匀分布、高斯分布等。那么,D(x)为判别器针对输入x的输出;G(z)为生成器根据噪声z生成的噪声特征信息;D(G(z))为判别器针对输入G(z)的输出。
具体地,可以基于深度卷积神经网络来构造判别器D和生成器G。
判别器D可以为二分类模型,即当输入来自于上述历史特征信息x,D优化网络结构使自己输出D(x)为1;当输入来自于噪声特征信息G(z),D优化网络结构使自己输出D(G(z))为0。
GAN实际可以描述如下式:
其中,E为期望值;上述log的底数无影响。
上述等号后的和式第一项表征判别器D能够区分历史特征信息的能力,后一项为判别器D能够识破生成器G生成的噪声特征信息的能力;因此上述和式为判别器D的性能函数;上述第二项为生成器G的性能函数。对于判别器D而言需要使上述判别器D的性能函数达到最大值;上述生成器则需要使上述生成器G的性能函数达到最小值。
因此,一般进行如下训练:
1、输入M个噪声z,由生成器G生成M个噪声特征信息G(zi),i=1~M;
2、获取M个历史特征信息x;
3、分别选取相同的N个噪声特征信息和历史特征信息输入判别器D;为使上述判别器D的性能函数最大化,通过随机梯度下降法等修改上述判别器D的参数,完成一次判别器D的训练;进而完成K次判别器D的训练。
4、为使上述生成器G的性能函数最小化,修改上述生成器G的参数,完成一次生成器G的训练;
5、如此,循环步骤3、4,直到收敛。
上述K值可以按照实际情况选取,一般可以为4。
当然,本发明实施例可以应用其它GAN的改进网络,或者其它机器学习算法中。
步骤204:获取移动终端的当前状态信息。
步骤205:从上述当前状态信息中提取出当前特征信息。
参照上述步骤202中从上述历史状态信息中提取出历史特征信息的方式,这里不再赘述。
步骤206:将上述当前特征信息输入分类模型进行分类;上述分类模型通过机器学习得到。
本发明实施例通过收集移动终端执行人脸识别并验证通过时的移动终端的历史状态信息,利用机器学习算法对这些数据进行学习,建立分类模型,判断出哪些状态下用户有人脸识别功能的需求,进而不断优化和丰富自动触发人脸识别的条件以适应用户的使用习惯,从而避免了用户的额外操作,提升了用户体验。
在本发明实施例中,当上述分类模型基于聚类算法时,上述将上述当前特征信息输入分类模型进行分类的步骤206可以包括:
计算上述当前特征信息与任一簇的代表特征信息的相似度;
若上述相似度大于第一预设阈值,则将上述当前特征信息归为第一类。
当然,若上述相似度小于第一预设阈值,则将上述当前特征信息归为第二类。
在本发明实施例中,上述当前特征信息和上述代表特征信息可以为向量的形式,二者的相似度可以为二者的余弦值,当然也可以为其他形式。
例如参照上述示意性地聚类得到的分类模型,若当前特征信息A0与A6的余弦值大于第一预设阈值,则A0属于A6所在的第二簇,即属于一种模式的历史特征信息,则将A0归为第一类。若A0分别与A6、A3、A4的余弦值均小于第一预设阈值,则A0不属于上述三簇中的任一簇,则将A0归为第二类。上述第一预设阈值可以根据实际情况进行设置。
在本发明实施例中,当上述分类模型基于生成式对抗网络算法时,上述将上述当前特征信息输入分类模型进行分类的步骤206可以包括:
将上述当前特征信息输入上述判别器模型;
若上述判别器模型的输出结果大于第二预设阈值,则将上述当前特征信息归为第一类。
当然,若上述判别器模型的输出结果小于第二预设阈值,则将上述当前特征信息归为第二类。
示例性地,当判别器模型为二分类模型时,上述第二预设阈值可以为0.5;可以将上述当前特征信息A0输入判别器模型,根据判别器模型的输出是否大于0.5判断当前特征信息与之的历史特征信息是否为一类数据,即大于0.5说明为同一类数据,小于0.5说明不是同一类数据,等于0.5为无法判断;如果为同一类则说明该状态下用户很大可能需要使用人脸识别功能,此时自动触发人脸识别。
步骤207:若上述当前特征信息归为第一类,则确定需要执行人脸识别。
在本发明实施例中,因为在移动终端执行人脸识别之前,移动终端的状态信息可能是多种多样的,难以通过一种固定的规则来根据移动终端当前状态信息确定用户当前是否具有人脸识别功能的需求。因此在本发明实施例中,通过机器学习的方式构建分类模型,对移动终端的当前状态信息进行分类,可以将当前状态信息分为第一类,即需要执行人脸识别,自动触发人脸识别;或者分为第二类,即不需要执行人脸识别。
步骤208:当确定需要执行人脸识别时,启动上述移动终端的摄像头,通过上述摄像头采集人脸信息,并对上述人脸信息进行验证。
可选地,还包括:若上述当前特征信息未归为第一类,则确定不需要执行人脸识别。
进一步地,还包括:
当在预设时间内检测到上述移动终端执行人脸识别并验证通过时,获取上述移动终端的异常历史状态信息;
根据上述异常历史状态信息,更新上述分类模型。
当移动终端将当前特征信息未归为第一类,确定不需要执行人脸识别之后,如果在预设时间内检测到上述移动终端执行人脸识别并验证通过,则意味着上述移动终端的合法用户在需要进行人脸识别时,上述分类模型未能识别出用户的准确意图,导致用户需要主动触发人脸识别的额外操作,例如按压电源键、点击触发人脸识别的虚拟按键等。因此对于上述异常情形,需要获取上述移动终端的异常历史状态信息对上述分类模型进行更新,以在使用过程中对上述分类模型进行不断优化。
当上述移动终端应用于场景时,上述获取移动终端的当前状态信息的步骤204可以包括:在检测到移动终端处于锁定状态时,获取上述移动终端的当前状态信息;上述方法还包括:若上述人脸信息验证通过,则解锁上述移动终端。
可以理解的是,上述历史状态信息为:在检测到按压电源键的操作,进而启动上述移动终端的摄像头进行人脸识别并解锁成功时,上述移动终端的历史状态信息。
在本发明实施例的移动终端解锁场景中,无需用户按压电源键点亮屏幕的额外操作,即可自动触发并执行人脸识别;同时因为触发条件为移动终端处于锁定状态时的当前状态信息,因此触发条件存在多种,可以根据用户习惯更改触发条件,提高了用户的操作体验。
在本发明实施例中,通过收集移动终端执行人脸识别并验证通过时的移动终端的历史状态信息,利用机器学习算法对这些数据进行学习,建立分类模型,判断出哪些状态下用户有人脸识别的需求,进而不断优化和丰富触发人脸识别的条件以适应用户的使用习惯,从而避免了用户的额外操作,提升了用户体验;同时,还可以在使用过程中对上述分类模型进行不断优化。
【装置实施例三】
参照图3所示,本发明实施例提供了一种移动终端,包括摄像头,上述移动终端还可以包括:
当前状态获取模块301,用于获取移动终端的当前状态信息;
人脸识别判断模块302,用于根据上述当前状态信息以及上述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别;
第一执行模块303,用于当确定需要执行人脸识别时,启动上述移动终端的摄像头,通过上述摄像头采集人脸信息,并对上述人脸信息进行验证。
参照图4所示,在上述图3的基础上,可选地,上述人脸识别判断模块302可以包括:
当前特征提取单元3021,用于从上述当前状态信息中提取出当前特征信息;
分类模型单元3022,用于将上述当前特征信息输入分类模型进行分类;上述分类模型通过机器学习上述移动终端执行人脸识别时的历史状态信息得到;
人脸识别判断单元3023,用于若上述当前特征信息归为第一类,则确定需要执行人脸识别。
进一步地,上述移动终端还可以包括:
历史状态获取模块304,用于在检测到上述移动终端执行人脸识别并验证通过时,获取上述移动终端的历史状态信息;
历史特征提取模块305,用于从上述历史状态信息中提取出历史特征信息;
分类模型建立模块306,用于对上述历史特征信息进行机器学习,建立分类模型。
更进一步地,上述分类模型建立模块306可以包括:
聚类单元,用于对上述历史特征信息进行聚类;
第一分类模型建立单元,用于根据聚类结果建立分类模型;上述分类模型包括每一簇的代表特征信息。
再更进一步地,上述分类模型单元3022可以包括:
相似度计算子单元,用于计算上述当前特征信息与任一簇的代表特征信息的相似度;
第一分类子单元,用于若上述相似度大于第一预设阈值,则将上述当前特征信息归为第一类。
更进一步地,上述分类模型建立模块306可以包括:
模型构造单元,用于构造生成式对抗网络模型的判别器模型和生成器模型;
噪声特征生成单元,用于由上述生成器模型根据输入噪声生成噪声特征信息;
训练单元,用于根据上述历史特征信息和上述噪声特征信息,对上述判别器模型和上述生成器模型进行训练;
第二分类模型建立单元,用于将训练好的判别器模型作为分类模型。
再更进一步地,上述分类模型单元3022可以包括:
判别器单元,用于将上述当前特征信息输入上述判别器模型;
第二分类子单元,用于若上述判别器模型的输出结果大于第二预设阈值,则将上述当前特征信息归为第一类。
更进一步地,上述历史状态信息包括在检测到上述移动终端执行人脸识别并验证通过之前上述移动终端的第一历史状态信息;上述第一历史状态信息包括以下内容中的至少一种:
握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离、时间信息、位置信息和光线强度。
再更进一步地,上述历史状态信息还包括在检测到上述验证通过之后上述移动终端的第二历史状态信息;上述当前特征提取单元3021可以包括:
当前特征提取子单元,用于根据预置的第二历史状态信息和历史特征信息的对应关系,获取与上述第二历史状态信息对应的历史特征信息。
进一步地,上述移动终端还可以包括:
第二执行模块,用于若上述当前特征信息未归为第一类,则确定不需要执行人脸识别。
更进一步地,上述移动终端还可以包括:
异常信息获取模块,用于当在预设时间内检测到上述移动终端执行人脸识别并验证通过时,获取上述移动终端的异常历史状态信息;
分类模型更新模块,用于根据上述异常历史状态信息,更新上述分类模型。
可选地,上述当前状态获取模块301可以包括:锁定状态获取单元,用于在检测到移动终端处于锁定状态时,获取上述移动终端的当前状态信息;上述移动终端还可以包括:解锁模块,用于若上述人脸信息验证通过,则解锁上述移动终端。
上述移动终端能够实现图1至图2的方法实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
在本发明实施例中,通过收集移动终端执行人脸识别并验证通过时的移动终端的历史状态信息,利用机器学习算法对这些数据进行学习,建立分类模型,判断出哪些状态下用户有人脸识别的需求,进而不断优化和丰富触发人脸识别的条件以适应用户的使用习惯,从而避免了用户的额外操作,提升了用户体验;同时,还可以在使用过程中对上述分类模型进行不断优化。
【装置实施例四】
图5是本发明另一个实施例的移动终端的框图。图5所示的移动终端500包括:至少一个处理器501、存储器502、至少一个网络接口504、其他用户接口503和摄像头506。移动终端500中的各个组件通过总线系统505耦合在一起。可理解,总线系统505用于实现这些组件之间的连接通信。总线系统505除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图5中将各种总线都标为总线系统505。
其中,用户接口503可以包括显示器、键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。
可以理解,本发明实施例中的存储器502可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data RateSDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synch Link DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DRRAM)。本发明实施例描述的系统和方法的存储器502旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器502存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作系统5021和应用程序5022。
其中,操作系统5021,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序5022,包含各种应用程序,例如媒体播放器(Media Player)、浏览器(Browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序5022中。
在本发明实施例中,通过调用存储器502存储的程序或指令,具体的,可以是应用程序5022中存储的程序或指令,处理器501用于获取移动终端的当前状态信息;根据上述当前状态信息以及上述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别;当确定需要执行人脸识别时,启动上述移动终端的摄像头,通过上述摄像头采集人脸信息,并对上述人脸信息进行验证。
上述本发明实施例揭示的方法可以应用于处理器501中,或者由处理器501实现。处理器501可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器501中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器501可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器502,处理器501读取存储器502中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本发明实施例描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(Application Specific Integrated Circuits,ASIC)、数字信号处理器(Digital SignalProcessing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(ProgrammableLogic Device,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请上述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本发明实施例上述功能的模块(例如过程、函数等)来实现本发明实施例上述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
可选地,处理器501还用于:从上述当前状态信息中提取出当前特征信息;将上述当前特征信息输入分类模型进行分类;上述分类模型通过机器学习上述移动终端执行人脸识别时的历史状态信息得到;若上述当前特征信息归为第一类,则确定需要执行人脸识别。
进一步地,处理器501还用于:在检测到上述移动终端执行人脸识别并验证通过时,获取上述移动终端的历史状态信息;从上述历史状态信息中提取出历史特征信息;对上述历史特征信息进行机器学习,建立分类模型。
更进一步地,上述历史状态信息包括在检测到上述移动终端执行人脸识别并验证通过之前上述移动终端的第一历史状态信息;上述第一历史状态信息包括以下内容中的至少一种:握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离、时间信息、位置信息和光线强度。
再更进一步地,上述历史状态信息还包括在检测到上述验证通过之后上述移动终端的第二历史状态信息,处理器501还用于:根据预置的第二历史状态信息和历史特征信息的对应关系,获取与上述第二历史状态信息对应的历史特征信息。
移动终端500能够实现前述实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
在本发明实施例中,通过收集移动终端执行人脸识别并验证通过时的移动终端的历史状态信息,利用机器学习算法对这些数据进行学习,建立分类模型,判断出哪些状态下用户有人脸识别的需求,进而不断优化和丰富触发人脸识别的条件以适应用户的使用习惯,从而避免了用户的额外操作,提升了用户体验;同时,还可以在使用过程中对上述分类模型进行不断优化。
【装置实施例五】
图6是本发明另一个实施例的移动终端的结构示意图。具体地,图6中的移动终端600可以为手机、平板电脑、个人数字助理(Personal Digital Assistant,PDA)、或车载电脑等。
图6中的移动终端600包括射频(Radio Frequency,RF)电路610、存储器620、输入单元630、显示单元640、处理器660、音频电路670、WiFi(Wireless Fidelity)模块680、电源690和摄像头650。
其中,输入单元630可用于接收用户输入的数字或字符信息,以及产生与移动终端600的用户设置以及功能控制有关的信号输入。具体地,本发明实施例中,该输入单元630可以包括触控面板631。触控面板631,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板631上的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板631可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给该处理器660,并能接收处理器660发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板631。除了触控面板631,输入单元630还可以包括其他输入设备632,其他输入设备632可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
其中,显示单元640可用于显示由用户输入的信息或提供给用户的信息以及移动终端600的各种菜单界面。显示单元640可包括显示面板641,可选的,可以采用LCD或有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板641。
应注意,触控面板631可以覆盖显示面板641,形成触摸显示屏,当该触摸显示屏检测到在其上或附近的触摸操作后,传送给处理器660以确定触摸事件的类型,随后处理器660根据触摸事件的类型在触摸显示屏上提供相应的视觉输出。
触摸显示屏包括应用程序界面显示区及常用控件显示区。该应用程序界面显示区及该常用控件显示区的排列方式并不限定,可以为上下排列、左右排列等可以区分两个显示区的排列方式。该应用程序界面显示区可以用于显示应用程序的界面。每一个界面可以包含至少一个应用程序的图标和/或widget桌面控件等界面元素。该应用程序界面显示区也可以为不包含任何内容的空界面。该常用控件显示区用于显示使用率较高的控件,例如,设置按钮、界面编号、滚动条、电话本图标等应用程序图标等。
其中处理器660是移动终端600的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在第一存储器621内的软件程序和/或模块,以及调用存储在第二存储器622内的数据,执行移动终端600的各种功能和处理数据,从而对移动终端600进行整体监控。可选的,处理器660可包括一个或多个处理单元。
在本发明实施例中,通过调用存储该第一存储器621内的软件程序和/或模块和/或该第二存储器622内的数据,处理器660用于获取移动终端的当前状态信息;根据上述当前状态信息以及上述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别;当确定需要执行人脸识别时,启动上述移动终端的摄像头,通过上述摄像头采集人脸信息,并对上述人脸信息进行验证。
可选地,处理器660还用于:从上述当前状态信息中提取出当前特征信息;将上述当前特征信息输入分类模型进行分类;上述分类模型通过机器学习上述移动终端执行人脸识别时的历史状态信息得到;若上述当前特征信息归为第一类,则确定需要执行人脸识别。
进一步地,处理器660还用于:在检测到上述移动终端执行人脸识别并验证通过时,获取上述移动终端的历史状态信息;从上述历史状态信息中提取出历史特征信息;对上述历史特征信息进行机器学习,建立分类模型。
更进一步地,上述历史状态信息包括在检测到上述移动终端执行人脸识别并验证通过之前上述移动终端的第一历史状态信息;上述第一历史状态信息包括以下内容中的至少一种:握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离、时间信息、位置信息和光线强度。
再更进一步地,上述历史状态信息还包括在检测到上述验证通过之后上述移动终端的第二历史状态信息,处理器660还用于:根据预置的第二历史状态信息和历史特征信息的对应关系,获取与上述第二历史状态信息对应的历史特征信息。
可见,在本发明实施例中,通过收集移动终端执行人脸识别并验证通过时的移动终端的历史状态信息,利用机器学习算法对这些数据进行学习,建立分类模型,判断出哪些状态下用户有人脸识别的需求,进而不断优化和丰富触发人脸识别的条件以适应用户的使用习惯,从而避免了用户的额外操作,提升了用户体验;同时,还可以在使用过程中对上述分类模型进行不断优化。
优选的,本发明实施例还提供一种移动终端,包括处理器、存储器及存储在上述存储器上并可在上述处理器上运行的计算机程序,该计算机程序被上述处理器执行时实现上述人脸识别方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,上述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述人脸识别方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,上述的计算机可读存储介质,可以包括只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random AccessMemory,简称RAM)、磁碟或者光盘等。
本领域普通技术人员可以意识到,结合本发明实施例中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
上述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例上述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上上述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (12)
1.一种人脸识别方法,其特征在于,应用于移动终端,所述移动终端包括摄像头,所述方法包括:
获取移动终端的当前状态信息;
根据所述当前状态信息以及所述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别;
当确定需要执行人脸识别时,启动所述移动终端的摄像头,通过所述摄像头采集人脸信息,并对所述人脸信息进行验证;
其中,所述移动终端的当前状态信息包括握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离时间信息、光线强度、存在未读系统通知、存在未接来电中的至少一种;
其中,所述移动终端的历史状态信息包括以下内容中的至少一种:
握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离、时间信息、光线强度、接收到系统通知、检测到未接来电;
其中,所述历史状态信息为所述移动终端执行人脸识别并验证通过时采集的;
所述根据所述当前状态信息以及所述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别,包括:
计算所述当前状态信息与所述历史状态信息的相似度;
若所述相似度大于预设相似度阈值,则确定需要执行人脸识别;
其中,所述对所述人脸信息进行验证,包括:
对所述人脸信息进行预处理;
基于预处理后的所述人脸信息,提取统计特征和/或几何特征;
在所述统计特征和/或几何特征与预置的合法用户的人脸信息的统计特征和/或几何特征匹配的情况下,确定所述人脸信息通过验证;否则,确定所述人脸信息未通过验证。
2.根据权利要求1所述的方法,其特征在于,所述根据所述当前状态信息以及所述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别的步骤包括:
从所述当前状态信息中提取出当前特征信息;
将所述当前特征信息输入分类模型进行分类;所述分类模型通过机器学习所述移动终端执行人脸识别时的历史状态信息得到;
若所述当前特征信息归为第一类,则确定需要执行人脸识别。
3.根据权利要求2所述的方法,其特征在于,在所述获取移动终端的当前状态信息的步骤之前,还包括:
在检测到所述移动终端执行人脸识别并验证通过时,获取所述移动终端的历史状态信息;
从所述历史状态信息中提取出历史特征信息;
对所述历史特征信息进行机器学习,建立分类模型。
4.根据权利要求3所述的方法,其特征在于,所述历史状态信息包括在检测到所述移动终端执行人脸识别并验证通过之前所述移动终端的第一历史状态信息;所述第一历史状态信息包括以下内容中的至少一种:
握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离、时间信息、位置信息和光线强度。
5.根据权利要求4所述的方法,其特征在于,所述历史状态信息还包括在检测到所述验证通过之后所述移动终端的第二历史状态信息;所述从所述历史状态信息中提取出历史特征信息的步骤包括:
根据预置的第二历史状态信息和历史特征信息的对应关系,获取与所述第二历史状态信息对应的历史特征信息。
6.一种移动终端,包括摄像头,其特征在于,所述移动终端还包括:
当前状态获取模块,用于获取移动终端的当前状态信息;
人脸识别判断模块,用于根据所述当前状态信息以及所述移动终端执行人脸识别时的历史状态信息,判断是否需要执行人脸识别;
第一执行模块,用于当确定需要执行人脸识别时,启动所述移动终端的摄像头,通过所述摄像头采集人脸信息,并对所述人脸信息进行验证;
其中,所述移动终端的当前状态信息包括握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离时间信息、光线强度、存在未读系统通知、存在未接来电中的至少一种;
其中,所述移动终端的历史状态信息包括以下内容中的至少一种:
握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离、时间信息、光线强度、接收到系统通知、检测到未接来电;
其中,所述历史状态信息为所述移动终端执行人脸识别并验证通过时采集的;
其中,所述人脸识别判断模块,具体用于:
计算所述当前状态信息与所述历史状态信息的相似度;
若所述相似度大于预设相似度阈值,则确定需要执行人脸识别;
其中,所述第一执行模块,具体用于:
对所述人脸信息进行预处理;
基于预处理后的所述人脸信息,提取统计特征和/或几何特征;
在所述统计特征和/或几何特征与预置的合法用户的人脸信息的统计特征和/或几何特征匹配的情况下,确定所述人脸信息通过验证;否则,确定所述人脸信息未通过验证。
7.根据权利要求6所述的移动终端,其特征在于,所述人脸识别判断模块包括:
当前特征提取单元,用于从所述当前状态信息中提取出当前特征信息;
分类模型单元,用于将所述当前特征信息输入分类模型进行分类;所述分类模型通过机器学习所述移动终端执行人脸识别时的历史状态信息得到;
人脸识别判断单元,用于若所述当前特征信息归为第一类,则确定需要执行人脸识别。
8.根据权利要求7所述的移动终端,其特征在于,还包括:
历史状态获取模块,用于在检测到所述移动终端执行人脸识别并验证通过时,获取所述移动终端的历史状态信息;
历史特征提取模块,用于从所述历史状态信息中提取出历史特征信息;
分类模型建立模块,用于对所述历史特征信息进行机器学习,建立分类模型。
9.根据权利要求8所述的移动终端,其特征在于,所述历史状态信息包括在检测到所述移动终端执行人脸识别并验证通过之前所述移动终端的第一历史状态信息;所述第一历史状态信息包括以下内容中的至少一种:
握持方式、加速度、角速度、与水平面之间的角度、与人脸之间的距离、时间信息、位置信息和光线强度。
10.根据权利要求9所述的移动终端,其特征在于,所述历史状态信息还包括在检测到所述验证通过之后所述移动终端的第二历史状态信息;所述当前特征提取单元包括:
当前特征提取子单元,用于根据预置的第二历史状态信息和历史特征信息的对应关系,获取与所述第二历史状态信息对应的历史特征信息。
11.一种移动终端,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的人脸识别方法的步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的人脸识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710892696.7A CN107818251B (zh) | 2017-09-27 | 2017-09-27 | 一种人脸识别方法及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710892696.7A CN107818251B (zh) | 2017-09-27 | 2017-09-27 | 一种人脸识别方法及移动终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107818251A CN107818251A (zh) | 2018-03-20 |
CN107818251B true CN107818251B (zh) | 2021-03-23 |
Family
ID=61607250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710892696.7A Active CN107818251B (zh) | 2017-09-27 | 2017-09-27 | 一种人脸识别方法及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107818251B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108595927B (zh) * | 2018-04-04 | 2023-09-19 | 北京市商汤科技开发有限公司 | 身份认证、解锁及支付方法、装置、存储介质、产品和设备 |
CN108769514A (zh) * | 2018-05-17 | 2018-11-06 | Oppo广东移动通信有限公司 | 摄像头控制方法、装置、电子装置以及存储介质 |
CN109067944B (zh) * | 2018-08-22 | 2020-08-25 | Oppo广东移动通信有限公司 | 终端控制方法、装置、移动终端以及存储介质 |
JP7203955B2 (ja) * | 2018-08-28 | 2023-01-13 | 華為技術有限公司 | 顔認識方法および装置 |
CN109793491B (zh) * | 2018-12-29 | 2021-11-23 | 维沃移动通信有限公司 | 一种用于色盲检测的终端设备 |
CN110334559B (zh) * | 2019-05-31 | 2024-03-15 | 努比亚技术有限公司 | 一种扫码识别方法、终端及计算机可读存储介质 |
CN110795708A (zh) * | 2019-10-25 | 2020-02-14 | 支付宝(杭州)信息技术有限公司 | 一种安全认证方法及相关装置 |
CN113535015B (zh) * | 2020-04-17 | 2024-10-18 | 北京搜狗科技发展有限公司 | 一种信息推荐方法、装置和电子设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9344414B2 (en) * | 2013-02-01 | 2016-05-17 | Interman Corporation | User similarity provision method |
US9684775B2 (en) * | 2014-10-15 | 2017-06-20 | Qualcomm Incorporated | Methods and systems for using behavioral analysis towards efficient continuous authentication |
CN105354706A (zh) * | 2015-10-08 | 2016-02-24 | 广东欧珀移动通信有限公司 | Nfc安全支付方法和系统 |
CN105978891B (zh) * | 2016-06-24 | 2019-08-30 | 宁波市由乐讯通讯科技有限公司 | 一种改进型无线通信过程中身份验证方法及系统 |
CN106384027A (zh) * | 2016-09-05 | 2017-02-08 | 四川长虹电器股份有限公司 | 用户身份识别系统及其识别方法 |
CN106548154A (zh) * | 2016-10-28 | 2017-03-29 | 努比亚技术有限公司 | 一种实现指纹识别的方法及装置 |
KR102640423B1 (ko) * | 2017-01-31 | 2024-02-26 | 삼성전자주식회사 | 음성 입력 처리 방법, 이를 지원하는 전자 장치, 및 시스템 |
CN107153887A (zh) * | 2017-04-14 | 2017-09-12 | 华南理工大学 | 一种基于卷积神经网络的移动用户行为预测方法 |
-
2017
- 2017-09-27 CN CN201710892696.7A patent/CN107818251B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107818251A (zh) | 2018-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107818251B (zh) | 一种人脸识别方法及移动终端 | |
CN105279405B (zh) | 触屏用户按键行为模式构建与分析系统及其身份识别方法 | |
US9659158B2 (en) | Technologies for determining confidence of user authentication | |
JP6397036B2 (ja) | 動的なキーボードおよびタッチスクリーンのバイオメトリクス | |
EP3482331B1 (en) | Obscuring data when gathering behavioral data | |
CN106778141B (zh) | 基于手势识别的解锁方法、装置及移动终端 | |
US9336374B2 (en) | Method, module, and computer program product for identifying user of mobile device | |
US9336373B2 (en) | User biometric pattern learning and prediction | |
CN103927466A (zh) | 移动终端的控制方法和装置 | |
EP3595242B1 (en) | Method and device for identity authentication | |
CN104769601B (zh) | 识别用户身份的方法及电子设备 | |
KR20140136529A (ko) | 휴대용 전자 디바이스에 대한 위치-기반 액세스 제어 | |
CN106228054A (zh) | 身份验证方法和装置 | |
JP2018532181A (ja) | セグメントベース手書き署名認証システム及び方法 | |
KR20150049075A (ko) | 사용자 인증 방법 및 이를 수행하는 장치 | |
CN113515987A (zh) | 掌纹识别方法、装置、计算机设备及存储介质 | |
EP3906499B1 (en) | User authentication using pose-based facial recognition | |
Lee et al. | A parameterized model to select discriminating features on keystroke dynamics authentication on smartphones | |
CN109254661B (zh) | 图像显示方法、装置、存储介质及电子设备 | |
US20150234473A1 (en) | Methods and Systems for Commencing A Process Based on Motion Detection | |
CN106470192B (zh) | 身份验证方法、装置及系统 | |
WO2020151315A1 (zh) | 人脸识别融合模型的生成方法和装置 | |
CN114547581A (zh) | 提供验证码系统的方法和设备 | |
CN111684762A (zh) | 管理终端设备方法和终端设备 | |
CN107516024B (zh) | 解锁电子设备的方法、装置、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |