CN112700568A - 一种身份认证的方法、设备及计算机可读存储介质 - Google Patents
一种身份认证的方法、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112700568A CN112700568A CN202011581613.0A CN202011581613A CN112700568A CN 112700568 A CN112700568 A CN 112700568A CN 202011581613 A CN202011581613 A CN 202011581613A CN 112700568 A CN112700568 A CN 112700568A
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- preset
- analyzed
- acquisition device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000004458 analytical method Methods 0.000 claims abstract description 28
- 230000001815 facial effect Effects 0.000 claims description 38
- 238000001514 detection method Methods 0.000 claims description 27
- 230000002618 waking effect Effects 0.000 abstract 2
- 239000011159 matrix material Substances 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 14
- 238000013136 deep learning model Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000013139 quantization Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000013140 knowledge distillation Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000002035 prolonged effect Effects 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 239000002699 waste material Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229910052754 neon Inorganic materials 0.000 description 1
- GKAOGPIIYCISHV-UHFFFAOYSA-N neon atom Chemical compound [Ne] GKAOGPIIYCISHV-UHFFFAOYSA-N 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
- G07C9/00563—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请公开了一种身份认证的方法、设备及计算机可读存储介质,其中,该方法包括:利用图像采集装置对预设范围内的目标对象进行图像采集,得到待分析图像;对待分析图像进行意图分析,以确定目标对象是否存在身份认证的意图;若目标对象存在身份认证的意图,则对目标对象进行身份认证。通过上述方式,本申请能够提升身份识别设备唤醒的准确率。
Description
技术领域
本申请涉及信息认证技术领域,特别是涉及一种身份认证的方法、设备及计算机可读存储介质。
背景技术
随着科技的发展,门禁系统作为对出入口通道进行管制的系统得到了广泛的应用。
目前的门禁系统技术中的意图判断基本上都是基于硬件层面进行的,例如,通过红外的触发功能,判断是否有目标靠近门禁设备,从而控制门禁的相关响应,但是,这样的意图判断的精度往往不高,门禁设备往往会被无效唤醒,进行无效的人脸识别操作。
发明内容
本申请实施例第一方面提供了一种身份认证的方法,包括:利用图像采集装置对预设范围内的目标对象进行图像采集,得到待分析图像;对待分析图像进行意图分析,以确定目标对象是否存在身份认证的意图;若目标对象存在身份认证的意图,则对目标对象进行身份认证。
本申请实施例第二方面提供了一种身份识别设备,该身份识别设备包括图像采集装置、处理器以及与处理器连接的存储器,图像采集装置用于对目标对象进行图像采集,存储器用于存储程序数据,处理器用于执行程序数据以实现前述的方法。
本申请实施例第三方面提供了一种计算机可读存储介质,该计算机可读存储介质中存储有程序数据,程序数据在被处理器执行时,用以实现前述的方法。
本申请的有益效果是:区别于现有技术的情况,本申请通过利用图像采集装置对预设范围内的目标对象进行图像采集,得到待分析图像,然后对待分析图像进行意图分析,以确定目标对象是否存在身份认证的意图,在确定目标对象存在身份认证的意图之后,身份识别设备才对目标对象进行身份认证,其中,通过对待分析图像进行意图分析能够提升意图判断的精度,从而可以减少身份识别设备的无效唤醒,提升身份识别设备唤醒的准确率,进而可以减少进行身份认证导致的系统资源浪费和硬件寿命损耗。
附图说明
为了更清楚地说明本申请中的技术方案,下面将对实施例描述中所需要的附图作简单的介绍,显而易见地,下面描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来说,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请提供的身份认证的方法一实施例的流程示意图;
图2是本申请提供的身份认证的方法另一实施例的流程示意图;
图3是本申请提供的身份认证的方法中步骤S26的一实施例的流程示意图;
图4是本申请提供的身份认证的方法中步骤S361的一实施例的流程示意图;
图5是本申请提供的身份认证的方法中步骤S362的一实施例的流程示意图;
图6是本申请提供的身份认证的方法中步骤S3621的一实施例的流程示意图;
图7是本申请提供的身份认证的方法中目标对象的视线与预设区域相交的示意图;
图8是本申请提供的身份认证的方法中步骤S27的一实施例的流程示意图;
图9是本申请提供的身份识别设备一实施例的框架示意图;
图10是本申请提供的计算机存储介质一实施例的框架示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中的术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
目前,基于硬件层面的意图判断的精度往往较低,所以门禁设备往往会被无效唤醒,然后进行无效的人脸识别操作。由此,一方面,会造成系统资源的浪费和硬件寿命的消耗;另一方面,门禁设备的一个重要功能是留痕,即将进行门禁认证的目标对象的图像进行保存,以留存进行重要事件的回溯,那么如果设备被无效唤醒,就会存储或者发送很多无效的数据,从而对数据存储以及传输带来压力,并造成了成本的浪费。
请参阅图1,图1是本申请提供的身份认证的方法一实施例的流程示意图。本申请的实施例中,执行主体可以是身份识别设备,具体可以是门禁设备。
该方法可以包括以下步骤:
步骤S11:利用图像采集装置对预设范围内的目标对象进行图像采集,得到待分析图像。
其中,图像采集装置用于采集预设范围内的图像。预设范围可以为图像采集装置的最大采集范围,或者为小于图像采集装置的最大采集范围的任意范围,具体可以根据实际情况进行设置,此处不做限制。在一些实施方式中,预设范围为0~10米,例如1米、5米、8米。
可以理解的,目标对象不限于为人,还可以为其他生物或非生物。
在一些实施方式中,身份识别设备可以在触发条件下利用图像采集装置对预设范围内的目标对象进行图像采集。例如,可以在采集到人声或目标关键词时,触发身份识别设备进行图像采集。
在一些实施方式中,身份识别设备可以定时或每隔预设时间间隔利用图像采集装置对预设范围内的目标对象进行图像采集。例如,身份识别设备可以设定每天晚上6点至9点进行图像采集,或者可以每隔一分钟进行一次图像采集。
步骤S12:对待分析图像进行意图分析,以确定目标对象是否存在身份认证的意图。
可选地,身份识别设备可以对至少一张待分析图像进行意图分析。在一些实施方式中,身份识别设备可以同时采集多张待分析图像进行意图分析,其中,多张待分析图像可以由不同的摄像头进行采集。在另一些实施方式中,身份识别设备可以分时采集多张待分析图像进行意图分析,其中,多张待分析图像可以由同一摄像头进行采集,或者可以由不同的摄像头进行采集。
本实施例中,身份识别设备通过对待分析图像进行意图分析,可以确定待分析图像中的目标对象是否存在身份认证的意图。
步骤S13:若目标对象存在身份认证的意图,则对目标对象进行身份认证。
可以理解的,若目标对象不存在身份认证的意图,则可以不对目标对象进行身份认证。
本实施例中,通过利用图像采集装置对预设范围内的目标对象进行图像采集,得到待分析图像,然后对待分析图像进行意图分析,以确定目标对象是否存在身份认证的意图,在确定目标对象存在身份认证的意图之后,身份识别设备才对目标对象进行身份认证,其中,通过对待分析图像进行意图分析能够提升意图判断的精度,从而可以减少身份识别设备的无效唤醒,提升身份识别设备唤醒的准确率,进而可以减少进行身份认证导致的系统资源浪费和硬件寿命损耗。
另外,设备在唤醒后,需要将进行身份认证过程中的相关数据进行存储或发送,通过意图识别减少了设备的无效唤醒次数,从而可以避免存储和发送很多无效的数据,进而可以减轻存储以及传输的压力,节约成本。
请参阅图2,图2是本申请提供的身份认证的方法另一实施例的流程示意图。
本实施例中,在步骤S23之前还包括步骤S21和步骤S22,其中,步骤S21和步骤S22是步骤S23的触发条件,步骤S21和步骤S22无固定的先后执行关系,可同时执行或单独执行。
该方法可以包括以下步骤:
步骤S21:利用声音采集装置检测在预设范围内是否存在目标声源。
若是,则执行步骤S23。
否则,则继续执行步骤S21。
其中,声音采集装置用于采集声源,并检测在预设范围内是否存在目标声源。可选地,声音采集装置可以是为包含多个麦克风的麦克风阵列(Microphone Array),可以用来对声场的空间特性进行采样和处理。
预设范围可以为声音采集装置的最大采集范围,或者为小于声音采集装置的最大采集范围的任意范围,具体可以根据实际情况进行设置,此处不做限制。此处,声音采集装置的预设范围可以与图像采集装置的预设范围相同,也可以不同。
在一些实施方式中,步骤S21可以是身份识别设备利用声音采集装置采集得到目标声源,并对目标声源进行定位;基于定位结果,检测目标声源是否在预设范围内。
具体地,身份识别设备可以利用麦克风阵列对预设范围内的目标声源进行采集,得到目标声源,并对目标声源进行定位。
在一些实施方式中,可以以麦克风阵列中心为原点构建麦克风阵列的三维坐标系;确定目标声源到达不同麦克风的时延差;根据目标声源到达不同麦克风的时延差,得到目标声源到达不同麦克风的距离差;利用距离差和麦克风阵列的空间位置,得到目标声源在麦克风阵列的三维坐标系下的空间坐标。
其中,可以采用TDOA方法对目标声源进行定位。TDOA方法分为TDOA估计和TDOA定位两步。TDOA估计是使用广义互相关GCC(Generalized Cross Correlation)的方法来,来进行延时的估计。TDOA定位是根据TDOA估值进行声源定位,三颗麦克风阵列可以确定空间声源位置,增加麦克风的数量可以增高数据的精度。其中,定位的方法有MLE最大似然估计、最小方差、球形差值和线性相交等。
步骤S22:判断当前时间是否达到预设时间周期。
若是,则执行步骤S23。
否则,则继续执行步骤S22。
其中,预设时间周期不限于包括1分钟、1小时和1天,可以根据实际情况进行设置,此处不做限定。
若当前时间达到预设时间周期,则利用图像采集装置对预设范围内的目标对象进行图像采集,否则,则继续判断当前时间是否达到预设时间周期。
步骤S23:利用图像采集装置对预设范围内的目标对象进行图像采集。
具体地,身份识别设备可以在声音采集装置检测在预设范围内存在目标声源或者当前时间达到预设时间周期时,唤醒处于休眠状态的图像采集装置,以对预设范围内的目标对象进行图像采集。将图像采集装置设置为休眠状态,在满足触发条件时,再唤醒处于休眠状态的图像采集装置,以对预设范围内的目标对象进行图像采集,可以避免图像采集装置长时间工作,从而可以降低图像采集装置的功耗,延长图像采集装置的寿命,且避免了后续的处理,对处理器的占用率要求较低。
本实施例中,图像采集装置可以包括近红外摄像头(ir摄像头)和彩色摄像头。其中,彩色摄像头具体可以为可见光摄像头(rgb摄像头)。
其中,在光照较弱的环境下,基于近红外摄像头可在光照较弱的环境下成像的特点,图像采集装置可以采用近红外摄像头对预设范围内的目标对象进行图像采集,得到待分析图像;在光照充足的环境下图像采集装置可以采用近红外摄像头和彩色摄像头同时对预设范围内的目标对象进行图像采集,得到待分析图像。
若采用近红外摄像头和彩色摄像头同时进行图像采集,则可以并发利用近红外摄像头和彩色摄像头采集的图像进行意图分析,从而提升意图分析的速度。例如,可以利用近红外摄像头采集的待分析图像进行脸部检测和活体检测,利用彩色摄像头采集的待分析图像进行脸部检测、质量检测以及意图分析。
本实施例中,在对待分析图像进行意图分析之前,还可以包括步骤S24和步骤S25,以在确定待分析图像中存在人的脸部,且待分析图像是否满足第一预设质量要求时,再进行意图分析,以避免对无效的待分析图像进行分析,从而减少对处理器的无效占用。
步骤S24:对待分析图像进行脸部检测。
其中,脸部可以为人的脸部,具体可以为部分或完整的脸部。
具体地,可以采用预先建立的人脸检测模型对待分析图像进行脸部检测,具体可以参见相关技术,此处不再赘述。
这里,通过脸部检测可以筛选出存在脸部的待分析图像进行下面的基于脸部的意图判断,从而避免了对不存在脸部的无效待分析图像进行意图分析,从而减少对处理器的无效占用。
步骤S25:若检测到脸部,则确定待分析图像是否满足第一预设质量要求。
在确定待分析图像满足第一预设质量要求的情况下,执行步骤S26。
在确定待分析图像不满足第一预设质量要求的情况下,继续执行步骤S21和/或S22。
在其他实施例中,若检测到脸部,则可以直接执行步骤S26。
可选地,第一预设质量要求包括以下至少一种:
(1)待分析图像中的脸部的角度在预设角度范围内;
(2)待分析图像中的脸部与标准脸部之间的相似度满足预设相似度要求;
(3)待分析图像的亮度和色调的至少一者满足预设亮度和色调要求;
(4)待分析图像的模糊程度满足预设模糊要求。
对于第一种,身份识别设备可以对待分析图像中的脸部进行分析,以得到脸部的角度,然后判断待分析图像中的脸部的角度是否在预设角度范围内,其中,脸部的角度包括脸部相对于图像采集装置的偏航角、翻滚角和俯仰角中的至少一者。预设角度范围可以根据实际情况进行设置,此处不做限制,例如可以为正负30度范围内。
在一些实施方式中,判断待分析图像中的脸部的角度是否在预设角度范围内可以是判断脸部相对于图像采集装置的偏航角、翻滚角和俯仰角是否都位于正负30度范围内,若是,则确定待分析图像中的脸部的角度在预设角度范围内,否则,则确定待分析图像中的脸部的角度不在预设角度范围内。
对于第二种,身份识别设备可以基于标准脸部对待分析图像中的脸部进行相似度分析,以得到待分析图像中的脸部与标准脸部之间的相似度,并判断该相似度是否满足预设相似度要求。其中,标准脸部可以包括人的五官以及五官的相对位置关系。
可选地,身份识别设备可以为待分析图像中的脸部与标准脸部之间的相似度建立一套评分体系,以判断是否满足预设相似度要求。具体地,可以对待分析图像中的脸部与标准脸部之间的相似度进行打分,若相似度得分大于预设阈值thres1,则确定待分析图像中的脸部与标准脸部之间的相似度满足预设相似度要求,否则,则确定其不满足预设相似度要求。其中,相似度得分可以位于区间[0,1]之内。
在一些实施方式中,预设阈值thres1为0.8,若待分析图像中的脸部与标准脸部之间的相似度得分大于0.8,则可以确定待分析图像中的脸部与标准脸部之间的相似度满足预设相似度要求。
对于第三种,身份识别设备可以对待分析图像进行亮度和色调的分析,得到待分析图像的亮度和色调,并判断待分析图像的亮度和色调中的至少一者是否满足预设亮度和色调要求,以筛选出满足预设亮度和色调要求的待分析图像进行进一步的分析。另外,还可以对待分析图像的对比度、饱和度、曝光度和色偏进行分析。
可选地,身份识别设备待分析图像的亮度和色调建立一套评分体系,以判断待分析图像的亮度和色调是否满足预设亮度和色调要求。具体地,对待分析图像的亮度和色调进行打分,若亮度和色调的综合得分大于预设阈值thres2,则确定待分析图像的亮度和色调是否满足预设亮度和色调要求,否则,则确定其不满足预设亮度和色调要求。其中,亮度和色调得分可以位于区间[0,1]之内。可选地,亮度和色调得分可以通过MTCNN的O网络获得。
可选地,根据重要程度,可以为亮度、色调等参数设置对应的权重,对图像质量影响较大的参数的重要程度高,可以设置较大的权重值,反之,对图像质量影响较小的参数的重要程度低,可以设置较小的权重值。
在一些实施方式中,亮度的权重为0.6,色调的权重为0.4,预设阈值thres2为0.6,若待分析图像的亮度得分为0.8,色调得分为0.5,则待分析图像的亮度和色调的综合得分为0.6*0.8+0.4*0.5=0.52<0.6,则确定待分析图像的亮度和色调不满足预设亮度和色调要求。
对于第四种,身份识别设备可以对待分析图像进行分析,以得到待分析图像的模糊程度,并判断待分析图像的模糊程度是否满足预设模糊要求,以筛选出满足预设模糊要求的待分析图像进行进一步的分析。
其中,模糊程度的计算方法是高斯模糊->灰度化->拉普拉斯计算->绝对值(convertScaleAbs)->计算输出图像的方差,根据此方差来判断待分析图像的模糊程度。
可选地,身份识别设备可以为待分析图像的模糊程度建立一套评分体系,以判断待分析图像的模糊程度是否满足预设模糊要求。具体地,对待分析图像的模糊程度进行打分,若模糊程度的得分大于预设阈值thres3,则确定待分析图像的模糊程度满足预设模糊要求,否则,则确定其不满足预设模糊要求。
在一些实施方式中,预设阈值thres3为0.7,若待分析图像的模糊程度为0.75>0.7,则确定该待分析图像的模糊程度满足预设模糊要求。
在一些实施例中,第一预设质量要求可以包括上述四种情况,即身份识别设备判断待分析图像中的脸部的角度是否在预设角度范围内;若在预设角度范围内,进一步判断待分析图像中的脸部与标准脸部之间的相似度是否满足预设相似度要求;若满足预设相似度要求,则进一步判断待分析图像的亮度和色调的至少一者是否满足预设亮度和色调要求;若满足预设亮度和色调要求,则进一步判断待分析图像的模糊程度是否满足预设模糊要求,若满足预设模糊要求,则确定待分析图像满足第一预设质量要求,执行步骤S26,否则,执行步骤S21和/或S22。
步骤S26:对待分析图像进行意图分析,以确定目标对象是否存在身份认证的意图。
步骤S27:若目标对象存在身份认证的意图,则对目标对象进行身份认证。
本实施例中,在声音采集装置检测在预设范围内存在目标声源和/或判断当前时间达到预设时间周期时,再执行利用图像采集装置对预设范围内的目标对象进行图像采集的步骤,可以避免图像采集装置长时间工作,从而可以降低图像采集装置的功耗,延长图像采集装置的寿命,且避免了后续的处理,对处理器的占用率要求较低。
进一步,身份识别设备通过对采集的待分析图像进行脸部检测,以筛选出具有脸部的待分析图像进行后续操作,从而可以避免待分析图像进行无效的意图分析,进而减少对处理器的无效占用。
进一步,身份识别设备在检测到脸部之后,可以检测待分析图像是否满足第一预设质量要求,以筛选出满足第一预设质量要求进行后续操作,从而可以避免待分析图像进行无效的意图分析,进而减少对处理器的无效占用。
请参阅图3至图7,图3是本申请提供的身份认证的方法中步骤S26的一实施例的流程示意图,图4是本申请提供的身份认证的方法中步骤S361的一实施例的流程示意图,图5是本申请提供的身份认证的方法中步骤S362的一实施例的流程示意图,图6是本申请提供的身份认证的方法中步骤S3621的一实施例的流程示意图,图7是本申请提供的身份认证的方法中目标对象视线与预设区域相交的示意图。
如图3所示,在本实施例中,步骤S26可以包括子步骤S361、S362和S363。
步骤S361:利用待分析图像确定目标对象与图像采集装置之间的位置关系,并检测位置关系是否满足预设位置要求。
如图4所示,在一些实施方式中,步骤S361可以包括子步骤S3611、S3612和S3613。其中,利用待分析图像确定目标对象与图像采集装置之间的位置关系可以包括步骤S3611和S3612,检测位置关系是否满足预设位置要求可以包括步骤S3613。
步骤S3611:基于待分析图像,得到目标对象的脸部三维特征点模型。
其中,身份识别设备可以对待分析图像进行脸部特征点检测,得到若干脸部二维特征点;利用若干脸部二维特征点、标准三维脸部的若干三维特征点以及图像采集装置的标定参数(又称为内参),得到目标对象的脸部三维特征点模型。
具体地,可以结合若干脸部二维特征点、标准三维脸部的若干三维特征点以及图像采集装置的标定参数,利用PNP算法通过多对3D与2D特征点,在已知图像采集装置内参的情况下,利用最小化重投影误差来求解图像采集装置外参的算法,即获取到旋转矩阵R和旋转向量T,利用R和T,变换标准3D人脸关键点,包括眼部在内的68关键点的3D坐标,从而生成目标对象的脸部的3D特征点模型。
步骤S3612:基于脸部三维特征点模型,确定目标对象的预设脸部位置点与图像采集装置之间的位置关系。
其中,步骤S3612包括:基于脸部三维特征点模型,确定目标点在图像采集装置对应的坐标系上的第一空间坐标,其中,目标点为预设脸部位置点。
具体地,身份识别设备可以利用生成的脸部三维特征点模型,计算出目标对象的预设脸部位置点在图像采集装置所在坐标系的第一空间坐标从而利用第一空间坐标与图像采集装置坐标的距离,计算出目标对象的预设脸部位置点相对于图像采集装置的实际位置。
可选地,预设脸部位置点可以为脸部的中心点,或者瞳孔的之间的中心点。其中,脸部的中心点和瞳孔的之间的中心点能够更大程度的代表目标对象的脸部,从而能够提升意图判断的准确度。另外,预设脸部位置点也可以为瞳孔中心点,此处不做限定。
步骤S3613:基于位置关系,检测预设脸部位置点与图像采集装置之间的距离是否低于预设距离阈值。
进一步,身份识别设备可以基于目标对象的预设脸部位置点与图像采集装置之间的位置关系,检测预设脸部位置点与图像采集装置之间的距离是否低于预设距离阈值,若是,则确定目标对象与图像采集装置之间的位置关系满足预设位置要求,否则,则确定目标对象与图像采集装置之间的位置关系不满足预设位置要求。
其中,预设距离阈值可以根据实际情况进行设置,此处不做限定,例如为1米、3米或10米。
步骤S362:若满足预设位置要求,则利用至少一帧待分析图像确定目标对象在预设时间内的视线,并检测在预设时间内的视线是否均注视在预设区域内。
在满足预设位置要求之后,身份识别设备可以进一步确定目标对象在预设时间内的视线是否均注视在预设区域内。
如图5所示,在一些实施方式中,步骤S362可以包括子步骤S3621、S3622、S3623和步骤S3624。其中,利用至少一帧待分析图像确定目标对象在预设时间内的视线可以包括步骤S3621和S3622,检测在预设时间内的视线是否均注视在预设区域内可以包括步骤S3623和步骤S3624。
步骤S3621:对于每帧待分析图像,利用待分析图像确定目标对象的视线方向和视线原点所在的位置。
如图6所示,其中,步骤S3621可以包括子步骤S36211、S36212和S36213。
步骤S36211:利用视线方向检测模型对待分析图像进行检测,得到目标对象的视线方向。
其中,在步骤S36211之前,还可以对输入的待分析图像进行脸部检测及标定,标定即将脸部的关键点进行标记;然后结合图像采集装置的标定参数对待分析图像进行图像预处理,以对待分析图像进行校正,然后再利用视线方向检测模型对待分析图像进行检测。
在一些实施方式中,可以通过对目标对象进行头部姿态估计,根据目标对象的头部姿态对视线方向检测模型输出的视线方向进行校正,从而提升视线方向估计的准确性。
步骤S36212:基于待分析图像,得到目标对象的脸部三维特征点模型。
步骤S36213:基于脸部三维特征点模型,确定目标对象的视线原点与图像采集装置之间的位置关系。
具体地,可以对待分析图像进行脸部特征点检测,得到若干脸部二维特征点;利用若干脸部二维特征点、标准三维脸部的若干三维特征点以及图像采集装置的标定参数,得到目标对象的脸部三维特征点模型,然后基于脸部三维特征点模型,确定目标点在图像采集装置对应的坐标系上的第一空间坐标,其中,目标点为视线原点。对于该部分的阐述可以参见上述实施例中步骤S3611和S3612,此处不再赘述。
与上述实施例不同的是,在本实施例中,在确定目标对象的视线原点所在的位置之后,还可以对视线原点的位置进行调整。具体地,对视线原点的位置进行调整可以包括步骤S36214、S36215和S36216:
步骤S36214:对声音采集装置采集得到的目标声源进行定位。
对于本步骤的阐述可以参见上述步骤S21,此处不再赘述。
其中,目标声源可以视作为人体的脖子的位置,视线原点可以视为两个瞳孔之间的中间点。可以理解的,若声源定位与图像的定位结果差距较小时,人体的脖子的位置与两个瞳孔之间的中间点在同一坐标系下的坐标差距较小,尤其是水平轴坐标。
步骤S36215:基于定位结果,确定视线原点的参考位置。
其中,定位结果可以为目标声源在声音采集装置对应的坐标系上的第二空间坐标。
具体地,将第一空间坐标与第二空间坐标切换至同一坐标系下,得到视线原点对应的第一切换坐标和目标声源对应的第二切换坐标。其中,第二切换坐标为视线原点的参考位置。
其中,可以将第一空间坐标与第二空间坐标通过刚性变换(旋转和平移)至同一二维坐标系下,得到视线原点对应的第一切换坐标(x1,y1)和目标声源对应的第二切换坐标(x2,y2)。
步骤S36216:利用参考位置,对视线原点所在的位置进行调整。
其中,视线原点所在的位置可以为视线原点在图像采集装置对应的坐标系上的第一空间坐标。
在一些实施方式中,由于目标对象在竖直方向上的变化较小,而在水平方向上的变化较大,所以导致水平轴坐标值变化较大,所以本实施例通过水平轴坐标进行调整,从而更大程度的提升视线原点定位的准确度。具体地,可以检测第一切换坐标中的水平轴坐标x1与第二切换坐标中的水平轴坐标x2之间的差值是否大于预设差值d;若是,则将第二切换坐标中的水平轴坐标替换为第一切换坐标中的水平轴坐标。由此,可以得到调整后的视线原点的位置坐标为(x2,y1)。其中,预设差值可以根据实际情况进行设置,例如可以d=1米。
可选地,第一切换坐标中的水平轴坐标x1与第二切换坐标中的水平轴坐标x2之间的差值为x1和x2之差的绝对值,即|x1-x2|,若d>|x1-x2|,则将x1切换为x2。
步骤S3622:基于每帧待分析图像对应的视线方向和视线原点所在的位置,确定每帧待分析图像对应的目标对象的视线。
可以理解的,根据视线原点所在的位置与视线方向可以唯一确定一条射线,即目标对象的视线。
步骤S3623:检测每帧待分析图像对应的视线是否与预设区域相交。
其中,预设区域为身份识别设备在图像采集装置坐标系下对应的区域。
如图7所示,具体地,身份识别设备可以基于预先建立的图像采集装置的坐标系,对图像采集装置进行三维场景建模,以计算身份识别设备所在平面在图像采集装置的坐标系下的真实空间位置,并构建一个预设区域;若检测待分析图像中目标对象的视线与预设区域相交,则说明目标对象的视线落点在身份识别设备所在平面(门禁)上,也即是目标对象正在注视门禁。
可选地,预设区域可以为四边形平面区域。
步骤S3624:若每帧待分析图像对应的视线均与预设区域相交,则确定在预设时间内的视线是否均注视在预设区域内。
步骤S363:若在预设时间内的视线均注视在预设区域内,则确定目标对象存在身份认证的意图。
其中,至少一帧待分析图像为预设时间内采集的待分析图像,若至少一帧待分析图像中的每帧待分析图像对应的视线均与预设区域,则确定在预设时间内的视线均注视在预设区域内,即目标对象的视线处于一种凝视的状态,说明目标对象一直看着身份识别设备,有意图进行身份认证,从而可以唤醒身份识别设备进行后续的身份认证处理。预设时间内可以为0.5秒、2秒或5秒等。
在一些实施例中,可以计算视线在预设区域上的落点,例如可以通过视线方向适量转换,构建视线直线方程、求解视线与预设区域的交点。其中,视线方向适量转换可以采用以下公式进行计算:
(a,b,c)={-cos(pitch)*sin(yaw),-sin(pitch),-cos(pitch)*cos(yaw)},构建直线方程可以采用以下公式:
其中,(x0,y0,z0)为视线原点的坐标,(x,y,z)为视线落点的坐标,可以得到视线与预设区域Z=0的平面的交点:
可以理解的,预设区域的数量可以大于1,根据不同的预设区域(例如图7中三个平面区域:m1X+n1Y+k1Z=l1;m2X+n2Y+k2Z=l2;m3X+n3Y+k3Z=l3,可以分别求解不同的平面交点:(x1,y1,z1);(x2,y2,z2);(x3,y3,z3),此处不再赘述。
本实施例中,身份识别设备通过检测目标对象与图像采集装置之间的位置关系是否满足预设位置要求,在满足预设位置要求的情况下,进一步确定目标对象在预设时间内的视线是否均注视在预设区域内,在预设时间内的视线均注视在预设区域内时,确定目标对象存在身份认证的意图,通过图像定位、声源定位和视线方向估计等技术,在不依赖硬件的条件下,实现了多模态的意图识别,提升了意图识别的精度;在保证目标对象高召回率的前提下,提高了身份识别设备唤醒的准确率,一方面节省了身份识别设备的资源占用,延长硬件寿命,另一方面减轻设备存储和带宽传输的压力,过滤掉大量无用的留痕数据,为管理平台的构建提供了有效的数据。
进一步,身份识别设备在确定目标对象的视线原点所在的位置之后,还可以利用声音采集装置获得视线原点的参考位置,以基于视线原点的参考位置对视线原点的位置进行调整,从而可以降低视线原点位置估计的误差,从而可以提升意图识别的精度。
请参阅图7,图7是本申请提供的身份认证的方法中步骤S27的一实施例的流程示意图。
本实施例中,步骤S27可以包括子步骤S471、S472和S473。
步骤S471:利用图像采集装置对目标对象进行图像采集,得到待认证图像。
通过意图判定后,休眠的门禁系统将被唤醒,从而对具有意图的目标对象进行身份认证。其中,待认证图像用于进行身份认证。
可选地,待认证图像包括利用图像采集装置的不同摄像头拍摄得到的第一待认证图像和第二待认证图像。其中,图像采集装置双目摄像头,该双目摄像头包括近红外摄像头和彩色摄像头。
具体地,可以是利用近红外摄像头拍摄的第一待认证图像和利用彩色摄像头拍摄的第二待认证图像。
在一些实施方式中,在步骤S472之前,还包括:利用第一待认证图像对目标对象进行活体检测;若目标对象通过活体检测,则执行步骤S472。由于采用不同摄像头进行拍摄,从而可以利用拍摄得到的同一时刻的多张图片分工进行处理,例如近红外摄像头拍摄的第一待认证图像进行活体检测,彩色摄像头拍摄的第二待认证图像进行质量筛选,从而提升身份认证的效率。
其中,活体检测可以采用预先建立的人脸活体检测模型进行检测,具体可参见相关技术,此处不再赘述。
具体地,在对脸部特征提取之前,可以检测第二待认证图像的图像质量是否满足第二预设质量要求;若满足第二预设质量要求,则对第二待认证图像进行脸部特征提取,从而避免进行无效的脸部特征提取。其中,对于第二预设质量要求的阐述可以参见第一预设质量要求的说明,此处不再赘述。
步骤S472:对待认证图像进行脸部特征提取,得到目标对象的脸部特征。
具体地,可以通过预先建立的人脸特征提取模型对待认证图像进行脸部特征提取,对于具体提取方法请参见相关技术,此处不再赘述。
步骤S473:基于目标对象的脸部特征对目标对象进行身份认证。
具体地,身份识别设备可以检测目标对象的脸部特征是否存在于预设对象特征库中。
其中,预设对象特征库包括第一预设对象特征库和/或第二预设对象特征库。若脸部特征存在于第一预设对象特征库中,则保存脸部特征,并执行预设联动控制;若脸部特征存在于第二预设对象特征库中,则保存脸部特征,并进行报警。
在一些实施方式中,身份识别设备可以先检测目标对象的脸部特征是否存在于第一预设对象特征库中,若不存在,则继续检测目标对象的脸部特征是否存在于第二预设对象特征库中。
具体地,第一预设对象特征库可以为白名单对象特征库,第二预设对象特征库可以为黑名单对象特征库。若脸部特征存在于白名单对象特征库,则确定目标对象身份认证成功,从而可以将目标对象的脸部特征、识别结果以及其他相关信息进行保存,若不存在于白名单对象特征库,则确定目标对象身份认证失败,则将待认证图像以及其他相关信息保存,进行留痕,以备不时之需。留痕的方式不限于将数据网络的方式发送给后台管理平台,然后在前端的网页上进行远程展示,方便管理员进行管理。若脸部特征存在于黑名单特征库,则保存目标对象的脸部特征,并进行报警,可能该目标对象为犯罪人员,从而可以对其进行防范和控制。
本实施例中,在确定目标对象存在身份认证的意图之后,身份识别设备被唤醒进行身份认证,身份识别设备重新利用图像采集对目标对象进行图像采集,得到待认证图像,通过对待认证图像进行脸部特征提取,得到目标对象的脸部特征,并基于目标对象的脸部特征对目标对象进行身份认证,从而可以在简化用户操作的情况下,实现对用户的身份认证,其次,通过上述意图分析,可以降低份识别设备无效唤醒的次数,从而降低份识别设备使用的功耗,延长硬件寿命。
进一步,预设对象特征库包括第一预设对象特征库和/或第二预设对象特征库,通过检测目标对象的脸部特征是否存在于预设对象特征库中,从而可以根据结果进行对应的操作,由于意图识别的精度提高,从而身份识别设备避免了进行无效的身份认证,从而避免了存储和传输很多无效的数据,减轻了数据存储以及传输的压力,节约了成本。
在目前的门禁场景中,采用本地端的能力进行数据处理一般分为以下三类:一类是成本较高,需要较强计算能力的硬件才能及时响应需求;一类是身份识别效果较差,当注册的底库人数超过设定阈值之后,识别错误的概率将会大大增加;还有一类是“掏空式”使用,例如设备一直处于工作状态,将会榨干硬件性能,影响硬件寿命。所以为了节约成本,大部分门禁系统都是将实际的门禁设备(身份识别设备)作为图像采集装置,实际上真正的人脸识别以及活体判定等操作都是在后台(远程云服务上)进行的。
对此,本实施例提出了一种高性能低功耗且可利用边缘计算能力的本地端意图识别功能的身份识别设备,其中,一方面通过模型压缩,对设备性能进行优化,从而将身份识别设备对资源的消耗达到最低;另一方面,通过自主意识判别,只有当用户有意图去进行人脸识别的情况,再触发身份识别设备亮屏幕并进行真正的人脸识别的后续任务,从而可以降低设备的功耗,即便是边缘计算能力的本地端也足够独立的身份认证。
在上述实施方式中,方法在进行意图分析和/或身份认证过程中采用深度学习模型,包括与人脸检测、人脸关键点检测、人脸活体检测、人脸特征提取、视线检测等相关的深度学习模型,往往这些深度学习模型不能够直接部署在身份识别设备上,所以为了让这些深度学习模型能够高效的运用到身份识别设备上,本实施例利用知识蒸馏技术、比特量化技术和矩阵稀疏化技术中的至少一者对其进行压缩。下面对知识蒸馏技术、比特量化技术和矩阵稀疏化技术进行简单介绍:
知识蒸馏技术是使用模型蒸馏的方案让一个小的模型去学习大模型(现有模型效果极佳的模型)的效果,可以获得一个模型尺寸小(效率高),效果好(与teacher模型的效果差不多)的深度学习模型。其中,通过知识蒸馏技术对深度学习模型进行处理可以大大提升深度学习模型的效率。
比特量化技术是将浮点型数据类型转化为比特进行量化,比如将float的数据转成int8的数据,之后两个float的乘法变成了两个int8的乘法,之后将获得int32的数据恢复成float32的数据。具体量化和恢复方法如下:
其中,Vx为浮点型数据,V′x为比特量化之后的数据。
目前,嵌入式设备硬件一般都支持neon指令集,从而可以友好的支持int8量化的计算,通过量化处理之后深度学习模型的加速效果十分明显。在知识蒸馏的基础上,在前向部署的阶段还可以利用工程手段进行进一步的前向推理效率优化,即上述量化策略,在全int8的场景下,工程优化落地的效率能达到2倍左右。
矩阵稀疏化技术用于将稠密矩阵变换为稀疏矩阵,从而可以大大降低深度学习模型的存储,进而可以在边缘计算场景下节省存储设备的存储空间。其中,若数值为0的元素数目远远多于非0元素的数目,并且非0元素分布没有规律时,则称该矩阵为稀疏矩阵,与之相反,若非0元素数目占大多数时,则称该矩阵为稠密矩阵。矩阵中非零元素的总数比上矩阵所有元素的总数为矩阵的稠密度。一般地,稠密度小于等于0.05的矩阵为稀疏矩阵。
具体地,矩阵稀疏化技术可以是现将深度学习模型训练至最佳状态,然后对一些没有用处的权重进行剪枝处理,最后重新训练剪枝后的网络,继续重复对新训练好的网络进行剪枝处理,直至训练的参数稀疏化满足要求为止。
其中,稀疏化矩阵的乘法库有Eigen库提供相应的支持,从而可以在一定程度上保证矩阵运算的效率,特别是在嵌入式设备上其效率也是可以保证的。
可以理解的,为使深度学习模型能够更好的运用到身份识别设备上,从而对深度学习模型进行压缩、加速等处理的方法不限于上述提及的三种方法,此处不做限定。
请参阅图9,图9是本申请提供的身份识别设备一实施例的框架示意图。
身份识别设备100包括:包括图像采集装置110、处理器120以及与处理器120连接的存储器130,图像采集装置110用于对目标对象进行图像采集,存储器130用于存储程序数据,处理器120用于执行程序数据以实现上述任一方法实施例中的步骤。
在一些实施例中,身份识别设备100还可以包括声音采集装置。身份识别设备100具体可以为门禁设备。
具体而言,处理器120用于控制其自身以及存储器130以实现上述任一方法实施例中的步骤。处理器120还可以称为CPU(Central Processing Unit,中央处理单元)。处理器120可能是一种集成电路芯片,具有信号的处理能力。处理器120还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器120可以由多个集成电路芯片共同实现。
请参阅图10,图10是本申请提供的计算机存储介质一实施例的框架示意图。
计算机可读存储介质200存储有程序数据210,程序数据210被处理器执行时,用以实现上述任一方法实施例中的步骤。
计算机可读存储介质200具体可以为U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等可以存储计算机程序的介质,或者也可以为存储有该计算机程序的服务器,该服务器可将存储的计算机程序发送给其他设备运行,或者也可以自运行该存储的计算机程序。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (15)
1.一种身份认证的方法,其特征在于,包括:
利用图像采集装置对预设范围内的目标对象进行图像采集,得到待分析图像;
对所述待分析图像进行意图分析,以确定所述目标对象是否存在身份认证的意图;
若所述目标对象存在身份认证的意图,则对所述目标对象进行身份认证。
2.根据权利要求1中所述的方法,其特征在于,
所述利用图像采集装置对预设范围内的目标对象进行图像采集,包括:
唤醒处于休眠状态的图像采集装置,以对预设范围内的目标对象进行图像采集;
和/或,在所述利用图像采集装置对预设范围内的目标对象进行图像采集之前,所述方法还包括:
利用声音采集装置检测在预设范围内是否存在目标声源;若是,则执行所述利用图像采集装置对预设范围内的目标对象进行图像采集的步骤;或者,
判断当前时间是否达到预设时间周期,若是,则执行所述利用图像采集装置对预设范围内的目标对象进行图像采集的步骤。
3.根据权利要求1中所述的方法,其特征在于,
在所述对所述待分析图像进行意图分析之前,所述方法还包括:
对所述待分析图像进行脸部检测;
若检测到所述脸部,则在确定所述待分析图像满足第一预设质量要求的情况下,执行所述对所述待分析图像进行意图分析的步骤;或者,若检测到所述脸部,则直接执行所述对所述待分析图像进行意图分析的步骤。
4.根据权利要求3中所述的方法,其特征在于,所述第一预设质量要求包括以下至少一种:
所述待分析图像中的所述脸部的角度在预设角度范围内,其中,所述脸部的角度包括所述脸部相对于所述图像采集装置的偏航角、翻滚角和俯仰角中的至少一者;
所述待分析图像中的所述脸部与标准脸部之间的相似度满足预设相似度要求;
所述待分析图像的亮度和色调的至少一者满足预设亮度和色调要求;
所述待分析图像的模糊程度满足预设模糊要求。
5.根据权利要求1中所述的方法,其特征在于,
所述对所述待分析图像进行意图分析,以确定所述目标对象是否存在身份认证的意图,包括:
利用所述待分析图像确定所述目标对象与所述图像采集装置之间的位置关系,并检测所述位置关系是否满足预设位置要求;
若满足预设位置要求,则利用至少一帧所述待分析图像确定所述目标对象在预设时间内的视线,并检测在所述预设时间内的视线是否均注视在预设区域内;
若在所述预设时间内的视线均注视在预设区域内,则确定所述目标对象存在身份认证的意图。
6.根据权利要求5中所述的方法,其特征在于,
所述利用所述待分析图像确定所述目标对象与所述图像采集装置之间的位置关系,包括:
基于所述待分析图像,得到所述目标对象的脸部三维特征点模型;
基于所述脸部三维特征点模型,确定所述目标对象的预设脸部位置点与所述图像采集装置之间的位置关系;
所述检测所述位置关系是否满足预设位置要求,包括:
基于所述位置关系,检测所述预设脸部位置点与所述图像采集装置之间的距离是否低于预设距离阈值。
7.根据权利要求5中所述的方法,其特征在于,所述利用至少一帧所述待分析图像确定所述目标对象在预设时间内的视线,包括:
对于每帧所述待分析图像,利用所述待分析图像确定所述目标对象的视线方向和视线原点所在的位置;
基于每帧所述待分析图像对应的所述视线方向和视线原点所在的位置,确定每帧所述待分析图像对应的所述目标对象的视线;
所述检测在所述预设时间内的视线是否均注视在预设区域内,包括:
检测每帧所述待分析图像对应的所述视线是否与所述预设区域相交;
若每帧所述待分析图像对应的所述视线均与所述预设区域,则确定在所述预设时间内的视线是否均注视在预设区域内。
8.根据权利要求7中所述的方法,其特征在于,所述利用所述待分析图像确定所述目标对象的视线方向和视线原点所在的位置,包括:
利用视线方向检测模型对所述待分析图像进行检测,得到所述目标对象的视线方向;和/或,
基于所述待分析图像,得到所述目标对象的脸部三维特征点模型;并基于所述脸部三维特征点模型,确定所述目标对象的视线原点与所述图像采集装置之间的位置关系。
9.根据权利要求6或8中所述的方法,其特征在于,
所述基于所述待分析图像,得到所述目标对象的脸部三维特征点模型,包括:
对所述待分析图像进行脸部特征点检测,得到若干脸部二维特征点;
利用所述若干脸部二维特征点、标准三维脸部的若干三维特征点以及所述图像采集装置的标定参数,得到所述目标对象的脸部三维特征点模型;
所述基于所述脸部三维特征点模型,确定所述目标对象的预设脸部位置点与所述图像采集装置之间的位置关系,或者,所述基于所述脸部三维特征点模型,确定所述目标对象的视线原点与所述图像采集装置之间的位置关系,包括:
基于所述脸部三维特征点模型,确定目标点在所述图像采集装置对应的坐标系上的第一空间坐标,其中,所述目标点为所述预设脸部位置点或者所述视线原点。
10.根据权利要求7中所述的方法,其特征在于,
在确定所述目标对象的视线原点所在的位置之后,所述方法还包括:
对声音采集装置采集得到的目标声源进行定位;
基于定位结果,确定所述视线原点的参考位置;
利用所述参考位置,对所述视线原点所在的位置进行调整。
11.根据权利要求10中所述的方法,其特征在于,所述视线原点所在的位置为所述视线原点在图像采集装置对应的坐标系上的第一空间坐标,所述定位结果为所述目标声源在声音采集装置对应的坐标系上的第二空间坐标;
所述基于定位结果,确定所述视线原点的参考位置,包括:
将所述第一空间坐标与所述第二空间坐标切换至同一坐标系下,得到所述视线原点对应的第一切换坐标和所述目标声源对应的第二切换坐标,其中,所述第二切换坐标为所述视线原点的参考位置;
所述利用所述参考位置,对所述视线原点所在的位置进行调整,包括:
若所述第一切换坐标中的水平轴坐标与所述第二切换坐标中的水平轴坐标之间的差值大于预设差值,则将所述第二切换坐标中的水平轴坐标替换为所述第一切换坐标中的水平轴坐标。
12.根据权利要求1中所述的方法,其特征在于,
所述对所述目标对象进行身份认证,包括:
利用所述图像采集装置对所述目标对象进行图像采集,得到待认证图像;
对所述待认证图像进行脸部特征提取,得到所述目标对象的脸部特征;
基于所述目标对象的脸部特征对所述目标对象进行身份认证。
13.根据权利要求12中所述的方法,其特征在于,所述基于所述目标对象的脸部特征对所述目标对象进行身份认证,包括:
检测所述目标对象的脸部特征是否存在于预设对象特征库中;
在所述基于所述目标对象的脸部特征对所述目标对象进行身份认证之后,所述方法还包括:
若所述脸部特征存在于第一预设对象特征库中,则保存所述脸部特征,并执行预设联动控制;和/或,
若所述脸部特征存在于第二预设对象特征库中,则保存所述脸部特征,并进行报警。
14.一种身份识别设备,其特征在于,包括图像采集装置、处理器以及与所述处理器连接的存储器,所述图像采集装置用于对目标对象进行图像采集,
所述存储器用于存储程序数据,所述处理器用于执行所述程序数据以实现如权利要求1-13任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序数据,所述程序数据在被处理器执行时,用以实现如权利要求1-13任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011581613.0A CN112700568B (zh) | 2020-12-28 | 2020-12-28 | 一种身份认证的方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011581613.0A CN112700568B (zh) | 2020-12-28 | 2020-12-28 | 一种身份认证的方法、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112700568A true CN112700568A (zh) | 2021-04-23 |
CN112700568B CN112700568B (zh) | 2023-04-18 |
Family
ID=75512934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011581613.0A Active CN112700568B (zh) | 2020-12-28 | 2020-12-28 | 一种身份认证的方法、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112700568B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114666142A (zh) * | 2022-03-28 | 2022-06-24 | 杭州海康威视数字技术股份有限公司 | 一种对象认证方法、装置及系统 |
CN114743254A (zh) * | 2022-06-13 | 2022-07-12 | 泽景(西安)汽车电子有限责任公司 | 脸部认证方法、装置、终端设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007285006A (ja) * | 2006-04-17 | 2007-11-01 | Fujifilm Corp | 自動ドアの開閉制御装置 |
JP2008111886A (ja) * | 2006-10-27 | 2008-05-15 | Digital Electronics Corp | 自動ドア、画面表示装置、画面表示制御プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
EP2075400A1 (en) * | 2007-12-31 | 2009-07-01 | March Networks S.p.A. | Video monitoring system |
CN104912432A (zh) * | 2014-03-13 | 2015-09-16 | 欧姆龙株式会社 | 自动门控制装置以及自动门控制方法 |
CN108875522A (zh) * | 2017-12-21 | 2018-11-23 | 北京旷视科技有限公司 | 人脸聚类方法、装置和系统及存储介质 |
CN109727344A (zh) * | 2018-11-23 | 2019-05-07 | 深圳奥比中光科技有限公司 | 3d人脸识别智能门锁及3d人脸解锁方法 |
CN110175514A (zh) * | 2019-04-15 | 2019-08-27 | 阿里巴巴集团控股有限公司 | 一种刷脸支付提示方法、装置及设备 |
CN110716180A (zh) * | 2019-10-17 | 2020-01-21 | 北京华捷艾米科技有限公司 | 一种基于人脸检测的音频定位方法及装置 |
CN111669508A (zh) * | 2020-07-01 | 2020-09-15 | 海信视像科技股份有限公司 | 一种摄像头的控制方法及显示设备 |
-
2020
- 2020-12-28 CN CN202011581613.0A patent/CN112700568B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007285006A (ja) * | 2006-04-17 | 2007-11-01 | Fujifilm Corp | 自動ドアの開閉制御装置 |
JP2008111886A (ja) * | 2006-10-27 | 2008-05-15 | Digital Electronics Corp | 自動ドア、画面表示装置、画面表示制御プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
EP2075400A1 (en) * | 2007-12-31 | 2009-07-01 | March Networks S.p.A. | Video monitoring system |
CN104912432A (zh) * | 2014-03-13 | 2015-09-16 | 欧姆龙株式会社 | 自动门控制装置以及自动门控制方法 |
CN108875522A (zh) * | 2017-12-21 | 2018-11-23 | 北京旷视科技有限公司 | 人脸聚类方法、装置和系统及存储介质 |
CN109727344A (zh) * | 2018-11-23 | 2019-05-07 | 深圳奥比中光科技有限公司 | 3d人脸识别智能门锁及3d人脸解锁方法 |
CN110175514A (zh) * | 2019-04-15 | 2019-08-27 | 阿里巴巴集团控股有限公司 | 一种刷脸支付提示方法、装置及设备 |
CN110716180A (zh) * | 2019-10-17 | 2020-01-21 | 北京华捷艾米科技有限公司 | 一种基于人脸检测的音频定位方法及装置 |
CN111669508A (zh) * | 2020-07-01 | 2020-09-15 | 海信视像科技股份有限公司 | 一种摄像头的控制方法及显示设备 |
Non-Patent Citations (2)
Title |
---|
RADU HORAUD,ET AL: "An analytic solution for the perspective 4-point problem", 《PROCEEDINGS CVPR "89: IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
陈平,等: "基于单幅图像PnP头部姿态估计的学习注意力可视化分析", 《通信学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114666142A (zh) * | 2022-03-28 | 2022-06-24 | 杭州海康威视数字技术股份有限公司 | 一种对象认证方法、装置及系统 |
CN114666142B (zh) * | 2022-03-28 | 2023-10-10 | 杭州海康威视数字技术股份有限公司 | 一种对象认证方法、装置及系统 |
CN114743254A (zh) * | 2022-06-13 | 2022-07-12 | 泽景(西安)汽车电子有限责任公司 | 脸部认证方法、装置、终端设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112700568B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105335722B (zh) | 一种基于深度图像信息的检测系统及方法 | |
CN109815826B (zh) | 人脸属性模型的生成方法及装置 | |
US20220180534A1 (en) | Pedestrian tracking method, computing device, pedestrian tracking system and storage medium | |
WO2018188453A1 (zh) | 人脸区域的确定方法、存储介质、计算机设备 | |
WO2020125499A1 (zh) | 一种操作提示方法及眼镜 | |
CN107766819B (zh) | 一种视频监控系统及其实时步态识别方法 | |
US7995807B2 (en) | Automatic trimming method, apparatus and program | |
CN105426827A (zh) | 活体验证方法、装置和系统 | |
KR20200118076A (ko) | 생체 검출 방법 및 장치, 전자 기기 및 저장 매체 | |
CN108198130B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN110084192B (zh) | 基于目标检测的快速动态手势识别系统及方法 | |
CN106934351B (zh) | 手势识别方法、装置及电子设备 | |
CN111008935B (zh) | 一种人脸图像增强方法、装置、系统及存储介质 | |
CN112036331A (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN111209811B (zh) | 一种实时检测眼球注意力位置的方法及系统 | |
CN111667001A (zh) | 目标重识别方法、装置、计算机设备和存储介质 | |
EP3975047A1 (en) | Method for determining validness of facial feature, and electronic device | |
CN112700568B (zh) | 一种身份认证的方法、设备及计算机可读存储介质 | |
CN110765924A (zh) | 一种活体检测方法、装置以及计算机可读存储介质 | |
CN103105924A (zh) | 人机交互方法和装置 | |
CN106778574A (zh) | 用于人脸图像的检测方法和装置 | |
CN112580472A (zh) | 一种快速轻量的人脸识别方法、装置、机器可读介质及设备 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
CN116453198B (zh) | 一种基于头部姿态差异的视线校准方法和装置 | |
CN109241942B (zh) | 图像处理方法、装置、人脸识别设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |