CN118522059B - 一种用于公安实战场景人脸识别数据处理系统 - Google Patents
一种用于公安实战场景人脸识别数据处理系统 Download PDFInfo
- Publication number
- CN118522059B CN118522059B CN202410986979.8A CN202410986979A CN118522059B CN 118522059 B CN118522059 B CN 118522059B CN 202410986979 A CN202410986979 A CN 202410986979A CN 118522059 B CN118522059 B CN 118522059B
- Authority
- CN
- China
- Prior art keywords
- image
- light
- face recognition
- face
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 33
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 54
- 238000005457 optimization Methods 0.000 claims abstract description 22
- 238000005286 illumination Methods 0.000 claims abstract description 19
- 230000008859 change Effects 0.000 claims description 96
- 238000004364 calculation method Methods 0.000 claims description 41
- 238000000034 method Methods 0.000 claims description 34
- 239000003086 colorant Substances 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 14
- 238000003064 k means clustering Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000001105 regulatory effect Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 7
- 230000009466 transformation Effects 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 11
- 238000012795 verification Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Tourism & Hospitality (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Human Resources & Organizations (AREA)
- Artificial Intelligence (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Probability & Statistics with Applications (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理领域,且公开了一种用于公安实战场景人脸识别数据处理系统,用于解决当需要在大型户外活动场景下进行人脸识别时,会出现光线变换以及识别目标不静止的问题,包括场景数据采集模块、算法优化模块、人脸采集与识别模块以及报警与通知模块,采集场景环境的光线数据,根据光线数据评估当前光线对人脸识别的影响性,并根据评估出的影响性对算法优化进行判断,根据场景数据采集模块的判断结果,优化人脸识别算法以提高其对光照变化的适应性,使用优化后的人脸识别算法,进行人脸数据采集与人脸识别,根据人脸识别结果进行报警与通知,有效提高了户外人脸识别的准确性。
Description
技术领域
本发明涉及图像处理领域,更具体地涉及一种用于公安实战场景人脸识别数据处理系统。
背景技术
人脸识别技术是一种基于人脸图像进行身份验证或识别的前沿技术,它充分借鉴了计算机视觉和模式识别等领域的先进理论和方法,通过对人脸图像的精密处理和深度分析,实现了对个体面容的自动辨识和验证。这项技术被广泛应用于多个领域,包括但不限于安全监控、访问管控、支付认证、社交网络、医疗保健以及公安实战领域。
然而,传统的大型户外活动安保场景下的人脸识别方法,通常只是简单地获取人脸图像,并基于识别出的面部特征进行身份验证,实际场景中常常面临复杂多变的光照条件以及目标移动的情况,传统方法难以保持高准确性,从而可能影响到活动现场的安全和秩序。
针对上述问题,本发明提出一种解决方案。
发明内容
为了克服现有技术的上述缺陷,本发明提供了一种用于公安实战场景人脸识别数据处理系统,以解决上述背景技术中存在的问题。
为实现上述目的,本发明提供如下技术方案:
一种用于公安实战场景人脸识别数据处理系统,包括场景数据采集模块、算法优化模块、人脸采集与识别模块以及报警与通知模块,模块之间通过信号连接,各模块之间数据化处理步骤如下:
场景数据采集模块,用于采集场景环境的光线数据,根据光线数据评估当前光线对人脸识别的影响性,并根据评估出的影响性对算法优化进行判断;
算法优化模块,用于根据场景数据采集模块的判断结果,优化人脸识别算法以提高其对光照变化的适应性,将优化后的人脸识别算法传输至人脸采集与识别模块;
人脸采集与识别模块,用于接收算法优化模块传输的优化后的人脸识别算法,并进行人脸数据采集与人脸识别,将人脸识别结果传输至报警与通知模块;
报警与通知模块,用于接收人脸采集与识别模块传输的人脸识别结果,根据人脸识别结果进行报警与通知。
优选的,所述根据光线数据评估当前光线对人脸识别的影响性步骤为:
通过摄像装置实时采集场景环境图像,根据采集的场景环境图像计算出光线的亮度变化率;
将采集的场景环境图像平均分为n份,记为子环境图像,通过K均值聚类的方法计算出当前场景环境图像的光线均匀度;
根据亮度变化率与光线均匀度计算得到光线变化影响系数,其计算公式为,其中表示为光线变化影响系数,表示为亮度变化率,表示为光线均
匀度;
设定检测时间段,在检测时间段开始与结束时刻随机选取m个人员进行人脸图像
采集,根据采集的人脸图像计算得到表情变化程度,并对每个人员的表情变化程度进行求
平均计算得到平均表情变化程度,根据平均表情变化程度计算得到表情变化影响系数,其
计算公式为,其中表示为表情变化影响系数;
对实时采集的场景环境图像通过阈值分割法识别出图像中光线颜色数量,并根据
颜色数量计算得到色彩影响系数,其计算公式为,其中表示为色彩影响系
数,表示为识别出图像中颜色数量;
根据光线变化影响系数、表情变化影响系数以及色彩影响系数评估计算得到人脸
识别影响指数,其计算公式为,其中表示为人脸识
别影响指数,表示为光线变化影响系数,表示为表情变化影响系数,表示为色彩影
响系数,a1、a2、a3表示为光线变化影响系数、表情变化影响系数以及色彩影响系数的权重
系数。
优选的,所述根据评估出的影响性对算法优化进行判断步骤为,将人脸识别影响指数与预设阈值进行对比,若人脸识别影响指数小于预设阈值,则判定当前环境对人脸识别影响小,不需要进行人脸识别算法优化,若人脸识别影响指数大于预设阈值,则判定当前环境对人脸识别影响大,则对人脸识别算法进行优化。
优选的,所述根据采集的场景环境图像计算出光线的亮度变化率步骤为:
获取连续的图像帧,将图像帧转换为灰度图像,并对每一帧图像计算其平均亮度;
计算当前帧和前一帧的平均亮度变化量,其计算公式为,其中表示为平均亮度变化量,表示为当前帧图像的平均亮度,表示为前一帧图像的平均亮度;
通过平均亮度变化量与前一帧亮度的比值计算得到亮度变化率,其计算公式为,其中表示为亮度变化率,表示为平均亮度变化量,表示为前一帧图像的平均亮度。
优选的,所述通过K均值聚类的方法计算出当前场景环境图像的光线均匀度步骤为:
步骤一:对每一个子环境图像计算平均亮度值,得到n个亮度特征数据点,作为数据集;
步骤二:使用肘部法确定聚类数K;
步骤三:从数据集中随机选取K个数据点作为聚类的初始聚类中心,使用欧式距离计算每个数据点与每个初始聚类中心点的距离,并将数据点分配到距离最近的聚类中心所属的簇中,遍历所有数据点得到初始聚类簇;
步骤四:对每个初始聚类簇,计算簇中所有数据点的均值,并将该均值作为新的聚类中心;
步骤五:重复步骤三与步骤四,直到聚类中心不再发生变化,得到最终聚类簇与最终聚类中心;
步骤六:计算最终聚类簇的紧密度,其计算公式为,其
中表示为紧密度,K为聚类数,为第j个聚类,表示簇内第i个数据点,为第j个聚
类簇的最终聚类中心;
步骤七:计算最终聚类簇的分散度,其计算公式为,其
中表示为分散度,表示为第j个簇中的数据点数量,为第j个聚类簇的最终聚类中
心,表示为所有数据点的整体均值;
步骤八:根据最终聚类簇的分散度与紧密度计算得到光线均匀度,其计算公式为,其中表示为光线均匀度,表示为分散度,表示为
紧密度,为一个常数值。
优选的,所述根据采集的人脸图像计算得到表情变化程度步骤为:
将采集到的照片转换为灰度图像,并进行预处理;
将检测时间段开始时刻采集的人脸图像作为基准照片,检测时间段结束时刻采集的人脸图像作为待测照片;
根据基准照片与待测照片的亮度值计算得到表情变化程度,其计算公式为,其中表示为表情变化程度,表示为照片中像素的总
数,与分别为基准照片与待测照片中第i个像素的亮度值。
优选的,所述对实时采集的场景环境图像通过阈值分割法识别出图像中光线颜色数量步骤为:
将彩色图像转换为灰度图像,选择一个阈值用于分割图像;
根据选择的阈值将灰度图像分割为光线区域与背景区域;
统计分割出的光线区域的数量,估算舞台上的光线颜色数量。
优选的,所述优化人脸识别算法步骤为:
在人脸识别算法中加入光照归一化处理,其处理表达式为,其中表示为归一化后的图像在位置的像素值,表示为图像的平均灰度值,表示为图像的灰度值标准差,表示为原始图像在位置的像素值;
通过直方图均衡化调整图像的灰度值分布,增强图像的对比度,其表达式为,其中表示为灰度值v的均衡化后值,表示为灰度值为i的像素数
量,N为图像中的总像素数量;
在模型训练中增加不同光照条件下的图像,增强模型对光线变化的鲁棒性,对图像进行随机裁剪和缩放,并在人脸识别过程中,对检测到的图像进行光线补偿。
本发明的技术效果和优点:
采集场景环境的光线数据,根据光线数据评估当前光线对人脸识别的影响性,并根据评估出的影响性对算法优化进行判断,根据场景数据采集模块的判断结果,优化人脸识别算法以提高其对光照变化的适应性,使用优化后的人脸识别算法,进行人脸数据采集与人脸识别,根据人脸识别结果进行报警与通知,有效提高了户外人脸识别的准确性。
附图说明
图1为本发明的整体流程图。
图2为本发明系统模块流程图。
具体实施方式
下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,另外,在以下的实施方式中记载的各结构的形态只不过是例示,本发明所涉及的一种基于用户信息和移动端验证码的双因子认证方法并不限定于在以下的实施方式中记载的各结构,在本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施方式都属于本发明保护的范围。
本发明提供了一种用于公安实战场景人脸识别数据处理系统,如图2所示,包括场景数据采集模块、算法优化模块、人脸采集与识别模块以及报警与通知模块,模块之间通过信号连接,各模块之间数据化处理步骤如下:
场景数据采集模块,用于采集场景环境的光线数据,根据光线数据评估当前光线对人脸识别的影响性,并根据评估出的影响性对算法优化进行判断;
本实施例中,需要具体说明的是,所述根据光线数据评估当前光线对人脸识别的影响性步骤为:
通过摄像装置实时采集场景环境图像,根据采集的场景环境图像计算出光线的亮度变化率;
将采集的场景环境图像平均分为n份,记为子环境图像,通过K均值聚类的方法计算出当前场景环境图像的光线均匀度,其中K均值聚类是一种常用的无监督学习算法,用于将数据集分成K个簇(clusters),使得簇内数据点之间的相似性尽可能大,而簇间数据点之间的相似性尽可能小;
根据亮度变化率与光线均匀度计算得到光线变化影响系数,其计算公式为,其中表示为光线变化影响系数,表示为亮度变化率,亮度变化率越大
表示光线变化越剧烈,对人脸识别影响越大,表示为光线均匀度,光线均匀度越大表示光
线分布越均匀,对人脸识别影响越小;
设定检测时间段,在检测时间段开始与结束时刻随机选取m个人员进行人脸图像
采集,根据采集的人脸图像计算得到表情变化程度,并对每个人员的表情变化程度进行求
平均计算得到平均表情变化程度,其计算公式为,其中表示为平均表情变
化程度,表示第r个人员的表情变化程度,根据平均表情变化程度计算得到表情变化影响
系数,其计算公式为,其中表示为表情变化影响系数;
对实时采集的场景环境图像通过阈值分割法识别出图像中光线颜色数量,并根据
颜色数量计算得到色彩影响系数,其计算公式为,其中表示为色彩影响系
数,表示为识别出图像中颜色数量,所述阈值分割法是一种常用的图像分割方法,它
基于图像像素的灰度值与预先设定的阈值进行比较,从而将图像分割成不同的区域。这种
方法通常用于将图像中的目标对象与背景进行分离,或者将图像分成不同的组成部分,以
便后续的分析和处理;
根据光线变化影响系数、表情变化影响系数以及色彩影响系数评估计算得到人脸
识别影响指数,其计算公式为,其中表示为人脸识
别影响指数,表示为光线变化影响系数,光线条件的变化对人脸识别的影响程度是正相
关的。当光线变化影响系数增大时,表示光线条件的变化更加显著或复杂,这可能导致人脸
识别系统性能的下降,因此人脸识别影响指数也会相应增大,表示为表情变化影响系
数,表情变化影响系数表示表情变化对人脸识别的影响程度。当表情变化较大时,可能导致
人脸特征的变化,使得人脸识别系统难以准确识别,假设在一个人脸识别系统中,一名用户
的表情发生较大变化,如从正常表情到大笑表情。这种表情变化可能导致人脸图像的关键
特征发生较大改变,使得人脸识别系统难以准确识别该用户,表示为色彩影响系数,为色
彩的变化可能会影响到图像的质量和人脸特征的表现,从而影响到人脸识别系统的性能,
假设在一个人脸识别系统中,图像的色彩受到强烈的光线影响,导致图像的色彩饱和度较
低,色调不稳定。这种情况下,人脸识别系统可能会受到较大的影响,识别准确率可能会下
降,a1、a2、a3表示为光线变化影响系数、表情变化影响系数以及色彩影响系数的权重系数,
且本实施例不对a1、a2、a3具体值做具体计算。
户外活动中的光照条件会随着时间和天气变化。光线强度的变化会导致图像中人脸的曝光过度或不足,光照强度的变化会影响图像中人脸的对比度和清晰度,使得特征提取变得困难。明暗对比的变化也可能会导致人脸特征的丢失或失真,降低人脸识别的准确性;不同方向的光源会在脸上产生不同的阴影和高光区域,光源方向的变化会改变面部特征的阴影和亮度分布,影响特征点的提取和匹配。不同方向的阴影可能会使得同一个人在不同光线条件下的特征差异较大,降低识别率;色温和光谱的变化会改变人脸的颜色特征,使得颜色特征提取和匹配困难。特别是在多光源环境下,不同光源的色温差异会导致面部颜色分布不一致,影响识别结果。
在大型活动中,识别目标可能会有多种表情变化,如微笑、皱眉、张嘴等,表情变化会导致面部肌肉的移动和面部特征的形变,使得特征点的位置和形状发生变化。特别是在夸张的表情下,特征点的变化会非常明显,影响特征匹配的精度;光线变化和表情变化往往是同时存在并相互叠加的,在户外大型活动中,这种组合对人脸识别提出了更高的要求,光线变化和表情变化同时作用,会使得面部特征更加复杂,特征提取和匹配更加困难。
本实施例中,需要具体说明的是,所述根据评估出的影响性对算法优化进行判断步骤为,将人脸识别影响指数与预设阈值进行对比,若人脸识别影响指数小于预设阈值,则判定当前环境对人脸识别影响较小,不需要进行人脸识别算法优化,若人脸识别影响指数大于预设阈值,则判定当前环境对人脸识别影响较大,则对人脸识别算法进行优化。
本实施例中,需要具体说明的是,所述根据采集的场景环境图像计算出光线的亮度变化率步骤为:
获取连续的图像帧,例如当前帧和前一帧;
将图像转换为灰度图像,减少颜色信息的干扰,便于专注于亮度变化;
对每一帧图像计算其平均亮度,其计算公式为,,其中表示为当前帧图像的平均亮度,表示
为前一帧图像的平均亮度,表示为图像中的像素的灰度值,M和N分别为图像的
行数和列数;
计算当前帧和前一帧的平均亮度变化量,其计算公式为,其中表示为平均亮度变化量,表示为当前帧图像
的平均亮度,表示为前一帧图像的平均亮度;
通过平均亮度变化量与前一帧亮度的比值计算得到亮度变化率,其计算公式为,其中表示为亮度变化率,表示为平均亮度变化量,表
示为前一帧图像的平均亮度。
本实施例中,需要具体说明的是,所述通过K均值聚类的方法计算出当前场景环境图像的光线均匀度步骤为:
步骤一:对每一个子环境图像计算平均亮度值,得到n个亮度特征数据点,作为数据集;
步骤二:使用肘部法确定聚类数K,所述肘部法是一种用于确定聚类算法中最佳聚类数,的常用技术,它通过计算不同聚类数下的聚类质量指标(通常是聚类的总内聚度或总方差)并观察其变化趋势来选择合适的聚类数,使用K均值聚类算法对这n个亮度特征数据点进行聚类,随机在数据集中选取K个数据点作为初始聚类中心;
步骤三:从数据集中随机选取K个数据点作为聚类的初始聚类中心,使用欧式距离
计算每个数据点与每个初始聚类中心点的距离,例如计算数据点和初始聚类中心之间
的距离,其计算公式,其中表示为数据点和初始聚类中心之间
的距离,并将数据点分配到距离最近的聚类中心所属的簇中,遍历所有数据点得到初始聚
类簇,所述欧氏距离(Euclidean Distance)是两点之间最常用的距离度量方法之一,它计
算两点在空间中的直线距离。欧氏距离适用于各种应用场景,包括聚类分析、图像处理和机
器学习等;
步骤四:对每个初始聚类簇,计算簇中所有数据点的均值,并将该均值作为新的聚
类中心,其计算公式为,其中表示为第j个簇的新聚类中心,表示簇内第i个
数据点,表示为第j个簇中的数据点数量;
步骤五:重复步骤三与步骤四,直到聚类中心不再发生变化,得到最终聚类簇与最终聚类中心;
步骤六:计算最终聚类簇的紧密度,其计算公式为,其
中表示为紧密度,K为聚类数,为第j个聚类,表示簇内第i个数据点,为第j个聚
类簇的最终聚类中心,所述紧密度用于衡量每个聚类簇内部数据点的相似度;
步骤七:计算最终聚类簇的分散度,其计算公式为,其中表示为分散度,表示为第j个簇中的数据点数量,为第j个聚类簇的最终聚类中
心,表示为所有数据点的整体均值,所述分散度用于衡量不同聚类簇中心之间的差异。
步骤八:根据最终聚类簇的分散度与紧密度计算得到光线均匀度,其计算公式为,其中表示为光线均匀度,表示为分散度,表示
为紧密度,为一个常数值,为了防止分母为零导致计算问题,通常,这个常数的值是一个非
常小的正数,本实施例中值取。
本实施例中,需要具体说明的是,所述对每一个子环境图像计算平均亮度值步骤为,将光线图像转换为灰度图像,以便进行后续的处理,遍历子光线图像的每一个像素点,计算所有像素的亮度值之和,将亮度值之和除以像素数量,得到平均亮度值。
本实施例中,需要具体说明的是,所述根据采集的人脸图像计算得到表情变化程度步骤为:
将采集到的照片转换为灰度图像,进行必要的预处理(如调整大小、裁剪等);
将检测时间段开始时刻采集的人脸图像作为基准照片,检测时间段结束时刻采集的人脸图像作为待测照片;
根据基准照片与待测照片的亮度值计算得到表情变化程度,其计算公式为,其中表示为表情变化程度,表示为照片中像素的总
数,与分别为基准照片与待测照片中第i个像素的亮度值,所述照片中第i个像素的
亮度值的提取为现有技术,本实施例不对其具体步骤做详细说明。
本实施例中,需要具体说明的是,所述对实时采集的场景环境图像通过阈值分割法识别出图像中光线颜色数量步骤为:
将彩色图像转换为灰度图像,以简化处理;
根据光线亮度的分布情况选择一个合适的阈值,这个阈值可以通过直方图分析、试验或者基于颜色特性的先验知识确定;
根据选择的阈值将灰度图像分割成两个区域,一个是高于阈值的区域,代表光线的部分,另一个是低于阈值的区域,代表背景或者其他物体;
对分割后的光线区域进行形态学处理,例如连通区域分析、轮廓检测等,以便准确计算出光线的数量;
根据检测到的光线区域数量,估算舞台上的光线颜色数量。
算法优化模块,用于根据场景数据采集模块的判断结果,优化人脸识别算法以提高其对光照变化的适应性,将优化后的人脸识别算法传输至人脸采集与识别模块;
本实施例中,需要具体说明的是,所述优化人脸识别算法步骤为:
在人脸识别算法中加入光照归一化处理,所述光照归一化是指通过调整图像的亮
度和对比度,使得不同光照条件下的图像具有类似的亮度和对比度,其处理表达式为,其中表示为归一化后的图像在位置的像素值,
表示为图像的平均灰度值,表示为图像的灰度值标准差,表示为原始图像在位置的像素值;
通过直方图均衡化调整图像的灰度值分布,增强图像的对比度,从而提高人脸特
征的可见性,其表达式为,其中表示为灰度值v的均衡化后值,
表示为灰度值为i的像素数量,N为图像中的总像素数量,所述直方图均衡化是一种图像处
理技术,用于增强图像的对比度。其原理是通过调整图像的灰度值分布,使得图像的灰度值
均匀分布在整个灰度范围内。这种处理方法可以增强图像的细节,使得图像在视觉上更加
清晰和对比度更高;
在模型训练中增加不同光照条件下的图像,增强模型对光线变化的鲁棒性,对图像进行随机裁剪和缩放,增强模型对不同大小和位置人脸的适应性,所述鲁棒性指的是系统或算法在面对各种不利条件或变化时,仍然能够保持其预期功能和性能的能力。在人脸识别的上下文中,鲁棒性特指算法在不同光照条件、不同拍摄角度、部分遮挡、不同表情变化、不同环境背景等多种复杂情况下,依然能够准确识别出人脸的能力;
在人脸识别过程中,对检测到的图像进行光线补偿,减小光线变化对识别结果的影响。
人脸采集与识别模块,用于接收算法优化模块传输的优化后的人脸识别算法,并进行人脸数据采集与人脸识别,将人脸识别结果传输至报警与通知模块;
本实施例中,需要具体说明的是,所述进行人脸数据采集与人脸识别步骤为:
使用摄像头或其他成像设备采集人脸图像,图像采集过程中需要考虑光照条件、拍摄角度、距离等因素,尽量保证图像质量;
对采集到的图像进行光照归一化和直方图均衡化处理,以减少光照变化的影响;
使用卷积神经网络(CNN)或其他特征提取算法从预处理后的图像中提取特征,所述卷积神经网络是一种深度学习模型,特别适合处理和分析视觉数据。卷积神经网络通过卷积操作提取图像的局部特征,能够有效地捕捉图像中的空间结构信息。卷积神经网络在计算机视觉领域,如图像分类、对象检测和人脸识别等任务中表现出色;
计算待识别图像与数据库中所有图像特征向量之间的欧氏距离,使用k近邻算法根据欧氏距离的结果确定人脸身份,在使用卷积神经网络提取人脸特征向量后,计算待识别图像的特征向量与数据库中所有图像特征向量之间的欧氏距离,用于衡量待识别图像与数据库中每个图像的相似度。
本实施例中,需要具体说明的是,所述计算待识别图像与数据库中所有图像特征向量之间的欧氏距离步骤为:
从待识别图像和数据库中的所有图像中提取特征向量,例如待识别图像特征向量为,数据库图像特征向量为,其中i表示为第i个数据库图像;
计算待识别图像特征向量与数据库中每个图像特征向量之间的欧氏距离,其计算公式为;
筛选出距离最小的欧式距离,作为最小距离,将筛选出的最小距离与阈值进行对比,若最小距离小于阈值,则判定验证目标人脸识别通过,若最小距离大于阈值,则判定验证目标人脸识别不通过。
报警与通知模块,用于接收人脸采集与识别模块传输的人脸识别结果,根据人脸识别结果进行报警与通知;
本实施例中,需要具体说明的是,所述根据人脸识别结果进行报警与通知为,若人脸识别结果为通过,则向相关工作人员发送验证通过信息,若人脸识别结果为不通过,则向相关工作人员发送验证不通过信息,并向安保部门发出警报信息。
最后:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (7)
1.一种用于公安实战场景人脸识别数据处理系统,其特征在于,包括场景数据采集模块、算法优化模块、人脸采集与识别模块以及报警与通知模块,模块之间通过信号连接,各模块之间数据化处理步骤如下:
场景数据采集模块,用于采集场景环境的光线数据,根据光线数据评估当前光线对人脸识别的影响性,并根据评估出的影响性对算法优化进行判断;
算法优化模块,用于根据场景数据采集模块的判断结果,优化人脸识别算法以提高其对光照变化的适应性,将优化后的人脸识别算法传输至人脸采集与识别模块;
人脸采集与识别模块,用于接收算法优化模块传输的优化后的人脸识别算法,并进行人脸数据采集与人脸识别,将人脸识别结果传输至报警与通知模块;
报警与通知模块,用于接收人脸采集与识别模块传输的人脸识别结果,根据人脸识别结果进行报警与通知;
所述根据光线数据评估当前光线对人脸识别的影响性步骤为:
通过摄像装置实时采集场景环境图像,根据采集的场景环境图像计算出光线的亮度变化率;
将采集的场景环境图像平均分为n份,记为子环境图像,通过K均值聚类的方法计算出当前场景环境图像的光线均匀度;
根据亮度变化率与光线均匀度计算得到光线变化影响系数,其计算公式为其中CE表示为光线变化影响系数,Rlight表示为亮度变化率,U表示为光线均匀度;
设定检测时间段,在检测时间段开始与结束时刻随机选取m个人员进行人脸图像采集,根据采集的人脸图像计算得到表情变化程度,并对每个人员的表情变化程度进行求平均计算得到平均表情变化程度,根据平均表情变化程度计算得到表情变化影响系数,其计算公式为其中EC表示为表情变化影响系数,E均表示为平均表情变化程度;
对实时采集的场景环境图像通过阈值分割法识别出图像中光线颜色数量,并根据颜色数量计算得到色彩影响系数,其计算公式为其中CL表示为色彩影响系数,NUMC表示为识别出图像中颜色数量;
根据光线变化影响系数、表情变化影响系数以及色彩影响系数评估计算得到人脸识别影响指数,其计算公式为FR=a1×CE+a2×EC+a3×CL,其中FR表示为人脸识别影响指数,CE表示为光线变化影响系数,EC表示为表情变化影响系数,CL表示为色彩影响系数,a1、a2、a3表示为光线变化影响系数、表情变化影响系数以及色彩影响系数的权重系数。
2.根据权利要求1所述的一种用于公安实战场景人脸识别数据处理系统,其特征在于:所述根据评估出的影响性对算法优化进行判断步骤为,将人脸识别影响指数与预设阈值进行对比,若人脸识别影响指数小于预设阈值,则判定当前环境对人脸识别影响小,不需要进行人脸识别算法优化,若人脸识别影响指数大于预设阈值,则判定当前环境对人脸识别影响大,则对人脸识别算法进行优化。
3.根据权利要求1所述的一种用于公安实战场景人脸识别数据处理系统,其特征在于:所述根据采集的场景环境图像计算出光线的亮度变化率步骤为:
获取连续的图像帧,将图像帧转换为灰度图像,并对每一帧图像计算其平均亮度;
计算当前帧和前一帧的平均亮度变化量,其计算公式为ΔIavg=Iavg(t)-Iavg(t-1),其中ΔIavg表示为平均亮度变化量,Iavg(t)表示为当前帧图像的平均亮度,Iavg(t-1)表示为前一帧图像的平均亮度;
通过平均亮度变化量与前一帧亮度的比值计算得到亮度变化率,其计算公式为其中Rlight表示为亮度变化率,ΔIavg表示为平均亮度变化量,Iavg(t-1)表示为前一帧图像的平均亮度。
4.根据权利要求1所述的一种用于公安实战场景人脸识别数据处理系统,其特征在于:所述通过K均值聚类的方法计算出当前场景环境图像的光线均匀度步骤为:
步骤一:对每一个子环境图像计算平均亮度值,得到n个亮度特征数据点,作为数据集;
步骤二:使用肘部法确定聚类数K;
步骤三:从数据集中随机选取K个数据点作为聚类的初始聚类中心,使用欧式距离计算每个数据点与每个初始聚类中心点的距离,并将数据点分配到距离最近的聚类中心所属的簇中,遍历所有数据点得到初始聚类簇;
步骤四:对每个初始聚类簇,计算簇中所有数据点的均值,并将该均值作为新的聚类中心;
步骤五:重复步骤三与步骤四,直到聚类中心不再发生变化,得到最终聚类簇与最终聚类中心;
步骤六:计算最终聚类簇的紧密度,其计算公式为其中WCV表示为紧密度,K为聚类数,Cj为第j个聚类,xi表示簇内第i个数据点,c”j为第j个聚类簇的最终聚类中心;
步骤七:计算最终聚类簇的分散度,其计算公式为其中BCV表示为分散度,|Sj|表示为第j个簇中的数据点数量,c”j为第j个聚类簇的最终聚类中心,μ表示为所有数据点的整体均值;
步骤八:根据最终聚类簇的分散度与紧密度计算得到光线均匀度,其计算公式为其中U表示为光线均匀度,BCV表示为分散度,WCV表示为紧密度,ε为一个常数值。
5.根据权利要求1所述的一种用于公安实战场景人脸识别数据处理系统,其特征在于:所述根据采集的人脸图像计算得到表情变化程度步骤为:
将采集到的照片转换为灰度图像,并进行预处理;
将检测时间段开始时刻采集的人脸图像作为基准照片,检测时间段结束时刻采集的人脸图像作为待测照片;
根据基准照片与待测照片的亮度值计算得到表情变化程度,其计算公式为其中E表示为表情变化程度,N表示为照片中像素的总数,I1(i)与I2(i)分别为基准照片与待测照片中第i个像素的亮度值。
6.根据权利要求1所述的一种用于公安实战场景人脸识别数据处理系统,其特征在于:所述对实时采集的场景环境图像通过阈值分割法识别出图像中光线颜色数量步骤为:
将彩色图像转换为灰度图像,选择一个阈值用于分割图像;
根据选择的阈值将灰度图像分割为光线区域与背景区域;
统计分割出的光线区域的数量,估算舞台上的光线颜色数量。
7.根据权利要求1所述的一种用于公安实战场景人脸识别数据处理系统,其特征在于:所述优化人脸识别算法步骤为:
在人脸识别算法中加入光照归一化处理,其处理表达式为其中Inorm(x,y)表示为归一化后的图像在位置(x,y)的像素值,μ表示为图像的平均灰度值,σ表示为图像的灰度值标准差,I(x,y)表示为原始图像在位置(x,y)的像素值;
通过直方图均衡化调整图像的灰度值分布,增强图像的对比度,其表达式为其中H(v)表示为灰度值v的均衡化后值,h(i)表示为灰度值为i的像素数量,N为图像中的总像素数量;
在模型训练中增加不同光照条件下的图像,增强模型对光线变化的鲁棒性,对图像进行随机裁剪和缩放,并在人脸识别过程中,对检测到的图像进行光线补偿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410986979.8A CN118522059B (zh) | 2024-07-23 | 2024-07-23 | 一种用于公安实战场景人脸识别数据处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410986979.8A CN118522059B (zh) | 2024-07-23 | 2024-07-23 | 一种用于公安实战场景人脸识别数据处理系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118522059A CN118522059A (zh) | 2024-08-20 |
CN118522059B true CN118522059B (zh) | 2024-11-05 |
Family
ID=92279726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410986979.8A Active CN118522059B (zh) | 2024-07-23 | 2024-07-23 | 一种用于公安实战场景人脸识别数据处理系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118522059B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573252A (zh) * | 2018-04-12 | 2018-09-25 | 广东汇泰龙科技有限公司 | 一种基于人脸锁的红外补光方法及系统 |
CN117975532A (zh) * | 2024-02-02 | 2024-05-03 | 厦门熵基科技有限公司 | 人脸识别方法、装置、存储介质及计算机设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN203025900U (zh) * | 2013-01-09 | 2013-06-26 | 上海锦江电子技术工程有限公司 | 人脸识别报警设备 |
CN106469465A (zh) * | 2016-08-31 | 2017-03-01 | 深圳市唯特视科技有限公司 | 一种基于灰度和深度信息的三维人脸重建方法 |
CN112906529B (zh) * | 2021-02-05 | 2024-06-04 | 深圳前海微众银行股份有限公司 | 人脸识别补光方法、装置、人脸识别设备及其系统 |
CN112818938B (zh) * | 2021-03-03 | 2023-06-16 | 长春理工大学 | 一种自适应光照干扰环境的人脸识别算法及人脸识别装置 |
CN114155590A (zh) * | 2021-12-02 | 2022-03-08 | 杭州国芯科技股份有限公司 | 一种人脸识别方法 |
CN114612963A (zh) * | 2022-02-25 | 2022-06-10 | 李非燕 | 一种人脸识别安全系统 |
CN118230378A (zh) * | 2024-03-05 | 2024-06-21 | 四创电子股份有限公司 | 一种基于仓内外屏的自然光照图像增强的人脸识别方法 |
-
2024
- 2024-07-23 CN CN202410986979.8A patent/CN118522059B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573252A (zh) * | 2018-04-12 | 2018-09-25 | 广东汇泰龙科技有限公司 | 一种基于人脸锁的红外补光方法及系统 |
CN117975532A (zh) * | 2024-02-02 | 2024-05-03 | 厦门熵基科技有限公司 | 人脸识别方法、装置、存储介质及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN118522059A (zh) | 2024-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112069975B (zh) | 一种基于紫外、红外、视觉的综合火焰检测方法 | |
CN105023008B (zh) | 基于视觉显著性及多特征的行人再识别方法 | |
CN111797653B (zh) | 基于高维图像的图像标注方法和装置 | |
US7218759B1 (en) | Face detection in digital images | |
CN104751136B (zh) | 一种基于人脸识别的多相机视频事件回溯追踪方法 | |
CN109918971B (zh) | 监控视频中人数检测方法及装置 | |
CN108229458A (zh) | 一种基于运动检测和多特征提取的火焰智能识别方法 | |
CN112396011B (zh) | 一种基于视频图像心率检测及活体检测的人脸识别系统 | |
CN106127253B (zh) | 一种利用样本特征学习分类的红外弱小目标检测方法 | |
CN109255326B (zh) | 一种基于多维信息特征融合的交通场景烟雾智能检测方法 | |
CN112183472A (zh) | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 | |
CN111259756A (zh) | 基于局部高频次特征和混合度量学习的行人重识别方法 | |
CN106874867A (zh) | 一种融合肤色及轮廓筛选的人脸自适应检测与跟踪方法 | |
CN109241870B (zh) | 基于步态识别的煤矿井下人员身份识别方法 | |
CN106326839A (zh) | 一种基于出操视频流的人数统计方法 | |
CN110458064B (zh) | 结合数据驱动型和知识驱动型的低空目标检测与识别方法 | |
CN109919068B (zh) | 基于视频分析适应密集场景人流实时监测方法 | |
CN108073873A (zh) | 基于高清智能摄像机的人脸检测与识别系统 | |
CN114677667A (zh) | 一种基于深度学习的变电站电气设备红外故障识别方法 | |
CN118522059B (zh) | 一种用于公安实战场景人脸识别数据处理系统 | |
CN112733770A (zh) | 一种区域入侵监测方法和装置 | |
CN108875572B (zh) | 基于背景抑制的行人重识别方法 | |
CN104615985B (zh) | 一种人脸相似度的识别方法 | |
CN117475353A (zh) | 基于视频的异常烟雾识别方法及系统 | |
CN110163161A (zh) | 基于尺度不变的多特征融合行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |