CN112395979B - 基于图像的健康状态识别方法、装置、设备及存储介质 - Google Patents
基于图像的健康状态识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112395979B CN112395979B CN202011286362.3A CN202011286362A CN112395979B CN 112395979 B CN112395979 B CN 112395979B CN 202011286362 A CN202011286362 A CN 202011286362A CN 112395979 B CN112395979 B CN 112395979B
- Authority
- CN
- China
- Prior art keywords
- recognition model
- image
- training
- face
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000036541 health Effects 0.000 title claims abstract description 93
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 153
- 238000012937 correction Methods 0.000 claims abstract description 64
- 239000011159 matrix material Substances 0.000 claims abstract description 56
- 238000012795 verification Methods 0.000 claims description 62
- 230000001815 facial effect Effects 0.000 claims description 40
- 230000003862 health status Effects 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 29
- 238000009826 distribution Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000002372 labelling Methods 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 9
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000013527 convolutional neural network Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 230000010354 integration Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 206010030113 Oedema Diseases 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 208000030090 Acute Disease Diseases 0.000 description 1
- 208000017667 Chronic Disease Diseases 0.000 description 1
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 206010013786 Dry skin Diseases 0.000 description 1
- 206010052139 Eye oedema Diseases 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000037336 dry skin Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于图像的健康状态识别方法、装置、设备及存储介质,属于人工智能领域,所述方法通过第一训练样本集训练初始特征识别模型,得到人脸特征识别模型;采集人脸特征识别模型的训练结果,并基于训练结果对初始关系识别模型进行训练,得到特征关系识别模型,并基于特征关系识别模型生成校正矩阵;获取待识别图像,并通过人脸特征识别模型对待识别图像进行识别,得到用户的脸部特征;基于校正矩阵对待识别图像的人脸特征进行校正,根据校正结果识别用户的健康状态。此外,本申请还涉及区块链技术,待识别图像可存储于区块链中。本申请可以显著提高人脸健康状态识别精度,同时适配性较强,方便部署于移动终端。
Description
技术领域
本申请属于人工智能技术领域,具体涉及一种基于图像的健康状态识别方法、装置、计算机设备及存储介质。
背景技术
随着人工智能在金融领域中的广泛使用,在移动端开展金融行为的场景越来越常见,而在移动端开展金融行为一般涉及到一套较为严格的审批业务,其中判定用户是否是在健康、头脑清醒的情况下做出的判断与操作,是确保送用户操作资料是否具备法律意义的前提。
目前,人脸健康状态识别技术的实现大多集中在基于客户生理信号、全身图像、脸部图像、视频影响来做出客户是否健康、是否清醒的判断。比如基于便携性设备(比如手环)获得用户的身体参数,如血压等,基于用户的身体参数综合判断用户的健康状态;但是,通过身体参数判断用户的健康状态,需要借助额外的设备,客户体验感往往不佳,不利于系统集成,并且使用的条件比较严苛。而通过拍摄用户一段全身视频影像或者图像,然后分析全身视频影像或者图像来对客户健康状态进行判断。而目前通过影像或者图像来对客户健康状态进行判断时,需要拍摄用户带有特定动作或者姿态的全身视频影像或者图像才能实现,而要求用户做出特定动作或者姿态客户体验感往往不佳,并且无法适应于移动端业务。
发明内容
本申请实施例的目的在于提出一种基于图像的健康状态识别方法、装置、计算机设备及存储介质,以解决现有的人脸健康状态识别技术客户体验感不佳,且无法适应于移动端业务的技术问题。
为了解决上述技术问题,本申请实施例提供一种基于图像的健康状态识别方法,采用了如下所述的技术方案:
一种基于图像的健康状态识别方法,包括:
从预设数据库中获取第一训练样本集,通过第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型;
采集人脸特征识别模型的训练结果,并基于训练结果对初始关系识别模型进行训练,得到特征关系识别模型,基于特征关系识别模型生成校正矩阵;
获取待识别图像,并通过人脸特征识别模型对待识别图像进行识别,得到待识别图像中用户的脸部特征;
基于校正矩阵对待识别图像的人脸特征进行校正,根据校正结果识别用户的健康状态。
进一步地,从预设数据库中获取第一训练样本集,通过第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型的步骤,具体包括:
从预设数据库中获取样本数据,对样本数据进行标注;
对标注后的样本数据进行随机组合,得到第一训练样本集和第一验证数据集;
将第一训练样本集导入到初始特征识别模型中进行模型训练,得到初始人脸特征识别模型;
通过第一验证数据集对初始人脸特征识别模型进行验证,输出验证通过的人脸特征识别模型。
进一步地,通过第一验证数据集对初始人脸特征识别模型进行验证,输出验证通过的人脸特征识别模型的步骤,具体包括:
将第一验证数据集导入到初始人脸特征识别模型,输出识别结果;
基于识别结果与第一预设标准结果,使用反向传播算法进行拟合计算,获取识别误差;
将识别误差与第一预设误差阈值进行比较,若识别误差大于第一预设误差阈值,则对初始人脸特征识别模型进行迭代更新,直到识别误差小于或等于第一预设误差阈值为止,获取验证通过的人脸特征识别模型。
进一步地,采集人脸特征识别模型的训练结果,并基于训练结果对初始关系识别模型进行训练,得到特征关系识别模型,基于特征关系识别模型生成校正矩阵的步骤,具体包括:
采集人脸特征识别模型的训练结果,并对训练结果进行标注,得到健康状态标签;
统计健康状态标签的数量,并基于健康状态标签的数量计算每一个健康状态标签的联合分布概率;
基于联合分布概率对健康状态标签进行组合,得到第二训练样本集和第二验证数据集;
根据第二训练样本集对预设的初始关系识别模型进行训练,得到特征关系识别模型;
获取特征关系识别模型的输出结果,并基于输出结果生成校正矩阵。
进一步地,根据第二训练样本集对预设的初始关系识别模型进行训练,得到特征关系识别模型的步骤,具体包括:
将第二训练样本集导入到预设的初始关系识别模型进行进行训练,得到初始特征关系识别模型;
通过第二验证数据集对初始特征关系识别模型进行验证,输出预测结果;
基于预测结果与第二预设标准结果,使用反向传播算法进行拟合计算,获取预测误差;
将预测误差与第二预设误差阈值进行比较,若预测误差大于第二预设误差阈值,则对初始特征关系识别模型进行迭代更新,直到预测误差小于或等于第二预设误差阈值为止,获取验证通过的特征关系识别模型。
进一步地,对初始特征关系识别模型进行迭代更新,直到预测误差小于或等于第二预设误差阈值为止,获取验证通过的特征关系识别模型的步骤,具体包括:
设置初始特征关系识别模型的损失函数;
基于损失函数对初始特征关系识别模型进行迭代更新,直至损失函数的输出达到最小值;
获取损失函数的输出达到最小值的特征关系识别模型。
进一步地,获取待识别图像,并通过人脸特征识别模型对待识别图像进行识别,得到待识别图像中用户的脸部特征的步骤,具体包括:
获取待识别图像,并对待识别图像进行扫描,识别待识别图像中的人脸区域;
通过人脸特征识别模型对待识别图像中的人脸区域进行特征识别,得到待识别图像中用户的脸部特征。
为了解决上述技术问题,本申请实施例还提供一种基于图像的健康状态识别装置,采用了如下所述的技术方案:
一种基于图像的健康状态识别装置,包括:
第一模型训练模块,用于从预设数据库中获取第一训练样本集,通过第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型;
第二模型训练模块,用于采集人脸特征识别模型的训练结果,并基于训练结果对初始关系识别模型进行训练,得到特征关系识别模型,基于特征关系识别模型生成校正矩阵;
脸部特征识别模块,用于获取待识别图像,并通过人脸特征识别模型对待识别图像进行识别,得到待识别图像中用户的脸部特征;
健康状态识别模块,用于基于校正矩阵对待识别图像的人脸特征进行校正,根据校正结果识别用户的健康状态。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,处理器执行计算机可读指令时实现如上述任一项的基于图像的健康状态识别方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,计算机可读存储介质上存储有计算机可读指令,计算机可读指令被处理器执行时实现如上述任一项的基于图像的健康状态识别方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请公开了一种基于图像的健康状态识别方法、装置、设备及存储介质,属于人工智能领域,所述方法通过预先构建的人脸特征识别模型和特征关系识别模型,并基于特征关系识别模型生成人脸特征识别模型的校正矩阵。在进行人脸健康状态识别时,通过预先构建的人脸特征识别模型进行特征提取,以获得用户的脸部特征,然后校正矩阵对用户的脸部特征参数进行校正,最后根据校正结果对人脸的健康状态进行识别。提高了人脸健康状态识别精度,同时通过校正矩阵对用户的脸部特征参数进行校正不会占用大量的计算资源和系统资源,有利于减轻系统运算压力和系统集成压力,适配性较强,方便部署于移动终端内。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请可以应用于其中的示例性系统架构图;
图2示出了根据本申请的基于图像的健康状态识别方法的一个实施例的流程图;
图3示出了图2中步骤S201的一种具体实施方式的流程图;
图4示出了图2中步骤S202的一种具体实施方式的流程图;
图5示出了根据本申请的基于图像的健康状态识别装置的一个实施例的结构示意图;
图6示出了根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于图像的健康状态识别方法一般由服务器/终端设备执行,相应地,基于图像的健康状态识别装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于图像的健康状态识别的方法的一个实施例的流程图。所述的基于图像的健康状态识别方法,包括以下步骤:
S201,从预设数据库中获取第一训练样本集,通过第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型。
随着人工智能在金融领域中的广泛使用,在移动端开展金融行为的场景越来越常见,而在移动端开展金融行为一般涉及到一套较为严格的审批业务,其中判定用户是否是在健康、头脑清醒的情况下做出的判断与操作,是确保送用户操作资料是否具备法律意义的前提。决定用户操作是否具有法律意义的重要因素在于确定客户在做此操作时是否神志清醒,在实际应用场景中,根据对业务场景的具体分析,导致客户不清醒的原因主要有以下三种情况:1.醉酒;2.极度欠缺休息;3.一些急慢性病。这些原因在用户脸上均会反映出相应的特征,具体可归纳为以下情况:眼部状态(比如是否浮肿,凹陷等),脸颊状态(比如浮肿,凹陷等),皮肤状态(比如醉酒发红,比如欠缺休息所导致的皮肤发干)。
具体的,从预设数据库中获取样本数据,在本申请中样本数据为不同用户的人脸图像,基于上述脸部特征对样本数据进行标注,得到对标注后的样本数据进行组合,得到第一训练样本集,通过第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型。其中,预设的初始特征识别模型为深度卷积神经网络模型,如CNN模型,卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络”。卷积神经网络仿造生物的视知觉(visual perception)机制构建,可以进行监督学习和非监督学习,其卷积层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对格点化(grid-like topology)特征,例如像素和音频进行学习,有稳定的效果且对数据没有额外的特征工程要求。
S202,采集人脸特征识别模型的训练结果,并基于训练结果对初始关系识别模型进行训练,得到特征关系识别模型,基于特征关系识别模型生成校正矩阵。
具体的,采集人脸特征识别模型训练时输出的训练结果,对人脸特征识别模型的训练结果进行标注,对标注后的人脸特征识别模型的训练结果进行组合,得到第二训练样本集,通过第二训练样本集训练初始关系识别模型,得到训练完成的特征关系识别模型,对训练完成的特征关系识别模型进行验证直至模型拟合,获取特征关系识别模型的输出结果,基于特征关系识别模型的输出结果生成校正矩阵,其中,特征关系识别模型的输出结果为矩阵形式。
其中,初始关系识别模型为图卷积神经网络模型,如GCN模型,图卷积网络(GraphConvolutional Network,GCN)是近年来逐渐流行的一种神经网络结构。不同于只能用于网格结构(grid-based)数据的传统网络模型LSTM和CNN,图卷积网络能够处理具有广义拓扑图结构的数据,并深入发掘其特征和规律,例如PageRank引用网络、社交网络、通信网络、蛋白质分子结构等一系列具有空间拓扑图结构的不规则数据。GCN精妙地设计了一种从图数据中提取特征的方法,它能同时对节点特征信息与结构信息进行端对端学习,是目前对图数据学习任务的最佳选择,图卷积适用性极广,适用于任意拓扑结构的节点与图。
S203,获取待识别图像,并通过人脸特征识别模型对待识别图像进行识别,得到待识别图像中用户的脸部特征。
具体的,在接收到健康状态识别指令时,获取用户的待识别图像,并通过训练好的人脸特征识别模型对待识别图像进行识别,得到用户的脸部特征。需要说明的是,通过人脸特征识别模型对待识别图像进行特征识别,可以得到待识别图像中用户的多个脸部特征。
在本实施例中,基于图像的健康状态识别方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式接收到健康状态识别指令。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
S204,基于校正矩阵对待识别图像的人脸特征进行校正,根据校正结果识别用户的健康状态。
具体的,获取人脸特征识别模型输出的多个脸部特征,其中,人脸特征识别模型输出的取矩阵形式,利用校正矩阵分别与人脸特征识别模型输出结果进行内积运算,以完成对待识别图像的多个人脸特征进行校正,其中,权重矩阵可认为是一个校正人脸特征的工具。然后对校正结果进行sigmoid处理,输出sigmoid处理结果,sigmoid处理结果为一个具体数值,通过sigmoid处理结果判断用户的健康状态。
在本申请具体的实施例中,结合CNN深度学习卷积网络模型和GCN图卷积网络模型进行进行模型训练,得到人脸特征识别模型和特征关系识别模型,并基于特征关系识别模型生成人脸特征识别模型的校正矩阵。然后可以将训练好的人脸特征识别模型和校正矩阵部署到移动终端,在进行健康状态识别时,通过校正矩阵对用户的脸部特征参数进行校正不会占用大量的计算资源和系统资源,有利于减轻系统运算压力和系统集成压力,适配性较强,方便部署于移动终端内。
本申请公开了一种基于图像的健康状态识别方法、装置、设备及存储介质,属于人工智能领域,所述方法通过预先构建的人脸特征识别模型和特征关系识别模型,并基于特征关系识别模型生成人脸特征识别模型的校正矩阵。在进行人脸健康状态识别时,通过预先构建的人脸特征识别模型进行特征提取,以获得用户的脸部特征,然后校正矩阵对用户的脸部特征参数进行校正,最后根据校正结果对人脸的健康状态进行识别。提高了人脸健康状态识别精度,同时通过校正矩阵对用户的脸部特征参数进行校正不会占用大量的计算资源和系统资源,有利于减轻系统运算压力和系统集成压力,适配性较强,方便部署于移动终端内。
进一步地,请参考图3,图3示出了图2中步骤S201的一种具体实施方式的流程图,从预设数据库中获取第一训练样本集,通过第一训练样本集训练初始特征识别模型,得到人脸特征识别模型的步骤,具体包括:
S301,从预设数据库中获取样本数据,对样本数据进行标注;
S302,对标注后的样本数据进行随机组合,得到第一训练样本集和第一验证数据集;
S303,将第一训练样本集导入到初始特征识别模型中进行模型训练,得到初始人脸特征识别模型;
S304,通过第一验证数据集对初始人脸特征识别模型进行验证,输出验证通过的人脸特征识别模型。
具体的,从预设数据库中获取样本数据,在本申请中样本数据为不同用户的人脸图像,基于样本数据的脸部特征对样本数据进行标注,对标注后的样本数据进行随机组合,得到第一训练样本集和第一验证数据集,如可以将标注后的样本数据随机分为10等份的样本子集,其中,随机组合9样本子集作为第一训练样本集,将剩余的样本子集作为第一验证数据集。将第一训练样本集导入到初始特征识别模型中进行模型训练,得到初始人脸特征识别模型,通过第一验证数据集对初始人脸特征识别模型进行验证,输出验证通过的人脸特征识别模型。在上述实施例,通过构建第一训练样本集和第一验证数据集,并分别通过第一训练样本集和第一验证数据集对初始特征识别模型进行训练和验证,可以快速获得人脸特征识别模型。
进一步地,通过第一验证数据集对初始人脸特征识别模型进行验证,输出验证通过的人脸特征识别模型的步骤,具体包括:
将第一验证数据集导入到初始人脸特征识别模型,输出识别结果;
基于识别结果与第一预设标准结果,使用反向传播算法进行拟合计算,获取识别误差;
将识别误差与第一预设误差阈值进行比较,若识别误差大于第一预设误差阈值,则对初始人脸特征识别模型进行迭代更新,直到识别误差小于或等于第一预设误差阈值为止,获取验证通过的人脸特征识别模型。
其中,反向传播算法,即误差反向传播算法(Backpropagation algorithm,BP算法)适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上,用于深度学习网络的误差计算。BP网络的输入、输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。BP算法的学习过程由正向传播过程和反向传播过程组成。在正向传播过程中,输入信息通过输入层经隐含层,逐层处理并传向输出层,并转入反向传播,逐层求出目标函数对各神经元权值的偏导数,构成目标函数对权值向量的梯量,以作为修改权值的依据。
具体的,将第一验证数据集导入到初始人脸特征识别模型,输出识别结果;基于识别结果与第一预设标准结果,使用反向传播算法进行拟合计算,获取识别误差;将识别误差与第一预设误差阈值进行比较,若识别误差大于第一预设误差阈值,则基于初始人脸特征识别模型的损失函数对初始人脸特征识别模型进行迭代更新,直到识别误差小于或等于第一预设误差阈值为止,获取验证通过的人脸特征识别模型。其中,第一预设标准结果和第一预设误差阈值可以提前设定。在上述实施例中,通过反向传播算法对人脸特征识别模型进行验证和迭代,得到符合要求的人脸特征识别模型。
进一步地,请参考图4,图4示出了图2中步骤S202的一种具体实施方式的流程图,采集人脸特征识别模型的训练结果,并基于训练结果对初始关系识别模型进行训练,得到特征关系识别模型,基于特征关系识别模型生成校正矩阵的步骤,具体包括:
S401,采集人脸特征识别模型的训练结果,并对训练结果进行标注,得到健康状态标签;
S402,统计健康状态标签的数量,并基于健康状态标签的数量计算每一个健康状态标签的联合分布概率;
S403,基于联合分布概率对健康状态标签进行组合,得到第二训练样本集和第二验证数据集;
S404,根据第二训练样本集对预设的初始关系识别模型进行训练,得到特征关系识别模型;
S405,获取特征关系识别模型的输出结果,并基于输出结果生成校正矩阵。
其中,对人脸特征识别模型的训练结果进行标注,得到人脸健康状态的标签,在申请具体的实施例中,人脸健康状态的标签如脸部红晕-醉酒、眼部浮肿-欠缺休息、黑眼圈-欠缺休息等等。联合分布概率简称联合分布,是两个及以上随机变量组成的随机向量的概率分布,在本申请具体的实施例中,通过联合分布概率来表征各个健康状态标签对于人脸健康状态影响的权重值。
具体的,通过第一训练样本集导入人脸特征识别模型中进行训练,采集人脸特征识别模型的每一个训练结果,并对得到训练结果进行标注,得到健康状态标签,如某个训练结果显示用户脸部红晕,则标注为醉酒,某个训练结果显示用户眼部黑眼圈,则标注为欠缺休息。统计得到的所有健康状态标签的数量,并基于健康状态标签的数量计算每一个健康状态标签的联合分布概率,基于联合分布概率对健康状态标签进行组合,得到第二训练样本集和第二验证数据集,根据第二训练样本集对预设的初始关系识别模型进行训练,得到特征关系识别模型,获取特征关系识别模型的输出结果,并基于输出结果生成校正矩阵。在上述实施例中,通过对人脸特征识别模型的训练结果进行标注和组合,得到二训练样本集和第二验证数据集,通过二训练样本集和第二验证数据集对对初始关系识别模型进行训练,得到特征关系识别模型,基于特征关系识别模型的输出结果生成校正矩阵,可以快速获得特征关系识别模型和校正矩阵。
在本申请一种具体的实施例中,在基于联合分布概率对健康状态标签进行组合,得到第二训练样本集和第二验证数据集的步骤之前,还包括:
通过work2vec工具对健康状态标签进行矢量化。
其中,work2vec一款用于词向量计算的工具,word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练,word2vec得到的训练结果——词向量(wordembedding),可以很好地度量词与词之间的相似性。word2vec算法的背后是一个浅层神经网络。另外需要强调的一点是,word2vec是一个计算word vector的开源工具。
具体的,通过work2vec工具对每一个健康状态标签进行矢量化,得到每一个健康状态标签的特征向量,根据联合分布概率对特征向量进行随机组合,得到第二训练样本集和第二验证数据集,第二训练样本集和第二验证数据集均为向量形式的数据集,通过将向量形式的数据集输入到特征关系识别模型,得到矩阵形式的输出结果,以便获得校正矩阵。
进一步地,根据第二训练样本集对预设的初始关系识别模型进行训练,得到特征关系识别模型的步骤,具体包括:
将第二训练样本集导入到预设的初始关系识别模型进行进行训练,得到初始特征关系识别模型;
通过第二验证数据集对初始特征关系识别模型进行验证,输出预测结果;
基于预测结果与第二预设标准结果,使用反向传播算法进行拟合计算,获取预测误差;
将预测误差与第二预设误差阈值进行比较,若预测误差大于第二预设误差阈值,则对初始特征关系识别模型进行迭代更新,直到预测误差小于或等于第二预设误差阈值为止,获取验证通过的特征关系识别模型。
具体的,将第二训练样本集导入到初始关系识别模型进行进行训练,得到初始特征关系识别模型,将第二验证数据集导入到初始特征关系识别模型进行验证,输出预测结果,基于预测结果与第二预设标准结果,使用反向传播算法进行拟合计算,获取预测误差,将预测误差与第二预设误差阈值进行比较,若预测误差大于第二预设误差阈值,则基于初始特征关系识别模型的损失函数对初始特征关系识别模型进行迭代更新,直到预测误差小于或等于第二预设误差阈值为止,获取验证通过的特征关系识别模型。其中,第二预设标准结果和第二预设误差阈值可以提前设定。在上述实施例中,通过反向传播算法对特征关系识别模型进行验证和迭代,得到符合要求的特征关系识别模型。
进一步地,对初始特征关系识别模型进行迭代更新,直到预测误差小于或等于第二预设误差阈值为止,获取验证通过的特征关系识别模型的步骤,具体包括:
设置初始特征关系识别模型的损失函数;
基于损失函数对初始特征关系识别模型进行迭代更新,直至损失函数的输出达到最小值;
获取损失函数的输出达到最小值的特征关系识别模型。
具体的,构建初始特征关系识别模型的损失函数,基于构建的损失函数对特征关系识别模型进行参数优化,直至特征关系识别模型的损失函数达到最小值,特征关系识别模型的损失函数L具体如下:
其中,c指的是标签号,y表示真实标签值,表示预测输出,σ表示sigmoid函数。
在上述实施例中,通过构建初始特征关系识别模型的损失函数,以及基于构建的损失函数对特征关系识别模型进行参数优化,以实现对初始特征关系识别模型进行迭代更新。
进一步地,获取待识别图像,并通过人脸特征识别模型对待识别图像进行识别,得到待识别图像中用户的脸部特征的步骤,具体包括:
获取待识别图像,并对待识别图像进行扫描,识别待识别图像中的人脸区域;
通过人脸特征识别模型对待识别图像中的人脸区域进行特征识别,得到待识别图像中用户的脸部特征。
具体的,在进行人脸健康状态识别时,获取待识别图像,并将待识别图像输入到训练好的人脸特征识别模型,获取待识别图像中的用户的脸部特征。其中,通过SSD模型识别待识别图像中的人脸区域。
在本申请具体的实施例中,在获取待识别图像后,对待识别图像进行归一化,使用预训练的SSD(Single Shot MultiBox Detector,通用物体检测)模型对人脸区域进行提取。由SSD模型可以提取得到人脸框的左上以及右下点的坐标,根据提取出的坐标将人脸区域由原图中截取出来,并将其缩放到448x448大小,再将缩放后的人脸区域输入到人脸特征识别模型对待识别图像进行识别,得到用户的脸部特征。
在本申请具体的实施例中,通过预先构建的SSD模型对待检测图像进行人脸区域截取,然后使用预先构建的人脸特征识别模型进行用户的人脸特征提取,获取人脸特征张量。然后使用预先构建的校正矩阵对用户人脸特征张量进行校正,最后基于校正结果识别用户的健康状态。在本申请中,通过一个简单的校正矩阵对人脸特征进行校正,提高了健康状态识别的精度,因而适配性很强,且识别过程不会占用大量的计算资源。
需要强调的是,为进一步保证上述待识别图像的私密和安全性,上述待识别图像还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图5,作为对上述图2所示方法的实现,本申请提供了一种基于图像的健康状态识别装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例所述的基于图像的健康状态识别装置包括:
第一模型训练模块501,用于从预设数据库中获取第一训练样本集,通过第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型;
第二模型训练模块502,用于采集人脸特征识别模型的训练结果,并基于训练结果对初始关系识别模型进行训练,得到特征关系识别模型,基于特征关系识别模型生成校正矩阵;
脸部特征识别模块503,用于获取待识别图像,并通过人脸特征识别模型对待识别图像进行识别,得到待识别图像中用户的脸部特征;
健康状态识别模块504,用于基于校正矩阵对待识别图像的人脸特征进行校正,根据校正结果识别用户的健康状态。
进一步地,第一模型训练模块501具体包括:
第一标注子模块,用于从预设数据库中获取样本数据,对样本数据进行标注;
第一组合子模块,用于对标注后的样本数据进行随机组合,得到第一训练样本集和第一验证数据集;
第一训练子模块,用于将第一训练样本集导入到初始特征识别模型中进行模型训练,得到初始人脸特征识别模型;
第一验证子模块,用于通过第一验证数据集对初始人脸特征识别模型进行验证,输出验证通过的人脸特征识别模型。
进一步地,第一验证单元具体包括:
第一验证单元,用于将第一验证数据集导入到初始人脸特征识别模型,输出识别结果;
第一误差计算单元,用于基于识别结果与第一预设标准结果,使用反向传播算法进行拟合计算,获取识别误差;
第一迭代单元,用于将识别误差与第一预设误差阈值进行比较,若识别误差大于第一预设误差阈值,则对初始人脸特征识别模型进行迭代更新,直到识别误差小于或等于第一预设误差阈值为止,获取验证通过的人脸特征识别模型。
进一步地,第二模型训练模块502具体包括:
第二标注子模块,用于采集人脸特征识别模型的训练结果,并对训练结果进行标注,得到健康状态标签;
联合分布概率计算子模块,用于统计健康状态标签的数量,并基于健康状态标签的数量计算每一个健康状态标签的联合分布概率;
第二组合子模块,用于基于联合分布概率对健康状态标签进行组合,得到第二训练样本集和第二验证数据集;
第二训练子模块,用于根据第二训练样本集对初始关系识别模型进行训练,得到特征关系识别模型;
校正矩阵生成子模块,用于获取特征关系识别模型的输出结果,并基于输出结果生成校正矩阵。
进一步地,第二训练单元具体包括:
第二训练单元,用于将第二训练样本集导入到初始关系识别模型进行进行训练,得到初始特征关系识别模型;
第二验证单元,用于通过第二验证数据集对初始特征关系识别模型进行验证,输出预测结果;
第二误差计算单元,用于基于预测结果与第二预设标准结果,使用反向传播算法进行拟合计算,获取预测误差;
第二迭代单元,用于将预测误差与第二预设误差阈值进行比较,若预测误差大于第二预设误差阈值,则对初始特征关系识别模型进行迭代更新,直到预测误差小于或等于第二预设误差阈值为止,获取验证通过的特征关系识别模型。
进一步地,第二迭代单元具体包括:
损失函数设置子单元,用于设置初始特征关系识别模型的损失函数;
第二迭代子单元,用于基于损失函数对初始特征关系识别模型进行迭代更新,直至损失函数的输出达到最小值;
获取损失函数的输出达到最小值的特征关系识别模型。
进一步地,脸部特征识别模块503具体包括:
人脸区域识别子模块,用于获取待识别图像,并对待识别图像进行扫描,识别待识别图像中的人脸区域;
脸部特征识别子模块,用于通过人脸特征识别模型对待识别图像中的人脸区域进行特征识别,得到待识别图像中用户的脸部特征。
本申请公开了一种基于图像的健康状态识别装置,属于人工智能领域,通过预先构建的人脸特征识别模型和特征关系识别模型,并基于特征关系识别模型生成人脸特征识别模型的校正矩阵。在进行人脸健康状态识别时,通过预先构建的人脸特征识别模型进行特征提取,以获得用户的脸部特征,然后校正矩阵对用户的脸部特征参数进行校正,最后根据校正结果对人脸的健康状态进行识别。提高了人脸健康状态识别精度,同时通过校正矩阵对用户的脸部特征参数进行校正不会占用大量的计算资源和系统资源,有利于减轻系统运算压力和系统集成压力,适配性较强,方便部署于移动终端内。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图6,图6为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如基于图像的健康状态识别方法的计算机可读指令等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的计算机可读指令或者处理数据,例如运行所述基于图像的健康状态识别方法的计算机可读指令。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本申请公开了计算机设备,属于人工智能领域,所述方法通过预先构建的人脸特征识别模型和特征关系识别模型,并基于特征关系识别模型生成人脸特征识别模型的校正矩阵。在进行人脸健康状态识别时,通过预先构建的人脸特征识别模型进行特征提取,以获得用户的脸部特征,然后校正矩阵对用户的脸部特征参数进行校正,最后根据校正结果对人脸的健康状态进行识别。提高了人脸健康状态识别精度,同时通过校正矩阵对用户的脸部特征参数进行校正不会占用大量的计算资源和系统资源,有利于减轻系统运算压力和系统集成压力,适配性较强,方便部署于移动终端内。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于图像的健康状态识别方法的步骤。
本申请公开了一种存储介质,属于人工智能领域,所述方法通过预先构建的人脸特征识别模型和特征关系识别模型,并基于特征关系识别模型生成人脸特征识别模型的校正矩阵。在进行人脸健康状态识别时,通过预先构建的人脸特征识别模型进行特征提取,以获得用户的脸部特征,然后校正矩阵对用户的脸部特征参数进行校正,最后根据校正结果对人脸的健康状态进行识别。提高了人脸健康状态识别精度,同时通过校正矩阵对用户的脸部特征参数进行校正不会占用大量的计算资源和系统资源,有利于减轻系统运算压力和系统集成压力,适配性较强,方便部署于移动终端内。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (9)
1.一种基于图像的健康状态识别方法,其特征在于,包括:
从预设数据库中获取第一训练样本集,通过所述第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型;
采集所述人脸特征识别模型的训练结果,并基于所述训练结果对初始关系识别模型进行训练,得到特征关系识别模型,基于所述特征关系识别模型生成校正矩阵;
获取待识别图像,并通过所述人脸特征识别模型对所述待识别图像进行识别,得到所述待识别图像中用户的脸部特征;
基于所述校正矩阵对所述待识别图像的人脸特征进行校正,根据校正结果识别所述用户的健康状态,其中,所述人脸特征识别模型输出的取矩阵形式,利用所述校正矩阵与所述人脸特征识别模型的输出结果进行内积运算,以对所述待识别图像的人脸特征进行校正;
所述采集所述人脸特征识别模型的训练结果,并基于所述训练结果对初始关系识别模型进行训练,得到特征关系识别模型,并基于所述特征关系识别模型生成校正矩阵的步骤,具体包括:
采集所述人脸特征识别模型的训练结果,并对所述训练结果进行标注,得到健康状态标签;
统计所述健康状态标签的数量,并基于所述健康状态标签的数量计算每一个所述健康状态标签的联合分布概率,其中,所述联合分布概率用来表征各个健康状态标签对于人脸健康状态影响的权重值;
基于所述联合分布概率对所述健康状态标签进行组合,得到第二训练样本集和第二验证数据集;
根据所述第二训练样本集对预设的初始关系识别模型进行训练,得到特征关系识别模型;
获取所述特征关系识别模型的输出结果,并基于所述输出结果生成校正矩阵。
2.如权利要求1所述的基于图像的健康状态识别方法,其特征在于,所述从预设数据库中获取第一训练样本集,通过所述第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型的步骤,具体包括:
从所述预设数据库中获取样本数据,对所述样本数据进行标注;
对标注后的样本数据进行随机组合,得到第一训练样本集和第一验证数据集;
将所述第一训练样本集导入到所述初始特征识别模型中进行模型训练,得到初始人脸特征识别模型;
通过所述第一验证数据集对所述初始人脸特征识别模型进行验证,输出验证通过的所述人脸特征识别模型。
3.如权利要求2所述的基于图像的健康状态识别方法,其特征在于,所述通过所述第一验证数据集对所述初始人脸特征识别模型进行验证,输出验证通过的所述人脸特征识别模型的步骤,具体包括:
将所述第一验证数据集导入到所述初始人脸特征识别模型,输出识别结果;
基于所述识别结果与第一预设标准结果,使用反向传播算法进行拟合计算,获取识别误差;
将所述识别误差与第一预设误差阈值进行比较,若所述识别误差大于第一预设误差阈值,则对所述初始人脸特征识别模型进行迭代更新,直到所述识别误差小于或等于所述第一预设误差阈值为止,获取验证通过的所述人脸特征识别模型。
4.如权利要求1所述的基于图像的健康状态识别方法,其特征在于,所述根据所述第二训练样本集对预设的初始关系识别模型进行训练,得到特征关系识别模型的步骤,具体包括:
将所述第二训练样本集导入到所述预设的初始关系识别模型进行训练,得到初始特征关系识别模型;
通过所述第二验证数据集对所述初始特征关系识别模型进行验证,输出预测结果;
基于所述预测结果与第二预设标准结果,使用反向传播算法进行拟合计算,获取预测误差;
将所述预测误差与第二预设误差阈值进行比较,若所述预测误差大于第二预设误差阈值,则对所述初始特征关系识别模型进行迭代更新,直到所述预测误差小于或等于所述第二预设误差阈值为止,获取验证通过的所述特征关系识别模型。
5.如权利要求4所述的基于图像的健康状态识别方法,其特征在于,所述对所述初始特征关系识别模型进行迭代更新,直到所述预测误差小于或等于所述第二预设误差阈值为止,获取验证通过的所述特征关系识别模型的步骤,具体包括:
设置所述初始特征关系识别模型的损失函数;
基于所述损失函数对所述初始特征关系识别模型进行迭代更新,直至所述损失函数的输出达到最小值;
获取所述损失函数的输出达到最小值的所述特征关系识别模型。
6.如权利要求1至5任意一项所述的基于图像的健康状态识别方法,其特征在于,所述获取待识别图像,并通过所述人脸特征识别模型对所述待识别图像进行识别,得到所述待识别图像中用户的脸部特征的步骤,具体包括:
获取所述待识别图像,并对所述待识别图像进行扫描,识别所述待识别图像中的人脸区域;
通过所述人脸特征识别模型对所述待识别图像中的人脸区域进行特征识别,得到所述待识别图像中用户的脸部特征。
7.一种基于图像的健康状态识别装置,其特征在于,包括:
第一模型训练模块,用于从预设数据库中获取第一训练样本集,通过所述第一训练样本集训练预设的初始特征识别模型,得到人脸特征识别模型;
第二模型训练模块,用于采集所述人脸特征识别模型的训练结果,并基于所述训练结果对初始关系识别模型进行训练,得到特征关系识别模型,基于所述特征关系识别模型生成校正矩阵;
脸部特征识别模块,用于获取待识别图像,并通过所述人脸特征识别模型对所述待识别图像进行识别,得到所述待识别图像中用户的脸部特征;
健康状态识别模块,用于基于所述校正矩阵对所述待识别图像的人脸特征进行校正,根据校正结果识别所述用户的健康状态,其中,所述人脸特征识别模型输出的取矩阵形式,利用所述校正矩阵与所述人脸特征识别模型的输出结果进行内积运算,以对所述待识别图像的人脸特征进行校正;
所述第二模型训练模块具体包括:
第二标注子模块,用于采集所述人脸特征识别模型的训练结果,并对所述训练结果进行标注,得到健康状态标签;
联合分布概率计算子模块,用于统计所述健康状态标签的数量,并基于所述健康状态标签的数量计算每一个所述健康状态标签的联合分布概率,其中,所述联合分布概率用来表征各个健康状态标签对于人脸健康状态影响的权重值;
第二组合子模块,用于基于所述联合分布概率对所述健康状态标签进行组合,得到第二训练样本集和第二验证数据集;
第二训练子模块,用于根据所述第二训练样本集对预设的初始关系识别模型进行训练,得到特征关系识别模型;
校正矩阵生成子模块,用于获取所述特征关系识别模型的输出结果,并基于所述输出结果生成校正矩阵。
8.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至6中任一项所述的基于图像的健康状态识别方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至6中任一项所述的基于图像的健康状态识别方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011286362.3A CN112395979B (zh) | 2020-11-17 | 2020-11-17 | 基于图像的健康状态识别方法、装置、设备及存储介质 |
PCT/CN2021/090417 WO2022105118A1 (zh) | 2020-11-17 | 2021-04-28 | 基于图像的健康状态识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011286362.3A CN112395979B (zh) | 2020-11-17 | 2020-11-17 | 基于图像的健康状态识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112395979A CN112395979A (zh) | 2021-02-23 |
CN112395979B true CN112395979B (zh) | 2024-05-10 |
Family
ID=74605823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011286362.3A Active CN112395979B (zh) | 2020-11-17 | 2020-11-17 | 基于图像的健康状态识别方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112395979B (zh) |
WO (1) | WO2022105118A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112395979B (zh) * | 2020-11-17 | 2024-05-10 | 平安科技(深圳)有限公司 | 基于图像的健康状态识别方法、装置、设备及存储介质 |
CN112861788A (zh) * | 2021-03-10 | 2021-05-28 | 中电健康云科技有限公司 | 基于脸色识别技术判断健康状况的方法 |
CN113158842A (zh) * | 2021-03-31 | 2021-07-23 | 中国工商银行股份有限公司 | 一种识别方法、系统、设备及介质 |
CN113361402B (zh) * | 2021-06-04 | 2023-08-18 | 北京百度网讯科技有限公司 | 识别模型的训练方法、确定准确率的方法、装置和设备 |
CN115270993B (zh) * | 2022-08-23 | 2023-06-23 | 南通思诺船舶科技有限公司 | 柴油机组状态检测方法及系统 |
CN117031971B (zh) * | 2023-07-18 | 2024-04-19 | 东莞莱姆森科技建材有限公司 | 基于智能镜的智能家具设备调节方法、装置、设备及介质 |
CN117237800B (zh) * | 2023-08-01 | 2024-06-14 | 广州智在信息科技有限公司 | 基于人工智能的作物生长监控方法及计算机设备 |
CN117593608A (zh) * | 2023-12-06 | 2024-02-23 | 北京百度网讯科技有限公司 | 图文识别大模型的训练方法、装置、设备以及存储介质 |
CN117668528B (zh) * | 2024-02-01 | 2024-04-12 | 成都华泰数智科技有限公司 | 基于物联网的天然气调压器故障检测方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633203A (zh) * | 2017-08-17 | 2018-01-26 | 平安科技(深圳)有限公司 | 面部情绪识别方法、装置及存储介质 |
CN109492557A (zh) * | 2018-10-28 | 2019-03-19 | 北京工业大学 | 一种基于au共生关系约束的自然场景下面部表情识别方法 |
CN109685011A (zh) * | 2018-12-25 | 2019-04-26 | 北京华航无线电测量研究所 | 一种基于深度学习的地下管线检测识别方法 |
WO2019245085A1 (en) * | 2018-06-22 | 2019-12-26 | Jun Ho Park | Method, apparatus and medium for performing 3d model creation of people and identification of people via model matching |
CN111227789A (zh) * | 2018-11-29 | 2020-06-05 | 百度在线网络技术(北京)有限公司 | 人体健康监护方法和装置 |
CN111860362A (zh) * | 2020-07-24 | 2020-10-30 | 北京百度网讯科技有限公司 | 生成人脸图像校正模型及校正人脸图像的方法和装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11026634B2 (en) * | 2017-04-05 | 2021-06-08 | doc.ai incorporated | Image-based system and method for predicting physiological parameters |
CN108509905B (zh) * | 2018-03-30 | 2020-06-19 | 百度在线网络技术(北京)有限公司 | 状态评估装置、电子设备及存储介质 |
CN109119163A (zh) * | 2018-07-16 | 2019-01-01 | 安徽昱康智能科技有限公司 | 基于面部识别的健康检测方法及其系统 |
CN109190535B (zh) * | 2018-08-23 | 2022-04-01 | 南京邮电大学 | 一种基于深度学习的人脸面部肤色分析方法和系统 |
CN110729053B (zh) * | 2019-10-11 | 2023-02-03 | 深圳平安医疗健康科技服务有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN111612133B (zh) * | 2020-05-20 | 2021-10-19 | 广州华见智能科技有限公司 | 基于人脸图像多阶段关系学习的内脏器官特征编码方法 |
CN112395979B (zh) * | 2020-11-17 | 2024-05-10 | 平安科技(深圳)有限公司 | 基于图像的健康状态识别方法、装置、设备及存储介质 |
-
2020
- 2020-11-17 CN CN202011286362.3A patent/CN112395979B/zh active Active
-
2021
- 2021-04-28 WO PCT/CN2021/090417 patent/WO2022105118A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633203A (zh) * | 2017-08-17 | 2018-01-26 | 平安科技(深圳)有限公司 | 面部情绪识别方法、装置及存储介质 |
WO2019245085A1 (en) * | 2018-06-22 | 2019-12-26 | Jun Ho Park | Method, apparatus and medium for performing 3d model creation of people and identification of people via model matching |
CN109492557A (zh) * | 2018-10-28 | 2019-03-19 | 北京工业大学 | 一种基于au共生关系约束的自然场景下面部表情识别方法 |
CN111227789A (zh) * | 2018-11-29 | 2020-06-05 | 百度在线网络技术(北京)有限公司 | 人体健康监护方法和装置 |
CN109685011A (zh) * | 2018-12-25 | 2019-04-26 | 北京华航无线电测量研究所 | 一种基于深度学习的地下管线检测识别方法 |
CN111860362A (zh) * | 2020-07-24 | 2020-10-30 | 北京百度网讯科技有限公司 | 生成人脸图像校正模型及校正人脸图像的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112395979A (zh) | 2021-02-23 |
WO2022105118A1 (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112395979B (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
US12099577B2 (en) | Object recognition method and apparatus, electronic device, and readable storage medium | |
WO2022142006A1 (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
CN111695415B (zh) | 图像识别方法及相关设备 | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN111133453B (zh) | 人工神经网络 | |
JP2022141931A (ja) | 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN112418059B (zh) | 一种情绪识别的方法、装置、计算机设备及存储介质 | |
CN112164002B (zh) | 人脸矫正模型的训练方法、装置、电子设备及存储介质 | |
WO2020238353A1 (zh) | 数据处理方法和装置、存储介质及电子装置 | |
WO2021223738A1 (zh) | 模型参数的更新方法、装置、设备及存储介质 | |
CN112995414B (zh) | 基于语音通话的行为质检方法、装置、设备及存储介质 | |
CN115050064A (zh) | 人脸活体检测方法、装置、设备及介质 | |
CN113420690A (zh) | 基于感兴趣区域的静脉识别方法、装置、设备及存储介质 | |
CN114241459B (zh) | 一种驾驶员身份验证方法、装置、计算机设备及存储介质 | |
CN110750523A (zh) | 数据标注方法、系统、计算机设备和存储介质 | |
CN113343898B (zh) | 基于知识蒸馏网络的口罩遮挡人脸识别方法、装置及设备 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
CN114282059A (zh) | 视频检索的方法、装置、设备及存储介质 | |
CN114821736A (zh) | 基于对比学习的多模态人脸识别方法、装置、设备及介质 | |
CN114117048A (zh) | 一种文本分类的方法、装置、计算机设备及存储介质 | |
CN113887214B (zh) | 基于人工智能的意愿推测方法、及其相关设备 | |
CN113643283A (zh) | 一种人体衰老状况的检测方法、装置、设备及存储介质 | |
CN113361629A (zh) | 一种训练样本生成的方法、装置、计算机设备及存储介质 | |
WO2024082891A1 (zh) | 一种数据处理方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |