CN110610171A - 图像处理方法和装置、电子设备、计算机可读存储介质 - Google Patents
图像处理方法和装置、电子设备、计算机可读存储介质 Download PDFInfo
- Publication number
- CN110610171A CN110610171A CN201910905113.9A CN201910905113A CN110610171A CN 110610171 A CN110610171 A CN 110610171A CN 201910905113 A CN201910905113 A CN 201910905113A CN 110610171 A CN110610171 A CN 110610171A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- region
- portrait
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及一种图像处理方法和装置、电子设备、计算机可读存储介质。所述方法包括获取待识别图像;检测所述待识别图像中是否存在人脸;当所述待识别图像存在人脸时,根据所述人脸获取包含人像的候选区域;所述人像包括所述人脸;将所述候选区域输入人像分割网络,得到人像区域,将所述人像区域作为所述待识别图像的主体区域;当所述待识别图像中不存在人脸时,将所述待识别图像输入主体识别网络,得到所述待识别图像的主体区域。上述方法和装置、电子设备、计算机可读存储介质,可以提高主体识别的准确性。
Description
技术领域
本申请涉及影像技术领域,特别是涉及一种图像处理方法、装置、电子设备、计算机可读存储介质。
背景技术
随着影像技术的发展,人们越来越习惯通过电子设备上的摄像头等图像采集设备拍摄图像或视频,记录各种信息。电子设备获取到图像后,往往需要对图像进行主体识别,识别出主体,从而可以获取该主体更清晰的图像。然而,传统的主体识别技术在对人像进行识别时,往往将最显著的区域作为主体,并不能准确识别出人像,存在图像处理不准确的问题。
发明内容
本申请实施例提供一种图像处理方法、装置、电子设备、计算机可读存储介质,可以提高主体识别的准确性。
一种图像处理方法,包括:
获取待识别图像;
检测所述待识别图像中是否存在人脸;
当所述待识别图像中存在人脸时,根据所述人脸获取包含人像的候选区域;所述人像包括所述人脸;
将所述候选区域输入人像分割网络,得到人像区域,将所述人像区域作为所述待识别图像的主体区域;
当所述待识别图像中不存在人脸时,将所述待识别图像输入主体识别网络,得到所述待识别图像的主体区域。
一种图像处理装置,包括:
图像获取模块,用于获取待识别图像;
人脸检测模块,用于检测所述待识别图像中是否存在人脸;
候选区域获取模块,用于当所述待识别图像中存在人脸时,根据所述人脸获取包含人像的候选区域;所述人像包括所述人脸;
人像分割模块,用于将所述候选区域输入人像分割网络,得到人像区域,将所述人像区域作为所述待识别图像的主体区域;
主体识别模块,用于当所述待识别图像中不存在人脸时,将所述待识别图像输入主体识别网络,得到所述待识别图像的主体区域。
一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述的图像处理方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法的步骤。
上述图像处理方法和装置、电子设备、计算机可读存储介质,当检测到待识别图像存在人脸时,根据人脸获取包含人像的候选区域,将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域;当检测到待识别图像中不存在人脸时,将待识别图像输入主体识别网络,得到待识别图像的主体区域。通过设计获取待识别图像的主体区域的双路网络,即当待识别图像中不存在人脸时,通过主体识别网络获取主体区域;当待识别图像中存在人脸时,从待识别图像中确定包含人像的候选图像,并通过人像分割网络可以获取更准确的人像区域作为主体区域。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中图像处理电路的示意图;
图2为一个实施例中图像处理方法的流程图;
图3为另一个实施例中图像处理方法的流程图;
图4为一个实施例中步骤获取候选区域的流程图;
图5为一个实施例中步骤确定人脸的角度的流程图;
图6为另一个实施例中图像处理的示意图;
图7为一个实施例中图像处理装置的结构框图;
图8为一个实施例中电子设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一人像区域称为第二人像区域,且类似地,可将第二人像区域称为第一人像区域。第一人像区域和第二人像区域两者都是人像区域,但其不是同一人像区域。
本申请实施例提供一种电子设备。上述电子设备中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图1为一个实施例中图像处理电路的示意图。如图1所示,为便于说明,仅示出与本申请实施例相关的图像处理技术的各个方面。
如图1所示,图像处理电路包括ISP处理器140和控制逻辑器150。成像设备110捕捉的图像数据首先由ISP处理器140处理,ISP处理器140对图像数据进行分析以捕捉可用于确定和/或成像设备110的一个或多个控制参数的图像统计信息。成像设备110可包括具有一个或多个透镜112和图像传感器114的照相机。图像传感器114可包括色彩滤镜阵列(如Bayer滤镜),图像传感器114可获取用图像传感器114的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器140处理的一组原始图像数据。姿态传感器120(如三轴陀螺仪、霍尔传感器、加速度计)可基于姿态传感器120接口类型把采集的图像处理的参数(如防抖参数)提供给ISP处理器140。姿态传感器120接口可以利用SMIA(Standard Mobile ImagingArchitecture,标准移动成像架构)接口、其它串行或并行照相机接口或上述接口的组合。
此外,图像传感器114也可将原始图像数据发送给姿态传感器120,传感器120可基于姿态传感器120接口类型把原始图像数据提供给ISP处理器140,或者姿态传感器120将原始图像数据存储到图像存储器130中。
ISP处理器140按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器140可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器140还可从图像存储器130接收图像数据。例如,姿态传感器120接口将原始图像数据发送给图像存储器130,图像存储器130中的原始图像数据再提供给ISP处理器140以供处理。图像存储器130可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct Memory Access,直接直接存储器存取)特征。
当接收到来自图像传感器114接口或来自姿态传感器120接口或来自图像存储器130的原始图像数据时,ISP处理器140可进行一个或多个图像处理操作,如时域滤波。处理后的图像数据可发送给图像存储器130,以便在被显示之前进行另外的处理。ISP处理器140从图像存储器130接收处理数据,并对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。ISP处理器140处理后的图像数据可输出给显示器160,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器140的输出还可发送给图像存储器130,且显示器160可从图像存储器130读取图像数据。在一个实施例中,图像存储器130可被配置为实现一个或多个帧缓冲器。
ISP处理器140确定的统计数据可发送给控制逻辑器150单元。例如,统计数据可包括陀螺仪的振动频率、自动曝光、自动白平衡、自动聚焦、闪烁检测、黑电平补偿、透镜112阴影校正等图像传感器114统计信息。控制逻辑器150可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的统计数据,确定成像设备110的控制参数及ISP处理器140的控制参数。例如,成像设备110的控制参数可包括姿态传感器120控制参数(例如增益、曝光控制的积分时间、防抖参数等)、照相机闪光控制参数、照相机防抖位移参数、透镜112控制参数(例如聚焦或变焦用焦距)、或这些参数的组合。ISP控制参数可包括用于自动白平衡和颜色调整(例如,在RGB处理期间)的增益水平和色彩校正矩阵,以及透镜112阴影校正参数。
在一个实施例中,通过成像设备(照相机)110中的透镜112和图像传感器114获取待识别图像,并将待识别图像发送至ISP处理器140。ISP处理器140接收到待识别图像后,检测待识别图像中是否存在人脸;当待识别图像中存在人脸时,根据人脸获取包含人像的候选区域;人像包括人脸;对候选区域进行人像分割,即将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域。
当待识别图像中不存在人脸时,ISP处理器140对待识别图像进行主体识别,即将待识别图像输入主体识别网络,得到待识别图像的主体区域。
在一个实施例中,可以将识别到的主体区域发送至控制逻辑器150。控制逻辑器150接收到主体区域后,控制成像设备110中的透镜112进行移动,从而对焦至主体区域对应的主体,获取主体更清晰的图像。
图2为一个实施例中图像处理方法的流程图。如图2所示,图像处理方法包括步骤202至步骤210。
步骤202,获取待识别图像。
待识别图像指的是用于识别出主体区域的图像。通过对待识别图像进行识别,可以得到待识别图像中的主体。待识别图像可以是RGB(Red、Green、Blue)图像、灰度图像等其中的一种。RGB图像可以通过彩色摄像头拍摄得到。灰度图像可以通过黑白摄像头拍摄得到。该待识别图像可为电子设备本地存储的,也可为其他设备存储的,也可以为从网络上存储的,还可为电子设备实时拍摄的,不限于此。
具体地,电子设备的ISP处理器或中央处理器可从本地或其他设备或网络上获取待识别图像,或者通过摄像头拍摄一场景得到待识别图像。
步骤204,检测待识别图像中是否存在人脸。
一般地,人脸包括眼睛、鼻子、嘴巴、耳朵、眉毛等特征,并且各个特征之间存在对应的位置关系,如左眼和右眼成对称,嘴巴成左右对称,鼻子位于正中间,耳朵位于人脸两侧,眉毛位于眼睛上方等。通过人脸识别平台检测待识别图像中是否包含眼睛、鼻子、嘴巴、耳朵、眉毛等特征以及各个特征的位置关系,可以确定待识别图像中是否存在人脸。在人脸识别平台中,预先存储有大量的人脸信息,通过人脸识别平台进行人脸检测,可以减少额外开销,节约计算机资源。
步骤206,当待识别图像中存在人脸时,根据人脸获取包含人像的候选区域;人像包括人脸。
人像指的是包含人脸的区域,即人像可以包含人脸、脖子、手臂、双腿等部位。候选区域指的是包含人像的区域。
可以理解的是,人脸一般处于人像的顶端,则可以根据人脸的位置向下选中包含人像的区域作为候选区域。候选区域可以通过框选得到,即候选区域为矩形区域。候选区域还可以是圆形区域、正方形区域、三角形区域等,不限于此。
在一个实施例中,当待识别图像中存在一个人脸时,根据该人脸获取包含人像的一个候选区域。在另一个实施例中,当待识别图像中存在至少两个人脸时,从至少两个人脸中确定一个人脸,根据该确定的人脸获取包含人像的候选区域。其中,从至少两个人脸中确定一个人脸,可以通过比较各个人脸的面积大小,从中确定面积最大的人脸;也可以通过比较各个人脸在待识别图像中的位置,从中确定最接近待识别图像的中心的人脸。
在一个实施例中,当待识别图像存在人脸时,获取各个人脸的位置,当各个人脸的位置均未处于待识别图像的预设范围内时,执行将待识别图像输入主体识别网络,得到待识别图像的主体区域步骤。
可以理解的是,当用户在拍摄风景照时,可能在照片的边缘部分将一些游客拍摄进去,则用户拍摄的主体为风景,并不是游客。因此,当待识别图像存在人脸,但是各个人脸的位置均处于待识别图像的预设范围内时,执行将待识别图像输入主体识别网络,得到待识别图像的主体区域步骤,即将待识别图像作为不存在人脸的图像进行主体识别。其中,预设范围可以是待识别图像的中心区域。
在一个实施例中,当待识别图像存在人脸时,获取各个人脸的面积,当各个人脸的面积均小于面积阈值时,执行将待识别图像输入主体识别网络,得到待识别图像的主体区域步骤。
可以理解的是,当用户在拍摄风景照或者拍摄其他对象时,可能在照片的背景中存在一些游客或者其他人,则用户拍摄的主体为风景或者其他对象,并不是背景中的游客或者其他人。因此,当待识别图像存在人脸,但是各个人脸的面积均小于面积阈值时,表示该人脸并不是用户所要拍摄的主体的人脸,执行将待识别图像输入主体识别网络,得到待识别图像的主体区域步骤,即将待识别图像作为不存在人脸的图像进行主体识别。
步骤208,将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域。
人像分割网络指的是用于分割出人像区域的网络。分割出的人像区域可以包括人的全部部位,也可以包括人的部分部位。例如,人像区域可以包括人脸、脖子、双手、双脚、上半身躯干等全部部位;人像区域也可以仅包括人脸、双手、上半身躯干。
候选区域包含了人像,将候选区域输入人像分割网络之后,可以得到人像区域,则将人像区域作为待识别图像的主体区域。
传统的主体识别技术,通常是将存在人脸的待识别图像输入主体识别网络,则识别出的人像区域存在识别不准确的问题,可能识别不出整个人像,或者将人像以及人像周围的区域作为主体区域,存在主体识别不准确的问题。
而在本申请中,当待识别图像中存在人脸时,通过人像分割网络可以更准确地得到人像区域,将人像区域作为待识别图像的主体区域,从而更准确地识别出待识别图像的主体区域。
步骤210,当待识别图像中不存在人脸时,将待识别图像输入主体识别网络,得到待识别图像的主体区域。
其中,主体识别(salient object detection)是指面对一个场景时,自动地对感兴趣区域进行处理而选择性的忽略不感兴趣区域。感兴趣区域称为主体区域。其中,主体是指各种对象,如花、猫、狗、牛、蓝天、白云、背景等。
当待识别图像中不存在人脸时,将待识别图像输入主体识别网络,通过主体识别网络识别图像的主体区域。
在一个实施例中,主体识别网络对待识别图像进行主体识别,得到待识别图像的主体区域,包括:步骤1,生成与待识别图像对应的中心权重图,其中,中心权重图所表示的权重值从中心到边缘逐渐减小;步骤2,将待识别图像和中心权重图输入到主体识别模型中,得到主体区域置信度图,其中,主体识别模型是预先根据同一场景的待识别图像、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型;步骤3,根据主体区域置信度图确定待识别图像中的主体区域。
步骤1,生成与该待处理图像对应的中心权重图,其中,该中心权重图所表示的权重值从中心到边缘逐渐减小。
其中,中心权重图是指用于记录待识别图像中各个像素点的权重值的图。中心权重图中记录的权重值从中心向四边逐渐减小,即中心权重最大,向四边权重逐渐减小。通过中心权重图表征待识别图像的图像中心像素点到图像边缘像素点的权重值逐渐减小。
ISP处理器或中央处理器可以根据待识别图像的大小生成对应的中心权重图。该中心权重图所表示的权重值从中心向四边逐渐减小。中心权重图可采用高斯函数、或采用一阶方程、或二阶方程生成。该高斯函数可为二维高斯函数。
步骤2,将该待识别图像和中心权重图输入到主体识别模型中,得到主体区域置信度图,其中,主体识别模型是预先根据同一场景的待识别图像、深度图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型。
其中,主体识别模型是预先采集大量的训练数据,将训练数据输入到包含有初始网络权重的主体识别模型进行训练得到的。每组训练数据包括同一场景对应的待识别图像、中心权重图及已标注的主体掩膜图。其中,待识别图像和中心权重图作为训练的主体识别模型的输入,已标注的主体掩膜(mask)图作为训练的主体识别模型期望输出得到的真实值(ground truth)。主体掩膜图是用于识别图像中主体的图像滤镜模板,可以遮挡图像的其他部分,筛选出图像中的主体。主体识别模型可训练能够识别检测各种主体,如人、花、猫、狗、背景等。
具体地,ISP处理器或中央处理器可将该待识别图像和中心权重图输入到主体识别模型中,进行检测可以得到主体区域置信度图。主体区域置信度图是用于记录主体属于哪种能识别的主体的概率,例如某个像素点属于人的概率是0.8,花的概率是0.1,背景的概率是0.1。
步骤3,根据该主体区域置信度图确定该待识别图像中的主体区域。
其中,主体是指各种对象,如人、花、猫、狗、牛、蓝天、白云、背景等。主体区域是指需要的主体,可根据需要选择。
具体地,ISP处理器或中央处理器可根据主体区域置信度图选取置信度最高或次高等作为待识别图像中的主体,若存在一个主体,则将该主体作为主体区域;若存在多个主体,可根据需要选择其中一个或多个主体作为主体区域。
本实施例中的图像处理方法,获取待识别图像,并生成与待识别图像对应的中心权重图后,将待识别图像和中心权重图输入到对应的主体识别模型中检测,可以得到主体区域置信度图,根据主体区域置信度图可以确定得到待识别图像中的主体区域,利用中心权重图可以让图像中心的对象更容易被检测,利用训练好的利用待识别图像、中心权重图和主体掩膜图等训练得到的主体识别模型,可以更加准确的识别出待识别图像中的主体区域。
上述主体识别方法,当检测到待识别图像存在人脸时,根据人脸获取包含人像的候选区域,将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域;当检测到待识别图像中不存在人脸时,将待识别图像输入主体识别网络,得到待识别图像的主体区域。通过设计获取待识别图像的主体区域的双路网络,即当待识别图像中不存在人脸时,通过主体识别网络获取主体区域;当待识别图像中存在人脸时,从待识别图像中确定包含人像的候选图像,并通过人像分割网络可以获取更准确的人像区域作为主体区域。
在一个实施例中,当待识别图像存在人脸时,根据人脸获取包含人像的候选区域,包括:当检测到待识别图像中存在至少两个人脸时,分别获取包含人脸的人脸区域;一个人脸区域包含一个人脸;分别获取至少两个人脸区域的面积;将至少两个人脸区域的面积进行比较,获取面积最大的人脸区域作为第一人脸区域;根据第一人脸区域获取包含人像的第一候选区域。将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域,包括:将第一候选区域输入人像分割网络,得到第一人像区域,将第一人像区域作为待识别图像的主体区域。
人脸区域指的是包含人脸的区域。人脸区域可以通过框选得到,即人脸区域为矩形区域。人脸区域还可以是圆形区域、正方形区域、三角形区域等,不限于此。第一人脸区域指的是面积最大的人脸区域。第一候选区域指的是包含第一人脸区域对应的人像的候选区域。
可以理解的是,当待处理图像中的人脸区域的面积越大时,表示该人脸越靠近摄像头,则越靠近摄像头的对象为用户想拍摄的主体。因此,可以分别获取至少两个人脸区域的面积;将至少两个人脸区域的面积进行比较,并获取面积最大的人脸区域作为第一人脸区域;根据
第一人脸区域获取包含人像的第一候选区域。一般地,面积最大的人脸区域中的人脸最靠近摄像头。
在本实施例中,当检测到待识别图像中存在至少两个人脸时,分别获取包含人脸的人脸区域;分别获取至少两个人脸区域的面积,并将各个人脸区域的面积进行比较,获取面积最大的人脸区域作为第一人脸区域,根据第一人脸区域获取包含人像的第一候选区域,提高了获取的第一人脸区域和第一候选区域的准确性,并输入人像分割网络,可以得到更准确的第一人像区域,将第一人像区域作为主体区域,从而提高了主体识别的准确性。从多个人脸中确定一个人脸,并最终得到该人脸对应的人像,避免了多人脸场景下将识别出多个主体的问题,提高了对焦的单一性。
在一个实施例中,还可以获取面积次大的人脸区域作为第一人脸区域,不限于此。
在一个实施例中,当待识别图像存在人脸时,根据人脸获取包含人像的候选区域,包括:当检测到待识别图像中存在至少两个人脸时,分别获取包含人脸的人脸区域;一个人脸区域包含一个人脸;分别获取至少两个人脸区域的位置信息;根据至少两个人脸区域的位置信息获取距离待识别图像的中心最近的人脸区域作为第二人脸区域;根据第二人脸区域获取包含人像的第二候选区域。将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域,包括:将第二候选区域输入人像分割网络,得到第二人像区域,将第二人像区域作为待识别图像的主体区域。
人脸区域指的是包含人脸的区域。人脸区域可以通过框选得到,即人脸区域为矩形区域。人脸区域还可以是圆形区域、正方形区域、三角形区域等,不限于此。人脸区域的位置信息可以用人脸区域的中心的坐标进行表示,也可以用人脸区域中的任意一个点的坐标进行表示,不限于此。
第二人脸区域指的是距离待识别图像的中心最近的人脸区域。第二候选区域指的是包含第二人脸区域对应的人像的候选区域。
具体地,可以预先获取待识别图像的中心的位置信息,将至少两个人脸区域的位置信息分别与待识别图像的中心的位置信息进行比较,根据比较结果可以获取距离待识别图像的中心最近的人脸区域。
例如,待识别图像的中心的位置信息为(50,50),人脸区域A的位置信息用(40,30)进行表示,人脸区域B的位置信息用(20,50),人脸区域C的位置信息用(40,40),因此,可以采用以下计算公式计算各个人脸区域与待识别图像的中心的距离: 其中,S为人脸区域与待识别图像的中心的距离,a1和b1分别为一个点的横坐标和纵坐标,a2和b2分别为另一个点的横坐标和纵坐标。
因此,人脸区域A与待识别图像的中心的距离为 人脸区域B与待识别图像的中心的距离为人脸区域C与待识别图像的中心的距离为则人脸区域C距离待识别图像的中心最近,将人脸区域C作为第二人脸区域。
在本实施例中,当检测到待识别图像中存在至少两个人脸时,分别获取包含人脸的人脸区域,分别获取至少两个人脸区域的位置信息;将距离待识别图像的中心最近的人脸区域作为第二人脸区域,并根据第二人脸区域获取包含人像的第二候选区域,可以获取更准确的第二人脸区域和第二候选区域,从而将第二候选区域输入人像分割网络,可以获取更准确的第二人像区域作为主体区域。从多个人脸中确定一个人脸,并最终得到该人脸对应的人像,避免了多人脸场景下将识别出多个主体的问题,提高了对焦的单一性。
在一个实施例中,当检测到待识别图像中存在至少两个人脸时,分别获取包含人脸的人脸区域;一个人脸区域包含一个人脸;分别获取至少两个人脸区域的面积;从至少两个人脸区域中获取面积大于面积阈值的候选人脸区域;分别获取各个候选人脸区域的位置信息;根据各个候选人脸区域的位置信息获取距离待识别图像的中心最近的候选人脸区域作为目标人脸区域;根据目标人脸区域获取包含人像的候选区域。
具体地,可以分别获取各个人脸区域的面积,并获取面积大于面积阈值的候选人脸区域,即筛选掉面积较小的人脸区域,避免了对面积较小的人脸区域进行处理,提高主体识别的效率。
获取各个候选人脸区域的位置信息,并获取距离待识别图像的中心最近的候选人脸区域作为目标人脸区域,可以获取更准确的人脸区域;根据目标人脸区域获取包含人像的候选区域,可以获取更准确的候选区域。
在一个实施例中,如图3所示,获取待识别图像302;对待识别图像302进行人脸检测,判断待识别图像302中是否存在人脸,即步骤304;当待识别图像302中不存在人脸时,将待识别图像302输入主体识别网络306,得到待识别图像302的主体区域308。
当待识别图像302中存在人脸时,可以获取包含人脸的人脸区域310。当待识别图像302中存在至少两个人脸时,可以分别获取包含人脸的人脸区域,从至少两个人脸区域中确定一个人脸区域310。
在一个实施例中,可以分别获取至少两个人脸区域的面积,获取面积最大的人脸区域作为第一人脸区域,即人脸区域310。在另外一个实施例中,也可以分别获取至少两个人脸区域的位置信息,获取距离待识别图像的中心最近的人脸区域作为第二人脸区域,即人脸区域310。
根据人脸区域310获取包含人像的候选区域310;将候选区域312输入人像分割网络314,得到人像区域,将人像区域作为待识别图像302的主体区域308。
在一个实施例中,如图4所示,根据人脸获取包含人像的候选区域,包括:
步骤402,获取包含人脸的人脸区域。
步骤404,获取人脸区域中的至少两个特征点。
特征点指的是图像灰度值发生剧烈变化的点或者在图像边缘上曲率较大的点(即两个边缘的交点)。在人脸区域中,特征点可以是眼睛、鼻子、嘴角、眉毛、痣等。
步骤406,根据至少两个特征点确定人脸的角度。
人脸的角度指的是人脸倾斜的角度。人脸的角度可以是向左倾斜,向右倾斜,往左后方偏转,往右后方偏转等等。例如,人脸的角度可以是向左倾斜20度,向右倾斜10度等。
可以理解的是,当人脸处于倾斜时,人脸区域中的特征点也相应地改变相对位置关系。例如,当人脸向左倾斜时,将人脸区域中两个特征点,即左眼特征点和右眼特征点进行连线,则该连线也向左倾斜。又如,当人脸向右倾斜时,将人脸区域中两个特征点,即左嘴角特征点和左嘴角特征点进行连线,则该连线也向右倾斜。又如,当人脸往左后方偏转时,左眼特征点和右眼特征点的连线长度变短,鼻尖特征点处于人脸区域的左方。
步骤408,根据人脸的角度获取包含人像的候选区域;候选区域的角度与人脸的角度的差值在预设范围内。
一般地,当身体处于倾斜状态时,则人脸会相应地存在倾斜。因此,可以根据人脸的角度获取包含人像的候选区域,候选区域的角度与人脸的角度的差值在预设范围内。预设范围可以根据用户需要进行设定。例如,预设范围可以是5度至10度之间。
例如,当人脸的角度为向左倾斜20度,则根据人脸的角度获取包含人像的候选区域的角度也可以为20度,也可以为25度等。通过人脸的角度可以获取更加准确的候选区域。
在本实施例中,获取包含人脸的人脸区域,获取人脸区域中的至少两个特征点,根据至少两个特征点确定人脸的角度,根据人脸的角度可以获取更准确的候选区域。
在一个实施例中,如图5所示,根据至少两个特征点确定人脸的角度,包括:
步骤502,将至少两个特征点进行连接,得到各条连接线。
获取人脸区域中的至少两个特征点之后,将至少两个特征点进行连接。例如,当特征点为左眼特征点和右眼特征点,将左眼特征点和右眼特征点进行连接,得到连接线;当特征点为左嘴角特征点和右嘴角特征点,将左嘴角特征点和右嘴角特征点进行连接,得到连接线;当特征点为鼻尖特征点、左眼特征点和右眼特征点,将左眼特征点与右眼特征点进行连接,得到连接线,再将连接线的中心与鼻尖特征点进行连接,得到另外一条连接线。
步骤504,获取各条连接线的角度,并基于各条连接线的角度确定人脸的角度。
连接线的角度可以用于表示人脸的角度。例如,当左眼特征点和右眼特征点的连接线的角度向左偏转20度,则人脸的角度可以为向左偏转20度;当左嘴角特征点和右嘴角特征点的连接线的角度向右偏转10度,则人脸的角度可以为向右偏转10度。
当存在一条连接线时,可以将该连接线的角度作为人脸的角度。当存在至少两条连接线时,基于至少两条连接线的角度确定人脸的角度。例如,当存在两条连接线,一条连接线为左眼特征点和右眼特征点的连接线,另一条连接线为左嘴角特征点和右嘴角特征点的连接线,则可以将两条连接线的角度求平均值,将该平均值作为人脸的角度。
又如,当存在两条连接线,第一条连接线为左眼特征点和右眼特征点的连接线,将第一条连接线的中心与鼻尖特征点进行连接得到第二条连接线,则第二条连接线的角度可以表示人脸的角度。
在本实施例中,将至少两个特征点进行连接,得到各条连接线,获取各条连接线的角度,并基于各条连接线的角度可以确定更准确的人脸的角度。
在一个实施例中,将至少两个特征点进行连接,得到各条连接线,包括:当至少两个特征点包括左眼特征点和右眼特征点时,将左眼特征点与右眼特征点进行连接得到第一连接线。获取各条连接的角度,并基于各条连接线的角度确定人脸的角度,包括:获取第一连接线的角度,并基于第一连接线的角度确定人脸的角度。
第一连接线指的是左眼特征点与右眼特征点的连线。
可以理解的是,当待处理图像中的人脸处于倾斜状态时,则人脸上的左眼和右眼的连线同样也处于倾斜状态。因此,可以将左眼特征点与右眼特征点进行连接得到第一连接线,获取第一连接线的角度,并基于第一连接线的角度确定人脸的角度。
进一步地,基于第一连接线的角度确定人脸的角度;人脸的角度与第一连接线的角度的差值在预设范围内。
预设范围可以根据用户需要进行设定。在一个实施例中,可以将第一连接线的角度作为人脸的角度。在另外一个实施例中,也可以基于第一连接线的角度确定人脸的角度,人脸的角度与第一连接线的角度不同,并且人脸的角度与第一连接线的角度的差值在预设范围内。例如,第一连接线的角度为向左偏10度,而确定的人脸的角度可以为向左偏8度。
在本实施例中,将左眼特征点和右眼特征点进行连接得到第一连接线,获取第一连接线的角度,并基于第一连接线的角度可以确定出更准确的人脸的角度。
在一个实施例中,将至少两个特征点进行连接,得到各条连接线,包括:当至少两个特征点包括左嘴角特征点和右嘴角特征点时,将左嘴角特征点和右嘴角特征点进行连接得到第二连接线。获取各条连接的角度,并基于各条连接线的角度确定人脸的角度,包括:获取第二连接线的角度,并基于第二连接线的角度确定人脸的角度。
第二连接线指的是左嘴角特征点和右嘴角特征点的连线。
可以理解的是,当待处理图像中的人脸处于倾斜状态时,则人脸上的左嘴角和右嘴角的连线同样也处于倾斜状态。因此,可以将左嘴角特征点和右嘴角特征点进行连接得到第二连接线,获取第二连接线的角度,并基于第二连接线的角度确定人脸的角度。
进一步地,基于第二连接线的角度确定人脸的角度;人脸的角度与第二连接线的角度的差值在预设范围内。
预设范围可以根据用户需要进行设定。在一个实施例中,可以将第二连接线的角度作为人脸的角度。在另外一个实施例中,也可以基于第二连接线的角度确定人脸的角度,人脸的角度与第二连接线的角度不同,并且人脸的角度与第二连接线的角度的差值在预设范围内。例如,第二连接线的角度为向左偏8度,而确定的人脸的角度可以为向左偏9度。
在本实施例中,将左嘴角特征点和右嘴角特征点进行连接得到第二连接线,获取第二连接线的角度,并基于第二连接线的角度可以确定出更准确的人脸的角度。
在一个实施例中,上述方法还包括:当至少两个特征点包括左眼特征点、右眼特征点、左嘴角特征点和右嘴角特征点时,将左眼特征点和右眼特征点进行连接得到第一连接线,将左嘴角特征点和右嘴角特征点进行连接得到第二连接线;分别获取第一连接线的角度和第二连接线的角度,并基于第一连接线的角度和第二连接线的角度确定人脸的角度。
在一个实施例中,可以对第一连接线的角度和第二连接线的角度求平均值,将该平均值作为人脸的角度。在另外一个实施例中,还可以获取第一连接线的角度的第一权重因子,以及第二连接线的角度的第二权重因子,根据第一连接线的角度、第一权重因子、第二连接线的角度和第二权重因子求取加权平均值,将该加权平均值作为人脸的角度。
在本实施例中,基于左眼特征点、右眼特征点、左嘴角特征点和右嘴角特征点得到第一连接线和第二连接线,并根据第一连接线的角度和第二连接线的角度可以得到更准确的人脸的角度。
在一个实施例中,上述方法还包括:当至少两个特征点还包括鼻尖特征点时,获取鼻尖特征点在人脸区域中的位置信息。所述基于所述第一连接线的角度确定人脸的角度,包括:基于第一连接线的角度和鼻尖特征点在人脸区域中的位置信息确定人脸的角度。
鼻尖特征点在人脸区域中的位置信息可以用坐标进行表示,也可以用鼻尖特征点距离人脸区域的中心的距离进行表示,不限于此。
一般地,鼻尖位于人脸的中心区域。通过获取鼻尖特征点在人脸区域中的位置信息,可以知道人脸的前后朝向。例如,当人脸往左后方转时,则鼻尖在人脸区域中处于左方;当人脸往右后方转时,则鼻尖在人脸区域中朝向右方。基于第一连接线的角度和鼻尖特征点在人脸区域中的位置信息,可以更准确地确定人脸的角度。
在另一个实施例中,上述方法还包括:当至少两个特征点还包括鼻尖特征点时,获取鼻尖特征点在人脸区域中的位置信息。所述基于所述第二连接线的角度确定人脸的角度,包括:基于第二连接线的角度和鼻尖特征点在人脸区域中的位置信息确定人脸的角度。
例如,当人脸往左后方转时,则鼻尖在人脸区域中处于左方;当人脸往右后方转时,则鼻尖在人脸区域中朝向右方。基于第二连接线的角度和鼻尖特征点在人脸区域中的位置信息,可以更准确地确定人脸的角度。
在一个实施例中,当至少两个特征点还包括鼻尖特征点时,获取鼻尖特征点在人脸区域中的位置信息;分别获取第一连接线的角度和第二连接线的角度,并基于第一连接线的角度、第二连接线的角度和鼻尖特征点在人脸区域中的位置信息确定人脸的角度。
例如,第一连接线的角度为向左偏转8度,第二连接线的角度为向左偏转10度,鼻尖特征点处于人脸区域中的左方,则基于第一连接线的角度和第二连接线的角度可以求取平均值,得到人脸向左偏转9度;鼻尖特征点处于人脸区域中的左方,表示人脸往左后方偏转;因此,人脸的角度为向左偏转9度且往左后方转。
在本实施例中,结合左眼特征点、右眼特征点、左嘴角特征点、右嘴角特征点以及鼻尖特征点,可以更准确地确定人脸的角度。
在一个实施例中,上述方法还包括:获取人脸区域的面积。根据人脸的角度获取包含人像的候选区域,包括:根据人脸的角度和人脸区域的面积获取包含人像的候选区域;候选区域的面积与人脸区域的面积成正相关。
可以理解的是,当人脸区域的面积越大时,表示人脸越靠近摄像头,则包含人脸的人像的面积也越大,包含人像的候选区域也越大。因此,候选区域的面积与人脸区域的面积成正相关。根据人脸的角度和人脸区域的面积,可以获取更加准确的候选区域。
在一个实施例中,如图6所示,获取待识别图像602;对待识别图像602进行人脸检测,检测到两个人脸。分别获取包含人脸的人脸区域,得到两个人脸区域。可以分别获取两个人脸区域的位置信息,并获取距离待识别图像的中心最近的人脸区域,即人脸区域604。
从人脸区域604中获取5个特征点,分别为左眼特征点、右眼特征点、鼻尖特征点、左嘴角特征点和右嘴角特征点;将左眼特征点和右眼特征点进行连接得到第一连接线,将左嘴角特征点和右嘴角特征点进行连接得到第二连接线;分别获取第一连接线的角度和第二连接线的角度;基于第一连接线的角度和第二连接线的角度,将鼻尖特征点分别与第一连接线、第二连接线进行连接,得到第三连接线。
例如,可以求取第一连接线的角度和第二连接线的角度的平均值,则该平均值对应的直线与穿过鼻尖特征点的第三连接线相垂直。
获取第三连接线的角度;基于第三连接线的角度确定人脸的角度;根据人脸的角度获取包含人像的候选区域606。其中,候选区域的角度与人脸的角度的差值在预设范围内。将候选区域606输入人像分割网络,可以得到人像区域608,将人像区域608作为待识别图像的主体区域。
应该理解的是,虽然图2、图4和图5的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、图4和图5中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图7为一个实施例的图像处理装置的结构框图。如图7所示,提供了一种图像处理装置700,包括:图像获取模块702、人脸检测模块704、候选区域获取模块706、人像分割模块708和主体识别模块710,其中:
图像获取模块702,用于获取待识别图像。
人脸检测模块704,用于检测待识别图像中是否存在人脸。
候选区域获取模块706,用于当待识别图像中存在人脸时,根据人脸获取包含人像的候选区域;人像包括人脸。
人像分割模块708,用于将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域。
主体识别模块710,用于当待识别图像中不存在人脸时,将待识别图像输入主体识别网络,得到待识别图像的主体区域。
上述图像处理装置,当检测到待识别图像存在人脸时,根据人脸获取包含人像的候选区域,将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域;当检测到待识别图像中不存在人脸时,将待识别图像输入主体识别网络,得到待识别图像的主体区域。通过设计获取待识别图像的主体区域的双路网络,即当待识别图像中不存在人脸时,通过主体识别网络获取主体区域;当待识别图像中存在人脸时,从待识别图像中确定包含人像的候选图像,并通过人像分割网络可以获取更准确的人像区域作为主体区域。
在一个实施例中,上述候选区域获取模块706还用于当检测到待识别图像中存在至少两个人脸时,分别获取包含人脸的人脸区域;一个人脸区域包含一个人脸;分别获取至少两个人脸区域的面积;将至少两个人脸区域的面积进行比较,获取面积最大的人脸区域作为第一人脸区域;根据第一人脸区域获取包含人像的第一候选区域。将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域,包括:将第一候选区域输入人像分割网络,得到第一人像区域,将第一人像区域作为待识别图像的主体区域。
在一个实施例中,上述候选区域获取模块706还用于当检测到待识别图像中存在至少两个人脸时,分别获取包含人脸的人脸区域;一个人脸区域包含一个人脸;分别获取至少两个人脸区域的位置信息;根据至少两个人脸区域的位置信息获取距离待识别图像的中心最近的人脸区域作为第二人脸区域;根据第二人脸区域获取包含人像的第二候选区域。将候选区域输入人像分割网络,得到人像区域,将人像区域作为待识别图像的主体区域,包括:将第二候选区域输入人像分割网络,得到第二人像区域,将第二人像区域作为待识别图像的主体区域。
在一个实施例中,上述候选区域获取模块706还用于获取包含人脸的人脸区域;获取人脸区域中的至少两个特征点;根据至少两个特征点确定人脸的角度;根据人脸的角度获取包含人像的候选区域;候选区域的角度与人脸的角度的差值在预设范围内。
在一个实施例中,上述候选区域获取模块706还用于将至少两个特征点进行连接,得到各条连接线;获取各条连接线的角度,并基于各条连接线的角度确定人脸的角度。
在一个实施例中,上述候选区域获取模块706还用于当至少两个特征点包括左眼特征点和右眼特征点时,将左眼特征点与右眼特征点进行连接得到第一连接线。获取各条连接的角度,并基于各条连接线的角度确定人脸的角度,包括:获取第一连接线的角度,并基于第一连接线的角度确定人脸的角度。
在一个实施例中,上述候选区域获取模块706还用于当至少两个特征点包括左嘴角特征点和右嘴角特征点时,将左嘴角特征点和右嘴角特征点进行连接得到第二连接线。获取各条连接的角度,并基于各条连接线的角度确定人脸的角度,包括:获取第二连接线的角度,并基于第二连接线的角度确定人脸的角度。
在一个实施例中,上述主体识别装置700还包括位置信息获取模块,用于当至少两个特征点还包括鼻尖特征点时,获取鼻尖特征点在人脸区域中的位置信息。基于第一连接线的角度确定人脸的角度,包括:基于第一连接线的角度和鼻尖特征点在人脸区域中的位置信息确定人脸的角度。或基于第二连接线的角度确定人脸的角度,包括:基于第二连接线和鼻尖特征点在人脸区域中的位置信息确定人脸的角度。
在一个实施例中,上述图像处理装置700还包括面积获取模块,用于获取人脸区域的面积。根据人脸的角度获取包含人像的候选区域,包括:根据人脸的角度和人脸区域的面积获取包含人像的候选区域;候选区域的面积与人脸区域的面积成正相关。
上述图像处理装置中各个模块的划分仅用于举例说明,在其他实施例中,可将图像处理装置按照需要划分为不同的模块,以完成上述图像处理装置的全部或部分功能。
图8为一个实施例中电子设备的内部结构示意图。如图8所示,该电子设备包括通过系统总线连接的处理器和存储器。其中,该处理器用于提供计算和控制能力,支撑整个电子设备的运行。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以下各个实施例所提供的一种图像处理方法。内存储器为非易失性存储介质中的操作系统计算机程序提供高速缓存的运行环境。该电子设备可以是手机、平板电脑或者个人数字助理或穿戴式设备等。
本申请实施例中提供的图像处理装置中的各个模块的实现可为计算机程序的形式。该计算机程序可在终端或服务器上运行。该计算机程序构成的程序模块可存储在终端或服务器的存储器上。该计算机程序被处理器执行时,实现本申请实施例中所描述方法的步骤。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行图像处理方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行图像处理方法。
本申请实施例所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (11)
1.一种图像处理方法,其特征在于,包括:
获取待识别图像;
检测所述待识别图像中是否存在人脸;
当所述待识别图像中存在人脸时,根据所述人脸获取包含人像的候选区域;所述人像包括所述人脸;
将所述候选区域输入人像分割网络,得到人像区域,将所述人像区域作为所述待识别图像的主体区域;
当所述待识别图像中不存在人脸时,将所述待识别图像输入主体识别网络,得到所述待识别图像的主体区域。
2.根据权利要求1所述的方法,其特征在于,所述当所述待识别图像存在人脸时,根据所述人脸获取包含人像的候选区域,包括:
当检测到所述待识别图像中存在至少两个人脸时,分别获取包含所述人脸的人脸区域;
分别获取至少两个所述人脸区域的面积;
将至少两个所述人脸区域的面积进行比较,获取面积最大的人脸区域作为第一人脸区域;
根据所述第一人脸区域获取包含人像的第一候选区域;
所述将所述候选区域输入人像分割网络,得到人像区域,将所述人像区域作为所述待识别图像的主体区域,包括:
将所述第一候选区域输入人像分割网络,得到第一人像区域,将所述第一人像区域作为所述待识别图像的主体区域。
3.根据权利要求1所述的方法,其特征在于,所述当所述待识别图像存在人脸时,根据所述人脸获取包含人像的候选区域,包括:
当检测到所述待识别图像中存在至少两个人脸时,分别获取包含所述人脸的人脸区域;一个人脸区域包含一个人脸;
分别获取至少两个所述人脸区域的位置信息;
根据至少两个所述人脸区域的位置信息获取距离所述待识别图像的中心最近的人脸区域作为第二人脸区域;
根据所述第二人脸区域获取包含人像的第二候选区域;
所述将所述候选区域输入人像分割网络,得到人像区域,将所述人像区域作为所述待识别图像的主体区域,包括:
将所述第二候选区域输入人像分割网络,得到第二人像区域,将所述第二人像区域作为所述待识别图像的主体区域。
4.根据权利要求1所述的方法,其特征在于,根据所述人脸获取包含人像的候选区域,包括:
获取包含所述人脸的人脸区域;
获取所述人脸区域中的至少两个特征点;
根据所述至少两个特征点确定人脸的角度;
根据所述人脸的角度获取包含人像的候选区域;所述候选区域的角度与所述人脸的角度的差值在预设范围内。
5.根据权利要求4所述的方法,其特征在于,所述根据所述至少两个特征点确定人脸的角度,包括:
将所述至少两个特征点进行连接,得到各条连接线;
获取所述各条连接线的角度,并基于所述各条连接线的角度确定人脸的角度。
6.根据权利要求5所述的方法,其特征在于,所述将所述至少两个特征点进行连接,得到各条连接线,包括:
当所述至少两个特征点包括左眼特征点和右眼特征点时,将所述左眼特征点与所述右眼特征点进行连接得到第一连接线;或
当所述至少两个特征点包括左嘴角特征点和右嘴角特征点时,将所述左嘴角特征点和所述右嘴角特征点进行连接得到第二连接线;
所述获取所述各条连接的角度,并基于所述各条连接线的角度确定人脸的角度,包括:
获取所述第一连接线的角度,并基于所述第一连接线的角度确定人脸的角度;或
获取所述第二连接线的角度,并基于所述第二连接线的角度确定人脸的角度。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
当所述至少两个特征点还包括鼻尖特征点时,获取所述鼻尖特征点在所述人脸区域中的位置信息;
所述基于所述第一连接线的角度确定人脸的角度,包括:基于所述第一连接线的角度和所述鼻尖特征点在所述人脸区域中的位置信息确定人脸的角度;或
所述基于所述第二连接线的角度确定人脸的角度,包括:基于所述第二连接线和所述鼻尖特征点在所述人脸区域中的位置信息确定人脸的角度。
8.根据权利要求4所述的方法,其特征在于,所述方法还包括:
获取所述人脸区域的面积;
所述根据所述人脸的角度获取包含人像的候选区域,包括:
根据所述人脸的角度和所述人脸区域的面积获取包含人像的候选区域;所述候选区域的面积与所述人脸区域的面积成正相关。
9.一种图像处理装置,其特征在于,包括:
图像获取模块,用于获取待识别图像;
人脸检测模块,用于检测所述待识别图像中是否存在人脸;
候选区域获取模块,用于当所述待识别图像中存在人脸时,根据所述人脸获取包含人像的候选区域;所述人像包括所述人脸;
人像分割模块,用于将所述候选区域输入人像分割网络,得到人像区域,将所述人像区域作为所述待识别图像的主体区域;
主体识别模块,用于当所述待识别图像中不存在人脸时,将所述待识别图像输入主体识别网络,得到所述待识别图像的主体区域。
10.一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至8中任一项所述的图像处理方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910905113.9A CN110610171A (zh) | 2019-09-24 | 2019-09-24 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910905113.9A CN110610171A (zh) | 2019-09-24 | 2019-09-24 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110610171A true CN110610171A (zh) | 2019-12-24 |
Family
ID=68892144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910905113.9A Pending CN110610171A (zh) | 2019-09-24 | 2019-09-24 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110610171A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221754A (zh) * | 2021-05-14 | 2021-08-06 | 深圳前海百递网络有限公司 | 快递单图像检测方法、装置、计算机设备和存储介质 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101561710A (zh) * | 2009-05-19 | 2009-10-21 | 重庆大学 | 一种基于人脸姿态估计的人机交互方法 |
CN107358207A (zh) * | 2017-07-14 | 2017-11-17 | 重庆大学 | 一种矫正人脸图像的方法 |
CN107454335A (zh) * | 2017-08-31 | 2017-12-08 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和移动终端 |
CN107592473A (zh) * | 2017-10-31 | 2018-01-16 | 广东欧珀移动通信有限公司 | 曝光参数调整方法、装置、电子设备和可读存储介质 |
CN107820017A (zh) * | 2017-11-30 | 2018-03-20 | 广东欧珀移动通信有限公司 | 图像拍摄方法、装置、计算机可读存储介质和电子设备 |
CN108009999A (zh) * | 2017-11-30 | 2018-05-08 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108537155A (zh) * | 2018-03-29 | 2018-09-14 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN108717530A (zh) * | 2018-05-21 | 2018-10-30 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108875479A (zh) * | 2017-08-15 | 2018-11-23 | 北京旷视科技有限公司 | 人脸图像的获取方法及装置 |
CN108921148A (zh) * | 2018-09-07 | 2018-11-30 | 北京相貌空间科技有限公司 | 确定正脸倾斜角度的方法及装置 |
CN109191398A (zh) * | 2018-08-29 | 2019-01-11 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN109325905A (zh) * | 2018-08-29 | 2019-02-12 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN109360254A (zh) * | 2018-10-15 | 2019-02-19 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN109389018A (zh) * | 2017-08-14 | 2019-02-26 | 杭州海康威视数字技术股份有限公司 | 一种人脸角度识别方法、装置及设备 |
CN109461186A (zh) * | 2018-10-15 | 2019-03-12 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN109582811A (zh) * | 2018-12-17 | 2019-04-05 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN110047053A (zh) * | 2019-04-26 | 2019-07-23 | 腾讯科技(深圳)有限公司 | 人像图片生成方法、装置和计算机设备 |
CN110248096A (zh) * | 2019-06-28 | 2019-09-17 | Oppo广东移动通信有限公司 | 对焦方法和装置、电子设备、计算机可读存储介质 |
-
2019
- 2019-09-24 CN CN201910905113.9A patent/CN110610171A/zh active Pending
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101561710A (zh) * | 2009-05-19 | 2009-10-21 | 重庆大学 | 一种基于人脸姿态估计的人机交互方法 |
CN107358207A (zh) * | 2017-07-14 | 2017-11-17 | 重庆大学 | 一种矫正人脸图像的方法 |
CN109389018A (zh) * | 2017-08-14 | 2019-02-26 | 杭州海康威视数字技术股份有限公司 | 一种人脸角度识别方法、装置及设备 |
CN108875479A (zh) * | 2017-08-15 | 2018-11-23 | 北京旷视科技有限公司 | 人脸图像的获取方法及装置 |
CN107454335A (zh) * | 2017-08-31 | 2017-12-08 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和移动终端 |
CN107592473A (zh) * | 2017-10-31 | 2018-01-16 | 广东欧珀移动通信有限公司 | 曝光参数调整方法、装置、电子设备和可读存储介质 |
CN107820017A (zh) * | 2017-11-30 | 2018-03-20 | 广东欧珀移动通信有限公司 | 图像拍摄方法、装置、计算机可读存储介质和电子设备 |
CN108009999A (zh) * | 2017-11-30 | 2018-05-08 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108537155A (zh) * | 2018-03-29 | 2018-09-14 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN108717530A (zh) * | 2018-05-21 | 2018-10-30 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN109191398A (zh) * | 2018-08-29 | 2019-01-11 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN109325905A (zh) * | 2018-08-29 | 2019-02-12 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN108921148A (zh) * | 2018-09-07 | 2018-11-30 | 北京相貌空间科技有限公司 | 确定正脸倾斜角度的方法及装置 |
CN109360254A (zh) * | 2018-10-15 | 2019-02-19 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN109461186A (zh) * | 2018-10-15 | 2019-03-12 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN109582811A (zh) * | 2018-12-17 | 2019-04-05 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN110047053A (zh) * | 2019-04-26 | 2019-07-23 | 腾讯科技(深圳)有限公司 | 人像图片生成方法、装置和计算机设备 |
CN110248096A (zh) * | 2019-06-28 | 2019-09-17 | Oppo广东移动通信有限公司 | 对焦方法和装置、电子设备、计算机可读存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221754A (zh) * | 2021-05-14 | 2021-08-06 | 深圳前海百递网络有限公司 | 快递单图像检测方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110149482B (zh) | 对焦方法、装置、电子设备和计算机可读存储介质 | |
US11457138B2 (en) | Method and device for image processing, method for training object detection model | |
CN110248096B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
EP3477931B1 (en) | Image processing method and device, readable storage medium and electronic device | |
EP3598736B1 (en) | Method and apparatus for processing image | |
CN113766125B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN110493527B (zh) | 主体对焦方法、装置、电子设备和存储介质 | |
CN108537155B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN110660090B (zh) | 主体检测方法和装置、电子设备、计算机可读存储介质 | |
CN110248097B (zh) | 追焦方法、装置、终端设备、计算机可读存储介质 | |
CN111932587B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN109712177B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN110650288B (zh) | 对焦控制方法和装置、电子设备、计算机可读存储介质 | |
CN110191287B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN110349163B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
US12039767B2 (en) | Subject detection method and apparatus, electronic device, and computer-readable storage medium | |
CN110490196B (zh) | 主体检测方法和装置、电子设备、计算机可读存储介质 | |
CN108848306B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN113313626A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN110881103B (zh) | 对焦控制方法和装置、电子设备、计算机可读存储介质 | |
CN110365897B (zh) | 图像修正方法和装置、电子设备、计算机可读存储介质 | |
CN110399823B (zh) | 主体跟踪方法和装置、电子设备、计算机可读存储介质 | |
CN110689007B (zh) | 主体识别方法和装置、电子设备、计算机可读存储介质 | |
CN110610171A (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110688926A (zh) | 主体检测方法和装置、电子设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191224 |
|
RJ01 | Rejection of invention patent application after publication |