[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN110796673B - 图像分割方法及相关产品 - Google Patents

图像分割方法及相关产品 Download PDF

Info

Publication number
CN110796673B
CN110796673B CN201911051749.8A CN201911051749A CN110796673B CN 110796673 B CN110796673 B CN 110796673B CN 201911051749 A CN201911051749 A CN 201911051749A CN 110796673 B CN110796673 B CN 110796673B
Authority
CN
China
Prior art keywords
target
image
loss function
segmentation
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911051749.8A
Other languages
English (en)
Other versions
CN110796673A (zh
Inventor
吴佳涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jinsheng Communication Technology Co ltd
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Shanghai Jinsheng Communication Technology Co ltd
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jinsheng Communication Technology Co ltd, Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Shanghai Jinsheng Communication Technology Co ltd
Priority to CN201911051749.8A priority Critical patent/CN110796673B/zh
Publication of CN110796673A publication Critical patent/CN110796673A/zh
Application granted granted Critical
Publication of CN110796673B publication Critical patent/CN110796673B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种图像分割方法及相关产品,应用于电子设备,所述电子设备中预先配置图像分割模型,所述方法包括:获取目标图像,所述目标图像中包括预设目标;获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据;将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到。采用本申请实施例能够提升目标分割精度。

Description

图像分割方法及相关产品
技术领域
本申请涉及图像处理技术领域,具体涉及一种图像分割方法及相关产品。
背景技术
随着电子设备(如手机、平板电脑等等)的大量普及应用,电子设备能够支持的应用越来越多,功能越来越强大,电子设备向着多样化、个性化的方向发展,成为用户生活中不可缺少的电子用品。
目前来看,图像处理技术越来越流行,例如,图像分割技术,但是现有技术中,以人物分割为例,对分割目标的边缘部分未做任何优化改进,对人物的边缘处理较差,如分割出来的人物边缘往往存在明显的缺失,或将大块的非人体部分错认为人体,无法切合真实人物的边缘,因此,如何提升图像分割精度的问题亟待解决。
发明内容
本申请实施例提供了一种图像分割方法及相关产品,能够提升图像分割精度。
第一方面,本申请实施例提供一种图像分割方法,应用于电子设备,所述电子设备中预先配置图像分割模型,所述方法包括:
获取目标图像,所述目标图像中包括预设目标;
获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据;
将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到。
第二方面,本申请实施例提供一种图像分割装置,应用于电子设备,所述图像分割模型架构包括:图像输入装置、标签化处理装置、图像分割模型和输出装置,其中,
所述图像输入装置,用于获取目标图像,所述目标图像中包括预设目标;
所述标签化处理装置,用于获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据;
所述图像分割模型,用于将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到;
所述输出装置,用于输出所述最终分割结果。
第三方面,本申请实施例提供一种电子设备,包括处理器、存储器、通信接口以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面中的步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质存储用于电子数据交换的计算机程序,其中,上述计算机程序使得计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
实施本申请实施例,具备如下有益效果:
可以看出,本申请实施例中所描述的图像分割方法及相关产品,应用于电子设备,电子设备中预先配置图像分割模型,获取目标图像,目标图像中包括预设目标,获取目标图像的标签数据集,标签数据集包括目标标签数据、背景标签数据和边缘标签数据,将标签数据集输入到图像分割模型,得到最终分割结果,图像分割模型包括预设神经网络模型和预设损失函数,图像分割模型经由样本数据输入到预设神经网络模型,得到预测结果,并将预测结果输入到预设损失函数,得到运算结果,通过运算结果优化神经网络模型的模型参数而得到,如此,能够将目标图像中的边缘、目标与背景标记出来,并将其输入到图像分割模型中,该图像分割模型由损失函数对神经网络模型的模型参数进行优化得到,一方面,能够提升模型的分割精度,另一方面该模型还能够利用边缘与目标主体的这种信息互补关系,能够使得分割出的目标的边缘没有明显的缺失,不仅能够避免目标中出现的空洞现象,还可以过滤掉一些误识别的背景物体,提升了图像分割精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是本申请实施例提供的一种电子设备的结构示意图;
图1B是本申请实施例提供的一种图像分割方法的流程示意图;
图1C是本申请实施例提供的一种图像分割模型的结构示意图;
图1D是本申请实施例提供的人像分割效果比对演示示意图;
图2是本申请实施例提供的另一种图像分割方法的流程示意图;
图3是本申请实施例提供的一种电子设备的结构示意图;
图4A是本申请实施例提供的一种图像分割模型架构的功能单元组成框图;
图4B是本申请实施例提供的另一种图像分割模型架构的功能单元组成框图。
具体实施方式
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例所涉及到的电子设备可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备(智能手表、智能手环、无线耳机、增强现实/虚拟现实设备、智能眼镜)、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(userequipment,UE),移动台(mobile station,MS),终端设备(terminal device)等等。为方便描述,上面提到的设备统称为电子设备。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面对本申请实施例进行详细介绍。
请参阅图1A,图1A是本申请实施例公开的一种电子设备的结构示意图,电子设备100包括存储和处理电路110,以及与所述存储和处理电路110连接的传感器170,其中:
电子设备100可以包括控制电路,该控制电路可以包括存储和处理电路110。该存储和处理电路110可以存储器,例如硬盘驱动存储器,非易失性存储器(例如闪存或用于形成固态驱动器的其它电子可编程只读存储器等),易失性存储器(例如静态或动态随机存取存储器等)等,本申请实施例不作限制。存储和处理电路110中的处理电路可以用于控制电子设备100的运转。该处理电路可以基于一个或多个微处理器,微控制器,数字信号处理器,基带处理器,功率管理单元,音频编解码器芯片,专用集成电路,显示驱动器集成电路等来实现。
存储和处理电路110可用于运行电子设备100中的软件,例如互联网浏览应用程序,互联网协议语音(Voice over Internet Protocol,VOIP)电话呼叫应用程序,电子邮件应用程序,媒体播放应用程序,操作系统功能等。这些软件可以用于执行一些控制操作,例如,基于照相机的图像采集,基于环境光传感器的环境光测量,基于接近传感器的接近传感器测量,基于诸如发光二极管的状态指示灯等状态指示器实现的信息显示功能,基于触摸传感器的触摸事件检测,与在多个(例如分层的)显示屏上显示信息相关联的功能,与执行无线通信功能相关联的操作,与收集和产生音频信号相关联的操作,与收集和处理按钮按压事件数据相关联的控制操作,以及电子设备100中的其它功能等,本申请实施例不作限制。
电子设备100可以包括输入-输出电路150。输入-输出电路150可用于使电子设备100实现数据的输入和输出,即允许电子设备100从外部设备接收数据和也允许电子设备100将数据从电子设备100输出至外部设备。输入-输出电路150可以进一步包括传感器170。传感器170可以包括环境光传感器,基于光和电容的接近传感器,指纹识别模组,触摸传感器(例如,基于光触摸传感器和/或电容式触摸传感器,其中,触摸传感器可以是触控显示屏的一部分,也可以作为一个触摸传感器结构独立使用),加速度传感器,摄像头,和其它传感器等,摄像头可以为前置摄像头或者后置摄像头,指纹识别模组可集成于显示屏下方,用于采集指纹图像。
输入-输出电路150还可以包括一个或多个显示屏,例如显示屏130。显示屏130可以包括液晶显示屏,有机发光二极管显示屏,电子墨水显示屏,等离子显示屏,使用其它显示技术的显示屏中一种或者几种的组合。显示屏130可以包括触摸传感器阵列(即,显示屏130可以是触控显示屏)。触摸传感器可以是由透明的触摸传感器电极(例如氧化铟锡(ITO)电极)阵列形成的电容式触摸传感器,或者可以是使用其它触摸技术形成的触摸传感器,例如音波触控,压敏触摸,电阻触摸,光学触摸等,本申请实施例不作限制。
电子设备100还可以包括音频组件140。音频组件140可以用于为电子设备100提供音频输入和输出功能。电子设备100中的音频组件140可以包括扬声器,麦克风,蜂鸣器,音调发生器以及其它用于产生和检测声音的组件。
通信电路120可以用于为电子设备100提供与外部设备通信的能力。通信电路120可以包括模拟和数字输入-输出接口电路,和基于射频信号和/或光信号的无线通信电路。通信电路120中的无线通信电路可以包括射频收发器电路、功率放大器电路、低噪声放大器、开关、滤波器和天线。举例来说,通信电路120中的无线通信电路可以包括用于通过发射和接收近场耦合电磁信号来支持近场通信(Near Field Communication,NFC)的电路。例如,通信电路120可以包括近场通信天线和近场通信收发器。通信电路120还可以包括蜂窝电话收发器和天线,无线局域网收发器电路和天线等。
电子设备100还可以进一步包括电池,电力管理电路和其它输入-输出单元160。输入-输出单元160可以包括按钮,操纵杆,点击轮,滚动轮,触摸板,小键盘,键盘,照相机,发光二极管和其它状态指示器等。
用户可以通过输入-输出电路150输入命令来控制电子设备100的操作,并且可以使用输入-输出电路150的输出数据以实现接收来自电子设备100的状态信息和其它输出。
基于图1A所描述的电子设备,所述电子设备中预先配置图像分割模型,能够实现如下功能:
获取目标图像,所述目标图像中包括预设目标;
获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据;
将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到。
可以看出,本申请实施例中所描述的电子设备,该电子设备中预先配置图像分割模型,获取目标图像,目标图像中包括预设目标,获取目标图像的标签数据集,标签数据集包括目标标签数据、背景标签数据和边缘标签数据,将标签数据集输入到图像分割模型,得到最终分割结果,图像分割模型包括预设神经网络模型和预设损失函数,图像分割模型经由样本数据输入到预设神经网络模型,得到预测结果,并将预测结果输入到预设损失函数,得到运算结果,通过运算结果优化神经网络模型的模型参数而得到,如此,能够将目标图像中的边缘、目标与背景标记出来,并将其输入到图像分割模型中,该图像分割模型由损失函数对神经网络模型的模型参数进行优化得到,一方面,能够提升模型的分割精度,另一方面该模型还能够利用边缘与目标主体的这种信息互补关系,能够使得分割出的目标的边缘没有明显的缺失,不仅能够避免目标中出现的空洞现象,还可以过滤掉一些误识别的背景物体,提升了图像分割精度。
请参阅图1B,图1B是本申请实施例提供的一种图像分割方法的流程示意图,如图所示,应用于如图1A所示的电子设备,所述电子设备中预先配置图像分割模型,本图像分割方法包括:
101、获取目标图像,所述目标图像中包括预设目标。
其中,预设目标可以为人、动物(如猫、狗、熊猫等等)、物体(桌子、椅子、衣服)等等,在此不作限定。电子设备可以通过拍摄头拍摄得到目标图像,或者,目标图像也可以为任意一幅预先保存的图像。
在一个可能的示例中,在所述预设目标为人时,上述步骤101,获取目标图像,可以包括如下步骤:
11、获取预览图像,所述预览图像中包括所述预设目标;
12、对所述预览图像进行人脸识别,得到人脸区域图像;
13、获取所述人脸区域图像的目标肤色信息;
14、按照预设的肤色信息与拍摄参数之间的映射关系,确定所述目标肤色信息对应的目标拍摄参数;
15、依据所述目标拍摄参数进行拍摄,得到所述目标图像。
其中,本申请实施例中,肤色信息可以为以下至少一种:颜色、平均亮度值、位置等等,在此不作限定。拍摄参数可以下至少一种:感光度ISO、白平衡参数、焦距、物距、曝光时长、拍摄模式等等,在此不作限定。电子设备中还可以预先存储预设的肤色信息与拍摄参数之间的映射关系。
具体实现中,电子设备可以获取预览图像,该预览图像中可以包括预设目标,还可以对该预览图像进行人脸识别,得到人脸区域图像,可以基于该人脸区域图像得到目标肤色信息,进而,可以依据上述预设的肤色信息与拍摄参数之间的映射关系确定目标肤色信息对应的目标拍摄参数,并依据该目标拍摄参数进行拍摄,得到目标图像,如此,可以拍摄得到清晰的人脸图像。
102、获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据。
其中,本申请实施例中,目标图像可以视作由三部分构成,具体为:目标、背景以及边缘,如,目标可以为预设目标,边缘可以为预设目标的边缘,目标图像中的其他区域则为背景。具体实现中,电子设备可以将目标图像划分为三个区域,目标区域、背景区域和边缘区域,其中,目标区域对应目标标签数据,背景区域对应背景标签数据和边缘区域对应边缘标签数据。举例说明下,例如,0表示背景(即背景区域所有像素的像素值标记为0),1表示目标(即目标区域所有像素的像素值标记为1),2表示边缘(即边缘区域所有像素的像素值标记为2)。在一个可能的示例中,上述步骤102,获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据,可以包括如下步骤:
21、对所述目标图像进行目标分割,得到第一目标区域和背景区域;
22、对所述第一目标区域进行边缘提取,得到边缘区域和第二目标区域;
23、将所述第二目标区域、所述背景区域和所述边缘区域进行标签化处理,得到所述第二目标区域对应的所述目标标签数据、所述背景区域对应的所述背景标签数据和所述边缘区域对应的所述边缘标签数据。
其中,电子设备可以通过上述图像分割算法对目标图像进行图像分割,得到第一目标区域和背景区域,图像分割算法可以为以下至少一种:神经网络模型、GrabCut算法、分水岭算法等等,在此不做限定。第一目标区域不仅包括目标,还包括目标与背景的边界,即边缘,进一步地,可以对第一目标区域进行边缘提取,得到边缘区域和第二目标区域,边缘提取采取的具体算法可以为以下至少一种:霍夫变换、canny算子、sobel算子或者膨胀腐蚀等等,在此不作限定。进而,电子设备可以对背景区域、边缘区域和第二目标区域进行标签化处理,得到目标图像的标签数据集,其中,第二目标区域对应目标标签数据,背景区域对应背景标签数据,边缘区域对应边缘标签数据,例如,0表示背景,1表示目标,2表示边缘。
在一个可能的示例中,在所述预设目标为人脸时,在上述步骤101与步骤102之间还可以包括如下步骤:
A1、从所述目标图像中提取目标人脸图像;
A2、将所述目标人脸图像与预设人脸模板进行匹配;
A3、在所述目标人脸图像与所述预设人脸模板匹配成功时,进行步骤102。
其中,电子设备中可以预先存储预设人脸模板。电子设备可以将目标人脸图像与预设人脸模板进行匹配,在该目标人脸图像与预设人脸模板匹配成功时,执行步骤102,否则,不执行步骤102。如此,一方面,能够仅仅针对指定人脸实现人脸分割,另一方面,可以提升安全性。
在一个可能的示例中,上述步骤A2,将所述目标人脸图像与预设人脸模板进行匹配,可以包括如下步骤:
A21、对所述目标人脸图像进行图像分割,得到目标人脸区域图像;
A22、分析所述目标人脸区域图像的特征点分布;
A23、按照M个不同圆心对所述目标人脸区域图像进行圆形图像截取,得到M个圆形人脸区域图像,所述M为大于3的整数;
A24、从所述M个圆形人脸区域图像中选出目标圆形人脸区域图像,所述目标圆形人脸区域图像所包含的特征点的数量大于所述M个圆形人脸区域图像中的其他圆形人脸区域图像;
A25、将所述目标圆形人脸区域图像划分得到N个圆环,所述N个圆环的环宽相同;
A26、从所述N个圆环中半径最小的圆环开始,将所述N个圆环依次与预设人脸模板进行特征点匹配,并累计已匹配圆环的匹配值;
A27、当累计的匹配值大于目标人脸识别阈值时立即停止进行特征点匹配,并输出人脸识别成功的提示消息。
其中,电子设备可以对目标人脸图像进行图像分割,得到目标人脸区域图像,进而,分析该目标人脸区域图像的特征点分布,按照M个不同圆心对该目标人脸区域图像进行圆形图像截取,得到M个圆形人脸区域图像,M为大于3的整数,从M个圆形人脸区域图像中选出目标圆形人脸区域图像,目标圆形人脸区域图像所包含的特征点的数量大于M个圆形人脸区域图像中的其他圆形人脸区域图像,将目标圆形人脸区域图像划分得到N个圆环,N个圆环的环宽相同,从N个圆环中半径最小的圆环开始,将N个圆环依次与预设人脸模板进行特征点匹配,并累计已匹配圆环的匹配值,如此,在人脸识别过程中,可以将不同位置或者不同人脸的特征点用于匹配,相当于对整个人脸图像进行采样,且该采样能够覆盖整个人脸区域,从而,从每个区域中均可以找到相应的代表性特征以用于匹配,当累计的匹配值大于目标人脸识别阈值时立即停止进行特征点匹配,并输出人脸识别成功的提示消息,如此,能够快速且精准识别人脸识别。
103、将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到。
其中,预设神经网络模型可以为能够实现图像分割的深度学习神经网络模型,例如,DeepLabV3+、遗传算法、卷积神经网络算法等等。上述预设损失函数可以为以下至少一种:铰链损失函数、交叉熵损失函数和指数损失函数等等,在此不作限定。上述预设损失函数可以预先设置,当然,也可以由电子设备通过预设神经网络模型对样本图像进行处理得到,具体地,通过预设神经网络模型可以对样本图像实现图像分割,得到一个实际图像分割结果,而样本图像对应一个理想图像分割结果,依据实际图像分割结果,理想图像分割结果之间的差值图像,可以得到预设损失函数。上述最终分割结果可以包括目标、背景以及边缘。预设损失函数可以由三部分函数组成,一部分用于调节目标,一部分用于调节背景,一部分用于调节边缘。
其中,本申请实施例中,预设神经网络模型的模型参数可以为以下至少一种:卷积核、层数、激活函数类型、损失函数(loss)、度量(metrics)、权值最佳算法(optimize)、batch_size等等,在此不做限定,图像分割模型包括预设神经网络模型和预设损失函数,上述图像分割模型可以经由样本数据输入到预设神经网络模型,得到预测结果,并将预测结果输入到预设损失函数,得到运算结果,通过运算结果优化神经网络模型的模型参数而得到,具体地,如图1C所示,图像分割模型可以执行如下结果S1-S3;
S1、将输入数据输入到预设神经网络模型,得到预测结果;
S2、由预设损失函数对预测结果进行运算,得到运算结果,通过运算结果来优化预设神经网络模型的模型参数,将该运算结果作为输入数据,执行步骤S1;
S3、直到预设神经网络模型收敛,则得到最终的图像分割模型(即训练好的图像分割模型)。
具体实现中,电子设备可以通过图像分割模型对标签数据集进行处理,得到最终分割结果,依据该最终分割结果可以完整提取目标,当然,也可以凸显目标与背景交界线,即边缘。
在一个可能的示例中,所述预设损失函数包括第一子损失函数、第二子损失函数和第三子损失函数,其中,所述第一子损失函数用来调节目标分割结果,所述第二子损失函数用来调节背景分割结果,所述第三子损失函数用来调节边缘分割结果。
具体实现中,预设损失函数可以由三部分子函数组成,即第一子损失函数、第二子损失函数和第三子损失函数,其中,第一子损失函数用来调节目标分割结果,第二子损失函数用来调节背景分割结果,第三子损失函数用来调节边缘分割结果。
其中,预设损失函数可以用如下公式表示:
Loss=w1*function1+w2*function2+w3*function3
其中,Loss为预设损失函数,function1为第一子损失函数,function2为第二子损失函数,function3为第三子损失函数,function1为调节目标的函数,w1为function1对应的权值,function2为调节背景的函数,w2为function2对应的权值,funcition3为调节边缘的函数,w3为function3对应的权值,通过调节w1,w2或者w3的大小,可以对图像分割效果实现调节。
在一个可能的示例中,所述第一子损失函数对应第一权值,所述第二子损失函数对应第二权值,所述第三子损失函数对应第三权值,且所述第一权值小于所述第三权值,所述第二权值小于所述第三权值。
其中,第一权值小于第三权值,第二权值小于第三权值,这样可以凸显边缘,使得目标与背景彻底区分开来,上述第一权值、第二权值、第三权值可以预先保存在电子设备中。具体实现中,电子设备可以获取目标标签区域对应的第一权值,背景区域对应的第二权值以及边缘区域对应的第三权值,依据该第一权值、第二权值和第三权值可以实现对预设损失函数的权值进行调整,例如,可以直接将第一权值、第二权值和第三权值作为预设损失函数的子损失函数的权值,进而,可以通过调整后的预设损失函数对图像分割结果进行优化处理,得到最终分割结果。
在一个可能的示例中,所述第一权值、所述第二权值和所述第三权值之和为1。
其中,第一权值+第二权值+第三权值之和可以为1,第一权值、第二权值、第三权值可以由系统默认(例如,经验值)或者可以由用户自行设置。具体实现中,电子设备可以获取目标标签区域对应的第一权值,背景标签区域对应的第二权值,以及边缘标签区域对应的第三权值,依据上述第一权值、第二权值和第三权值可以对预设损失函数进行调整,进而,可以通过调整后的预设损失函数对图像分割结果进行优化,得到最终分割结果,如此,可以凸显分割结果中的边缘,进而,将目标与背景彻底区分开来。
具体实现中,以人物分割为例,可以通过上述方式修改损失函数,即loss函数中的权重参数,针对不同类别标签赋予不同的权值。以人像分割为例,观察到训练数据中,代表边缘的像素点总数要远远少于代表人体和背景的像素点总数,边缘类别在训练中权重占比非常小,神经网络模型很难学习到足够有效的边缘信息,因此,可以需要修改loss函数中的类别权重系数,增加边缘类别的学习权重。在实际实验中,使用的经验的权重比为:
wbackground:wperson:wedge=1:2:10
其中,wbackground表示背景对应的权值,wperson为人物对应的权值,wedge为边缘对应的权值。
如此,在人物分割时,不仅可以在不修改现有网络结构(即预设神经网络模型)的同时提升网络对整体人物合人物边缘的分割精细程度,同时,本申请实施例,也不会增加网络的运算量和执行时间,并只在训练阶段需要对标签数据进行额外的处理,在预测阶段,仍旧使用改进前的预测流程,不要增加额外的处理和数据。
在一个可能的示例中,在上述步骤101之前,还可以包括如下步骤:
B1、获取第一样本图像以及该第一样本图像对应的理想分割结果;
B2、将所述第一样本图像输入到所述预设神经网络模型中进行运算,得到实际分割结果;
B3、依据所述理想分割结果与实际分割结果确定所述预设损失函数。
其中,第一样本图像可以由用户自行设置或者系统默认。第一样本图像可以预先保存在电子设备中,其可以为任一或者多个预先设置的样本图像。具体实现中,电子设备可以获取第一样本图像,以及该第一样本图像对应的理想分割结果,理想分割结果可以理解为绝对地将目标与背景分开的结果,进一步地,可以将第一样本图像输入到预设神经网络模型中进行训练,得到实际分割结果,进而,可以依据理想分割结果与实际分割结果确定预设损失函数。
举例说明下,以预设神经网络模型为DeepLabV3+为例,如图1D所示,图1D中的(a)图为原始DeepLabV3+模型的分割结果,(b)图为采用本申请实施例实现图像分割的分割结果,即添加边缘类别优化后的分割结果。从图中可看出,(b)图的人物手部细节要明显优于(a)图,(b)图的手指轮廓清晰可见,而(a)图手指部分则与接触物混成一块。同时优化后模型很好的解决了人物中间部分出现的空洞现象。优化前后的均交并比(Mean Intersectionover Union,mIOU)数据如下表所示。测试集为全身人像图像,包含了日常生活中能接触到的各类人物图像及各类边缘细节,如人物携带了小件随身物体、图像中包含了假人等物体、人物被部分遮挡等各类情况。在全身人像测试集中,优化后模型的mIOU都要比优化前高1.8%左右,可见本申请方案对现有技术的改进效果。
Figure BDA0002255498500000131
可见,基于上述本申请实施例,可以利用边缘与人物主体的这种信息互补关系,分割出的人物边缘没有明显的缺失,对人物身体出现的空洞现象也有一定增益效果,同时还可以过滤掉一些误识别的背景物体。
可以看出,本申请实施例中所描述的图像分割方法,应用于电子设备,电子设备中预先配置图像分割模型,获取目标图像,目标图像中包括预设目标,获取目标图像的标签数据集,标签数据集包括目标标签数据、背景标签数据和边缘标签数据,将标签数据集输入到图像分割模型,得到最终分割结果,图像分割模型包括预设神经网络模型和预设损失函数,图像分割模型经由样本数据输入到预设神经网络模型,得到预测结果,并将预测结果输入到预设损失函数,得到运算结果,通过运算结果优化神经网络模型的模型参数而得到,如此,能够将目标图像中的边缘、目标与背景标记出来,并将其输入到图像分割模型中,该图像分割模型由损失函数对神经网络模型的模型参数进行优化得到,一方面,能够提升模型的分割精度,另一方面该模型还能够利用边缘与目标主体的这种信息互补关系,能够使得分割出的目标的边缘没有明显的缺失,不仅能够避免目标中出现的空洞现象,还可以过滤掉一些误识别的背景物体,提升了图像分割精度。
与上述图1B所示的实施例一致地,请参阅图2,图2是本申请实施例提供的一种图像分割方法的流程示意图,如图所示,应用于如图1A所示的电子设备,所述电子设备中预先配置图像分割模型,本图像分割方法包括:
201、获取所述第一样本图像以及该第一样本图像对应的理想分割结果。
202、将所述第一样本图像输入到预设神经网络模型中进行运算,得到实际分割结果。
203、依据所述理想分割结果与所述实际分割结果确定预设损失函数。
204、获取目标图像,所述目标图像中包括预设目标。
205、获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据。
206、将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括所述预设神经网络模型和所述预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到。
其中,上述步骤201-步骤206的具体描述可以参照上述图1B所描述的图像分割方法的相应步骤,在此不再赘述。
可以看出,上述本申请实施例中所描述的图像分割方法,应用于电子设备,该电子设备中预先配置图像分割模型,能够将目标图像中的边缘、目标与背景标记出来,并将其输入到图像分割模型中,该图像分割模型由损失函数对神经网络模型的模型参数进行优化得到,一方面,能够提升模型的分割精度,另一方面该模型还能够利用边缘与目标主体的这种信息互补关系,能够使得分割出的目标的边缘没有明显的缺失,不仅能够避免目标中出现的空洞现象,还可以过滤掉一些误识别的背景物体,提升了图像分割精度。
与上述实施例一致地,请参阅图3,图3是本申请实施例提供的一种电子设备的结构示意图,如图所示,该电子设备包括处理器、存储器、通信接口以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,该存储器中可以预先配置图像分割模型,并且被配置由上述处理器执行,本申请实施例中,上述程序包括用于执行以下步骤的指令:
获取目标图像,所述目标图像中包括预设目标;
获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据;
将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到。
可以看出,本申请实施例中所描述的电子设备,电子设备中预先配置图像分割模型,获取目标图像,目标图像中包括预设目标,获取目标图像的标签数据集,标签数据集包括目标标签数据、背景标签数据和边缘标签数据,将标签数据集输入到图像分割模型,得到最终分割结果,图像分割模型包括预设神经网络模型和预设损失函数,图像分割模型经由样本数据输入到预设神经网络模型,得到预测结果,并将预测结果输入到预设损失函数,得到运算结果,通过运算结果优化神经网络模型的模型参数而得到,如此,能够将目标图像中的边缘、目标与背景标记出来,并将其输入到图像分割模型中,该图像分割模型由损失函数对神经网络模型的模型参数进行优化得到,一方面,能够提升模型的分割精度,另一方面该模型还能够利用边缘与目标主体的这种信息互补关系,能够使得分割出的目标的边缘没有明显的缺失,不仅能够避免目标中出现的空洞现象,还可以过滤掉一些误识别的背景物体,提升了图像分割精度。
在一个可能的示例中,所述预设损失函数包括第一子损失函数、第二子损失函数和第三子损失函数,其中,所述第一子损失函数用来调节目标分割结果,所述第二子损失函数用来调节背景分割结果,所述第三子损失函数用来调节边缘分割结果。
在一个可能的示例中,所述第一子损失函数对应第一权值,所述第二子损失函数对应第二权值,所述第三子损失函数对应第三权值,且所述第一权值小于所述第三权值,所述第二权值小于所述第三权值。
在一个可能的示例中,所述第一权值、所述第二权值和所述第三权值之和为1。
在一个可能的示例中,在所述获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据方面,包上述程序包括用于执行以下步骤的指令:
对所述目标图像进行目标分割,得到第一目标区域和背景区域;
对所述第一目标区域进行边缘提取,得到边缘区域和第二目标区域;
将所述第二目标区域、所述背景区域和所述边缘区域进行标签化处理,得到所述第二目标区域对应的所述目标标签数据、所述背景区域对应的所述背景标签数据和所述边缘区域对应的所述边缘标签数据。
在一个可能的示例中,在所述获取目标图像之前,上述还程序包括用于执行以下步骤的指令:
获取第一样本图像以及该第一样本图像对应的理想分割结果;
将所述第一样本图像输入到所述预设神经网络模型中进行运算,得到实际分割结果;
依据所述理想分割结果与所述实际分割结果确定所述预设损失函数。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图4A是本申请实施例中所涉及的图像分割模型架构400的功能单元组成框图。该图像分割模型架构400,应用于电子设备,所述电子设备中预先配置图像分割模型,所述图像分割模型架构400包括:图像输入装置410、标签化处理装置420、图像分割模型430和输出装置440,其中,
所述图像输入装置410,用于获取目标图像,所述目标图像中包括预设目标;
所述标签化处理装置420,用于获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据;
所述图像分割模型430,用于将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到;
所述输出装置440,用于输出所述最终分割结果。
可以看出,本申请实施例中所描述的图像分割装置,应用于电子设备,电子设备中预先配置图像分割模型,获取目标图像,目标图像中包括预设目标,获取目标图像的标签数据集,标签数据集包括目标标签数据、背景标签数据和边缘标签数据,将标签数据集输入到图像分割模型,得到最终分割结果,图像分割模型包括预设神经网络模型和预设损失函数,图像分割模型经由样本数据输入到预设神经网络模型,得到预测结果,并将预测结果输入到预设损失函数,得到运算结果,通过运算结果优化神经网络模型的模型参数而得到,如此,能够将目标图像中的边缘、目标与背景标记出来,并将其输入到图像分割模型中,该图像分割模型由损失函数对神经网络模型的模型参数进行优化得到,一方面,能够提升模型的分割精度,另一方面该模型还能够利用边缘与目标主体的这种信息互补关系,能够使得分割出的目标的边缘没有明显的缺失,不仅能够避免目标中出现的空洞现象,还可以过滤掉一些误识别的背景物体,提升了图像分割精度。
在一个可能的示例中,所述预设损失函数包括第一子损失函数、第二子损失函数和第三子损失函数,其中,所述第一子损失函数用来调节目标分割结果,所述第二子损失函数用来调节背景分割结果,所述第三子损失函数用来调节边缘分割结果。
在一个可能的示例中,所述第一子损失函数对应第一权值,所述第二子损失函数对应第二权值,所述第三子损失函数对应第三权值,且所述第一权值小于所述第三权值,所述第二权值小于所述第三权值。
在一个可能的示例中,所述第一权值、所述第二权值和所述第三权值之和为1。
在一个可能的示例中在所述获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据方面,所述标签化处理装置420具体用于:
对所述目标图像进行目标分割,得到第一目标区域和背景区域;
对所述第一目标区域进行边缘提取,得到边缘区域和第二目标区域;
将所述第二目标区域、所述背景区域和所述边缘区域进行标签化处理,得到所述第二目标区域对应的所述目标标签数据、所述背景区域对应的所述背景标签数据和所述边缘区域对应的所述边缘标签数据。
在一个可能的示例中,如图4B所示,图4B为图4A所示的图像分割模型架构的又一变型结构,其与图4A相比较,还可以包括:损失函数确定装置,具体如下:
所述损失函数确定装置450,用于获取所述第一样本图像以及该第一样本图像对应的理想分割结果;
将所述第一样本图像输入到所述预设神经网络模型中进行运算,得到实际分割结果;
依据所述理想分割结果与所述实际分割结果确定所述预设损失函数
可以理解的是,由于方法实施例与装置实施例为相同技术构思的不同呈现形式,因此,本申请中方法实施例部分的内容应同步适配于装置实施例部分,此处不再赘述。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤,上述计算机包括电子设备。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,上述计算机包括电子设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (14)

1.一种图像分割方法,其特征在于,应用于电子设备,所述电子设备中预先配置图像分割模型,所述方法包括:
获取目标图像,所述目标图像中包括预设目标,该预设目标为人;具体为:获取预览图像,所述预览图像中包括所述预设目标;对所述预览图像进行人脸识别,得到人脸区域图像;获取所述人脸区域图像的目标肤色信息;按照预设的肤色信息与拍摄参数之间的映射关系,确定所述目标肤色信息对应的目标拍摄参数;依据所述目标拍摄参数进行拍摄,得到所述目标图像;
获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据;
将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到。
2.根据权利要求1所述的方法,其特征在于,所述预设损失函数包括第一子损失函数、第二子损失函数和第三子损失函数,其中,所述第一子损失函数用来调节目标分割结果,所述第二子损失函数用来调节背景分割结果,所述第三子损失函数用来调节边缘分割结果。
3.根据权利要求2所述的方法,其特征在于,所述第一子损失函数对应第一权值,所述第二子损失函数对应第二权值,所述第三子损失函数对应第三权值,且所述第一权值小于所述第三权值,所述第二权值小于所述第三权值。
4.根据权利要求3所述的方法,其特征在于,所述第一权值、所述第二权值和所述第三权值之和为1。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据,包括:
对所述目标图像进行目标分割,得到第一目标区域和背景区域;
对所述第一目标区域进行边缘提取,得到边缘区域和第二目标区域;
将所述第二目标区域、所述背景区域和所述边缘区域进行标签化处理,得到所述第二目标区域对应的所述目标标签数据、所述背景区域对应的所述背景标签数据和所述边缘区域对应的所述边缘标签数据。
6.根据权利要求1-4任一项所述的方法,其特征在于,在所述获取目标图像之前,所述方法还包括:
获取第一样本图像以及该第一样本图像对应的理想分割结果;
将所述第一样本图像输入到所述预设神经网络模型中进行运算,得到实际分割结果;
依据所述理想分割结果与所述实际分割结果确定所述预设损失函数。
7.一种图像分割装置,其特征在于,应用于电子设备,所述电子设备中预先配置图像分割模型,所述图像分割装置包括:图像输入装置、标签化处理装置、图像分割模型和输出装置,其中,
所述图像输入装置,用于获取目标图像,所述目标图像中包括预设目标;该预设目标为人;具体为:获取预览图像,所述预览图像中包括所述预设目标;对所述预览图像进行人脸识别,得到人脸区域图像;获取所述人脸区域图像的目标肤色信息;按照预设的肤色信息与拍摄参数之间的映射关系,确定所述目标肤色信息对应的目标拍摄参数;依据所述目标拍摄参数进行拍摄,得到所述目标图像;
所述标签化处理装置,用于获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据;
所述图像分割模型,用于将所述标签数据集输入到所述图像分割模型,得到最终分割结果,所述图像分割模型包括预设神经网络模型和预设损失函数,所述图像分割模型经由样本数据输入到所述预设神经网络模型,得到预测结果,并将所述预测结果输入到所述预设损失函数,得到运算结果,通过所述运算结果优化所述神经网络模型的模型参数而得到;
所述输出装置,用于输出所述最终分割结果。
8.根据权利要求7所述的图像分割装置,其特征在于,所述预设损失函数包括第一子损失函数、第二子损失函数和第三子损失函数,其中,所述第一子损失函数用来调节目标分割结果,所述第二子损失函数用来调节背景分割结果,所述第三子损失函数用来调节边缘分割结果。
9.根据权利要求8所述的图像分割装置,其特征在于,所述第一子损失函数对应第一权值,所述第二子损失函数对应第二权值,所述第三子损失函数对应第三权值,且所述第一权值小于所述第三权值,所述第二权值小于所述第三权值。
10.根据权利要求9所述的图像分割装置,其特征在于,所述第一权值、所述第二权值和所述第三权值之和为1。
11.根据权利要求7-10任一项所述的图像分割装置,其特征在于,在所述获取所述目标图像的标签数据集,所述标签数据集包括目标标签数据、背景标签数据和边缘标签数据方面,所述标签化处理装置具体用于:
对所述目标图像进行目标分割,得到第一目标区域和背景区域;
对所述第一目标区域进行边缘提取,得到边缘区域和第二目标区域;
将所述第二目标区域、所述背景区域和所述边缘区域进行标签化处理,得到所述第二目标区域对应的所述目标标签数据、所述背景区域对应的所述背景标签数据和所述边缘区域对应的所述边缘标签数据。
12.根据权利要求7-10任一项所述的图像分割装置,其特征在于,所述图像分割装置还包括:损失函数确定装置,其中,
所述损失函数确定装置,用于执行如下操作:
获取第一样本图像以及该第一样本图像对应的理想分割结果;
将所述第一样本图像输入到所述预设神经网络模型中进行运算,得到实际分割结果;
依据所述理想分割结果与所述实际分割结果确定所述预设损失函数。
13.一种电子设备,其特征在于,包括处理器、存储器,所述存储器用于存储一个或多个程序,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-6任一项所述的方法中的步骤的指令。
14.一种计算机可读存储介质,其特征在于,存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1-6任一项所述的方法。
CN201911051749.8A 2019-10-31 2019-10-31 图像分割方法及相关产品 Active CN110796673B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911051749.8A CN110796673B (zh) 2019-10-31 2019-10-31 图像分割方法及相关产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911051749.8A CN110796673B (zh) 2019-10-31 2019-10-31 图像分割方法及相关产品

Publications (2)

Publication Number Publication Date
CN110796673A CN110796673A (zh) 2020-02-14
CN110796673B true CN110796673B (zh) 2023-02-24

Family

ID=69442359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911051749.8A Active CN110796673B (zh) 2019-10-31 2019-10-31 图像分割方法及相关产品

Country Status (1)

Country Link
CN (1) CN110796673B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112489063A (zh) * 2020-12-10 2021-03-12 北京金山云网络技术有限公司 图像分割方法、图像分割模型的训练方法和装置
CN112508974B (zh) * 2020-12-14 2024-06-11 北京达佳互联信息技术有限公司 图像分割模型的训练方法、装置、电子设备和存储介质
CN113159191A (zh) * 2021-04-25 2021-07-23 自然资源部第二海洋研究所 基于深度学习的高精度底跟踪方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651886A (zh) * 2017-01-03 2017-05-10 北京工业大学 一种基于超像素聚类优化cnn的云图分割方法
CN107564025A (zh) * 2017-08-09 2018-01-09 浙江大学 一种基于深度神经网络的电力设备红外图像语义分割方法
CN107610141A (zh) * 2017-09-05 2018-01-19 华南理工大学 一种基于深度学习的遥感图像语义分割方法
CN109063903A (zh) * 2018-07-19 2018-12-21 山东建筑大学 一种基于深度强化学习的建筑能耗预测方法及系统
CN109410211A (zh) * 2017-08-18 2019-03-01 北京猎户星空科技有限公司 一种图像中目标物体的分割方法及装置
CN109886179A (zh) * 2019-02-18 2019-06-14 深圳视见医疗科技有限公司 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统
CN110378438A (zh) * 2019-08-07 2019-10-25 清华大学 标签容错下的图像分割模型的训练方法、装置及相关设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866845B2 (en) * 2010-03-10 2014-10-21 Empire Technology Development Llc Robust object recognition by dynamic modeling in augmented reality
JP5970937B2 (ja) * 2012-04-25 2016-08-17 ソニー株式会社 表示制御装置および表示制御方法
JP6213622B2 (ja) * 2016-07-13 2017-10-18 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム
US11379695B2 (en) * 2016-10-24 2022-07-05 International Business Machines Corporation Edge-based adaptive machine learning for object recognition
US10824910B2 (en) * 2017-05-04 2020-11-03 Htc Corporation Image processing method, non-transitory computer readable storage medium and image processing system
CN107220664B (zh) * 2017-05-18 2019-12-31 南京大学 一种基于结构化随机森林的油瓶装箱清点方法
EP3499386A1 (en) * 2017-12-13 2019-06-19 Fujitsu Limited Apparatus, program, and method for storing and processing graph data
CN108614994A (zh) * 2018-03-27 2018-10-02 深圳市智能机器人研究院 一种基于深度学习的人头部图像提取方法和装置
CN108377341A (zh) * 2018-05-14 2018-08-07 Oppo广东移动通信有限公司 拍照方法、装置、终端及存储介质
CN108764370B (zh) * 2018-06-08 2021-03-12 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和计算机设备
CN109344833B (zh) * 2018-09-04 2020-12-18 中国科学院深圳先进技术研究院 医学图像分割方法、分割系统及计算机可读存储介质
CN109685713B (zh) * 2018-11-13 2024-05-10 平安科技(深圳)有限公司 化妆模拟控制方法、装置、计算机设备及存储介质
CN110069985B (zh) * 2019-03-12 2020-08-28 北京三快在线科技有限公司 基于图像的目标点位置检测方法、装置、电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651886A (zh) * 2017-01-03 2017-05-10 北京工业大学 一种基于超像素聚类优化cnn的云图分割方法
CN107564025A (zh) * 2017-08-09 2018-01-09 浙江大学 一种基于深度神经网络的电力设备红外图像语义分割方法
CN109410211A (zh) * 2017-08-18 2019-03-01 北京猎户星空科技有限公司 一种图像中目标物体的分割方法及装置
CN107610141A (zh) * 2017-09-05 2018-01-19 华南理工大学 一种基于深度学习的遥感图像语义分割方法
CN109063903A (zh) * 2018-07-19 2018-12-21 山东建筑大学 一种基于深度强化学习的建筑能耗预测方法及系统
CN109886179A (zh) * 2019-02-18 2019-06-14 深圳视见医疗科技有限公司 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统
CN110378438A (zh) * 2019-08-07 2019-10-25 清华大学 标签容错下的图像分割模型的训练方法、装置及相关设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的图像语义分割;陈鸿翔;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160715(第7期);第27-38、46-51页 *
多标签传播和边缘局部分析的显著性检测;唐红梅等;《计算机工程与应用》;20180430;第54卷(第24期);第206-208页 *

Also Published As

Publication number Publication date
CN110796673A (zh) 2020-02-14

Similar Documents

Publication Publication Date Title
CN110020622B (zh) 指纹识别方法及相关产品
CN109241859B (zh) 指纹识别方法及相关产品
CN109614865B (zh) 指纹识别方法及相关产品
CN110933312B (zh) 拍照控制方法及相关产品
CN109283996B (zh) 显示控制方法及相关产品
CN107480496A (zh) 解锁控制方法及相关产品
CN110796673B (zh) 图像分割方法及相关产品
CN109376700B (zh) 指纹识别方法及相关产品
CN109376702B (zh) 指纹识别方法及相关产品
CN108551552B (zh) 图像处理方法、装置、存储介质及移动终端
CN108833779B (zh) 拍摄控制方法及相关产品
CN110245607B (zh) 眼球追踪方法及相关产品
CN110796147B (zh) 图像分割方法及相关产品
CN113282317B (zh) 光学指纹参数升级方法及相关产品
CN110162264B (zh) 应用处理方法及相关产品
CN110363702B (zh) 图像处理方法及相关产品
CN110210394B (zh) 静脉图像采集方法及相关产品
CN110796665B (zh) 图像分割方法及相关产品
CN109376701B (zh) 指纹识别方法及相关产品
CN110188659B (zh) 健康检测方法及相关产品
CN109376703B (zh) 指纹识别方法及相关产品
CN112989878A (zh) 瞳孔检测方法及相关产品
CN108737657B (zh) 天线控制方法及相关产品
CN110298207A (zh) 信息显示方法及相关产品
CN111880670B (zh) 手机中智能穿戴设备的数据处理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant