CN113284142B - 图像检测方法、装置、计算机可读存储介质及计算机设备 - Google Patents
图像检测方法、装置、计算机可读存储介质及计算机设备 Download PDFInfo
- Publication number
- CN113284142B CN113284142B CN202110804450.6A CN202110804450A CN113284142B CN 113284142 B CN113284142 B CN 113284142B CN 202110804450 A CN202110804450 A CN 202110804450A CN 113284142 B CN113284142 B CN 113284142B
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- sample image
- network models
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 166
- 238000003062 neural network model Methods 0.000 claims abstract description 267
- 238000012549 training Methods 0.000 claims abstract description 153
- 238000009826 distribution Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000012216 screening Methods 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 21
- 238000013527 convolutional neural network Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000006854 communication Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000007726 management method Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Automation & Control Theory (AREA)
- Fuzzy Systems (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种图像检测方法、装置、计算机可读存储介质及计算机设备,通过获取训练样本数据;将样本图像分别输入到至少两个神经网络模型,得到输出的模糊概率值集合;根据模糊概率值集合与标签信息计算得到每个样本图像的损失参数;根据损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新;返回执行上述步骤,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;采用训练后的至少两个神经网络模型对待检测图像进行检测,得到检测结果。以此,本方法采用机器学习技术,通过采用多模型协同训练对噪声样本进行筛选,改善模型训练的效果,进而提高了图像检测的准确率。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种图像检测方法、装置、计算机可读存储介质及计算机设备。
背景技术
卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feed Forward Neural Networks,FFNN),是深度学习(DeepLearning,DL)的代表算法之一。卷积神经网络具有表征学习(Representation Learning,RL)能力,能够按其阶层结构对输入信息进行平移不变分类,因此也被称为“平移不变人工神经网络(Shift-Invariant Artificial Neural Networks,SIANN)”。
近年来,卷积神经网络相关技术发展迅速且应用也非常广泛。例如在对图像进行花屏检测的场景中,使用卷积神经网络构建图像检测模型,可以提高对图像进行花屏检测的效率。
然而,目前使用卷积神经网络构建的图像花屏检测模型,在模型训练阶段所使用的训练样本图像的花屏标签为简单的二值标签,花屏图像的二值标签不准确会导致影响训练得到的模型的性能,进而导致对图像花屏检测的准确性不高。
发明内容
本申请实施例提供一种图像检测方法、装置、计算机可读存储介质及计算机设备,该方法可以改善图像检测模型的训练效果,进而可以提升图像检测的准确性。
本申请第一方面提供一种图像检测方法,方法包括:
获取训练样本数据,所述训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;
将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在所述至少两个神经网络模型下输出的模糊概率值集合;
根据每个样本图像的模糊概率值集合与所述每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;
根据所述每个样本图像对应的损失参数的分布从所述多个样本图像中选取目标样本图像,并基于所述目标样本图像对所述至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;
返回执行将所述多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在所述更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至所述至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;
采用所述训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
相应的,本申请第二方面提供一种图像检测装置,装置包括:
获取单元,用于获取训练样本数据,所述训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;
输入单元,用于将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在所述至少两个神经网络模型下输出的模糊概率值集合;
计算单元,用于根据每个样本图像的模糊概率值集合与所述每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;
选取单元,用于根据所述每个样本图像对应的损失参数的分布从所述多个样本图像中选取目标样本图像,并基于所述目标样本图像对所述至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;
训练单元,用于返回执行将所述多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在所述更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至所述至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;
检测单元,用于采用所述训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
在一些实施例中,所述计算单元,包括:
第一计算子单元,用于计算每个样本图像对应的模糊概率值集合中每个模糊概率值与对应的标签信息之间的第一交叉熵:
第二求和子单元,用于将计算得到的第一交叉熵进行求和,得到每个样本图像对应的第一子损失参数;
确定子单元,用于根据所述每个样本图像对应的第一子损失参数确定每个样本图像对应的损失参数。
在一些实施例中,所述装置还包括:
第二计算子单元,用于计算所述每个样本图像对应的模糊概率值集合中每两个模糊概率值之间的相对熵:
第二求和子单元,用于将所述相对熵进行求和,得到每个样本图像对应的第二子损失参数;
所述确定子单元,还用于:
对所述每个样本图像对应的第一子损失参数与第二子损失参数进行加权求和,得到每个样本图像对应的损失参数。
在一些实施例中,所述装置还包括:
第一获取子单元,用于获取所述样本数据中标签信息的概率分布信息,并基于所述概率分布信息生成对应的特征向量;
第三计算子单元,用于计算所述特征向量与每个样本图像对应的模糊概率值集合之间的第二交叉熵:
第三求和子单元,用于对计算得到的第二交叉熵进行求和,得到每个样本图像对应的第三子损失参数;
所述确定子单元,还用于:
对所述每个样本图像对应的第一子损失参数、第二子损失参数以及第三子损失参数进行加权求和,得到每个样本图像对应的损失参数。
在一些实施例中,所选取单元,包括:
第二获取子单元,用于获取对所述至少两个神经网络模型进行迭代训练的训练次数;
第四计算子单元,用于根据所述迭代训练的训练次数计算目标样本图像的目标数量;
选取子单元,用于按照损失参数由小至大的顺序选取所述目标数量个样本图像,得到目标样本图像。
在一些实施例中,所述第四计算子单元,包括:
获取模块,用于获取预设的筛选率,所述筛选率用于控制对所述多个样本图像进行筛选;
第一计算模块,用于根据所述筛选率与所述迭代训练的训练次数计算目标样本图像在所述多个样本图像中的占比;
第二计算模块,用于根据所述占比以及所述多个样本图像的数量计算得到目标样本图像的目标数量。
在一些实施例中,所述检测单元,包括:
第一输入子单元,用于将待检测图像输入至所述训练后的至少两个神经网络模型进行模糊检测,得到至少两个模糊概率值;
第五计算子单元,用于计算所述至少两个模糊概率值的平均值,得到所述待检测图像对应的模糊概率。
在一些实施例中,所述检测单元,包括:
第三获取子单元,用于获取所述训练后的至少两个神经网络模型的预测准确率,得到至少两个预测准确率;
排序子单元,用于将所述至少两个预测准确率按照由高至低的顺序进行排序,并确定预测准确率最高的神经网络模型为目标神经网络模型;
检测子单元,用于将待检测图像输入至所述目标神经网络模型进行模糊检测,得到所述待检测图像对应的模糊概率。
本申请第三方面还提供一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行本申请第一方面所提供的图像检测方法的步骤。
本申请第四方面提供一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可以在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本申请第一方面所提供的图像检测方法的步骤。
本申请第五方面提供一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令存储在存储介质中。计算机设备的处理器从存储介质读取所述计算机指令,处理器执行所述计算机指令,使得所述计算机设备执行第一方面所提供的图像检测方法的步骤。
本申请实施例提供的图像检测方法,通过获取训练样本数据,训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。以此,通过采用多模型协同对训练样本中的噪声样本进行筛选,改善了模型训练的效果,进而提高了图像检测的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请中图像检测模型训练的场景示意图;
图2是本申请提供的图像检测方法的流程示意图;
图3是本申请提供的图像检测方法的另一流程示意图;
图4是本申请提供的样本图像损失参数计算框架示意图;
图5是本申请提供的图像检测装置的结构示意图;
图6是本申请提供的终端的结构示意图;
图7是本申请提供的服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种图像检测方法、装置、计算机可读存储介质及计算机设备。其中,该图像检测方法可以使用于图像检测装置中。该图像检测装置可以集成在计算机设备中,该计算机设备可以是终端也可以是服务器。其中,终端可以为手机、平板电脑、笔记本电脑、智能电视、穿戴式智能设备、个人计算机(PC,Personal Computer)等设备。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、网络加速服务(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。其中,多个服务器可以组成一区块链,而服务器是区块链上的节点。
请参阅图1,为本申请提供图像检测模型的训练场景示意图;如图所示,计算机设备A在获取到训练样本数据后,从训练样本数据中提取出多张样本图像以及每个样本图像对应的模糊标签值。然后,将提取出的每一样本图像输入到至少两个神经网络模型中进行检测,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;根据损失参数确定目标样本图像,并基于这些目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;返回执行将多个样本图像分别输入至更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直到至少两个神经网络模型参数收敛,得到训练后的至少两个神经网络模型。以此,完成本申请中用于图像检测的神经网络模型的训练。在对模型进行训练后,可以将需要进行模糊检测的待检测图像输入至训练后的至少两个神经网络模型,得到对待检测图像的图像检测结果。
需要说明的是,图1所示的图像检测模型训练的场景示意图仅仅是一个示例,本申请实施例描述的图像检测模型训练场景是为了更加清楚地说明本申请的技术方案,并不构成对于本申请提供的技术方案的限定。本领域普通技术人员可知,随着图像检测模型训练的演变和新业务场景的出现,本申请提供的技术方案对于类似的技术问题,同样适用。
基于上述实施场景以下分别进行详细说明。
本申请实施例将从图像检测装置的角度进行描述,该图像检测装置可以集成在计算机设备中。其中,计算机设备可以是终端也可以为服务器,该终端可以为手机、平板电脑、笔记本电脑、智能电视、穿戴式智能设备、个人计算机(PC,Personal Computer)等设备。如图2所示,为本申请提供的图像检测方法的流程示意图,该方法包括:
步骤101,获取训练样本数据。
其中,在对图像质量或者视频质量进行评价的场景中,往往会采用图像或者视频中每帧图像是否存在花屏现象来评价图像或者视频的质量。图像花屏,是指图像中存在模糊的现象使得图像内容难以辨别,该现象类似于电脑屏幕出现花屏时显示图像的异常,以此称为图像花屏。
在相关技术中,一般由人眼对图像进行人为判断图像是否为花屏图像,但人眼判断的效率非常低下,为此人们提出采用机器学习技术对图像进行花屏检测的方法。机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
采用机器学习技术对图像进行花屏检测,可以采用卷积神经网络模型进行检测。具体地,可以将带有标签的训练图像输入至一个卷积神经网络中对该卷积神经网络进行训练,然后将待识别的图像输入至训练后的卷积神经网络模型中进行特征提取,随后经全连接层进行分类,得到检测结果。其中,图像的标签信息为人工进行标注的二值标签信息;即图像的标签信息是花屏或者不是花屏这两种标签中的任意一种。然而花屏图像不是简单的二分类,很多花屏图像只是轻微花屏或者局部花屏,如果简单地将图像确定为花屏或者不花屏会具有很多的主观性,如此便会使得人工标注的标签不够准确,进而便会导致训练的到的神经网络模型的检测性能下降,导致图像检测结果不够准确。
为了解决上述人工标注标签不准确导致训练得到的模型的图像检测结果不准确的技术问题,本申请提出一种图像检测方法,下面对本申请提供的图像检测方法进行进一步的详细介绍。
同样地,在本申请实施例中,仍然需要使用到样本数据对检测模型进行训练,因此需要先对样本数据进行获取。其中,样本数据可以存储在区块链上。其中,样本数据包括多张样本图像以及每个样本图像对应的标签信息。其中,样本图像对应的标签信息为样本的二值标签,即该样本图像为花屏或者不花屏。如前所述,该样本图像的二值标签由于是人工进行标注的,鉴于人工标注的主观性,使得样本图像的标签信息中含有部分噪声,亦即存在部分标签不够准确。
步骤102,将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合。
其中,在本申请实施例中,采用多个神经网络模型进行协同训练。其中,此处多个为至少两个,具体可以为两个、三个或者更多个神经网络模型。此处神经网络模型也可以为任意结构的卷积神经网络模型。至少两个神经网络模型可以为未经训练的神经网络模型,也可以是经过一定预训练的人工神经网络模型。
将样本数据中包含的多个样本图像逐一输入到至少两个神经网络模型进行模糊检测。其中,此处模糊检测为对图像的模糊概率进行检测,或者为对图像的花屏概率进行检测。那么对应输出的结果即为图像的模糊概率值,此处图像的模糊概率值即为图像为花屏图像的概率值。可以理解的是,对于任意一个目标样本图像,输入到至少两个神经网络模型中,都会得到每个神经网络模型输出的模糊概率值,得到该目标样本图像对应的至少两个模糊概率值,该至少两个模糊概率值构成该目标样本图像对应的模糊概率值集合。同样地,对于其他样本图像,输入到至少两个神经网络模型中,也可以得到至少两个神经网络模型输出的模糊概率值集合,进而得到每个样本图像对应的模糊概率值集合。
步骤103,根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数。
其中,在计算得到每个样本图像的模糊概率值集合后,根据该模糊概率值集合与每个样本图像对应的标签信息计算每个样本图像对应的损失参数。其中,此处的损失参数为评价样本图像的标签值与模型输出结果之间的差异的参数,随着训练过程中模型不断地更新,样本图像对应的损失参数会逐渐减小,即模型的输出结果会不断向样本图像的标签值靠近。由于在本申请实施例中,采用多模型协同进行训练,因此此处的损失参数为评价多个模型输出结果的综合结果与样本图像的标签值之间的差异的参数。具体地,该损失参数可以为样本图像的标签值与每个模型的输出值之间的多个差值的总和。例如,当样本图像的标签值为1时,即该样本图像是模糊图像,用于协同训练的神经网络模型的数量为2,两个神经网络模型对该样本图像进行检测得到的模糊概率值分别为0.95和0.98,那么该损失参数可以为(1-0.95)+(1-0.98)=0.07。
在一些实施例中,根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数,包括:
1、计算每个样本图像对应的模糊概率值集合中每个模糊概率值与对应的标签信息之间的第一交叉熵:
2、将计算得到的第一交叉熵进行求和,得到每个样本图像对应的第一子损失参数;
3、根据每个样本图像对应的第一子损失参数确定每个样本图像对应的损失参数。
其中,在本申请实施例中,可以根据每个样本图像对应的模糊概率值集合中的元素组成的概率值序列与样本图像的标签组成的标签序列的交叉熵来确定样本图像对应的损失参数。其中,样本图像的标签组成的标签序列为多个样本图像的标签值组成的数值序列,此处数值序列的数值数量为至少两个神经网络模型的数量。例如,当用于进行协同训练的神经网络模型的数量为5,目标样本图像的标签值为1,那么标签序列便为{1,1,1,1,1}。
其中,交叉熵(Cross Entropy,CE)是信息论中的一个重要概念,主要用于度量两个概率分布间的差异性信息。交叉熵可以在神经网络中作为损失函数,用于衡量模型预测分布与样本真实分布之间的相似性。交叉熵作为损失函数的一个好处是可以在梯度下降时避免均方误差损失函数学习速度低的问题,从而提高模型训练效率。
在计算得到任意一个目标样本图像对应的多个模糊值概率值与对应的标签信息之间的交叉熵之后,得到目标样本图像对应的多个交叉熵。然后将目标样本图像对应的多个交叉熵进行求和,得到目标样本图像对应的第一子损失参数,确定该第一子损失参数为目标样本图像的损失参数。然后,进一步地可以根据上述方法同样地确定每一样本图像对应的损失参数。
在一些实施例中,本申请实施例提供的图像检测方法还包括:
A、计算每个样本图像对应的模糊概率值集合中每两个模糊概率值之间的相对熵:
B、将相对熵进行求和,得到每个样本图像对应的第二子损失参数;
C、根据每个样本图像对应的第一子损失参数确定每个样本图像对应的损失参数,包括:
对每个样本图像对应的第一子损失参数与第二子损失参数进行加权求和,得到每个样本图像对应的损失参数。
其中,在本申请实施例中,可以进一步计算同一样本图像在不同模型下输出的模糊概率值之间的相对熵。其中,相对熵(Relative Entropy,RE)又被称为KL散度(Kullback-Leibler Divergence)或者信息散度(Information Divergence,ID),是两个概率分布间差异的非对称性度量。当用于协同训练的神经网络模型的数量为2时,则样本图像对应的相对熵为一个;当用于协同训练的神经网络模型的数量为3时,则样本图像对应的相对熵为3个;当用于协同训练的神经网络模型的数量为n时,则样本图像对应的相对熵为n*(n-1)/2个。在计算得到样本图像对应的所有相对熵之后,对这些相对熵的值进行求和,得到样本图像对应的第二子损失参数。进一步地,将上述第一子损失参数和第二子损失参数进行加权求和,得到样本图像对应的损失参数,然后可以进一步确定每个样本图像对应的损失参数。将同一样本图像在不同神经网络模型中输出值的相对熵添加至样本图像的损失参数中,使得在模型训练时不同神经网络模型的输出不断接近,进而提高模型训练的准确性。
在一些实施例中,方法还包括:
a、获取样本数据中标签信息的概率分布信息,并基于概率分布信息生成对应的特征向量;
b、计算特征向量与每个样本图像对应的模糊概率值集合之间的第二交叉熵:
c、对计算得到的第二交叉熵进行求和,得到每个样本图像对应的第三子损失参数;
d、对每个样本图像对应的第一子损失参数与第二子损失参数进行加权求和,得到每个样本图像对应的损失参数,包括:
对每个样本图像对应的第一子损失参数、第二子损失参数以及第三子损失参数进行加权求和,得到每个样本图像对应的损失参数。
其中,在本申请实施例中,可以先对多个样本图像的标签信息进行确定,然后根据该多个样本图像的标签信息获取样本数据中标签信息的概率分布信息。例如,当样本图像的数量为10,其中标签为1的样本数量为5,标签为0的样本数量为5,那么可以确定样本数据中标签信息的概率分布为[0.5,0.5]。进一步地,可以根据该概率分布信息生成其对应的特征向量以便进行交叉熵的计算。进一步地,可以计算该概率分布情况与每个样本图像对应的模糊概率值集合之间的交叉熵,然后再对得到的交叉熵进行求和,得到每个样本图像对应的第三子损失参数。进一步地,可以将上述第一子损失参数、第二子损失参数以及第三子损失参数进行加权求和,得到每个样本图像对应的损失参数。
步骤104,根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型。
其中,在计算得到每个样本图像对应的损失参数后,根据样本图像对应的损失参数的分布情况从样本图像中选取出一定数量个损失参数值较小的目标样本图像。然后,采用该一定数量个目标样本图像对至少两个神经网络模型进行训练,并采用训练得到的至少两个神经网络模型对初始的至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型。其中,损失参数值越小的样本图像,经过模型检测得到的输出值与样本图像的标签越接近,其标签值的准确性越高。而损失参数值越大的样本图像,其标签值的准确性便越低。因此可以将部分损失参数值较大的样本图像从样本图像中剔除,使得剩余的样本图像的标签值准确性更高,从而使得模型训练的到的模型的检测准确度越高。
其中,在一些实施例中,根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,包括:
1、获取对至少两个神经网络模型进行迭代训练的训练次数;
2、根据迭代训练的训练次数计算目标样本图像的目标数量;
3、按照损失参数由小至大的顺序选取目标数量个样本图像,得到目标样本图像。
其中,在多个样本图像中确定了一定数量的目标样本图像,并基于该目标样本图像对至少两个神经网络模型进行训练以及更新之后,采用更新后的至少两个神经网络模型对每个样本图像进行再次检测,得到每个样本图像对应的模糊概率值集合;再基于新的模糊概率值集合和每个样本图像的标签值计算每个样本图像新的损失参数值,并基于新的损失参数值重新确定目标样本图像以及基于新的目标样本图像对更新后的至少两个神经网络模型进行再次训练以及更新,如此对至少两个神经网络模型进行多次迭代训练。
在本申请实施例中,对至少两个神经网络模型进行迭代训练的每次迭代过程中确定的目标样本图像的数量跟模型训练的迭代次数相关。即在对模型进行迭代训练的每个循环中,目标样本图像的数量都是不同的。迭代训练次数越多,所采用的样本图像的数量可以越少,如此使得在不断迭代训练的过程中,逐渐将标签值不够准确的训练样本进行剔除。因此,在每次对目标样本图像进行确定时,可以先获取当前对至少两个神经网络模型进行迭代训练的训练次数。例如对至少两个神经网络模型进行第5次训练,那么便确定迭代训练次数为5。然后根据该训练次数计算需要保留的目标样本图像的目标数量。最后,再基于每个样本图像的损失参数由小至大的顺序选取目标数量个样本图像,得到目标样本图像。即确定了多个样本图像中目标数量个损失参数值较小的样本图像为目标样本图像。
在一些实施例中,根据迭代训练的训练次数计算目标样本图像的目标数量,包括:
2.1、获取预设的筛选率,筛选率用于控制对多个样本图像进行筛选;
2.2、根据筛选率与迭代训练的训练次数计算目标样本图像在多个样本图像中的占比;
2.3、根据占比以及多个样本图像的数量计算得到目标样本图像的目标数量。
其中,在本申请实施例中,对目标样本图像的数量进行计算的过程,可以先获取到一个预先设置的筛选率。其中,筛选率为对从多个样本图像中选取目标样本图像的数量进行控制的比例。根据该预设的筛选率,在模型训练的后期,目标样本图像的数量可以为多个样本图像的数量与预设筛选率的乘积。因此,在获取到预设筛选率后,可以根据该预设筛选率与迭代训练的次数计算出本次迭代训练中所选取的目标样本图像的数量在多个样本图像的数量中的占比。然后可以进一步根据该占比和多个样本图像的数量计算得到目标样本图像的目标数量。以此,可以通过设置预设筛选率对目标样本图像的数量进行控制,从而保证既能筛选掉足够多的标签值不够准确的样本图像,又能保证具有足够的样本图像对模型进行训练。
步骤105,返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型。
其中,上述步骤102至步骤104为对模型进行迭代训练中的一个循环过程。即采用至少两个神经网络对多个样本图像进行模糊检测,输出每个样本图像对应的模糊概率值集合,基于每个样本图像的模糊概率值集合与每个样本图像的标签值计算每个样本图像对应的损失参数,然后基于每个样本图像的损失参数确定目标样本图像,进一步采用目标样本图像对至少两个神经网络模型进行训练以及更新这些步骤,是对至少两个神经网络模型进行迭代训练的一个循环过程。
在得到更新后的至少两个神经网络模型之后,还需将更新后的至少两个神经网络模型代入到步骤102中进行下一个循环的处理。即将多个样本图像分别输入到更新后的至少两个神经网络模型中,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合。然后再基于该模糊概率值集合与每个样本图像的标签值再次计算每个样本图像对应的新的损失参数。再进一步基于每个样本图像的损失参数以及迭代训练的次数确定新的目标样本图像,再采用新的目标样本图像对更新后的至少两个神经网络模型进行再次训练和更新。如此,对至少两个神经网络模型进行迭代训练,直至该至少两个神经网络模型的模型参数收敛,得到训练后的至少两个神经网络模型。
步骤106,采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
其中,在对至少两个神经网络模型进行训练,得到训练后的至少两个神经网络模型之后,采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
其中,在一些实施例中,采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果,包括:
1、将待检测图像输入至训练后的至少两个神经网络模型进行模糊检测,得到至少两个模糊概率值;
2、计算至少两个模糊概率值的平均值,得到待检测图像对应的模糊概率。
其中,在本申请实施例中,在对至少两个神经网络模型进行迭代训练得到训练后的至少两个神经网络模型后,将待检测图像输入至训练后的至少两个神经网络模型进行模糊检测,得到每个训练后的神经网络模型对待检测图像进行模糊检测得到的模糊概率值,即得到了至少两个模糊概率值。然后,对至少两个模糊概率值进行求平均计算,得到最终的模糊概率,该模糊概率便是训练后的至少两个神经网络模型对待检测图像进行模糊检测得到的检测结果。在一些实施例中,还可以进一步根据训练后的至少两个神经网络模型对待检测图像进行模糊检测得到的模糊概率值进一步确定模糊检测的二值结果,即根据模糊概率值确定待检测图像是模糊图像还是非模糊图像。
在一些实施例中,采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果,包括:
A、获取训练后的至少两个神经网络模型的预测准确率,得到至少两个预测准确率;
B、将至少两个预测准确率按照由高至低的顺序进行排序,并确定预测准确率最高的神经网络模型为目标神经网络模型;
C、将待检测图像输入至目标神经网络模型进行模糊检测,得到待检测图像对应的模糊概率。
其中,在本申请实施例中,在对至少两个神经网络模型进行训练得到训练后的至少两个神经网络模型之后,可以无需使用训练后的所有神经网络模型对待检测图像进行图像检测。而是对训练后的至少两个神经网络模型中每个神经网络模型的模型预测准确率进行获取,然后将预测准确率最高的神经网络模型确定为目标神经网络模型。最后采用目标神经网络模型对待检测图像进行模糊检测,得到目标神经网络输出的模糊概率值,确定该目标神经网络输出的模糊概率值为对待检测图像的模糊检测的检测结果。
根据上述描述可知,本申请实施例提供的图像检测方法,通过获取训练样本数据,训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。以此,通过采用多模型协同对训练样本中的噪声样本进行筛选,改善了模型训练的效果,进而提高了图像检测的准确率。
相应地,本申请实施例将从计算机设备的角度进一步对本申请提供的图像检测方法进行详细的描述,其中计算机设备可以为终端也可以为服务器。如图3所示,为本申请提供的图像检测方法的另一流程示意图,该方法包括:
步骤201,计算机设备获取包含多张样本图像以及每张样本图像的标签的训练样本数据。
其中,如前述实施例所述,对图像检测模型进行训练的样本数据中样本图像对应的标签为人工标注的标签,此处样本图像的标签可以为样本图像的花屏二值标签,由于图像花屏现象并非简单的花屏或者不花屏这样的二值标签可以准确标注的,图像的花屏还存在着轻微花屏或者局部花屏这样的处于中间态的状态。其中,在本申请实施例中,图像花屏是指图像模糊导致无法对图像的部分或全部内容进行识别的情况。因此采用简单的二值标签对样本图像的花屏状态进行标注,会使得样本图像的标签信息不够准确。为解决上述采用简单二值标签标注样本图像的花屏状态导致样本图像的标签信息不够准确,进而导致训练得到的图像检测模型的检测结果不够准确的技术问题,本申请提出一种图像检测方法。下面对本申请提供的图像检测方法进行进一步的详细描述。
在本申请实施例中,仍然采用具有花屏二值标签的样本图像对检测模型进行训练,因此,首先对训练样本数据进行获取,训练样本数据包括多个样本图像以及每个样本图像对应的花屏二值标签。其中,样本图像的花屏二值标签便是样本图像是花屏图像或者不是花屏图像,当样本图像是花屏图像时,样本图像的二值标签便为1;当样本图像不是花屏图像时,样本图像的二值标签便为0。
步骤202,计算机设备将多个样本图像分别输入到两个神经网络模型中进行花屏检测,得到每个样本图像在两个神经网络模型中输出的两个花屏概率值。
其中,在本申请实施例中,可以采用多模型协同训练方法对图像花屏检测的模型进行训练。由于不同的神经网络模型具有不同的决策边界,具体为每次开始训练的时候,神经网络模型的参数是随机进行初始化的。因此不同模型具有不同的排除噪声样本(即标签不准确的样本)的能力,那么多个模型协同训练可以很好地继承各个模型的优势,进行优势互补,从而提升对噪声样本的筛选能力。具体地,多模型可以为两个神经网络模型、三个神经网络模型或者更多数量的神经网络模型。在本申请实施例中,以采用两个神经网络模型进行协同训练为例进行详细描述。
在获取到多个样本图像以及每个样本图像的花屏二值标签之后,将该多个样本图
像分别输入到两个神经网络模型中,得到每个样本图像在两个神经网络模型中输出的两个
花屏概率值。其中,两个神经网络模型可以分别记为第一神经网络模型和第二神经网络模
型,第一神经网络模型输出的花屏概率值可以记为,第二神经网络模型输出的花屏概率
值可以记为。
步骤203,计算机设备计算两个花屏概率值和样本标签之间的交叉熵,得到第一子损失参数。
其中,在确定了每一样本图像在两个神经网络模型下输出的花屏概率值之后,采用每个样本图像的花屏概率值与样本标签计算每个样本图像对应的交叉熵,具体计算公式如下:
其中,为第一神经网络模型对应的交叉熵;为样本图像对应的标签值,即0或
1;为第一神经网络对样本图像进行花屏检测得到的花屏概率值。为第二神经网络模
型对应的交叉熵;为第二神经网络对样本图像进行花屏检测得到的花屏概率值。
然后,对计算得到的两个交叉熵进行求和,得到第一子损失参数,计算公式如下:
步骤204,计算机设备计算两个花屏概率值之间的相对熵,得到第二子损失参数。
其中,如前所述,相对熵又可以称之为KL散度,求两个花屏概率值之间的相对熵,即求两个花屏概率值之间的KL散度,具体公式如下:
其中,为两个花屏概率值之间的相对熵,即为需要求得的第二子损失参数,或
者可以称为交叉正则损失。计算交叉正则损失的目的在于约束两个模型输出的花屏概率值
之间的概率分布相似度,希望随着模型训练的进行,对于相同样本图像在两个模型下输出
的概率值可以更加靠近。
此处由于只以两个神经网络模型为例进行说明,因此相对熵只有一个,若以多个
神经网络模型进行协同训练,则需两两计算神经网络模型输出的花屏概率值之间的相对
熵,并将求得的多个相对熵进行求和确定第二子损失参数。具体地,例如还有第三神经网络
模型,样本图像经第三神经网络模型进行花屏检测输出的花屏概率值为,那么就还需要
计算与之间的相对熵以及与之间的相对熵,再将三个相对熵求和得到第二子损失
参数。
步骤205,计算机设备计算两个花屏概率值与样本图像标签分布之间的相对熵,得到第三子损失参数。
其中,样本图像标签分布为多个样本图像的标签值的分布情况。具体地,例如样本
图像总计有100张,其中40张的标签值为1,60张的标签值为0,那么可以确定这100张样本图
像中花屏与正常图像之间的比例为4:6,那么可以得到样本图像的标签分布。
然后计算两个花屏概率值与样本图像标签分布之间的交叉熵,具体计算公式如下:
那么进一步可以计算得到第三子损失参数,其计算公式如下:
如图4所示,为本申请实施例提供的样本图像损失参数计算框架示意图。样本图像
10经第一神经网络模型21检测输出第一花屏概率值,样本图像10经第二神经网络模型22
检测输出第二花屏概率值。然后,基于第一花屏概率值计算得到第一分类损失和第一
先验损失,基于第二花屏概率值计算得到第二分类损失和第二先验损失,基于第一花屏
概率值与第二花屏概率值计算得到交叉正则损失,最后再对第一分类损失、第一先验
损失、第二分类损失、第二先验损失以及交叉正则损失进行加权求和,求得样本图像对应的
损失参数。
步骤206,计算机设备根据第一子损失参数、第二子损失参数以及第三子损失参数计算每个样本图像对应的损失参数。
其中,在计算得到每个样本图像对应的分类损失、交叉正则损失以及先验损失之后,可以对三者进行加权求和,得到每个样本图像对应的损失参数。具体计算公式如下:
步骤207,计算机设备根据每个样本图像的损失参数确定目标样本图像。
其中,在计算得到每个样本图像对应的损失参数后,需要根据样本图像的损失参数对样本图像进行筛选,以剔除噪声较大(标签值不够准确)的样本。一般情况下,样本输出的损失参数值越大,则样本噪声越大,因此需要剔除掉部分损失参数较大的样本图像,采用损失参数值较小的目标样本图像对模型进行训练。
其中,目标样本图像的占比可以用如下公式进行计算:
根据的计算公式可知,当迭代训练初期,较小时,值较大,会采用更多的
样本图像对两个神经网络模型进行训练,对噪声样本的筛选比例较小。当迭代训练进入到
后期,当逐渐变大时,逐渐变小,即目标样本的数量也逐渐减少,对噪声样本的筛选比
例变大,从而会剔除掉大部分的噪声样本图像。
步骤208,计算机设备采用目标样本图像对两个神经网络模型进行训练,并采用训练后的两个神经网络模型对两个神经网络模型进行更新。
其中,在确定了用于训练的目标样本图像后,采用目标样本图像以及其对应的标签值对两个神经网络模型进行训练,实现对两个神经网络模型的模型参数进行更新,得到更新后的两个神经网络模型。然后再采用更新后的两个神经网络模型进行进一步的训练和更新。
步骤209,计算机设备判断迭代训练次数是否达到预设次数。
其中,在每次对两个神经网络模型进行更新之后,计算机设备都需要对迭代训练次数进行判断,以确定是否达到预设迭代训练次数。若未达到则返回步骤202,采用更新后的两个神经网络模型重新对每个样本图像进行花屏检测,得到新的花屏概率值,再进一步根据新的花屏概率值计算每个样本图像的新的损失参数,然后再重新确定新的目标样本图像,采用新的目标样本图像对更新后的两个神经网络模型进行再一次的训练和更新。
步骤210,计算机设备确定更新得到的两个神经网络模型为训练后的两个神经网络模型。
若迭代训练次数达到了预设次数,则确定最终得到的两个神经网络模型为最终的训练后的神经网络模型。
步骤211,计算机设备采用训练后的两个神经网络模型对待检测图像进行花屏检测,得到花屏检测结果。
其中,在确定了训练后的两个神经网络模型后,可以采用训练后的两个神经网络模型对待检测图像进行花屏检测。具体地,可以从两个训练后的神经网络模型中确定检测结果更好的目标神经网络模型对待检测图像进行检测。两个训练后的神经网络模型的检测效果可以采用已经标注准确标签的图像对其检测效果进行验证。
采用目标神经网络模型对待检测图像进行花屏检测,输入待检测图像的花屏概率值,然后进一步根据该花屏概率值确定待检测图像的花屏二值结果,即是花屏图像还是不是花屏图像。具体地,可以根据检测输出的花屏概率值与预设概率值的比对结果确定待检测图像的花屏二值结果。例如当目标神经网络模型对待检测图像进行花屏检测输出的花屏概率值为0.9,而预设的花屏概率值为0.95,那么则确定该待检测图像为花屏图像。
根据上述描述可知,本申请实施例提供的图像检测方法,通过获取训练样本数据,训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。以此,通过采用多模型协同对训练样本中的噪声样本进行筛选,提高了模型训练的效果,进而进一步提高了图像检测的准确率。
为了更好地实施以上方法,本发明实施例还提供一种图像检测装置,该图像检测装置可以集成在终端中。
例如,如图5所示,为本申请实施例提供的图像检测装置的结构示意图,该图像检测装置可以包括获取单元301、输入单元302、计算单元303、选取单元304、训练单元305以及检测单元306,如下:
获取单元301,用于获取训练样本数据,训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;
输入单元302,用于将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;
计算单元303,用于根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;
选取单元304,用于根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;
训练单元305,用于返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;
检测单元306,用于采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
在一些实施例中,计算单元,包括:
第一计算子单元,用于计算每个样本图像对应的模糊概率值集合中每个模糊概率值与对应的标签信息之间的第一交叉熵:
第二求和子单元,用于将计算得到的第一交叉熵进行求和,得到每个样本图像对应的第一子损失参数;
确定子单元,用于根据每个样本图像对应的第一子损失参数确定每个样本图像对应的损失参数。
在一些实施例中,本申请提供的图像检测装置还包括:
第二计算子单元,用于计算每个样本图像对应的模糊概率值集合中每两个模糊概率值之间的相对熵:
第二求和子单元,用于将相对熵进行求和,得到每个样本图像对应的第二子损失参数;
确定子单元,还用于:
对每个样本图像对应的第一子损失参数与第二子损失参数进行加权求和,得到每个样本图像对应的损失参数。
在一些实施例中,本申请提供的图像检测装置还包括:
第一获取子单元,用于获取样本数据中标签信息的概率分布信息,并基于概率分布信息生成对应的特征向量;
第三计算子单元,用于计算特征向量与每个样本图像对应的模糊概率值集合之间的第二交叉熵:
第三求和子单元,用于对计算得到的第二交叉熵进行求和,得到每个样本图像对应的第三子损失参数;
确定子单元,还用于:
对每个样本图像对应的第一子损失参数、第二子损失参数以及第三子损失参数进行加权求和,得到每个样本图像对应的损失参数。
在一些实施例中,所选取单元,包括:
第二获取子单元,用于获取对至少两个神经网络模型进行迭代训练的训练次数;
第四计算子单元,用于根据迭代训练的训练次数计算目标样本图像的目标数量;
选取子单元,用于按照损失参数由小至大的顺序选取目标数量个样本图像,得到目标样本图像。
在一些实施例中,第四计算子单元,包括:
获取模块,用于获取预设的筛选率,筛选率用于控制对多个样本图像进行筛选;
第一计算模块,用于根据筛选率与迭代训练的训练次数计算目标样本图像在多个样本图像中的占比;
第二计算模块,用于根据占比以及多个样本图像的数量计算得到目标样本图像的目标数量。
在一些实施例中,检测单元,包括:
第一输入子单元,用于将待检测图像输入至训练后的至少两个神经网络模型进行模糊检测,得到至少两个模糊概率值;
第五计算子单元,用于计算至少两个模糊概率值的平均值,得到待检测图像对应的模糊概率。
在一些实施例中,检测单元,包括:
第三获取子单元,用于获取训练后的至少两个神经网络模型的预测准确率,得到至少两个预测准确率;
排序子单元,用于将至少两个预测准确率按照由高至低的顺序进行排序,并确定预测准确率最高的神经网络模型为目标神经网络模型;
检测子单元,用于将待检测图像输入至目标神经网络模型进行模糊检测,得到待检测图像对应的模糊概率。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
根据上述描述可知,本申请实施例提供的图像检测方法,通过获取单元301获取训练样本数据,训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;输入单元302将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;计算单元303根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;选取单元304根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;训练单元305返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;检测单元306采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。以此,通过采用多模型协同对训练样本中的噪声样本进行筛选,提高了模型训练的效果,进而进一步提高了图像检测的准确率。
本申请实施例还提供一种计算机设备,该计算机设备可以为终端,如图6所示,该终端可以包括射频(RF,Radio Frequency)电路401、包括有一个或一个以上计算机可读存储介质的存储器402、输入组件403、显示单元404、传感器405、音频电路406、无线保真(WiFi,Wireless Fidelity)模块407、包括有一个或者一个以上处理核心的处理器408、以及电源409等部件。本领域技术人员可以理解,图6中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路401可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器408处理;另外,将涉及上行的数据发送给基站。通常,RF电路401包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(SIM,Subscriber Identity Module)卡、收发信机、耦合器、低噪声放大器(LNA,Low Noise Amplifier)、双工器等。此外,RF电路401还可以通过无线通信与网络和其他设备通信。无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GSM,Global System of Mobile communication)、通用分组无线服务(GPRS,GeneralPacket Radio Service)、码分多址(CDMA,Code Division Multiple Access)、宽带码分多址(WCDMA,Wideband Code Division Multiple Access)、长期演进(LTE,Long TermEvolution)、电子邮件、短消息服务(SMS,Short Messaging Service)等。
存储器402可用于存储软件程序以及模块,处理器408通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及信息互动。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器408和输入组件403对存储器402的访问。
输入组件403可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,在一个具体的实施例中,输入组件403可包括触敏表面以及其他输入设备。触敏表面,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面上或在触敏表面附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器408,并能接收处理器408发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面。除了触敏表面,输入组件403还可以包括其他输入设备。具体地,其他输入设备可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元404可用于显示由用户输入的信息或提供给用户的信息以及终端的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元404可包括显示面板,可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-Emitting Diode)等形式来配置显示面板。进一步的,触敏表面可覆盖显示面板,当触敏表面检测到在其上或附近的触摸操作后,传送给处理器408以确定触摸事件的类型,随后处理器408根据触摸事件的类型在显示面板上提供相应的视觉输出。虽然在图6中,触敏表面与显示面板是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面与显示面板集成而实现输入和输出功能。
终端还可包括至少一种传感器405,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板的亮度,接近传感器可在终端移动到耳边时,关闭显示面板和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路406、扬声器,传声器可提供用户与终端之间的音频接口。音频电路406可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路406接收后转换为音频数据,再将音频数据输出处理器408处理后,经RF电路401以发送给比如另一终端,或者将音频数据输出至存储器402以便进一步处理。音频电路406还可能包括耳塞插孔,以提供外设耳机与终端的通信。
WiFi属于短距离无线传输技术,终端通过WiFi模块407可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图6示出了WiFi模块407,但是可以理解的是,其并不属于终端的必要构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器408是终端的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行终端的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器408可包括一个或多个处理核心;优选的,处理器408可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器408中。
终端还包括给各个部件供电的电源409(比如电池),优选的,电源可以通过电源管理系统与处理器408逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源409还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,终端还可以包括摄像头、蓝牙模块等,在此不再赘述。具体在本实施例中,终端中的处理器408会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器408来运行存储在存储器402中的应用程序,从而实现各种功能:
获取训练样本数据,训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
应当说明的是,本申请实施例提供的计算机设备与上文实施例中的方法属于同一构思,以上各个操作的具体实施可参见前面的实施例,在此不作赘述。
本申请实施例还提供一种计算机设备,该计算机设备可以为服务器,如图7所示,为本申请提供的计算机设备的结构示意图。具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理单元501、一个或一个以上存储介质的存储单元502、电源模块503和输入模块504等部件。本领域技术人员可以理解,图7中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理单元501是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储单元502内的软件程序和/或模块,以及调用存储在存储单元502内的数据,执行计算机设备的各种功能和处理数据,从而对计算机设备进行整体监控。可选的,处理单元501可包括一个或多个处理核心;优选的,处理单元501可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理单元501中。
存储单元502可用于存储软件程序以及模块,处理单元501通过运行存储在存储单元502的软件程序以及模块,从而执行各种功能应用以及数据处理。存储单元502可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能以及网页访问等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储单元502可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储单元502还可以包括存储器控制器,以提供处理单元501对存储单元502的访问。
计算机设备还包括给各个部件供电的电源模块503,优选的,电源模块503可以通过电源管理系统与处理单元501逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源模块503还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该计算机设备还可包括输入模块504,该输入模块504可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理单元501会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储单元502中,并由处理单元501来运行存储在存储单元502中的应用程序,从而实现各种功能,如下:
获取训练样本数据,训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
应当说明的是,本申请实施例提供的计算机设备与上文实施例中的方法属于同一构思,以上各个操作的具体实施可参见前面的实施例,在此不作赘述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本发明实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本发明实施例所提供的任一种方法中的步骤。例如,该指令可以执行如下步骤:
获取训练样本数据,训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在至少两个神经网络模型下输出的模糊概率值集合;根据每个样本图像的模糊概率值集合与每个样本图像对应的标签信息计算得到每个样本图像对应的损失参数;根据每个样本图像对应的损失参数的分布从多个样本图像中选取目标样本图像,并基于目标样本图像对至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;返回执行将多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;采用训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本发明实施例所提供的任一种方法中的步骤,因此,可以实现本发明实施例所提供的任一种方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
其中,根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在存储介质中。计算机设备的处理器从存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述图2或图3的各种可选实现方式中提供的方法。
以上对本发明实施例所提供的一种图像检测方法、装置、计算机可读存储介质及计算机设备进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种图像检测方法,其特征在于,所述方法包括:
获取训练样本数据,所述训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;
将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在所述至少两个神经网络模型下输出的模糊概率值集合;
计算每个样本图像对应的模糊概率值集合中每个模糊概率值与对应的标签信息之间的第一交叉熵:
将计算得到的第一交叉熵进行求和,得到每个样本图像对应的第一子损失参数;
计算所述每个样本图像对应的模糊概率值集合中每两个模糊概率值之间的相对熵:
将所述相对熵进行求和,得到每个样本图像对应的第二子损失参数;
获取所述样本数据中标签信息的概率分布信息,并基于所述概率分布信息生成对应的特征向量;
计算所述特征向量与每个样本图像对应的模糊概率值集合之间的第二交叉熵:
对计算得到的第二交叉熵进行求和,得到每个样本图像对应的第三子损失参数;
对所述每个样本图像对应的第一子损失参数、第二子损失参数以及第三子损失参数进行加权求和,得到每个样本图像对应的损失参数;
根据所述每个样本图像对应的损失参数的分布从所述多个样本图像中选取目标样本图像,并基于所述目标样本图像对所述至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;
返回执行将所述多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在所述更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至所述至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;
采用所述训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述每个样本图像对应的损失参数的分布从所述多个样本图像中选取目标样本图像,包括:
获取对所述至少两个神经网络模型进行迭代训练的训练次数;
根据所述迭代训练的训练次数计算目标样本图像的目标数量;
按照损失参数由小至大的顺序选取所述目标数量个样本图像,得到目标样本图像。
3.根据权利要求2所述的方法,其特征在于,所述根据所述迭代训练的训练次数计算目标样本图像的目标数量,包括:
获取预设的筛选率,所述筛选率用于控制对所述多个样本图像进行筛选;
根据所述筛选率与所述迭代训练的训练次数计算目标样本图像在所述多个样本图像中的占比;
根据所述占比以及所述多个样本图像的数量计算得到目标样本图像的目标数量。
4.根据权利要求1所述的方法,其特征在于,所述采用所述训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果,包括:
将待检测图像输入至所述训练后的至少两个神经网络模型进行模糊检测,得到至少两个模糊概率值;
计算所述至少两个模糊概率值的平均值,得到所述待检测图像对应的模糊概率。
5.根据权利要求1所述的方法,其特征在于,所述采用所述训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果,包括:
获取所述训练后的至少两个神经网络模型的预测准确率,得到至少两个预测准确率;
将所述至少两个预测准确率按照由高至低的顺序进行排序,并确定预测准确率最高的神经网络模型为目标神经网络模型;
将待检测图像输入至所述目标神经网络模型进行模糊检测,得到所述待检测图像对应的模糊概率。
6.一种图像检测装置,其特征在于,所述装置包括:
获取单元,用于获取训练样本数据,所述训练样本数据包括多个样本图像以及每个样本图像对应的标签信息;
输入单元,用于将每一样本图像分别输入到至少两个神经网络模型,得到每一样本图像在所述至少两个神经网络模型下输出的模糊概率值集合;
计算单元,用于计算每个样本图像对应的模糊概率值集合中每个模糊概率值与对应的标签信息之间的第一交叉熵:将计算得到的第一交叉熵进行求和,得到每个样本图像对应的第一子损失参数;计算所述每个样本图像对应的模糊概率值集合中每两个模糊概率值之间的相对熵:将所述相对熵进行求和,得到每个样本图像对应的第二子损失参数;获取所述样本数据中标签信息的概率分布信息,并基于所述概率分布信息生成对应的特征向量;计算所述特征向量与每个样本图像对应的模糊概率值集合之间的第二交叉熵:对计算得到的第二交叉熵进行求和,得到每个样本图像对应的第三子损失参数;对所述每个样本图像对应的第一子损失参数、第二子损失参数以及第三子损失参数进行加权求和,得到每个样本图像对应的损失参数;
选取单元,用于根据所述每个样本图像对应的损失参数的分布从所述多个样本图像中选取目标样本图像,并基于所述目标样本图像对所述至少两个神经网络模型进行更新,得到更新后的至少两个神经网络模型;
训练单元,用于返回执行将所述多个样本图像分别输入到更新后的至少两个神经网络模型,得到每一样本图像在所述更新后的至少两个神经网络模型下输出的模糊概率值集合和对应更新后的目标图像并进行迭代训练,直至所述至少两个神经网络模型收敛,得到训练后的至少两个神经网络模型;
检测单元,用于采用所述训练后的至少两个神经网络模型对待检测图像进行模糊检测,得到模糊检测结果。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至5中任一项所述的图像检测方法的步骤。
8.一种计算机设备,其特征在于,包括存储器、处理器以及存储在所述存储器中并可以在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述的图像检测方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110804450.6A CN113284142B (zh) | 2021-07-16 | 2021-07-16 | 图像检测方法、装置、计算机可读存储介质及计算机设备 |
PCT/CN2022/098383 WO2023284465A1 (zh) | 2021-07-16 | 2022-06-13 | 图像检测方法、装置、计算机可读存储介质及计算机设备 |
US18/302,265 US20230259739A1 (en) | 2021-07-16 | 2023-04-18 | Image detection method and apparatus, computer-readable storage medium, and computer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110804450.6A CN113284142B (zh) | 2021-07-16 | 2021-07-16 | 图像检测方法、装置、计算机可读存储介质及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113284142A CN113284142A (zh) | 2021-08-20 |
CN113284142B true CN113284142B (zh) | 2021-10-29 |
Family
ID=77286657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110804450.6A Active CN113284142B (zh) | 2021-07-16 | 2021-07-16 | 图像检测方法、装置、计算机可读存储介质及计算机设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230259739A1 (zh) |
CN (1) | CN113284142B (zh) |
WO (1) | WO2023284465A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113284142B (zh) * | 2021-07-16 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 图像检测方法、装置、计算机可读存储介质及计算机设备 |
CN115100739B (zh) * | 2022-06-09 | 2023-03-28 | 厦门国际银行股份有限公司 | 人机行为检测方法、系统、终端设备及存储介质 |
CN115409159A (zh) * | 2022-09-21 | 2022-11-29 | 北京京东方技术开发有限公司 | 对象操作方法、装置、计算机设备以及计算机存储介质 |
CN116342571B (zh) * | 2023-03-27 | 2023-12-22 | 中吉创新技术(深圳)有限公司 | 通风系统控制箱的状态检测方法、装置及存储介质 |
CN117218515B (zh) * | 2023-09-19 | 2024-05-03 | 人民网股份有限公司 | 一种目标检测方法、装置、计算设备和存储介质 |
CN117557503B (zh) * | 2023-10-25 | 2024-06-25 | 维克多精密工业(深圳)有限公司 | 基于人工智能的热成型模具检测方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697460A (zh) * | 2018-12-05 | 2019-04-30 | 华中科技大学 | 对象检测模型训练方法、目标对象检测方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3262417B1 (en) * | 2015-02-23 | 2021-11-03 | Cellanyx Diagnostics, LLC | Cell imaging and analysis to differentiate clinically relevant sub-populations of cells |
CN106485192B (zh) * | 2015-09-02 | 2019-12-06 | 富士通株式会社 | 用于图像识别的神经网络的训练方法和装置 |
CN107463953B (zh) * | 2017-07-21 | 2019-11-19 | 上海媒智科技有限公司 | 在标签含噪情况下基于质量嵌入的图像分类方法及系统 |
CN107679525B (zh) * | 2017-11-01 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 图像分类方法、装置及计算机可读存储介质 |
CN110070184A (zh) * | 2019-03-25 | 2019-07-30 | 北京理工大学 | 融合样本损失及优化速度约束的数据采样方法 |
CN110490306A (zh) * | 2019-08-22 | 2019-11-22 | 北京迈格威科技有限公司 | 一种神经网络训练和对象识别方法、装置和电子设备 |
CN112307860A (zh) * | 2019-10-10 | 2021-02-02 | 北京沃东天骏信息技术有限公司 | 图像识别模型训练方法和装置、图像识别方法和装置 |
CN110909815B (zh) * | 2019-11-29 | 2022-08-12 | 深圳市商汤科技有限公司 | 神经网络训练、图像处理方法、装置及电子设备 |
CN111950647A (zh) * | 2020-08-20 | 2020-11-17 | 连尚(新昌)网络科技有限公司 | 分类模型训练方法和设备 |
CN112906730B (zh) * | 2020-08-27 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置及计算机可读存储介质 |
CN112149717B (zh) * | 2020-09-03 | 2022-12-02 | 清华大学 | 基于置信度加权的图神经网络训练方法及装置 |
CN113284142B (zh) * | 2021-07-16 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 图像检测方法、装置、计算机可读存储介质及计算机设备 |
-
2021
- 2021-07-16 CN CN202110804450.6A patent/CN113284142B/zh active Active
-
2022
- 2022-06-13 WO PCT/CN2022/098383 patent/WO2023284465A1/zh unknown
-
2023
- 2023-04-18 US US18/302,265 patent/US20230259739A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697460A (zh) * | 2018-12-05 | 2019-04-30 | 华中科技大学 | 对象检测模型训练方法、目标对象检测方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230259739A1 (en) | 2023-08-17 |
WO2023284465A1 (zh) | 2023-01-19 |
CN113284142A (zh) | 2021-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113284142B (zh) | 图像检测方法、装置、计算机可读存储介质及计算机设备 | |
CN111260665B (zh) | 图像分割模型训练方法和装置 | |
CN106779073B (zh) | 基于深度神经网络的媒体信息分类方法及装置 | |
CN108304758B (zh) | 人脸特征点跟踪方法及装置 | |
CN110738211B (zh) | 一种对象检测的方法、相关装置以及设备 | |
CN110162799A (zh) | 模型训练方法、机器翻译方法以及相关装置和设备 | |
CN111813532B (zh) | 一种基于多任务机器学习模型的图像管理方法及装置 | |
CN110704661B (zh) | 一种图像分类方法和装置 | |
CN112990390B (zh) | 一种图像识别模型的训练方法、图像识别的方法及装置 | |
CN110798718B (zh) | 一种视频推荐方法以及装置 | |
CN112052841B (zh) | 一种视频摘要的生成方法以及相关装置 | |
CN110069715A (zh) | 一种信息推荐模型训练的方法、信息推荐的方法及装置 | |
CN113723378B (zh) | 一种模型训练的方法、装置、计算机设备和存储介质 | |
GB2516865A (en) | Method, apparatus and computer program product for activity recognition | |
CN114722937B (zh) | 一种异常数据检测方法、装置、电子设备和存储介质 | |
CN107909583A (zh) | 一种图像处理方法、装置及终端 | |
CN112862021B (zh) | 一种内容标注方法和相关装置 | |
CN114357278B (zh) | 一种话题推荐方法、装置及设备 | |
CN111984803B (zh) | 多媒体资源处理方法、装置、计算机设备及存储介质 | |
CN111046742B (zh) | 一种眼部行为检测方法、装置以及存储介质 | |
CN115080840A (zh) | 一种内容推送方法、装置及存储介质 | |
CN112270238A (zh) | 一种视频内容识别方法和相关装置 | |
CN110750193B (zh) | 一种基于人工智能的场景拓扑确定方法和装置 | |
CN115687745A (zh) | 多媒体数据推荐方法、装置、存储介质及计算机设备 | |
CN113705309A (zh) | 一种景别类型判断方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |