CN110110780A - 一种基于对抗神经网络和海量噪声数据的图片分类方法 - Google Patents
一种基于对抗神经网络和海量噪声数据的图片分类方法 Download PDFInfo
- Publication number
- CN110110780A CN110110780A CN201910358002.0A CN201910358002A CN110110780A CN 110110780 A CN110110780 A CN 110110780A CN 201910358002 A CN201910358002 A CN 201910358002A CN 110110780 A CN110110780 A CN 110110780A
- Authority
- CN
- China
- Prior art keywords
- data
- network
- image
- loss
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 17
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于对抗神经网络和海量噪声数据的图片分类方法,解决使用深度学习进行图片分类任务时数据不足的问题。该方法将网络图像与标准数据集中的图像同时作为训练数据送入卷积神经网络中,并使用类别标签和来源标签分别表示图像内容上的类别及数据来源;分别计算标签预测损失和来源识别损失得到联合损失,通过最小化联合损失,使网络数据和标准数据的表现趋向于一致。该方法可用于计算机视觉的各种细分类任务中,大量网络数据作为训练数据可以有效地提升卷积神经网络的分类性能。本方法在训练过程中采用对抗策略使得模型对于数据的来源变得不敏感、网络数据与标准数据能够很好地混合在一起。
Description
技术领域
本发明属于计算机视觉技术领域,涉及到一种网络图像训练卷积神经网络的方法,更具体地,涉及一种基于对抗神经网络和海量噪声数据的图片分类方法。
背景技术
近几年,深度学习在图像分类、目标检测、场景识别等许多计算机视觉任务中都取得了很大的进步,许多基于卷积神经网络的图片分类工作也取得了令人瞩目的成果。但是卷积神经网络的训练需要大量带有良好标注的图像数据集,而人工标注不仅面临高成本,更需要大量的时间,而且对每项新的分类任务都需要重新收集并标注大规模的数据。
作为一种替代方法,使用网络中的图像可以更快更容易地收集大量的图像数据。虽然网络数据不可避免地会带有一些噪声,但是海量的网络数据可以弥补这一缺陷。文献1表明,使用广泛网络数据对卷积神经网络进行微调,比只使用小规模的标准数据集(即人工标注的数据集)更有效。文献2提出了一种利用噪声网络数据和神经网络可移植性训练深度模型的两阶段方法。文献3提出了一种从海量网络图像中收集大量的局部区域来扩充训练集的方法,该方法可以生成更具鉴别性的卷积神经网络的特征表示,并以此提高分类精度。文献4使用概率框架在端到端结构中建模图像、干净标签和噪声标签之间的关系来处理噪声数据。
一般来说,网络图像的内容通常比标准的数据集更复杂。例如,网络图像包含多个对象且其中只包括一个目标对象、目标对象位于图像的边缘或者尺寸较小,这些情况使得目标对象难以区分。因此,网络图像带有噪声且与标记良好的图像之间存在差距,这可能是由于网络图像内容更丰富、物体的位置和尺度与标准数据集不一致、图像存在噪声标签等因素造成的。目前,使用网络图像进行图片分类的研究通常只关注了去除噪声数据的问题,而忽视了网络数据和标准数据集之间的差距。
参考文献:
文献1:Gong,D.,and Wang,D.Z.Extracting visual knowledge from the webwith multimodal learning.In IJCAI,2017.
文献2:Chen,X.,and Gupta,A.Webly supervised learning of convolutionalnetworks.InICCV,2015.
文献3:Xu,Z.;Huang,S.;Zhang,Y.;and Tao,D.Augmenting strong supervisionusing web data for fine-grained categorization.In CVPR,2015.
文献4:Xiao,T.;Xia,T.;Yang,Y.;Huang,C.;and Wang,X.Learning frommassive noisy labeled data for image classification.In ICCV,2015.
发明内容
本发明利用容易获得的、海量的网络图像训练卷积神经网络对图片分类任务面临的数据较少问题提供了一个良好的解决思路。但是网络中的图像是带有噪声的,一方面是因为部分网络中的图片可能是和分类任务完全无关的,另一方面由于图像中物体的尺度、位置以及背景杂乱等原因导致网络图像和标准数据集之间存在差距。网络中普遍存在的噪声数据限制了分类结果的提高,因此很多现有的工作针对第一种问题研究如何去除内容无关的图像,而第二种存在差距的问题目前还没有引起研究者的关注。
本发明的目的是解决网络图像和标准数据集之间存在差距的问题,利用带有噪声的网络数据进行图片分类,该发明使用对抗神经网络的思想以减小网络数据与标准数据之间的差距,提出一种基于对抗神经网络和海量噪声数据的图片分类方法,采用标签预测损失和来源识别损失分别优化图片分类任务和数据来源分类任务,从而使网络在学习细粒度类别特征的同时将网络数据与标准数据混合在一起,使网络对数据的来源不敏感,提高两种来源的数据的表示一致性,最终利用网络图像训练卷积神经网络来处理图片分类任务。
本发明的技术方案:
一种基于对抗神经网络和海量噪声数据的图片分类方法,包括:
a.将带有噪声的海量网络图像与标准数据集中的图像同时作为训练数据送入卷积神经网络中,对于每个训练数据的图像样本,使用类别标签和来源标签分别表示图像内容上的类别以及图像的来源(网络数据或是标准数据);所述的类别标签表示细分类任务的类别,用于计算标签预测损失;所述的来源标签表示该图像的来源是网络还是标准数据集,用于计算来源识别损失;
b.根据步骤a中卷积神经网络的最后一层特征,使用Softmax函数对图像类别计算标签预测损失,当分类任务的识别准确率越高时标签预测损失越小;
为了实现图像分类、最小化标签预测损失来优化图片分类任务,分类准确率越高标签预测损失越小,分类准确率越低标签预测损失越大;
c.根据步骤a中卷积神经网络的最后一层特征,基于对抗神经网络的思想,使用交叉熵损失函数计算来源识别损失,为了从网络数据中学习,需要使数据来源的分类准确率尽可能低,因此需要使来源识别损失的值变大;
为了高效利用带有噪声的网络数据,最大化来源识别损失来优化来源分类任务,分类准确率越低来源识别损失越大,分类准确率越高来源识别损失越小;
d.根据步骤b中的标签预测损失和步骤c中的来源识别损失计算得到联合损失,为便于优化网络,将来源识别损失的值取负数并与标签预测损失加权求和作为联合损失;
e.在训练卷积神经网络的过程中最小化步骤d中的联合损失,网络模型趋向于更好地分类图片类别,同时网络数据和标准数据的表现趋向于一致,减弱了噪声的影响,用于图片分类,使得图片类别标签分类的准确率得到提高。
对于使用带有噪声的网络图像训练卷积神经网络,通过优化联合损失,网络数据与标准数据的表现逐渐趋于一致,不仅增加了训练样本的数量而且减弱了噪声的影响,从而提升分类性能。
本发明的优点和有益效果为:本方法能够有效地消除网络数据集与标准数据集之间的差距,并且可以应用于不同的数据集和网络模型,具有一定的鲁棒性。对于使用卷积神经网络进行图片分类任务时面临的数据不足的现象,本方法可以低成本、快速地利用网络中海量的数据。在Food-101、Dog-120和Indoor-67数据集中,相比只使用标准数据训练的模型,本发明方法得到更好的分类准确率。总的来说,本发明从一个全新的角度着手处理网络数据与标准数据之间的差距,在训练卷积神经网络的过程中使网络数据与标准数据逐渐趋于表现一致,减少噪声数据的影响,相信该方法可以很好地应用在各种图片分类任务中。
附图说明
图1为一种基于对抗神经网络和海量噪声数据的图片分类方法的流程图。
图2为一种基于对抗神经网络和海量噪声数据的图片分类方法的网络结构示意图。图中左侧区域为用于训练的网络图像和标准数据集中的图像,右侧上方区域为一般的使用卷积神经网络进行图片分类的网络结构,右侧下方区域为本发明提出的基于对抗神经网络和海量噪声数据的图片分类方法设计的网络结构。
图3为本发明中参数λ取值影响图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步详细说明。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图1所示,一种基于对抗神经网络和海量噪声数据的图片分类方法的流程图,该方法的具体步骤如下:
步骤一,根据标准数据集的分类任务,从网络中收集海量的带有噪声的数据构成与标准数据集类别相同的网络数据集,将标准数据集与网络数据集一同送入卷积神经网络中用于网络训练。具体地,本发明在Food-101、Dog-120和Indoor-67三个标准数据集中验证了方法的有效性,三个标准数据集分别包含101000、20580、15620张图像,对应地我们分别使用了240096(食物)、52115(狗)、76907(室内场景)张网络图像作为网络数据集。其中每个训练样本均有两种标签,即类别标签和来源标签。类别标签为图像分类任务中的物体类别标签,用于计算标签预测损失;来源标签用来标记图像的来源是网络数据集还是标准数据集,用于计算来源识别损失。
步骤二,在卷积神经网络训练的过程中,提取网络模型的最后一层全连接层特征,使用Softmax函数对图像类别计算预测的标签与实际的真实标签之间的标签预测损失。
步骤三,在卷积神经网络训练的过程中,提取网络模型的最后一层全连接层特征,基于对抗神经网络的思想,使用交叉熵损失函数计算预测的来源标签与实际的来源标签之间的来源识别损失。
步骤四,根据公式L=Lc-λLd对来源识别损失Ld取负值后采用加权求和的方式与标签预测损失Lc相加,得到联合损失L,其中超参数λ控制两个损失的比重,我们对λ分别取0~0.6之间不同的值进行实验,根据实验结果确定它的值,如图3所示。当联合损失越小时,细分类任务的识别准确率越高,同时数据来源分类任务的准确率越低,即网络数据和标准数据的表现趋于一致。
步骤五,在训练卷积神经网络的过程中,以最小化联合损失为目标优化卷积神经网络,直到网络模型的表现和联合损失的值趋于稳定。得到的网络模型从海量带有噪声的网络数据中学习到知识并用于图像的分类。
按照以上步骤分别将Food-101、Dog-120和Indoor-67三个标准数据集的测试集送入训练好的网络模型中进行分类,分别获得了89.35%、87.07%、84.59%的分类准确率。而其它现有方法在这三个数据集上的分类结果最高仅达到88.28%(Hassanne jad,H.;Matrella,G.;Ciampolini,P.;DeMunari,I.;Mordonini,M.;and Cagnoni,S.2016.Foodimage recognition using very deep convolutional networks.In MADiMa.)、85.90%(Krause,J.;Sapp,B.;Howard,A.;Zhou,H.;Toshev,A.;Duerig,T.;Philbin,J.;and Fei-Fei,L.2016.The unreasonable effectiveness of noisy data for fine-grainedrecognition.In ECCV.)和83.75%(Guo,S.;Huang,W.;Wang,L.;and Qiao,Y.2017.Locally supervised deep hybrid model for scene recognition.IEEETrans.Image Processing26(2):808–820.)。相比之下,本发明可以有效地利用网络中海量噪声数据进行图像分类。
图2展示了本方法的示意图,其中对于算法在各阶段的核心问题、训练过程以及系统输入和输出都有很形象的描述。图2和图1表达同样的意思,只是抽象层次不同,主要是帮助理解图1中各个部分。
图3展示了参数λ取不同值时的分类准确率,在Food-101、Dog-120和Indoor-67三个标准数据集中,使用本发明方法对λ取0~0.6之间的不同值并进行实验。图中三条折线从上到下依次对应Food-101、Dog-120和Indoor-67数据集上的实验结果。当参数参数λ取值为零,此时网络相当于一般未改进的卷积神经网络,实验表明直接利用带有噪声的网络图片进行标准数据集的图片分类效果并不理想。当参数参数λ取值过大时,此时网络更偏向于对两种不同来源的图像进行混合,因此实验结果也不好。根据实验结果可知,当参数λ的取值为0.1时,本发明在三个不同的分类任务中均取得最高的分类准确率,图中三条折线均达到峰值。
Claims (3)
1.一种基于对抗神经网络和海量噪声数据的图片分类方法,用于训练卷积神经网络使网络数据与标准数据趋于一致来提高模型的分类性能,其特征在于,包括:
a.将带有噪声的海量网络图像与标准数据集中的图像同时作为训练数据送入卷积神经网络中,对于每个训练数据的图像样本,使用类别标签和来源标签分别表示图像内容上的类别以及图像的数据来源;
b.根据步骤a中卷积神经网络的最后一层特征,使用Softmax函数对图像类别计算标签预测损失,当分类任务的识别准确率越高时标签预测损失越小;
c.根据步骤a中卷积神经网络的最后一层特征,基于对抗神经网络的思想,使用交叉熵损失函数计算来源识别损失,为了从网络数据中学习,需要使数据来源的分类准确率降低,因此需要使来源识别损失的值变大;
d.根据步骤b中的标签预测损失和步骤c中的来源识别损失计算得到联合损失,为便于优化网络,将来源识别损失的值取负数并与标签预测损失加权求和作为联合损失;
e.在训练卷积神经网络的过程中最小化步骤d中的联合损失,网络模型趋向于更好地分类图片类别,同时网络数据和标准数据的表现趋向于一致,减弱了噪声的影响,使得图片类别标签分类的准确率得到提高。
2.根据权利要求1所述的一种基于对抗神经网络和海量噪声数据的图片分类方法,其特征在于:步骤a中所述的类别标签表示细分类任务的类别,所述的来源标签表示该图像的来源是网络还是标准数据集。
3.根据权利要求1所述的一种基于对抗神经网络和海量噪声数据的图片分类方法,其特征在于:来自于网络的海量图片是带有噪声的,这种噪声包括两种,一种是网络图片的内容与分类任务完全无关,另一种是由于图像中物体的尺度、位置、背景环境原因造成的网络图片与标准数据集中的图片之间存在差距;本发明方法是针对解决第二种噪声问题,以便缩小这种差距,提高图片分类的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910358002.0A CN110110780B (zh) | 2019-04-30 | 2019-04-30 | 一种基于对抗神经网络和海量噪声数据的图片分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910358002.0A CN110110780B (zh) | 2019-04-30 | 2019-04-30 | 一种基于对抗神经网络和海量噪声数据的图片分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110110780A true CN110110780A (zh) | 2019-08-09 |
CN110110780B CN110110780B (zh) | 2023-04-07 |
Family
ID=67487578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910358002.0A Active CN110110780B (zh) | 2019-04-30 | 2019-04-30 | 一种基于对抗神经网络和海量噪声数据的图片分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110110780B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242131A (zh) * | 2020-01-06 | 2020-06-05 | 北京十六进制科技有限公司 | 一种智能阅卷中图像识别的方法、存储介质及装置 |
CN111299763A (zh) * | 2020-02-28 | 2020-06-19 | 华南理工大学 | 一种抗噪声干扰的激光视觉焊缝自动跟踪方法及系统 |
CN111507419A (zh) * | 2020-04-22 | 2020-08-07 | 腾讯科技(深圳)有限公司 | 图像分类模型的训练方法及装置 |
CN111784595A (zh) * | 2020-06-10 | 2020-10-16 | 北京科技大学 | 一种基于历史记录的动态标签平滑加权损失方法及装置 |
CN113283578A (zh) * | 2021-04-14 | 2021-08-20 | 南京大学 | 一种基于标记风险控制的数据去噪方法 |
CN115099115A (zh) * | 2022-08-24 | 2022-09-23 | 国网江西省电力有限公司电力科学研究院 | 一种户内变电站通风降噪深度强化学习设计方法 |
CN115618935A (zh) * | 2022-12-21 | 2023-01-17 | 北京航空航天大学 | 面向分类任务标签噪声的鲁棒性损失函数搜索方法及系统 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0773329A (ja) * | 1993-04-29 | 1995-03-17 | Canon Inc | 画像処理方法および装置 |
US20130343641A1 (en) * | 2012-06-22 | 2013-12-26 | Google Inc. | System and method for labelling aerial images |
CN103984959A (zh) * | 2014-05-26 | 2014-08-13 | 中国科学院自动化研究所 | 一种基于数据与任务驱动的图像分类方法 |
DE102015009981A1 (de) * | 2015-07-31 | 2017-02-02 | Eberhard Karls Universität Tübingen | Verfahren und Vorrichtung zur Bildsynthese |
CN106682694A (zh) * | 2016-12-27 | 2017-05-17 | 复旦大学 | 一种基于深度学习的敏感图像识别方法 |
CN107220600A (zh) * | 2017-05-17 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于深度学习的图片生成方法及生成对抗网络 |
CN107437100A (zh) * | 2017-08-08 | 2017-12-05 | 重庆邮电大学 | 一种基于跨模态关联学习的图像位置预测方法 |
CN107463953A (zh) * | 2017-07-21 | 2017-12-12 | 上海交通大学 | 在标签含噪情况下基于质量嵌入的图像分类方法及系统 |
CN107729992A (zh) * | 2017-10-27 | 2018-02-23 | 深圳市未来媒体技术研究院 | 一种基于反向传播的深度学习方法 |
CN108229404A (zh) * | 2018-01-09 | 2018-06-29 | 东南大学 | 一种基于深度学习的雷达回波信号目标识别方法 |
CN108257347A (zh) * | 2018-01-10 | 2018-07-06 | 安徽大学 | 一种利用卷积神经网络的火焰图像序列分类方法及装置 |
CN108416382A (zh) * | 2018-03-01 | 2018-08-17 | 南开大学 | 一种基于迭代采样和一对多标签修正的Web图像训练卷积神经网络方法 |
KR101913952B1 (ko) * | 2017-07-11 | 2018-10-31 | 경북대학교 산학협력단 | V-CNN 접근을 통한 iPSC 집락 자동 인식 방법 |
CN108805188A (zh) * | 2018-05-29 | 2018-11-13 | 徐州工程学院 | 一种基于特征重标定生成对抗网络的图像分类方法 |
CN108960127A (zh) * | 2018-06-29 | 2018-12-07 | 厦门大学 | 基于自适应深度度量学习的遮挡行人重识别方法 |
CN109325527A (zh) * | 2018-09-05 | 2019-02-12 | 哈尔滨工程大学 | 一种基于迁移学习与深度学习的侧扫声呐图像目标自动分类方法 |
CN109614979A (zh) * | 2018-10-11 | 2019-04-12 | 北京大学 | 一种基于选择与生成的数据增广方法及图像分类方法 |
-
2019
- 2019-04-30 CN CN201910358002.0A patent/CN110110780B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0773329A (ja) * | 1993-04-29 | 1995-03-17 | Canon Inc | 画像処理方法および装置 |
US20130343641A1 (en) * | 2012-06-22 | 2013-12-26 | Google Inc. | System and method for labelling aerial images |
CN103984959A (zh) * | 2014-05-26 | 2014-08-13 | 中国科学院自动化研究所 | 一种基于数据与任务驱动的图像分类方法 |
DE102015009981A1 (de) * | 2015-07-31 | 2017-02-02 | Eberhard Karls Universität Tübingen | Verfahren und Vorrichtung zur Bildsynthese |
CN106682694A (zh) * | 2016-12-27 | 2017-05-17 | 复旦大学 | 一种基于深度学习的敏感图像识别方法 |
CN107220600A (zh) * | 2017-05-17 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于深度学习的图片生成方法及生成对抗网络 |
KR101913952B1 (ko) * | 2017-07-11 | 2018-10-31 | 경북대학교 산학협력단 | V-CNN 접근을 통한 iPSC 집락 자동 인식 방법 |
CN107463953A (zh) * | 2017-07-21 | 2017-12-12 | 上海交通大学 | 在标签含噪情况下基于质量嵌入的图像分类方法及系统 |
CN107437100A (zh) * | 2017-08-08 | 2017-12-05 | 重庆邮电大学 | 一种基于跨模态关联学习的图像位置预测方法 |
CN107729992A (zh) * | 2017-10-27 | 2018-02-23 | 深圳市未来媒体技术研究院 | 一种基于反向传播的深度学习方法 |
CN108229404A (zh) * | 2018-01-09 | 2018-06-29 | 东南大学 | 一种基于深度学习的雷达回波信号目标识别方法 |
CN108257347A (zh) * | 2018-01-10 | 2018-07-06 | 安徽大学 | 一种利用卷积神经网络的火焰图像序列分类方法及装置 |
CN108416382A (zh) * | 2018-03-01 | 2018-08-17 | 南开大学 | 一种基于迭代采样和一对多标签修正的Web图像训练卷积神经网络方法 |
CN108805188A (zh) * | 2018-05-29 | 2018-11-13 | 徐州工程学院 | 一种基于特征重标定生成对抗网络的图像分类方法 |
CN108960127A (zh) * | 2018-06-29 | 2018-12-07 | 厦门大学 | 基于自适应深度度量学习的遮挡行人重识别方法 |
CN109325527A (zh) * | 2018-09-05 | 2019-02-12 | 哈尔滨工程大学 | 一种基于迁移学习与深度学习的侧扫声呐图像目标自动分类方法 |
CN109614979A (zh) * | 2018-10-11 | 2019-04-12 | 北京大学 | 一种基于选择与生成的数据增广方法及图像分类方法 |
Non-Patent Citations (4)
Title |
---|
JONATHAN KRAUSE: "The Unreasonable Effectiveness of Noisy Data for Fine-Grained Recognition", 《ARXIV》 * |
JUFENG YANG: "Joint Image Emotion Classification and Distribution Learning via Deep Convolutional Neural Network", 《PROCEEDINGS OF THE TWENTY-SIXTH INTERNATIONAL JOINT CONFERENCE ON ARTIFICIAL INTELLIGENCE (IJCAI-17)》 * |
SAINBAYAR SUKHBAATAR: "TRAINING CONVOLUTIONAL NETWORKS TRAINING CONVOLUTIONAL NETWORKS", 《ARXIV》 * |
TONG XIAO: "Learning from Massive Noisy Labeled Data for Image Classification", 《IEEE》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242131A (zh) * | 2020-01-06 | 2020-06-05 | 北京十六进制科技有限公司 | 一种智能阅卷中图像识别的方法、存储介质及装置 |
CN111242131B (zh) * | 2020-01-06 | 2024-05-10 | 北京十六进制科技有限公司 | 一种智能阅卷中图像识别的方法、存储介质及装置 |
CN111299763A (zh) * | 2020-02-28 | 2020-06-19 | 华南理工大学 | 一种抗噪声干扰的激光视觉焊缝自动跟踪方法及系统 |
CN111299763B (zh) * | 2020-02-28 | 2021-09-21 | 华南理工大学 | 一种抗噪声干扰的激光视觉焊缝自动跟踪方法及系统 |
CN111507419A (zh) * | 2020-04-22 | 2020-08-07 | 腾讯科技(深圳)有限公司 | 图像分类模型的训练方法及装置 |
CN111784595A (zh) * | 2020-06-10 | 2020-10-16 | 北京科技大学 | 一种基于历史记录的动态标签平滑加权损失方法及装置 |
CN111784595B (zh) * | 2020-06-10 | 2023-08-29 | 北京科技大学 | 一种基于历史记录的动态标签平滑加权损失方法及装置 |
CN113283578A (zh) * | 2021-04-14 | 2021-08-20 | 南京大学 | 一种基于标记风险控制的数据去噪方法 |
CN113283578B (zh) * | 2021-04-14 | 2024-07-23 | 南京大学 | 一种基于标记风险控制的数据去噪方法 |
CN115099115A (zh) * | 2022-08-24 | 2022-09-23 | 国网江西省电力有限公司电力科学研究院 | 一种户内变电站通风降噪深度强化学习设计方法 |
CN115618935A (zh) * | 2022-12-21 | 2023-01-17 | 北京航空航天大学 | 面向分类任务标签噪声的鲁棒性损失函数搜索方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110110780B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110110780B (zh) | 一种基于对抗神经网络和海量噪声数据的图片分类方法 | |
CN112699892B (zh) | 一种无监督领域自适应语义分割方法 | |
WO2022037233A1 (zh) | 一种基于自监督知识迁移的小样本视觉目标识别方法 | |
CN104217225B (zh) | 一种视觉目标检测与标注方法 | |
CN110210320B (zh) | 基于深度卷积神经网络的多目标无标记姿态估计方法 | |
CN103984959B (zh) | 一种基于数据与任务驱动的图像分类方法 | |
CN110874590B (zh) | 基于适配器互学习模型的训练及可见光红外视觉跟踪方法 | |
CN108416382B (zh) | 一种基于迭代采样和一对多标签修正的Web图像训练卷积神经网络方法 | |
CN108520273A (zh) | 一种基于目标检测的稠密小商品快速检测识别方法 | |
CN111709300B (zh) | 基于视频图像的人群计数方法 | |
CN103810500B (zh) | 一种基于有监督学习概率主题模型的地点图像识别方法 | |
CN116977844A (zh) | 一种轻量级水下目标实时检测方法 | |
CN113781404B (zh) | 基于自监督预训练的道路病害检测方法和系统 | |
CN110827265A (zh) | 基于深度学习的图片异常检测方法 | |
CN110490894A (zh) | 基于改进的低秩稀疏分解的视频前背景分离方法 | |
CN102945372A (zh) | 基于多标签约束支持向量机的分类方法 | |
CN112749747A (zh) | 垃圾分类质量评估方法及系统 | |
CN104463242A (zh) | 基于特征变换和词典学习的多特征动作识别方法 | |
CN116777896A (zh) | 一种表观缺陷跨域分类识别的负迁移抑制方法 | |
CN117523493A (zh) | 一种基于改进CA注意力机制的YOLOv7路面垃圾检测方法 | |
CN117670575A (zh) | 家具生产智能车间管理系统及方法 | |
CN112183464A (zh) | 基于深度神经网络和图卷积网络的视频行人识别方法 | |
CN113221575B (zh) | Pu强化学习的远程监督命名实体识别方法 | |
CN110135480A (zh) | 一种基于无监督物体检测消除偏差的网络数据学习方法 | |
CN116912184B (zh) | 一种基于篡改区域分离和区域约束损失的弱监督深度修复图像篡改定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |