CN114972869B - 一种基于反事实因果学习的红外微弱目标检测方法 - Google Patents
一种基于反事实因果学习的红外微弱目标检测方法 Download PDFInfo
- Publication number
- CN114972869B CN114972869B CN202210605568.0A CN202210605568A CN114972869B CN 114972869 B CN114972869 B CN 114972869B CN 202210605568 A CN202210605568 A CN 202210605568A CN 114972869 B CN114972869 B CN 114972869B
- Authority
- CN
- China
- Prior art keywords
- target
- infrared
- causal
- data
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001364 causal effect Effects 0.000 title claims abstract description 87
- 238000001514 detection method Methods 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000012952 Resampling Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 43
- 230000009466 transformation Effects 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 238000000926 separation method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000002156 mixing Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000007306 turnover Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 15
- 230000004927 fusion Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
本发明公开了一种基于反事实因果学习的红外微弱目标检测方法,首先获取红外图像;再进行数据增强,得到红外数据集;利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络。本发明方法提高了红外微弱目标的特征提取泛化性,进一步提高了模型的检测精度和鲁棒性。
Description
技术领域
本发明属于模式识别技术领域,具体涉及一种红外微弱目标检测方法。
背景技术
目前空天无人平台广泛应用于监视侦察等军事任务,以及国土勘测,自然灾害预测等民用领域。红外传感器能够获取更丰富、更全面、包含更多细节的目标信息和环境信息,利用红外信息化实现微弱目标有效检测是无人化智能化感知任务的重要环节。鉴于红外观测通常存在距离远、分辨率低等固有特性,导致红外图像采集到的目标普遍存在目标面积小、目标特征不显著、目标分布稀疏等“弱小目标”特点。利用现有的深度学习模型对红外弱小目标的检测与识别性能始终无法突破,迫切需要提升复杂环境下红外弱小目标的检测准确率。
红外图像和可见光图像的成像原理相差较大,红外图像不受光照条件变化的影响,成像具有精度高、隐蔽性好、抗干扰能力强、效费比高等优点。但其图像分辨率一般较低;随着隐身技术、干扰技术(水雾、烟幕、诱饵弹等)的发展以及在复杂背景干扰、恶劣天气等情况下,基于红外传感器的成像探测系统对目标的有效探测会受到严重影响,这都导致红外传感器采集到的目标普遍存在目标面积小、目标特征不显著、目标分布稀疏等“弱小目标”特点。综上所述,围绕微弱红外目标检测,需要解决的问题如下:
(1)针对弱小红外目标的上下文背景不显著问题,充分挖掘复杂下红外目标的泛化性特征,提高深度学习目标识别模型的准确度和泛化能力;
(2)针对红外图像的目标类别稀疏、目标类别分布不一致问题,提取红外图像的目标精细特征,降低不同目标类别的耦合程度,提高细粒度红外目标辨识和目标类型识别的准确度和鲁棒性。
发明内容
为了克服现有技术的不足,本发明提供了一种基于反事实因果学习的红外微弱目标检测方法,首先获取红外图像;再进行数据增强,得到红外数据集;利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络。本发明方法提高了红外微弱目标的特征提取泛化性,进一步提高了模型的检测精度和鲁棒性。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:使用加载了红外摄像机的无人平台获得包含多个目标的红外地面目标的视频数据,并将其分解为单帧图像;
步骤2:对于获得的单帧图像数据进行数据增强,包括随机改变图像对比度、亮度、旋转、翻转、平移操作,得到红外数据集;
步骤3:利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;
步骤3-1:定义在数据域D中,目标特征为X,标签为Y,图像的特征Xc表示同一目标在不同场景或不同环境下的映射对象;目标以Xc为准被标注为类别Y;
步骤3-2:将目标对象的跨域不变特征XA作为一个节点引入;跨域被看作是一种因果干预:对于每一个观察到的目标域XT,都有一组反事实的输入XS,XT和XS对应于相同的对象,共享同一组Xc;
步骤3-3:Xc是形成类别Y的节点;利用D分离法得出,类别标签Y和数据域D在Xc的条件下相互独立,即Y⊥D|XC;因此,目标是将标签Y学习为h(XC),其中h:C→Y;理想条件下最小损失函数f*重写为:
引入一个特征表达函数Φ:同时,h(Φ(x))即为所要求的检测器/>
步骤3-4:利用D分离法则,得出XC满足两个条件,一是XC⊥D|O,二是XC⊥/O;其中O代表目标对象;
第一个是不变条件:对于同一个对象,XC不会随着不同的数据域而改变;规定相同对象跨域输入的Φ(x)之间的平均匹配距离为0,即其中/>
第二个条件规定,XC是关于目标对象,即也是关于类别标签Y的信息;加入标准的分类损失,作为约束损失函数:
其中,
其中,fpt代表了即h和Φ的结合;Φ(x)代表了基准检测网络中的前r项卷积层,而h则是剩余的卷积层部分;
利用公式(3)所给出的约束损失函数,在有监督训练过程中,建立数据域下的结构因果模型,提取同类别对象中的共性特征,避免出现过拟合;
步骤3-5:结合两种方法来构建Φ(x),从而获取目标的泛化特征:
Φ(x)=ΦN(x)+ΦI(x)
其中ΦN(x)为非线性灰度变换模块,而ΦI(x)为伪相关干预增强;
所述非线性灰度变换模块利用浅层卷积神经网络模块,构建非线性灰度变换函数,在像素级别或局部临域实现尺度不变的非线性变换;非线性灰度变换函数将红外图像作为直接输入,输出具有相同形状信息但强度或者纹理不同的图像;在每次迭代中,都会对非线性灰度变换函数进行重新赋值,从而生成各种变换结果;同时,对浅层卷积神经网络模块的输入和输出之间执行线性插值,用以对函数输出进行约束;
所述伪相关干预增强针对目标和背景之间的联系,消除目标和背景之间的虚假关联;首先利用高斯函数随机生成多个控制点,然后对这些控制点插值,生成二维空间变换函数,将这些变换函数和非线性灰度变换后的图像进行点乘,再将多个点乘后的特征图进行加和;在每次迭代中对随机参数进行更换;
步骤4:将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;
步骤5:对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络;
利用结构因果模型,对同一数据域中不同类别间的图像、语境和类别标签之间的因果关系进行分析,创建以类别关联作为混合因子的因果模型;同时利用后向调整,消除目标类别中混淆因子,进一步提高伪标签的生成准确度;
通过因果推理方法去除混淆因子对分类的干扰,类间去耦合方法包括创建上下文特征结构因果模型、后向调整、类别权重激活三个步骤;利用红外图像样本的上下文特征构建因果模型,再利用卷积神经网络获得混淆因子,最终生成能够进行因果干预的类别调整矩阵,对伪标签类别进行重新调整,提高目标检测网络的准确性和鲁棒性。
本发明的有益效果如下:
本发明采用反事实因果模型对红外微弱目标进行特征提取和检测识别,能够实现红外微弱目标的自动化检测,构建反事实因果结构模型,输出目标和背景的反事实因果关系,提高了红外微弱目标的特征提取泛化性,之后利用泛化特征对目标检测模型进行有监督训练,同时构建上下文和类标签之间的因果关系,对训练好的模型参数进行前馈调整,进一步提高了模型的检测精度和鲁棒性。
附图说明
图1为本发明方法示意图。
图2为本发明方法的结构因果模型示意图,(a)典型分类器中的结构因果图;(b)跨领域模型中的因果结果图。
图3为本发明方法的泛化特征提取示意图。
图4为本发明方法的上下文融合特征干预细粒度目标辨识模型流程图。
图5为本发明实施例测试融合结果。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明提出一种基于反事实因果学习模型的端到端红外图像模型,构建红外微弱目标的因果结构模型,开展红外图像泛化特征提取方法,有效去除图像背景信息对微弱目标的干扰,突出微弱红外目标的显著特征;开展基于上下文融合特征干预的细粒度目标辨识方法,降低红外目标类别占比差异,进一步提升模型的检测效率。
采取的方案如下:
(1)提出一种基于的因果结构框架,引入因果推理手段对模型特征提取过程进行约束,并且去除无效和虚假的特征信息,提高红外特征提取能力;
(2)提出一种上下文融合特征干预的细粒度目标辨识方法,利用图像、上下文和类标签之间的因果关系,消除不同类别中的混淆偏差,使模型在不显著背景下目标检测性能得到进一步提升。
一种基于反事实因果学习的红外微弱目标检测方法,包括如下步骤:
步骤1:使用加载了红外摄像机的无人平台获得包含多个目标的红外地面目标的视频数据,并将其分解为单帧图像;
步骤2:对于获得的单帧图像数据进行数据增强,包括随机改变图像对比度、亮度、旋转、翻转、平移操作,得到红外数据集;
步骤3:利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;
步骤3-1:定义在数据域D中,目标特征为X,标签为Y,图像的特征Xc表示同一目标在不同场景或不同环境下的映射对象;目标以Xc为准被标注为类别Y;
步骤3-2:将目标对象的跨域不变特征XA作为一个节点引入;跨域被看作是一种因果干预:对于每一个观察到的目标域XT,都有一组反事实的输入XS,XT和XS对应于相同的对象,共享同一组Xc;
步骤3-3:Xc是形成类别Y的节点;利用D分离法得出,类别标签Y和数据域D在Xc的条件下相互独立,即Y⊥D|XC;因此,目标是将标签Y学习为h(XC),其中h:C→Y;理想条件下最小损失函数f*重写为:
引入一个特征表达函数Φ:同时,h(Φ(x))即为所要求的检测器/>
步骤3-4:利用D分离法则,得出XC满足两个条件,一是XC⊥D|O,二是XC⊥/O;其中O代表目标对象;
第一个是不变条件:对于同一个对象,XC不会随着不同的数据域而改变;规定相同对象跨域输入的Φ(x)之间的平均匹配距离为0,即其中/>
第二个条件规定,XC是关于目标对象,即也是关于类别标签Y的信息;加入标准的分类损失,作为约束损失函数:
其中,
利用公式(3)所给出的约束损失函数,在有监督训练过程中,建立数据域下的结构因果模型,提取同类别对象中的共性特征,避免出现过拟合;
步骤3-5:结合两种方法来构建Φ(x),从而获取目标的泛化特征:
Φ(x)=ΦN(x)+ΦI(x)
所述非线性灰度变换模块利用浅层卷积神经网络模块,构建非线性灰度变换函数,在像素级别或局部临域实现尺度不变的非线性变换;非线性灰度变换函数将红外图像作为直接输入,输出具有相同形状信息但强度或者纹理不同的图像;在每次迭代中,都会对非线性灰度变换函数进行重新赋值,从而生成各种变换结果;同时,对浅层卷积神经网络模块的输入和输出之间执行线性插值,用以对函数输出进行约束;
所述伪相关干预增强针对目标和背景之间的联系,消除目标和背景之间的虚假关联;首先利用高斯函数随机生成多个控制点,然后对这些控制点插值,生成二维空间变换函数,将这些变换函数和非线性灰度变换后的图像进行点乘,再将多个点乘后的特征图进行加和;在每次迭代中对随机参数进行更换;
步骤4:将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;
步骤5:对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络;
利用结构因果模型,对同一数据域中不同类别间的图像、语境和类别标签之间的因果关系进行分析,创建以类别关联作为混合因子的因果模型;同时利用后向调整,消除目标类别中混淆因子,进一步提高伪标签的生成准确度;
通过因果推理方法去除混淆因子对分类的干扰,类间去耦合方法包括创建上下文特征结构因果模型、后向调整、类别权重激活三个步骤;利用红外图像样本的上下文特征构建因果模型,再利用卷积神经网络获得混淆因子,最终生成能够进行因果干预的类别调整矩阵,对伪标签类别进行重新调整,提高目标检测网络的准确性和鲁棒性。
具体实施例:
由于红外微弱目标图像的数据集数量有限,为了使数据特征分布的更加全面,因此使用随机对比度、随机亮度、随机翻转、随机旋转等操作对数据集进行增强,以提升模型在多种情况下的鲁棒性,在对数据集进行增强后将其随机分为训练集、验证集和测试集。
图1为本发明的基于因果学习的红外图像微小目标检测方法,首先构建因果结构模型,利用红外图像的目标特征,构建对应的因果结构图。在图像特征提取阶段,本发明为提高红外特征的泛化提取能力,引入了一种基于伪相关增强和非线性变换的图像特征提取模块,该模块解耦了图像特征和背景之间的反事实关联,提高了目标特征在复杂背景下的泛化提取能力。之后,利用生成的泛化特征对模型进行监督训练,并且生成检测框。这时考虑数据中目标类别的不同占比会对检测框的生成产生影响,因而需要进一步构筑不同类别的因果关系并施以因果干预,利用监督训练得到类间独立的网络模型,从而不断提高模型生成的准确度,达成良性闭环结果。
图2为本发明的针对红外目标检测的结构化因果模型,由图2(a)中可以看出,在一个特定的数据域D下,目标的特征为X,标签为Y,图像的特征Xc表示同一目标在不同场景或不同环境下的映射对象。当采集到一幅图片,数据生成过程的第一批样本和数据域很可能具有相关性,如图中虚线连接所示。考虑多个数据域,多个对象会对应多个像素特征X,而所对应的Xc则对应目标在数据域内的相关特征,不同像素特征都有相同的对象,在人工标注中,目标以Xc为准被标注为类别Y。
针对红外目标检测问题,对应的结构因果模型如图2(b)所示。与因果特征Xc类似,将目标对象的跨域不变特征XA作为一个节点引入;跨域可以看作是一种因果干预:对于每一个观察到的目标域XT,都有一组反事实的输入XS,XT和XS对应于相同的对象(因此共享同一组Xc)。考虑模型的完备性,同时考虑了目标域下对象所对应的真实标签YTrue与数据域也存在一定的相关性,可以得出对象节点的关系是跨域不变特征提取的关键。
从图2(b)中可以看出,Xc是形成类别Y的节点。利用D分离法则可以得出,类别标签和数据域在Xc的条件下相互独立,即Y⊥D|XC。因此,目标是将标签Y学习为h(XC),其中h:C→Y。理想条件下最小损失函数f*可重写为:
考虑到Xc不能之间获取,这意味着需要引入一个特征表达函数同时,h(Φ(x))即为所要求的检测器/>
利用结构因果图中的条件独立性,可以实现Xc的求取。利用D分离法则,可以得出XC满足两个条件,一是XC⊥D|O,二是XC⊥/O;其中O代表目标对象,而D代表数据域。第一个是不变条件:对于同一个对象,XC不会随着不同的数据域而改变。为了加强这一点,规定相同对象跨域输入的Φ(x)之间的平均匹配距离为0,即其中/>
然而,仅利用不变性条件不够,也需要表示包含对象目标O的信息,否则,即使是常数Φ也能够将上述损失最小化。因此,第二个条件规定,XC是关于目标对象,即也是关于类别标签Y的信息。我们加入标准的分类损失,作为约束损失函数。
其中,
这里fpt代表了即h和Φ的结合。在本发明中,Φ(x)代表了基准检测网络中的前r项卷积层,而h则是剩余的卷积层部分。利用公式(3)所给出的约束损失函数,可以在有监督训练过程中,建立数据域下的结构因果模型,提取同类别对象中的共性特征,避免出现过拟合。
图3表示本发明的泛化特征提取流程图。本发明结合两种方法来构建Φ(x),从而获取目标的泛化特征:
Φ(x)=ΦN(x)+ΦI(x)
其中ΦN(x)为非线性灰度变换模块,而ΦI(x)为伪相关干预增强。非线性灰度变换模块利用浅层卷积神经网络模块,构建非线性灰度变换函数,在像素级别或局部临域实现尺度不变的非线性变换。该函数将红外图像作为直接输入,输出具有相同形状信息但强度或者纹理不同的图像。在每次迭代中,都会对函数进行重新赋值,从而生成各种变换结果。同时,对网络的输入和输出之间执行线性插值,用以对函数输出进行约束。
而伪相关干预增强则主要针对目标和背景之间的联系,尽力消除目标和背景之间的“虚假关联”。在利用仿真数据集进行模型训练过程中,仿真生成的目标和背景会存在某种特定关联,从而造成模型学习到这种联系。于是模型会这种联系作为目标域的线索进行预测,从而造成模型域适应之后的泛化性下降。因为真实的数据中可能不存在有利于仿真数据检测的背景混淆。
从模型的角度来看,背景混淆以两种方式影响目标检测:1)背景特征影响归一化层的全局特征统计,因为通常计算特征统计覆盖全部像素空间。2)大的感受野使得目标和临域背景同时进行感知和处理。
为了较低背景混淆对目标检测的影响,需要在训练过程中消除目标和某种背景之间产生的虚假相关性,同时保留真实背景和目标之间的真实相关性(如机场和飞机)。本发明采用伪相关干预增强算法以消除背景混淆对目标检测的影响。首先利用高斯函数随机生成一些控制点,然后对这些控制点插值,生成低频率的二维空间变换函数,将这些变换函数和非线性灰度变换后的图像进行点乘,再将多个点乘后的特征图进行加和。为了消除未知的虚假相关性,在每次迭代中对随机参数进行更换。这种利用随机控制点进行干预增强的方法有两点优势。
①.它可以实现图像灰度的空间变换,同时低频保证了图像不会发生严重的扭曲变形;
②.它通过在多个特征之间的插值进一步增加了特征多样性,降低了特征和背景之间的虚假相关。
利用生成的Φ(x)特征,对少样本红外数据集,按照特点方向增强特征泛化性,从而进一步提高模型在监督训练和无监督过程中的解译性能。
图4使用本发明提出的上下文融合特征干预细粒度目标辨识模型流程图。为提高光学红外特征目标辨识模型的精度和鲁棒性,必须考虑不同数据集不同目标和背景类别的分布差异。本发明从两个方面解决类别分布差异带来的目标辨识模型类别耦合问题。一方面研究如何根据类别占比差异,进行目标类别的对齐调优,确保得到的网络重构最优;另一方面研究如何利用图像、上下文和类标签之间的因果关系,消除不同类别中的混淆偏差,为后续的检测模型自学习提供更好的伪标签,使模型在不显著背景下目标检测性能得到进一步提升。本发明的类间去耦合方法是通过因果干预方法实现的。利用改进的结构因果模型,对同一数据域中不同类别间的图像、语境和类别标签之间的因果关系进行分析,创建以类别关联作为混合因子的因果模型。同时利用后向调整,消除目标类别中混淆因子,进一步提高伪标签的生成准确度。
与标准的结构因果图不同,类间去耦合方法充分利用类间上下文信息,同时考虑不同数据集相同类别的上下文信息的迁移问题,通过因果推理方法去除混淆因子对分类的干扰。类间去耦合的方法步骤如图四所示。可以看到,类间去耦合方法主要包括创建上下文特征结构因果模型、后向调整、类别权重激活三个步骤。利用图像样本的上下文特征构建因果模型,再利用卷积神经网络获得混淆因子,最终生成能够进行因果干预的类别调整矩阵,对伪标签类别进行重新调整,提高目标辨识模型在推理集中的准确性和鲁棒性。
图5和表1使用本发明提出的方法在无人机拍摄的数据集上进行了验证,结果表明提出的因果学习手段和上下文特征融合机制对红外微弱目标检测的提升是显著的。另外实验表明该方法可以很好的应用在空天无人平台上,对于完成监视与侦察任务有很大的提升。
表1红外微弱目标检测实验结果
Claims (1)
1.一种基于反事实因果学习的红外微弱目标检测方法,其特征在于,包括如下步骤:
步骤1:使用加载了红外摄像机的无人平台获得包含多个目标的红外地面目标的视频数据,并将其分解为单帧图像;
步骤2:对于获得的单帧图像数据进行数据增强,包括随机改变图像对比度、亮度、旋转、翻转、平移操作,得到红外数据集;
步骤3:利用红外目标特征,构建因果结构模型;利用因果结构模型输出的反事实因果关系,提取红外目标泛化特征;
步骤3-1:定义在数据域D中,目标特征为X,标签为Y,图像的特征Xc表示同一目标在不同场景或不同环境下的映射对象;目标以Xc为准被标注为类别Y;
步骤3-2:将目标对象的跨域不变特征XA作为一个节点引入;跨域被看作是一种因果干预:对于每一个观察到的目标域XT,都有一组反事实的输入XS,XT和XS对应于相同的对象,共享同一组Xc;
步骤3-3:Xc是形成类别Y的节点;利用D分离法得出,类别标签Y和数据域D在Xc的条件下相互独立,即Y⊥D|XC;因此,目标是将标签Y学习为h(XC),其中h:C→Y;理想条件下最小损失函数f*重写为:
引入一个特征表达函数同时,h(Φ(x))即为所要求的检测器/>
步骤3-4:利用D分离法则,得出XC满足两个条件,一是XC⊥D|O,二是XC⊥/O;其中O代表目标对象;
第一个是不变条件:对于同一个对象,XC不会随着不同的数据域而改变;规定相同对象跨域输入的Φ(x)之间的平均匹配距离为0,即其中/>
第二个条件规定,XC是关于目标对象,即也是关于类别标签Y的信息;加入标准的分类损失,作为约束损失函数:
其中,
其中,fpt代表了即h和Φ的结合;Φ(x)代表了基准检测网络中的前r项卷积层,而h则是剩余的卷积层部分;
利用公式(3)所给出的约束损失函数,在有监督训练过程中,建立数据域下的结构因果模型,提取同类别对象中的共性特征,避免出现过拟合;
步骤3-5:结合两种方法来构建Φ(x),从而获取目标的泛化特征:
Φ(x)=ΦN(x)+ΦI(x)
其中ΦN(x)为非线性灰度变换模块,而ΦI(x)为伪相关干预增强;
所述非线性灰度变换模块利用浅层卷积神经网络模块,构建非线性灰度变换函数,在像素级别或局部临域实现尺度不变的非线性变换;非线性灰度变换函数将红外图像作为直接输入,输出具有相同形状信息但强度或者纹理不同的图像;在每次迭代中,都会对非线性灰度变换函数进行重新赋值,从而生成各种变换结果;同时,对浅层卷积神经网络模块的输入和输出之间执行线性插值,用以对函数输出进行约束;
所述伪相关干预增强针对目标和背景之间的联系,消除目标和背景之间的虚假关联;首先利用高斯函数随机生成多个控制点,然后对这些控制点插值,生成二维空间变换函数,将这些变换函数和非线性灰度变换后的图像进行点乘,再将多个点乘后的特征图进行加和;在每次迭代中对随机参数进行更换;
步骤4:将红外目标泛化特征输入至目标检测网络结构中进行训练,训练完成后得到预训练目标检测网络;
步骤5:对红外数据集进行重采样,构建红外数据上下文和类标签之间的因果关系;使用重采样数据,对预训练目标检测网络参数进行前馈调整,得到最终的目标检测网络;
利用结构因果模型,对同一数据域中不同类别间的图像、语境和类别标签之间的因果关系进行分析,创建以类别关联作为混合因子的因果模型;同时利用后向调整,消除目标类别中混淆因子,进一步提高伪标签的生成准确度;
通过因果推理方法去除混淆因子对分类的干扰,类间去耦合方法包括创建上下文特征结构因果模型、后向调整、类别权重激活三个步骤;利用红外图像样本的上下文特征构建因果模型,再利用卷积神经网络获得混淆因子,最终生成能够进行因果干预的类别调整矩阵,对伪标签类别进行重新调整,提高目标检测网络的准确性和鲁棒性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210605568.0A CN114972869B (zh) | 2022-05-30 | 2022-05-30 | 一种基于反事实因果学习的红外微弱目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210605568.0A CN114972869B (zh) | 2022-05-30 | 2022-05-30 | 一种基于反事实因果学习的红外微弱目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114972869A CN114972869A (zh) | 2022-08-30 |
CN114972869B true CN114972869B (zh) | 2024-02-20 |
Family
ID=82957955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210605568.0A Active CN114972869B (zh) | 2022-05-30 | 2022-05-30 | 一种基于反事实因果学习的红外微弱目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114972869B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116228623B (zh) * | 2022-09-08 | 2024-05-03 | 上海贝特威自动化科技有限公司 | 一种基于等变正则化自监督注意力网络的金属表面缺陷检测方法、设备和储存介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781671A (zh) * | 2019-10-29 | 2020-02-11 | 西安科技大学 | 一种智能ietm故障维修记录文本的知识挖掘方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
CN114170531A (zh) * | 2021-11-23 | 2022-03-11 | 北京航天自动控制研究所 | 基于困难样本迁移学习的红外图像目标检测方法和装置 |
-
2022
- 2022-05-30 CN CN202210605568.0A patent/CN114972869B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781671A (zh) * | 2019-10-29 | 2020-02-11 | 西安科技大学 | 一种智能ietm故障维修记录文本的知识挖掘方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
CN114170531A (zh) * | 2021-11-23 | 2022-03-11 | 北京航天自动控制研究所 | 基于困难样本迁移学习的红外图像目标检测方法和装置 |
Non-Patent Citations (1)
Title |
---|
重构迁移学习的红外目标分类;毛远宏;贺占庄;马钟;;电子科技大学学报;20200730(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114972869A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Artificial intelligence for remote sensing data analysis: A review of challenges and opportunities | |
CN111310862B (zh) | 复杂环境下基于图像增强的深度神经网络车牌定位方法 | |
CN110956185B (zh) | 一种图像显著目标的检测方法 | |
CN111368896B (zh) | 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN110135366B (zh) | 基于多尺度生成对抗网络的遮挡行人重识别方法 | |
CN110910391B (zh) | 一种双模块神经网络结构视频对象分割方法 | |
Shi et al. | Single‐shot detector with enriched semantics for PCB tiny defect detection | |
Zuo et al. | HF-FCN: Hierarchically fused fully convolutional network for robust building extraction | |
CN114863348B (zh) | 基于自监督的视频目标分割方法 | |
CN115861756A (zh) | 基于级联组合网络的大地背景小目标识别方法 | |
Lei et al. | Spectral mapping with adversarial learning for unsupervised hyperspectral change detection | |
CN114550110A (zh) | 一种基于无监督域适应的车辆重识别方法及系统 | |
CN115965968A (zh) | 基于知识引导的小样本目标检测识别方法 | |
Koziarski et al. | Marine snow removal using a fully convolutional 3d neural network combined with an adaptive median filter | |
CN114972869B (zh) | 一种基于反事实因果学习的红外微弱目标检测方法 | |
Lou et al. | Generative knowledge transfer for ship detection in SAR images | |
Li et al. | Deep Learning-based Model for Automatic Salt Rock Segmentation | |
Anilkumar et al. | Research contribution and comprehensive review towards the semantic segmentation of aerial images using deep learning techniques | |
CN114596480A (zh) | 一种基于yolov5优化的海底生物目标检测方法和系统 | |
CN117934814A (zh) | 一种基于分散注意力挖掘网络的红外小目标识别方法 | |
CN116935240A (zh) | 多尺度感知金字塔的地表覆盖分类系统和方法 | |
Capece et al. | Converting night-time images to day-time images through a deep learning approach | |
CN113313185B (zh) | 一种基于自适应空谱特征提取的高光谱图像分类方法 | |
Lee et al. | Boundary-aware camouflaged object detection via deformable point sampling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |