CN116823694B - 基于多聚焦信息整合的红外与可见光图像融合方法及系统 - Google Patents
基于多聚焦信息整合的红外与可见光图像融合方法及系统 Download PDFInfo
- Publication number
- CN116823694B CN116823694B CN202311108029.7A CN202311108029A CN116823694B CN 116823694 B CN116823694 B CN 116823694B CN 202311108029 A CN202311108029 A CN 202311108029A CN 116823694 B CN116823694 B CN 116823694B
- Authority
- CN
- China
- Prior art keywords
- visible light
- light source
- image
- source image
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010354 integration Effects 0.000 title claims abstract description 17
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 95
- 238000000034 method Methods 0.000 claims abstract description 46
- 238000007499 fusion processing Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 15
- 238000009499 grossing Methods 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000005855 radiation Effects 0.000 abstract description 3
- 239000000779 smoke Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于多聚焦信息整合的红外与可见光图像融合方法及系统,该方法包括:获取红外图像、第一可见光源图像和第二可见光源图像;基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理;对分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像进行显著信息融合处理,得到融合纹理层与融合结构层;将融合纹理层与融合结构层进行相加处理,得到最终的图像融合结果。通过使用本发明,能够有效提取可见光图像中的细节信息与红外热辐射目标信息。本发明作为基于多聚焦信息整合的红外与可见光图像融合方法及系统,可广泛应用于图像融合技术领域。
Description
技术领域
本发明涉及图像融合技术领域,尤其涉及基于多聚焦信息整合的红外与可见光图像融合方法及系统。
背景技术
红外和可见光图像融合技术通过整合从不同传感器获得的有价值的信息,在计算领域发挥着关键作用。这种技术可以为高级视觉任务提供更全面和详细的场景解释,如目标检测、语义分割和行人重新识别。在光线充足的场景中,可见光传感器擅长捕捉丰富的纹理和细节信息,提供更复杂的场景描述。然而,在低光照条件下或具有挑战性的环境中,如烟雾或雨,可见光传感器往往会遭受严重的信息损失。另一方面,红外相机能够捕捉到目标发出的热辐射,使其不太容易受到外部干扰。尽管如此,它们对复杂的场景细节缺乏敏感度,主要提供有助于准确定位目标的特征信息。
近年来,在红外与可见光图像融合领域开发了许多有效的特征信息检测算法,大致可分为基于深度学习的方法和传统融合方法。基于深度学习的方法采用神经网络来模拟人脑的功能。通过从广泛的数据集中学习,这些模型建立了连接,并利用深度特征来重建富含复杂细节的融合图像。传统融合算法可以分为基于多尺度变换的算法和基于显著性的算法。前者将源图像分解为多个尺度和方向,利用融合规则对其进行整合并重建融合系数。基于显著性的算法旨在保留从不同源图像中识别出的显著区域。它通常使用各种特征提取运算符计算出一个显著性图,并在此基础上构建融合权重。这种方法有助于减少像素信息的冗余,提高融合结果的视觉质量。虽然许多算法可以在红外与可见光图像融合任务中提供高质量的融合结果,但它们通常假设可见光成像设备捕获的场景信息始终处于聚焦和清晰状态。然而,在实际情况下,由于光学镜头的限制,只有景深内的物体才能被聚焦。因此,当相机不能同时捕捉到场景中的所有目标信息时,场景内的部分区域会变得模糊,不能够呈现一个全场景聚焦的图像,因此需要捕捉多组数据以确保所有目标信息都在聚焦区域内。
发明内容
为了解决上述技术问题,本发明的目的是提供基于多聚焦信息整合的红外与可见光图像融合方法及系统,能够有效提取可见光图像中的细节信息与红外热辐射目标信息。
本发明所采用的第一技术方案是:基于多聚焦信息整合的红外与可见光图像融合方法,包括以下步骤:
获取红外图像、第一可见光源图像和第二可见光源图像,所述第一可见光源图像和第二可见光源图像具有不同聚焦区域;
基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像;
对分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像进行显著信息融合处理,得到融合纹理层与融合结构层;
将融合纹理层与融合结构层进行相加处理,得到最终的图像融合结果。
进一步,所述基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像这一步骤,其具体包括:
基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行平滑操作处理,得到红外图像的结构层、第一可见光源图像的结构层和第二可见光源图像的结构层;
将红外图像与红外图像的结构层进行相减处理、第一可见光源图像与第一可见光源图像的结构层进行相减处理、第二可见光源图像与第二可见光源图像的结构层进行相减处理,得到红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层;
分别整合红外图像的结构层与红外图像的纹理层、第一可见光源图像的结构层与第一可见光源图像的纹理层、第二可见光源图像的结构层与第二可见光源图像的纹理层,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像。
进一步,所述半稀疏性的图像滤波器的表达式具体如下所示:
;
上式中,表示输入的图像,/>表示输出的图像,/>和/>表示平衡的权重,/>表示规定/>的平滑度的空间变化的置信图,/>代表第/>个微分算子,/>表示图像/>第/>个高阶梯度,/>表示第/>个微分算子,其中/>。
进一步,所述对分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像进行显著信息融合处理,得到融合纹理层与融合结构层这一步骤,其具体包括:
通过特征提取算子对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行特征检测处理,得到红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图;
对红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图进行绝对值取大处理,得到红外图像纹理层的聚焦决策图、第一可见光源图像纹理层的聚焦决策图和第二可见光源图像纹理层的聚焦决策图;
对红外图像纹理层的聚焦决策图、第一可见光源图像纹理层的聚焦决策图和第二可见光源图像纹理层的聚焦决策图进行整合处理,得到聚焦纹理图;
对聚焦纹理图进行显著特征提取处理,得到聚焦纹理图的显著特征图;
基于纹理层融合规则,对聚焦纹理图的显著特征图进行融合处理,得到融合纹理层;
考虑能量信息的分布,对红外图像的结构层、第一可见光源图像的结构层和第二可见光源图像的结构层进行融合处理,得到融合结构层。
进一步,所述特征提取算子对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行特征检测处理的表达式具体如下所示:
;
上式中,表示纹理层的显著特征图,/>表示图像纹理层的显著像素信息,/>表示图像纹理层/>方向的梯度信息,/>表示图像纹理层/>方向的梯度信息。
进一步,所述纹理层融合规则的表达式具体如下所示:
;
上式中,表示融合纹理层,/>表示聚焦纹理层/>的显著特征图,/>表示聚焦纹理图的显著特征图,/>表示图像的纹理层,/>表示纹理层/>的显著特征图。
进一步,所述通过特征提取算子对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行特征检测处理,得到红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图这一步骤,其具体包括:
对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行全局梯度信息检测,获取红外图像纹理层的梯度信息、第一可见光源图像纹理层的梯度信息和第二可见光源图像纹理层的梯度信息;
基于高斯金字塔,对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行分解处理,得到具有多个尺度的红外图像纹理层、具有多个尺度的第一可见光源图像纹理层和具有多个尺度的第二可见光源图像纹理层;
通过拉普拉斯金字塔对具有多个尺度的红外图像纹理层、具有多个尺度的第一可见光源图像纹理层和具有多个尺度的第二可见光源图像纹理层进行图像的显著像素信息检测处理,得到红外图像纹理层的特征信息、第一可见光源图像纹理层的特征信息和第二可见光源图像纹理层的特征信息;
分别整合红外图像纹理层的梯度信息与红外图像纹理层的特征信息、第一可见光源图像纹理层的梯度信息与第一可见光源图像纹理层的特征信息、第二可见光源图像纹理层的梯度信息与第二可见光源图像纹理层的特征信息,得到红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图。
所述考虑能量信息的分布,对红外图像的结构层、第一可见光源图像的结构层和第二可见光源图像的结构层进行融合处理,得到融合结构层这一步骤,其具体包括:
分别计算红外图像结构层的离散余弦变换块的频率方差、第一可见光源图像结构层的离散余弦变换块的频率方差和第二可见光源图像结构层的离散余弦变换块的频率方差;
对红外图像结构层的离散余弦变换块的频率方差、第一可见光源图像结构层的离散余弦变换块的频率方差和第二可见光源图像结构层的离散余弦变换块的频率方差进行取平均计算处理,得到融合结构层的第一特征值;
分别计算红外图像结构层的熵、第一可见光源图像结构层的熵和第二可见光源图像结构层的熵,得到融合结构层的第二特征值;
基于结构层融合规则,对融合结构层的第一特征值和融合结构层的第二特征值进行融合处理,得到融合结构层。
所述结构层融合规则的表达式具体如下所示:
;
上式中,表示融合结构层,/>表示图像结构层的熵,/>表示图像结构层的离散余弦变换块的频率方差,/>表示图像的结构层。
本发明所采用的第二技术方案是:基于多聚焦信息整合的红外与可见光图像融合系统,包括:
获取模块,用于获取红外图像、第一可见光源图像和第二可见光源图像,所述第一可见光源图像和第二可见光源图像具有不同聚焦区域;
分解模块,基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像;
融合模块,用于对分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像进行显著信息融合处理,得到融合纹理层与融合结构层;
相加模块,用于将融合纹理层与融合结构层进行相加处理,得到最终的图像融合结果。
本发明方法及系统的有益效果是:本发明通过获取红外图像与可见光源图像,进一步基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,在利用不同模态图像之间的互补信息提取红外图像、第一可见光源图像和第二可见光源图像的梯度信息与显著像素特征信息,并考虑图像能量信息的分布,对图像进行融合处理,能从不同的模式图像中检测出重要的信息,还能考虑到像素点的聚焦特性,从而有效地处理各种复杂的场景,能够不受外界因素干扰的同时拥有较好的细节保持能力,能够有效区分来自不同模态图像的有用像素信息。
附图说明
图1是本发明实施例基于多聚焦信息整合的红外与可见光图像融合方法的步骤流程图;
图2是本发明实施例基于多聚焦信息整合的红外与可见光图像融合系统的结构框图;
图3是本发明具体实施例红外与可见光图像融合方法的流程原理示意图;
图4是本发明方法与8种现有的图像融合算法进行对比实验的结果示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
参照图1和图3,本发明提供了基于多聚焦信息整合的红外与可见光图像融合方法,该方法包括以下步骤:
S1、获取红外图像、第一可见光源图像和第二可见光源图像,所述第一可见光源图像和第二可见光源图像具有不同聚焦区域;
具体地,获取相应配准的红外和具有不同聚焦区域的可见光源图像/>和/>,其中,相应配准表示输入的红外图像和可见光图像的分辨率一致,且图像场景中所有物体的相对位置一致,几何形状也都对齐,由于本发明针对的是已配准的图像融合,因此需要不同的输入图像都已配准,即在不同时间或不同角度下获取的图像能够正确地对齐;具有不同聚焦区域表示在同一场景下,由于相机景深有限性导致所成像的图像通常存在部分聚焦部分模糊(如前聚焦后模糊、后聚焦前模糊),这种图像称为多聚焦图像。同一场景的不同多聚焦图像在不同区域聚焦,即具有聚焦互补性,如以两幅多聚焦为例,任一多聚焦图像有部分区域是模糊的,这部分模糊的区域相对于第二张不同聚焦区域的图像来说是清晰的,而第一张清晰的区域相对于第二张图像来说是模糊的。通过多聚焦图像融合技术可以将同一场景的多幅多聚焦图像进行聚焦信息整合,得到全聚焦图像。
S2、基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像;
具体地,边缘保持滤波器能够有效平滑源图像中大部分的纹理与细节信息的同时保持结构边缘的强度,为了更好地对代表图像不同特征信息的像素点进行区分,本发明引入了基于半稀疏性的图像滤波器对源图像进行平滑处理,该滤波器可以表示如下所示:
;
上式中,表示输入的图像,/>表示输出的图像,/>和/>表示平衡的权重,/>表示规定/>的平滑度的空间变化的置信图,/>代表第/>个微分算子,/>表示图像/>第/>个高阶梯度,/>表示第/>个微分算子,其中/>;
在本发明中,将设为2作为正则化的最高阶,/>和/>分别设置为0.8和0.05,最后,将半稀疏性滤波器平滑操作表示如下所示:
;
上式中,表示半稀疏性滤波算子;
输入不同聚焦区域的可见光图像和/>与对应的红外图像/>,获取结构层/>的操作如下所示:
;
上式中,表示结构层,其中,/>;
红外图像、第一可见光源图像和第二可见光源图像纹理层计算如下所示:
;
上式中,表示纹理层。
S3、对分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像进行显著信息融合处理,得到融合纹理层与融合结构层;
S31、红外图像、第一可见光源图像和第二可见光源图像纹理层的融合;
具体地,纹理信息的融合依赖于对聚焦且清晰的细节信息的检测,以及利用不同模态图像之间的互补信息,为此,本发明设计了一种新型特征提取算子以满足这个挑战。该算子由两个重要部分组成,即全局梯度信息检测和多尺度特征提取,首先,通过全局梯度检测算子获取纹理层的梯度信息,具体表示如下,
;
上式中,表示纹理层/>在/>和/>方向上的梯度,/>是设为0.8的常数,/> ,/>表示一个平衡参数,/>表示梯度测量图。
图像金字塔是一种高效的多尺度表示方法,本发明的多尺度特征提取算子基于高斯金字塔与拉普拉斯金字塔构建。给定一个输入图像,利用高斯金字塔将其分解为N个尺度/>,/> ,其中/>,拉普拉斯金字塔对应的每一层表示为,/>,本发明的目标是在尺度/>的指导下检测图像的显著像素信息,具体过程如下所示,
;
上式中,表示空间频率算子,/>表示显著性测量图,/>表示图像所对应的第/>层高斯金字塔,/>表示图像/>所对应的第/>层拉普拉斯金字塔;
最后,综合全局梯度测量与显著性测量,本发明所提新型特征提取算子可以表示如下所示:
;
上式中,表示纹理层的显著特征图,/>表示图像纹理层的显著像素信息,/>表示图像纹理层/>方向的梯度信息,/>表示图像纹理层/>方向的梯度信息;
在的指导下,本发明首先通过绝对值取大规则获取聚焦决策图/>,其表达式具体如下所示:
;
上式中,表示聚焦决策图,/>表示纹理层/>的显著特征图,/>表示纹理层/>的显著特征图。
根据本发明可以将聚焦的清晰细节进行整合,获取聚焦纹理图/>,其表达式具体如下所示:
;
上式中,表示源图像/>的纹理层,/>表示源图像/>的纹理层;
获取的显著特征图/>后,通过以下规则构建最终的融合纹理层/>,其表达式具体如下所示:
;
上式中,表示融合纹理层,/>表示聚焦纹理层/>的显著特征图,/>表示聚焦纹理图的显著特征图,/>表示图像的纹理层,/>表示纹理层/>的显著特征图。
S32、红外图像、第一可见光源图像和第二可见光源图像结构层的融合。
具体地,结构层包含源图像的低频信息,本发明从图像的熵与多方向频率方差两个方面考虑能量信息的分布,首先计算结构层中每个大小的离散余弦变换块的频率方差/>,
上式中,表示DCT块在四个方向/>上的标准差,/>表示/>在四个方向上的平均值;
本发明通过计算所有块的方差后计算其平均值作为结构层的第一特征值,将熵作为第二特征值用于结构层融合规则的设计;
因此,融合的结构层构建如下所示:
;
上式中,,/>表示结构层/>的熵,/>表示融合结构层,/>表示图像结构层的离散余弦变换块的频率方差,/>表示图像的结构层。
S4、将融合纹理层与融合结构层进行相加处理,得到最终的图像融合结果。
具体地,所述最终的图像融合结果的表达式具体如下所示:
上式中,表示最终的图像融合结果,/>表示融合纹理层,/>表示融合结构层。
综上所述,本发明首先基于半稀疏性的图像平滑滤波被用于将图像分解为结构与纹理成分。在纹理成分的融合中,本发明设计了一种新的多尺度显著信息检测算子,该算子能够同时考虑像素的聚焦信息与来自不同模态图像的有用像素信息,此外,本发明从多方向频率方差和信息熵的角度考虑结构成分中能量信息的分布,实现了对场景亮度信息的有效捕捉和合理对比度的保持,通过本发明能够在提取不同模态图像中有用信息的同时整合可见光图像中的清晰细节信息,提供高质量的融合结果。
参照图2,基于多聚焦信息整合的红外与可见光图像融合系统,包括:
获取模块,用于获取红外图像、第一可见光源图像和第二可见光源图像,所述第一可见光源图像和第二可见光源图像具有不同聚焦区域;
分解模块,基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像;
融合模块,用于对分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像进行显著信息融合处理,得到融合纹理层与融合结构层;
相加模块,用于将融合纹理层与融合结构层进行相加处理,得到最终的图像融合结果。
为了进一步展现出本发明的优势和有效性,本发明方法与8种现有的图像融合算法做了一组对比试验,在主观视觉评价上分析各个算法的性能。其中本发明的对比方法在图4中分别用(a)-(g)展示,包括:(a):利用潜在低秩表示法进行红外和可见光图像的融合;(b):基于目标增强的多尺度变换分解的红外和可见光图像融合;(c):用于红外和可见光图像融合的具有多分类约束的生成对抗网络;(d):为图像融合学习深度多尺度特征集合和边缘注意力指导;(e):高级视觉任务循环中的图像融合:一个语义感知的实时红外和可见光图像融合网络;(f):通过双鉴别器生成对抗网络实现语义监督的红外和可见光图像融合;(g):一个统一的无监督的图像融合网络。其中(h)为本发明所提算法。从图4中可以看出,(b)方法让烟雾信息完全掩盖了人物信息,而(d)和(e)两种方法则也受烟雾信息干扰严重,不能保持合理的对比度。显然(a)和(c)方法的像素信息大部分来源于红外图像,这会丢失部分可见光图像的细节信息。本发明算法能够不受烟雾信息干扰的同时拥有较好的细节保持能力,能够有效区分来自不同模态图像的有用像素信息。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (9)
1.基于多聚焦信息整合的红外与可见光图像融合方法,其特征在于,包括以下步骤:
获取红外图像、第一可见光源图像和第二可见光源图像,所述第一可见光源图像和第二可见光源图像具有不同聚焦区域;
基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像;
通过特征提取算子对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行特征检测处理,得到红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图;
对红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图进行绝对值取大处理,得到红外图像纹理层的聚焦决策图、第一可见光源图像纹理层的聚焦决策图和第二可见光源图像纹理层的聚焦决策图;
对红外图像纹理层的聚焦决策图、第一可见光源图像纹理层的聚焦决策图和第二可见光源图像纹理层的聚焦决策图进行整合处理,得到聚焦纹理图;
对聚焦纹理图进行显著特征提取处理,得到聚焦纹理图的显著特征图;
基于纹理层融合规则,对聚焦纹理图的显著特征图进行融合处理,得到融合纹理层;
考虑能量信息的分布,对红外图像的结构层、第一可见光源图像的结构层和第二可见光源图像的结构层进行融合处理,得到融合结构层;
将融合纹理层与融合结构层进行相加处理,得到最终的图像融合结果。
2.根据权利要求1所述基于多聚焦信息整合的红外与可见光图像融合方法,其特征在于,所述基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像这一步骤,其具体包括:
基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行平滑操作处理,得到红外图像的结构层、第一可见光源图像的结构层和第二可见光源图像的结构层;
将红外图像与红外图像的结构层进行相减处理、第一可见光源图像与第一可见光源图像的结构层进行相减处理、第二可见光源图像与第二可见光源图像的结构层进行相减处理,得到红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层;
分别整合红外图像的结构层与红外图像的纹理层、第一可见光源图像的结构层与第一可见光源图像的纹理层、第二可见光源图像的结构层与第二可见光源图像的纹理层,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像。
3.根据权利要求2所述基于多聚焦信息整合的红外与可见光图像融合方法,其特征在于,所述半稀疏性的图像滤波器的表达式具体如下所示:
上式中,f表示输入的图像,u表示输出的图像,α和λ表示平衡的权重,Z表示控制输出图像u的平滑度的参数,代表第n个微分算子,/>表示图像u第k个高阶梯度,/>表示第k个微分算子,其中k=1,2,3,4,5。
4.根据权利要求3所述基于多聚焦信息整合的红外与可见光图像融合方法,其特征在于,所述特征提取算子对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行特征检测处理的表达式具体如下所示:
上式中,TMm表示纹理层的显著特征图,SMm表示图像纹理层的显著像素信息,表示图像纹理层x方向的梯度信息,/>表示图像纹理层y方向的梯度信息。
5.根据权利要求4所述基于多聚焦信息整合的红外与可见光图像融合方法,其特征在于,所述纹理层融合规则的表达式具体如下所示:
上式中,FT表示融合纹理层,TM4表示聚焦纹理层T4的显著特征图,TMm表示聚焦纹理图TMm的显著特征图,Tm表示图像的纹理层,TM3表示纹理层T3的显著特征图。
6.根据权利要求5所述基于多聚焦信息整合的红外与可见光图像融合方法,其特征在于,所述通过特征提取算子对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行特征检测处理,得到红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图这一步骤,其具体包括:
对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行全局梯度信息检测,获取红外图像纹理层的梯度信息、第一可见光源图像纹理层的梯度信息和第二可见光源图像纹理层的梯度信息;
基于高斯金字塔,对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行分解处理,得到具有多个尺度的红外图像纹理层、具有多个尺度的第一可见光源图像纹理层和具有多个尺度的第二可见光源图像纹理层;
通过拉普拉斯金字塔对具有多个尺度的红外图像纹理层、具有多个尺度的第一可见光源图像纹理层和具有多个尺度的第二可见光源图像纹理层进行图像的显著像素信息检测处理,得到红外图像纹理层的特征信息、第一可见光源图像纹理层的特征信息和第二可见光源图像纹理层的特征信息;
分别整合红外图像纹理层的梯度信息与红外图像纹理层的特征信息、第一可见光源图像纹理层的梯度信息与第一可见光源图像纹理层的特征信息、第二可见光源图像纹理层的梯度信息与第二可见光源图像纹理层的特征信息,得到红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图。
7.根据权利要求6所述基于多聚焦信息整合的红外与可见光图像融合方法,其特征在于,所述考虑能量信息的分布,对红外图像的结构层、第一可见光源图像的结构层和第二可见光源图像的结构层进行融合处理,得到融合结构层这一步骤,其具体包括:
分别计算红外图像结构层的离散余弦变换块的频率方差、第一可见光源图像结构层的离散余弦变换块的频率方差和第二可见光源图像结构层的离散余弦变换块的频率方差;
对红外图像结构层的离散余弦变换块的频率方差、第一可见光源图像结构层的离散余弦变换块的频率方差和第二可见光源图像结构层的离散余弦变换块的频率方差进行取平均计算处理,得到融合结构层的第一特征值;
分别计算红外图像结构层的熵、第一可见光源图像结构层的熵和第二可见光源图像结构层的熵,得到融合结构层的第二特征值;
基于结构层融合规则,对融合结构层的第一特征值和融合结构层的第二特征值进行融合处理,得到融合结构层。
8.根据权利要求7所述基于多聚焦信息整合的红外与可见光图像融合方法,其特征在于,所述结构层融合规则的表达式具体如下所示:
上式中,FS表示融合结构层,Em表示图像结构层的熵,ψm表示图像结构层的离散余弦变换块的频率方差,Sm表示图像的结构层。
9.基于多聚焦信息整合的红外与可见光图像融合系统,其特征在于,包括以下模块:
获取模块,用于获取红外图像、第一可见光源图像和第二可见光源图像,所述第一可见光源图像和第二可见光源图像具有不同聚焦区域;
分解模块,基于半稀疏性的图像滤波器对红外图像、第一可见光源图像和第二可见光源图像进行分解处理,得到分解后的红外图像、分解后的第一可见光源图像和分解后的第二可见光源图像;
融合模块,用于通过特征提取算子对红外图像的纹理层、第一可见光源图像的纹理层和第二可见光源图像的纹理层进行特征检测处理,得到红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图;对红外图像纹理层的显著特征图、第一可见光源图像纹理层的显著特征图和第二可见光源图像纹理层的显著特征图进行绝对值取大处理,得到红外图像纹理层的聚焦决策图、第一可见光源图像纹理层的聚焦决策图和第二可见光源图像纹理层的聚焦决策图;对红外图像纹理层的聚焦决策图、第一可见光源图像纹理层的聚焦决策图和第二可见光源图像纹理层的聚焦决策图进行整合处理,得到聚焦纹理图;对聚焦纹理图进行显著特征提取处理,得到聚焦纹理图的显著特征图;基于纹理层融合规则,对聚焦纹理图的显著特征图进行融合处理,得到融合纹理层;考虑能量信息的分布,对红外图像的结构层、第一可见光源图像的结构层和第二可见光源图像的结构层进行融合处理,得到融合结构层;
相加模块,用于将融合纹理层与融合结构层进行相加处理,得到最终的图像融合结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311108029.7A CN116823694B (zh) | 2023-08-31 | 2023-08-31 | 基于多聚焦信息整合的红外与可见光图像融合方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311108029.7A CN116823694B (zh) | 2023-08-31 | 2023-08-31 | 基于多聚焦信息整合的红外与可见光图像融合方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116823694A CN116823694A (zh) | 2023-09-29 |
CN116823694B true CN116823694B (zh) | 2023-11-24 |
Family
ID=88127877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311108029.7A Active CN116823694B (zh) | 2023-08-31 | 2023-08-31 | 基于多聚焦信息整合的红外与可见光图像融合方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116823694B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117218048B (zh) * | 2023-11-07 | 2024-03-08 | 天津市测绘院有限公司 | 基于三层稀疏光滑模型的红外与可见光图像融合方法 |
CN117745555A (zh) * | 2023-11-23 | 2024-03-22 | 广州市南沙区北科光子感知技术研究院 | 基于双偏微分方程的多尺度红外和可见光图像的融合方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223265A (zh) * | 2019-05-05 | 2019-09-10 | 中国地质大学(武汉) | 基于多尺度变换分解的目标显著的图像融合方法及系统 |
AU2020100178A4 (en) * | 2020-02-04 | 2020-03-19 | Huang, Shuying DR | Multiple decision maps based infrared and visible image fusion |
CN113674319A (zh) * | 2021-08-23 | 2021-11-19 | 浙江大华技术股份有限公司 | 一种目标跟踪的方法、系统、设备及计算机存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069768B (zh) * | 2015-08-05 | 2017-12-29 | 武汉高德红外股份有限公司 | 一种可见光图像与红外图像融合处理系统及融合方法 |
-
2023
- 2023-08-31 CN CN202311108029.7A patent/CN116823694B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223265A (zh) * | 2019-05-05 | 2019-09-10 | 中国地质大学(武汉) | 基于多尺度变换分解的目标显著的图像融合方法及系统 |
AU2020100178A4 (en) * | 2020-02-04 | 2020-03-19 | Huang, Shuying DR | Multiple decision maps based infrared and visible image fusion |
CN113674319A (zh) * | 2021-08-23 | 2021-11-19 | 浙江大华技术股份有限公司 | 一种目标跟踪的方法、系统、设备及计算机存储介质 |
Non-Patent Citations (2)
Title |
---|
利用结构化和一致性约束的稀疏表示模型进行红外和可见光图像融合;王凡;王屹;刘洋;;信号处理(04);102-113 * |
基于卷积神经网络的红外与可见光图像融合;董安勇;杜庆治;苏斌;赵文博;于闻;;红外技术(07);60-69 * |
Also Published As
Publication number | Publication date |
---|---|
CN116823694A (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bhat et al. | Multi-focus image fusion techniques: a survey | |
Yang et al. | Infrared and visible image fusion using visual saliency sparse representation and detail injection model | |
CN116823694B (zh) | 基于多聚焦信息整合的红外与可见光图像融合方法及系统 | |
Işık et al. | SWCD: a sliding window and self-regulated learning-based background updating method for change detection in videos | |
CN112052831B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
CN109684925B (zh) | 一种基于深度图像的人脸活体检测方法及设备 | |
CN109509164B (zh) | 一种基于gdgf的多传感器图像融合方法及系统 | |
CN112733950A (zh) | 一种基于图像融合与目标检测结合的电力设备故障诊断方法 | |
CN110956661B (zh) | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 | |
CN109993091A (zh) | 一种基于背景消除的监控视频目标检测方法 | |
CN109509163B (zh) | 一种基于fgf的多聚焦图像融合方法及系统 | |
CN109685045A (zh) | 一种运动目标视频跟踪方法及系统 | |
Liu et al. | A computationally efficient denoising and hole-filling method for depth image enhancement | |
CN103841298A (zh) | 一种基于颜色恒量和几何不变特征的视频稳像方法 | |
CN117649606A (zh) | 一种基于本征表示模型的高光谱图像阴影去除方法与系统 | |
Chen et al. | Visual depth guided image rain streaks removal via sparse coding | |
CN105608674B (zh) | 一种基于图像配准、插值和去噪的图像增强方法 | |
Jung et al. | Multispectral fusion of rgb and nir images using weighted least squares and convolution neural networks | |
Ma et al. | Computational framework for turbid water single-pixel imaging by polynomial regression and feature enhancement | |
CN115345845B (zh) | 基于方向梯度直方图的特征融合烟幕干扰效能评估及处理方法及电子设备 | |
Farhood et al. | 3D point cloud reconstruction from a single 4D light field image | |
Zhou et al. | Scale-aware multispectral fusion of RGB and NIR images based on alternating guidance | |
Ayub et al. | CNN and Gaussian Pyramid-Based Approach For Enhance Multi-Focus Image Fusion | |
CN104732503B (zh) | 图像去雾增强方法和装置 | |
Zhang et al. | Light field salient object detection via hybrid priors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 528200 No. 33, Guangyun Road, Shishan town, Nanhai District, Foshan City, Guangdong Province Patentee after: Foshan University Country or region after: China Address before: 528200 No. 33, Guangyun Road, Shishan town, Nanhai District, Foshan City, Guangdong Province Patentee before: FOSHAN University Country or region before: China |