CN114387195A - 一种基于非全局预增强的红外图像与可见光图像融合方法 - Google Patents
一种基于非全局预增强的红外图像与可见光图像融合方法 Download PDFInfo
- Publication number
- CN114387195A CN114387195A CN202111550469.9A CN202111550469A CN114387195A CN 114387195 A CN114387195 A CN 114387195A CN 202111550469 A CN202111550469 A CN 202111550469A CN 114387195 A CN114387195 A CN 114387195A
- Authority
- CN
- China
- Prior art keywords
- image
- infrared
- visible light
- frequency
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 20
- 230000004927 fusion Effects 0.000 claims abstract description 56
- 238000000513 principal component analysis Methods 0.000 claims abstract description 14
- 230000007704 transition Effects 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 39
- 238000009826 distribution Methods 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 15
- 238000000354 decomposition reaction Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 10
- 239000000203 mixture Substances 0.000 claims description 9
- 241000282414 Homo sapiens Species 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 239000000654 additive Substances 0.000 claims description 3
- 230000000996 additive effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 230000005855 radiation Effects 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 125000001475 halogen functional group Chemical group 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于非全局预增强的红外图像与可见光图像融合方法,在红外光背景弱能量条件下,考虑图像局部空间的形态学,采用更适合红外图像结构的模糊处理方法,将图像分解为目标区域,过渡区域以及背景区域,对背景区域进行基于FPDE算法的直方图增强,通过重构得到一幅增强图像。针对红外光与可见光图像各特征之间的差异设计了一种基于期望值最大算法和主成分分析的混杂融合策略。与现有技术相比,本发明具有更好的融合性能。
Description
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种基于非全局预增强的红外图像与可见光图像融合方法。
背景技术
可见光相机通常能够感应波长在380nm~780nm之间的可见光波段,因而可见光图像具有较高的对比度、空间分辨率和丰富的细节信息,也更加符合人眼成像系统的感知,然而另一方面,可见光成像十分依赖良好的成像环境,光照差、烟雾和其他一些障碍均能轻易地对可见光成像造成显著的影响。
在学术界,多年来研究人员基于不同的数学理论提出了各种融合算法。图像融合将多源传感器采集到的关于同一目标的源图像经过算法处理,最大程度提取人们感兴趣的信息,综合成一幅利用率高的增强图像。图像融合的目的是将来自红外光传感器和可见光传感器的两组源图像,通过融合算法分配不同的权重,得到一幅真实场景图像,最终的图像包含来自源图像中人类最感兴趣的信息,即可见光源图像提供人眼可以感知到的信息,红外源图像提供具有高热辐射的互补信息。红外光与可见光图像融合是应用最广泛的一个分支,主要被应用于军事监测、医学成像系统和无人驾驶领域等。其关键问题是如何最大限度地融合来自不同传感器的信息,使融合后的单一图像可以产生最真实场景的效果。因此,图像融合技术的关键是让融合后的图像最大程度反映源图像的互补信息。
为了实现这一目标,国内外的学者提出了许多图像融合方法,根据这些算法的理论,主要可以划分为非多尺度方法和多尺度方法。基于多尺度变换的方法主要考虑图像的层次分布,比如Durga等人提出的基于四阶偏微分方程(FPDE)的图像融合算法,通过FPDE算法将图像分为高频部分和低频部分,高频部分包含图像中边缘等细节信息,低频部分包括背景信息。进而验证了基于主成分分析算法(PCA)的融合策略更适合高频区域的处理,低频区域采用平均权重可以更快的完成融合任务。此外还有Li等人提出了基于潜在低秩分解的图像融合算法(MDlatLRR),小波变换,引导滤波,非下采样shearlet变换等算法应用在图像融合领域。基于多尺度变换的方法的共同点是在源图像提取变换域中感兴趣的特征,将图像分解为不同尺度的子图像,对这些子图像采用适合的融合决策,重构得到真实场景图像。与其对应的是基于非多尺度的图像融合方法,例如Liu等人提出的基于稀疏表示算法的图像融合方法(JSR),通过一种显著性检测模型,从源图像中获得冗余区域和互补信息,通过稀疏系数计算出的显著图来引导图像融合。随着深度学习的快速发展,将深度学习算法与图像融合技术结合成为了研究热点,Li等人提出的级联卷积神经网络Densefuse算法,利用一种由卷积层、融合层和密集块组成的编码网络提取图像的特征信息,再由解码网络重构得到融合后图像,其中每层的输出跳跃输入至下一层。类似的基于深度学习框架的图像融合算法还有ResNet,CNN,VggML,IFCNN。此外,许多学者开创性的将对抗生成网络应用在图像融合任务,比如FusionGAN,DDcGAN,MFF-GAN等。
由于在红外图像和可见光图像之间亮度响应存在巨大差异,光强较低的区域通常具有极低的对比度,当它们的亮度不互补时,来自红外图像的细节可能会降低可见光图像中的原始感知信息,直接对两幅图像进行融合会使融合后的图像在非互补区域的可见度较差,因此对红外光图像信息进行对比度增强来说是非常必要的。例如在无人驾驶领域,夜间道路的坑、树及某些障碍在可见光图像中可能不会清晰的反映出来,这就需要红外光的协助,但是这些物体的热辐射信息并不会很强,所以为了以帮助辅助驾驶在恶劣的照明条件下更准确的避让,提高融合图像的可见度是很有必要的。
到目前为止,许多学者已经提出了各种非线性增强算法来解决图像在某些场景下对比度低的问题。然而,虽然红外光图像的背景区域对比度低,但是显著区域对比度很高,并不需要强化。若对整幅红外光图像采用全局统一式强化规则,强化后的某些区域会过度曝光,且红外光纹理部分会产生光晕现象。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于非全局预增强的红外图像与可见光图像融合方法。
本发明的目的可以通过以下技术方案来实现:
一种基于非全局预增强的红外图像与可见光图像融合方法,该方法包括下列步骤:
S1:基于FRFCM算法,对红外图像进行掩膜处理,获取红外图像的背景区域图像以及细节图像,并对可见光图像进行映射运算,获取可见光的目标区域。具体地:
基于FRFCM算法,采用无监督学习方式将红外图像分割为背景区域、过渡区域和细节部分三个基本区域,将背景区域的掩膜图像与红外源图像在像素级相乘,得到红外图像背景区域的提取图像,利用红外源图像与背景区域进行减法运算,获取目标区域的提取图像;利用原始红外的目标区域对可见光图像映射,将红外图像的背景区域的掩膜图像与可见光图像在像素级相乘,获取可见光图像背景区域的提取图像,将其与可见光源图像相减获取目标区域的提取图像。
S2:基于FPDE的二值化直方图对红外图像的背景区域进行增强处理。具体内容为:
采用FPDE作为引导分解算法,将原始红外图像分为基础层图像和细节层图像:
IRb=FPDE(IRoriginal)
IRd=IRoriginal-IRb
式中,FPDE为对源图像做低通滤波的函数,IRoriginal为原始红外图像,IRb为基础层图像,IRd为细节层图像;
按照下式对基础层图像IRb根据门限进行直方图二值化处理:
G=(Smax-Smin)*β+Smin
式中,G为二值化直方图门限,Smax和Smin分别为基础层图像的直方图中的最大值与最小值,β为范围为0到1的参数,决定图像中无效像素值的比例。
S3:对可见光源图像和增强后的红外图像,分别根据人类对图像局部变换敏感的视觉特性,建立相应的FPDE能量泛函,将各图像分解为高频细节区域与低频背景区域。
S4:对低频的可见光图像和低频的红外图像获取低频分量的融合结果。具体地:
首先建立图像融合模型:
SN(X,j)=α(X,j)SN(F,j)+β(X,j)+ε(X,j)
式中,X=A或B表示红外传感器标记或可见光传感器标记;j=(x,y)表示原图像X的像素点位置;SN(F,j)为融合后的低频图像在j处的像素值;α(X,j)=±1或0为传感器的分布系数,表示各个传感器的参与积极程度;ε(X,j)表示随机噪声,服从K项混合高斯分布的概率密度函数:
将完全观测数据Yc定义为:
Yc={(SN(X,l),k(X,l)):X=AorB;l=1,…,L}
式中,k(X,l)表示在高斯混合分布密度函数中,产生SN的附加随机噪声的项,待估计参数的综合F记为:
其边缘概率密度函数为:
式中,hc(SN(X,l),k(X,l)|F)为在参数条件F下对不完全数据Yc的边缘概率密度函数;采用每次更新后的参数S′N(F,l)、α′(X)、λ′k,X、σ′k,X和β′)X)重复步骤S1~S4,当参数值收敛到一个确定小的范围,停止迭代并进行下一个窗口区域的计算;当扫描完低频分量所有的像素点位置时,获取低频分量的融合结果S′N(F,l)。
S5:对高频的可见光图像和高频的红外图像获取高频分量的融合结果。即将高频的可见光图像与高频红外光图像进行PCA变换,并根据向量特征值排序依次得到主分量,再将高频图像与进行直方图匹配,通过相加得到融合后的高频图像。
具体地,从高频的可见光图像和高频的红外图像的窗口中提取像素并拼接一个维数为MN*2的数组X,计算均值向量,即数组数学期望,其被定义为:
其中,K=M×N,由协方差定义公式Cx=E{(x-mx)(x-mx)T}可得,对于M矢量作随机抽样,并求其协方差矩阵得:
设ei和λi(i=1,2,...,N)为Cx的特征向量和对应的特征值,其逆序排列,使得λj≥λj+1,j=1,2,...n-1;构造一个矩阵A,使其第一行为C的最大特征值对应的特征向量,最后一行为C的最小特征值对应的特征向量;经过主成分变换后的Y中向量的期望为0;随后通过A和Cx求得y的协方差矩阵:
Cy=A·Cx·AT
找出Cy最大特征值λmax=max(λ1,λ2),将λmax对应的特征向量作为最大的特征向量emax,通过下式对emax的主成分分量P1和P2进行归一化:
利用主成分分析确定的权值得到亮度方差最大的融合图像,即高频融合图像Dfuse:
S6:将获取的低频分量的融合结果与高频分量的融合结果进行重构,获取最终的融合图像。
本发明提供的基于非全局预增强的红外图像与可见光图像融合方法,相较于现有技术至少包括如下有益效果:
本发明在红外光背景弱能量条件下,考虑图像局部空间的形态学,采用更适合红外图像结构的模糊处理方法,将图像分解为目标区域,过渡区域以及背景区域,对背景区域进行基于FPDE算法的直方图增强,通过重构得到一幅增强图像;红外图像的背景区域的增强效果显著,且不存在部分区域过度曝光的问题,也没有出现红外光纹理部分产生光晕的现象;由于靠近低通的高频分量的频率较低,若对两幅源图像的不同区域直接融合,将导致边缘信息丢失或损失高频细小特征,且融合后图像整体不自然。此外低频分量对图像细节的表达能力较差,融合时会产生图像畸变等现象。基于此,针对红外光与可见光图像各特征之间的差异设计了一种基于期望值最大算法和主成分分析的混杂融合策略,与现有其他融合方法相比,具有更好的融合性能。
附图说明
图1为实施例中本发明基于非全局预增强的红外图像与可见光图像融合方法的流程框图;
图2为实施例中可视化红外光背景增强过程,其中(a)列为4组IR源图像,(b)列、(c)列为模糊分解过程,(d)列、(e)列为增强过程,(f)列为最终强化图像。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
实施例
本发明提供一种基于非全局预增强的红外图像与可见光图像融合方法,该方法主要分为两个阶段:首先,通过FRFCM的方法对红外光图像中的区域特征模糊化,从而可以将背景区域和目标区域划分为两部分,然后将红外光源图像中低频背景信息基于FPDE和直方图进行强化,细节区域保持原有的灰度。进而可以更好的兼顾红外图像和可见光图像间的结构差异,在保留红外的热辐射信息的同时,最大程度融入可见光的细节信息。
由于可见光图像对比度低,无法直接用FRFCM提取出与红外图像对应的目标区域,因此本发明对红外图像进行掩膜处理,然后与可见光图像进行映射运算,得到可见光的目标区域,如图1所示,本发明方法具体包括以下步骤:
1、预融合图像的生成:
虽然传统的FCM在无相似信息干扰图像的分类效果很好,但它们只考虑像素的灰度信息,会导致属于路灯、树木等其他与目标相似的区域将被FCM错误分类。为了解决过度分割的问题,FRFCM(基于形态学重建和过滤改进的FCM算法)模型在聚类之前引入局部空间信息分割,对图像的分布特性进行优化,给目标函数增加了非局部空间约束,使图像的直方图分布更有利于聚类,可以抑制这类相似背景的干扰。将红外图像分割参数设置为clustering number c=2,即把图像分为两类。进而,通过二值化的方法对红外源图像中高能量的显著目标区域和低能量的背景区域进行掩膜,对于不同的i∈c,设置0或者1。i=1代表背景区域,比如天空,地面,树木等热辐射较低的区域,这部分的像素值设置为0。i=2代表目标区域,比如人,路灯等一些热辐射较高的区域,这部分的像素值设置为1,这一区域的灰度均值比背景区域的灰度均值高。
然后,将背景区域的掩膜图像与红外光源图像在像素级相乘,可以得到红外图像背景区域的提取图像用红外源图像与背景区域进行减法运算,得到目标区域的提取图像由于可见光图像的目标热辐射较低,若直接对其分割,会丢失大部分细节。因此利用原始红外的目标区域对可见光图像映射,将红外光的背景区域的掩膜图像与可见光图像像素级相乘,得到可见光图像背景区域的提取图像并与源图像相减获得目标区域的提取图像在映射过程中,可见光图像的显著目标区域和背景区域通过掩膜被反转,实现对源图像的分割。
基于FCM的背景特征建模过程具体如下:
红外图像IR可以被表示为X={x1,x2,...,xN},其中,xj为样本元素,即第j个像素点的灰度值。N是红外图像X中的总像素数。在划分为i类模糊隶属度的条件下,可以用数学规划的方法求解满足要求的聚类结果,定义目标函数JFRFCM为:
其中c个子集表示为V={v1,v2,...,vc},为隶属度划分矩阵,表示红外图像中像素xi的灰度值l对应第i类的模糊隶属度;||ξl-vk||2为ξl到样本中心vk的欧氏距离。参数m是每个模糊隶属度上的加权指数,用于确定分类结果的模糊度,它决定分类结果的模糊程度,m∈[1,∞),其值越大分类越模糊。
在FRFCM的分类任务下一般取m=2。γl为图像中灰度值等于l的个数,且ξl为线性加权图像(linearly-weighted sum image)因子,由原始图像及其局部邻域平均图像预先形成的,表示为:
其中,xl代表像素位置l处的像素值(l=1,2,3...,q),NR代表xl的邻域L*L窗口像素的集合,α是一个很关键的参数,用来权衡图像与其对应的均值滤波图像之间的关系,当α=0时,参数ξl无效,等同于传统的FCM。当α→∞时,获得的聚类为FCM经过中值滤波后的结果。对于上述数学规划问题,采用拉格朗日乘数法得到最小值。通过引入参数λj(j=1,2,3...,r),将目标函数与约束条件组合成新的函数:
其中,代表隶属度矩阵。反复迭代更新聚类中心,同时更新隶属度矩阵。直到更新后的隶属度矩阵和先前矩阵满足ε=0.0001时,算法停止迭代,最大迭代次数为100次。在此过程中目标函数J一直在变化,同时和vi也在更新。当J逐渐趋向稳定值的时候就认为算法收敛,此时得到群集中心和隶属度矩阵。本发明将红外图像分割为三个基本区域:R1、R2、R3,分割结果反映在分割图像中,R1代表黑色区域(背景区域),R2代表灰色区域(过渡区域),R3代表白色区域(细节部分)。通过与源图像做乘运算,可以得到背景区域的图像以及细节图像。
2、细节区域分解:
从视觉角度分析,图像中低频分量包含了背景信息,这部分的图像主要提供与源图像近似的特征,称为近似图像。高频分量的纹理信息主要提供细节或边缘的梯度组成,称为细节图像。由于靠近低通的高频分量的频率较低,若对两幅源图像的不同区域直接融合,将导致边缘信息丢失或损失高频细小特征,且融合后图像整体不自然。此外低频分量对图像细节的表达能力较差,融合时会产生图像畸变等现象。因此需要对增强后的IR图像(红外图像)和VIS源图像(可见光图像),根据人类对图像局部变换敏感的视觉特性,建立相应的FPDE能量泛函,将图像分解为高频细节区域与低频背景区域。
与一般的频域数字图像处理工具不同,基于偏微分方程的方法(PDE)是将图像视为连续的对象。通过对图像进行无穷小运算的迭代,可以使图像的分解更加准确。FPDE方法的基本思想是在保持源图像的原有信息的基础上,对图像进行平滑化,达到某种程度的最优化。根据人类对图像局部变换敏感的视觉特性,建立相应的能量泛函,进而将图像分解过程转化为求能量泛函极小的问题。首先,为了找到能量泛函的极小值,在Ω集下的连续图像空间中建立能量泛函。进而,源图像经过边保留分解过程被分解得到近似图像(SAVIS,SAIR)。
本发明提出使用基于四阶偏微分方程(FPDE)的二值化直方图处理来自适应增强红外图像的背景区域。由于FPDE具有良好的平滑和边缘保持特性,且具有很好的实时性。采用FPDE作为引导分解算法,将原始红外图像分为基础层图像和细节层图像:
IRb=FPDE(IRoriginal)
IRd=IRoriginal-IRb
上方两个公式中,FPDE为对源图像做低通滤波的函数,IRoriginal代表原始图像,IRb为基础层图像,IRd为细节层图像。基础层IRb图像包含原始图像较为丰富的场景信息。对红外光背景区域IRb二值化直方图门限G,如下式所示:
G=(Smax-Smin)*β+Smin
式中,Smax和Smin分别为基础层图像直方图中的最大值与最小值。β是范围为0到1的参数,决定图像中无效像素值的比例。通常认为95%置信区间内的灰度值为有效的,其余5%灰度值为无效,因此上式中的β值设置为0.05。
图2示出了本发明可视化红外光背景增强过程。其中(a)列为4组IR源图像,(b)、(c)为模糊分解过程,(d)、(e)为增强过程,(f)为最终强化图像。根据图2可知,红外图像的背景区域的增强效果显著,且不存在部分区域过度曝光的问题,也没有出现红外光纹理部分产生光晕的现象。
3、融合策略:
由于背景和目标区域的图像结构不同,若直接进行融合会导致部分信息丢失,所以针对FPDE分解后的图像,制定适合图像结构,且快速的融合策略。对于目标区域,要考虑如何最大程度的保持红外光图像的高亮度信息,同时融入可见光图像的纹理细节信息。基于统计模型的图像融合方法能够降低噪声对融合结果的影响,增强融合图像的信噪比,因此这种算法可以减少可见光图像的噪声干扰,且不会造成明显的人为处理痕迹,所以这种统计模型非常适合作为目标区域的融合策略。然而,图像的统计特性近似服从高斯混合模型,如果将图像的通频带部分信号模拟成噪声,容易造成融合结果中高频信息的损失。所以假定图像的统计分布为非高斯分布的(高斯混合分布)。同时根据不同的传感器对场景的偏移不同,在图像的形成模型中加入成像传感器的偏移参数。以像素j为中心的5×5邻域大小的窗口,即整幅图像的处理通过滑动窗口的方式进行。将得到的新参数重新代入预融合图像的生成步骤以及细节区域分解步骤进行迭代。上述迭代过程中,当参数收敛趋于稳定,确定低频分量融合得到的目标区域图像。对于红外光与可见光图像背景区域中高频分量的融合,选取采用一种基于主成分分析(PCA)算法。主成分分析的降维处理方式应用在图像处理上往往容易获得大尺度下的纹理和细节信息。因此,将PCA应用于背景区域的融合,可以很好地对背景区域中的细节、线条和边缘进行捕捉,从而保留图像的主要的细节信息。
具体地,首先,本发明建立图像融合模型如下:
SN(X,j)=α(X,j)SN(F,j)+β(X,j)+ε(X,j)
其中X=A或B表示红外或可见光传感器标记;j=(x,y)表示原图像X的像素点位置。SN(F,j)为融合后的低频图像在j处的像素值,是个待估计参数;α(X,j)=±1或0是指传感器的分布系数,表示各个传感器的参与积极程度。ε(X,j)表示随机噪声,服从K项混合高斯分布的概率密度函数:
将完全观测数据Yc定义如下:
Yc={(SN(X,l),k(X,l)):X=AorB;l=1,…,L}
其中,k(X,l)表示在高斯混合分布密度函数中,产生SN的附加随机噪声的项。待估计参数的综合F记为:
其边缘概率密度函数为:
其中,hc(SN(X,l),k(X,l)|F)是在参数条件F下对不完全数据Yc的边缘概率密度函数。使用每次更新后的参数S′N(F,l)、α′(X)、λ′k,X、σ′k,X和β′(X)重复计算预融合图像的生成步骤以及细节区域分解步骤。当参数值收敛到一个确定小的范围,停止迭代并进行下一个窗口区域的计算。当扫描完低频分量所有的像素点位置时,也就求得了低频分量的融合结果S′N(F,l)。
通过计算出相对原样本极少的主分量,替换掉原样本的全部维度,尽可能地对原数据进行表示,而且彼此之间互不相关,进而实现数据的降维,将高频的可见光图像SVIS·D(i,j)与高频红外光图像SIR·D(i,j)进行PCA变换,并根据向量特征值排序依次得到主分量P1,P2,再将高频图像与P1,P2进行直方图匹配,通过相加得到融合后的高频图像。具体地:
首先,从两种高频图像的窗口中提取像素并拼接一个维数为MN*2的数组X,然后计算均值向量,也就是数组数学期望,其被定义为:
其中,K=M×N。由协方差定义公式Cx=E{(x-mx)(x-mx)T}可得,对于M矢量作随机抽样,并求其协方差矩阵得:
设ei和λi(i=1,2,...,N)是Cx的特征向量和对应的特征值,其逆序排列,使得λj≥λj+1,j=1,2,...n-1。构造一个矩阵A,使其第一行为C的最大特征值对应的特征向量,最后一行为C的最小特征值对应的特征向量。经过主成分变换后的Y中向量的期望为0。接下来通过A和Cx求得y的协方差矩阵:
Cy=A·Cx·AT
找出Cy最大特征值λmax=max(λ1,λ2),将λmax对应的特征向量看作是最大的特征向量emax,通过下列式子对emax的主成分分量P1和P2进行归一化:
利用主成分分析确定的权值可以得到一幅亮度方差最大的融合图像,即高频融合图像Dfuse:
将按照上述方法得到的低频融合图像与高频融合图像重构后,获取最终增强的融合图像。
本发明在红外光背景弱能量条件下,考虑图像局部空间的形态学,采用更适合红外图像结构的模糊处理方法,将图像分解为目标区域,过渡区域以及背景区域,对背景区域进行基于FPDE算法的直方图增强,通过重构得到一幅增强图像;红外图像的背景区域的增强效果显著,且不存在部分区域过度曝光的问题,也没有出现红外光纹理部分产生光晕的现象;由于靠近低通的高频分量的频率较低,若对两幅源图像的不同区域直接融合,将导致边缘信息丢失或损失高频细小特征,且融合后图像整体不自然。此外低频分量对图像细节的表达能力较差,融合时会产生图像畸变等现象。基于此,针对红外光与可见光图像各特征之间的差异设计了一种基于期望值最大算法和主成分分析的混杂融合策略,与现有其他融合方法相比,具有更好的融合性能。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (6)
1.一种基于非全局预增强的红外图像与可见光图像融合方法,其特征在于,包括下列步骤:
1)基于FRFCM算法,对红外图像进行掩膜处理,获取红外图像的背景区域图像以及细节图像,并对可见光图像进行映射运算,获取可见光的目标区域;
2)基于FPDE的二值化直方图对红外图像的背景区域进行增强处理;
3)对可见光源图像和增强后的红外图像,分别根据人类对图像局部变换敏感的视觉特性,建立相应的FPDE能量泛函,将各图像分解为高频细节区域与低频背景区域;
4)对低频的可见光图像和低频的红外图像获取低频分量的融合结果;
5)对高频的可见光图像和高频的红外图像获取高频分量的融合结果;
6)将获取的低频分量的融合结果与高频分量的融合结果进行重构,获取最终的融合图像。
2.根据权利要求1所述的基于非全局预增强的红外图像与可见光图像融合方法,其特征在于,步骤1)的具体内容为:
基于FRFCM算法,采用无监督学习方式将红外图像分割为背景区域、过渡区域和细节部分三个基本区域,将背景区域的掩膜图像与红外源图像在像素级相乘,得到红外图像背景区域的提取图像,利用红外源图像与背景区域进行减法运算,获取目标区域的提取图像;利用原始红外的目标区域对可见光图像映射,将红外图像的背景区域的掩膜图像与可见光图像在像素级相乘,获取可见光图像背景区域的提取图像,将其与可见光源图像相减获取目标区域的提取图像。
3.根据权利要求1所述的基于非全局预增强的红外图像与可见光图像融合方法,其特征在于,基于FPDE的二值化直方图对红外图像的背景区域进行增强处理的具体内容为:
采用FPDE作为引导分解算法,将原始红外图像分为基础层图像和细节层图像:
IRb=FPDE(IRoriginal)
IRd=IRoriginal-IRb
式中,FPDE为对源图像做低通滤波的函数,IRoriginal为原始红外图像,IRb为基础层图像,IRd为细节层图像;
按照下式对基础层图像IRb根据门限进行直方图二值化处理:
G=(Smax-Smin)*β+Smin
式中,G为二值化直方图门限,Smax和Smin分别为基础层图像的直方图中的最大值与最小值,β为范围为0到1的参数,决定图像中无效像素值的比例。
4.根据权利要求1所述的基于非全局预增强的红外图像与可见光图像融合方法,其特征在于,步骤4)的具体内容为:
首先建立图像融合模型:
SN(X,j)=α(X,j)SN(F,j)+β(X,j)+ε(X,j)
式中,X=A或B表示红外传感器标记或可见光传感器标记;j=(x,y)表示原图像X的像素点位置;SN(F,j)为融合后的低频图像在j处的像素值;α(X,j)=±1或0为传感器的分布系数,表示各个传感器的参与积极程度;ε(X,j)表示随机噪声,服从K项混合高斯分布的概率密度函数:
将完全观测数据Yc定义为:
Yc={(SN(X,l),k(X,l)):X=AorB;l=1,…,L}
式中,k(X,l)表示在高斯混合分布密度函数中,产生SN的附加随机噪声的项,待估计参数的综合F记为:
其边缘概率密度函数为:
式中,hc(SN(X,l),k(X,l)|F)为在参数条件F下对不完全数据Yc的边缘概率密度函数;采用每次更新后的参数S′N(F,l)、α′(X)、λ′k,X、σ′k,X和β′(X)重复步骤1)~步骤4),当参数值收敛到一个确定小的范围,停止迭代并进行下一个窗口区域的计算;当扫描完低频分量所有的像素点位置时,获取低频分量的融合结果S′N(F,l)。
5.根据权利要求1所述的基于非全局预增强的红外图像与可见光图像融合方法,其特征在于,步骤5)中,将高频的可见光图像与高频红外光图像进行PCA变换,并根据向量特征值排序依次得到主分量,再将高频图像与进行直方图匹配,通过相加得到融合后的高频图像。
6.根据权利要求5所述的基于非全局预增强的红外图像与可见光图像融合方法,其特征在于,步骤5)的具体内容为:
从高频的可见光图像和高频的红外图像的窗口中提取像素并拼接一个维数为MN*2的数组X,计算均值向量,即数组数学期望,其被定义为:
其中,K=M×N,由协方差定义公式Cx=E{(x-mx)(x-mx)T}可得,对于M矢量作随机抽样,并求其协方差矩阵得:
设ei和λi(i=1,2,...,N)为Cx的特征向量和对应的特征值,其逆序排列,使得λj≥λj+1,j=1,2,...n-1;构造一个矩阵A,使其第一行为C的最大特征值对应的特征向量,最后一行为C的最小特征值对应的特征向量;经过主成分变换后的Y中向量的期望为0;随后通过A和Cx求得y的协方差矩阵:
Cy=A·Cx·AT
找出Cy最大特征值λmax=max(λ1,λ2),将λmax对应的特征向量作为最大的特征向量emax,通过下式对emax的主成分分量P1和P2进行归一化:
利用主成分分析确定的权值得到亮度方差最大的融合图像,即高频融合图像Dfuse:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111550469.9A CN114387195A (zh) | 2021-12-17 | 2021-12-17 | 一种基于非全局预增强的红外图像与可见光图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111550469.9A CN114387195A (zh) | 2021-12-17 | 2021-12-17 | 一种基于非全局预增强的红外图像与可见光图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114387195A true CN114387195A (zh) | 2022-04-22 |
Family
ID=81197690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111550469.9A Pending CN114387195A (zh) | 2021-12-17 | 2021-12-17 | 一种基于非全局预增强的红外图像与可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114387195A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862739A (zh) * | 2022-07-06 | 2022-08-05 | 珠海市人民医院 | 一种医学影像智能增强方法和系统 |
CN115393590A (zh) * | 2022-08-26 | 2022-11-25 | 湖南科技大学 | 一种用于绞车排缆状态视觉判别图像增强方法 |
CN116681629A (zh) * | 2023-08-03 | 2023-09-01 | 国网安徽省电力有限公司超高压分公司 | 变电站主变压器可见光图像自适应对比度增强方法及系统 |
CN117745555A (zh) * | 2023-11-23 | 2024-03-22 | 广州市南沙区北科光子感知技术研究院 | 基于双偏微分方程的多尺度红外和可见光图像的融合方法 |
CN118379835A (zh) * | 2024-06-21 | 2024-07-23 | 广东力科新能源有限公司 | 一种便携式安防系统 |
CN118628378A (zh) * | 2024-08-07 | 2024-09-10 | 晓智未来(成都)科技有限公司 | 基于CycleGAN的X光图像增强方法 |
-
2021
- 2021-12-17 CN CN202111550469.9A patent/CN114387195A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862739A (zh) * | 2022-07-06 | 2022-08-05 | 珠海市人民医院 | 一种医学影像智能增强方法和系统 |
CN114862739B (zh) * | 2022-07-06 | 2022-09-23 | 珠海市人民医院 | 一种医学影像智能增强方法和系统 |
CN115393590A (zh) * | 2022-08-26 | 2022-11-25 | 湖南科技大学 | 一种用于绞车排缆状态视觉判别图像增强方法 |
CN116681629A (zh) * | 2023-08-03 | 2023-09-01 | 国网安徽省电力有限公司超高压分公司 | 变电站主变压器可见光图像自适应对比度增强方法及系统 |
CN116681629B (zh) * | 2023-08-03 | 2023-10-27 | 国网安徽省电力有限公司超高压分公司 | 变电站主变压器可见光图像自适应对比度增强方法及系统 |
CN117745555A (zh) * | 2023-11-23 | 2024-03-22 | 广州市南沙区北科光子感知技术研究院 | 基于双偏微分方程的多尺度红外和可见光图像的融合方法 |
CN118379835A (zh) * | 2024-06-21 | 2024-07-23 | 广东力科新能源有限公司 | 一种便携式安防系统 |
CN118379835B (zh) * | 2024-06-21 | 2024-10-01 | 广东力科新能源有限公司 | 一种便携式安防系统 |
CN118628378A (zh) * | 2024-08-07 | 2024-09-10 | 晓智未来(成都)科技有限公司 | 基于CycleGAN的X光图像增强方法 |
CN118628378B (zh) * | 2024-08-07 | 2024-10-18 | 晓智未来(成都)科技有限公司 | 基于CycleGAN的X光图像增强方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111797716B (zh) | 一种基于Siamese网络的单目标跟踪方法 | |
Xiao et al. | Making of night vision: Object detection under low-illumination | |
CN110956094B (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
CN114387195A (zh) | 一种基于非全局预增强的红外图像与可见光图像融合方法 | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
Bhalla et al. | Fusion of Infrared and Visible Images Using Fuzzy Based Siamese Convolutional Network. | |
Li et al. | Deep dehazing network with latent ensembling architecture and adversarial learning | |
CN116311254B (zh) | 一种恶劣天气情况下的图像目标检测方法、系统及设备 | |
CN114627269A (zh) | 一种基于深度学习目标检测的虚拟现实安防监控平台 | |
CN113298147A (zh) | 基于区域能量和直觉模糊集的图像融合方法及装置 | |
Chen et al. | Colorization of infrared images based on feature fusion and contrastive learning | |
CN116883303A (zh) | 基于特征差分补偿与融合的红外与可见光图像融合方法 | |
CN115984323A (zh) | 基于空频域均衡的双级融合rgbt跟踪算法 | |
CN114155165A (zh) | 一种基于半监督的图像去雾方法 | |
CN111695436B (zh) | 一种基于目标增强的高空间分辨率遥感图像场景分类方法 | |
CN117037064B (zh) | 基于改进ssd的非法占用国土耕地行为的检测方法与系统 | |
Huang et al. | Image dehazing based on robust sparse representation | |
Honnutagi et al. | Underwater video enhancement using manta ray foraging lion optimization-based fusion convolutional neural network | |
Zhang et al. | A compensation textures dehazing method for water alike area | |
CN115239607A (zh) | 一种红外和可见光图像自适应融合的方法及系统 | |
Fan et al. | Image defogging approach based on incident light frequency | |
Babu et al. | Development and performance evaluation of enhanced image dehazing method using deep learning networks | |
Luo et al. | Natural object detection in outdoor scenes based on probabilistic spatial context models | |
Li et al. | Reconstructed saliency for infrared pedestrian images | |
Subhashini et al. | Implementation of Satellite Road Image Denoising using Iterative Domain Guided Image Filtering with Gray World Optimization. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |