CN113449658A - 基于空域、频域、时域的夜间视频序列显著性检测方法 - Google Patents
基于空域、频域、时域的夜间视频序列显著性检测方法 Download PDFInfo
- Publication number
- CN113449658A CN113449658A CN202110756534.7A CN202110756534A CN113449658A CN 113449658 A CN113449658 A CN 113449658A CN 202110756534 A CN202110756534 A CN 202110756534A CN 113449658 A CN113449658 A CN 113449658A
- Authority
- CN
- China
- Prior art keywords
- matrix
- spectrum
- domain
- saliency
- significance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 57
- 238000001228 spectrum Methods 0.000 claims abstract description 82
- 238000000034 method Methods 0.000 claims abstract description 66
- 230000004927 fusion Effects 0.000 claims abstract description 18
- 239000011159 matrix material Substances 0.000 claims description 86
- 238000009792 diffusion process Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 16
- 230000002123 temporal effect Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 125000004432 carbon atom Chemical group C* 0.000 claims description 5
- 230000000295 complement effect Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 150000001875 compounds Chemical class 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于空域、频域、时域的夜间视频序列显著性检测方法,包括如下步骤:针对空域显著性检测,将视频帧分割成超像素,计算其局部和全局协方差矩阵;针对频域显著性检测,调整幅度谱并与原始相位谱组合再执行快速傅里叶逆变换;针对时域显著性检测,通过增量学习以更新高维视频流中的背景模型,通过背景差分法获得运动目标;将空域显著图、频域显著图和时域显著图进行动态权重融合,得到整个图像的显著图。本发明通过多模态融合策略使空间域、频率域和时间域可以互相补充和约束,最大程度地提高了显著物体检测的效率,能够高效的获得更加准确的显著图,同时对于夜间视频帧,能够很好的提取出显著性目标。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于空域、频域、时域的夜间视频序列显著性检测方法。
背景技术
在过去的几十年中,显著性检测的研究呈指数增长。由于人类视觉系统具有注意力机制,因此人们可以从复杂的环境中快速挑选出最有趣的区域。通过模拟这种机制,显著目标检测在各种应用中具有巨大潜力,包括自动目标检测、图像分割、目标识别等。
显著性检测作为图像处理中的一项至关重要的技术,可以从混乱的环境中高效地提取最有用的信息,因此在计算机视觉领域越来越受到关注。现有的显著性模型可以在环境良好控制的标准图像数据集或视频数据集中获得理想的检测结果。但是,这些传统的显著性计算模型面临亮度低、信噪比低、几乎没有色彩信息属性的夜间图像/视频的巨大挑战,由于缺乏明确的特征而难以解释显著性信息。在这种情况下,很难提取有效的视觉特征来描述重要信息。因此,夜间视频中的显著性检测仍然是一项艰巨的任务。由于在夜间条件下,前景与背景之间几乎没有差异,因此传统的显著性模型无法获得令人满意的结果。
发明内容
本发明为了克服以上技术的不足,提供了一种基于空域、频域、时域的夜间视频序列显著性检测方法,该方法在夜间视频序列中有效,能够为夜间安防、军事夜间侦察、夜间智能农业技术、无人驾驶汽车、复杂环境目标定位等热点问题提供解决方案。
通常,空间域方法主要着眼于局部信息,并且可以检测到显著物体的内部细节,而它们却很难突出物体的轮廓,并且对复杂的背景敏感。相反,频域方法旨在利用全局信息,它们可以准确地定位显著目标并定义边缘信息。由于运动目标比静态目标更出色,因此可以通过时域方法有效地抑制无关的背景信息。多模态融合策略使这些方法可以互相补充和完善,最大程度地提高显著物体检测的效率。本发明提出的基于空域、频域、时域的夜间视频序列显著性检测方法,可以通过多模态融合策略学习夜间视频序列中的显著特征来估计视频序列的显著性。
本发明克服其技术问题所采用的技术方案是:
一种基于空域、频域、时域的夜间视频序列显著性检测方法,包括如下步骤:
针对空域显著性检测,将视频帧分割成超像素,计算其局部和全局协方差矩阵;
针对频域显著性检测,调整幅度谱并与原始相位谱组合再执行快速傅里叶逆变换;
针对时域显著性检测,通过增量学习以更新高维视频流中的背景模型,通过背景差分法获得运动目标;
将空域显著图、频域显著图和时域显著图进行动态权重融合,得到整个图像的显著图。
进一步地,空域显著性检测的步骤包括:
S11、将输入的视频帧分割成超像素并定义图模型;
S12、建立基于图模型的流形排序模型;
S13、计算低级特征的协方差矩阵,用以估计每个超像素的局部和全局显著性;
S14、通过实施扩散过程优化超像素级显著性图。
进一步地,步骤S11具体包括:
利用简单的线性迭代聚类算法将给定的视频帧简化为超像素:
Spixel(i),i=1,···,N
上式中,N为超像素总数;
将图像分割成超像素之后,构建具有N个节点的图G=(V,E)来表示输入图像帧,其中,V表示节点,每个节点对应一个超像素,E是设置的边缘,并由亲和力矩阵Amatrix=[wij]N×N加权,其中,表示节点vi和vj之间的权重,常数σ是控制字符;
S*=Diffmatrix·s (1)
上式中,Diffmatrix表示扩散矩阵。
进一步地,步骤S12具体包括:
给定图G,每个节点的排名值Si通过排名函数分配给查询向量,即显著性种子s,最佳排名通过以下方式计算:
上式中,μ用来平衡光滑度和拟合约束,dii=Σjwij是次数矩阵Degmatrix=diag{d11,···,dNN}的元素;
排名函数,即显著性扩散S*也可以定义为:
S*=(Imatrix-b·Lmatrix)-1 s (3)
上式中,Imatrix是图G的单位矩阵,参数b=1/(1+μ)控制流形排序中一元和成对电势的平衡,并且Lmatrix=Degmatrix -1/2·Amatrix·Degmatrix -1/2是归一化的拉普拉斯矩阵。
进一步地,步骤13具体包括:
提取几个简单视觉特征:亮度、方向、清晰度和频谱,基于这些特征,将输入视频帧转换为五维特征向量:
上式中,Ligh(x,y)表示LAB颜色空间中的亮度分量,和表示强度图的一阶导数范数,该范数可以表示边缘方向信息,且对于对比度的变化不敏感,清晰度特征Shar(x,y)通过灰度图和在垂直与水平方向上的高斯一阶导数的卷积计算得出,频谱特征Spec(x,y)通过对数频谱和幅度之间的差异来测量;
对于F内部的每个超像素区域SP(i),通过以下方式将其表示为5×5协方差矩阵:
两个协方差矩阵之间的相异性通过以下方式来度量:
上式中,{λk(Ci,Cj)}表示Ci和Cj的广义特征值,k=1,…,5,它们通过以下方式获得:
λkCixk-Cjxk=0(7)
上式中,{xk}表示Ci和Cj的广义特征向量,k=1,…,5;
对于每个Spixel(i),i=1,···,N,其超像素区域的显著性值Ri由Ri与其周围区域之间的协方差差异的加权平均值定义,Ri的周围区域表示为Rj,j=1,···,ηi;
对于局部显著性估计,Ri的周围区域根据其亲和力矩阵找到,Ri的局部显著性计算为:
上式中,ηi是Ri相邻超像素区域的数量,d(Ri,Rj)表示Ri与Rj之间的差异,由下式给出:
上式中,Ci和Cj分别表示Ri和Rj的协方差矩阵,c*(i)和c*(j)分别表示Ri和Rj的图像中心;
为了进行全局显著性估计,将整个图像区域RI视为Ri的周围区域,并且通过以下公式获得Ri与RI之间的差异d′(Ri,RI):
上式中,CI是RI的协方差矩阵,c*(I)是RI的图像中心。
进一步地,步骤14具体包括:
在计算所有超像素区域的显著性之后,获得显著性种子s,显著性种子s中包含每个图节点的显著性值s1,s2,···,sN;然后,使用扩散过程通过等式(1)优化超像素之间的显著性值;
最后,通过局部和全局方法获得两个不同的显著性图,分别表示为S* local和S* global,两者彼此互补;这两个显著性图通过加权几何平均值进行结合得到空域显著图,计算如下:
SSalmap=S* local θ×S* global 1-θ (11)
上式中,0≤θ≤1。
进一步地,频域显著性检测是基于频域的显著目标检测对于输入视频帧,通过限制幅度谱中的峰值来突出显著区域,具体包括如下:
首先,图像通过快速傅立叶变换经以下方式转换为频谱:
上式中,I(x,y)和Fspectrum(u,v)分别表示空间域和频率域中的图像像素,width和height表示图像的宽度和高度;
振幅谱表示为Aspectrum(u,v),相位谱表示为Pspectrum(u,v),分别通过下式获得:
Aspectrum(u,v)=abs(Fspectrum(u,v)) (13)
Pspectrum(u,v)=angle(Fspectrum(u,v)) (14)
上式中,abs(·)和angle(·)分别表示幅度谱函数和相位谱函数;
通过使用中值滤波器,消除幅度频谱的峰值:
Aspectrum′(u,v)=medfilt2(Aspectrum(u,v)) (15)
上式中,medfilt2(·)代表中值滤波函数;
然后,新的频域图通过下式得到:
Fspectrum′(u,v)=|Aspectrum′(u,v)|e-jPspectrum(u,v) (16)
上式中,|·|表示绝对值;
最后,将原始相位频谱和滤波后的幅度频谱组合起来以形成新频谱,通过执行快速傅里叶逆变换获得频域显著图:
进一步地,时域显著性检测具体包括如下步骤:
将上式通过以下方式交替最小化来解决:
等式(20)的问题通过计算带有r个分量的M-Smatrix(j)的稀奇异值分解来解决;
等式(21)的解是:
shrink(M-LRmatrix(j+1),λ*) (22)
式中,
shrink(x,ε)=sign(x)max{0,|x|-ε} (23)。
式中,ε表示收缩率,Smatrix表示运动物体,即可作为时域显著图,因此通过求解Smatrix可以得到视频帧M的时域显著图TSalmap。
进一步地,将空域显著图、频域显著图和时域显著图进行动态权重融合,具体包括如下:
在间隔[0,1]中对所得的空域显著图SSalmap、频域显著图FSalmap和时域显著图TSalmap进行归一化,归一化特征图的计算如下:
基于运动对比度和图像对比度将空域、频域和时域显著图进行整合,令α表示运动对比度,如果在序列中α较高,则时间模型比空间模型和频率模型更占优势;β代表图像对比度,如果在序列中β较高,则空间模型和频率模型对最终结果的贡献更大,故时间模型的融合权重降低;基于这两个动态权重,融合的显著图将更准确,可以通过以下方式获得:
α=max(Sm(:))-median(Sm(:)) (26)
融合空域、频域和时域的显著图即为整个图像的显著图。
本发明的有益效果是:
本发明通过多模态融合策略使空间域、频率域和时间域可以互相补充和约束,最大程度地提高了显著物体检测的效率,能够高效的获得更加准确的显著图,同时对于夜间视频帧,能够很好的提取出显著性目标。
附图说明
图1为本发明所述的基于空域、频域、时域的夜间视频序列显著性检测方法的流程示意图。
图2为本发明实施例所述的空域、频域和时域的显著图,其中,(a)列表示输入的视频帧,(b)列表示空域显著图,(c)列表示频域显著图,(d)列表示时域显著图,(e)列表示本发明融合后的显著图,(f)列表示标注的对应图像中潜在显著目标区域。
图3为采用现有的六种视频显著性检测方法和本发明的方法分别在NTT数据集、MCL数据集和NV数据集上测试所得到的显著图的主观性能对比图,其中,(a)列表示输入视频帧,(b)列表示输入视频帧对应的基准显著图,(c)-(i)列分别表示采用基于时空线索的STC方法、基于显著性优化的SO方法、基于引导学习的BL方法、基于通用推广的GP方法、基于时空色背景线索的SCC方法、基于随机行走的RWR方法和本发明方法所得到的显著图。
图4为采用现有的六种视频显著性检测方法和本发明的方法分别在NTT数据集、MCL数据集和NV数据集上测试所得到结果的真阳性率-假阳性率曲线性能对比图。
图5为采用现有的六种视频显著性检测方法和本发明的方法分别在NTT数据集、MCL数据集和NV数据集上测试所得的精度、召回率和F值性能对比图。
具体实施方式
为了便于本领域人员更好的理解本发明,下面结合附图和具体实施例对本发明做进一步详细说明,下述仅是示例性的不限定本发明的保护范围。
如图1所示,本实施例公开了一种基于空域、频域、时域的夜间视频序列显著性检测方法,包括如下步骤:
步骤一、针对空域显著性检测,将视频帧分割成超像素,计算其局部和全局协方差矩阵。
本实施例中,空域显著性检测的步骤包括:
S11、将输入的视频帧分割成超像素并定义图模型。
具体地,利用简单的线性迭代聚类算法(simple linear iterative clustering,SLIC)将给定的视频帧简化为超像素:
Spixel(i),i=1,···,N
上式中,N为超像素总数;由于SLIC算法的时间消耗随着超像素数的增加而增加并且当超像素数大于200时,边界召回率将降低,因此,在本实施例中,最佳超像素个数设置为N=200。
将图像分割成超像素之后,构建具有N个节点的图G=(V,E)来表示输入图像帧,其中,V表示节点,每个节点对应一个超像素,E是设置的边缘,并由亲和力矩阵Amatrix=[wij]N×N加权,其中,表示节点vi和vj之间的权重,常数σ是控制字符;
给定图G和显著性种子s=[s1,s2,···,sN]T,扩散过程基于最佳亲和力矩阵通过图G传播显著性种子s;反映所有节点的显著性值的显著性扩散S*=[S* 1,S* 2,···,S* N]T通过以下方式计算:
S*=Diffmatrix·s (1)
上式中,Diffmatrix表示扩散矩阵。
S12、建立基于图模型的流形排序模型。
流形排序的目的是为图中的每个节点计算一个排名,利用图G的流形排序,可以更准确地描述超像素之间的相似性。
给定图G,每个节点的排名值Si通过排名函数分配给查询向量,即显著性种子s,最佳排名通过以下方式计算:
上式中,μ用来平衡光滑度和拟合约束,dii=Σjwij是次数矩阵Degmatrix=diag{d11,···,dNN}的元素;
排名函数,即显著性扩散S*也可以定义为:
S*=(Imatrix-b·Lmatrix)-1 s (3)
上式中,Imatrix是图G的单位矩阵,参数b=1/(1+μ)控制流形排序中一元和成对电势的平衡,并且Lmatrix=Degmatrix -1/2·Amatrix·Degmatrix -1/2是归一化的拉普拉斯矩阵。
S13、计算低级特征的协方差矩阵,用以估计每个超像素的局部和全局显著性。
将图像超像素的协方差矩阵视为显著性估计的元特征。通过非线性方式将多维图像特征集成到协方差矩阵中,可以有效地对输入图像进行聚类,并且可以在很大程度上保留有效特征信息。
提取几个简单视觉特征:亮度、方向、清晰度和频谱,基于这些特征,将输入视频帧转换为五维特征向量:
上式中,Ligh(x,y)表示LAB颜色空间中的亮度分量,亮度反映了视觉系统对发光量的感知,这是衡量夜间视频帧显著性的重要指标;和表示强度图的一阶导数范数,该范数可以表示边缘方向信息,且对于对比度的变化不敏感;清晰度特征Shar(x,y)通过灰度图和在垂直与水平方向上的高斯一阶导数的卷积计算得出,可以通过清晰度功能区分灰度等级和前景的详细信息;频谱特征Spec(x,y)通过对数频谱和幅度之间的差异来测量,视频序列信号可以由幅度谱(主要包含对比度信息)和相位谱(通常包含信号特征)的加权和表示,因此可以保留显著目标的结构信息。
对于F内部的每个超像素区域SP(i),通过以下方式将其表示为5×5协方差矩阵:
可能相关的多个特征可以通过协方差矩阵自然融合,两个协方差矩阵之间的相异性通过以下方式来度量:
上式中,{λk(Ci,Cj)}表示Ci和Cj的广义特征值,k=1,…,5,它们通过以下方式获得:
λkCixk-Cjxk=0 (7)
上式中,{xk}表示Ci和Cj的广义特征向量,k=1,…,5;
对于每个Spixel(i),i=1,···,N,其超像素区域的显著性值Ri由Ri与其周围区域之间的协方差差异的加权平均值定义,Ri的周围区域表示为Rj,j=1,···,ηi;
对于局部显著性估计,Ri的周围区域根据其亲和力矩阵找到,Ri的局部显著性计算为:
上式中,ηi是Ri相邻超像素区域的数量,d(Ri,Rj)表示Ri与Rj之间的差异,由下式给出:
上式中,Ci和Cj分别表示Ri和Rj的协方差矩阵,c*(i)和c*(j)分别表示Ri和Rj的图像中心;
为了进行全局显著性估计,将整个图像区域RI视为Ri的周围区域,并且通过以下公式获得Ri与RI之间的差异d′(Ri,RI):
上式中,CI是RI的协方差矩阵,c*(I)是RI的图像中心。
S14、通过实施扩散过程优化超像素级显著性图。
具体地,在计算所有超像素区域的显著性之后,获得显著性种子s,显著性种子s中包含每个图节点的显著性值s1,s2,···,sN;然后,使用扩散过程通过等式(1)优化超像素之间的显著性值;
最后,通过局部和全局方法获得两个不同的显著性图,分别表示为S* local和S* global,两者彼此互补;这两个显著性图通过加权几何平均值进行结合得到空域显著图,计算如下:
SSalmap=S* local θ×S* global 1-θ (11)
上式中,0≤θ≤1,当θ=0.5时,可以提供良好的性能,从而可以保证较高的相关系数和较低的均方根误差。
步骤二、针对频域显著性检测,调整幅度谱并与原始相位谱组合再执行快速傅里叶逆变换。
频域显著性检测是基于频域的显著目标检测对于输入视频帧,通过限制幅度谱中的峰值来突出显著区域,具体包括如下:
首先,图像通过快速傅立叶变换经以下方式转换为频谱:
上式中,I(x,y)和Fspectrum(u,v)分别表示空间域和频率域中的图像像素,width和height表示图像的宽度和高度;
振幅谱表示为Aspectrum(u,v),相位谱表示为Pspectrum(u,v),分别通过下式获得:
Aspectrum(u,v)=abs(Fspectrum(u,v)) (13)
Pspectrum(u,v)=angle(Fspectrum(u,v)) (14)
上式中,abs(·)和angle(·)分别表示幅度谱函数和相位谱函数;
通过使用中值滤波器,消除幅度频谱的峰值:
Aspectrum′(u,v)=medfilt2(Aspectrum(u,v)) (15)
上式中,medfilt2(·)代表中值滤波函数;
然后,新的频域图通过下式得到:
Fspectrum′(u,v)=|Aspectrum′(u,v)|e-jPspectrum(u,v) (16)
上式中,|·|表示绝对值;
最后,将原始相位频谱和滤波后的幅度频谱组合起来以形成新频谱,通过执行快速傅里叶逆变换获得频域显著图:
步骤三、针对时域显著性检测,通过增量学习以更新高维视频流中的背景模型,通过背景差分法获得运动目标。
具体地,本实施例所述的时域方法主要通过从当前帧中减去增量更新的背景模型来执行显著目标检测。给定矩阵 表示视频序列,n代表视频序列中有n帧,m表示每帧图像的大小,M表示n帧的视频中的一帧,将其分解为低秩矩阵和稀疏矩阵背景建模问题定义为:
将上式通过以下方式交替最小化来解决:
等式(20)的问题通过计算带有r个分量的M-Smatrix(j)的稀奇异值分解来解决;
等式(21)的解是:
shrink(M-LRmatrix(j+1),λ*) (22)
式中,
shrink(x,ε)=sign(x)max{0,|x|-ε} (23)。
式中,ε表示收缩率,Smatrix表示运动物体,即可作为时域显著图,因此通过求解Smatrix可以得到视频帧M的时域显著图TSalmap。
步骤四、将空域显著图、频域显著图和时域显著图进行动态权重融合,得到整个图像的显著图。
具体地,在间隔[0,1]中对所得的空域显著图SSalmap、频域显著图FSalmap和时域显著图TSalmap进行归一化,归一化特征图的计算如下:
由于移动对象(稀疏矩阵Smatrix)比静态对象更出色,因此在融合阶段更加关注时间显著性。基于运动对比度和图像对比度将空域、频域和时域显著图进行整合,令α表示运动对比度,如果在序列中α较高,则时间模型比空间模型和频率模型更占优势;β代表图像对比度,如果在序列中β较高,则空间模型和频率模型对最终结果的贡献更大,故时间模型的融合权重降低;基于这两个动态权重,融合的显著图将更准确,可以通过以下方式获得:
α=max(Sm(:))-median(Sm(:)) (26)
融合空域、频域和时域的显著图即为整个图像的显著图。
本发明的方法与现有的视频显著性检测方法分别在NTT数据集、MCL数据集和NV数据集上测试所得到的显著图的检测效果对比如图3所示,其中图3(c)为Zhai等人提出的基于时空线索的STC方法的检测结果,图3(d)为Zhu等人所提出的基于显著性优化的SO方法的检测结果,图3(e)为Tong等人所提出的基于引导学习的BL方法的检测结果,图3(f)为Jiang等人所提出的基于通用推广的GP方法的检测结果,图3(g)为Zhang等人所提出的基于时空色背景线索的SCC方法的检测结果,图3(h)为Kim等人所提出的基于随机行走的RWR方法的检测结果,图3(i)为本发明方法所提出的方法所得到的显著图。从图中也能明显看出,大部分方法针对可见光视频帧可以得到良好的显著图,而针对夜间低对比度视频帧产生显著图的性能大幅度下降,但本发明的方法依然可以在可见光不足的视频帧中获得优越的检测效果。
如图4所示,各曲线分别表示STC方法、SO方法、BL方法、GP方法、SCC方法、RWR方法以及本发明方法的真阳性率-假阳性率(TPR-FPR)曲线。其中,图4(a)为NTT数据集上的曲线性能对比,图4(b)为MCL数据集上的曲线性能对比,图4(c)为NV数据集上的曲线性能对比。从图中可以看出,本发明方法在三个数据集上获得比现有的其他6种显著性方法具有更好的性能。
AUC值(area under the curve)能很好反映出显著性检测中命中率与误报率之间的关系,曲线下的面积越大,则可以反应出检测的准确性越高,各方法在不同数据集下的AUC性能如表1所示,表中最佳的两个结果分别用粗体和斜体显示,可以看出本发明的结果要优于其他6种方法的结果。
表1.本发明与现有6种显著性检测方法在三个数据集上的AUC性能对比
如图5所示,各柱状图分别表示STC方法、SO方法、BL方法、GP方法、SCC方法、RWR方法以及本发明的方法的准确率、召回率以及F值三个指标的性能对比。其中,图5(a)为NTT数据集上的性能对比,图5(b)为MCL数据集上的性能对比,图5(c)为NV数据集上的性能对比。从图中可以看出,本发明在不同数据集上都有着优越的性能。
MAE(mean absolute error)表明实验结果图和基准显著图之间的相似度。各方法在不同数据集下的MAE性能如表2所示,可以看出本专利的结果获得了较好的性能。
表2.本发明与现有6种显著性检测方法在三个数据集上的MAE性能对比
本实施例模型由MATLAB在G2020CPU和12GB内存的电脑上完成测试。表3显示了本发明与现有其他6种对比方法的执行时间性能对比。相对来说,本发明是比较高效的。
表3.本发明与现有6种显著性检测方法在三个数据集上的运行时间(单位:秒)性能对比
STC | SO | BL | GP | SCC | RWR | 本发明 | |
NTT | 1.821 | 0.8580 | 17.416 | 7.651 | 55.834 | 21.325 | 2.254 |
MCL | 2.232 | 1.1804 | 45.899 | 7.349 | 52.417 | 22.543 | 3.141 |
NV | 2.619 | 12.225 | 567.67 | 79.503 | 58.110 | 17.373 | 16.642 |
综上所述,本发明通过多模态融合策略使空间域、频率域和时间域可以互相补充和约束,最大程度地提高了显著物体检测的效率,能够高效的获得更加准确的显著图,同时对于夜间视频帧,能够很好的提取出显著性目标。
以上仅描述了本发明的基本原理和优选实施方式,本领域人员可以根据上述描述做出许多变化和改进,这些变化和改进应该属于本发明的保护范围。
Claims (9)
1.一种基于空域、频域、时域的夜间视频序列显著性检测方法,其特征在于,包括如下步骤:
针对空域显著性检测,将视频帧分割成超像素,计算其局部和全局协方差矩阵;
针对频域显著性检测,调整幅度谱并与原始相位谱组合再执行快速傅里叶逆变换;
针对时域显著性检测,通过增量学习以更新高维视频流中的背景模型,通过背景差分法获得运动目标;
将空域显著图、频域显著图和时域显著图进行动态权重融合,得到整个图像的显著图。
2.根据权利要求1所述的方法,其特征在于,空域显著性检测的步骤包括:
S11、将输入的视频帧分割成超像素并定义图模型;
S12、建立基于图模型的流形排序模型;
S13、计算低级特征的协方差矩阵,用以估计每个超像素的局部和全局显著性;
S14、通过实施扩散过程优化超像素级显著性图。
3.根据权利要求2所述的方法,其特征在于,步骤S11具体包括:
利用简单的线性迭代聚类算法将给定的视频帧简化为超像素:
Spixel(i),i=1,···,N
上式中,N为超像素总数;
将图像分割成超像素之后,构建具有N个节点的图G=(V,E)来表示输入图像帧,其中,V表示节点,每个节点对应一个超像素,E是设置的边缘,并由亲和力矩阵Amatrix=[wij]N×N加权,其中,表示节点vi和vj之间的权重,常数σ是控制字符;
给定图G和显著性种子s=[s1,s2,···,sN]T,扩散过程基于最佳亲和力矩阵通过图G传播显著性种子s;反映所有节点的显著性值的显著性扩散S*=[S* 1,S* 2,···,S* N]T通过以下方式计算:
S*=Diffmatrix·s (1)
上式中,Diffmatrix表示扩散矩阵。
4.根据权利要求3所述的方法,其特征在于,步骤S12具体包括:
给定图G,每个节点的排名值Si通过排名函数分配给查询向量,即显著性种子s,最佳排名通过以下方式计算:
上式中,μ用来平衡光滑度和拟合约束,dii=Σjwij是次数矩阵Degmatrix=diag{d11,···,dNN}的元素;
排名函数,即显著性扩散S*也可以定义为:
S*=(Imatrix-b·Lmatrix)-1s (3)
上式中,Imatrix是图G的单位矩阵,参数b=1/(1+μ)控制流形排序中一元和成对电势的平衡,并且Lmatrix=Degmatrix -1/2·Amatrix·Degmatrix -1/2是归一化的拉普拉斯矩阵。
5.根据权利要求4所述的方法,其特征在于,步骤13具体包括:
提取几个简单视觉特征:亮度、方向、清晰度和频谱,基于这些特征,将输入视频帧转换为五维特征向量:
上式中,Ligh(x,y)表示LAB颜色空间中的亮度分量,和表示强度图的一阶导数范数,该范数可以表示边缘方向信息,且对于对比度的变化不敏感,清晰度特征Shar(x,y)通过灰度图和在垂直与水平方向上的高斯一阶导数的卷积计算得出,频谱特征Spec(x,y)通过对数频谱和幅度之间的差异来测量;
对于F内部的每个超像素区域SP(i),通过以下方式将其表示为5×5协方差矩阵:
上式中,{fh i}表示SP(i)内部的5维特征点,h=1,2,…,Num,其中Num是总数,并且μ*是这些点的平均值;
两个协方差矩阵之间的相异性通过以下方式来度量:
上式中,{λk(Ci,Cj)}表示Ci和Cj的广义特征值,k=1,…,5,它们通过以下方式获得:
λkCixk-Cjxk=0 (7)
上式中,{xk}表示Ci和Cj的广义特征向量,k=1,…,5;
对于每个Spixel(i),i=1,···,N,其超像素区域的显著性值Ri由Ri与其周围区域之间的协方差差异的加权平均值定义,Ri的周围区域表示为Rj,j=1,···,ηi;
对于局部显著性估计,Ri的周围区域根据其亲和力矩阵找到,Ri的局部显著性计算为:
上式中,ηi是Ri相邻超像素区域的数量,d(Ri,Rj)表示Ri与Rj之间的差异,由下式给出:
上式中,Ci和Cj分别表示Ri和Rj的协方差矩阵,c*(i)和c*(j)分别表示Ri和Rj的图像中心;
为了进行全局显著性估计,将整个图像区域RI视为Ri的周围区域,并且通过以下公式获得Ri与RI之间的差异d′(Ri,RI):
上式中,CI是RI的协方差矩阵,c*(I)是RI的图像中心。
6.根据权利要求5所述的方法,其特征在于,步骤14具体包括:
在计算所有超像素区域的显著性之后,获得显著性种子s,显著性种子s中包含每个图节点的显著性值s1,s2,···,sN;然后,使用扩散过程通过等式(1)优化超像素之间的显著性值;
最后,通过局部和全局方法获得两个不同的显著性图,分别表示为S* local和S* global,两者彼此互补;这两个显著性图通过加权几何平均值进行结合得到空域显著图,计算如下:
SSalmap=S* local θ×S* global 1-θ (11)
上式中,0≤θ≤1。
7.根据权利要求6所述的方法,其特征在于,频域显著性检测是基于频域的显著目标检测对于输入视频帧,通过限制幅度谱中的峰值来突出显著区域,具体包括如下:
首先,图像通过快速傅立叶变换经以下方式转换为频谱:
上式中,I(x,y)和Fspectrum(u,v)分别表示空间域和频率域中的图像像素,width和height表示图像的宽度和高度;
振幅谱表示为Aspectrum(u,v),相位谱表示为Pspectrum(u,v),分别通过下式获得:
Aspectrum(u,v)=abs(Fspectrum(u,v)) (13)
Pspectrum(u,v)=angle(Fspectrum(u,v)) (14)
上式中,abs(·)和angle(·)分别表示幅度谱函数和相位谱函数;
通过使用中值滤波器,消除幅度频谱的峰值:
Aspectrum′(u,v)=medfilt2(Aspectrum(u,v)) (15)
上式中,medfilt2(·)代表中值滤波函数;
然后,新的频域图通过下式得到:
Fspectrum′(u,v)=|Aspectrum′(u,v)|e-jPspectrum(u,v) (16)
上式中,|·|表示绝对值;
最后,将原始相位频谱和滤波后的幅度频谱组合起来以形成新频谱,通过执行快速傅里叶逆变换获得频域显著图:
8.根据权利要求7所述的方法,其特征在于,时域显著性检测具体包括如下步骤:
将上式通过以下方式交替最小化来解决:
等式(20)的问题通过计算带有r个分量的M-Smatrix(j)的稀奇异值分解来解决;
等式(21)的解是:
shrink(M-LRmatrix(j+1),λ*) (22)
式中,
shrink(x,ε)=sign(x)max{0,|x|-ε} (23)。
式中,ε表示收缩率,Smatrix表示运动物体,即可作为时域显著图,因此通过求解Smatrix可以得到视频帧M的时域显著图TSalmap。
9.根据权利要求8所述的方法,其特征在于,将空域显著图、频域显著图和时域显著图进行动态权重融合,具体包括如下:
在间隔[0,1]中对所得的空域显著图SSalmap、频域显著图FSalmap和时域显著图TSalmap进行归一化,归一化特征图的计算如下:
基于运动对比度和图像对比度将空域、频域和时域显著图进行整合,令α表示运动对比度,如果在序列中α较高,则时间模型比空间模型和频率模型更占优势;β代表图像对比度,如果在序列中β较高,则空间模型和频率模型对最终结果的贡献更大,故时间模型的融合权重降低;基于这两个动态权重,融合的显著图将更准确,可以通过以下方式获得:
α=max(Sm(:))-median(Sm(:)) (26)
融合空域、频域和时域的显著图即为整个图像的显著图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110756534.7A CN113449658A (zh) | 2021-07-05 | 2021-07-05 | 基于空域、频域、时域的夜间视频序列显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110756534.7A CN113449658A (zh) | 2021-07-05 | 2021-07-05 | 基于空域、频域、时域的夜间视频序列显著性检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113449658A true CN113449658A (zh) | 2021-09-28 |
Family
ID=77815142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110756534.7A Pending CN113449658A (zh) | 2021-07-05 | 2021-07-05 | 基于空域、频域、时域的夜间视频序列显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113449658A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035378A (zh) * | 2022-08-09 | 2022-09-09 | 中国空气动力研究与发展中心计算空气动力研究所 | 基于时空域特征融合的红外弱小目标的检测方法及装置 |
CN115544437A (zh) * | 2022-09-13 | 2022-12-30 | 苏州大学 | 空间频率分析方法 |
CN116449332A (zh) * | 2023-06-14 | 2023-07-18 | 西安晟昕科技股份有限公司 | 一种基于mimo雷达的空域目标检测方法 |
CN117395085A (zh) * | 2023-12-12 | 2024-01-12 | 天津医康互联科技有限公司 | 全局协方差矩阵计算方法、装置、电子设备及存储介质 |
CN118114009A (zh) * | 2024-05-06 | 2024-05-31 | 华南理工大学 | 一种基于多模态数据的增量式目标检测系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9269025B1 (en) * | 2015-01-29 | 2016-02-23 | Yahoo! Inc. | Object detection in images |
CN109767454A (zh) * | 2018-12-18 | 2019-05-17 | 西北工业大学 | 基于时-空-频显著性的无人机航拍视频运动目标检测方法 |
CN109934103A (zh) * | 2019-01-29 | 2019-06-25 | 杭州电子科技大学 | 基于暗通道先验和区域协方差检测图像中显著物体的方法 |
-
2021
- 2021-07-05 CN CN202110756534.7A patent/CN113449658A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9269025B1 (en) * | 2015-01-29 | 2016-02-23 | Yahoo! Inc. | Object detection in images |
CN109767454A (zh) * | 2018-12-18 | 2019-05-17 | 西北工业大学 | 基于时-空-频显著性的无人机航拍视频运动目标检测方法 |
CN109934103A (zh) * | 2019-01-29 | 2019-06-25 | 杭州电子科技大学 | 基于暗通道先验和区域协方差检测图像中显著物体的方法 |
Non-Patent Citations (3)
Title |
---|
NAN MU 等: "A spatial-frequency-temporal domain based saliency model for low contrast video sequences", 《J. VIS. COMMUN. IMAGE R.》 * |
NAN MU 等: "Estimation of Local and Global Superpixel Covariance for Salient Object Detection in Low Contrast Images", 《 PROCEEDINGS OF THE 9TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND COMPUTING》 * |
穆楠: "夜间场景下显著目标检测方法研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035378A (zh) * | 2022-08-09 | 2022-09-09 | 中国空气动力研究与发展中心计算空气动力研究所 | 基于时空域特征融合的红外弱小目标的检测方法及装置 |
CN115544437A (zh) * | 2022-09-13 | 2022-12-30 | 苏州大学 | 空间频率分析方法 |
CN115544437B (zh) * | 2022-09-13 | 2024-09-06 | 苏州大学 | 空间频率分析方法 |
CN116449332A (zh) * | 2023-06-14 | 2023-07-18 | 西安晟昕科技股份有限公司 | 一种基于mimo雷达的空域目标检测方法 |
CN116449332B (zh) * | 2023-06-14 | 2023-08-25 | 西安晟昕科技股份有限公司 | 一种基于mimo雷达的空域目标检测方法 |
CN117395085A (zh) * | 2023-12-12 | 2024-01-12 | 天津医康互联科技有限公司 | 全局协方差矩阵计算方法、装置、电子设备及存储介质 |
CN117395085B (zh) * | 2023-12-12 | 2024-03-22 | 天津医康互联科技有限公司 | 全局协方差矩阵计算方法、装置、电子设备及存储介质 |
CN118114009A (zh) * | 2024-05-06 | 2024-05-31 | 华南理工大学 | 一种基于多模态数据的增量式目标检测系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113449658A (zh) | 基于空域、频域、时域的夜间视频序列显著性检测方法 | |
Zhang et al. | Plant disease leaf image segmentation based on superpixel clustering and EM algorithm | |
CN109376611B (zh) | 一种基于3d卷积神经网络的视频显著性检测方法 | |
CN110059586B (zh) | 一种基于空洞残差注意力结构的虹膜定位分割系统 | |
Ozden et al. | A color image segmentation approach for content-based image retrieval | |
CN111723693B (zh) | 一种基于小样本学习的人群计数方法 | |
CN106338733B (zh) | 基于蛙眼视觉特性的前视声呐目标跟踪方法 | |
CN112085765B (zh) | 结合粒子滤波及度量学习的视频目标跟踪方法 | |
CN110728694B (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
CN110795982A (zh) | 一种基于人体姿态分析的表观视线估计方法 | |
CN108846404B (zh) | 一种基于相关约束图排序的图像显著性检测方法及装置 | |
Jiang et al. | Image segmentation with pulse-coupled neural network and Canny operators | |
CN106157330B (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN113724379B (zh) | 融合图像与激光点云的三维重建方法及装置 | |
CN108875655A (zh) | 一种基于多特征的实时目标视频跟踪方法及系统 | |
CN111680579B (zh) | 一种自适应权重多视角度量学习的遥感图像分类方法 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
CN109509191A (zh) | 一种图像显著性目标检测方法及系统 | |
CN107609571A (zh) | 一种基于lark特征的自适应目标跟踪方法 | |
CN111091129A (zh) | 一种基于多重颜色特征流形排序的图像显著区域提取方法 | |
CN112598708B (zh) | 一种基于四特征融合和权重系数的高光谱目标跟踪方法 | |
Wang et al. | Pedestrian detection in infrared image based on depth transfer learning | |
CN108388901B (zh) | 基于空间-语义通道的协同显著目标检测方法 | |
CN107392211B (zh) | 基于视觉稀疏认知的显著目标检测方法 | |
CN110135435B (zh) | 一种基于广度学习系统的显著性检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210928 |
|
WD01 | Invention patent application deemed withdrawn after publication |