CN110766676A - 基于多源传感器融合的目标检测方法 - Google Patents
基于多源传感器融合的目标检测方法 Download PDFInfo
- Publication number
- CN110766676A CN110766676A CN201911014564.XA CN201911014564A CN110766676A CN 110766676 A CN110766676 A CN 110766676A CN 201911014564 A CN201911014564 A CN 201911014564A CN 110766676 A CN110766676 A CN 110766676A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- background
- formula
- weighted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 48
- 230000004927 fusion Effects 0.000 title claims abstract description 34
- 238000005096 rolling process Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 9
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 238000001914 filtration Methods 0.000 claims abstract description 4
- 230000011218 segmentation Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 238000007499 fusion processing Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 150000001875 compounds Chemical class 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000005286 illumination Methods 0.000 abstract description 5
- 230000003068 static effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000001629 suppression Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
基于多源传感器融合的目标检测方法,涉及图像处理自动检测技术领域,解决现有目标检测方法存在无法应对快速场景变化或者复杂背景下检测低小慢目标的问题,本发明通过对红外图像及可见光图像的感兴趣区域提取;基于滚动引导滤波和加权最小二乘优化函数进行图像融合,获得融合后的图像F;输入感兴趣区域的融合图像,通过背景建模方法完成像小慢目标的检测。本发明采用了多传感器图像融合的方式对目标进行检测,与VIBE、PBAS等传统算法不同,利用可见光相机与红外相机间的信息互补来提高检测的精确性及可靠性,融合后的图像具有明显的纹理特征和较高的分辨率,输入静态背景建模框架中可以抵抗光照、特殊天气、物体遮挡的影响实现全天候工作。
Description
技术领域
本发明涉及图像处理自动检测技术领域,具体涉及一种基于多源传感器融合的“低小慢”目标检测方法。
背景技术
目前,“低小慢”目标检测技术是精确制导、红外搜索跟踪和侦察告警系统的一项关键技术,如何在复杂场景中排除云层、光照、噪声以及遮挡等干扰,准确地检测出低空慢速小目标一直是目标检测领域极具挑战的研究课题,其检测性能直接决定系统的作用距离与探测灵敏度。传统的“低小慢”目标检测VIBE算法、和PBAS算法,无法应对快速场景变化或者复杂背景等特殊场合,因此不能稳定工作。
发明内容
本发明为解决现有目标检测方法存在无法应对快速场景变化或者复杂背景下检测低小慢目标的问题,提供一种基于多源传感器融合的目标检测方法。
基于多源传感器融合的目标检测方法,该方法由以下步骤实现:
步骤一、对红外图像及可见光图像的感兴趣区域提取;
步骤二、基于滚动引导滤波和加权最小二乘优化函数进行图像融合,获得融合后的图像F;具体过程为:
采用滚动引导滤波器对原始红外图像和原始可见光图像进行了多尺度分解,并采用视觉显著性算法对分解后的红外图像基础层与可见光图像基础层进行融合处理,采用加权最小二乘函数对红外图像细节层与可见光图像细节层进行融合处理;
采用高斯滤波器获得原始可见光图像和原始红外图像包含粗尺度结构信息的基础层;
当j=1,2…N-1时,第j层滤波后的细节图像,用下式表示为:
dj=uj-1-uj
当j=N时,第j层滤波后的基础层图像,用下式表示为:
dj=uj-1-uj
式中,RGF(·)滚动引导滤波器,uj为第j层滤波后的图像,dj为第j层分解图像,N为图像分解的层数,T为迭代次数;σs为尺度参数,σr为权重范围参数,设置获得红外基础层图像B1和可见光基础层图像B2;对于红外基础层图像B1和可见光基础层图像B2,采用视觉显著性算法FT求取其归一化显著性像素值FT1和FT2,并通过融合规则获得输出图像BF的基础融合层,具体表示为:
其中,MS加权系数Wj采用下式获得:
式中,Aj为包含所有权重参数Λ的对角矩阵,则获得融合后的图像F:
F=BF+D1+D2+…+DN
步骤三、对低小慢目标的检测;在步骤二中获得的融合图像F内寻找步骤一中确定的感兴趣区域,输入感兴趣区域内的融合图像,通过SuBSENSE背景建模算法完成低小慢目标的检测;
步骤三一、基于时空二进制相似性和Color-LBSP描述子,在一个无参模型中使用V帧输入的感兴趣区域融合图像值初始化背景模型,用下式表示为:
B(x)={B1(x),B2(x),...BV(x)}
步骤三二、计算像素点的当前像素与该像素点的样本集之间的递归滑动平均距离Dmin(x),计算方式为:
Dmin(x)=Dmin(x)·(1-α)+dt(x)·α
式中,α为变化更新学习率,dt(x)所有样本之间的最小标准化Color-LBSP距离;
步骤三三、根据SuBSENSE中的局部距离对阈值进行控制,并对SuBSENSE背景模型进行实时更新,获得分割输出检测结果;用公式表示为:
式中,Ft(x)为t时刻的融合后图像,B(x)为历史样本,St(x)为分割结果,Rmax为最大距离阈值,#min为背景分类所需的最小匹配数,dist(Ft(x),B(x))返回当前观测值与给定背景样本之间的距离,获得检测结果。
本发明的有益效果:本发明提供的检测技术基于多传感器融合与SuBSENSE背景模型,使融合图像既具备可见光图像的纹理信息,又具备红外图像的显著信息。融合后的图像输入静态背景建模框架中可以抵抗光照、特殊天气、物体遮挡的影响,解决检测技术全天候工作的技术难点。相比于以往的检测技术,本发明更具有广泛的实用性,且具有更高的准确率。
本发明采用了多传感器图像融合的方式对目标进行检测,与VIBE、PBAS等传统算法不同,利用可见光相机与红外相机间的信息互补来提高检测的精确性及可靠性,融合后的图像具有明显的纹理特征和较高的分辨率,输入静态背景建模框架中可以抵抗光照、特殊天气、物体遮挡的影响实现全天候工作。
附图说明
图1为本发明所述的基于多源传感器融合的目标检测方法的流程图;
图2为本发明所述的基于多源传感器融合的目标检测方法中原始红外图像效果图;
图3为本发明所述的基于多源传感器融合的目标检测方法中的红外图像中感兴趣区域效果图;
图4为本发明所述的基于多源传感器融合的目标检测方法中原始可见光图像效果图;
图5为本发明所述的基于多源传感器融合的目标检测方法中的原始可见光图像中感兴趣区域效果图;
图6本发明所述的基于多源传感器融合的目标检测方法中原始红外图像与原始可见光图像融合后的效果图;
图7为本发明所述的基于多源传感器融合的目标检测方法中局部SuBSENSE分割后图像效果图;
图8为采用本发明所述的基于多源传感器融合的目标检测方法检测的效果图。
具体实施方式
具体实施方式一、结合图1至图8说明本实施方式,基于多源传感器融合的目标检测方法;
步骤一、红外图像及可见光图像的感兴趣区域提取;
获取红外图像,采用加权移动平均背景建模(Weighted Moving Mean)对所述红外图像进行前景提取,完成对红外图像感兴趣区域的定位;
具体过程为:采用下式表示图像像素的加权平均值:
式中,weighted_mean为图像像素的加权平均值,weight为权重,image_f为输入图像;
红外图像成像符合热力学定律,通过计算红外图像的一维信息熵作为阈值区分前后背景,其中,计算背景红外图像一维信息熵时,m=[0,L],计算前景红外图像一维信息熵时,红外图像的背景及前景的信息熵分别用下式表示为:
式中,pm为红外图像的自信息量,为区分前后背景的灰度值,W1和W2分别为背景和目标中的灰度值概率,L为红外图像的灰度级数,红外图像的分割阈值用下式表示为:
式中,为红外图像总的信息熵,为图像一维信息熵最大时的分割阈值,检测当前帧时,将当前帧图像的像素值与步骤一背景模型中相同位置像素的加权平均值进行作差,并将作差后获得的差值与阈值进行比较,大于阈值的则判定为前景,反之则为背景;
根据背景图像和当前帧图像的加权动态更新背景模型,使更新后的背景模型适应场景变化,更新公式为:
ft+1(x,y)=(1-α)Bt(x,y)+αft(x,y) (6)
式中,α为变化更新学习率,Bt(x,y)为t时刻背景模型,ft(x,y)为t时刻图像;通过更新后的背景模型获得红外图像的感兴趣区域;
通过计算可见光图像标准差替代平均值提取所述红外图像的感兴趣区域,用下式表示为:
variance(image_fi,weighti)=weighti*(image_fi-weighted_mean)2 (7)
式中,variance(·)为图像像素加权方差的计算结果,std_dev为计算得到的加权标准差,并采用大津算法对可见光图像进行前后自适应分割,应用基于加权移动均方差算法的背景减除模型获取可见光图像的感兴趣区域。
步骤二、基于滚动引导滤波和加权最小二乘优化函数进行图像融合,获得融合后的图像F;
采用滚动引导滤波器对原始红外图像和原始可见光图像进行了多尺度分解,并采用视觉显著性算法对分解后的红外图像基础层与可见光图像基础层进行融合处理,采用加权最小二乘函数对红外图像细节层与可见光图像细节层进行融合处理;
采用高斯滤波器获得原始可见光图像和原始红外图像包含粗尺度结构信息的基础层;
当j=1,2…N-1时,第j层滤波后的细节图像,用下式表示为:
dj=uj-1-uj (10)
当j=N时,第j层滤波后的基础层图像,用下式表示为:
dj=uj-1-uj (12)
式中,RGF(·)滚动引导滤波器,uj为第j层滤波后的图像,dj为第j层分解图像,N为图像分解的层数,T为迭代次数;σs为尺度参数,σr为权重范围参数,设置获得红外基础层图像B1和可见光基础层图像B2;对于红外基础层图像B1和可见光基础层图像B2,采用视觉显著性算法FT求取其归一化显著性像素值FT1和FT2,并通过融合规则获得输出图像BF的基础融合层,具体表示为:
其中,MS加权系数Wj采用下式获得:
权重参数ωi为以像素n为中心的正方形7×7滑窗,重写其矩阵形式为:
式中,Aj为包含所有权重参数Λ的对角矩阵,则获得融合后的图像F:
F=BF+D1+D2+…+DN (18)
步骤三、对低小慢目标的检测;输入感兴趣区域内的融合图像,通过SuBSENSE背景建模算法完成低小慢目标的检测;
具体过程为:
整个检测过程由背景模型初始化、递归滑动平均距离计算、噪声抑制、局部距离阈值控制、背景模型的更新以及判别输出结果六部分构成,具体过程为:
步骤三一、基于时空二进制相似性和Color-LBSP描述子,在一个无参模型中使用V帧输入的感兴趣区域融合图像值初始化背景模型,用下式表示为:
B(x)={B1(x),B2(x),...BV(x)} (19)
(2)在得到背景模型后,计算像素点的当前像素与该像素点的样本集之间的递归滑动平均距离,计算方式为:
Dmin(x)=Dmin(x)·(1-α)+dt(x)·α (20)
式中,α为变化更新学习率,dt(x)所有样本之间的最小标准化Color-LBSP距离。
(3)在进行局部距离阈值控制前,为了提高检测精度,需要消除模型中的闪烁噪声,进行噪声抑制的二维映射像素级累加器具体为:
其中v(x)为闪烁像素的二进制映射。
(4)为了动态选取合适阈值,这里采用SuBSENSE背景模型中的局部距离对阈值进行控制,具体为:
(5)为了克服光照、阴影、移动目标对检测结果的影响,需要对SuBSENSE背景模型进行实时更新,具体更新方式为:
(6)分割输出检测结果,具体方式为:
式中,Ft(x)为t时刻的融合后图像,B(x)为历史样本,St(x)为分割结果,Rmax为最大距离阈值,#min为背景分类所需的最小匹配数,dist(Ft(x),B(x))返回当前观测值与给定背景样本之间的距离,由此即可得到检测结果。
Claims (4)
1.基于多源传感器融合的目标检测方法,其特征是:该检测方法由以下步骤实现:
步骤一、对红外图像及可见光图像的感兴趣区域提取;
步骤二、基于滚动引导滤波和加权最小二乘优化函数进行图像融合,获得融合后的图像F;具体过程为:
采用滚动引导滤波器对原始红外图像和原始可见光图像进行了多尺度分解,并采用视觉显著性算法对分解后的红外图像基础层与可见光图像基础层进行融合处理,采用加权最小二乘函数对红外图像细节层与可见光图像细节层进行融合处理;
采用高斯滤波器获得原始可见光图像和原始红外图像包含粗尺度结构信息的基础层;
当j=1,2…N-1时,第j层滤波后的细节图像,用下式表示为:
dj=uj-1-uj
当j=N时,第j层滤波后的基础层图像,用下式表示为:
dj=uj-1-uj
式中,RGF(·)滚动引导滤波器,uj为第j层滤波后的图像,dj为第j层分解图像,N为图像分解的层数,T为迭代次数;σs为尺度参数,σr为权重范围参数,设置获得红外基础层图像B1和可见光基础层图像B2;对于红外基础层图像B1和可见光基础层图像B2,采用视觉显著性算法FT求取其归一化显著性像素值FT1和FT2,并通过融合规则获得输出图像BF的基础融合层,具体表示为:
其中,MS加权系数Wj采用下式获得:
式中,Aj为包含所有权重参数Λ的对角矩阵,则获得融合后的图像F:
F=BF+D1+D2+…+DN
步骤三、对低小慢目标的检测;
在步骤二中获得的融合图像F内寻找步骤一中确定的感兴趣区域,并输入感兴趣区域内的融合图像,通过SuBSENSE背景建模算法完成低小慢目标的检测;
步骤三一、基于时空二进制相似性和Color-LBSP描述子,在一个无参模型中使用V帧输入的感兴趣区域融合图像值初始化背景模型,用下式表示为:
B(x)={B1(x),B2(x),...BV(x)}
步骤三二、计算像素点的当前像素与该像素点的样本集之间的递归滑动平均距离Dmin(x),计算方式为:
Dmin(x)=Dmin(x)·(1-α)+dt(x)·α
式中,α为变化更新学习率,dt(x)所有样本之间的最小标准化Color-LBSP距离;
步骤三三、根据SuBSENSE背景建模中的局部距离对阈值进行控制,并对SuBSENSE背景模型进行实时更新,获得分割输出检测结果;用公式表示为:
式中,Ft(x)为t时刻的融合后图像,B(x)为历史样本,St(x)为分割结果,Rmax为最大距离阈值,#min为背景分类所需的最小匹配数,dist(Ft(x),B(x))返回当前观测值与给定背景样本之间的距离,获得检测结果。
2.根据权利要求1所述的基于多源传感器融合的目标检测方法,其特征在于:步骤一中,采用加权移动平均背景模型对所述红外图像进行前景提取,完成对红外图像感兴趣区域的提取;
具体过程为:采用下式表示图像像素的加权平均值:
式中,weighted_mean为图像像素的加权平均值,weight为权重,image_f为输入图像;
红外图像成像符合热力学定律,通过计算红外图像的一维信息熵作为阈值区分前后背景,其中,计算背景红外图像一维信息熵时,m=[0,L],计算前景红外图像一维信息熵时,红外图像的背景及前景的信息熵分别用下式表示为:
式中,为红外图像总的信息熵,为图像一维信息熵最大时的分割阈值,检测当前帧时,将当前帧图像的像素值与步骤一背景模型中相同位置像素的加权平均值进行作差,并将作差后获得的差值与阈值进行比较,大于阈值的则判定为前景,反之则为背景;
根据背景图像和当前帧图像的加权动态更新背景模型,使更新后的背景模型适应场景变化,更新公式为:
ft+1(x,y)=(1-α)Bt(x,y)+αft(x,y)
式中,α为变化更新学习率,Bt(x,y)为t时刻背景模型,ft(x,y)为t时刻图像;通过更新后的背景模型获得红外图像的感兴趣区域;
通过计算可见光图像标准差替代平均值提取所述红外图像的感兴趣区域,用下式表示为:
variance(image_fi,weighti)=weighti*(image_fi-weighted_mean)2
式中,variance(·)为图像像素加权方差的计算结果,std_dev为计算得到的加权标准差,并采用大津算法对可见光图像进行前后自适应分割,应用基于加权移动均方差算法的背景减除模型获取可见光图像的感兴趣区域。
3.根据权利要求1所述的基于多源传感器融合的目标检测方法,其特征在于:在步骤三三中,进行局部距离阈值控制前,采用二维映射像素级累加器抑制噪声;
所述二维映射像素级累加器,用下式表示为:
式中,v(x)为闪烁像素的二进制映射;
根据SuBSENSE中的局部距离对阈值R(x)进行控制,用下式表示为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911014564.XA CN110766676B (zh) | 2019-10-24 | 2019-10-24 | 基于多源传感器融合的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911014564.XA CN110766676B (zh) | 2019-10-24 | 2019-10-24 | 基于多源传感器融合的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110766676A true CN110766676A (zh) | 2020-02-07 |
CN110766676B CN110766676B (zh) | 2022-04-26 |
Family
ID=69333583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911014564.XA Active CN110766676B (zh) | 2019-10-24 | 2019-10-24 | 基于多源传感器融合的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110766676B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111798560A (zh) * | 2020-06-09 | 2020-10-20 | 同济大学 | 一种电力设备红外热像测温数据三维实景模型可视化方法 |
CN114092369A (zh) * | 2021-11-19 | 2022-02-25 | 中国直升机设计研究所 | 基于视觉显著映射与最小二乘优化的图像融合方法 |
CN114485947A (zh) * | 2021-12-30 | 2022-05-13 | 北京联合永道软件股份有限公司 | 用于户外用电设备的安防监控方法 |
CN115578621A (zh) * | 2022-11-01 | 2023-01-06 | 中国矿业大学 | 一种基于多源数据融合的图像识别方法 |
CN116295446A (zh) * | 2023-05-22 | 2023-06-23 | 中国人民解放军国防科技大学 | 一种偏振多尺度分解的无人机视觉匹配导航方法和装置 |
CN116630762A (zh) * | 2023-06-25 | 2023-08-22 | 山东卓业医疗科技有限公司 | 一种基于深度学习的多模态医学图像融合方法 |
CN117036313A (zh) * | 2023-08-18 | 2023-11-10 | 华大天元(北京)科技股份有限公司 | 基于计算机视觉的电力设备红外智能检测方法和设备 |
CN117783051A (zh) * | 2024-02-28 | 2024-03-29 | 西安尚展信息科技有限公司 | 一种基于多传感器数据融合的甲烷气体泄漏检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080036576A1 (en) * | 2006-05-31 | 2008-02-14 | Mobileye Technologies Ltd. | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications |
US20090169102A1 (en) * | 2007-11-29 | 2009-07-02 | Chao Zhang | Multi-scale multi-camera adaptive fusion with contrast normalization |
CN107451595A (zh) * | 2017-08-04 | 2017-12-08 | 河海大学 | 基于混合算法的红外图像显著性区域检测方法 |
CN109242888A (zh) * | 2018-09-03 | 2019-01-18 | 中国科学院光电技术研究所 | 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法 |
CN109801250A (zh) * | 2019-01-10 | 2019-05-24 | 云南大学 | 基于adc-scm与低秩矩阵表达的红外与可见光图像融合方法 |
-
2019
- 2019-10-24 CN CN201911014564.XA patent/CN110766676B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080036576A1 (en) * | 2006-05-31 | 2008-02-14 | Mobileye Technologies Ltd. | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications |
US20090169102A1 (en) * | 2007-11-29 | 2009-07-02 | Chao Zhang | Multi-scale multi-camera adaptive fusion with contrast normalization |
CN107451595A (zh) * | 2017-08-04 | 2017-12-08 | 河海大学 | 基于混合算法的红外图像显著性区域检测方法 |
CN109242888A (zh) * | 2018-09-03 | 2019-01-18 | 中国科学院光电技术研究所 | 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法 |
CN109801250A (zh) * | 2019-01-10 | 2019-05-24 | 云南大学 | 基于adc-scm与低秩矩阵表达的红外与可见光图像融合方法 |
Non-Patent Citations (2)
Title |
---|
吴言枫等: "复杂动背景下的"低小慢"目标检测技术", 《中国光学》 * |
王嘉成等: "高分辨率多传感器融合图像跟踪系统的设计与实现", 《液晶与显示》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111798560A (zh) * | 2020-06-09 | 2020-10-20 | 同济大学 | 一种电力设备红外热像测温数据三维实景模型可视化方法 |
CN111798560B (zh) * | 2020-06-09 | 2023-09-01 | 同济大学 | 一种电力设备红外热像测温数据三维实景模型可视化方法 |
CN114092369A (zh) * | 2021-11-19 | 2022-02-25 | 中国直升机设计研究所 | 基于视觉显著映射与最小二乘优化的图像融合方法 |
CN114485947A (zh) * | 2021-12-30 | 2022-05-13 | 北京联合永道软件股份有限公司 | 用于户外用电设备的安防监控方法 |
CN114485947B (zh) * | 2021-12-30 | 2024-04-02 | 北京联合永道软件股份有限公司 | 用于户外用电设备的安防监控方法 |
CN115578621A (zh) * | 2022-11-01 | 2023-01-06 | 中国矿业大学 | 一种基于多源数据融合的图像识别方法 |
CN116295446A (zh) * | 2023-05-22 | 2023-06-23 | 中国人民解放军国防科技大学 | 一种偏振多尺度分解的无人机视觉匹配导航方法和装置 |
CN116630762A (zh) * | 2023-06-25 | 2023-08-22 | 山东卓业医疗科技有限公司 | 一种基于深度学习的多模态医学图像融合方法 |
CN116630762B (zh) * | 2023-06-25 | 2023-12-22 | 山东卓业医疗科技有限公司 | 一种基于深度学习的多模态医学图像融合方法 |
CN117036313A (zh) * | 2023-08-18 | 2023-11-10 | 华大天元(北京)科技股份有限公司 | 基于计算机视觉的电力设备红外智能检测方法和设备 |
CN117036313B (zh) * | 2023-08-18 | 2024-04-30 | 华大天元(北京)科技股份有限公司 | 基于计算机视觉的电力设备红外智能检测方法和设备 |
CN117783051A (zh) * | 2024-02-28 | 2024-03-29 | 西安尚展信息科技有限公司 | 一种基于多传感器数据融合的甲烷气体泄漏检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110766676B (zh) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766676B (zh) | 基于多源传感器融合的目标检测方法 | |
CN110033473B (zh) | 基于模板匹配和深度分类网络的运动目标跟踪方法 | |
CN108898047B (zh) | 基于分块遮挡感知的行人检测方法及系统 | |
CN111062273B (zh) | 一种遗留物品追溯检测与报警方法 | |
CN111079556A (zh) | 一种多时相无人机视频图像变化区域检测及分类方法 | |
CN114299417A (zh) | 一种基于雷视融合的多目标跟踪方法 | |
CN113610895A (zh) | 目标跟踪方法、装置、电子设备及可读存储介质 | |
CN110569792A (zh) | 一种基于卷积神经网络的自动驾驶汽车前方物体检测方法 | |
CN110555868A (zh) | 一种复杂地面背景下运动小目标检测方法 | |
CN104899866A (zh) | 一种智能化的红外小目标检测方法 | |
CN112818905B (zh) | 一种基于注意力和时空信息的有限像素车辆目标检测方法 | |
CN109902578B (zh) | 一种红外目标检测与跟踪方法 | |
Hu et al. | An infrared target intrusion detection method based on feature fusion and enhancement | |
Liu et al. | Small target detection from infrared remote sensing images using local adaptive thresholding | |
CN110826575A (zh) | 一种基于机器学习的水下目标识别方法 | |
CN113822352A (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN106846367A (zh) | 一种基于运动约束光流法的复杂动态场景的运动物体检测方法 | |
CN116643291A (zh) | 一种视觉与激光雷达联合剔除动态目标的slam方法 | |
CN106485283B (zh) | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 | |
CN117710689A (zh) | 基于粒子滤波的高精度sar图像目标检测方法及系统 | |
Wei et al. | Remote sensing image aircraft detection technology based on deep learning | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
CN110232314A (zh) | 一种基于改进的Hog特征结合神经网络的图像行人检测方法 | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
El Baf et al. | Fuzzy foreground detection for infrared videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |