[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN112465867A - 一种基于卷积神经网络的红外点目标实时检测跟踪方法 - Google Patents

一种基于卷积神经网络的红外点目标实时检测跟踪方法 Download PDF

Info

Publication number
CN112465867A
CN112465867A CN202011376382.XA CN202011376382A CN112465867A CN 112465867 A CN112465867 A CN 112465867A CN 202011376382 A CN202011376382 A CN 202011376382A CN 112465867 A CN112465867 A CN 112465867A
Authority
CN
China
Prior art keywords
point
target
image
track
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011376382.XA
Other languages
English (en)
Other versions
CN112465867B (zh
Inventor
王幸鹏
刘�文
刘羽
朱伟
白俊奇
王寿峰
席灿江
吴欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Laisi Electronic Equipment Co ltd
Original Assignee
Nanjing Laisi Electronic Equipment Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Laisi Electronic Equipment Co ltd filed Critical Nanjing Laisi Electronic Equipment Co ltd
Priority to CN202011376382.XA priority Critical patent/CN112465867B/zh
Publication of CN112465867A publication Critical patent/CN112465867A/zh
Application granted granted Critical
Publication of CN112465867B publication Critical patent/CN112465867B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明提供了一种基于卷积神经网络的红外点目标实时检测跟踪方法,首先采用滑窗的方式对红外点目标进行检测,筛选可能的目标,再对多帧图像中的点目标进行数据关联的跟踪,形成航迹,然后每间隔N帧图像用卷积神经网络对图像进行识别,去除航迹中的非点目标。本发明适用于光电探测设备对空中的弱小目标进行检测和跟踪,主要算法流程均由软件完成,针对红外图像进行处理,提高光电探测设备的探测能力和探测精度。本技术融合了传统的目标检测算法和卷积神经网络算法,在保证检测准确性的同时,提高了检测效率,可以实现实时准确的检测。

Description

一种基于卷积神经网络的红外点目标实时检测跟踪方法
技术领域
本发明涉及一种基于卷积神经网络的红外点目标实时检测跟踪方法。
背景技术
近年来,随着科学技术的发展,在军用方面,红外探测器以其观测距离远、受能见度等外界条件干扰小、具备全天候值守能力等优势而被广泛应用于红外制导系统、红外预警系统以及海事监视系统等领域。在民用方面,红外点目标检测也开始应用于无人机探测和消防救灾等领域。因此红外点目标检测技术在军、民用上都具有很高的研究价值和应用前景。
由于点目标在图像上占有的像素少,通常只有3×3个像素,加上背景通常情况下比较复杂,目标很容易被噪声和背景杂波所淹没,使得红外点目标的检测变得更加困难。传统的图像检测算法虽然可以检测出点目标,但在复杂云层背景或者复杂地物背景下,会出现很多传统方法难以去除的虚警点。针对这一问题,主要解决手段是采用卷积神经网络算法,通过设计一种卷积神经网络模型,并采集大量样本进行标注,通过监督学习的方式,使得模型具有提取目标特征的能力,从而实现在复杂背景下对点目标的检测识别。虽然这种方法可以准确的对红外点目标进行检测,但计算量大,对机器性能要求较高,实际工程应用中很难推广。
综上所述,需要一种在复杂背景下可以实时、准确的发现、跟踪红外点目标的手段,来提升红外探测系统的性能。而实现该手段,则需要解决以下关键问题:(1)如何降低由复杂背景杂波导致的检测虚警率。(2)如何在提高检测准确率的同时,降低计算量以保证系统的实时性。
发明内容
发明目的:针对在复杂云层背景下红外点目标检测时虚警率过高以及深度学习算法计算量大,难以实时的问题,本发明提供一套完整的目标检测、跟踪处理流程,能够实现点目标的迅速准确的检测与跟踪。
本发明具体提供了一种基于卷积神经网络的红外点目标实时检测跟踪方法,包括如下步骤:
步骤1,计算图像Ik的全局对比度Th,Ik为视频中第k帧图像,k为视频帧数编号;
步骤2,用9×9像素的窗口对图像Ik进行从左到右,从上到下的滑窗,每次取9×9的窗口中的最大灰度值点P,并比较P点和周围像素点的灰度值,如果P点灰度值为最大值,则执行步骤3,否则继续步骤2的滑窗;
步骤3,根据全局对比度Th值判断P点是否为点目标,如果是则继续执行下面步骤,否则继续步骤2的滑窗;
步骤4,积累前3帧图像的点目标信息,采用数据关联的方式进行跟踪,形成批号和航迹信息;
步骤5,每间隔N帧图像,采用YOLOV4卷积神经网络对图像进行一次检测识别,并将结果和当前航迹信息进行融合,去除非点目标航迹信息。
步骤1包括:
图像Ik全局对比度Th的计算方式如下:
Figure BDA0002807276920000021
其中,M、N分别为原始图像的宽和高,I(i,j)为图像中坐标(i,j)处的像素值,计算每个像素点在水平和垂直方向差值的均方根作为该像素的对比度,计算所有像素对比度的均值作为图像的全局对比度。
步骤2包括:
每次滑窗的步长为9,设定每次滑窗所取的9×9像素的窗口的中心点为K,如果最大值点P出现在以K为中心的7×7区域,则执行步骤3,否则P点分别与它的8领域像素点进行比较,如果P点像素值大于它的所有8领域像素点,则执行步骤3,否则继续步骤2的滑窗过程。
步骤3包括:
以P点为中心,取3×3区域,计为中心区域R0,然后以R0为中心,取周围8个3×3领域,分别计为区域Ri,i=1,2……8;分别计算R0和Ri的平均值,分别计为Mean0和Meani,计算公式如下,其中(x,y)为P点的坐标:
Figure BDA0002807276920000031
Figure BDA0002807276920000032
Figure BDA0002807276920000033
Figure BDA0002807276920000034
Figure BDA0002807276920000035
Figure BDA0002807276920000036
Figure BDA0002807276920000037
Figure BDA0002807276920000038
Figure BDA0002807276920000039
分别计算Mean0和Meani的差值Diffi
Diffi=Mean0-Meani,
如果Diffi中满足如下条件的有7个以上:
Diffi≥k*Th,
则判定R0为点目标,其中k为灵敏系数,一般取3。
步骤4包括:
积累前三帧图像提取到的点目标信息,取点目标的中心点P,如果三帧图像中,存在Pi连续出现在图像的同一个5×5像素区域内,则进行关联,并起批生成航迹Ti,航迹信息包括航迹批号、目标位置,目标宽度、目标高度和航迹质量,其中i=1,2,3,为每帧图像中点目标的中心点,i为帧号;
当有下一帧图像时,计算下一帧图像的目标点迹Pi+1与航迹Ti的绝对距离Di+1,Di+1的计算公式如下:
Figure BDA0002807276920000041
如果Di+1≤DT,将目标点迹Pi+1加入到目标航迹Ti;如果Di+1>DT,则将目标点迹Pi+1按照步骤4重新生成新的目标航迹Ti+1,其中DT为绝对距离判断阈值,一般取值为16;
如果在下一帧图像中有目标点迹Pi+1与航迹Ti关联上,则更新目标位置,目标宽度、目标高度和航迹质量,其中航迹质量TiQ=TiQ+1。
步骤5包括:
构建点目标样本集S,点目标样本集S包括点目标图像,点目标尺寸不超过3×3像素,对样本进行人工标注,得到标注框Groundtruth,将标注框Groundtruth位置作为训练标签,构建YOLOV4卷积神经网络,设置一个识别类别,即点目标类别,人工标注X(一般取值为1000)张以上红外点目标样本,红外点目标样本是包含简单背景、复杂云层背景和复杂地物条件下的点目标图像,训练YOLOV4卷积神经网络,直到网络收敛,得到点目标识别模型
Figure BDA0002807276920000042
设置点目标识别模型输入图像尺寸固定为416×416,
Figure BDA0002807276920000043
能够对图像中点目标进行检测识别,给出标签:点目标,并记录在图像上的位置信息
Figure BDA0002807276920000044
Figure BDA0002807276920000045
表示图像中第S个点目标的外接矩形框;
每间隔N帧用点目标识别模型
Figure BDA0002807276920000051
对图像做一次检测识别,这里N一般取25,并将结果
Figure BDA0002807276920000052
与当前帧的航迹信息进行融合;设定第K帧时存在的航迹数量为M,即
Figure BDA0002807276920000053
Figure BDA0002807276920000054
表示当前图像中第M个点目标航迹信息,将
Figure BDA0002807276920000055
中每条航迹的目标位置信息与
Figure BDA0002807276920000056
相匹配,如果Ti
Figure BDA0002807276920000057
中存在相匹配的检测框,则保留此航迹,否则删除;航迹信息的目标位置框Ti (x,y,w,h)和识别网络
Figure BDA0002807276920000058
的检测框
Figure BDA0002807276920000059
的匹配方法为计算两个矩形框的交并比IoU,计算公式如下,(x,y,w,h)中x表示矩形框的左上角横坐标,y表示矩形框的左上角纵坐标,w表示矩形框的宽度,h表示矩形框的高度,area()表示括号中矩形框的面积:
Figure BDA00028072769200000510
如果IoU≥threshold,则表示匹配成功,threshold为阈值,一般取0.6,保留匹配成功的航迹为目标航迹,并删除未匹配成功的航迹信息。
有益效果:本发明显著优点是:
1、采用9×9滑窗搜索,以及将可能目标点与周围8领域区域以全局对比度Th为阈值进行对比判断的方式,提高了在复杂背景下点目标的检出率。
2、通过数据关联的方式对检测的目标进行跟踪,由于航迹中记录了前面多帧目标的历史位置信息和航迹质量信息,提高了目标跟踪的稳定性。
3.采用航迹和神经网络识别结果相融合的方式,提高检测的准确率的同时,降低了在复杂背景下的虚警率。
4、每间隔25帧用神经网络算法对图像进行一次识别,有效降低了算法的计算量以及对资源的占用率,提高了计算速度,达到实时检测的目的。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是针对点目标和面目标组织训练样本示意图。
图2是本发明红外点目标识别效果图。
具体实施方式
本发明提供了一种基于卷积神经网络的红外点目标实时检测跟踪方法,包括如下步骤:
(1)计算图像Ik的全局对比度Th,Ik为视频中第k帧图像,k为视频帧数编号。
图像Ik全局对比度Th的计算方式如下:
Figure BDA0002807276920000061
其中,M、N分别为原始图像的宽和高,I(i,j)为图像中(i,j)坐标处的像素值,计算每个像素点在水平和垂直方向差值的均方根作为该像素的对比度,计算所有像素对比度的均值作为图像的全局对比度。
(2)用9×9像素的窗口对图像Ik进行从左到右,从上到下的滑窗,每次取9×9的窗口中的最大灰度值点P,并比较P点和周围像素点的灰度值,若P点任为最大值,则继续执行下面步骤,否则继续步骤(2)滑窗。
每次滑窗的步长为9,假设每次滑窗所取的9×9区域的中心点为K,若最大值P出现在以K为中心的7×7区域,则继续下面步骤,否则P点分别与它的8领域像素点进行比较,若P点像素值大于它的所有8领域像素点,则继续下面步骤,否则继续步骤(2)滑窗。
(3)根据全局对比度Th值判断P点是否为点目标,若是则继续执行下面步骤,否则继续步骤(2)滑窗。
以P点为中心,取3×3区域,计为中心区域R0,然后以R0为中心,取周围8个3×3领域,分别计为区域Ri(i=1,2……8)。分别计算R0和Ri(i=1,2……8)的平均值,计为Mean0和Meani(i=1,2……8)。计算公式如下,其中(x,y)为P点的坐标,I(i,j)为图像中(i,j)坐标处的像素值。
Figure BDA0002807276920000071
Figure BDA0002807276920000072
Figure BDA0002807276920000073
Figure BDA0002807276920000074
Figure BDA0002807276920000075
Figure BDA0002807276920000076
Figure BDA0002807276920000077
Figure BDA0002807276920000078
Figure BDA0002807276920000079
分别计算Mean0和Meani(i=1,2……8)的差值Diffi(i=1,2……8):
Diffi=Mean0-Meani,(i=1,2……8)
若Diffi(i=1,2……8)中存在≥7个差值满足:
Diffi≥k*Th,(i=1,2……8)
则判定R0为点目标。其中k为灵敏系数,一般取3。
(4)积累前3帧图像的点目标信息,采用数据关联的方式进行跟踪,形成批号和航迹信息。
数据关联的跟踪具体为:积累前三帧图像提取到的点目标中心点(即R0中心),若三帧图像中,存在目标点迹Pi(i=1,2,3)(Pi为每帧图像中点目标的中心点,i为帧号)连续出现在图像的同一个5×5像素区域内,则进行关联,并起批生成航迹Ti,航迹信息包括航迹批号、目标位置,目标宽度、目标高度和航迹质量。
当有下一帧图像时,计算下一帧图像的目标点迹Pi+1与航迹Ti的绝对距离Di+1,Di+1的计算公式如下:
Figure BDA0002807276920000081
若Di+1≤DT,将目标点迹Pi+1加入到目标航迹Ti;若Di+1>DT,则将目标点迹Pi+1按照步骤(4)重新生成新的目标航迹Ti+1,其中DT为绝对距离判断阈值,一般取值为16。
若在下一帧图像中有目标点迹Pi+1与航迹Ti关联上,则更新目标位置,目标宽度、目标高度和航迹质量,其中航迹质量TiQ=TiQ+1;
(5)每间隔N帧图像,采用卷积神经网络对图像进行一次检测识别,并将结果和当前航迹信息进行融合,去除非点目标航迹信息。
构建点目标样本集S,S主要包括点目标图像(点目标尺寸不超过3×3像素),对样本进行人工标注,得到标注框Groundtruth,将标注框Groundtruth位置作为训练标签,构建YOLOV4卷积神经网络,设置一个识别类别,即点目标类别,人工标注1000张以上红外点目标样本,包含简单背景、复杂云层背景和复杂地物条件下的点目标图像,进行训练,直到网络收敛,得到点目标识别模型
Figure BDA0002807276920000082
设置点目标识别模型输入图像尺寸固定为416×416,
Figure BDA0002807276920000083
能够对图像中点目标进行检测识别,给出标签“点目标”,并记录在图像上的位置信息
Figure BDA0002807276920000084
每间隔N帧用点目标识别模型
Figure BDA0002807276920000091
对图像做一次检测识别,这里N一般取25,并将结果
Figure BDA0002807276920000092
与当前帧的航迹信息进行融合。假设第K帧时存在的航迹数量为M,即
Figure BDA0002807276920000093
Figure BDA0002807276920000094
表示当前图像中第M点目标航迹信息,将
Figure BDA0002807276920000095
中每条航迹的目标位置信息与
Figure BDA0002807276920000096
相匹配,若Ti
Figure BDA0002807276920000097
中存在相匹配的检测框,则保留此航迹,否则删除。航迹信息的目标位置框Ti (x,y,w,h)和
Figure BDA0002807276920000098
卷积神经网络检测框
Figure BDA0002807276920000099
的匹配方法为计算两个矩形框的交并比IoU,计算公式如下,(x,y,w,h)中x表示矩形框的左上角横坐标,y表示矩形框的左上角纵坐标,w表示矩形框的宽度,h表示矩形框的高度,area()表示括号中矩形框的面积:
Figure BDA00028072769200000910
人工IoU≥threshold,则表示匹配成功,threshold为阈值,一般取0.6,保留匹配成功的航迹为目标航迹,并删除未匹配成功的航迹信息。如图1所示,人工标注出点目标的位置作为真值,并打上点目标的标签,给神经网络模型进行监督训练。如图2所示,采用本发明方法,在复杂背景下,可以准确检测出点目标信息。
本发明提供了一种基于卷积神经网络的红外点目标实时检测跟踪方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (7)

1.一种基于卷积神经网络的红外点目标实时检测跟踪方法,其特征在于,包括如下步骤:
步骤1,计算图像Ik的全局对比度Th,Ik为视频中第k帧图像,k为视频帧数编号;
步骤2,用9×9像素的窗口对图像Ik进行从左到右,从上到下的滑窗,每次取9×9的窗口中的最大灰度值点P,并比较P点和周围像素点的灰度值,如果P点灰度值为最大值,则执行步骤3,否则继续步骤2的滑窗;
步骤3,根据全局对比度Th值判断P点是否为点目标,如果是则继续执行下面步骤,否则继续步骤2的滑窗;
步骤4,积累前3帧图像的点目标信息,采用数据关联的方式进行跟踪,形成批号和航迹信息;
步骤5,每间隔N帧图像,采用YOLOV4卷积神经网络对图像进行一次检测识别,并将结果和当前航迹信息进行融合,去除非点目标航迹信息。
2.根据权利要求1所述的方法,其特征在于,步骤1包括:
图像Ik全局对比度Th的计算方式如下:
Figure FDA0002807276910000011
其中,M、N分别为原始图像的宽和高,I(i,j)为图像中坐标(i,j)处的像素值,计算每个像素点在水平和垂直方向差值的均方根作为该像素的对比度,计算所有像素对比度的均值作为图像的全局对比度。
3.根据权利要求2所述的方法,其特征在于,步骤2包括:
每次滑窗的步长为9,设定每次滑窗所取的9×9像素的窗口的中心点为K,如果最大值点P出现在以K为中心的7×7区域,则执行步骤3,否则P点分别与它的8领域像素点进行比较,如果P点像素值大于它的所有8领域像素点,则执行步骤3,否则继续步骤2的滑窗过程。
4.根据权利要求3所述的方法,其特征在于,步骤3包括:
以P点为中心,取3×3区域,计为中心区域R0,然后以R0为中心,取周围8个3×3领域,分别计为区域Ri,i=1,2……8;分别计算R0和Ri的平均值,分别计为Mean0和Meani,计算公式如下,其中(x,y)为P点的坐标:
Figure FDA0002807276910000021
Figure FDA0002807276910000022
Figure FDA0002807276910000023
Figure FDA0002807276910000024
Figure FDA0002807276910000025
Figure FDA0002807276910000026
Figure FDA0002807276910000027
Figure FDA0002807276910000028
Figure FDA0002807276910000029
分别计算Mean0和Meani的差值Diffi
Diffi=Mean0-Meani,
如果Diffi中满足如下条件的有7个以上:
Diffi≥k*Th,
则判定R0为点目标,其中k为灵敏系数。
5.根据权利要求4所述的方法,其特征在于,步骤4包括:
积累前三帧图像提取到的点目标信息,取点目标的中心点P,如果三帧图像中,存在Pi连续出现在图像的同一个5×5像素区域内,则进行关联,并起批生成航迹Ti,航迹信息包括航迹批号、目标位置,目标宽度、目标高度和航迹质量,其中i=1,2,3,为每帧图像中点目标的中心点,i为帧号;
当有下一帧图像时,计算下一帧图像的目标点迹Pi+1与航迹Ti的绝对距离Di+1,Di+1的计算公式如下:
Figure FDA0002807276910000031
如果Di+1≤DT,将目标点迹Pi+1加入到目标航迹Ti;如果Di+1>DT,则将目标点迹Pi+1按照步骤4重新生成新的目标航迹Ti+1,其中DT为绝对距离判断阈值;
如果在下一帧图像中有目标点迹Pi+1与航迹Ti关联上,则更新目标位置,目标宽度、目标高度和航迹质量,其中航迹质量TiQ=TiQ+1。
6.根据权利要求5所述的方法,其特征在于,步骤5包括:
构建点目标样本集S,点目标样本集S包括点目标图像,点目标尺寸不超过3×3像素;对样本进行标注,得到标注框Groundtruth,将标注框Groundtruth位置作为训练标签,构建YOLOV4卷积神经网络,设置一个识别类别,即点目标类别,标注X张以上红外点目标样本,红外点目标样本是包含简单背景、复杂云层背景和复杂地物条件下的点目标图像,训练YOLOV4卷积神经网络,直到网络收敛,得到点目标识别模型
Figure FDA0002807276910000032
设置点目标识别模型输入图像尺寸固定为416×416,
Figure FDA0002807276910000033
能够对图像中点目标进行检测识别,给出标签:点目标,并记录在图像上的位置信息
Figure FDA0002807276910000034
Figure FDA0002807276910000035
表示图像中第S个点目标的外接矩形框。
7.根据权利要求6所述的方法,其特征在于,步骤5还包括:每间隔N帧用点目标识别模型
Figure FDA0002807276910000041
对图像做一次检测识别,并将结果
Figure FDA0002807276910000042
与当前帧的航迹信息进行融合;设定第K帧时存在的航迹数量为M,即
Figure FDA0002807276910000043
Figure FDA0002807276910000044
表示当前图像中第M个点目标航迹信息,将
Figure FDA0002807276910000045
中每条航迹的目标位置信息与
Figure FDA0002807276910000046
相匹配,如果
Figure FDA0002807276910000047
Figure FDA0002807276910000048
中存在相匹配的检测框,则保留此航迹,否则删除;航迹信息的目标位置框
Figure FDA0002807276910000049
和识别网络
Figure FDA00028072769100000410
的检测框
Figure FDA00028072769100000411
的匹配方法为计算两个矩形框的交并比IoU,计算公式如下,(x,y,w,h)中x表示矩形框的左上角横坐标,y表示矩形框的左上角纵坐标,w表示矩形框的宽度,h表示矩形框的高度,area()表示括号中矩形框的面积:
Figure FDA00028072769100000412
如果IoU≥threshold,则表示匹配成功,threshold为阈值,保留匹配成功的航迹为目标航迹,并删除未匹配成功的航迹信息。
CN202011376382.XA 2020-11-30 2020-11-30 一种基于卷积神经网络的红外点目标实时检测跟踪方法 Active CN112465867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011376382.XA CN112465867B (zh) 2020-11-30 2020-11-30 一种基于卷积神经网络的红外点目标实时检测跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011376382.XA CN112465867B (zh) 2020-11-30 2020-11-30 一种基于卷积神经网络的红外点目标实时检测跟踪方法

Publications (2)

Publication Number Publication Date
CN112465867A true CN112465867A (zh) 2021-03-09
CN112465867B CN112465867B (zh) 2024-01-05

Family

ID=74806252

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011376382.XA Active CN112465867B (zh) 2020-11-30 2020-11-30 一种基于卷积神经网络的红外点目标实时检测跟踪方法

Country Status (1)

Country Link
CN (1) CN112465867B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494342A (zh) * 2021-12-31 2022-05-13 中国科学院空天信息创新研究院 一种同步轨道卫星可见光序列图像海上目标检测跟踪方法
CN115222775A (zh) * 2022-09-15 2022-10-21 中国科学院长春光学精密机械与物理研究所 弱小目标检测跟踪装置及其检测跟踪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108520529A (zh) * 2018-03-30 2018-09-11 上海交通大学 基于卷积神经网络的可见光和红外视频目标跟踪方法
WO2019101220A1 (zh) * 2017-12-11 2019-05-31 珠海大横琴科技发展有限公司 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
CN110728697A (zh) * 2019-09-30 2020-01-24 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) 基于卷积神经网络的红外弱小目标检测跟踪方法
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN111652097A (zh) * 2020-05-25 2020-09-11 南京莱斯电子设备有限公司 一种图像毫米波雷达融合目标检测方法
CN111833377A (zh) * 2020-06-02 2020-10-27 杭州电子科技大学 一种基于tbd复杂环境下运动小目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019101220A1 (zh) * 2017-12-11 2019-05-31 珠海大横琴科技发展有限公司 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
CN108520529A (zh) * 2018-03-30 2018-09-11 上海交通大学 基于卷积神经网络的可见光和红外视频目标跟踪方法
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN110728697A (zh) * 2019-09-30 2020-01-24 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN111652097A (zh) * 2020-05-25 2020-09-11 南京莱斯电子设备有限公司 一种图像毫米波雷达融合目标检测方法
CN111833377A (zh) * 2020-06-02 2020-10-27 杭州电子科技大学 一种基于tbd复杂环境下运动小目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
任蕾;施朝健;冉鑫;: "结合局部和全局显著性的海上小目标检测", 上海海事大学学报, no. 02 *
金阿立;胡文刚;何永强;陆旭光;高鸿启;: "基于三级数据关联的红外点目标跟踪方法", 军械工程学院学报, no. 03 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494342A (zh) * 2021-12-31 2022-05-13 中国科学院空天信息创新研究院 一种同步轨道卫星可见光序列图像海上目标检测跟踪方法
CN115222775A (zh) * 2022-09-15 2022-10-21 中国科学院长春光学精密机械与物理研究所 弱小目标检测跟踪装置及其检测跟踪方法

Also Published As

Publication number Publication date
CN112465867B (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
CN113034548B (zh) 一种适用于嵌入式终端的多目标跟踪方法及其系统
CN111326023B (zh) 一种无人机航线预警方法、装置、设备及存储介质
CN109829398B (zh) 一种基于三维卷积网络的视频中的目标检测方法
EP3633615A1 (en) Deep learning network and average drift-based automatic vessel tracking method and system
CN104282020B (zh) 一种基于目标运动轨迹的车辆速度检测方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN114299417A (zh) 一种基于雷视融合的多目标跟踪方法
CN110765906A (zh) 一种基于关键点的行人检测算法
CN105654516B (zh) 基于目标显著性的卫星图像对地面弱小运动目标检测方法
CN107729843B (zh) 基于雷达与视觉信息融合的低地板有轨电车行人识别方法
CN110555868A (zh) 一种复杂地面背景下运动小目标检测方法
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
CN116109950A (zh) 一种低空域反无人机视觉检测、识别与跟踪方法
CN112465867B (zh) 一种基于卷积神经网络的红外点目标实时检测跟踪方法
CN116266360A (zh) 一种基于多源信息融合的车辆目标检测跟踪方法
CN112613565B (zh) 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法
CN113989604A (zh) 基于端到端深度学习的轮胎dot信息识别方法
CN114092404A (zh) 一种红外目标检测方法及计算机可读存储介质
CN111311640B (zh) 一种基于运动估计的无人机识别跟踪方法
CN110287957B (zh) 一种低慢小目标的定位方法及定位装置
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
CN117953245A (zh) 基于模板匹配与kcf算法的红外无人机尾翼检测与跟踪方法
CN103258433B (zh) 一种交通视频监控中智能车牌清晰显示方法
Yang et al. Method for building recognition from FLIR images
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant