CN110021036B - 红外目标检测方法、装置、计算机设备和存储介质 - Google Patents
红外目标检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110021036B CN110021036B CN201910296542.0A CN201910296542A CN110021036B CN 110021036 B CN110021036 B CN 110021036B CN 201910296542 A CN201910296542 A CN 201910296542A CN 110021036 B CN110021036 B CN 110021036B
- Authority
- CN
- China
- Prior art keywords
- learning model
- training
- detected
- image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种红外目标检测方法,包括:获取待检测灰度图像;将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;将所述至少两种对应的预处理图像进行融合,得到融合图像;从所述融合图像中提取待检测目标。采用不同视角的训练学习模型,去除待检测灰度图像中的各种干扰目标,能够有效提高针对远距离弱小目标的检测准确率。
Description
技术领域
本发明涉及图像处理领域,特别是涉及一种红外目标检测方法、装置、计算机设备和存储介质。
背景技术
红外目标检测是红外信号处理的核心技术,其应用于红外搜索与跟踪(Infraredsearch and track,IRST)系统、精确制导系统、目标监视系统、卫星遥感系统等多个领域。近年来,基于视觉注意机制的智能信息处理方法成为一大研究热点
红外运动目标传统的检测方法有背景差分、光流法、帧差法等方法,但对于远距离弱小红外目标,容易受气流、云等噪声干扰,传统方法难以有效检测,准确性较低。
发明内容
本发明的目的在于提供一种红外目标检测方法、装置、计算机设备和可读存储介质,可以有效提高针对远距离弱小目标的检测准确率。
本发明的目的通过如下技术方案实现:
一种红外目标检测方法,所述方法包括:
获取待检测灰度图像;
将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;
将所述至少两种对应的预处理图像进行融合,得到融合图像;
从所述融合图像中提取待检测目标。
在一个实施例中,所述至少两种视角的学习模型包括训练压缩感知学习模型、训练子空间学习模型和训练注意力学习模型。
在一个实施例中,所述将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像的步骤之前,还包括:
获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
在一个实施例中,所述获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的步骤,包括:
获取多个样本灰度图像;
将所述多个样本灰度图像分别输入预设压缩感知学习模型、预设子空间学习模型和预设注意力学习模型进行训练,得到训练后的所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
在一个实施例中,所述将所述至少两种对应的预处理图像进行融合,得到融合图像的步骤,包括:
分别获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的权重系数;
根据各所述权重系数将对应的各所述预处理图像进行相加融合,得到所述融合图像。
在一个实施例中,所述从所述融合图像中提取待检测目标的步骤,包括:
将所述融合图像输入训练隐向量学习模型,得到再处理图像;
从所述再处理图像中提取待检测目标。
在一个实施例中,所述从所述融合图像中提取待检测目标的步骤之前,还包括:
获取多个样本预处理图像;
将所述多个样本预处理图像输入预设隐向量学习模型,得到所述训练隐向量学习模型。
一种红外目标检测装置,所述装置包括:
待检测图像获取模块,用于获取待检测灰度图像;
预处理模块,用于将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;
融合模块,用于将所述至少两种对应的预处理图像进行融合,得到融合图像;
目标提取模块,用于从所述融合图像中提取待检测目标。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时如下步骤:
获取待检测灰度图像;
将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;
将所述至少两种对应的预处理图像进行融合,得到融合图像;
从所述融合图像中提取待检测目标。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
获取待检测灰度图像;
将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;
将所述至少两种对应的预处理图像进行融合,得到融合图像;
从所述融合图像中提取待检测目标。
本发明提供的红外目标检测方法,其获取待检测灰度图像;将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;将所述至少两种对应的预处理图像进行融合,得到融合图像;从所述融合图像中提取待检测目标。采用不同视角的训练学习模型,去除待检测灰度图像中的各种干扰目标,能够有效提高针对远距离弱小目标的检测准确率。
附图说明
图1为一个实施例中红外目标检测方法的应用环境图;
图2为一个实施例中红外目标检测方法的流程示意图;
图3为另一个实施例中红外目标检测方法的流程示意图;
图4为另一个实施例中红外目标检测装置的结构框图;
图5为一个实施例中计算机设备的内部结构图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
本申请提供的红外目标检测方法可以应用于如图1所示的应用环境中。该应用环境包括服务器104和红外摄像装置102,服务器104从红外摄像装置102中获取待检测灰度图像;服务器104将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;服务器104将所述至少两种对应的预处理图像进行融合,得到融合图像;服务器104从所述融合图像中提取待检测目标。其中,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现;摄像装置可以采用摄像头、相机、手机等等具有摄像功能的装置实现。
在一个实施例中,如图2所示,提供了一种红外目标检测方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤S202,获取待检测灰度图像。
在本步骤中,通过红外拍摄设备得到待检测灰度图像,当检测距离远且复杂环境时,待检测目标会被复杂的、高水平的未知类型噪声干扰。
步骤S204,将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像。
在一个实施例中,所述至少两种视角的学习模型包括训练压缩感知学习模型、训练子空间学习模型和训练注意力学习模型,因为物体在对应的参考坐标系下的位置不以观察者的视角不同而发生变化,因此可以采用多种不同视角的学习模型对待检测灰度图像进行处理。
在一个实施例中,步骤S204的将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像的步骤之前,还包括:获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
具体的,输入的单帧图像主要由背景、目标以及噪声组成,可以用数学表示为:
F(x,y,t)=B(x,y,t)+T(x,y,t)+N(x,y,t) (1)
其中:
F(x,y,t)—探测器在时间t时刻的输出图像
B(x,y,t)—t时刻的背景信号
T(x,y,t)—t时刻的目标信号
N(x,y,t)—t时刻的观测噪声
x,y—空间坐标,笛卡尔坐标系
t—时间分量,对应视频帧数
由于目标是一像素面积很小的点目标,而视频背景的变化比较缓慢。因此,目标信息在当前空间维度中是一个非常稀疏的向量,而背景则可以用一个低维度的信号进行表达,可以表述为:
B=AZ (2)
||T||=k (3)
其中:
A—为背景B的字典,用于表述其子空间变换线性张量
k—稀疏系数,用于表征目标信号T的稀疏程度
对于稠密信号,一般可以需要通过寻找一个合适的字典D进行域变换(比如,傅里叶域,小波域等),得到其变换域的稀疏张量,其转换过程可以用数学表述为:
T=DS (4)
其中:
D—变换域字典,用于目标信号的时空变换
S—变换域内的数字信号表征
由于探测距离远,目标在探测面或者探测系统的视场内只有数像素,目标相对整体视场而言在空间上是一个非常稀疏向量,因此可以采用压缩感知以及子空间学习的方法非常适用于对这种类型的信号其进行处理,其处理过可表示为:
L=argmin||Z||*+λ||S||s.t F=AZ+DS+N (4)
其中:
λ—正则系数,用于约束损失方程
至此,将背景信号抑制、目标增强和目标提取的过程转化为求解带有等式约束方程。
在一个实施例中,上述字典A和D可以预先设定为定量,也可以采用大量的红外图像数据进行监督学习,训练出具有最优表达能力的字典A和D,进而达到目标有效提取的目的。
对应的,训练压缩感知学习模型、训练子空间学习模型和训练注意力学习模型可以是预先设置好的,也可以是通过采用大量的灰度图像进行训练得到。
在一种实施过程中,获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的步骤,包括:
(1)获取多个样本灰度图像;
(2)将所述多个样本灰度图像分别输入预设压缩感知学习模型、预设子空间学习模型和预设注意力学习模型进行训练,得到训练后的所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
步骤S206,将所述至少两种对应的预处理图像进行融合,得到融合图像。
在本步骤中,可以通过相加的方法将预处理图像进行融合,也可以通过相乘的方法将多个预处理图像进行融合。
在具体实施过程中,可以采用三种训练模型的权重相同的方式进行相加融合,也可以在对预设压缩感知学习模型、预设子空间学习模型和预设注意力学习模型进行训练,训练的时候设置不同学习模型的权重。
在一个实施例中,步骤S206的将所述至少两种对应的预处理图像进行融合,得到融合图像包括:
(1)分别获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的权重系数;
(2)根据各所述权重系数将对应的各所述预处理图像进行相加融合,得到所述融合图像。
例如,训练的时候发现压缩感知学习模型对样本灰度图像的处理效果比较显著,那么可以将压缩感知学习模型的权重设置高于其他两种学习模型。
步骤S208,从所述融合图像中提取待检测目标。
在一种实施例中,可以直接从融合图像中提取得到待检测目标,但在部分场景可能会存在与真目标相似度很高的红外虚假目标,譬如红外干扰等;由于红外检测系统的探测器是一个平面结构,无三维感知能力,无法从当前模型和空间上直接对特征相似高的度真、假目标进行有效分离。此时,就需要对和真目标相似度很高的虚假目标和实际的真目标进行分离。
如图3所示,在一个实施例中,步骤S208的从所述融合图像中提取待检测目标包括:
步骤S810,将所述融合图像输入训练隐向量学习模型,得到再处理图像;
步骤S820,从所述再处理图像中提取待检测目标。
在具体实施过程中,引入隐向量学习方式,对前述步骤得到所有的可疑目标数据进行进一步的学习。通过模型学习,深入挖掘出当前维度真、假目标相似度高的真正因素,例如病人发热只是在宏观现象,而真正导致病人发烧的是某一种病毒,其过程可以数学表述为:
Pmode(x)=Eh Pmode(x|h) (5)
其中:
x—当前维度的数据
h—隐向量
可以看出,通过模型学习得到目标的隐向量表示,学习方法为无监督学习;为剔除与高相似度的虚假目标提供了数据的另外一种有效方式,提高了真正目标的显著性,达到真\假目标的分类、定位和多目标关联的目的,完成目标的智能检测和跟踪。
在一个实施例中,步骤S208从所述融合图像中提取待检测目标的步骤之前,还包括:
(1)获取多个样本预处理图像;
(2)将所述多个样本预处理图像输入预设隐向量学习模型,得到所述训练隐向量学习模型。
为了更好地理解上述方法,以下详细阐述一个本发明的直播列表排版布局方法的应用实例:
1)、服务器接收到红外检测终端发送的待检测灰度图像;
2)、服务器将待检测灰度图像分别输入训练压缩感知学习模型、训练子空间学习模型和训练注意力学习模型,得到对应的三种预处理图像;
3)根据预设的三种模型的权重系数,将三种对应的预处理图像进行相加融合,得到融合图像;
4)将融合图像输入训练隐向量学习模型,得到再处理图像;
5)从再处理图像中提取待检测目标。
上述的红外目标检测方法,通过获取待检测灰度图像;将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;将所述至少两种对应的预处理图像进行融合,得到融合图像;从所述融合图像中提取待检测目标。采用不同视角的训练学习模型,去除待检测灰度图像中的各种干扰目标,能够有效提高针对远距离弱小目标的检测准确率。
如图4所示,图4为一个实施例中红外目标检测装置的结构示意图,本实施例中提供一种红外目标检测装置,包括待检测图像获取模块401、预处理模块402、融合模块403和目标提取模块404,其中:
待检测图像获取模块401,用于获取待检测灰度图像;
预处理模块402,用于将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;
融合模块403,用于将所述至少两种对应的预处理图像进行融合,得到融合图像;
目标提取模块404,用于从所述融合图像中提取待检测目标。
关于红外目标检测装置的具体限定可以参见上文中对于红外目标检测方法的限定,在此不再赘述。上述红外目标检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
如图5所示,图5为一个实施例中计算机设备的内部结构示意图。该计算机设备包括通过装置总线连接的处理器、非易失性存储介质、存储器和网络接口。其中,该计算机设备的非易失性存储介质存储有操作装置、数据库和计算机可读指令,数据库中可存储有控件信息序列,该计算机可读指令被处理器执行时,可使得处理器实现一种红外目标检测方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该计算机设备的存储器中可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种红外目标检测方法。该计算机设备的网络接口用于与终端连接通信。本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提出了一种计算机设备,计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如下步骤:获取待检测灰度图像;将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;将所述至少两种对应的预处理图像进行融合,得到融合图像;从所述融合图像中提取待检测目标。
在其中一个实施例中,处理器执行计算机程序时所述至少两种视角的学习模型包括训练压缩感知学习模型、训练子空间学习模型和训练注意力学习模型。
在其中一个实施例中,处理器执行计算机程序时所述将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像的步骤之前,还包括:获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
在其中一个实施例中,处理器执行计算机程序时所述获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的步骤,包括:获取多个样本灰度图像;将所述多个样本灰度图像分别输入预设压缩感知学习模型、预设子空间学习模型和预设注意力学习模型进行训练,得到训练后的所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
在其中一个实施例中,处理器执行计算机程序时所述将所述至少两种对应的预处理图像进行融合,得到融合图像的步骤,包括:分别获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的权重系数;根据各所述权重系数将对应的各所述预处理图像进行相加融合,得到所述融合图像。
在其中一个实施例中,处理器执行计算机程序时所述从所述融合图像中提取待检测目标的步骤,包括:将所述融合图像输入训练隐向量学习模型,得到再处理图像;从所述再处理图像中提取待检测目标。
在其中一个实施例中,处理器执行计算机程序时所述从所述融合图像中提取待检测目标的步骤之前,还包括:获取多个样本预处理图像;将所述多个样本预处理图像输入预设隐向量学习模型,得到所述训练隐向量学习模型。
在一个实施例中,提出了一种存储有计算机可读指令的存储介质,该计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如下步骤:获取待检测灰度图像;将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;将所述至少两种对应的预处理图像进行融合,得到融合图像;从所述融合图像中提取待检测目标。
在其中一个实施例中,计算机可读指令被处理器执行时所述至少两种视角的学习模型包括训练压缩感知学习模型、训练子空间学习模型和训练注意力学习模型。
在其中一个实施例中,计算机可读指令被处理器执行时所述将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像的步骤之前,还包括:获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
在其中一个实施例中,计算机可读指令被处理器执行时所述获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的步骤,包括:获取多个样本灰度图像;将所述多个样本灰度图像分别输入预设压缩感知学习模型、预设子空间学习模型和预设注意力学习模型进行训练,得到训练后的所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
在其中一个实施例中,计算机可读指令被处理器执行时所述将所述至少两种对应的预处理图像进行融合,得到融合图像的步骤,包括:分别获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的权重系数;根据各所述权重系数将对应的各所述预处理图像进行相加融合,得到所述融合图像。
在其中一个实施例中,计算机可读指令被处理器执行时所述从所述融合图像中提取待检测目标的步骤,包括:将所述融合图像输入训练隐向量学习模型,得到再处理图像;从所述再处理图像中提取待检测目标。
在其中一个实施例中,计算机可读指令被处理器执行时所述从所述融合图像中提取待检测目标的步骤之前,还包括:获取多个样本预处理图像;将所述多个样本预处理图像输入预设隐向量学习模型,得到所述训练隐向量学习模型。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.一种红外目标检测方法,其特征在于,所述方法包括:
获取待检测灰度图像;
将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;
将所述至少两种对应的预处理图像进行融合,得到融合图像;
从所述融合图像中提取待检测目标;
其中,所述至少两种视角的学习模型包括训练压缩感知学习模型、训练子空间学习模型和训练注意力学习模型;
所述将所述至少两种对应的预处理图像进行融合,得到融合图像的步骤,包括:
分别获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的权重系数;
根据各所述权重系数将对应的各所述预处理图像进行相加融合,得到所述融合图像;
所述从所述融合图像中提取待检测目标的步骤,包括:
将所述融合图像输入训练隐向量学习模型,得到再处理图像;
从所述再处理图像中提取待检测目标。
2.根据权利要求1所述的方法,其特征在于,所述将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像的步骤之前,还包括:
获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
3.根据权利要求2所述的方法,其特征在于,所述获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的步骤,包括:
获取多个样本灰度图像;
将所述多个样本灰度图像分别输入预设压缩感知学习模型、预设子空间学习模型和预设注意力学习模型进行训练,得到训练后的所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型。
4.根据权利要求1所述的方法,其特征在于,所述从所述融合图像中提取待检测目标的步骤之前,还包括:
获取多个样本预处理图像;
将所述多个样本预处理图像输入预设隐向量学习模型,得到所述训练隐向量学习模型。
5.一种红外目标检测装置,其特征在于,所述装置包括:
待检测图像获取模块,用于获取待检测灰度图像;
预处理模块,用于将所述待检测灰度图像分别输入至少两种视角的训练学习模型,得到至少两种对应的预处理图像;
融合模块,用于将所述至少两种对应的预处理图像进行融合,得到融合图像;
目标提取模块,用于从所述融合图像中提取待检测目标;
其中,所述至少两种视角的学习模型包括训练压缩感知学习模型、训练子空间学习模型和训练注意力学习模型;
所述将所述至少两种对应的预处理图像进行融合,得到融合图像,包括:
分别获取所述训练压缩感知学习模型、所述训练子空间学习模型和所述训练注意力学习模型的权重系数;
根据各所述权重系数将对应的各所述预处理图像进行相加融合,得到所述融合图像;
所述从所述融合图像中提取待检测目标,包括:
将所述融合图像输入训练隐向量学习模型,得到再处理图像;
从所述再处理图像中提取待检测目标。
6.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4中任一项所述方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910296542.0A CN110021036B (zh) | 2019-04-13 | 2019-04-13 | 红外目标检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910296542.0A CN110021036B (zh) | 2019-04-13 | 2019-04-13 | 红外目标检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110021036A CN110021036A (zh) | 2019-07-16 |
CN110021036B true CN110021036B (zh) | 2021-03-16 |
Family
ID=67191287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910296542.0A Active CN110021036B (zh) | 2019-04-13 | 2019-04-13 | 红外目标检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110021036B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114118114A (zh) * | 2020-08-26 | 2022-03-01 | 顺丰科技有限公司 | 一种图像检测方法、装置及其存储介质 |
CN113537253B (zh) * | 2021-08-23 | 2024-01-23 | 北京环境特性研究所 | 一种红外图像目标检测方法、装置、计算设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984936A (zh) * | 2014-05-29 | 2014-08-13 | 中国航空无线电电子研究所 | 用于三维动态目标识别的多传感器多特征融合识别方法 |
CN106022231A (zh) * | 2016-05-11 | 2016-10-12 | 浙江理工大学 | 一种基于多特征融合的行人快速检测的技术方法 |
CN106339702A (zh) * | 2016-11-03 | 2017-01-18 | 北京星宇联合投资管理有限公司 | 一种基于多特征融合的人脸识别方法 |
CN107609595A (zh) * | 2017-09-19 | 2018-01-19 | 长沙理工大学 | 一种线裁剪图像检测方法 |
-
2019
- 2019-04-13 CN CN201910296542.0A patent/CN110021036B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984936A (zh) * | 2014-05-29 | 2014-08-13 | 中国航空无线电电子研究所 | 用于三维动态目标识别的多传感器多特征融合识别方法 |
CN106022231A (zh) * | 2016-05-11 | 2016-10-12 | 浙江理工大学 | 一种基于多特征融合的行人快速检测的技术方法 |
CN106339702A (zh) * | 2016-11-03 | 2017-01-18 | 北京星宇联合投资管理有限公司 | 一种基于多特征融合的人脸识别方法 |
CN107609595A (zh) * | 2017-09-19 | 2018-01-19 | 长沙理工大学 | 一种线裁剪图像检测方法 |
Non-Patent Citations (1)
Title |
---|
基于小样本学习的目标匹配研究;柳青林;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190215;第23-25页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110021036A (zh) | 2019-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11443445B2 (en) | Method and apparatus for depth estimation of monocular image, and storage medium | |
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
US11195038B2 (en) | Device and a method for extracting dynamic information on a scene using a convolutional neural network | |
Rakibe et al. | Background subtraction algorithm based human motion detection | |
WO2018166438A1 (zh) | 图像处理方法、装置及电子设备 | |
CN111862126A (zh) | 深度学习与几何算法结合的非合作目标相对位姿估计方法 | |
JP2020520512A (ja) | 車両外観特徴識別及び車両検索方法、装置、記憶媒体、電子デバイス | |
US10554957B2 (en) | Learning-based matching for active stereo systems | |
CN110298281B (zh) | 视频结构化方法、装置、电子设备及存储介质 | |
Lyasheva et al. | Terrain object recognition in unmanned aerial vehicle control system | |
CN110135344B (zh) | 基于加权固定秩表示的红外弱小目标检测方法 | |
CN112036381B (zh) | 视觉跟踪方法、视频监控方法及终端设备 | |
KR20210099450A (ko) | 딥러닝을 이용한 원거리 소형 드론 탐지 방법 | |
CN110827262B (zh) | 一种基于连续有限帧红外图像的弱小目标检测方法 | |
CN110021036B (zh) | 红外目标检测方法、装置、计算机设备和存储介质 | |
Raza et al. | Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera | |
Lin et al. | SAN: Scale-aware network for semantic segmentation of high-resolution aerial images | |
Venu | Object Detection in Motion Estimation and Tracking analysis for IoT devices | |
CN117292120B (zh) | 一种轻量化可见光绝缘子目标检测方法及系统 | |
CN110458177B (zh) | 图像深度信息的获取方法、图像处理装置以及存储介质 | |
Brosch et al. | Automatic target recognition on high resolution sar images with deep learning domain adaptation | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
Pandey et al. | Implementation of 5-block convolutional neural network (cnn) for saliency improvement on flying object detection in videos | |
Huang et al. | Methods on visual positioning based on basketball shooting direction standardisation | |
KR102528718B1 (ko) | 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |