CN116993785B - 目标对象视觉跟踪方法、装置、电子设备及存储介质 - Google Patents
目标对象视觉跟踪方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116993785B CN116993785B CN202311115538.2A CN202311115538A CN116993785B CN 116993785 B CN116993785 B CN 116993785B CN 202311115538 A CN202311115538 A CN 202311115538A CN 116993785 B CN116993785 B CN 116993785B
- Authority
- CN
- China
- Prior art keywords
- target object
- image
- target
- image block
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000000007 visual effect Effects 0.000 title claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims abstract description 144
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 238000003708 edge detection Methods 0.000 claims description 54
- 230000004927 fusion Effects 0.000 claims description 40
- 238000004590 computer program Methods 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 230000009191 jumping Effects 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 238000004042 decolorization Methods 0.000 claims description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims 1
- 238000010276 construction Methods 0.000 abstract description 12
- 238000004422 calculation algorithm Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及施工安全监管技术领域,尤其涉及一种目标对象视觉跟踪方法、装置、电子设备及存储介质,本发明方法首先获取多个第一图像块;然后对多个第一图像块分别通过边缘提取操作,获得对应多个第一图像块的多个第一特征矩阵;最后根据多个第一相似度以及目标对象出现在多个第一图像块中的概率,确定目标对象的位置。本发明实施方式根据图像块的边缘特征构建的边缘特征矩阵,根据边缘特征矩阵以及包含有目标对象的图像的边缘特征矩阵判断相似度,并根据目标对象出现在图像块中的概率,确定目标对象的位置,其计算量要小于现有的算法。由于考虑了出现在图像块的概率,因此,在目标对象被部分的遮盖时,仍旧能够对其进行跟踪,提高了跟踪识别率。
Description
技术领域
本发明涉及施工安全监管技术领域,尤其涉及一种目标对象视觉跟踪方法、装置、电子设备及存储介质。
背景技术
随着施工行业的快速发展,产业规模的不断扩大,原有的施工安全监管方法呈现各种弊端。例如,施工人员对现场环境不熟悉,超范围作业;施工时出现障碍物遮挡视线,施工人员在不能辨别方向的情况下走失、走散。各种因素时刻威胁着人员生命及财产安全。此外,施工现场环境复杂,工具种类繁多,经常出现现场遗失的情况,很难寻找,导致项目风险增加。
为了使得施工安全得到保证,人们想出了各种办法,例如,在施工现场加装围栏,并建立门禁系统,然而,应用有围栏和门禁系统的监管方法,并不能有效解决场内的安全问题。
另一种安全监管方法是安装视频监控。而安装视频监控后的监管系统,如果通过传统的视觉处理算法发现场内安全隐患,则存在在监管目标对象较多时,视觉处理算法的计算量大,实时性较差的问题。
基于此,需要开发设计出一种目标对象视觉跟踪方法。
发明内容
本发明实施方式提供了一种目标对象视觉跟踪方法、装置、电子设备及存储介质,用于解决现有技术中视觉处理算法计算量大的问题。
第一方面,本发明实施方式提供了一种目标对象视觉跟踪方法,包括:
获取多个第一图像块,其中,第一图像块基于目标区域的图像划分获得,所述目标区域表征目标对象出现的区域;
对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵;
根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,其中,第一相似度根据第一特征矩阵以及第一目标图像块的特征矩阵确定,所述第一相似度表征第一图像块与所述第一目标图像块的相似程度,所述第一目标图像块包含所述目标对象的图像。
在一种可能实现的方式中,所述获取多个第一图像块,包括:
获取第一位置、第二位置以及第三位置,其中,所述第一位置、所述第二位置以及所述第三位置基于所述第一目标图像块、第二目标图像块以及第三目标图像块确定,所述第二目标图像块以及所述第三目标图像块包含所述目标对象的图像,所述第一目标图像块、所述第二目标图像块以及所述第三目标图像块所对应的时间节点依次排列;
根据所述第一位置、所述第二位置以及所述第三位置确定所述目标对象的移动方向、方向变化率、移动速度以及移动速度变化率;
根据所述移动方向、所述方向变化率、所述移动速度以及所述移动速度变化率,确定目标移动方向以及移动半径;
根据所述第一位置、所述目标移动方向以及所述移动半径,确定所述目标区域,其中,所述目标区域为以所述第一位置为中心的矩形,所述目标区域的长轴或短轴与所述目标移动方向平行,所述目标区域内包含有规划圆,所述规划圆为以所述第一位置为圆心且以所述移动半径为半径的圆;
按所述目标区域的长轴和短轴,将所述目标区域的图像划分获得的多个图像块作为所述多个第一图像块。
在一种可能实现的方式中,所述对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵,包括:
获取目标行数以及目标列数,其中,所述目标行数和所述目标列数分别为所述第一目标图像块的特征矩阵的行数和列数;
对于所述多个第一图像块中的每个图像块,分别执行如下操作:
对图块进行去色,获得灰度图;
采用水平边缘检测模板以及竖直边缘检测模板,对所述灰度图提取水平边缘特征矩阵以及竖直边缘特征矩阵;
根据所述水平边缘特征矩阵以及所述竖直边缘特征矩阵,通过边缘合成以及断点接续的方式构建表征边缘特征的融合矩阵;
删除所述融合矩阵的边缘空白行以及边缘空白列,其中,所述边缘空白行和所述边缘空白列分别为位于所述融合矩阵的边缘的不包括有边缘特征的行和列;
根据所述目标行数以及所述目标列数,对删除操作后的融合矩阵进行池化操作,将经过池化操作后的融合矩阵作为第一特征矩阵。
在一种可能实现的方式中,所述采用水平边缘检测模板以及竖直边缘检测模板,对所述灰度图提取水平边缘特征矩阵以及竖直边缘特征矩阵,包括:
获取定位指示、所述水平边缘检测模板以及所述竖直边缘检测模板;
根据所述定位指示,从所述灰度图中取出与所述水平边缘检测模板以及所述竖直边缘检测模板同型的第一数据块;
根据第一公式、所述水平边缘检测模板以及所述竖直边缘检测模板,提取所述第一数据块的水平边缘特征以及竖直边缘特征,其中,所述第一公式为:
式中,为水平边缘特征或竖直边缘特征,/>为水平边缘检测模板或所述竖直边缘检测模板第/>行第/>列的元素,/>为第一数据块第/>行第/>列的元素,/>为第一数据块的行数,/>为第一数据块的列数;
根据所述定位指示,将所述水平边缘特征以及所述竖直边缘特征,分别加入到所述水平边缘特征矩阵以及所述竖直边缘特征矩阵中;
若所述定位指示未达到所述灰度图的末尾,则按照预定的偏移距离对所述定位指示进行偏移,并跳转至所述根据所述定位指示,从所述灰度图中取出与所述水平边缘检测模板以及所述竖直边缘检测模板同型的第一数据块的步骤。
在一种可能实现的方式中,所述根据所述水平边缘特征矩阵以及所述竖直边缘特征矩阵,通过边缘合成以及断点接续的方式构建表征边缘特征的融合矩阵,包括:
获取边缘检测阈值以及邻域半径;
计算所述水平边缘特征矩阵与所述竖直边缘特征矩阵对应元素的平均值,并将平均值加入融合矩阵;
将所述融合矩阵中小于所述边缘检测阈值的元素清零;
获取所述融合矩阵中的断点,其中,所述断点为表征边缘开环的点;
对于所述融合矩阵中的每个断点,执行如下步骤:
根据所述邻域半径获得断点邻域内的多个邻域点;
根据第二公式,判断所述多个邻域点的连续性,其中,所述第二公式为:
式中,为第一断点阈值,/>为第二断点阈值,/>为断点在水平边缘特征矩阵中的值,/>为断点在竖直边缘特征矩阵中的值,/>为邻域点在水平边缘特征矩阵中的值,/>为邻域点在竖直边缘特征矩阵中的值;
若所述多个邻域点中存在满足所述第二公式的点,则将满足所述第二公式的点作为断点,将所述断点的接续平均值替换所述断点在所述融合矩阵中的值,并跳转至所述根据所述邻域半径获得断点邻域内的多个邻域点的步骤,其中,所述接续平均值为所述接续点在竖直边缘特征矩阵中的值和在水平边缘特征矩阵中的值的平均值。
在一种可能实现的方式中,所述根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,包括:
若所述多个第一相似度中存在一个高于第一相似阈值的第一相似度,则将高于第一相似阈值的第一相似度作为目标相似度,并根据所述目标相似度所对应的第一图像块确定所述目标对象的位置;
否则,根据第二相似阈值和所述多个第一相似度,确定多个标签,根据所述多个标签、多个位置概率以及多个条件图像相似概率,确定所述目标对象出现的第一图像块,并根据所述目标对象出现的第一图像块,确定所述目标对象的位置,其中,标签表征第一图像块是否与所述第一目标图像块相似,所述位置概率为所述目标对象出现在第一图像块的概率,条件图像相似概率为出现在第一图块位置时图像相似的概率,所述第二相似阈值小于所述第一相似阈值。
在一种可能实现的方式中,所述根据所述多个标签、多个位置概率以及多个条件图像相似概率,确定所述目标对象出现的第一图像块,包括:
根据第三公式、所述多个位置概率以及所述多个条件图像相似概率,确定图像相似概率,其中,所述图像相似概率为所述多个第一图像块中存在相似图像块的概率,所述第三公式为:
式中,为图像相似概率,/>为目标对象出现在第/>个第一图像块中时第一图像块相似的概率,/>为目标对象出现在第/>个第一图像块的先验概率,为目标对象未出现在第/>个第一图像块中时第一图像块相似的概率,为目标对象未出现在第/>个第一图像块的先验概率,/>为第一图像块的数量;
根据第四公式、所述多个标签、所述图像相似概率、所述多个位置概率以及所述多个条件图像相似概率,确定多个条件位置概率,其中,条件位置概率表征图像相似时所述目标对象出现在第一图像块的概率或图像不相似时所述目标对象出现在第一图像块的概率,所述第四公式为:
式中,为条件位置概率,/>为图像相似时目标对象出现在第/>个第一图像块的概率,/>为标签,/>为图像不相似时目标对象出现在第个第一图像块的概率,/>为目标对象出现在第/>个第一图像块中时第一图像块不相似的概率,/>为图像不相似概率;
根据第五公式以及所述多个条件位置概率,确定所述目标对象出现在每个第一图像块中的后验概率,其中,所述第五公式为:
式中,为目标对象出现在第/>个第一图像块中的后验概率;
将目标第一图像块作为所述目标对象出现的第一图像块,其中,所述目标第一图像块的后验概率最大且所述目标第一图像块的后验概率大于后验概率阈值。
第二方面,本发明实施方式提供了一种目标对象视觉跟踪装置,用于实现如上第一方面或第一方面的任一种可能的实现方式所述的目标对象视觉跟踪方法,所述目标对象视觉跟踪装置包括:
图像块获取模块,用于获取多个第一图像块,其中,第一图像块基于目标区域的图像划分获得,所述目标区域表征目标对象出现的区域;
特征矩阵提取模块,用于对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵;
以及,
目标对象跟踪模块,用于根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,其中,第一相似度根据第一特征矩阵以及第一目标图像块的特征矩阵确定,所述第一相似度表征第一图像块与所述第一目标图像块的相似程度,所述第一目标图像块包含所述目标对象的图像。
第三方面,本发明实施方式提供了一种电子设备,包括存储器以及处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
第四方面,本发明实施方式提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
本发明实施方式与现有技术相比存在的有益效果是:
本发明实施方式公开了一种目标对象视觉跟踪方法,其首先获取多个第一图像块,其中,第一图像块基于目标区域的图像划分获得,所述目标区域表征目标对象出现的区域;然后对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵;最后根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,其中,第一相似度根据第一特征矩阵以及第一目标图像块的特征矩阵确定,所述第一相似度表征第一图像块与所述第一目标图像块的相似程度,所述第一目标图像块包含所述目标对象的图像。本发明实施方式根据图像块的边缘特征构建的边缘特征矩阵,根据边缘特征矩阵以及包含有目标对象的图像的边缘特征矩阵判断相似度,并根据目标对象出现在图像块中的概率,确定目标对象的位置,其计算量要小于现有的算法,而且,由于考虑了出现在图像块的概率,因此,在目标对象被部分的遮盖时,仍旧能够对其进行跟踪,提高了跟踪识别率。
附图说明
为了更清楚地说明本发明实施方式中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施方式提供的目标对象视觉跟踪方法的流程图;
图2是本发明实施方式提供的图像分割原理图;
图3是本发明实施方式提供的目标对象视觉跟踪装置功能框图;
图4是本发明实施方式提供的电子设备功能框图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施方式。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施方式中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施方式来进行说明。
下面对本发明的实施例作详细说明,本实例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
图1为本发明实施方式提供的目标对象视觉跟踪方法的流程图。
如图1所示,其示出了本发明实施方式提供的目标对象视觉跟踪方法的实现流程图,详述如下:
在步骤101中,获取多个第一图像块,其中,第一图像块基于目标区域的图像划分获得,所述目标区域表征目标对象出现的区域。
在一些实施方式中,所述步骤101包括:
获取第一位置、第二位置以及第三位置,其中,所述第一位置、所述第二位置以及所述第三位置基于所述第一目标图像块、第二目标图像块以及第三目标图像块确定,所述第二目标图像块以及所述第三目标图像块包含所述目标对象的图像,所述第一目标图像块、所述第二目标图像块以及所述第三目标图像块所对应的时间节点依次排列;
根据所述第一位置、所述第二位置以及所述第三位置确定所述目标对象的移动方向、方向变化率、移动速度以及移动速度变化率;
根据所述移动方向、所述方向变化率、所述移动速度以及所述移动速度变化率,确定目标移动方向以及移动半径;
根据所述第一位置、所述目标移动方向以及所述移动半径,确定所述目标区域,其中,所述目标区域为以所述第一位置为中心的矩形,所述目标区域的长轴或短轴与所述目标移动方向平行,所述目标区域内包含有规划圆,所述规划圆为以所述第一位置为圆心且以所述移动半径为半径的圆;
按所述目标区域的长轴和短轴,将所述目标区域的图像划分获得的多个图像块作为所述多个第一图像块。
示例性地,如图2所示,该图示出了提供的图像分割原理图。图中,被跟踪的目标对象201,其移动的速度和方向会随时间变动,体现于对应多个时段的分段轨迹202上,那么各个分段轨迹202会长短不一,且彼此之间呈现一定的角度。
根据这些分段轨迹202,可以推测出下一个时间段目标对象201活动的区域204。由于区域204中不同的位置,目标对象201出现的几率会有不同,因此,本实施例将区域划分了多个块205(图中将区域划分了九个块),便于后续根据出现在块205中的几率,判断目标对象201的位置。
在判断区域的位置、方向时,本实施例获取了三个连续的位置,根据位置差,和时间差,计算移动速度,再通过两次的移动速度差,计算获得移动速度变化率,对于移动方向的确定上,同理,通过两个位置可以计算出移动的方向,而计算两次角度的差就获得了方向变化率。根据移动速度和移动速度变化率,就可以确定下一时段的目标对象移动的半径,同理,可以确定下一时段移动的方向。基于移动方向和移动半径就可以规划出一个矩形区域(这个矩形区域是包含以移动半径规划出的圆),并根据移动的方向,对矩形区域进行分割,而获得多个块。
在步骤102中,对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵。
在一些实施方式中,所述步骤102包括:
获取目标行数以及目标列数,其中,所述目标行数和所述目标列数分别为所述第一目标图像块的特征矩阵的行数和列数;
对于所述多个第一图像块中的每个图像块,分别执行如下操作:
对图块进行去色,获得灰度图;
采用水平边缘检测模板以及竖直边缘检测模板,对所述灰度图提取水平边缘特征矩阵以及竖直边缘特征矩阵;
根据所述水平边缘特征矩阵以及所述竖直边缘特征矩阵,通过边缘合成以及断点接续的方式构建表征边缘特征的融合矩阵;
删除所述融合矩阵的边缘空白行以及边缘空白列,其中,所述边缘空白行和所述边缘空白列分别为位于所述融合矩阵的边缘的不包括有边缘特征的行和列;
根据所述目标行数以及所述目标列数,对删除操作后的融合矩阵进行池化操作,将经过池化操作后的融合矩阵作为第一特征矩阵。
在一些实施方式中,所述采用水平边缘检测模板以及竖直边缘检测模板,对所述灰度图提取水平边缘特征矩阵以及竖直边缘特征矩阵,包括:
获取定位指示、所述水平边缘检测模板以及所述竖直边缘检测模板;
根据所述定位指示,从所述灰度图中取出与所述水平边缘检测模板以及所述竖直边缘检测模板同型的第一数据块;
根据第一公式、所述水平边缘检测模板以及所述竖直边缘检测模板,提取所述第一数据块的水平边缘特征以及竖直边缘特征,其中,所述第一公式为:
式中,为水平边缘特征或竖直边缘特征,/>为水平边缘检测模板或所述竖直边缘检测模板第/>行第/>列的元素,/>为第一数据块第/>行第/>列的元素,/>为第一数据块的行数,/>为第一数据块的列数;
根据所述定位指示,将所述水平边缘特征以及所述竖直边缘特征,分别加入到所述水平边缘特征矩阵以及所述竖直边缘特征矩阵中;
若所述定位指示未达到所述灰度图的末尾,则按照预定的偏移距离对所述定位指示进行偏移,并跳转至所述根据所述定位指示,从所述灰度图中取出与所述水平边缘检测模板以及所述竖直边缘检测模板同型的第一数据块的步骤。
在一些实施方式中,所述根据所述水平边缘特征矩阵以及所述竖直边缘特征矩阵,通过边缘合成以及断点接续的方式构建表征边缘特征的融合矩阵,包括:
获取边缘检测阈值以及邻域半径;
计算所述水平边缘特征矩阵与所述竖直边缘特征矩阵对应元素的平均值,并将平均值加入融合矩阵;
将所述融合矩阵中小于所述边缘检测阈值的元素清零;
获取所述融合矩阵中的断点,其中,所述断点为表征边缘开环的点;
对于所述融合矩阵中的每个断点,执行如下步骤:
根据所述邻域半径获得断点邻域内的多个邻域点;
根据第二公式,判断所述多个邻域点的连续性,其中,所述第二公式为:
式中,为第一断点阈值,/>为第二断点阈值,/>为断点在水平边缘特征矩阵中的值,/>为断点在竖直边缘特征矩阵中的值,/>为邻域点在水平边缘特征矩阵中的值,/>为邻域点在竖直边缘特征矩阵中的值;
若所述多个邻域点中存在满足所述第二公式的点,则将满足所述第二公式的点作为断点,将所述断点的接续平均值替换所述断点在所述融合矩阵中的值,并跳转至所述根据所述邻域半径获得断点邻域内的多个邻域点的步骤,其中,所述接续平均值为所述接续点在竖直边缘特征矩阵中的值和在水平边缘特征矩阵中的值的平均值。
示例性地,本发明实施方式对于目标对象的视觉跟踪是基于图像特征提取、并与前一时段的图像的特征对比确认的。一种已有的技术是采用卷积人工神经网络(Convolutional Neural Networks,CNN)识别目标,并对目标进行跟踪的。
采用卷积人工神经网络的跟踪方法,需要大量的样本进行训练,从而提高目标图像的识别率。应用于施工现场时,由于施工现场的图像是基于视频流获取的,图像数量多、需要跟踪的目标多,对于每个目标均采集样本进行训练,显然代价很大。而且,对于一些工具,例如,现场应用的多个铁锹,其外形非常相似,如果依靠上述方法来实现多个铁锹的识别、区分和定位,难度很大。
另外,施工现场的图像经常出现遮挡,从而影响识别效果,例如,某个工作人员行至沙堆后方,仅上半身图像出现于视频中,这种情况会导致卷积人工神经网络识别跟踪的失败。
此外,如前所述,卷积人工神经网络还普遍存在如前所述的计算量大,效率低下、实时性差的问题,这种问题在图像多、目标多时,情况尤甚。
本发明实施方式是基于图像处理,提取边缘特征,并构建边缘特征矩阵,最后判断矩阵的相似性和出现位置的概率,确定目标对象的位置的。因此,计算代价小,无需前期提取样本和训练的投入,避免图像不完整导致的识别失败问题。
对于特征矩阵的提取方面,本发明实施方式首先将图进行了去色,获得灰度图,然后,采用水平边缘检测模板和竖直检测模板,从灰度图中提取边缘,一种竖直边缘检测模板为:
一种水平边缘检测模板为:
在模板的应用方式上,首先从图像中取出一个数据块(数据块与边缘检测模板同型),然后利用第一公式计算边缘特征:
式中,为水平边缘特征或竖直边缘特征,/>为水平边缘检测模板或所述竖直边缘检测模板第/>行第/>列的元素,/>为第一数据块第/>行第/>列的元素,/>为第一数据块的行数,/>为第一数据块的列数。
获得的边缘特征,放入到与数据块的位置相对应的边缘特征矩阵中,然后,按照预定的顺序偏移取出数据块的位置,例如,预定的顺序是从左到右,每次偏移一个数据位置,当数据块到达最右侧时,再从上到下偏移一个数据的位置,并从最左侧的位置开始,直至达到图像的右下角。
从上述过程可以获得两个边缘特征矩阵,分别表征的是水平边缘和竖直边缘,将两个矩阵进行融合后,就获得了较为完整的边缘矩阵。一种融合方式是,计算两个边缘矩阵相同位置元素的算数平均值,放入到融合矩阵中。
实际上,融合矩阵中的边缘存在本可以闭环的开环点,例如,一个搅拌机的外轮廓本可以是一个闭环,但是,由于上方光照的原因,造成高光点边缘断开。实际上,一些边缘是可以被发现和接续的,本发明实施方式,是获取断点的位置,(一种获取方式是,判断边缘点最近的边缘点的方向,在该方向的相反方向,找到最临近的边缘点,如果相反方向的边缘点的距离较大时,说明这个边缘点在相反方向上断开,从而将这个点判定为断点)根据断点的位置和邻域半径,找到多个邻域点,例如半径为5个像素,那么就搜索5个像素半径内的点,对于每个邻域点,分别通过第二公式判断连续性:
式中,为第一断点阈值,/>为第二断点阈值,/>为断点在水平边缘特征矩阵中的值,/>为断点在竖直边缘特征矩阵中的值,/>为邻域点在水平边缘特征矩阵中的值,/>为邻域点在竖直边缘特征矩阵中的值。
当符合第二公式条件时,这个邻域点的接续平均值替换了融合矩阵中的值,并将这个点作为断点,再重复进行上述接续步骤。
当接续完成后,就可以将不存在边缘点的、位于外周边的行和列进行删除。
最后一步是进行池化操作,池化操作的目标是,将融合矩阵进行压缩,减少行数和列数,一种应用场景中,采用的最大池化,其池化过程是,将融合矩阵分割为多个小的数据块,取每个数据块的最大值,然后根据数据块的位置,将这些最大值重新排列,从而将使得融合矩阵的行数和列数与前一次的目标图像的特征矩阵行数和列数相同。
在步骤103中,根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,其中,第一相似度根据第一特征矩阵以及第一目标图像块的特征矩阵确定,所述第一相似度表征第一图像块与所述第一目标图像块的相似程度,所述第一目标图像块包含所述目标对象的图像。
在一些实施方式中,所述步骤103包括:
若所述多个第一相似度中存在一个高于第一相似阈值的第一相似度,则将高于第一相似阈值的第一相似度作为目标相似度,并根据所述目标相似度所对应的第一图像块确定所述目标对象的位置;
否则,根据第二相似阈值和所述多个第一相似度,确定多个标签,根据所述多个标签、多个位置概率以及多个条件图像相似概率确定的所述目标对象出现的第一图像块,并根据所述目标对象出现的第一图像块确定所述目标对象的位置,其中,标签表征第一图像块是否与所述第一目标图像块相似,所述位置概率为所述目标对象出现在第一图像块的概率,条件图像相似概率为出现在第一图块位置时图像相似的概率,第二相似阈值小于第一相似阈值。
在一些实施方式中,所述根据所述多个标签、多个位置概率以及多个条件图像相似概率确定的所述目标对象出现的第一图像块,包括:
根据第三公式、所述多个位置概率以及所述多个条件图像相似概率,确定图像相似概率,其中,所述图像相似概率为所述多个第一图像块中存在相似图像块的概率,所述第三公式为:
式中,为图像相似概率,/>为目标对象出现在第/>个第一图像块中时第一图像块相似的概率,/>为目标对象出现在第/>个第一图像块的先验概率,为目标对象未出现在第/>个第一图像块中时第一图像块相似的概率,为目标对象未出现在第/>个第一图像块的先验概率,/>为第一图像块的数量;
根据第四公式、所述多个标签、所述图像相似概率、所述多个位置概率以及所述多个条件图像相似概率,确定多个条件位置概率,其中,条件位置概率表征图像相似时所述目标对象出现在第一图像块的概率或图像不相似时所述目标对象出现在第一图像块的概率,所述第四公式为:
式中,为条件位置概率,/>为图像相似时所述目标对象出现在第/>个第一图像块的概率,/>为标签,/>为图像不相似时所述目标对象出现在第/>个第一图像块的概率,/>为目标对象出现在第/>个第一图像块中时第一图像块不相似的概率,/>为图像不相似概率;
根据第五公式以及所述多个条件位置概率,确定所述目标对象出现在每个第一图像块中的后验概率,其中,所述第五公式为:
式中,为目标对象出现在第/>个第一图像块中的后验概率;
将目标第一图像块作为所述目标对象出现的第一图像块,其中,所述目标第一图像块的后验概率最大且所述目标第一图像块的后验概率大于后验概率阈值。
示例性地,前述过程获得的矩阵,首先判断与目标对象之前图像的特征矩阵的相似度,然后根据目标对象出现在多个块中的概率,最后确定目标对象的位置。
判断相似度有多中方式,例如,采用下述公式:
式中,为相似度,/>为第一特征矩阵,/>为第一目标图像块的特征矩阵,/>为第一特征矩阵的行数,/>为第一特征矩阵的列数。
如果通过上述公式计算获得的相似度值比较高,例如,在0.9以上(通过上述计算公式计算获得的相似度分布在-1到1之间),那么可以确定,目标对象就出现在该图像块中。
而实际情况更多的是,通过上述公式计算获得的相似度不能充分证明其在该图像块中。例如,如图2所示中最前方的图像块205是最有可能出现目标对象203的图像块,尽管其相似度只有0.6,然而,其他图像块的相似度低至0.3以下,我们仍然有理由相信目标对象出现在了该图像块中。
上述判断过程是一个条件概率和联合概率的过程。为了解决相似度不能充分证明是否出现在图像块中的问题,本实施例首先获得了多个条件概率,并根据条件概率确定目标对象是否出现在了图像块中。本发明实施方式中获取的条件概率是在目标对象出现在图像块中时,图像相似的概率。
目标对象出现在不同图像块中时,其图像相似概率不同。出现在最前方的图像相似概率较高,因为目标对象呈现的方向与之前的图像中的方向基本相同。同理,出现在后方时的相似概率较低。
而根据每个图像块图像相似的概率,本实施例可以应用第三公式,计算获得,总体图像块相似的概率:
式中,为图像相似概率,/>为目标对象出现在第/>个第一图像块中时第一图像块相似的概率,/>为目标对象出现在第/>个第一图像块的先验概率,为目标对象未出现在第/>个第一图像块中时第一图像块相似的概率,为目标对象未出现在第/>个第一图像块的先验概率,/>为第一图像块的数量。
与此同时,本实施例将低于明显相似的相似度再次进行了划分(如前所述,明显相似的图像不考虑位置概率),例如,相似度在0.9以上为确定出现在该图像块中,以0.9以下、0.5以上为相似,0.5以下为不相似,将多个图像块设置了标签。
如此一来,各个图像块的是否相似就确定了,在是否相似确定的时候,本实施例再判断是否出现在该图像块中,可以应用第四公式:
式中,为条件位置概率,/>为图像相似时目标对象出现在第/>个第一图像块的概率,/>为标签,/>为图像不相似时目标对象出现在第个第一图像块的概率,/>为目标对象出现在第/>个第一图像块中时第一图像块不相似的概率,/>为图像不相似概率。
上述过程就是说明,在已知图像块相似,或者不相似时,目标对象出现在图像块中的概率。实际上,上述公式说明了多种可能的情况,如即便相似,未必能说明目标对象出现在了该图块中,例如,之前目标对象的图像中,背景内容占据了多数部分,进一步导致图像相似度较高。如即便不是那么相似,仍有可能是目标出现在了该图块中,例如,目标对象被树木所遮挡。因此,综合考虑出现的几率和相似度是比较稳妥的方案。
在获得了多个图像块的条件位置概率后,就可以通过第五公式确定每个图像块的后验概率:
式中,为目标对象出现在第/>个第一图像块中的后验概率。
如果某个图像块的后验概率最高,且超过后验概率阈值,则可以确定目标对象出现在了该图像块中。反之,如果后验概率不是最高的,或者,即便是最高的但是未能超过后验概率,不能将其作为目标对象出现在该图像块中的依据,此时,应当采用辅助方法,例如,启用卷积人工神经网络进行详细的判断出现在了哪个图像块中。
本发明目标对象视觉跟踪方法实施方式,其首先获取多个第一图像块,其中,第一图像块基于目标区域的图像划分获得,所述目标区域表征目标对象出现的区域;然后对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵;最后根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,其中,第一相似度根据第一特征矩阵以及第一目标图像块的特征矩阵确定,所述第一相似度表征第一图像块与所述第一目标图像块的相似程度,所述第一目标图像块包含所述目标对象的图像。本发明实施方式根据图像块的边缘特征构建的边缘特征矩阵,根据边缘特征矩阵以及包含有目标对象的图像的边缘特征矩阵判断相似度,并根据目标对象出现在图像块中的概率,确定目标对象的位置,其计算量要小于现有的算法,而且,由于考虑了出现在图像块的概率,因此,在目标对象被部分的遮盖时,仍旧能够对其进行跟踪,提高了跟踪识别率。
应理解,上述实施方式中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施方式的实施过程构成任何限定。
以下为本发明的装置实施方式,对于其中未详尽描述的细节,可以参考上述对应的方法实施方式。
图3是本发明实施方式提供的目标对象视觉跟踪装置功能框图,参照图3,目标对象视觉跟踪装置包括:图像块获取模块301、特征矩阵提取模块302以及目标对象跟踪模块303,其中:
图像块获取模块301,用于获取多个第一图像块,其中,第一图像块基于目标区域的图像划分获得,所述目标区域表征目标对象出现的区域;
特征矩阵提取模块302,用于对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵;
目标对象跟踪模块303,用于根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,其中,第一相似度根据第一特征矩阵以及第一目标图像块的特征矩阵确定,所述第一相似度表征第一图像块与所述第一目标图像块的相似程度,所述第一目标图像块包含所述目标对象的图像。
图4是本发明实施方式提供的电子设备的功能框图。如图4所示,该实施方式的电子设备4包括:处理器400和存储器401,所述存储器401中存储有可在所述处理器400上运行的计算机程序402。所述处理器400执行所述计算机程序402时实现上述各个目标对象视觉跟踪方法及实施方式中的步骤,例如图1所示的步骤101至步骤103。
示例性的,所述计算机程序402可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器401中,并由所述处理器400执行,以完成本发明。
所述电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述电子设备4可包括,但不仅限于,处理器400、存储器401。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备4还可以包括输入输出设备、网络接入设备、总线等。
所称处理器400可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列 (Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器401可以是所述电子设备4的内部存储单元,例如电子设备4的硬盘或内存。所述存储器401也可以是所述电子设备4的外部存储设备,例如所述电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器401还可以既包括所述电子设备4的内部存储单元也包括外部存储设备。所述存储器401用于存储所述计算机程序402以及所述电子设备4所需的其他程序和数据。所述存储器401还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施方式中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施方式中的对应过程,在此不再赘述。
在上述实施方式中,对各个实施方式的描述都各有侧重,某个实施方式中没有详述或记载的部分,可以参见其它实施方式的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施方式描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施方式中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施方式仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本发明各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施方式方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法及装置实施方式的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。
以上所述实施方式仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施方式对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施方式技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (8)
1.一种目标对象视觉跟踪方法,其特征在于,包括:
获取多个第一图像块,其中,第一图像块基于目标区域的图像划分获得,所述目标区域表征目标对象出现的区域;
对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵;
根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,其中,第一相似度根据第一特征矩阵以及第一目标图像块的特征矩阵确定,所述第一相似度表征第一图像块与所述第一目标图像块的相似程度,所述第一目标图像块包含所述目标对象的图像;
其中,所述根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,包括:
若所述多个第一相似度中存在一个高于第一相似阈值的第一相似度,则将高于第一相似阈值的第一相似度作为目标相似度,并根据所述目标相似度所对应的第一图像块确定所述目标对象的位置;
否则,根据第二相似阈值和所述多个第一相似度,确定多个标签,根据所述多个标签、多个位置概率以及多个条件图像相似概率,确定所述目标对象出现的第一图像块,并根据所述目标对象出现的第一图像块,确定所述目标对象的位置,其中,标签表征第一图像块是否与所述第一目标图像块相似,所述位置概率为所述目标对象出现在第一图像块的概率,条件图像相似概率为出现在第一图块位置时图像相似的概率,所述第二相似阈值小于所述第一相似阈值;
所述根据所述多个标签、多个位置概率以及多个条件图像相似概率,确定所述目标对象出现的第一图像块,包括:
根据第三公式、所述多个位置概率以及所述多个条件图像相似概率,确定图像相似概率,其中,所述图像相似概率为所述多个第一图像块中存在相似图像块的概率,所述第三公式为:
式中,P(IS)为图像相似概率,P(IS|PSTn)为目标对象出现在第n个第一图像块中时第一图像块相似的概率,P(PSTn)为目标对象出现在第n个第一图像块的先验概率,为目标对象未出现在第n个第一图像块中时第一图像块相似的概率,/>为目标对象未出现在第n个第一图像块的先验概率,N为第一图像块的数量;
根据第四公式、所述多个标签、所述图像相似概率、所述多个位置概率以及所述多个条件图像相似概率,确定多个条件位置概率,其中,条件位置概率表征图像相似时所述目标对象出现在第一图像块的概率或图像不相似时所述目标对象出现在第一图像块的概率,所述第四公式为:
式中,P(CPSTn)为条件位置概率,P(PSTn|IS)为图像相似时目标对象出现在第n个第一图像块的概率,Label为标签,为图像不相似时目标对象出现在第n个第一图像块的概率,/>为目标对象出现在第n个第一图像块中时第一图像块不相似的概率,/>为图像不相似概率;
根据第五公式以及所述多个条件位置概率,确定所述目标对象出现在每个第一图像块中的后验概率,其中,所述第五公式为:
式中,P(RPSTn)为目标对象出现在第n个第一图像块中的后验概率;
将目标第一图像块作为所述目标对象出现的第一图像块,其中,所述目标第一图像块的后验概率最大且所述目标第一图像块的后验概率大于后验概率阈值。
2.根据权利要求1所述的目标对象视觉跟踪方法,其特征在于,所述获取多个第一图像块,包括:
获取第一位置、第二位置以及第三位置,其中,所述第一位置、所述第二位置以及所述第三位置基于所述第一目标图像块、第二目标图像块以及第三目标图像块确定,所述第二目标图像块以及所述第三目标图像块包含所述目标对象的图像,所述第一目标图像块、所述第二目标图像块以及所述第三目标图像块所对应的时间节点依次排列;
根据所述第一位置、所述第二位置以及所述第三位置,确定所述目标对象的移动方向、方向变化率、移动速度以及移动速度变化率;
根据所述移动方向、所述方向变化率、所述移动速度以及所述移动速度变化率,确定目标移动方向以及移动半径;
根据所述第一位置、所述目标移动方向以及所述移动半径,确定所述目标区域,其中,所述目标区域为以所述第一位置为中心的矩形,所述目标区域的长轴或短轴与所述目标移动方向平行,所述目标区域内包含有规划圆,所述规划圆为以所述第一位置为圆心且以所述移动半径为半径的圆;
按所述目标区域的长轴和短轴,将所述目标区域的图像划分获得的多个图像块作为所述多个第一图像块。
3.根据权利要求1所述的目标对象视觉跟踪方法,其特征在于,所述对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵,包括:
获取目标行数以及目标列数,其中,所述目标行数和所述目标列数分别为所述第一目标图像块的特征矩阵的行数和列数;
对于所述多个第一图像块中的每个图像块,分别执行如下操作:
对图块进行去色,获得灰度图;
采用水平边缘检测模板以及竖直边缘检测模板,对所述灰度图提取水平边缘特征矩阵以及竖直边缘特征矩阵;
根据所述水平边缘特征矩阵以及所述竖直边缘特征矩阵,通过边缘合成以及断点接续的方式,构建表征边缘特征的融合矩阵;
删除所述融合矩阵的边缘空白行以及边缘空白列,其中,所述边缘空白行和所述边缘空白列分别为位于所述融合矩阵的边缘的不包括有边缘特征的行和列;
根据所述目标行数以及所述目标列数,对删除操作后的融合矩阵进行池化操作,将经过池化操作后的融合矩阵作为第一特征矩阵。
4.根据权利要求3所述的目标对象视觉跟踪方法,其特征在于,所述采用水平边缘检测模板以及竖直边缘检测模板,对所述灰度图提取水平边缘特征矩阵以及竖直边缘特征矩阵,包括:
获取定位指示、所述水平边缘检测模板以及所述竖直边缘检测模板;
根据所述定位指示,从所述灰度图中取出与所述水平边缘检测模板以及所述竖直边缘检测模板同型的第一数据块;
根据第一公式、所述水平边缘检测模板以及所述竖直边缘检测模板,提取所述第一数据块的水平边缘特征以及竖直边缘特征,其中,所述第一公式为:
式中,feture为水平边缘特征或竖直边缘特征,module(rn,ln)为水平边缘检测模板或所述竖直边缘检测模板第rn行第ln列的元素,datablock(rn,ln)为第一数据块第rn行第ln列的元素,Rn为第一数据块的行数,Ln为第一数据块的列数;
根据所述定位指示,将所述水平边缘特征以及所述竖直边缘特征,分别加入到所述水平边缘特征矩阵以及所述竖直边缘特征矩阵中;
若所述定位指示未达到所述灰度图的末尾,则按照预定的偏移距离对所述定位指示进行偏移,并跳转至所述根据所述定位指示,从所述灰度图中取出与所述水平边缘检测模板以及所述竖直边缘检测模板同型的第一数据块的步骤。
5.根据权利要求3所述的目标对象视觉跟踪方法,其特征在于,所述根据所述水平边缘特征矩阵以及所述竖直边缘特征矩阵,通过边缘合成以及断点接续的方式构建表征边缘特征的融合矩阵,包括:
获取边缘检测阈值以及邻域半径;
计算所述水平边缘特征矩阵与所述竖直边缘特征矩阵对应元素的平均值,并将平均值加入融合矩阵;
将所述融合矩阵中小于所述边缘检测阈值的元素清零;
获取所述融合矩阵中的断点,其中,所述断点为表征边缘开环的点;
对于所述融合矩阵中的每个断点,执行如下步骤:
根据所述邻域半径获得断点邻域内的多个邻域点;
根据第二公式,判断所述多个邻域点的连续性,其中,所述第二公式为:
式中,Ath为第一断点阈值,θth为第二断点阈值,Vbx为断点在水平边缘特征矩阵中的值,Hbx为断点在竖直边缘特征矩阵中的值,Vnx为邻域点在水平边缘特征矩阵中的值,Hnx为邻域点在竖直边缘特征矩阵中的值;
若所述多个邻域点中存在满足所述第二公式的点,则将满足所述第二公式的点作为断点,将所述断点的接续平均值替换所述断点在所述融合矩阵中的值,并跳转至所述根据所述邻域半径获得断点邻域内的多个邻域点的步骤,其中,所述接续平均值为接续点在竖直边缘特征矩阵中的值和在水平边缘特征矩阵中的值的平均值。
6.一种目标对象视觉跟踪装置,其特征在于,用于实现如权利要求1-5任一项所述的目标对象视觉跟踪方法,所述目标对象视觉跟踪装置包括:
图像块获取模块,用于获取多个第一图像块,其中,第一图像块基于目标区域的图像划分获得,所述目标区域表征目标对象出现的区域;
特征矩阵提取模块,用于对所述多个第一图像块分别通过边缘提取操作,获得对应所述多个第一图像块的多个第一特征矩阵;
以及,
目标对象跟踪模块,用于根据多个第一相似度以及所述目标对象出现在所述多个第一图像块中的概率,确定所述目标对象的位置,其中,第一相似度根据第一特征矩阵以及第一目标图像块的特征矩阵确定,所述第一相似度表征第一图像块与所述第一目标图像块的相似程度,所述第一目标图像块包含所述目标对象的图像。
7.一种电子设备,包括存储器和处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上的权利要求1至5中任一项所述方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上的权利要求1至5中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311115538.2A CN116993785B (zh) | 2023-08-31 | 2023-08-31 | 目标对象视觉跟踪方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311115538.2A CN116993785B (zh) | 2023-08-31 | 2023-08-31 | 目标对象视觉跟踪方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116993785A CN116993785A (zh) | 2023-11-03 |
CN116993785B true CN116993785B (zh) | 2024-02-02 |
Family
ID=88533931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311115538.2A Active CN116993785B (zh) | 2023-08-31 | 2023-08-31 | 目标对象视觉跟踪方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116993785B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117292104B (zh) * | 2023-11-22 | 2024-02-27 | 南京掌控网络科技有限公司 | 基于图像识别的货架陈列检测方法及系统 |
CN118366227B (zh) * | 2024-06-20 | 2024-10-25 | 河北科曼信息技术有限公司 | 行动轨迹识别方法、装置、电子设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654514A (zh) * | 2015-12-31 | 2016-06-08 | 中国人民解放军国防科学技术大学 | 一种图像目标跟踪方法 |
CN106204644A (zh) * | 2016-07-01 | 2016-12-07 | 屈桢深 | 一种基于视频的目标长期跟踪方法 |
CN106886784A (zh) * | 2017-02-16 | 2017-06-23 | 长沙理工大学 | 一种基于模板更新的改进型联合稀疏表示大输液中异物跟踪方法 |
CN109671103A (zh) * | 2018-12-12 | 2019-04-23 | 易视腾科技股份有限公司 | 目标跟踪方法及装置 |
CN110488874A (zh) * | 2019-08-29 | 2019-11-22 | 五邑大学 | 一种教育辅助机器人及其控制方法 |
CN110516705A (zh) * | 2019-07-19 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
CN110570451A (zh) * | 2019-08-05 | 2019-12-13 | 武汉大学 | 基于stc和分块重检测的多线程视觉目标跟踪方法 |
CN111340842A (zh) * | 2020-02-17 | 2020-06-26 | 江南大学 | 一种基于联合模型的相关滤波目标跟踪算法 |
CN111612822A (zh) * | 2020-05-21 | 2020-09-01 | 广州海格通信集团股份有限公司 | 对象跟踪方法、装置、计算机设备和存储介质 |
CN113362341A (zh) * | 2021-06-10 | 2021-09-07 | 中国人民解放军火箭军工程大学 | 基于超像素结构约束的空地红外目标跟踪数据集标注方法 |
CN114463664A (zh) * | 2021-12-23 | 2022-05-10 | 智能多维数据分析研究中心有限公司 | 一种用于冰球运动的新型冰球追踪方法 |
CN116030096A (zh) * | 2023-01-13 | 2023-04-28 | 普联技术有限公司 | 目标识别方法、装置、终端设备及计算机可读存储介质 |
CN116503239A (zh) * | 2023-05-15 | 2023-07-28 | 芯驿电子科技(上海)有限公司 | 车载视频数据异常化处理及仿真方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010039788A (ja) * | 2008-08-05 | 2010-02-18 | Toshiba Corp | 画像処理装置及びその方法並びに画像処理プログラム |
US11914674B2 (en) * | 2011-09-24 | 2024-02-27 | Z Advanced Computing, Inc. | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
-
2023
- 2023-08-31 CN CN202311115538.2A patent/CN116993785B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654514A (zh) * | 2015-12-31 | 2016-06-08 | 中国人民解放军国防科学技术大学 | 一种图像目标跟踪方法 |
CN106204644A (zh) * | 2016-07-01 | 2016-12-07 | 屈桢深 | 一种基于视频的目标长期跟踪方法 |
CN106886784A (zh) * | 2017-02-16 | 2017-06-23 | 长沙理工大学 | 一种基于模板更新的改进型联合稀疏表示大输液中异物跟踪方法 |
CN109671103A (zh) * | 2018-12-12 | 2019-04-23 | 易视腾科技股份有限公司 | 目标跟踪方法及装置 |
CN110516705A (zh) * | 2019-07-19 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
CN110570451A (zh) * | 2019-08-05 | 2019-12-13 | 武汉大学 | 基于stc和分块重检测的多线程视觉目标跟踪方法 |
CN110488874A (zh) * | 2019-08-29 | 2019-11-22 | 五邑大学 | 一种教育辅助机器人及其控制方法 |
CN111340842A (zh) * | 2020-02-17 | 2020-06-26 | 江南大学 | 一种基于联合模型的相关滤波目标跟踪算法 |
CN111612822A (zh) * | 2020-05-21 | 2020-09-01 | 广州海格通信集团股份有限公司 | 对象跟踪方法、装置、计算机设备和存储介质 |
CN113362341A (zh) * | 2021-06-10 | 2021-09-07 | 中国人民解放军火箭军工程大学 | 基于超像素结构约束的空地红外目标跟踪数据集标注方法 |
CN114463664A (zh) * | 2021-12-23 | 2022-05-10 | 智能多维数据分析研究中心有限公司 | 一种用于冰球运动的新型冰球追踪方法 |
CN116030096A (zh) * | 2023-01-13 | 2023-04-28 | 普联技术有限公司 | 目标识别方法、装置、终端设备及计算机可读存储介质 |
CN116503239A (zh) * | 2023-05-15 | 2023-07-28 | 芯驿电子科技(上海)有限公司 | 车载视频数据异常化处理及仿真方法 |
Non-Patent Citations (3)
Title |
---|
Multiple Object Tracking Using Edge Multi-Channel Gradient Model With ORB Feature;Jieyu Chen等;《IEEE Access》;第9卷;第2294-2309页 * |
基于图像集的视觉目标跟踪算法研究;沈映菊;《中国优秀硕士学位论文全文数据库 信息科技辑》(第3期);第I138-6096页 * |
基于鲁棒特征学习的目标跟踪研究;熊紫薇;《中国优秀硕士学位论文全文数据库 信息科技辑》(第7期);第I138-1123页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116993785A (zh) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116993785B (zh) | 目标对象视觉跟踪方法、装置、电子设备及存储介质 | |
CN111666921B (zh) | 车辆控制方法、装置、计算机设备和计算机可读存储介质 | |
CN110555901B (zh) | 动静态场景的定位和建图方法、装置、设备和存储介质 | |
CN111488808B (zh) | 基于交通违法图像数据的车道线检测方法 | |
KR20210006511A (ko) | 차선 결정 방법, 디바이스 및 저장 매체 | |
CN110472580B (zh) | 基于全景影像的检测车位的方法、装置、存储介质 | |
US12073537B1 (en) | Image data enhancement method and apparatus, computer device, and storage medium | |
CN104301630B (zh) | 一种视频图像拼接方法及装置 | |
CN111433780A (zh) | 车道线检测方法、设备、计算机可读存储介质 | |
CN111295666A (zh) | 一种车道线检测方法、装置、控制设备及存储介质 | |
CN109118494B (zh) | 一种基于凹点匹配的重叠区域分割方法及装置 | |
CN114387296A (zh) | 目标轨迹追踪方法、装置、计算机设备及存储介质 | |
CN113836251A (zh) | 一种认知地图构建方法、装置、设备及介质 | |
Agrawal et al. | Off-road lane detection using superpixel clustering and ransac curve fitting | |
CN112614154A (zh) | 目标跟踪轨迹的获取方法、装置及计算机设备 | |
CN117710403A (zh) | 目标跟踪检测方法、装置、设备和存储介质 | |
CN111507287A (zh) | 一种航空影像中道路斑马线角点提取方法及系统 | |
Naseer et al. | Vision-based Markov localization across large perceptual changes | |
CN112966658B (zh) | 机器人导航方法、装置、终端设备及计算机可读存储介质 | |
CN116721396A (zh) | 车道线检测方法、设备及存储介质 | |
CN113673332B (zh) | 对象识别方法、装置以及计算机可读存储介质 | |
CN116245915A (zh) | 一种基于视频的目标跟踪方法 | |
CN114581890A (zh) | 确定车道线的方法、装置、电子设备和存储介质 | |
CN118379315B (zh) | 一种基于FPGA的8方向Sobel边缘检测系统 | |
CN111753689B (zh) | 图像纹理特征的提取方法和图像识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |