CN113689471A - 目标跟踪方法、装置、计算机设备及存储介质 - Google Patents
目标跟踪方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113689471A CN113689471A CN202111054644.5A CN202111054644A CN113689471A CN 113689471 A CN113689471 A CN 113689471A CN 202111054644 A CN202111054644 A CN 202111054644A CN 113689471 A CN113689471 A CN 113689471A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- characteristic value
- cloud data
- value matrix
- detection area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本公开提供一种目标跟踪方法、装置、计算机设备及存储介质,其中,所述方法包括:连续多次获取探测区域中已消除背景后的深度点云数据;基于每次获取的深度点云数据得出对应的点云特征值矩阵;计算每相邻两次得出的点云特征值矩阵中相同特征的距离;基于距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配,若匹配,则将后一次得出的点云特征值矩阵替换前一次得出的点云特征值矩阵,若不匹配,则保存前后两次得出的点云特征值矩阵;基于已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪。本公开提供的技术方案可实时发现所述探测区域中的目标是否发生了变化,进而实现目标跟踪,其定位精度较高,算法简单,硬件成本低。
Description
技术领域
本公开涉及目标跟踪技术领域,尤其涉及一种目标跟踪方法、一种目标跟踪装置、一种计算机设备以及一种计算机可读存储介质。
背景技术
在现有技术中,常见的目标跟踪技术分为物联网跟踪定位技术和视频流跟踪定位技术。其中,物联网跟踪定位技术具体为:采用低功耗微控制器并结合一些特定的传感器构成便携终端设备,还需要在所探测的区域内布置大量的已经编码的传感器,再根据终端与编码传感器的连接情况判断目标位置并进行跟踪。视频流跟踪定位技术具体为:将摄像机安装在高处,向下拍摄人流,然后经过某种传输手段将拍摄的视频流接入后端的运算单元,由运算单元对采集的视频流进行识别,最终通过算法的输出计算出摄像头所覆盖的目标进行跟踪。
发明人发现,目前的物联网跟踪定位技术存在如下技术缺陷:需要在使用者或者待跟踪目标身上挂载设备、精度不高、硬件成本昂贵等;目前的视频流跟踪定位技术存在如下技术缺陷:所采集的数据为RGB格式,会受到使用环境内的光照的影响,以及所有的摄像头方案的失效模式的影响;针对视频流的算法设计复杂,后端计算量巨大,算法失效情景多;所需要的摄像头以及后端运算的硬件成本高;视频流数据还存在隐私泄露问题。
因此,提出一种可以提高精度、降低成本的目标跟踪方案是目前亟待解决的问题。
发明内容
为了至少部分解决现有技术中的物联网跟踪定位技术和视频流跟踪定位技术存在精度不高、成本高昂等技术问题而完成了本公开。
根据本公开的一方面,提供一种目标跟踪方法,所述方法包括:
连续多次获取探测区域中已消除背景后的深度点云数据;
基于每次获取的深度点云数据得出对应的点云特征值矩阵;
计算每相邻两次得出的点云特征值矩阵中相同特征的距离;
基于距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配,若匹配,则将后一次得出的点云特征值矩阵替换前一次得出的点云特征值矩阵,若不匹配,则保存前后两次得出的点云特征值矩阵;
基于已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪。
根据本公开的另一方面,提供一种目标跟踪装置,所述装置包括:
第一获取模块,其设置为连续多次获取探测区域中已消除背景后的深度点云数据;
第二获取模块,其设置为基于每次获取的深度点云数据得出对应的点云特征值矩阵;
计算模块,其设置为计算每相邻两次得出的点云特征值矩阵中相同特征的距离;
判断模块,其设置为基于所述计算模块得出的距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配;
存储模块,其设置为在所述判断模块的判断结果为匹配时,将后一次得出的点云特征值矩阵替换前一次得出的点云特征值矩阵,以及在所述判断模块的判断结果为不匹配时,保存前后两次得出的点云特征值矩阵;以及,
跟踪模块,其设置为基于所述存储模块已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪。
根据本公开的又一方面,提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,当所述处理器运行所述存储器存储的计算机程序时,所述处理器执行前述目标跟踪方法。
根据本公开的再一方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,所述处理器执行前述目标跟踪方法。
本公开提供的技术方案可以包括以下有益效果:
本公开提供的目标跟踪方法,基于连续多次获取的探测区域中已消除背景后的深度点云数据可实时发现所述探测区域中的目标是否发生了变化,若发生了变化则记录变化前后两次得出的点云特征值矩阵,并基于已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪,定位精度较高,算法简单,硬件成本低,且不存在隐私泄露问题。
本公开的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本公开而了解。本公开的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本公开技术方案的进一步理解,并且构成说明书的一部分,与本公开的实施例一起用于解释本公开的技术方案,并不构成对本公开技术方案的限制。
图1为本公开实施例提供的目标跟踪方法的流程示意图;
图2为本公开实施例提供的目标跟踪装置的结构示意图;
图3为本公开实施例提供的目标跟踪系统的结构示意图;
图4为本公开实施例提供的计算机设备的结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序;并且,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互任意组合。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本公开的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
图1为本公开实施例提供的目标跟踪方法的流程示意图。如图1所示,所述方法包括如下步骤S101至S106。
S101.连续多次获取探测区域中已消除背景后的深度点云数据;
本步骤中,“点云数据”是指在一个三维坐标系中的一组向量的集合,其中每个点包含有XYZ三维坐标;“深度点云数据”表明所述探测区域中存在物体(即目标),否则将探测区域中的背景消除后无法获得具有实际意义的点云数据;
S102.基于每次获取的深度点云数据得出对应的点云特征值矩阵;
S103.计算每相邻两次得出的点云特征值矩阵中相同特征的距离;
S104.基于距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配,若匹配,则将后一次得出的点云特征值矩阵替换前一次得出的点云特征值矩阵,若不匹配,则保存前后两次得出的点云特征值矩阵;
S105.基于已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪。
本公开实施例中,先获取探测区域中已消除背景后的深度点云数据,再基于每次获取的深度点云数据得出对应的点云特征值矩阵,然后基于每相邻两次得出的点云特征值矩阵中相同特征的距离判断所述探测区域中这两次出现的目标是否匹配,从而实时发现所述探测区域中的目标是否发生变化,继而实现对所述探测区域中目标的跟踪。
在一种具体实施方式中,步骤S101具体包括如下步骤S101a至S101d。
S101a.利用面阵激光雷达采集已清空所有非固定物体后的所述探测区域的点云数据D1;
S101b.利用面阵激光雷达每隔预设时长采集所述探测区域当前场景的点云数据D2i,i依次取1至n1,n1为正整数;其中,预设时长可由本领域技术人员根据实际需求进行设定与调整;
S101c.依次将D2i与D1作差;
S101d.根据步骤S101c得出的差值计算结果得出所述探测区域中已消除背景后的深度点云数据D3i,i依次取1至n2,n2为正整数,n2≤n1。
面阵激光雷达,又称为面阵光电传感器,是一种主动发射激光,并根据光的飞行时间计算雷达与被探测物体之间距离的一种装置。面阵激光雷达包括M行N列个光电传感器(也可称为测距装置),它们共同组成一块包含M*N个测距装置的面阵光电传感器。在每次受到触发时,面阵激光雷达会返回M*N个空间XYZ三维坐标,并且经过一定的补偿算法、畸变算法后,会生成空间的XYZ点云。
在实际应用时,需要在探测区域内某一固定位置处安装面阵激光雷达,并对其中的M*N个测距装置分别进行标号,记作T1-TM*N,还需要将所述探测区域划分为M*N个指定区域并分别进行编号;各个测距装置的标号分别与各个指定区域的编号一一对应,并且每个测距装置需要探测一个对应的指定区域。
在步骤S101a中,需要清空所述探测区域内的所有非固定物体,包括但不限于:人、纸箱、仪器、杂物等,并保持所述探测区域的整洁性,然后再利用面阵激光雷达采集已清空所有非固定物体后的所述探测区域的点云数据D1。
在工程上,考虑到测距装置的误差,可利用面阵激光雷达连续多次采集已清空所有非固定物体后的所述探测区域的点云数据D1i,i依次取1至n3,n3为正整数,再计算D1i的均值,将该均值记为D1并保存。
在步骤S101c中依次将D2i与D1作差,得出的差值计算结果为|D2i-D1|,在计算时D2i的X轴分量与D1的X轴分量相减,D2i的Y轴分量与D1的Y轴分量相减,D2i的Z轴分量与D1的Z轴分量相减,所以差值计算结果仍然是一组点云数据。
本步骤中,通过将探测区域当前场景的点云数据D2i与已清空所有非固定物体后的所述探测区域的点云数据D1作差,即可得出所述探测区域中已消除背景后的深度点云数据D3i,算法简单,并且获取的深度点云数据精度高。
在一种具体实施方式中,步骤S101d具体包括如下步骤d1和d2。
d1.分别判断步骤S101c得出的各个差值计算结果中所有Z轴分量均值的绝对值是否大于预设的第一阈值,若大于预设的第一阈值,则执行步骤d2;否则,返回步骤S101c继续获取下一个差值计算结果;其中,第一阈值可由本领域技术人员根据实际需求进行设定与调整;
d2.将对应的差值计算结果作为所述探测区域中已消除背景后的深度点云数据D3i。
本实施例中,在计算D2i与D1的差值时,需要对差值计算结果进行评判,具体地,先对差值计算结果中所有Z轴分量求平均,再判断均值的绝对值是否大于预设的第一阈值,例如某一定值threshold,只有大于threshold时才说明所述探测区域当前场景中存在物体,并将对应的差值计算结果作为所述探测区域中已消除背景后的深度点云数据。其中,threshold的取值可以为经验值,在工程上,通常选择为1-10cm。
在一种具体实施方式中,步骤S102包括如下步骤S102a和S102b。
S102a.将每次获取的深度点云数据进行聚类,将其划分为不同的子区域;
S102b.对每次获取的深度点云数据所划分的各个子区域的点云数据进行二次运算,得出对应的点云特征值矩阵。
本实施例中,通过对深度点云数据依次进行聚类和二次运算,即可得出对应的点云特征值矩阵,算法简单。
在一种具体实施方式中,将每次获取的深度点云数据进行聚类所采用的算法为:基于密度的空间聚类算法。
本实施例中,采用基于密度的空间聚类算法可以方便、快速地将具有足够高密度的点云划分为不同的子区域。
优选的,聚类算法可以选择DBSCAN(Density-Based Spatial Clustering ofApplications with Noise,具有噪声的基于密度的空间聚类)算法。该算法能够将具有足够密度的区域划分为簇,并在具有噪声的空间数据库中发现任意形状的簇,它将簇定义为密度相连的点的最大集合。采用这种算法在给定了参数之后就可以将已消除背景后的深度点云数据D3i划分为不同的“簇”的点云集合,从而划分为不同的子区域。
在使用DBSCAN算法对深度点云数据进行聚类后,可以根据返回的标签对所划分的各个子区域进行编号,可记为O1-ONi,Ni指的是第i次获取的深度点云数据进行聚类后划分而成的子区域数量。当然,第一次获取的深度点云数据为系统上电后获取到的第一帧点云数据,即为初始化的点云数据。
在一种具体实施方式中,步骤S102b具体包括如下步骤b1至b3。
b1.对每次获取的深度点云数据所划分的各个子区域的点云数据进行数据归一化处理;
b2.计算经过数据归一化处理后的每个子区域的点云数据的特征值集合{Xmin,Xmax,Xmean,Ymin,Ymax,Ymean,Zmin,Zmax,Zmean};
b3.分别将各个子区域的ID与对应的特征值集合进行匹配,得出本次获取的深度点云数据对应的点云特征值矩阵。
在步骤b1中,除了数据归一化处理外,还可包括滤波和校正等处理。
在步骤b2中,得到了描述各个子区域点云数据特征的特征值集合,即每个子区域均对应一个特征值集合。
在特征值集合中,Xmin表示对应子区域点云数据中X轴分量的最小值,Xmax表示对应子区域点云数据中X轴分量的最大值,Xmean表示对应子区域点云数据中所有X轴分量的均值;Ymin表示对应子区域点云数据中Y轴分量的最小值,Ymax表示对应子区域点云数据中Y轴分量的最大值,Ymean表示对应子区域点云数据中所有Y轴分量的均值;Zmin表示对应子区域点云数据中Z轴分量的最小值,Zmax表示对应子区域点云数据中Z轴分量的最大值,Zmean表示对应子区域点云数据中所有Z轴分量的均值。
除了上述特征值以外,特征值集合中还可包括:子区域数量和每个子区域的点云数据中有效数据点的数量。
在步骤b3中,各个子区域的ID即为前面描述的各个子区域的编号O1-ONi。
第一次获取的深度点云数据对应的点云特征值矩阵C1格式如下:
第二次获取的深度点云数据对应的点云特征值矩阵C2格式如下:
以此类推,可以得到其他深度点云数据对应的点云特征值矩阵Ci。
本步骤中,通过对每次获取的深度点云数据进行二次运算(滤波、数据归一化、校正,特征值计算等)就能得出对应的点云特征值矩阵,算法简单、便捷。
在一种具体实施方式中,在步骤b2与b3之间,还包括如下步骤b4:
b4.按照各个子区域的点云数据的特征值集合中Zmean由近及远的顺序对各个特征值集合进行排序,并根据排序结果为各个子区域编号,以作为各个子区域的ID。
本步骤中,在得出各个子区域的点云数据的特征值集合之后,为了便于后续计算每相邻两次得出的点云特征值矩阵中相同特征值集合的距离,需要按照Zmean的大小对特征值集合进行排序,并根据排序结果为各个子区域编号(即重新为各个子区域的编号赋值为O1-ONi)。
相应地,步骤S103具体为:计算每相邻两次得出的点云特征值矩阵中具有相同ID的子区域的点云数据的特征值集合的距离。
本实施例中,在经过数据归一化处理后得出各次获取的深度点云数据对应的点云特征值矩阵后,在步骤S103中可使用KNN(K-Nearest Neighbor,K最近邻)算法实现相邻两次得出的点云特征值矩阵中元素的匹配,便于后续计算距离。
在一种具体实施方式中,在步骤S102之后,还包括如下步骤S106和S107。
S106.针对任意相邻两次得出的点云特征值矩阵,分别获取这两次得出的点云特征值矩阵中所有特征值集合总数;
S107.将后一次得出的特征值集合总数N2与前一次得出的特征值集合总数N1进行对比,若N1>N2,则从前一次得出的点云特征值矩阵中删除溢出的N1-N2个特征值集合并删除对应子区域的ID,再执行步骤S104计算这两次得出的点云特征值矩阵中相同特征(即相同特征值集合)的距离;若N1<N2,则在前一次得出的点云特征值矩阵中增补缺失的N2-N1个特征值集合并为其对应的子区域赋予新的ID,再执行步骤S104计算这两次得出的点云特征值矩阵中相同特征(即相同特征值集合)的距离。
本实施例中,在对所述探测区域中的目标进行跟踪的过程中,针对各次获取的深度点云数据所划分的各个子区域,可能会有新的子区域加入及旧的子区域退出的过程,需要为新的子区域赋予新的ID并增补对应的特征值集合,以及删除旧的子区域的ID并删除对应的特征值集合。
在一种具体实施方式中,在步骤S103中计算的距离具体为欧拉距离。
欧拉距离即欧几里得距离,也叫欧式距离,指的是空间中两个点之间的绝对距离。本公开中,实际计算的是相邻两次获取的深度点云数据所划分的具有相同ID的子区域对应的两个多维向量(Xmin,Xmax,Xmean,Ymin,Ymax,Ymean,Zmin,Zmax,Zmean)之间的欧拉距离。
相应地,步骤S104中基于距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配具体包括如下步骤S104a和S104b。
S104a.针对任意相邻两次得出的点云特征值矩阵,将其中相同特征的欧拉距离按照大小进行排序,并提取出其中预设数量的较小欧拉距离;其中预设数量可由本领域技术人员根据实际需求进行设定与调整,最小可以设为1;
S104b.判断预设数量的较小欧拉距离是否均小于预设的第二阈值,若是,则认为所述探测区域中这相邻两次出现的目标匹配,否则,认为不匹配;其中,第二阈值可由本领域技术人员根据实际需求进行设定与调整,可以为一个固定的或者滑动阈值。
本实施例中,通过欧拉距离判断探测区域中相邻两次出现的目标是否匹配,算法简单且精度高;若判断结果为匹配,说明目标保持不变,若判断结果为不匹配,说明目标发生了变化。
需要说明的是,上述步骤的顺序只是为了说明本公开实施例而提出的一个具体实例,本公开对上述步骤的顺序不做限定,本领域技术人员在实际应用中可按需对其进行调整。
本公开实施例提供的目标跟踪方法,基于连续多次获取的探测区域中已消除背景后的深度点云数据可实时发现所述探测区域中的目标(物体)是否发生了变化,若发生了变化则记录变化前后两次得出的点云特征值矩阵,并基于已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪,定位精度较高,算法简单,硬件成本低,且不存在隐私泄露问题。
图2为本公开实施例提供的目标跟踪装置的结构示意图。如图2所示,所述装置2包括:第一获取模块201、第二获取模块202、计算模块203、判断模块204、存储模块205和跟踪模块206。
其中,第一获取模块201设置为连续多次获取探测区域中已消除背景后的深度点云数据;第二获取模块202设置为基于每次获取的深度点云数据得出对应的点云特征值矩阵;计算模块203设置为计算每相邻两次得出的点云特征值矩阵中相同特征的距离;判断模块204设置为基于计算模块203得出的距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配;存储模块205设置为在判断模块204的判断结果为匹配时,将后一次得出的点云特征值矩阵替换前一次得出的点云特征值矩阵,以及在判断模块204的判断结果为不匹配时,保存前后两次得出的点云特征值矩阵;跟踪模块206设置为基于存储模块205已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪。
在一种具体实施方式中,第一获取模块201包括:第一采集单元、第二采集单元和计算单元。
其中,第一采集单元设置为利用面阵激光雷达采集已清空所有非固定物体后的所述探测区域的点云数据D1;第二采集单元设置为利用面阵激光雷达每隔预设时长采集所述探测区域当前场景的点云数据D2i,i依次取1至n1,n1为正整数;计算单元设置为依次将D2i与D1作差,并根据差值计算结果得出所述探测区域中已消除背景后的深度点云数据D3i,i依次取1至n2,n2为正整数。
在一种具体实施方式中,计算单元包括:第一计算子单元、判断子单元和确定子单元。
其中,第一计算子单元设置为依次将D2i与D1作差;判断子单元设置为分别判断计算子单元得出的各个差值计算结果中所有Z轴分量均值的绝对值是否大于预设的第一阈值;确定子单元设置为在判断子单元的判断结果为大于预设的第一阈值时将对应的差值计算结果作为所述探测区域中已消除背景后的深度点云数据D3i。
在一种具体实施方式中,第二获取模块202包括:第一运算单元和第二运算单元。
其中,第一运算单元设置为将每次获取的深度点云数据进行聚类,将其划分为不同的子区域;第二运算单元设置为对每次获取的深度点云数据所划分的各个子区域的点云数据进行二次运算,得出对应的点云特征值矩阵。
在一种具体实施方式中,第一运算单元将每次获取的深度点云数据进行聚类所采用的算法为:基于密度的空间聚类算法。
在一种具体实施方式中,第二运算单元包括:归一化子单元、第二计算子单元和匹配子单元。
其中,归一化子单元设置为对每次获取的深度点云数据所划分的各个子区域的点云数据进行数据归一化处理;第二计算子单元设置为计算经过数据归一化处理后的每个子区域的点云数据的特征值集合{Xmin,Xmax,Xmean,Ymin,Ymax,Ymean,Zmin,Zmax,Zmean};匹配子单元设置为分别将各个子区域的ID与对应的特征值集合进行匹配,得出本次获取的深度点云数据对应的点云特征值矩阵。
在一种具体实施方式中,第二运算单元还包括:排序子单元。
排序子单元设置为按照各个子区域的点云数据的特征值集合中的Zmean由近及远的顺序对各个特征值集合进行排序,并根据排序结果为各个子区域编号,以作为各个子区域的ID。
相应地,计算模块203具体设置为,计算每相邻两次得出的点云特征值矩阵中具有相同ID的子区域的点云数据的特征值集合的距离。
在一种具体实施方式中,第二运算单元还包括:获取子单元;所述装置2还包括:对比模块207、删除模块208和增补模块209。
其中,获取子单元设置为针对任意相邻两次得出的点云特征值矩阵,分别获取这两次得出的点云特征值矩阵中所有特征值集合总数;对比模块207设置为将后一次得出的特征值集合总数N2与前一次得出的特征值集合总数N1进行对比;删除模块208设置为在对比模块207的对比结果为N1>N2时,从前一次得出的点云特征值矩阵中删除溢出的N1-N2个特征值集合并删除对应子区域的ID,然后计算模块203再计算这两次得出的点云特征值矩阵中相同特征(即相同特征值集合)的距离;增补模块209设置为在对比模块207的对比结果为N1<N2时,在前一次得出的点云特征值矩阵中增补缺失的N2-N1个特征值集合并为其对应的子区域赋予新的ID,然后计算模块203再计算这两次得出的点云特征值矩阵中相同特征值集合的距离。
在一种具体实施方式中,计算模块203计算得出的距离具体为欧拉距离。
相应地,判断模块204包括:排序单元、提取单元和判断单元。
其中,排序单元设置为针对任意相邻两次得出的点云特征值矩阵,将其中相同特征值集合的欧拉距离按照大小进行排序;提取单元设置为根据排序单元的排序结果提取出其中预设数量的较小欧拉距离;判断单元设置为判断预设数量的较小欧拉距离是否均小于预设的第二阈值,若是,则认为所述探测区域中这相邻两次出现的目标匹配,否则,认为不匹配。
本公开实施例提供的目标跟踪装置,基于连续多次获取的探测区域中已消除背景后的深度点云数据可实时发现所述探测区域中的目标(物体)是否发生了变化,若发生了变化则记录变化前后两次得出的点云特征值矩阵,并基于已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪,定位精度较高,算法简单,硬件成本低,且不存在隐私泄露问题。
图3为本公开实施例提供的目标跟踪系统的结构示意图。如图3所示,所述系统包括:计算平台31和面阵激光雷达32。其中,面阵激光雷达32包括M行N列个光电传感器,用于采集已清空所有非固定物体后的探测区域的点云数据,以及每隔预设时长采集所述探测区域当前场景的点云数据,以便计算平台31根据二者差值得出所述探测区域中已消除背景后的深度点云数据;计算平台31可采用前述实施例中的目标跟踪装置2,具体用于统计各个光电传感器(即测距装置)所采集的数据并进行相应的计算,进而实现对所述探测区域中目标的跟踪。
由于目标跟踪装置2的结构已在前文中详细描述,光电传感器属于现有元器件,故而本实施例中对于其结构不再赘述。
基于相同的技术构思,本公开实施例相应还提供一种计算机设备,如图4所示,所述计算机设备4包括存储器41和处理器42,所述存储器41中存储有计算机程序,当所述处理器42运行所述存储器41存储的计算机程序时,所述处理器42执行前述目标跟踪方法。
基于相同的技术构思,本公开实施例相应还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,所述处理器执行前述目标跟踪方法。
综上所述,本公开实施例提供的目标跟踪方法、装置、系统、计算机设备及存储介质,通过面阵激光雷达和计算平台实现对探测区域内目标的跟踪,具体地,先获取探测区域中已消除背景后的深度点云数据,并使用DBSCAN算法对深度点云数据进行聚类以划分为不同的子区域,再对各个子区域的点云数据进行二次运算得出对应的点云特征值矩阵,接着使用KNN算法对每相邻两次得出的点云特征值矩阵中相同特征值集合的元素进行匹配以便计算相同特征值集合的距离,然后基于每相邻两次得出的点云特征值矩阵中相同特征值集合的距离判断所述探测区域中这相邻两次出现的目标是否匹配,并根据判断结果保存相应的点云特征值矩阵,最后根据已保存的点云特征值矩阵实现对所述探测区域中目标(物体)的跟踪,该方案算法简单,硬件成本低,且不存在隐私泄露问题。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
最后应说明的是:以上各实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述各实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的范围。
Claims (12)
1.一种目标跟踪方法,其特征在于,包括:
连续多次获取探测区域中已消除背景后的深度点云数据;
基于每次获取的深度点云数据得出对应的点云特征值矩阵;
计算每相邻两次得出的点云特征值矩阵中相同特征的距离;
基于距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配,若匹配,则将后一次得出的点云特征值矩阵替换前一次得出的点云特征值矩阵,若不匹配,则保存前后两次得出的点云特征值矩阵;
基于已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪。
2.根据权利要求1所述的方法,其特征在于,所述连续多次获取探测区域中已消除背景后的深度点云数据,包括:
利用面阵激光雷达采集已清空所有非固定物体后的所述探测区域的点云数据D1;
利用面阵激光雷达每隔预设时长采集所述探测区域当前场景的点云数据D2i,i依次取1至n1,n1为正整数;
依次将D2i与D1作差,并根据差值计算结果得出所述探测区域中已消除背景后的深度点云数据D3i,i依次取1至n2,n2为正整数。
3.根据权利要求2所述的方法,其特征在于,所述根据差值计算结果得出所述探测区域中已消除背景后的深度点云数据D3i,包括:
分别判断各个差值计算结果中所有Z轴分量均值的绝对值是否大于预设的第一阈值;
若大于预设的第一阈值,则将对应的差值计算结果作为所述探测区域中已消除背景后的深度点云数据D3i。
4.根据权利要求1所述的方法,其特征在于,所述基于每次获取的深度点云数据得出对应的点云特征值矩阵,包括:
将每次获取的深度点云数据进行聚类,将其划分为不同的子区域;
对每次获取的深度点云数据所划分的各个子区域的点云数据进行二次运算,得出对应的点云特征值矩阵。
5.根据权利要求4所述的方法,其特征在于,将每次获取的深度点云数据进行聚类所采用的算法为:基于密度的空间聚类算法。
6.根据权利要求4所述的方法,其特征在于,所述对每次获取的深度点云数据所划分的各个子区域的点云数据进行二次运算,得出对应的点云特征值矩阵,包括:
对每次获取的深度点云数据所划分的各个子区域的点云数据进行数据归一化处理;
计算经过数据归一化处理后的每个子区域的点云数据的特征值集合{Xmin,Xmax,Xmean,Ymin,Ymax,Ymean,Zmin,Zmax,Zmean};
分别将各个子区域的ID与对应的特征值集合进行匹配,得出本次获取的深度点云数据对应的点云特征值矩阵。
7.根据权利要求6所述的方法,其特征在于,在分别将各个子区域的ID与对应的特征值集合进行匹配之前,还包括:
按照各个子区域的点云数据的特征值集合中Zmean由近及远的顺序对各个特征值集合进行排序,并根据排序结果为各个子区域编号,以作为各个子区域的ID;
所述计算每相邻两次得出的点云特征值矩阵中相同特征的距离,具体为:
计算每相邻两次得出的点云特征值矩阵中具有相同ID的子区域的点云数据的特征值集合的距离。
8.根据权利要求6所述的方法,其特征在于,还包括:
针对任意相邻两次得出的点云特征值矩阵,分别获取这两次得出的点云特征值矩阵中所有特征值集合总数;
将后一次得出的特征值集合总数N2与前一次得出的特征值集合总数N1进行对比,若N1>N2,则从前一次得出的点云特征值矩阵中删除溢出的N1-N2个特征值集合并删除对应子区域的ID,再执行计算这两次得出的点云特征值矩阵中相同特征的距离的步骤;若N1<N2,则在前一次得出的点云特征值矩阵中增补缺失的N2-N1个特征值集合并为其对应的子区域赋予新的ID,再执行计算这两次得出的点云特征值矩阵中相同特征的距离的步骤。
9.根据权利要求1所述的方法,其特征在于,所述距离具体为欧拉距离;
所述基于距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配,包括:
针对任意相邻两次得出的点云特征值矩阵,将其中相同特征的欧拉距离按照大小进行排序,并提取出其中预设数量的较小欧拉距离;
判断预设数量的较小欧拉距离是否均小于预设的第二阈值,若是,则认为所述探测区域中这相邻两次出现的目标匹配,否则,认为不匹配。
10.一种目标跟踪装置,其特征在于,包括:
第一获取模块,其设置为连续多次获取探测区域中已消除背景后的深度点云数据;
第二获取模块,其设置为基于每次获取的深度点云数据得出对应的点云特征值矩阵;
计算模块,其设置为计算每相邻两次得出的点云特征值矩阵中相同特征的距离;
判断模块,其设置为基于所述计算模块得出的距离计算结果判断所述探测区域中每相邻两次出现的目标是否匹配;
存储模块,其设置为在所述判断模块的判断结果为匹配时,将后一次得出的点云特征值矩阵替换前一次得出的点云特征值矩阵,以及在所述判断模块的判断结果为不匹配时,保存前后两次得出的点云特征值矩阵;以及,
跟踪模块,其设置为基于所述存储模块已保存的点云特征值矩阵对所述探测区域中的目标进行跟踪。
11.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,当所述处理器运行所述存储器存储的计算机程序时,所述处理器执行根据权利要求1至9中任一项所述的目标跟踪方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,所述处理器执行根据权利要求1至9中任一项所述的目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111054644.5A CN113689471B (zh) | 2021-09-09 | 2021-09-09 | 目标跟踪方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111054644.5A CN113689471B (zh) | 2021-09-09 | 2021-09-09 | 目标跟踪方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113689471A true CN113689471A (zh) | 2021-11-23 |
CN113689471B CN113689471B (zh) | 2023-08-18 |
Family
ID=78585822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111054644.5A Active CN113689471B (zh) | 2021-09-09 | 2021-09-09 | 目标跟踪方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113689471B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114442101A (zh) * | 2022-01-28 | 2022-05-06 | 南京慧尔视智能科技有限公司 | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 |
CN114972433A (zh) * | 2022-05-31 | 2022-08-30 | 清华大学 | 图像处理方法、装置、设备、存储介质及程序产品 |
CN117197239A (zh) * | 2023-09-13 | 2023-12-08 | 北醒(北京)光子科技有限公司 | 冲击点区域定位方法、装置、电子设备及存储介质 |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014178789A (ja) * | 2013-03-14 | 2014-09-25 | Advanced Telecommunication Research Institute International | 追跡装置、追跡プログラムおよび追跡方法 |
CN106803267A (zh) * | 2017-01-10 | 2017-06-06 | 西安电子科技大学 | 基于Kinect的室内场景三维重建方法 |
CN109697728A (zh) * | 2017-10-20 | 2019-04-30 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、系统和存储介质 |
JP2019128196A (ja) * | 2018-01-23 | 2019-08-01 | 株式会社トプコン | 測量装置および測量方法 |
CN110119751A (zh) * | 2018-02-06 | 2019-08-13 | 北京四维图新科技股份有限公司 | 激光雷达点云目标分割方法、目标匹配方法、装置及车辆 |
CN110189257A (zh) * | 2019-06-03 | 2019-08-30 | 北京石油化工学院 | 点云获取的方法、装置、系统及存储介质 |
CN110246159A (zh) * | 2019-06-14 | 2019-09-17 | 湖南大学 | 基于视觉和雷达信息融合的3d目标运动分析方法 |
CN110795523A (zh) * | 2020-01-06 | 2020-02-14 | 中智行科技有限公司 | 车辆定位方法、装置以及智能车辆 |
CN110909713A (zh) * | 2019-12-05 | 2020-03-24 | 深圳市镭神智能系统有限公司 | 点云数据的轨道提取方法、系统及介质 |
CN110927712A (zh) * | 2019-10-28 | 2020-03-27 | 珠海格力电器股份有限公司 | 跟踪方法和装置 |
CN110942476A (zh) * | 2019-10-17 | 2020-03-31 | 湖南大学 | 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 |
CN111126296A (zh) * | 2019-12-25 | 2020-05-08 | 中国联合网络通信集团有限公司 | 水果定位方法及装置 |
CN111239766A (zh) * | 2019-12-27 | 2020-06-05 | 北京航天控制仪器研究所 | 基于激光雷达的水面多目标快速识别跟踪方法 |
US20200242330A1 (en) * | 2017-10-05 | 2020-07-30 | Applications Mobiles Overview Inc. | Method for object recognition |
CN111583663A (zh) * | 2020-04-26 | 2020-08-25 | 宁波吉利汽车研究开发有限公司 | 基于稀疏点云的单目感知修正方法、装置及存储介质 |
CN111640300A (zh) * | 2020-04-28 | 2020-09-08 | 武汉万集信息技术有限公司 | 一种车辆检测处理方法及装置 |
CN112069923A (zh) * | 2020-08-18 | 2020-12-11 | 东莞正扬电子机械有限公司 | 3d人脸点云重建方法及系统 |
CN112330661A (zh) * | 2020-11-24 | 2021-02-05 | 交通运输部公路科学研究所 | 一种多期车载激光点云道路变化监测方法 |
WO2021134258A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳元戎启行科技有限公司 | 基于点云的目标跟踪方法、装置、计算机设备和存储介质 |
US20210256722A1 (en) * | 2020-02-11 | 2021-08-19 | Raytheon Company | Collaborative 3d mapping and surface registration |
CN113340295A (zh) * | 2021-06-16 | 2021-09-03 | 广东工业大学 | 一种多个测距传感器的无人艇近岸实时定位与建图方法 |
WO2021226716A1 (en) * | 2020-05-12 | 2021-11-18 | Glove Systems Inc. | System and method for discrete point coordinate and orientation detection in 3d point clouds |
-
2021
- 2021-09-09 CN CN202111054644.5A patent/CN113689471B/zh active Active
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014178789A (ja) * | 2013-03-14 | 2014-09-25 | Advanced Telecommunication Research Institute International | 追跡装置、追跡プログラムおよび追跡方法 |
CN106803267A (zh) * | 2017-01-10 | 2017-06-06 | 西安电子科技大学 | 基于Kinect的室内场景三维重建方法 |
US20200242330A1 (en) * | 2017-10-05 | 2020-07-30 | Applications Mobiles Overview Inc. | Method for object recognition |
CN109697728A (zh) * | 2017-10-20 | 2019-04-30 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、系统和存储介质 |
JP2019128196A (ja) * | 2018-01-23 | 2019-08-01 | 株式会社トプコン | 測量装置および測量方法 |
CN110119751A (zh) * | 2018-02-06 | 2019-08-13 | 北京四维图新科技股份有限公司 | 激光雷达点云目标分割方法、目标匹配方法、装置及车辆 |
CN110189257A (zh) * | 2019-06-03 | 2019-08-30 | 北京石油化工学院 | 点云获取的方法、装置、系统及存储介质 |
CN110246159A (zh) * | 2019-06-14 | 2019-09-17 | 湖南大学 | 基于视觉和雷达信息融合的3d目标运动分析方法 |
CN110942476A (zh) * | 2019-10-17 | 2020-03-31 | 湖南大学 | 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 |
CN110927712A (zh) * | 2019-10-28 | 2020-03-27 | 珠海格力电器股份有限公司 | 跟踪方法和装置 |
CN110909713A (zh) * | 2019-12-05 | 2020-03-24 | 深圳市镭神智能系统有限公司 | 点云数据的轨道提取方法、系统及介质 |
CN111126296A (zh) * | 2019-12-25 | 2020-05-08 | 中国联合网络通信集团有限公司 | 水果定位方法及装置 |
CN111239766A (zh) * | 2019-12-27 | 2020-06-05 | 北京航天控制仪器研究所 | 基于激光雷达的水面多目标快速识别跟踪方法 |
WO2021134258A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳元戎启行科技有限公司 | 基于点云的目标跟踪方法、装置、计算机设备和存储介质 |
CN110795523A (zh) * | 2020-01-06 | 2020-02-14 | 中智行科技有限公司 | 车辆定位方法、装置以及智能车辆 |
US20210256722A1 (en) * | 2020-02-11 | 2021-08-19 | Raytheon Company | Collaborative 3d mapping and surface registration |
CN111583663A (zh) * | 2020-04-26 | 2020-08-25 | 宁波吉利汽车研究开发有限公司 | 基于稀疏点云的单目感知修正方法、装置及存储介质 |
CN111640300A (zh) * | 2020-04-28 | 2020-09-08 | 武汉万集信息技术有限公司 | 一种车辆检测处理方法及装置 |
WO2021226716A1 (en) * | 2020-05-12 | 2021-11-18 | Glove Systems Inc. | System and method for discrete point coordinate and orientation detection in 3d point clouds |
CN112069923A (zh) * | 2020-08-18 | 2020-12-11 | 东莞正扬电子机械有限公司 | 3d人脸点云重建方法及系统 |
CN112330661A (zh) * | 2020-11-24 | 2021-02-05 | 交通运输部公路科学研究所 | 一种多期车载激光点云道路变化监测方法 |
CN113340295A (zh) * | 2021-06-16 | 2021-09-03 | 广东工业大学 | 一种多个测距传感器的无人艇近岸实时定位与建图方法 |
Non-Patent Citations (8)
Title |
---|
MO YUDA等: "Target accurate positioning based on the point cloud created by stereo vision", 《 2016 23RD INTERNATIONAL CONFERENCE ON MECHATRONICS AND MACHINE VISION IN PRACTICE (M2VIP)》, pages 1 - 5 * |
TAO LIU等: "Moving Camera-Based Object Tracking Using Adaptive Ground Plane Estimation and Constrained Multiple Kernels", 《JOURNAL OF ADVANCED TRANSPORTATION》, pages 1 - 15 * |
WENWEI ZHANG等: "Robust Multi-Modality Multi-Object Tracking", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》, pages 2365 - 2374 * |
崔家武等: "利用MPI 实现多幅点云ICP 并行配准", 《测绘通报》, no. 3, pages 87 - 90 * |
崔明月等: "利用边缘计算的多车协同激光雷达SLAM", 《中国图象图形学报》, vol. 26, no. 1, pages 218 - 228 * |
曹志民等: "机载LiDAR点云定量化局部结构信息分析", 《 地理空间信息》, vol. 14, no. 2, pages 10 - 12 * |
李帅印等: "基于多层激光雷达的目标检测与跟踪算法", 《传感器与微系统》, vol. 39, no. 6, pages 123 - 126 * |
马瑞鑫等: "基于多源异构数据融合的船舶目标检测与跟踪技术研究", 《水道港口》, vol. 42, no. 3, pages 392 - 398 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114442101A (zh) * | 2022-01-28 | 2022-05-06 | 南京慧尔视智能科技有限公司 | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 |
CN114442101B (zh) * | 2022-01-28 | 2023-11-14 | 南京慧尔视智能科技有限公司 | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 |
CN114972433A (zh) * | 2022-05-31 | 2022-08-30 | 清华大学 | 图像处理方法、装置、设备、存储介质及程序产品 |
CN114972433B (zh) * | 2022-05-31 | 2024-07-19 | 清华大学 | 图像处理方法、装置、设备、存储介质及程序产品 |
CN117197239A (zh) * | 2023-09-13 | 2023-12-08 | 北醒(北京)光子科技有限公司 | 冲击点区域定位方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113689471B (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113689471A (zh) | 目标跟踪方法、装置、计算机设备及存储介质 | |
CN110555901B (zh) | 动静态场景的定位和建图方法、装置、设备和存储介质 | |
Sock et al. | Multi-view 6D object pose estimation and camera motion planning using RGBD images | |
CN110019891B (zh) | 图像存储方法、图像检索方法及装置 | |
CN109376256B (zh) | 图像搜索方法及装置 | |
US10515117B2 (en) | Generating and reviewing motion metadata | |
CN107590499A (zh) | 一种基于视频的设备led指示灯状态监测方法及系统 | |
WO2013104432A1 (en) | Detecting video copies | |
US20160117573A1 (en) | Method and apparatus for extracting feature correspondences from multiple images | |
CN113362441B (zh) | 三维重建方法、装置、计算机设备和存储介质 | |
CN111767908B (zh) | 字符检测方法、装置、检测设备及存储介质 | |
CN112927247A (zh) | 基于目标检测的切图方法、切图装置和存储介质 | |
CN111598176B (zh) | 一种图像匹配处理方法及装置 | |
CN111383246A (zh) | 条幅检测方法、装置及设备 | |
KR20220036803A (ko) | 인쇄회로기판 인식마크 검출 장치 및 방법 | |
CN115661131A (zh) | 一种图像识别方法、装置、电子设备及存储介质 | |
Besiris et al. | Key frame extraction in video sequences: a vantage points approach | |
CN111368128B (zh) | 目标图片的识别方法、装置和计算机可读存储介质 | |
CN111178442A (zh) | 一种提高算法精度的业务实现方法 | |
CN111767757B (zh) | 身份信息确定方法及装置 | |
CN116664491A (zh) | 软膜电路板缺陷检测方法及相关装置 | |
CN112257666B (zh) | 目标图像内容的聚合方法、装置、设备及可读存储介质 | |
CN115453563A (zh) | 三维空间动态物体识别方法、系统及存储介质 | |
CN115131705A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN110060343B (zh) | 地图构建方法及系统、服务器、计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |