CN111192297A - 一种基于度量学习的多摄像头目标关联跟踪方法 - Google Patents
一种基于度量学习的多摄像头目标关联跟踪方法 Download PDFInfo
- Publication number
- CN111192297A CN111192297A CN201911407164.5A CN201911407164A CN111192297A CN 111192297 A CN111192297 A CN 111192297A CN 201911407164 A CN201911407164 A CN 201911407164A CN 111192297 A CN111192297 A CN 111192297A
- Authority
- CN
- China
- Prior art keywords
- idi
- tracking
- img
- frame
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 abstract description 5
- 230000007547 defect Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 abstract description 3
- 238000005259 measurement Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002918 waste heat Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明属于计算机视频图像处理技术领域,尤其涉及一种基于度量学习的多摄像头目标关联跟踪方法。该种基于度量学习的多摄像头目标关联跟踪方法其目的在于克服多摄像头之间信息不能共享、信息混淆,以及解决单一一个摄像头遮挡造成跟踪丢失等技术缺陷,同时可进一步将跟踪算法嵌入到硬件设备中,以提高算法的稳定性与实用性。该多摄像头目标关联跟踪方法包括有如下步骤:通过n个摄像头同时采集目标场所内目标物体的视频集;对目标物体进行检测跟踪,得到跟踪结果;从跟踪结果中提取出检测框;将提取出的检测框送入深度卷积网络,提取出特征向量;进行余弦距离的计算;通过阈值比较判断同一帧的物体是否相似;关联成功实现跟踪。
Description
技术领域
该发明属于计算机视频图像处理技术领域,尤其涉及一种基于度量学习的多摄像头目标关联跟踪方法。
背景技术
随着计算机视频图像处理技术的发展,多目标跟踪在智能监控、动作与行为分析、自动驾驶等领域都有了重要应用。多目标跟踪通过给定一个图像序列,找到图像序列中运动的物体,并将不同帧的运动物体进行识别,确定一个准确的目标标识,这些运动物体可以是任意的,如行人、车辆、动物等。随着近年来目标检测领域的发展,用检测来跟踪(Tracking-by-detection)的算法在多目标跟踪中成为主流,之前出现了用于检测的流网络公式和概率图形模型,但它们处理的是整个过程的全局优化问题,不适用于在线场景。检测后使用的跟踪算法常见的有SORT算法和Deep Sort算法。SORT算法使用简单的卡尔曼滤波处理逐帧数据的关联性以及使用匈牙利算法进行关联度量,这种简单的算法在高帧速率下获得了良好的性能,但由于忽略了被检测物体的表面特征,导致只有在物体状态估计不确定性较低时SORT算法才会准确。而Deep Sort算法使用更加可靠的度量来代替关联度量,并使用卷积神经网络在大规模行人数据集上进行训练,提取特征,增加了网络对遗失和障碍的鲁棒性。虽然Yolo算法和Deep Sort算法结合进行多目标跟踪已成为主流算法之一,但是在复杂环境造成人员遮挡、交叉等情况下,常出现上一帧物体标识与下一帧相同物体标识对应出错的情况;且如果将该算法用于多摄像头跟踪中,虽然多个摄像头能观测到的范围存在共同区域,但是无法将多个摄像头的跟踪信息关联起来,最终会导致多目标跟踪效果精度不高,目标物体的信息错误。
发明内容
本发明提供了一种基于度量学习的多摄像头目标关联跟踪方法,该种基于度量学习的多摄像头目标关联跟踪方法其目的在于克服多摄像头之间信息不能共享、信息混淆,以及解决单一一个摄像头遮挡造成跟踪丢失等技术缺陷,同时可进一步将跟踪算法嵌入到硬件设备中,以提高算法的稳定性与实用性。
为解决上述技术问题,本发明采用了如下技术方案:
一种基于度量学习的多摄像头目标关联跟踪方法,包括有如下步骤:
步骤1,通过n个摄像头同时采集目标场所内目标物体的视频集V={V1,V2,…,Vn};其中,Vi代表标号为i的摄像头所采集的视频,且Vi={img1,img2,…,imgn},imgi代表Vi视频中的第i帧图片;
步骤2,使用Yolo算法对Vi中的目标物体进行检测,并使用Deep Sort算法进行跟踪,得到Vi中物体的检测框DF={df1,df2,…,dfn}以及具体标识集ID={id1,id2,…,idn};其中,idi表示Vi中被命名为i的物体;而后将每一帧的跟踪结果E={(df1,id1),(df2,id2),…,(dfn,idn)}保存到本地;
步骤3,从跟踪结果E中抽取p个摄像头的跟踪结果;假设p=2,且摄像头的编号分别为j和k;抽取出摄像头j以及k采集视频的同一帧,即Vj以及Vk中相同的帧imgi;分别提取出imgi中的q个对象的检测框DF1={d1,d2,…,dq}以及DF2={f1,f2,…,fq};其中,di代表Vj的imgi中ID为idi的检测框,fi代表Vk的imgi中ID为idi的检测框;
步骤4,将提取出的检测框DF1以及DF2送入深度卷积网络,提取出di以及fi的特征向量,分别记为rVj={r1 idi,r2 idi,…,rn idi},rVk={r1 idi,r2 idi,…,rn idi};其中,rVj及rVk代表摄像头j和k在imgi帧采集到的idi的外观特征;
步骤5,对rVj={r1 idi,r2 idi,…,rn idi}和rVk={r1 idi,r2 idi,…,rn idi}进行余弦距离的计算,计算公式如公式(1)所示:
Cos(dis(rVj,rVk))=1-rvj Trvk (1)
其中,rvj T是rvj的转置矩阵;
步骤6,通过阈值α比较判断Vj和Vk中同一帧的物体是否相似,所述阈值α由训练得到;当Cos(dis(rVj,rVk))≤α时,di和fi关联成功,判断为两个检测框中的idi相似;否则回到步骤5继续进行余弦计算,直到全部对比结束;
步骤7,当di和fi关联成功,将fi对应的idi改为di对应的idi。
本发明提供了一种基于度量学习的多摄像头目标关联跟踪方法,该多摄像头目标关联跟踪方法包括有如下步骤:通过n个摄像头同时采集目标场所内目标物体的视频集;对目标物体进行检测跟踪,得到跟踪结果;从跟踪结果中提取出检测框;将提取出的检测框送入深度卷积网络,提取出特征向量;进行余弦距离的计算;通过阈值比较判断同一帧的物体是否相似;关联成功实现跟踪。具有上述步骤特征的基于度量学习的多摄像头目标关联跟踪方法,通过多摄像头同时记录的方式,提高了记录效果;通过采用深度神经网络提取检测框内物体的外观特征,简单且鲁棒性高;通过采用余弦距离作为度量学习方法,与绝对的数值没有直接联系,能更好地度量出特征向量之间的相似度;通过采用嵌入式的方法,提升算法的稳定性与实用性。并且解决了多目标跟踪问题中复杂环境造成的人员遮挡、交叉等情况,能有效提高跟踪精度。
附图说明
图1为本发明提供的一种基于度量学习的多摄像头目标关联跟踪方法的应用场景示意图;
图2为本发明提供的一种基于度量学习的多摄像头目标关联跟踪方法的嵌入设备结构示意图。
具体实施方式
本发明提供了一种基于度量学习的多摄像头目标关联跟踪方法,该种基于度量学习的多摄像头目标关联跟踪方法其目的在于克服多摄像头之间信息不能共享、信息混淆,以及解决单一一个摄像头遮挡造成跟踪丢失等技术缺陷,同时可进一步将跟踪算法嵌入到硬件设备中,以提高算法的稳定性与实用性。
一种基于度量学习的多摄像头目标关联跟踪方法,包括有如下步骤:
步骤1,通过n个摄像头同时采集目标场所内目标物体的视频集V={V1,V2,…,Vn};其中,Vi代表标号为i的摄像头所采集的视频,且Vi={img1,img2,…,imgn},imgi代表Vi视频中的第i帧图片。值得注意的是,如图1所示,在图1中技术人员设置了2个不同方向的摄像头以采集当下场景。
步骤2,使用Yolo算法对Vi中的目标物体进行检测,并使用DeepSort算法进行跟踪,得到Vi中物体的检测框DF={df1,df2,…,dfn}以及具体标识集ID={id1,id2,…,idn};其中,idi表示Vi中被命名为i的物体;而后将每一帧的跟踪结果E={(df1,id1),(df2,id2),…,(dfn,idn)}保存到本地。
步骤3,从跟踪结果E中抽取p个摄像头的跟踪结果;假设p=2,且摄像头的编号分别为j和k;抽取出摄像头j以及k采集视频的同一帧,即Vj以及Vk中相同的帧imgi;分别提取出imgi中的q个对象的检测框DF1={d1,d2,…,dq}以及DF2={f1,f2,…,fq};其中,di代表Vj的imgi中ID为idi的检测框,fi代表Vk的imgi中ID为idi的检测框。
步骤4,将提取出的检测框DF1以及DF2送入深度卷积网络,提取出di以及fi的特征向量,分别记为rVj={r1 idi,r2 idi,…,rn idi},rVk={r1 idi,r2 idi,…,rn idi};其中,rVj及rVk代表摄像头j和k在imgi帧采集到的idi的外观特征。
步骤5,对rVj={r1 idi,r2 idi,…,rn idi}和rVk={r1 idi,r2 idi,…,rn idi}进行余弦距离的计算,计算公式如公式(1)所示:
Cos(dis(rVj,rVk))=1-rvj Trvk (1)
其中,rvj T是rvj的转置矩阵。
步骤6,通过阈值α比较判断Vj和Vk中同一帧的物体是否相似,所述阈值α由训练得到;当Cos(dis(rVj,rVk))≤α时,di和fi关联成功,判断为两个检测框中的idi相似;否则回到步骤5继续进行余弦计算,直到全部对比结束。
步骤7,当di和fi关联成功,将fi对应的idi改为di对应的idi。
至此,本基于度量学习的多摄像头目标关联跟踪方法实现了多摄像头目标的关联。
需要补充说明的一点是,为进一步提高本多摄像头目标关联跟踪方法的应用场景,可将步骤1-步骤7相关内容嵌入至硬件设备中,例如:如图2所示嵌入式终端设备。具体的,该嵌入式终端设备优选使用PCIe(x8)插槽,专为边缘人工智能和机器视觉应用而设计,采用智能电源,成本低,废热产生少,系统更稳定。
本发明提供了一种基于度量学习的多摄像头目标关联跟踪方法,该多摄像头目标关联跟踪方法包括有如下步骤:通过n个摄像头同时采集目标场所内目标物体的视频集;对目标物体进行检测跟踪,得到跟踪结果;从跟踪结果中提取出检测框;将提取出的检测框送入深度卷积网络,提取出特征向量;进行余弦距离的计算;通过阈值比较判断同一帧的物体是否相似;关联成功实现跟踪。具有上述步骤特征的基于度量学习的多摄像头目标关联跟踪方法,通过多摄像头同时记录的方式,提高了记录效果;通过采用深度神经网络提取检测框内物体的外观特征,简单且鲁棒性高;通过采用余弦距离作为度量学习方法,与绝对的数值没有直接联系,能更好地度量出特征向量之间的相似度;通过采用嵌入式的方法,提升算法的稳定性与实用性。并且解决了多目标跟踪问题中复杂环境造成的人员遮挡、交叉等情况,能有效提高跟踪精度。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (1)
1.一种基于度量学习的多摄像头目标关联跟踪方法,其特征在于,包括有如下步骤:
步骤1,通过n个摄像头同时采集目标场所内目标物体的视频集V={V1,V2,…,Vn};其中,Vi代表标号为i的摄像头所采集的视频,且Vi={img1,img2,…,imgn},imgi代表Vi视频中的第i帧图片;
步骤2,使用Yolo算法对Vi中的目标物体进行检测,并使用Deep Sort算法进行跟踪,得到Vi中物体的检测框DF={df1,df2,…,dfn}以及具体标识集ID={id1,id2,…,idn};其中,idi表示Vi中被命名为i的物体;而后将每一帧的跟踪结果E={(df1,id1),(df2,id2),…,(dfn,idn)}保存到本地;
步骤3,从跟踪结果E中抽取p个摄像头的跟踪结果;假设p=2,且摄像头的编号分别为j和k;抽取出摄像头j以及k采集视频的同一帧,即Vj以及Vk中相同的帧imgi;分别提取出imgi中的q个对象的检测框DF1={d1,d2,…,dq}以及DF2={f1,f2,…,fq};其中,di代表Vj的imgi中ID为idi的检测框,fi代表Vk的imgi中ID为idi的检测框;
步骤4,将提取出的检测框DF1以及DF2送入深度卷积网络,提取出di以及fi的特征向量,分别记为rVj={r1 idi,r2 idi,…,rn idi},rVk={r1 idi,r2 idi,…,rn idi};其中,rVj及rVk代表摄像头j和k在imgi帧采集到的idi的外观特征;
步骤5,对rVj={r1 idi,r2 idi,…,rn idi}和rVk={r1 idi,r2 idi,…,rn idi}进行余弦距离的计算,计算公式如公式(1)所示:
Cos(dis(rVj,rVk))=1-rvj Trvk (1)
其中,rvj T是rvj的转置矩阵;
步骤6,通过阈值α比较判断Vj和Vk中同一帧的物体是否相似,所述阈值α由训练得到;当Cos(dis(rVj,rVk))≤α时,di和fi关联成功,判断为两个检测框中的idi相似;否则回到步骤5继续进行余弦计算,直到全部对比结束;
步骤7,当di和fi关联成功,将fi对应的idi改为di对应的idi。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911407164.5A CN111192297B (zh) | 2019-12-31 | 2019-12-31 | 一种基于度量学习的多摄像头目标关联跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911407164.5A CN111192297B (zh) | 2019-12-31 | 2019-12-31 | 一种基于度量学习的多摄像头目标关联跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111192297A true CN111192297A (zh) | 2020-05-22 |
CN111192297B CN111192297B (zh) | 2024-11-01 |
Family
ID=70709696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911407164.5A Active CN111192297B (zh) | 2019-12-31 | 2019-12-31 | 一种基于度量学习的多摄像头目标关联跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111192297B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111654668A (zh) * | 2020-05-26 | 2020-09-11 | 李绍兵 | 监控设备同步方法、装置及计算机终端 |
CN112200841A (zh) * | 2020-09-30 | 2021-01-08 | 杭州海宴科技有限公司 | 一种基于行人体态的跨域多摄像头跟踪方法和装置 |
CN112200021A (zh) * | 2020-09-22 | 2021-01-08 | 燕山大学 | 基于有限范围场景内的目标人群跟踪监控方法 |
CN112381132A (zh) * | 2020-11-11 | 2021-02-19 | 上汽大众汽车有限公司 | 一种基于多个摄像头融合的目标物跟踪方法和系统 |
CN114898314A (zh) * | 2022-04-29 | 2022-08-12 | 广州文远知行科技有限公司 | 驾驶场景的目标检测方法、装置、设备及存储介质 |
CN115278042A (zh) * | 2021-04-30 | 2022-11-01 | 西门子股份公司 | 图像处理中帧速率的设置方法、装置和计算机可读介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344792A (zh) * | 2018-10-18 | 2019-02-15 | 电子科技大学 | 一种目标自动识别跟踪方法 |
CN109934844A (zh) * | 2019-01-28 | 2019-06-25 | 中国人民解放军战略支援部队信息工程大学 | 一种融合地理空间信息的多目标跟踪方法及系统 |
CN110197502A (zh) * | 2019-06-06 | 2019-09-03 | 山东工商学院 | 一种基于身份再识别的多目标跟踪方法及系统 |
CN110378931A (zh) * | 2019-07-10 | 2019-10-25 | 成都数之联科技有限公司 | 一种基于多摄像头的行人目标移动轨迹获取方法及系统 |
CN110443210A (zh) * | 2019-08-08 | 2019-11-12 | 北京百度网讯科技有限公司 | 一种行人跟踪方法、装置以及终端 |
-
2019
- 2019-12-31 CN CN201911407164.5A patent/CN111192297B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344792A (zh) * | 2018-10-18 | 2019-02-15 | 电子科技大学 | 一种目标自动识别跟踪方法 |
CN109934844A (zh) * | 2019-01-28 | 2019-06-25 | 中国人民解放军战略支援部队信息工程大学 | 一种融合地理空间信息的多目标跟踪方法及系统 |
CN110197502A (zh) * | 2019-06-06 | 2019-09-03 | 山东工商学院 | 一种基于身份再识别的多目标跟踪方法及系统 |
CN110378931A (zh) * | 2019-07-10 | 2019-10-25 | 成都数之联科技有限公司 | 一种基于多摄像头的行人目标移动轨迹获取方法及系统 |
CN110443210A (zh) * | 2019-08-08 | 2019-11-12 | 北京百度网讯科技有限公司 | 一种行人跟踪方法、装置以及终端 |
Non-Patent Citations (2)
Title |
---|
NICOLAI WOJKE,ET AL.: "SIMPLE ONLINE AND REALTIME TRACKING WITH A DEEP ASSOCIATION METRIC", ARXIV, 21 March 2017 (2017-03-21) * |
想自由的MONSTER: "多目标跟踪 DeepSort 代码与原理分析", Retrieved from the Internet <URL:https://blog.csdn.net/weixin_42823393/article/details/100335737> * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111654668A (zh) * | 2020-05-26 | 2020-09-11 | 李绍兵 | 监控设备同步方法、装置及计算机终端 |
CN112200021A (zh) * | 2020-09-22 | 2021-01-08 | 燕山大学 | 基于有限范围场景内的目标人群跟踪监控方法 |
CN112200021B (zh) * | 2020-09-22 | 2022-07-01 | 燕山大学 | 基于有限范围场景内的目标人群跟踪监控方法 |
CN112200841A (zh) * | 2020-09-30 | 2021-01-08 | 杭州海宴科技有限公司 | 一种基于行人体态的跨域多摄像头跟踪方法和装置 |
CN112381132A (zh) * | 2020-11-11 | 2021-02-19 | 上汽大众汽车有限公司 | 一种基于多个摄像头融合的目标物跟踪方法和系统 |
CN115278042A (zh) * | 2021-04-30 | 2022-11-01 | 西门子股份公司 | 图像处理中帧速率的设置方法、装置和计算机可读介质 |
CN115278042B (zh) * | 2021-04-30 | 2023-11-28 | 西门子股份公司 | 图像处理中帧速率的设置方法、装置和计算机可读介质 |
CN114898314A (zh) * | 2022-04-29 | 2022-08-12 | 广州文远知行科技有限公司 | 驾驶场景的目标检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111192297B (zh) | 2024-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111192297B (zh) | 一种基于度量学习的多摄像头目标关联跟踪方法 | |
CN110349250B (zh) | 一种基于rgbd相机的室内动态场景的三维重建方法 | |
CN108537829B (zh) | 一种监控视频人员状态识别方法 | |
CN108445480A (zh) | 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法 | |
CN103246896B (zh) | 一种鲁棒性车辆实时检测与跟踪方法 | |
CN110458025B (zh) | 一种基于双目摄像头的目标识别与定位方法 | |
CN104036524A (zh) | 一种改进sift算法的快速目标跟踪方法 | |
CN102243765A (zh) | 基于多相机的多目标定位跟踪方法及系统 | |
CN102447835A (zh) | 无盲区多目标协同跟踪方法及系统 | |
CN114022910A (zh) | 泳池防溺水监管方法、装置、计算机设备及存储介质 | |
CN110827321B (zh) | 一种基于三维信息的多相机协同的主动目标跟踪方法 | |
CN102982537A (zh) | 一种检测场景变换的方法和系统 | |
CN104301712A (zh) | 一种基于视频分析的监控摄像头抖动检测方法 | |
Landabaso et al. | Foreground regions extraction and characterization towards real-time object tracking | |
CN117115412A (zh) | 一种基于加权得分标签分配的小目标检测方法 | |
Min et al. | Coeb-slam: A robust vslam in dynamic environments combined object detection, epipolar geometry constraint, and blur filtering | |
CN116977937A (zh) | 一种行人重识别的方法及系统 | |
Atoum et al. | Monocular video-based trailer coupler detection using multiplexer convolutional neural network | |
Wojke et al. | Joint operator detection and tracking for person following from mobile platforms | |
CN106023252A (zh) | 一种基于oab算法的多摄像机人体跟踪方法 | |
Biswas et al. | Short local trajectory based moving anomaly detection | |
CN116912877A (zh) | 城市公共空间人群时空接触行为序列的监测方法及系统 | |
CN116342645A (zh) | 一种针对游泳馆场景下的多目标跟踪方法 | |
CN108241837B (zh) | 一种遗留物检测方法和装置 | |
CN102496163B (zh) | 一种基于灰度极值的背景重构方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |