CN111681269A - 一种基于空间一致性的多摄像机协同人物追踪系统及训练方法 - Google Patents
一种基于空间一致性的多摄像机协同人物追踪系统及训练方法 Download PDFInfo
- Publication number
- CN111681269A CN111681269A CN202010493095.0A CN202010493095A CN111681269A CN 111681269 A CN111681269 A CN 111681269A CN 202010493095 A CN202010493095 A CN 202010493095A CN 111681269 A CN111681269 A CN 111681269A
- Authority
- CN
- China
- Prior art keywords
- camera
- person
- pedestrian
- video
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 title description 5
- 238000012544 monitoring process Methods 0.000 claims abstract description 42
- 238000004458 analytical method Methods 0.000 claims abstract description 23
- 238000013135 deep learning Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims abstract description 4
- 230000003993 interaction Effects 0.000 claims abstract description 3
- 238000001514 detection method Methods 0.000 claims description 20
- 230000000007 visual effect Effects 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000012417 linear regression Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种基于空间一致性的多摄像机协同人物追踪系统及追踪方法,包括:视频监控系统,其包括多个摄像机,用于采集视频信息;主机服务器,其通过网络设备与所述视频监控系统相连,用于接收视频信息并进行视频分析;中心服务器,其通过网络设备与所述主机服务器相连,用于接收视频分析数据,通过深度学习后形成分析报告;客户端,其通过网络设备与所述中心服务器相连,并通过互联网或者局域网与所述中心服务器实现交互。
Description
技术领域
本发明涉及人物追踪技术领域,尤其涉及一种基于空间一致性的多摄像机协同人物追踪系统及训练方法。
背景技术
随着信息化的飞速发展,视频监控的应用领域已经覆盖各种场合。作为交通系统的监控工具和各种场合的安全检测工具,视频监控系统的研究与应用也在与日俱增。传统监控系统在处理人物追踪时,需要对所录制的视频进行人工搜索,所以这是相当耗费心力的一份工作,尤其是当录制的视频数量很庞大时。随着,研究的深入,目前已经有很多关于监控系统任务追踪的产品问世了。
现有技术适用于单个摄像头场景和视野域重叠的多个摄像头场景,针对不同角度的摄像头,人物追踪就无法实现了。摄像机需要标定,否则无法获取空间信息。其次,一旦人物移动出摄像头拍摄范围内,再回到拍摄范围内,监控系统就无法对该人物进行追踪。
现有技术的人物追踪算法,在分析录制的视频时,识别人物时反应速度慢,而且对拍摄的摄像头要求很高,也就是说需要的成本也很高。同时,维护、更新淘汰的费用也十分高昂。
发明内容
本发明设计开发了一种基于空间一致性的多摄像机协同人物追踪系统,本发明的发明目的是解决了单个摄像头场景和视野域重叠的多个摄像头场景,针对不同角度的摄像头,人物追踪就无法实现的问题。
本发明设计开发了一种基于空间一致性的多摄像机协同人物追踪方法,本发明的目的是解决在分析录制的视频时,识别人物时反应速度慢的问题。
本发明提供的技术方案为:
一种基于空间一致性的多摄像机协同人物追踪系统,包括:
视频监控系统,其包括多个摄像机,用于采集视频信息;
主机服务器,其通过网络设备与所述视频监控系统相连,用于接收视频信息并进行视频分析;
中心服务器,其通过网络设备与所述主机服务器相连,用于接收视频分析数据,通过深度学习后形成分析报告;
客户端,其通过网络设备与所述中心服务器相连,并通过互联网或者局域网与所述中心服务器实现交互。
优选的是,所述中心服务还用于相应所述客户端的不同请求,提供访问功能,同时通过向主机服务器发送控制信息。
优选的是,所述摄像机的安装满足相邻间可视区域有50%以上重叠区域,设置高度范围为2m~5m,垂直角度范围为10°~15°,摄像机清晰度为720p,帧率为30fps。
一种基于空间一致性的多摄像机协同人物追踪方法,包括如下步骤:
步骤一、通过视频监控系统采集视频信息,并将所述视频信息输送至主机服务器;
步骤二、所述主机服务器对所述视频信息进行分析识别视频中是否有一个人物或者多个人物并进行标记形成人物特征信息,并将所述人物特征信息输送至中心服务器;
步骤三、所述中心服务器根据所述人物特征信息进行追踪分析得到分析报告并存储;
步骤四、客户端通过调取所述分析报告对监控范围内的行人进行实时监控追踪。
优选的是,所述步骤二中还包括:分析视频中的人物移动是否超出了所述监控系统的采集范围。
优选的是,在所述步骤二中,所述标记形成人物特征信息过程包括:
步骤2.1、采集行人各视角图像,通过行人检测神经网络模型获取行人边框;
步骤2.2、获取所述行人边框后,根据每个人物矩形边框所对应的图像,通过外观特征神经网络获取外观特征;
步骤2.3、获取所述外观特征后通过匹配算法分配检测出行人ID。
优选的是,在所述步骤2.1中,所述行人检测神经网络模型公式为
{xi,yi,hi,wi,si}=F行人检测(Ii);式中,中F行人检测为人物检测神经网络,Ii为第i个视角下当前时刻的图像,xi表示检测出的人物边框左上点的横坐标数组,yi表示检测出边框左上点的纵坐标数组,hi表示检测出边框长度数组,wi表示检测出边框宽度数组,si表示检测出边框的分数数组;
在所述步骤2.2中,所述外观特征神经网络模型公式为
f外观=F特征网络(Ip);式中,F特征网络为特征提取神经网络,Ip为第p个人物边框所对应的图像,f外观为外观特征;
在所述步骤3.3中,所述匹配算法分配公式为
{IDi}=F匹配({fi});式中,F匹配为匹配函数,{fi}为所检测出的人物图像所对应的特征,{IDi}为所有特征所对应的行人ID。
优选的是,在所述步骤三中,进行追踪分析过程包括:
步骤3.1、根据所述行人ID及检测边框计算出地平线后,在所述地平线上确定行人移动速度;
步骤3.2、根据透视相机模型,计算出检测出的任务足点在视角3D空间中的坐标位置,利用不同视角下相同行人ID人物的足点计算各视角的转换矩阵,并统一到相同坐标系,对行人进行追踪。
优选的是,在所述步骤3.1中,计算地平线过程包括:
利用lhead,lfoot计算出消失点vi=lhead×lfoot;
算出所有矩形框组合,计算出消失点集合{vi},利用线性回归计算出地平线l∞。
优选的是,在所述步骤3.2中,所述透视相机模型为[u,v,1]T~P[X,Y,Z,1]T;式中,[u,v]代表像素坐标,[X,Y,Z]表示3D世界坐标,P表示相机矩阵,P=K[R|t],其中相机内部参数f为焦距,tZ为相机高度,相机外部参数,旋转矩阵R=RZRYRX,,其中α、β、γ分别代表X,Y,Z三个轴向的转角;以及
本发明与现有技术相比较所具有的有益效果:本发明的多摄像机协同人物追踪方法及系统,是一种借助于人工智能行人检测的识别系统,该系统能够通过多摄像头获取的视频数据,实现对一定区域内人物的自动识别、自动标记(多摄像头一致)以及协同追踪,减少人工成本,为以后查找时提供便利;同时,本系统结构简单(仅有监控+主机、中心服务器、客户端三层),部署容易,成本低(客户端可以用现有PC或智能手机),易于升级维护,且升级维护成本低(一般情况下只要升级中心服务器和主机服务器的软件即可),智能化程度高(无需大量人工干预),同时能够节省查找人物相关视频的时间;本发明能够极大地改善现有的人物追踪系统情景,有较强的使用价值和理想的应用前景。
附图说明
图1为本发明所述的第二部分中计算地平线的示意图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
本发明公开了一种基于空间一致性的多摄像机协同人物追踪系统,包括:监控系统(由多个摄像机组成),主机服务器、中心服务器(云服务器)、网络连接设备、客户端软件(监控端和管理端);
中心服务器(云服务器)部署在中心机房,通过网络连接设备与部署在要监控区域被的主机服务器相连接。同时接入互联网(或局域网),客户端软件通过互联网(或局域网)与中心服务器交互。中心服务器实现的功能有:接受主机服务器发送过来的录制的视频,并通过自身基于深度学习和人工智能的大数据系统中进行分析并对要追踪的人物进行标记。响应客户端的不同请求,提供切换到不同摄像机的功能;通过主机服务器发送控制信息,间接控制监控系统。
主机服务器与监控系统都安装在监控区域内,二者通过网络设备连接,同时主机服务器通过网络设备与机房的中心服务器连接。
网络连接设备用于连接视频监控系统、主机服务器、中心服务器(云服务器)和互联网或局域网。
监控系统由多个摄像机组成,放置在不同位置,角度和安装角度固定,可以全面观测区域内所有位置。根据区域大小、人流量、区域使用性质安装2-N个摄像机。所有摄像机都通过区域内的网络设备与主机服务器相连。
视频监控系统由多个摄像机组成,根据比赛场地大小确定摄像机位置以及角度,要求相邻摄像机间可视区域有50%及以上重叠,摄像机高度在2m-5m之间,垂直角度在10°-15°之间,相机清晰度在720p,帧率在30fps以上。保证多个相机可以全面观测训练区域所有位置。根据区域大小、运动员多少、运动训练项目等因素安装2-N个可变焦摄像机。所有的摄像机都通过网络设备与主机服务器相连。
主机服务器通过分析摄像机的视频,识别视频中是否有人物,有则进行标记。根据中心服务器发送的指令,切换摄像机。
主机服务器需要对视频中人物做的识别包括:是否有人、人物是否移出了摄像机视野范围、是否有多个人物等。主机服务器会把是别的人物特征信息以及视频,传输到中心服务器上,做进一步的追踪分析。
客户端包括两种形式,一种是基于Web界面的B/S风格客户端,主要用于PC端;另一种是移动APP客户端。客户端提供两种使用角色:监控端和管理端。客户端可以通过互联网或者局域网与中心服务器实现交互。
客户端需要实现的功能有:录入监控人员信息、监控区域的信息(有几个摄像机、区域大小、区域类型等),获取人物追踪信息,获取相关视频以及其他管理功能。
本发明公开了一种基于空间一致性的多摄像机协同人物追踪方法,其包括两个部分,第一个部分包括人物检测网络,外观特征网络,匈牙利匹配算法。第二部分包括相机自标定算法;具体包括:
第一部分:
在行人检测部分,将各视角N帧图像作为输入,送入行人检测神经网络。可用下面的公式表示{xi,yi,hi,wi,si}=F行人检测(Ii),其中F行人检测为人物检测神经网络,Ii为第i个视角下当前时刻的图像,返回的结果包括五部分其中xi表示检测出的人物边框左上点的横坐标数组,yi表示检测出边框左上点的纵坐标数组,hi表示检测出边框长度数组,Wi表示检测出边框宽度数组,si表示检测出边框的分数数组。通常数组长度可以设定成足够大,以满足检出足够多的目标被检出,最终保留分数大于预设阈值的矩形框。F行人检测为满足输出格式的任意行人检测网络结构;在本实施例中,任意行人检测神经网络不需要定义,满足输入输出格式即可;
在获取行人边框后,将每个人物矩形框所对应的图像作为输入,送入外观特征神经网络,提取运动员的外观特征。可用下面的公式表示,f外观=F特征网络(Ip)。其中F特征网络为特征提取神经网络,Ip为第p个人物边框所对应的图像,返回的结果为外观特征f外观。其中F特征网络为满足行人重识别任务的特征提取网络;在本实施例中,行人重识别任务的特征提取网络不需要定义,满足输入输出格式即可;
在获取个各视角下的行人特征之后,利用匹配算法分配检测出的行人ID。可用下面的公式表示:{IDi}=F匹配({fi}),其中F匹配为匹配函数,{fi}为所检测出的人物图像所对应的特征,{IDi}为所有特征所对应的行人ID;在本实施例中,F匹配为可以为任意匹配方法,满足输入输出格式即可,本申请使用的是匈牙利算法。
第二部分:
如图1所示,在通过第一部分获取行人ID之后,根据行人ID以及检测边框计算出地平线。具体实现如下:利用同一视角下检测出的人物矩形框标,计算出头部坐标足底坐标利用任意两个矩形框的头部坐标计算出lhead=x×x′,足底坐标计算出lfoot=x×x′。利用lhead,lfoot计算出消失点vi=lhead×lfoot。按照上述流程就算出所有矩形框组合,计算出消失点集合{vi},利用线性回归计算出地平线l∞。设定其中W,H,为所对应视角下的图像尺寸。在l∞上取vY=(0,yY),计算lY=vY×pc,其中在l∞上取vX=(xX,yX),满足lX=vX×v∞,lXlY=0;根据透视相机模型[u,v,1]T~P[X,Y,Z,1]T,其中[u,v]代表像素坐标,[X,Y,Z]表示3D世界坐标。P表示相机矩阵,P=K[R|t],其中相机内部参数f为焦距,-tZ为相机高度。相机外部参数,旋转矩阵R=RZRYRX,,其中α、β、γ分别代表X,Y,Z三个轴向的转角。利用下述公式计算α、β、γ:
在获取视角i的相机矩阵Pi后,利用公式:计算出检测出的人物足点在视角3D空间中的坐标位置pfoot-i=(x3d-i,y3d-i,0)。利用不同视角下相同ID人物的足点计算各视角的转换矩阵,统一到相同坐标系,保证空间位置一致性。
在系统运行前T秒(可根据需求确定)仅运行第一部分系统,之后同时运行两个部分。在同时运行两个部分时,追踪系统将融合3D位置信息。
实施例
管理员需要为监控人员注册信息,设置账号、初始密码,注册完毕后,由监控人员进行登录,使用客户端相应功能。
投入使用后,主机服务器将不断从监控系统找那个的摄像机中获取信息,利用人物识别技术(基于深度学习和人工智能),自动识别出视频中的人物,并进行标记,并将标记信息传递给中心服务器,由中心服务器发送指令进行追踪。当人物消失于一个摄像机的视野时,中心服务器会接收其他摄像机数据,若该人物短时间内在其他摄像机出现,则继续追踪。
中心服务器保存着由主机服务器初次发送来的标记人物的信息等数据。会与之后主机服务器发送的数据进行匹配,并发送追踪指令。直至人物长时间不出现在监控系统中。
网络设备氛围两种,一种是放置在监控区域内的小型设备(交换机),用于连接监控系统和主机服务器,另一种是放着在机房的大型网络设备(大型交互机),用于中心服务器和主机服务器、互联网或局域网连接。
当发生安全问题时,可由提供的人物信息去中心服务器上存储的标记信息一一匹配,然后查询到相关时间的视频。
在本实施例中,每个模块具体功能包括:
监控系统包括多台摄像机监测整个区域,根据主机服务器指令,切换不同角度的摄像机;
主机服务器用于分析全景摄像机拍摄内容,识别人物、自动标记人物,控制变焦摄像机拍摄感兴趣区域,将信息传输给中心服务器,根据中心服务器控制指令,控制监控系统进行追踪;
网络设备用于小型交换机连接监控系统和主机服务器,大型交换机连接主机服务器和中心服务器,连接中心服务器和局域网、互联网;
中心服务器用于接收主机服务器分析得到标记数据,基于深度学习和人工智能的大数据分析,进行标记,响应客户端请求,提供相应服务并进行追踪;
客户端(管理)用于录入监控人员信息,获取人物追踪分析报告。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (10)
1.一种基于空间一致性的多摄像机协同人物追踪系统,其特征在于,包括:
视频监控系统,其包括多个摄像机,用于采集视频信息;
主机服务器,其通过网络设备与所述视频监控系统相连,用于接收视频信息并进行视频分析;
中心服务器,其通过网络设备与所述主机服务器相连,用于接收视频分析数据,通过深度学习后形成分析报告;
客户端,其通过网络设备与所述中心服务器相连,并通过互联网或者局域网与所述中心服务器实现交互。
2.如权利要求1所述的基于空间一致性的多摄像机协同人物追踪系统,其特征在于,所述中心服务还用于相应所述客户端的不同请求,提供访问功能,同时通过向主机服务器发送控制信息。
3.如权利要求2所述的基于空间一致性的多摄像机协同人物追踪系统,其特征在于,所述摄像机的安装满足相邻间可视区域有50%以上重叠区域,设置高度范围为2m~5m,垂直角度范围为10°~15°,摄像机清晰度为720p,帧率为30fps。
4.一种基于空间一致性的多摄像机协同人物追踪方法,其特征在于,包括如下步骤:
步骤一、通过视频监控系统采集视频信息,并将所述视频信息输送至主机服务器;
步骤二、所述主机服务器对所述视频信息进行分析识别视频中是否有一个人物或者多个人物并进行标记形成人物特征信息,并将所述人物特征信息输送至中心服务器;
步骤三、所述中心服务器根据所述人物特征信息进行追踪分析得到分析报告并存储;
步骤四、客户端通过调取所述分析报告对监控范围内的行人进行实时监控追踪。
5.如权利要求4所述的基于空间一致性的多摄像机协同人物追踪方法,其特征在于,所述步骤二中还包括:分析视频中的人物移动是否超出了所述监控系统的采集范围。
6.如权利要求4所述的基于空间一致性的多摄像机协同人物追踪方法,其特征在于,在所述步骤二中,所述标记形成人物特征信息过程包括:
步骤2.1、采集行人各视角图像,通过行人检测神经网络模型获取行人边框;
步骤2.2、获取所述行人边框后,根据每个人物矩形边框所对应的图像,通过外观特征神经网络获取外观特征;
步骤2.3、获取所述外观特征后通过匹配算法分配检测出行人ID。
7.如权利要求6所述的基于空间一致性的多摄像机协同人物追踪方法,其特征在于,在所述步骤2.1中,所述行人检测神经网络模型公式为
{xi,yi,hi,wi,si}=F行人检测(Ii);式中,中F行人检测为人物检测神经网络,Ii为第i个视角下当前时刻的图像,xi表示检测出的人物边框左上点的横坐标数组,yi表示检测出边框左上点的纵坐标数组,hi表示检测出边框长度数组,wi表示检测出边框宽度数组,si表示检测出边框的分数数组;
在所述步骤2.2中,所述外观特征神经网络模型公式为
f外观=F特征网络(Ip);式中,F特征网络为特征提取神经网络,Ip为第p个人物边框所对应的图像,f外观为外观特征;
在所述步骤2.3中,所述匹配算法分配公式为
{IDi}=F匹配({fi});式中,F匹配为匹配函数,{fi}为所检测出的人物图像所对应的特征,{IDi}为所有特征所对应的行人ID。
8.如权利要求7所述的基于空间一致性的多摄像机协同人物追踪方法,其特征在于,在所述步骤三中,进行追踪分析过程包括:
步骤3.1、根据所述行人ID及检测边框计算出地平线后,在所述地平线上确定行人移动速度;
步骤3.2、根据透视相机模型,计算出检测出的任务足点在视角3D空间中的坐标位置,利用不同视角下相同行人ID人物的足点计算各视角的转换矩阵,并统一到相同坐标系,对行人进行追踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010493095.0A CN111681269B (zh) | 2020-06-03 | 2020-06-03 | 一种基于空间一致性的多摄像机协同人物追踪系统及训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010493095.0A CN111681269B (zh) | 2020-06-03 | 2020-06-03 | 一种基于空间一致性的多摄像机协同人物追踪系统及训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111681269A true CN111681269A (zh) | 2020-09-18 |
CN111681269B CN111681269B (zh) | 2022-05-10 |
Family
ID=72434502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010493095.0A Active CN111681269B (zh) | 2020-06-03 | 2020-06-03 | 一种基于空间一致性的多摄像机协同人物追踪系统及训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111681269B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112422910A (zh) * | 2020-11-10 | 2021-02-26 | 张庆华 | 一种通过监控画面判断人员方向运动速度的方法 |
CN113518230A (zh) * | 2021-06-23 | 2021-10-19 | 智道网联科技(北京)有限公司 | Rs设备的数据上传处理方法、装置及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101291428A (zh) * | 2008-05-30 | 2008-10-22 | 上海天卫通信科技有限公司 | 自动视角配置的全景视频监控系统和方法 |
CN105574506A (zh) * | 2015-12-16 | 2016-05-11 | 深圳市商汤科技有限公司 | 基于深度学习和大规模集群的智能人脸追逃系统及方法 |
CN110349182A (zh) * | 2018-04-07 | 2019-10-18 | 苏州竺星信息科技有限公司 | 一种基于视频及定位装置的人物追踪方法 |
CN110378931A (zh) * | 2019-07-10 | 2019-10-25 | 成都数之联科技有限公司 | 一种基于多摄像头的行人目标移动轨迹获取方法及系统 |
CN110674746A (zh) * | 2019-09-24 | 2020-01-10 | 视云融聚(广州)科技有限公司 | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 |
-
2020
- 2020-06-03 CN CN202010493095.0A patent/CN111681269B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101291428A (zh) * | 2008-05-30 | 2008-10-22 | 上海天卫通信科技有限公司 | 自动视角配置的全景视频监控系统和方法 |
CN105574506A (zh) * | 2015-12-16 | 2016-05-11 | 深圳市商汤科技有限公司 | 基于深度学习和大规模集群的智能人脸追逃系统及方法 |
CN110349182A (zh) * | 2018-04-07 | 2019-10-18 | 苏州竺星信息科技有限公司 | 一种基于视频及定位装置的人物追踪方法 |
CN110378931A (zh) * | 2019-07-10 | 2019-10-25 | 成都数之联科技有限公司 | 一种基于多摄像头的行人目标移动轨迹获取方法及系统 |
CN110674746A (zh) * | 2019-09-24 | 2020-01-10 | 视云融聚(广州)科技有限公司 | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112422910A (zh) * | 2020-11-10 | 2021-02-26 | 张庆华 | 一种通过监控画面判断人员方向运动速度的方法 |
CN113518230A (zh) * | 2021-06-23 | 2021-10-19 | 智道网联科技(北京)有限公司 | Rs设备的数据上传处理方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111681269B (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7018462B2 (ja) | 目標対象物の監視方法、装置及びシステム | |
CN110674746B (zh) | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 | |
CN109887040B (zh) | 面向视频监控的运动目标主动感知方法及系统 | |
CN100531373C (zh) | 基于双摄像头联动结构的视频运动目标特写跟踪监视方法 | |
CN104951775B (zh) | 基于视频技术的铁路道口防护区域安全智能识别方法 | |
CN105898216B (zh) | 一种利用无人机进行的人数计数方法 | |
WO2020228766A1 (zh) | 基于实景建模与智能识别的目标跟踪方法、系统及介质 | |
US20070052807A1 (en) | System and method for user monitoring interface of 3-D video streams from multiple cameras | |
CN103716594A (zh) | 基于运动目标检测的全景拼接联动方法及装置 | |
CN103716595A (zh) | 全景拼接摄像机和球机联动控制方法及装置 | |
CN104125433A (zh) | 基于多球机联动结构的视频运动目标监控方法 | |
CN105069429A (zh) | 一种基于大数据平台的人流量分析统计方法和系统 | |
JP2022510417A (ja) | 関節のある身体姿勢を検出するシステムおよび方法 | |
CN103327310B (zh) | 一种基于鼠标轨迹跟踪的监控和巡航方法 | |
CN111681269B (zh) | 一种基于空间一致性的多摄像机协同人物追踪系统及训练方法 | |
CN111242025A (zh) | 一种基于yolo的动作实时监测方法 | |
WO2020211593A1 (zh) | 交通道路的数字化重建方法、装置和系统 | |
CN111970434A (zh) | 多摄像机多目标的运动员跟踪拍摄视频生成系统及方法 | |
CN109886129B (zh) | 提示信息生成方法和装置,存储介质及电子装置 | |
CN111680608B (zh) | 一种基于视频分析的智慧体育辅助训练系统及训练方法 | |
CN114140745A (zh) | 施工现场人员属性检测方法、系统、装置及介质 | |
CN112532927A (zh) | 一种施工现场智能安全管控系统 | |
CN114067438A (zh) | 一种基于热红外视觉的停机坪人体动作识别方法及系统 | |
CN116419059A (zh) | 基于行为标签的自动监控方法、装置、设备及介质 | |
CN114511592B (zh) | 一种基于rgbd相机和bim系统的人员轨迹追踪方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A Multi camera Collaborative Person Tracking System and Training Method Based on Spatial Consistency Granted publication date: 20220510 Pledgee: Jilin Bank Co.,Ltd. Changchun Science and Technology Sub branch Pledgor: CHANGCHUN BOLI ELECTRONIC TECHNOLOGY Co.,Ltd. Registration number: Y2024220000098 |
|
PE01 | Entry into force of the registration of the contract for pledge of patent right |