CN109819208B - 一种基于人工智能动态监控的密集人群安防监控管理方法 - Google Patents
一种基于人工智能动态监控的密集人群安防监控管理方法 Download PDFInfo
- Publication number
- CN109819208B CN109819208B CN201910000550.6A CN201910000550A CN109819208B CN 109819208 B CN109819208 B CN 109819208B CN 201910000550 A CN201910000550 A CN 201910000550A CN 109819208 B CN109819208 B CN 109819208B
- Authority
- CN
- China
- Prior art keywords
- monitoring
- face
- video
- crowd
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 203
- 238000007726 management method Methods 0.000 title claims abstract description 34
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 12
- 238000001514 detection method Methods 0.000 claims abstract description 157
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 96
- 238000004458 analytical method Methods 0.000 claims abstract description 36
- 238000012216 screening Methods 0.000 claims abstract description 19
- 230000006399 behavior Effects 0.000 claims abstract description 11
- 230000002159 abnormal effect Effects 0.000 claims abstract description 10
- 230000033001 locomotion Effects 0.000 claims description 41
- 230000003287 optical effect Effects 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 24
- 238000005516 engineering process Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000009826 distribution Methods 0.000 claims description 16
- 206010000117 Abnormal behaviour Diseases 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000013178 mathematical model Methods 0.000 claims description 8
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 101150083127 brox gene Proteins 0.000 claims description 4
- 238000003708 edge detection Methods 0.000 claims description 4
- 239000003550 marker Substances 0.000 claims description 4
- 238000012790 confirmation Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 101
- 230000006870 function Effects 0.000 description 20
- 230000000875 corresponding effect Effects 0.000 description 17
- 210000001508 eye Anatomy 0.000 description 13
- 238000000513 principal component analysis Methods 0.000 description 13
- 238000011084 recovery Methods 0.000 description 13
- 210000003128 head Anatomy 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000000605 extraction Methods 0.000 description 10
- 210000004709 eyebrow Anatomy 0.000 description 10
- 210000001331 nose Anatomy 0.000 description 9
- 230000002441 reversible effect Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000012806 monitoring device Methods 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000011410 subtraction method Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 210000000214 mouth Anatomy 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000012847 principal component analysis method Methods 0.000 description 3
- 230000008439 repair process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010205 computational analysis Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于人工智能动态监控的密集人群安防监控管理方法,该方法包括如下步骤:出入口处基于动态人脸识别的敏感人员筛选及标记;其中,所述人脸识别包含快速初筛和精确复筛;以及,必要时无人机监控系统辅助进行的人脸追踪监控;基于视频分析的人群密度动态监控;其中,采用方向梯度直方图人体检测算法计算人群动态密度;视频监控下密集人群的群体异常行为检测及警示;视频监控盲区的无人机辅助监控。本发明方法将重点监测区域与全面动态监控相结合,并辅以无人机系统的流动监测,实现了密集人群场合的监控全覆盖。
Description
技术领域
本发明涉及人工智能监控领域,特别地涉及一种用于密集人群场合的基于人体检测和识别的安防监控管理方法。
背景技术
近年来,包括恐怖主义在内的公安安全问题成为社会安防领域的主要问题。尤其是在人群密集的场合,及时、准确的监控成为安全事件预判的关键。在以前,即使锁定嫌疑人,但也往往依靠传统侦查工作例如人工对嫌疑人的照片进行比对,工作量大,效率低,显然无法适应现代安防业务的需要,尤其是在集会等人群密集场合,小至踩踏事件、偷抢等犯罪事件,大至恐怖分子潜伏,无法依靠人工监控及时处理。
另外,在一些例如商场、车站、景区等人群密集公共场所,需要对区域内的人员密度、流动等活动情况进行监控,传统的视频监控系统无法完成该区域的进、出口人员数量监控、统计,也无法对区域内的人流分布情况进行详细监控引导。然而,在缺乏有效监控管理的前提下,无论该区域发生聚集、拥堵还是踩踏等异常情况,都可能造成后果严重的群体性安全事件。现今对密集人群的监控通常都是人工监控实时视频,辅助现场部署警备、安保人员进行监督,然而在人员特别密集的区域或监控盲点,也是容易发生事故的危险区域,由管理人员难以做出快速应变。
因此,缺少一种用于密集人群的人工智能自动监控管理系统,以识别敏感人群并根据人群异常情况及时发出警示。
作为一种实时预防性的工具,智能监控显得越来越重要。智能视频监控系统是指利用计算机图像视觉分析技术,通过将场景中背景和目标分离进而分析目标的一种系统。同时根据视频的内容分析功能,可以在不同的摄像机场景中预设不同的提示信息。一旦在场景中出现满足异常行为等预定义行为,系统就会自动发出报警。监控中心收到信息后弹出报警信息。智能视频监控技术的使用有利于提高人员的工作效率和系统的可靠性,降低运营成本。一般地,行为异常包括:人群滞留、徘徊等围观行为;异常奔跑,例如可疑人员的快速移动与突然加速等行为(例如盗抢等异常行为);冲突、斗殴;单向通道的逆行或踩踏。
具体地,智能视频监控是在无人工频繁干预的情况下,采用计算机视觉技术和图像分析的方法对摄像机实时传送的图像序列进行自动分析,从而实现对动态场景中的运动目标定位、跟踪与识别,并在此基础上提示运动目标的行为,在异常情况发生时向安保人员及时地发出警报信息。一般将智能视频监控技术的处理过程划分为三个阶段:第一阶段是从视频图像中提取分析目标;第二阶段对检测得到的相关运动目标进行跟踪;第三阶段为智能分析及行为判断,包括目标动向和人群密度计数等。智能视频监控系统中的异常行为识别在对安全要求较高的场合尤其适用,如银行、商场、停车场、车站等,除此之外,在其他场所诸如广场、候车厅/候机厅、集会场所也有很大的应用价值。
在视频监控中,人物的识别是一个十分重要的指标,而人脸是人最重要的生物特征之一,获取人脸图像除了可以确定犯罪嫌疑人的外貌身份等特征,也是是一种跟踪识别犯罪分子的重要手段。然而,人脸图像往往只占整个监控视频图像非常小的一部分,大大降低了视频监控系统的有效性。因此利用多个摄像机在内的协同工作,是智能视频监控研究的一个研究热点。
另外,在公共场所时,包括嫌疑人内的人群经常会使用墨镜、太阳帽等,导致了脸部的遮挡。被遮盖的人脸大大影响了人脸图像的鉴别与辨认,因此将监控视频中被遮挡部分人脸图像进行恢复成为视频监控系统中需要解决的重要问题。
智能监控通常涉及图像解析,通常包括运动检测、对象识别、跟踪与行为理解,在早期阶段主要依赖于数字视频录像机的使用。随着网络数字视频录像机系统的应用,实现了视频信息的数字化存储,还实现了视频档案信息的数字化传播,形成网络化视频监视系统。用户可以通过网络中的任何一台电脑来观看、录制和管理实时的视频信息,称为第三代视频监控系统。第三代视频监控系统是完全数字化的系统,它基于标准的TCP/IP协议,能够通过局域网/无线网/互联网传输,可与门禁、报警、语音、管理信息等系统无缝集成;灵活性大大提高,监控场景可以实现任意组合,任意调用。基于光纤网络的全数字网络监控技术可以构建大型专业化网络监控平台,实现了视频监控技术数字化、网络化、智能化和平台化的发展。
在数字化的视频监控系统中,主要通过人脸检测技术实现人员活动情况的全面智能监测。集成人脸检测技术的监控系统能通过网络对监控现场实现远程、多监控场景的同步监控,节省了大量的人力、物力.满足对安全性的要求。尽管人脸检测技术越来越成熟,但是,如何更快捷地提取信息,并对信息进行高效地处理,尤其是在复杂环境下实现监控系统的准确率和实时性,存在着困难。
人脸检测的方法很多。主要的方法包括模板匹配、子空间方法等方法。随着应用的发展,逐渐产生了半自主学习的方法,如统计模型法、神经网络法、向量机法、随机链法、以及肤色法。其中,检测主要的原理之一是基于特征的人脸检测方法,指利用人脸的特征知识建立若干判据,从而将有人脸检测转化为假设与验证的关系。具体地,把人脸的眼、鼻、嘴等像素块特征及其对称关系作为特征来检测人脸。现有技术中还可以把人的肤色、纹理规则作为检测特征来进行人脸检测,以及将人脸的轮廓为近似椭圆作为规则进行人脸检测。另外一个检测原理是基于统计的人脸检测方法,通常是将人脸图像视为一个高维向量,从而将人脸检测问题转化为高维空间中分布信号的检测。例如子空间方法,以及样例学习法,将人脸检测视为区分非人脸样本与人脸样本的两类模式分类问题,通过对人脸样本集和非人脸样本集进行学习以产生分类器。目前在实际中应用较广的人脸检测,即基于Harr特征与Adaboost学习算法的方法,就是样例学习法。
跟踪方法包括:基于模型的跟踪方法、基于特征的跟踪方法、基于区域的跟踪方法、基于轮廓的跟踪方法等等。
基于模型的跟踪方法原理:人体的传统表达方式有三种,分别是线图法、二维轮廓和体积模型。线图法把人体的运动实质看作是人体的骨骼运动,因此把人体的各部分看成相互连接的直线,通过用点代表关节点、直线代表人体的四肢和躯干,构造三维的人体代表物,通过关节点的三维坐标构造人的状态空间,每个肢体部分都可以有一个局部坐标系,每个关节点都包括平移和旋转自由度。利用不同动作的投影和图像的逼近程度来估计出真实的人体运动状态,并利用HMM估计下一帧中人的动作姿态,从而完成对人体目标的跟踪。
基于特征的跟踪方法采用从历史图像序列中提取出人体的典型特征,并与当前图像序列进行匹配从而实现对运动目标的跟踪。它包括特征提取和特征匹配两个过程。该方法以提取人体的特征开始,一般较常用的特征有点、角点、线、边缘、块以及更为复杂的结构特征。
基于区域的跟踪方法是一种利用图像序列中运动区域或块表示整个人体或者人体的各部分,利用高斯分布建立人体和场景模型。通过对连续帧图像定位这些区域,建立对应关系来实现跟踪的方法。它通过对检测到的运动区域进行面积,几何结构的约束,对跟踪区域加框线予以跟踪,目前已有较多的研究。
基于轮廓的跟踪方法是利用曲线轮廓来表示运动目标的一种方法。曲线轮廓随着物体的移动可以自动、连续地更新,则可以成为活动轮廓,也成为snakes。可以采用短程线的活动轮廓,结合Level Set理论在图像序列中检测和跟踪多个运动目标;例如Peterfreund利用基于卡尔曼滤波的活动轮廓来对非刚性的运动物体进行跟踪,他采用基于光流与梯度的测量准则,对简单的摆手动作的手部轮廓进行跟踪实验,在遮挡与复杂背景下有很好的鲁棒性。即使在有部分遮挡存在的情况下也能连续地进行跟踪。
卡尔曼滤波器是一种由卡尔曼(Kalman)提出的用于时变性系统的递归滤波器。这种滤波器是将过去的测量估计误差合并到新的测量误差中来估计将来的误差。卡尔曼滤波的一个典型实例就是从一组有限的,包含噪声的,对物体位置的观察序列(可能有偏差)预测出物体位置的坐标及速度。在运动目标跟踪中卡尔曼滤波器是一个传统技术,具有很好的稳定性,因此在被广泛使用。这种滤波器支持对过去状态、现在状态、未来状态的估计,具有功能强大、计算量小、可实时计算的特点。
现有技术中利用智能视频监控的记载可举例如下。
CN201410709640公开了一种基于智能视频识别技术的体育场馆人群监控方法,采用改进后的自适应混合高斯模型进行背建建模,以适应环境光线的变化,实现对人体准确识别,并且在光线变化情况下具有较好的识别性,能分割出长时间静止不动的目标,也能对不连续的单帧静态图像进行目标分析。
然而,该方案仅仅是根据实时采集的视频画面对管控区域人群移动方向进行分析,并粗略计算实际人数,功能性单一。
CN201410154600公开了用于视频监控人群异常行为的特征描述方法。包括:计算监控视频中像素运动的瞬时速度;根据像素的速度的属性,建立分布直方图;根据该直方图的统计意义或数学意义构造出对应的特征描述。该方案仅仅用于监视异常人群移动的特征描述,无法实现对密集人群的安防监控。
CN201710486506公开了一种针对移动物体的人工智能抓拍高清晰照片装置,包括顺次相接的光学清晰镜头、高清晰图像传感器、主控单元处理器和数据输出接口模块;还包括分别与主控单元处理器连接的自动检测移动物体算法软件模块、图像抓拍控制软件模块和图像编码算法处理模块。然而,该方案仅仅适用于抓拍移动物体,对人行通道,学校、商场等场所行人拍照处理,无法实现智能监控的功能。
CN201710713516涉及一种用于无人机群实时监控的配置方法及系统。包括以下步骤:各个无人机上的监控装置采集初始配置信息,并发送给远端的计算装置;所述计算装置接收所有监控装置的初始配置信息,根据内置的优化模型计算得到各个监控装置的最优配置信息,分别发送给相应的监控装置;无人机的监控装置接收到所述最优配置信息后,根据所述最优配置信息执行相应动作;其中,所述初始配置信息包括:初始位置经度、初始位置纬度、初始视角以及初始视距。
综上所述,尽管现有技术公开了多种智能监控,但是针对人群密集的特定场合,例如车站(火车、汽车、机场),车站广场,候机厅,体育馆,候车厅及其他临时集会场所等,尚没有公开针对有效的进行重点监测-智能性全面监控-预警相结合的系统性分区分段智能监控的相关报道。
发明内容
基于现有技术缺陷,本发明基于人脸检测的智能算法模块,从人员密集、场景复杂的公共环境中分析检测出关键有效信息,将全面监控功能和人群密度、人群动态分布、人员识别监控有机结合为一体,实现密集人群的安防监控管理。。
具体而言,本发明的目的在于提供一种用于人群密集场合的基于人工智能动态监控的安防监控管理方法。所述的人群密集的特定场合包括:车站(火车、汽车),地铁站,车站广场,候机厅,体育馆,候车厅及其他临时集会场所等。
本发明所述的安防监控管理方法基于分区域性人工智能动态监控,包括出入口人脸检测、范围性智能全面监控及行为预测、无人机系统辅助监控及跟踪、信息预警相结合的系统性智能监控管理。
本发明的技术方案如下。
一种基于人工智能动态监控的密集人群安防监控管理方法,该方法包括如下步骤:
S1:出入口处基于动态人脸识别的敏感人员筛选及标记;其中,所述人脸识别为包含快速初筛和精确复筛;
S2:基于视频分析的人群密度动态监控;
S3:视频监控下密集人群的群体异常行为检测及警示;
S4:视频监控盲区的无人机辅助监控;
S5:在智能系统发出提示后,人工介入管理。
具体步骤描述如下。
步骤S1:在出入口处进行基于动态人脸识别的敏感人员筛选及标记;其中,所述人脸识别包含快速初筛和精确复筛,具体流程包括:
1)视频采集获取出入口处人脸图像;提取人脸特征数据并进行快速初筛比对;
2)二次复筛比对确认后,信息提示端进行系统显示并对敏感人员进行提示标记;
3)进一步地,在条件允许时对标记人员启动无人机监视系统进行辅助追踪监控,所述的无人机监视系统包含人脸检测跟踪模块,与视频监控子模块相关联,所述的追踪流程为:视频监控模块采集到的视频输入到人脸跟踪模块,人脸跟踪模块检测并输出人脸信息,然后将标记人脸的位置、方向等信息传递给控制模块,从而智能持续跟踪标记人脸。
步骤S2:基于视频分析的人群密度动态监控;
流程包括:
1)对实时监控图像进行边缘检测和前景分割,分割出人群,将完整的人体特征分为若干个局部特征模型,并配置相应的权重;
2)对分割后的人群特征进行提取,并与所述局部特征模型进行匹配检测,根据匹配成功的次数统计人群数量,并进行提示。
其中,优选采用方向梯度直方图人体检测算法计算人群动态密度:从视频数据中提取前景图像后进行背景分割,得到人群分割图像;通过人体检测分别计算分割图像所包含的人体轮廓像素数目,并根据该像素数目计算各分割图像包含的人数,从而计算不同时间的人群动态密度。
优选地,人群密度动态监控也可采用集成算法的视频分析服务器,即基于计算机视觉分析技术的智能视频监控系统中的核心设备,能够对前端摄像机传来的视频进行智能分析并进行人流统计等计算分析,同时数据发送到监控管理终端并存储到数据库。为了更为准确的进行运动目标检测,所述的视频分析服务器包含预存数据库模块,存储数学统计人群运动现象的经验数学模型或算法所需特征矢量值,包括摄像角度、焦距、空间坐标和人的像素面积等。
步骤S3:视频监控下密集人群的群体异常行为检测及警示;
其中,密集人群的群体异常行为检测通常可通过监控人群的移动速度变化进行判断,例如,人群聚集或拥堵时该区域群体移动速度为零。
视频监控自动探测人群异常行为的特征算法包括:提取视频中各个像素的运动速度的Brox光流算法,以及Horn-Schunck光流算法。主要步骤在于,对速度大于阈值的像素,根据其速度的大小和方向,统计这些像素的速度矢量区间直方图,从而计算得到视频监控中人群移动的特征描述,描述值大于预设的阈值时,则系统发出警告。
当有人流逆行时,检测流程如下:计算监控视频图像中各像素点的光流,然后根据方向构建光流方向直方图;若光流方向直方图中存在与设定方向相反且幅值超过一定阈值的光流点,则认为监控视频图像中存在逆行目标。逆行检测可用于单向通道或关口的监测与报警。用户可以通过在视频画面中自行设定检测区域和运动方向,一旦有逆行发生,客户端自动显示并记录。
步骤S4:视频监控盲区的无人机辅助监控;
在室外场合,当固定视频监控存在盲区,或由于视距过远等原因导致难以获得清晰监控图像时,此时介入无人机系统辅助监控。
所述的无人机辅助监控系统包括无人机视频拍摄系统和无线传输系统,无人机所拍视频通过无线传输系统与地面控制中心相连,其中,无人机设有目标识别系统模块。
无人机辅助监控主要步骤包括:
(1)摄像头定时截取场景图像传输至控制中心处理平台,处理平台通过人体检测模块进行检测,获得实时人群密度分布的梯度方向直方图(HOG);
(2)通过不同时刻T获得的实时人群密度Ti-1、Ti、Ti+1(其中i>1,正整数)进行比较,得到人群动态分布变化,即拍摄区域的人群密度变化、流动方向、拥堵或聚集等。
步骤S5:在智能系统发出提示后,人工介入管理。
其中,步骤S1中,所述的无人机监视系统的人脸追踪主要步骤如下:
(1)向无人机监测系统输入所标记的人脸特征数据,无人机视频监控系统将采集到的视频流传递给人脸检测跟踪模块,然后人脸检测跟踪模块经过人脸检测算法,获得视频图像中人脸特征数据并与所标记的人脸特征数据进行比对,从而追踪得到所标记人脸的位置,并将人脸的位置、方向等信息传递给控制中心,同时,控制中心根据人脸位置、移动方向等信息控制无人机系统继续跟踪相应的人脸。
(2)当跟踪到的区域没有可以与之对应的人脸时,即人脸追踪失败或检测失败,记录下最后一帧图像所标记的人脸位置信息,在0-360度范围内切换视频角度进行重新检测,或调动其余无人机辅助进行检测追踪,重复步骤(1),并进行人工现场干预。
优选地,无人机系统集成的人脸检测模块为基于AdaBoost算法的检测方法,检测步骤分为三步:首先适用二维Harr变换的函数基的模板表示人脸,然后使用AdaBoost算法选择最能代表人脸的矩形特征(弱分类器),并用加权的形式将它们联结成强分类器,最后将训练得到的强分类器串联成级联结构的层叠分类器。
具体地,本发明技术方案上述各步骤S1-S5具体流程如下。
S1主要步骤如下:
1)视频采集获取步骤:通过固定机位的一个或多个监控视频摄像机获得出入口固定场景的监控视频,对视频中出现的人员进行人脸提取,获得人脸图像;
2)提取人脸特征数据并与授权的敏感人群数据库中的人脸特征数据进行快速比对;其中,当人脸由于被遮盖导致信息不全时,进行人脸图像恢复以得到模拟全脸的人脸特征数据;
3)获得与敏感人群数据库中人员具有高相似度的比对值时,从至少两张以上的该人员人脸图像中进一步提取特征数据进行精确检测;
4)高比对值确认后,信息提示端进行系统显示并进行标记。
5)进一步地,在合适条件时例如在露天场所时,对标记人员启动无人机监视系统进行辅助追踪监控。
其中,出入口场景的视频采集采用至少两组角度不同的摄像头,尽可能地多角度监控出入口。采用多个摄像机时,相邻两个摄像机至少有30%的重叠区域。
优选地,采用多摄像机协同工作系统,包含云台摄像机子系统与固定摄像机子系统。不同摄像机之间的数据融合可以选自使用马氏距离(Mahalanobis distance)及卡曼滤波器来完成;固定摄像机系统跟踪监控场景中的对象,云台摄像机系统用于抓拍固定摄像机跟踪的对象的高清晰图片。
其中,从视频数据中提取图像时进行背景减除,常用的背景减除方法是本领域已知的,包括但不限于:高斯混合模型方法,对每个像素点建立高斯混合模型以描述其模式的变化;核密度估计方法,这类方法观测数据服从概率密度函数,所述函数由观测到的数据通过核函数的线性加权逼近和拟合,尤其适用于车站等快速密集人流进出的场景;实时前景背景分割方法,该方法基于码本,在训练阶段为每个像素建立背景码本,在减除阶段通过将观测值与码本进行比较得到前景背景分割的结果。
具体地,本领域技术人员可以根据所监控场所出入口的具体人流密度选择合适的背景减除方法,例如车站(火车、汽车、地铁)、机场、广场、体育馆、候车厅及其他临时场所等。由于出入口的场景背景相对固定,几乎不存在行人固定或静止不动的情况,因此常规的动态人流背景减除方法均可适用。
其中,人脸检测可以采用包含任意人脸检测算法的模块,优选基于Haar-like特征的AdaBoost人脸检测算法,检测到人脸后,人脸特征的提取操作可采用主成分分析(PCA)法,又称为特征人脸法,属于目前已广泛应用的人脸算法。
其中,当人脸被部分遮盖时,无法通常的算法提取眼睛、嘴巴、眉毛与鼻子等人脸特征的,需要进行模拟修复,因此优选采用含有人脸恢复模块的人脸特征提取模块。在现有技术多种可行的修复算法中,可以选择采用概率主成分分析方法恢复遮盖导致的人脸丢失数据,即基于PCA错误补偿的人脸图像恢复算法。基本恢复流程如下:先确定人脸的遮盖部分与未遮盖部分,然后使用信息恢复算法得到遮盖部分的信息,然后利用马尔科夫场临界约束等手段完善拟合得到恢复后的人脸。
其中,所述的敏感人群数据库获取自公安授权的嫌犯、在逃通缉人员、假释人员等人员信息,并通过公安官方提供的照片图像进一步提取加工处理,以得到包含人脸特征数据等信息的敏感人群数据库。
所述的敏感人群数据库中人脸特征数据还包括轮廓纹理编码,以供精确检测时比对。编码可以利用现有技术中已知的参考模板法、人脸规则法、样品学习法和特征子脸法中任意一个算法或组合从监控图像中计算得到。
其中,人脸特征数据的提取可以采用本领域已知的算法。当检测到出入口场景中有人体(人体检测模块及算法可采用本领域已知方法,例如采用HOG算法)出现后,进入人脸检测状态,并准备提取人脸特征数据。人脸检测是本领域熟知的,例如可以选自基于Haar-like特征(HLF)的AdaBoost人脸检测算法,也是本领域常用的人脸检测算法。当出入口人员较多时,可以使用CPU多核加速技术。优选地,快速比对时,初筛的阈值设定在比较低的水平,例如相似度60%。
为了改进人脸检测算法的检测率和误检率,优选地,初筛时采用快速检测算法,例如基于固有特征模型的人脸检测方法和基于统计分类思想的人脸检测方法。基于固有特征模型的人脸检测方法通常提取被检测图像对应区域的特征与参考模型比较来检测人脸,具有计算量小,检测速度快的特点。二次确认时辅助采用精度更好的检测方法,以全面系统的描绘出人脸特征。
人脸特征的提取存在多种算法,本发明优选PCA法。主成分分析(PCA)法应用于人脸又称为特征人脸法,目前已广泛应用于人脸识别分辨以及人脸恢复算法中,它使用正交变换将一组数据投影到线性无关的正交基即被称为主成分组成的坐标系统:第一个主成分包含最大的变化量,第二个主成分包含剩余的最大变化量,以此类推。例如,该算法的一个实施方式中,人脸图像Li表示为:
其中,在n×n的特征向量矩阵中,取n个特征向量作为坐标基,建立特征人脸空间W={Wl,W2……Wn},计算每个人脸矢量Li相对于平均人脸向量的差值到子空间的投影系数Xi=(Xi,1;Xi,2;Xi,3;……),其中i<n。∈为满足高斯分布的概率补偿N(0,σ~I),使得与实际场景的实测值具有10%以下的误差率,优选具有5%内的误差率。
由于使用越多的特征人脸组成的坐标基表示的人脸图像基本与原始人脸图像相似度越高,因此,优选地,特征人脸坐标基不低于50个,更优选不低于100个。具体地,在实际操作中,首先抽取眉毛和眼睛构成矩形框,运用投影法粗定位眼睛位置,然后在此基础上采用模板匹配法精确定位,根据眼睛的定位采用投影法定位鼻子,包括鼻角点及鼻尖,得到人脸局部特征。最后根据人脸识别方法(例如Fisherface算法)、简单频谱脸方法进一步提取得到人脸的整体特征。
在一个实施方式中,人脸特征提取的主要步骤如下:
提取包含眉毛和眼睛的矩形框,根据投影函数计算框内任意一点在水平方向上和垂直方向上的平均灰度值;其中,根据水平方向上出现的眉毛和眼珠的两个灰度点,以及眼珠与眉毛的上下方关系确定两眼坐标;归一化校准后采用PCA模板精确定位眼睛及鼻子位置,从而构建了人脸局部特征,在此基础上进一步提取得到人脸的整体特征。
其中,当人脸被部分遮盖时,是不能利用通常的算法提取眼睛、嘴巴、眉毛与鼻子等人脸特征的,需要进行模拟修复。
人脸部分遮盖包括但不限于:被墨镜、围巾、口罩和太阳帽等物体遮盖不能被识别为正常人脸。目前人脸遮盖检测是已知的,例如使用Haar特征训练基于AdaBoost的人脸分类器,并把人脸图像划分为多个图像片,每个分类器对应一个图像片,通过检测图像片来确定阈值,并且通过对每个人脸区域加权来确定输入的子窗口是不是人脸。另外,也可以采用人头区域的肤色检测方法来确定人脸是否被遮盖。
当检测到遮盖的人脸时,需要对遮挡的人脸进行模拟修复。现有技术中报道了多种可行的修复算法,例如,基于二维形变人脸模型的恢复方法,利用未遮挡部分获取参数,然后利用这些参数生成遮挡部分的人脸图像(IEEE Transactions on Pattern Analysisand Machine Intelligence,2003,5(3):365-372;);基于PCA错误补偿的人脸图像恢复算法(Computational Intelligence and Security Workshops,2007:304-307);使用未被遮挡的人脸信息来恢复遮挡部分人脸(Tang,N.C,In Circuits and Systems,2009);利用不同人脸特征之间的关系来恢复被遮住的人脸(Novel Inpainting Algorithm for heavilyoccluded face reconstruction.Communications and Infolmatics,2013),等等。现有的人脸恢复方法均可取得比较好的恢复效果。
优选地,采用概率主成分分析方法恢复遮盖导致的人脸丢失数据,即基于PCA错误补偿的人脸图像恢复算法(具体可参见Zhi Ming Wang,Computational Intelligence andSecurity Workshops,2007:304-307)。
所述的人像遮盖基本恢复流程如下:先确定人脸的遮盖部分与未遮盖部分,然后使用信息恢复算法得到遮盖部分的信息,然后可选地,利用马尔科夫场临界约束等手段进一步完善拟合得到恢复后的人脸。
在无人机辅助的人脸追踪检测中,主要步骤如下:向无人机监测系统输入所标记的人脸特征数据,无人机视频监控系统将采集到的视频流传递给人脸检测跟踪模块,然后人脸检测跟踪模块经过人脸检测算法,获得视频图像中人脸特征数据并与所标记的人脸特征数据进行比对,从而追踪得到所标记人脸的位置,并将人脸的位置、方向等信息传递给控制中心,同时,控制中心根据人脸位置、移动方向等信息控制无人机系统继续跟踪相应的人脸。(2)当跟踪到的区域没有可以与之对应的人脸时,即人脸追踪失败或检测失败,记录下最后一帧图像所标记的人脸位置信息,在0-360度范围内切换视频角度进行重新检测,或调动其余无人机辅助进行检测追踪,并进行人工现场干预。
在具体操作中,涉及图像处理模块的开发包可以采用OpenCV等商业软件包,其中集成了很多图像处理算法。应用OpenCV能够实现多种图像处理与操作功能。例如:(a)对图像数据的操作;(b)对图像和视频的输入输出;(c)具有对矩阵和向量的操作以及线性代数的算法程序;(d)对各种动态数据结构进行操作;(e)基本的数据图像处理能力如进行滤波,边缘检测等;(f)对各种结构进行分析,包括轮廓处理,距离变换等;(g)对摄像头的定标;(h)对运动的分析如光流,运动分割和跟踪的分析;(i)对目标辅助识别等。
优选地,无人机系统集成的人脸检测为基于AdaBoost算法的方法,检测步骤分为三步:首先适用二维Harr变换的函数基的模板表示人脸,然后使用AdaBoost算法选择最能代表人脸的矩形特征(弱分类器),并用加权的形式将它们联结成强分类器,最后将训练得到的强分类器串联成级联结构的层叠分类器。
其中,训练过程的算法步骤如下:
(1)在定义好的矩形特征原型下,计算输入的样本集并得到矩形特征集;根据定义的弱学习算法计算输入的特征集阈值,根据特征与弱分类器一一对应的关系得到弱分类器集;
(2)在给定检出率和误判率约束条件下,使用AdaBoost算法对输入的弱分类器集挑选最优的弱分类器组合成强分类器;将输入的强分类器以一定的关系组合成级联分类器;将强分类器组合成临时的级联分类器,对输入的非人脸图片集进行训练,筛选并补充非人脸样本。
在快速检测中,将人脸图像进行特征值计算实际上是利用图像灰度的特征来区分人脸与非人脸,而利用积分图计算则可以实现特征值的快速计算。
步骤S2:基于视频分析的人群密度动态监控
目前已有的人群人数统计方法主要有两种:1)利用人体模板对视频图像中的人进行检测;2)利用人头或头肩模板对视频图像中的人进行检测。由于方法1)在人群密度较高的场景中检测效果差,因此在人流密度较大的场合优选采用利用人头或头肩模板对视频图像中的人进行检测。主要步骤包括:1)对实时监控图像进行边缘检测和前景分割,分割出人群,将完整的人体特征分为若干个局部特征模型,并配置相应的权重;2)对分割后的人群特征进行提取,并与所述局部特征模型进行匹配检测,根据局部特征与完整人体特征之间的位置偏移计算匹配程度,若超过特定阈值,则匹配成功;根据匹配成功的次数统计人群数量,并进行提示。3)将视频数据一个帧的分割图像与上一帧的分割图像进行目标匹配,并根据匹配结果计算得到人群移动速度,并给出拥堵、停顿等异常行为信息提示。
其中,视频前景分割提取是本领域成熟的技术,例如可以根据所要分割视频中前景和背景的灰度分布区间存在差异,利用这种差异提取前景区域。具体地,可将视频数据中的每个像素的灰度值与背景图像相应像素的灰度值相减,差值绝对值大于预设阀值时该像素属于前景图像,属于前景图像的像素集合构成前景图像。
具体地,人群特征提取主要步骤为:1)由于人群密度的原因,将完整的人体特征划分为四个局部特征模型,分别为头部、左右肩及肩下的胸部,构建人体特征模型D=D1+D2+D3+D4,并配置局部特征权重α={α1,α2,α3,α4},使得各权重总和为1;优选地,在高密度人群情况下,由于肩部及以下容易被遮挡,将头部特征权重设置为至少为0.5,例如0.5-0.8。
进一步地,可根据人流密度变化调整权重设置,并根据测试统计出的人群数量与真实结果的误差来调整权重比值,直至误差控制在较小的范围。
2)提取人体特征模型样本的HOG特征(可以基于本领域常用的HOG人体局部特征模型检测法),由分类器(SVM等)得到局部特征模型的模板。根据检测的人体轮廓人数来计算包含的人数。
采用梯度方向直方图(HOG)的方法是本领已知的成熟方法。
在集会场合以及高度密集的人群场合例如高峰期间的地铁站火车站等,也可采取仅用人体头部轮廓的像素数目进行人群密度动态监控。具体步骤为,从视频数据中提取的前景图像后进行背景分割,得到人群分割图像;通过人体检测分别计算分割图像所包含的人体轮廓像素数目,并根据该像素数目计算各分割图像包含的人数,从而计算不同时间的人群动态密度。其中,基于Haar分类器的人体检测是常用的人体检测方法,为消除目标远近对检测结果的差异,可将提取到的前景区域缩放到同一尺度下。
还可采用现有技术中的其他方法检测人群动态密度,例如“利用归一化前景和二维联合熵的人群聚集检测方法”(武汉大学学报信息科学版,2013.09),通过计算前景区域二维联合熵来统计场景中的人群密度;以及“多种人群密度场景下的人群计数”(中国图象图形学报,2013.04),采用回归模型估计场景中的人数,可以估计特定场景下的人群密度。
此外还有基于混合高斯模型的背景差分技术、基于haar小波特征和cascade层叠分类器的行人头肩检测技术、基于Kalman滤波的人流跟踪技术等。
本领域技术人员可以根据所针对的具体场所大小、人群密度等具体情况选择合适的算法进行监控,这是比较容易的。
目前,动态监控多采用集成算法的视频分析服务器,是基于计算机视觉分析技术的智能视频监控系统中的核心设备,能够对前端摄像机传来的视频进行智能分析并进行人流统计等计算分析,同时数据发送到监控管理终端并存储到数据库。
优选地,为了更为准确的进行运动目标检测,所述的视频分析服务器包含预存数据库模块,存储数学统计人群运动现象的经验数学模型或算法所需特征矢量值,包括摄像角度、焦距、空间坐标和人的像素面积等。所述的预存数据库模块可以商购获得的数据库,也可以自适应学习存储的数据:通过对视频流中的人群运动进行多次数学统计形成经验数学模型,同时建立摄像角度、焦距、空间坐标、人的像素面积等计算处理用的特征矢量值,以供检测使用,加快检测速度。
人流动态监控除了交通枢纽、机场、车站外,还适用于商场、大型超市、公园景区、体育场馆、娱乐场所等领域的安防,提供人员数量、人数趋势等信息。
作为可选的其他方式,人群密度动态监控可采用集成算法的视频分析服务器,即基于计算机视觉分析技术的智能视频监控系统中的核心设备,能够对前端摄像机传来的视频进行智能分析并进行人流统计等计算分析,同时数据发送到监控管理终端并存储到数据库。为了更为准确的进行运动目标检测,所述的视频分析服务器包含预存数据库模块,存储数学统计人群运动现象的经验数学模型或算法所需特征矢量值,包括摄像角度、焦距、空间坐标和人的像素面积等。所述的预存数据库模块可以商购获得的数据库,也可以自适应学习存储的数据:通过对视频流中的人群运动进行多次数学统计形成经验数学模型,同时建立摄像角度、焦距、空间坐标、人的像素面积等计算处理用的特征矢量值,以供检测使用,加快检测速度。
S3:视频监控下密集人群的群体异常行为检测及警示
密集人群的群体异常行为检测通常可通过监控人群的移动速度进行判断,例如人群聚集时该区域群体移动速度为零。
现有技术中,视频监控自动探测人群异常行为的特征算法包括:提取视频中各个像素的运动速度的Brox光流算法(Thomas Brox,etal.High Accuracy Optical FlowEstimation Based on a Theory for Warping.in European Conference on ComputerVision,2004),以及Horn-Schunck光流算法(Barron,J.L.,et al.Performance ofoptical flow techniques in Computer Vision and Pattern Recognition,1992),也是通过提取视频中各个像素的运动速度实现。
上述算法的步骤在于,对速度大于阈值的像素,根据其速度的大小和方向,统计这些像素的速度矢量区间直方图,从而计算得到视频监控中人群移动的特征描述,描述值大于预设的阈值时,则系统发出警告。
当有人流逆行时,检测流程如下:计算监控视频图像中各像素点的光流,然后根据方向构建光流方向直方图;若光流方向直方图中存在与设定方向相反且幅值超过一定阈值的光流点,则认为监控视频图像中存在逆行目标。逆行检测可用于单向通道或关口的监测与报警。用户可以通过在视频画面中自行设定检测区域和运动方向,一旦有逆行发生,客户端自动显示并记录。
S4:视频监控盲区的无人机辅助监控
搭载视频监控系统的无人机具有灵活、快速的优点。在室外场合,其是在临时性的集会场所,当固定视频监控存在盲区,或由于视距过远导致难以获得清晰监控图像时,介入无人机系统辅助监控。
另外,在出口处被标记的人员,在快速人流中容易混入人群中难以分辨,此时也有必要快速介入无人机监视系统。无人机辅助监控系统包括无人机视频拍摄系统和无线传输系统,无人机所拍视频通过无线传输系统与地面控制中心相连,优选地,无人机设有目标识别系统模块。
视频监控盲区的无人机辅助监控主要步骤包括:
S1:摄像头定时截取场景图像传输至控制中心处理平台,处理平台通过上述任一人体检测方法进行检测,获得实时人群密度分布的梯度方向直方图(HOG);
S2:通过不同时刻T获得的实时人群密度Ti-1、Ti、Ti+1(其中i>1,正整数)进行比较,得到人群动态分布变化,例如拍摄区域的人群密度变化、流动方向、拥堵或聚集等。
另外,当出入口的行人被标记时,由无人机快速介入进行人脸追踪监控。人脸追踪算法可采取任意的检测追踪算法,例如可以基于不同时刻人脸检测结果的对应性,其算法为计算检测到的特定人脸与所要跟踪的人脸重叠面积占人脸面积的百分比,若超过设定阈值T则可判断检测对象和跟踪对象属于同一人脸。
本发明所涉及的图像获取装置是本领熟知的,例如包括顺次相接的光学清晰镜头、高清晰图像传感器、主控单元处理器和数据输出接口;其中无人机系统还可以包括自动检测人体的算法软件模块、图像抓拍控制软件模块和图像编码算法处理模块等。
当用于出入口的固定拍摄时,图像获取指令的发出可以通过自动检测移动物体算法软件实现:将前一帧与当前帧数据实时比对,计算出两帧数据变量范围,当变量范围大于或等于设定的参考变量时输出图像获取指令;也可以通过设置在出入口处的与视频系统相连的移动检测传感器实现,所述移动检测传感器检测到人体通过时通过视频监测系统输出抓拍指令。
优选地,控制中心的管理整体架构采用多Agent架构,由出口、入口、场所内部等若干个相互独立的管理节点组成。每个管理节点的结构包括视频监控管理模块,算法插件模块,数据库模块,报警模块和信息提示模块等。每个管理节点连接各自的视频分析算法模块插件,从而构成综合性视频分析层;每个节点可向相邻对等节点发起协作请求。结果反馈给总控制端。
综上,本发明技术方案基于人脸检测的智能监控系统,从人员密集、场景复杂的公共环境中分析检测出关键有效信息,将全面监控功能和人群密度、人群动态分布、人员识别监控有机结合为一体,实现了密集人群的安防监控管理。
本发明的有益效果在于,将重点监测区域与全面动态监控相结合,并付诸无人机系统的流动监测,实现了密集人群场合的监控全覆盖;利用局部重点区域出入口图像中人体检测和识别的高精度检测,在效率最高的区域有效识别敏感人群;通过人群检测算法模块获取人群动态,极大的提高了全面监控的效率;除了对人群行为作出预判,还可对重点目标人物进行精准定位,并通过无人机监控系统进行辅助追踪,并将反馈给终端控制中心;有效减少安保人员的工作量,有效保障公共区域公众的安全。
附图说明
图1是使用本发明各监控区域中人工智能监控系统的体系结构图。
具体实施方式
下面通过具体的实施例对本发明进行详细说明,但这些例举性实施方式的用途和目的仅用来例举本发明,并非对本发明的实际保护范围构成任何形式的任何限定,更非将本发明的保护范围局限于此。
一种基于人工智能动态监控的密集人群安防监控管理方法,该方法包括如下步骤:
S1.出入口处基于动态人脸识别的敏感人员筛选及标记:
1)视频采集获取步骤:
出入口场景的视频采集采用至少两组角度不同的摄像头,相邻两个摄像机有30%的重叠区域。优选采用包含云台摄像机子系统与固定摄像机子系统多摄像机协同工作系统。不同摄像机之间的数据融合可以选自使用卡曼滤波器来完成;固定摄像机系统跟踪出入口场景中的对象,云台摄像机系统用于抓拍固定摄像机跟踪的对象的高清晰图片,对视频中出现的人员进行人脸提取,获得人脸图像。当系统检测到出入口场景中有人体出现后,系统进入人脸检测状态,检测模块的算法为Viola提出的基于Haar-like特征(HLF)的AdaBoost人脸检测算法,这也是当前使用最多的人脸检测算法。其中,优选在使用0penMP标准实现CPU多核加速的前提下,使用小码流(CIF,10-15帧/秒)大小的视频流进行人脸检测,使用720×576以上大小的视频流进行图片的拍照保存。
2)提取人脸特征数据并与授权的敏感人群数据库中的人脸特征数据进行快速比对:
首先对提取的图像进行背景减除预处理,根据场所出入口的具体人流密度选择背景减除方法。由于出入口的场景背景相对固定,几乎不存在行人固定或静止不动的情况,因此利用背景的参数模型来近似背景图像的像素值,将当前帧f1与背景图像f0进行差分比较后实现对运动区域的检测,其中区别较大的像素区域被认为是运动区域,而区别较小的像素区域被认为是背景区域,从而进行背景减除。
其中,经由Haar-like特征的AdaBoost人脸检测算法检测到人脸后,进行人脸特征的提取操作,提取采用主成分分析(PCA)法,又称为特征人脸法,属于目前已广泛应用的人脸算法,它使用正交变换将一组数据投影到线性无关的正交基即被称为主成分组成的坐标系统:第一个主成分包含最大的变化量。
在图像实际操作中,首先提取包含眉毛和眼睛的矩形框,根据投影函数计算框内任意一点在水平方向上和垂直方向上的平均灰度值;其中,根据水平方向上出现的眉毛和眼珠的两个灰度点,以及眼珠与眉毛的上下方关系确定两眼坐标;归一化校准后采用PCA模板精确定位眼睛及鼻子位置,从而构建人脸局部特征,进而扩展得到人脸的整体特征。
其中,当人脸被部分遮盖时,无法通常的算法提取眼睛、嘴巴、眉毛与鼻子等人脸特征的,需要进行模拟修复,优选采用含有人脸恢复模块的人脸特征提取模块。在现有技术多种可行的修复算法中,选择采用概率主成分分析方法恢复遮盖导致的人脸丢失数据,即基于PCA错误补偿的人脸图像恢复算法。
基本恢复流程如下:先确定人脸的遮盖部分与未遮盖部分,然后使用信息恢复算法得到遮盖部分的信息,然后利用马尔科夫场临界约束等手段完善拟合得到恢复后的人脸。
其中,所述的敏感人群数据库获取自公安授权的嫌犯、在逃通缉人员、假释人员等人员信息,并通过公安官方提供的照片图像进一步提取加工处理,以得到包含人脸特征数据等信息的敏感人群数据库。
3)获得与敏感人群数据库中人员具有超过80-85%的高相似度的比对值时,从至少两张以上的该人员人脸图像中提取特征数据进行进一步的精确检测。
4)高比对值确认后,信息提示端进行系统显示并进行标记。进一步地,在露天场所时,对标记人员启动无人机监视系统进行辅助追踪监控。
在人脸追踪检测中,主要步骤如下:
(1)向无人机监测系统输入所标记的人脸特征数据,无人机视频监控系统将采集到的视频流传递给人脸检测跟踪模块,然后人脸检测跟踪模块经过人脸检测算法,获得视频图像中人脸特征数据并与所标记的人脸特征数据进行比对,从而追踪得到所标记人脸的位置,并将人脸的位置、方向等信息传递给控制中心,同时,控制中心根据人脸位置、移动方向等信息控制无人机系统继续跟踪相应的人脸。
(2)当跟踪到的区域没有可以与之对应的人脸时,即人脸追踪失败或检测失败,记录下最后一帧图像所标记的人脸位置信息,在0-360度范围内切换视频角度进行重新检测,或调动其余无人机辅助进行检测追踪,重复步骤(1),并进行人工现场干预。
特别地,无人机系统包含人脸检测跟踪模块,与视频监控子模块、控制子模块相关联。视频监控子模块采集到的视频,输入到人脸跟踪子模块中。人脸跟踪子模块输出的人脸运动信息,传然后将人脸的位置方向信息,传递给云控制模块。最后,控制模块根据这类信息,智能的跟踪人脸。
在具体人脸检测跟踪图像处理操作中,图像处理开发包采用OpenCV,其中集成了很多图像处理算法。无人机系统集成的人脸检测为基于AdaBoost算法的方法,检测步骤分为三步:首先适用二维Harr变换的函数基的模板表示人脸,然后使用AdaBoost算法选择最能代表人脸的矩形特征(弱分类器),并用加权的形式将它们联结成强分类器,最后将训练得到的强分类器串联成级联结构的层叠分类器。其中,基于Adaboost的人脸检测模块主要包含训练和检测模块,利用OpenCV中的检测模块实现人脸的检测。
可以使用OpenCV中提供的用于人脸检测的分类器XML文件,或使用OpenCV中的样本训练工具制作级联分类器,过程如下:收集正、负样本;利用OpenCV的Createsamples.exe工具创建Sample,直到收敛;使用OpenCV中的performance.exe工具测试训练样本,并最终开成级联的分类器XML文件。
OpenCV实现人脸检测的流程为:装载级联分类器,加载要检测的图像,人脸检测,显示检测结果。涉及的具体函数如下:
1)函数LoadHaarClassifierCascade:装载训练好的级联分类器。
2)函数HaarDetectObjects:该函数使用针对某目标物体训练的级联分类器在图像中找到包含目标物体的矩形区域,并将这些区域作为一系列的矩形框返回。
格式为:CvSeq*cvHaarDetectObjects(const CvArr*image,CvHaarClassifierCascade*cascade,
CvMemStorage*storage,double scalefactor=1.1,intminneighbors=3,int
flags=0,CvSize minsize=cvSize(0,0));
3)函数RunHaarClassifierCascade:在给定位置的图像中运行级联分类器,用于对单幅图片进行检测。
格式为:int cvRunHaarClassifierCascade(CvHaarClassifierCascade*cascade,CvPoint pt int startstage=0);其中cascadeHaar是级联分类器。pt是待检测区域的左上角坐标,startstage是级联层的初始下标值。由此能够很容易检测出人脸。
其中,当使用OpenCV中的样本训练工具时,需要寻找一定数目的人脸样本。一般利用AdaBoost算法来训练样本,刷选出最能反映人脸特征的一些Haar特征,用来制作用于人脸检测的分类器。
训练过程的算法步骤如下:
(1)在定义好的矩形特征原型下,计算输入的样本集并得到矩形特征集;根据定义的弱学习算法计算输入的特征集阈值,根据特征与弱分类器一一对应的关系得到弱分类器集;
(2)在给定检出率和误判率约束条件下,使用AdaBoost算法对输入的弱分类器集挑选最优的弱分类器组合成强分类器;将输入的强分类器以一定的关系组合成级联分类器;将强分类器组合成临时的级联分类器,对输入的非人脸图片集进行训练,筛选并补充非人脸样本。
在快速检测中,将人脸图像进行特征值计算实际上是利用图像灰度的特征来区分人脸与非人脸,而利用积分图计算则可以实现特征值的快速计算。例如,ii(x,y)表示像素点(1,1)与(x,y)所围成的矩形图形所有像素的积分运算;i(x,y)表示原始图像;ii(x,Y)可通过下式迭代进行计算:s(x,y)=s(x,y-1)+i(x,y);ii(x,y)=ii(x-1,y)+s(x,y)。其中,s(x,y)表示行的积分和,且s(x,-1)=0,s(-1,y)=0。这种方法计算特征值与图像的坐标值无关,只取决于积分图。相同种类的矩形特征特征值的运算时间是常量,运算通常为耗时不多的加减法运算。这种图像表示法,遍历图像一次就可以得到图像子窗口的全部特征值,检测的效率很高。
在实际操作中,可将待检测的图像子窗口分为4-10块矩形区域,例如分为六块矩形区域,记为A、B、C、D、E、F;像素点记为p1、p2、p3、p4、p5、p6,其中点p1的位置坐标分别为px、py;像素点p1积分图可表示为Sum(A),p1的像素值表示为g(m,n),则Sum(A)即为图像子窗口A的所有像素的累加像素值和。
S2.基于视频分析的人群密度动态监控:
具体地,在高密度人群情况下,将完整的人体特征划分为四个局部特征模型,分别为头部、左右肩及肩下的胸部,构建人体特征模型D=D1+D2+D3+D4,并配置局部特征权重α分别为0.7、0.1、0.1、0.1,表示为α={α1,α2,α3,α4}。提取人体特征模型样本的HOG特征,由SVM等分类器得到局部特征模型的模板,从而根据检测的人体轮廓人数来计算包含的人数。
采用梯度方向直方图(HOG)的方法检测人群密度是本领域的成熟方法。必要时,高度密集的人群场合可采取仅用人体头部轮廓的像素数目进行人群密度动态监控。
具体步骤为,从视频数据中提取的前景图像后进行背景分割,得到人群分割图像;通过人体检测分别计算分割图像所包含的人体轮廓像素数目,并根据该像素数目计算各分割图像包含的人数,从而计算不同时间的人群动态密度。其中,基于Haar分类器的人体检测是常用的人体检测方法,为消除目标远近对检测结果的差异,可将提取到的前景区域缩放到同一尺度下。
在人数检测中,由于采用方向梯度直方图人头检测算法在每个窗口中提取HOG特征描述符的过程都是相互独立的,同时每一个单元(Cell)中梯度以及直方图计算也都是相互独立的,因此可以进行并行的加速优化,即使用GPU加速的方向梯度直方图人群检测算法,流程如下:
首先将整张图像拷贝到显卡的全局共享内存中并进行图像填充,在源图像中加入多余的行和列以在显存中进行数据对齐从而进行伽马归一化操作。其中,设计图像中每个单元的大小为16×16个像素,每个图像区块的大小为2×2个单元,将每个区块映射到一个CUDA线程块中,每个线块中有64个线程,这样每个单元中分配到32/4=16个线程,每个线程负责16个像素的梯度计算。计算每个像素点处的梯度后,每个线程计算出其负责的16个像素点的直方图,利用梯度的幅值作为权值进行投票。然后将每个线程计算出的直方图进行在整个区块上进行合并,形成区块的直方图。为了利用GPU的并行计算能力,采用了并行规约算法,以简化直方图合并的计算复杂度。同时,对于检测窗口中的所有区块使用并行规约的方法,合并成为整个检测窗口的方向梯度直方图,接下来将直方图输入到线性SVM分类器中映射到一个CUDA线程块,利用每个直方图的Bin不同的权值,然后仍然利用并行规约的方法求得相对于超平面的Bias,从而得到了最终的检测结果。当同一片区域可能有多个滑动窗时,为保证同一片区域人头检测结果的唯一,可使用非极大值抑制去除重叠的滑动窗口。
将视频数据一个帧的分割图像与上一帧的分割图像进行目标匹配,并根据匹配结果计算得到人群移动速度,并给出拥堵、停顿等异常行为信息提示。其中,视频前景分割提取可以根据所要分割视频中前景和背景的灰度分布区间存在差异,利用这种差异提取前景区域。具体地,可将视频数据中的每个像素的灰度值与背景图像相应像素的灰度值相减,差值绝对值大于预设阀值时该像素属于前景图像,属于前景图像的像素集合构成前景图像。
作为可选的其他方式,人群密度动态监控可采用集成算法的视频分析服务器,即基于计算机视觉分析技术的智能视频监控系统中的核心设备,能够对前端摄像机传来的视频进行智能分析并进行人流统计等计算分析,同时数据发送到监控管理终端并存储到数据库。为了更为准确的进行运动目标检测,所述的视频分析服务器包含预存数据库模块,存储数学统计人群运动现象的经验数学模型或算法所需特征矢量值,包括摄像角度、焦距、空间坐标和人的像素面积等。所述的预存数据库模块可以商购获得的数据库,也可以自适应学习存储的数据:通过对视频流中的人群运动进行多次数学统计形成经验数学模型,同时建立摄像角度、焦距、空间坐标、人的像素面积等计算处理用的特征矢量值,以供检测使用,加快检测速度。
S3.视频监控下密集人群的群体异常行为检测及警示
密集人群的群体异常行为检测通常可通过监控人群的移动速度变化进行判断,人群聚集或拥堵时该区域群体移动速度为零。
视频监控自动探测人群异常行为的特征算法包括:提取视频中各个像素的运动速度的Brox光流算法,以及Horn-Schunck光流算法。步骤在于,对速度大于阈值的像素,根据其速度的大小和方向,统计这些像素的速度矢量区间直方图,从而计算得到视频监控中人群移动的特征描述,描述值大于预设的阈值时,则系统发出警告。
当有人流逆行时,检测流程如下:
计算监控视频图像中各像素点的光流,然后根据方向构建光流方向直方图;若光流方向直方图中存在与设定方向相反且幅值超过一定阈值的光流点,则认为监控视频图像中存在逆行目标。逆行检测可用于单向通道或关口的监测与报警。用户可以通过在视频画面中自行设定检测区域和运动方向,一旦有逆行发生,客户端自动显示并记录。
S4.视频监控盲区的无人机辅助监控
在室外场合,当固定视频监控存在盲区,或由于视距过远等原因导致难以获得清晰监控图像时,此时介入无人机系统辅助监控。无人机辅助监控系统包括无人机视频拍摄系统和无线传输系统,无人机所拍视频通过无线传输系统与地面控制中心相连,其中,无人机设有目标识别系统模块。
无人机辅助监控主要步骤包括:
(1)摄像头定时截取场景图像传输至控制中心处理平台,处理平台通过上述任一人体检测方法进行检测,获得实时人群密度分布的梯度方向直方图(HOG);
(2)通过不同时刻T获得的实时人群密度Ti-1、Ti、Ti+1(其中i>1,正整数)进行比较,得到人群动态分布变化,即拍摄区域的人群密度变化、流动方向、拥堵或聚集等,同步骤(3)。
当需要无人机进行人体辅助跟踪时,无人机追踪流程同步骤S1。
S5.在显示终端给出的相应信息提示下,由人工介入进行管理干预。
一般地,当主机收到智能相机发送的图像数据之后,利用算法模块对收到的数据进行检测,如果触发到设定规则定义的阈值,则将相应的警示信息显示到终端监控显示设备上,进而作为人工干预的依据。
其中,图像上传线程和PC的通信可使用TCP完成。在图像上传开始时,设置TCP的发送、接收的允许超时时间,并通过设定的端口和主机IP地址和主机建立连接。当TPC连接建立后,图像上传线程从队列中取出侦测数据,并使用send等函数将这些数据上传到主机。
应当理解,这些实施例的用途仅用于说明本发明而非意欲限制本发明的保护范围。此外,也应理解,在阅读了本发明的技术内容之后,本领域技术人员可以对本发明作各种改动、修改和/或变型,所有的这些等价形式同样落于本申请所附权利要求书所限定的保护范围之内。
Claims (6)
1.一种基于人工智能动态监控的密集人群安防监控管理方法,其特征在于,该方法包括如下步骤:
S1:出入口处基于视频图像动态人脸识别的敏感人员筛选及标记;其中,所述人脸识别包含快速初筛和精确复筛;以及无人机监控系统辅助进行的人脸追踪监控;
S2:基于视频分析的人群密度动态监控;其中,采用方向梯度直方图人体检测算法计算人群动态密度;
其中,该步骤S2具体如下:
1)对实时监控图像进行边缘检测和前景分割,分割出人群,将完整的人体特征分为若干个局部特征模型并配置相应的权重系数;
2)对分割后的人群特征进行提取,并与所述局部特征模型进行匹配检测,根据匹配成功的次数统计人群数量,并进行提示;其中,采用方向梯度直方图人体检测算法计算人群动态密度;
S3:视频监控下密集人群的群体异常行为检测及警示;其中,探测人群异常行为的算法模块包括提取视频中各个像素运动速度的光流算法;
S4:视频监控盲区的无人机辅助监控;
所述的无人机辅助监控系统包括无人机视频拍摄系统和无线传输系统,无人机所拍视频通过无线传输系统与地面控制中心相连,其中,无人机含有人员识别检测的功能模块;
S5:在智能系统发出提示后,人工介入管理;
其中,步骤S1及S4中的无人机监控系统人脸检测模块基于AdaBoost算法,检测步骤为:首先使用二维Harr变换的函数基模板表示人脸,然后使用AdaBoost算法选择代表人脸的矩形特征,并用加权的形式将其联结成强分类器,最后将训练得到的强分类器串联成级联结构的层叠分类器;
其中,步骤S4中无人机辅助监控的步骤如下:
1)摄像头定时截取场景图像传输至控制中心处理平台,处理平台通过人体检测模块进行检测,获得实时人群密度分布的梯度方向直方图;
2)通过不同时刻T获得的实时人群密度Ti-1、Ti、Ti+1进行比较,得到人群动态分布变化,即拍摄区域的人群密度变化、流动方向、拥堵或聚集;其中i>1,为正整数。
2.如权利要求1所述的安防监控管理方法,其特征在于,步骤S1具体步骤如下:1)视频采集获取出入口处人脸图像;提取人脸特征数据并进行快速初筛比对;2)二次复筛比对确认后,信息提示端进行系统显示并对敏感人员进行提示标记;3)进一步地,对标记人员启动无人机监控系统进行辅助人脸追踪监控,所述的无人机监控系统包含人脸检测跟踪模块,与视频监控子模块相关联。
3.如权利要求1所述的安防监控管理方法,其特征在于,该步骤采用集成算法的视频分析服务器或基于计算机视觉分析技术的智能视频监控系统设备,对前端摄像机传来的视频进行智能分析并进行人流统计计算分析,同时数据发送到监控管理终端并存储到数据库;所述的视频分析服务器包含预存数据库模块,存储数学统计人群运动现象的经验数学模型或算法所需特征矢量值,包括摄像角度、焦距、空间坐标和人的像素面积参数。
4.如权利要求1所述的安防监控管理方法,其特征在于,步骤S3具体步骤如下:利用基于提取视频中各个像素的运动速度的Brox光流算法或Horn-Schunck光流算法,对速度大于阈值的像素,根据其速度的大小和方向,统计这些像素的速度矢量区间直方图,从而计算得到视频监控中人群移动的特征描述。
5.如权利要求2所述的安防监控管理方法,其特征在于,所述无人机监控系统的人脸追踪步骤如下:向无人机监控系统输入所标记的人脸特征数据,无人机视频监控系统将采集到的视频流传递给人脸检测模块,然后人脸检测模块经过人脸检测算法获得视频图像中人脸特征数据,并与所标记的人脸特征数据进行比对,从而追踪得到所标记人脸的位置,并将人脸的位置、方向信息传递给控制中心;同时,控制中心根据人脸位置、移动方向信息控制无人机系统继续跟踪相应的人脸。
6.如权利要求5所述的安防监控管理方法,其特征在于,无人机监控系统还包括自动检测人体的算法软件模块、图像抓拍控制软件模块和图像编码算法处理模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910000550.6A CN109819208B (zh) | 2019-01-02 | 2019-01-02 | 一种基于人工智能动态监控的密集人群安防监控管理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910000550.6A CN109819208B (zh) | 2019-01-02 | 2019-01-02 | 一种基于人工智能动态监控的密集人群安防监控管理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109819208A CN109819208A (zh) | 2019-05-28 |
CN109819208B true CN109819208B (zh) | 2021-01-12 |
Family
ID=66603331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910000550.6A Active CN109819208B (zh) | 2019-01-02 | 2019-01-02 | 一种基于人工智能动态监控的密集人群安防监控管理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109819208B (zh) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110457987A (zh) * | 2019-06-10 | 2019-11-15 | 中国刑事警察学院 | 基于无人机的人脸识别方法 |
CN110222663A (zh) * | 2019-06-13 | 2019-09-10 | 红鼎互联(广州)信息科技有限公司 | 一种基于人脸识别的身份核验方法及装置 |
CN110139081B (zh) * | 2019-06-14 | 2020-09-01 | 山东第一医科大学(山东省医学科学院) | 一种视频编码方法及装置 |
CN110209201A (zh) * | 2019-06-24 | 2019-09-06 | 重庆化工职业学院 | 一种无人机智能追踪系统 |
CN110502967B (zh) * | 2019-07-01 | 2020-12-18 | 光控特斯联(上海)信息科技有限公司 | 基于人员大数据的目标场景人工智能匹配方法和装置 |
CN110738588A (zh) * | 2019-08-26 | 2020-01-31 | 恒大智慧科技有限公司 | 智慧社区厕所管理办法及计算机存储介质 |
CN110532951B (zh) * | 2019-08-30 | 2020-05-26 | 江苏航天大为科技股份有限公司 | 一种基于区间位移的地铁乘客异常行为分析方法 |
CN110826390B (zh) * | 2019-09-09 | 2023-09-08 | 博云视觉(北京)科技有限公司 | 一种基于人脸矢量特征的视频数据处理方法 |
CN110602404A (zh) * | 2019-09-26 | 2019-12-20 | 马鞍山问鼎网络科技有限公司 | 一种智能化安全管理实时监测系统 |
CN112584305A (zh) * | 2019-09-28 | 2021-03-30 | 王钰 | 基于gps定位系统移动电子设备用的实时数据共享系统 |
CN110889339B (zh) * | 2019-11-12 | 2020-10-02 | 南京甄视智能科技有限公司 | 基于头肩检测的危险区域分级预警方法与系统 |
CN110708831B (zh) * | 2019-11-18 | 2021-05-18 | 武汉迪斯环境艺术设计工程有限公司 | 城市中央照明控制方法及系统 |
CN111010546A (zh) | 2019-12-20 | 2020-04-14 | 浙江大华技术股份有限公司 | 监控预置点的调整方法、装置及存储介质 |
CN111046832B (zh) * | 2019-12-24 | 2023-06-02 | 广州地铁设计研究院股份有限公司 | 基于图像识别的逆行判断方法、装置、设备和存储介质 |
CN111031272B (zh) * | 2019-12-25 | 2021-08-31 | 杭州当虹科技股份有限公司 | 一种基于视频通讯辅助头像校正的方法 |
CN111144319A (zh) * | 2019-12-27 | 2020-05-12 | 广东德融汇科技有限公司 | 用于k12教育阶段基于人脸识别的多视频人员跟踪方法 |
CN111338768A (zh) * | 2020-02-03 | 2020-06-26 | 重庆特斯联智慧科技股份有限公司 | 一种利用城市大脑的公安资源调度系统 |
CN111242096B (zh) * | 2020-02-26 | 2023-04-18 | 贵州安防工程技术研究中心有限公司 | 基于人数梯度的人群聚集的判别方法 |
CN111401220B (zh) * | 2020-03-12 | 2021-03-19 | 重庆特斯联智慧科技股份有限公司 | 一种用于智慧安防的人群聚合特征分析方法和系统 |
CN111491133A (zh) * | 2020-04-09 | 2020-08-04 | 河南城建学院 | 应用电子人像锁定技术的商场安全监控系统 |
CN111638728B (zh) * | 2020-06-17 | 2022-11-22 | 南京邮电大学 | 一种基于车载无人机的快速大范围人群聚集情况监控方法 |
CN111709391B (zh) * | 2020-06-28 | 2022-12-02 | 重庆紫光华山智安科技有限公司 | 一种人脸人体匹配方法、装置及设备 |
CN111935461A (zh) * | 2020-09-11 | 2020-11-13 | 合肥创兆电子科技有限公司 | 一种基于智能安防控制系统 |
CN112365468A (zh) * | 2020-11-11 | 2021-02-12 | 南通大学 | 基于AA-gate-Unet的海上风电塔筒涂层缺陷检测方法 |
CN113221612A (zh) * | 2020-11-30 | 2021-08-06 | 南京工程学院 | 一种基于物联网的视觉智能行人监控系统和方法 |
CN112508021A (zh) * | 2020-12-23 | 2021-03-16 | 河南应用技术职业学院 | 一种基于人工智能图像识别的特征提取方法及装置 |
TR202022665A2 (tr) * | 2020-12-31 | 2022-07-21 | Xena Vision Yazilim Savunma Anonim Sirketi | Kamera takip yöntemi |
CN112560807B (zh) * | 2021-02-07 | 2021-05-11 | 南京云创大数据科技股份有限公司 | 一种基于人头检测的人群聚集检测方法 |
CN112990017B (zh) * | 2021-03-16 | 2022-01-28 | 刘宏伟 | 一种智慧城市大数据分析方法及监控系统 |
CN113436165A (zh) * | 2021-06-23 | 2021-09-24 | 合肥迈思泰合信息科技有限公司 | 一种基于人工智能的视频图像检测系统及其检测方法 |
CN113159009A (zh) * | 2021-06-25 | 2021-07-23 | 华东交通大学 | 一种车站预防逃票的智能监控识别方法及系统 |
CN113505713B (zh) * | 2021-07-16 | 2022-09-23 | 上海塞嘉电子科技有限公司 | 一种基于机场安全管理平台的视频智能分析方法及系统 |
CN113850229B (zh) * | 2021-10-18 | 2023-12-22 | 深圳市成玉信息技术有限公司 | 基于视频数据机器学习的人员异常行为预警方法、系统及计算机设备 |
CN114119647A (zh) * | 2021-12-07 | 2022-03-01 | 航天科技控股集团股份有限公司 | 基于深度学习的隐私摄像系统 |
CN114271796B (zh) * | 2022-01-25 | 2023-03-28 | 泰安市康宇医疗器械有限公司 | 一种通过体态密度法测量人体成分的方法及其装置 |
CN114743159A (zh) * | 2022-03-31 | 2022-07-12 | 武汉市江夏区人民政府纸坊街道办事处 | 一种基于物联网的智慧街道人口大数据综合管理平台 |
CN115150591B (zh) * | 2022-07-27 | 2024-08-23 | 合肥金人科技有限公司 | 一种基于智能算法的区域视频监控方法 |
CN115512304B (zh) * | 2022-11-10 | 2023-03-03 | 成都大学 | 基于图像识别的地铁站安全监控系统 |
CN116486585B (zh) * | 2023-06-19 | 2023-09-15 | 合肥米视科技有限公司 | 一种基于ai机器视觉分析预警的生产安全管理系统 |
CN117058627B (zh) * | 2023-10-13 | 2023-12-26 | 阳光学院 | 一种公共场所人群安全距离监测方法、介质及系统 |
CN117496431B (zh) * | 2023-11-03 | 2024-06-14 | 广东合盛建筑工程有限公司 | 一种基于室内外定位系统的户外作业安全监测方法 |
CN117540877A (zh) * | 2023-12-19 | 2024-02-09 | 贵州电网有限责任公司 | 一种基于人工智能的安全事件预测与防范系统 |
CN118334585A (zh) * | 2024-05-06 | 2024-07-12 | 贝塔智能科技(北京)有限公司 | 一种人流量智能分析方法、系统及计算机设备 |
CN118397571B (zh) * | 2024-07-01 | 2024-09-10 | 深圳市广汇源环境水务有限公司 | 一种基于ai视频技术的水库智能监测方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005039181A1 (ja) * | 2003-10-21 | 2005-04-28 | Matsushita Electric Industrial Co., Ltd. | 監視装置 |
CN103793920A (zh) * | 2012-10-26 | 2014-05-14 | 杭州海康威视数字技术股份有限公司 | 基于视频的逆行检测方法及其系统 |
CN105023019A (zh) * | 2014-04-17 | 2015-11-04 | 复旦大学 | 一种用于视频监控自动探测人群异常行为的特征描述方法 |
CN105184258A (zh) * | 2015-09-09 | 2015-12-23 | 苏州科达科技股份有限公司 | 目标跟踪方法及系统、人员行为分析方法及系统 |
CN105447459A (zh) * | 2015-11-18 | 2016-03-30 | 上海海事大学 | 一种无人机自动检测目标和跟踪方法 |
CN108416254A (zh) * | 2018-01-17 | 2018-08-17 | 上海鹰觉科技有限公司 | 一种用于人流行为识别和人数统计的统计系统以及方法 |
CN108513099A (zh) * | 2018-04-02 | 2018-09-07 | 芜湖乐锐思信息咨询有限公司 | 一种基于移动互联网的景区实时监控直播系统 |
CN109101888A (zh) * | 2018-07-11 | 2018-12-28 | 南京农业大学 | 一种游客人流量监控预警方法 |
-
2019
- 2019-01-02 CN CN201910000550.6A patent/CN109819208B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005039181A1 (ja) * | 2003-10-21 | 2005-04-28 | Matsushita Electric Industrial Co., Ltd. | 監視装置 |
CN103793920A (zh) * | 2012-10-26 | 2014-05-14 | 杭州海康威视数字技术股份有限公司 | 基于视频的逆行检测方法及其系统 |
CN105023019A (zh) * | 2014-04-17 | 2015-11-04 | 复旦大学 | 一种用于视频监控自动探测人群异常行为的特征描述方法 |
CN105184258A (zh) * | 2015-09-09 | 2015-12-23 | 苏州科达科技股份有限公司 | 目标跟踪方法及系统、人员行为分析方法及系统 |
CN105447459A (zh) * | 2015-11-18 | 2016-03-30 | 上海海事大学 | 一种无人机自动检测目标和跟踪方法 |
CN108416254A (zh) * | 2018-01-17 | 2018-08-17 | 上海鹰觉科技有限公司 | 一种用于人流行为识别和人数统计的统计系统以及方法 |
CN108513099A (zh) * | 2018-04-02 | 2018-09-07 | 芜湖乐锐思信息咨询有限公司 | 一种基于移动互联网的景区实时监控直播系统 |
CN109101888A (zh) * | 2018-07-11 | 2018-12-28 | 南京农业大学 | 一种游客人流量监控预警方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109819208A (zh) | 2019-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109819208B (zh) | 一种基于人工智能动态监控的密集人群安防监控管理方法 | |
CN108256459B (zh) | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 | |
CN109934176B (zh) | 行人识别系统、识别方法及计算机可读存储介质 | |
Sidla et al. | Pedestrian detection and tracking for counting applications in crowded situations | |
CN105447459B (zh) | 一种无人机自动检测目标和跟踪方法 | |
US7200266B2 (en) | Method and apparatus for automated video activity analysis | |
US11443454B2 (en) | Method for estimating the pose of a camera in the frame of reference of a three-dimensional scene, device, augmented reality system and computer program therefor | |
US20220180534A1 (en) | Pedestrian tracking method, computing device, pedestrian tracking system and storage medium | |
US7859564B2 (en) | Video surveillance system | |
WO2017122258A1 (ja) | 混雑状況監視システム | |
US20110134242A1 (en) | Apparatus and method of classifying movement of objects in a monitoring zone | |
WO2008070206A2 (en) | A seamless tracking framework using hierarchical tracklet association | |
CN112287827A (zh) | 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及系统 | |
CN111353338B (zh) | 一种基于营业厅视频监控的能效改进方法 | |
Küchhold et al. | Scale-adaptive real-time crowd detection and counting for drone images | |
CN111539351A (zh) | 一种多任务级联的人脸选帧比对方法 | |
Saif et al. | Crowd density estimation from autonomous drones using deep learning: challenges and applications | |
CN112800918A (zh) | 一种非法运动目标的身份识别方法及装置 | |
CN109919068B (zh) | 基于视频分析适应密集场景人流实时监测方法 | |
CN115116137A (zh) | 基于轻量化YOLO v5网络模型与时空记忆机制的行人检测方法 | |
CN116824641B (zh) | 姿态分类方法、装置、设备和计算机存储介质 | |
CN110276233A (zh) | 一种基于深度学习的多相机协同跟踪系统 | |
Mantini et al. | Camera Tampering Detection using Generative Reference Model and Deep Learned Features. | |
Hung et al. | Real-time counting people in crowded areas by using local empirical templates and density ratios | |
CN202472689U (zh) | 一种人脸姿态检测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |