CN111401239B - 一种视频分析方法、装置、系统、设备及存储介质 - Google Patents
一种视频分析方法、装置、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN111401239B CN111401239B CN202010182741.1A CN202010182741A CN111401239B CN 111401239 B CN111401239 B CN 111401239B CN 202010182741 A CN202010182741 A CN 202010182741A CN 111401239 B CN111401239 B CN 111401239B
- Authority
- CN
- China
- Prior art keywords
- target
- scene
- image frame
- event
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种视频分析方法、装置、系统、设备及存储介质,其中,视频分析方法包括:获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;利用预先构建的多个场景分别对应的视频分析规则,对目标图像帧进行事件识别,获得识别到的事件以及识别到的事件对应的概率,其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像;根据识别到的事件以及识别到的事件对应的概率,确定目标场景中是否发生了所述目标场景对应的目标事件。本申请提供的视频分析方法可自动实现多个不同场景所对应目标事件的检测。
Description
技术领域
本申请涉及视频监控技术领域,尤其涉及一种视频分析方法、装置、系统、设备及存储介质。
背景技术
视频监控是安全防范系统的重要组成部分,随着视频监控技术的发展,视频摄像机已经被广泛用来对各种环境、区域和场所进行实时监控。视频监控的核心是视频分析,即对视频摄像机采集的视频进行分析,视频分析的目的在于,确定视频摄像机的监控区域是否发生了目标事件,监控区域发生了目标事件可以为监控区域出现了指定目标、监控区域中的对象发生了指定行为等。一旦视频摄像机的监控区域发生了目标事件,则触发视频监控系统中的报警设备报警。
在某些时候,视频摄像机的监控区域会包括多个不同场景,比如门口、室内、楼道等,不同的场景通常会对应有不同的视频分析目标,比如,对于场景A,需要分析视频摄像机针对场景A采集的视频,以确定场景A中是否发生了事件a(比如场景A中是否有人跌倒),对于场景B,需要分析视频摄像机针对场景B采集的视频,以确定场景B中是否发生了事件b(比如是否有人翻越围栏),而如何根据视频摄像机针对多种场景采集的视频确定对应场景是否发生了对应的目标事件是目前亟需解决的问题。
发明内容
有鉴于此,本申请提供了一种视频分析方法、装置、系统、设备及存储介质,以根据视频摄像机针对某种场景采集的视频确定对应场景是否发生了对应的目标事件,其技术方案如下:
一种视频分析方法,包括:
获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;
利用预先构建的多个场景分别对应的视频分析规则,对所述目标图像帧进行事件识别,获得识别到的事件以及所述识别到的事件对应的概率,其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像;
根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件。
可选的,所述视频分析方法还包括:
当所述目标场景中发生了所述目标场景对应的目标事件时,存储目标图像帧序列,和/或,将所述目标图像帧序列和区域指示信息发送至终端;
其中,所述目标图像帧序列包括所述目标图像帧,以及所述目标图像帧之前的至少一个图像帧和/或所述目标图像帧之后的至少一个图像帧,所述区域指示信息用于指示所述目标图像帧序列的各图像帧中发生所述目标场景对应的目标事件的区域。
可选的,预先构建任一场景对应的视频分析规则的过程包括:
从该场景对应的样本图像中确定出目标区域,其中,所述目标区域为与该场景对应的目标事件相关的区域;
从所述目标区域所包含的像素点中确定角点,以得到由确定出的角点组成的角点集;
利用所述角点集构建决策树,将构建的决策树作为该场景对应的视频分析规则。
可选的,所述从所述目标区域所包含的像素点中确定角点,以得到由确定出的角点组成的角点集,包括:
利用预先构建的角点决策器,确定所述目标区域中的每个像素点是否为角点,以得到由确定出的角点组成的角点集;
其中,所述角点决策器以训练集中的训练像素为样本,以所述训练像素对应的像素类别为标签训练得到,一个像素的像素类别为角点或非角点。
可选的,构建所述角点决策器的过程包括:
从角点决策器的训练图像中获取目标像素点集,其中,所述目标像素点集由所述训练图像中可能包含角点的区域中的像素点组成;
根据所述目标像素点集中像素点的亮度,确定所述目标像素点集中每个像素点的像素类别;
以所述目标像素点集中像素点对应的信息增益为依据,用所述目标像素点集中的像素和所述目标像素点集中像素对应的像素类别训练角点决策器。
可选的,所述根据所述目标像素点集中像素点的亮度,确定所述目标像素点集中每个像素点的像素类别,包括:
对于所述目标像素点集中的每个像素点,根据该像素点的亮度以及该像素点的邻域圆上像素点的亮度,确定该像素点是否为角点,以得到所述目标像素点集中每个像素点的像素类别。
可选的,所述根据该像素点的亮度以及该像素点的邻域圆上像素点的亮度,确定该像素点是否为角点,包括:
若该像素点的邻域圆上的四个目标像素点中有至少连续三个目标像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,则确定该像素点为候选角点,其中,所述四个目标像素为将该像素点的邻域圆四等分的四个像素点,一像素点对应的第一亮度值为该像素点的亮度值与预设亮度值的和,该像素点对应的第二亮度值为该像素点的亮度值与所述预设亮度值的差;
当该像素点为候选角点时,若该像素点的邻域圆上存在连续预设个像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,则确定该像素点为角点。
可选的,确定所述目标像素点集中一像素点对应的信息增益的过程包括:
根据所述目标像素点集中所包含的角点的数量和非角点的数量计算所述目标像素点集的信息熵;
获取该像素点对应的三个子向量,并分别确定该像素点对应的三个子向量的信息熵,其中,该像素点对应的三个子向量分别由所述训练图像中该像素点的邻域圆上亮度大于或等于该像素点对应的第一亮度值的像素点的像素值组成、该像素点的邻域圆上亮度小于或等于该像素点对应的第二亮度值的像素点的像素值组成、该像素点的邻域圆上亮度小于所述第一亮度值且大于所述第二亮度值的像素点的像素值组成;
根据所述目标像素点集的信息熵和该像素点对应的三个子向量的信息熵,确定该角点对应的信息增益。
可选的,所述利用预先构建的多个场景分别对应的视频分析规则,对所述目标图像帧进行事件识别,获得识别到的事件以及所述识别到的事件对应的概率,包括:
从所述目标图像帧中确定出与所述目标场景对应的目标事件可能相关的目标区域;
从所述目标图像帧的目标区域中确定角点,以得到由确定出的角点组成的目标角点集;
利用所述目标角点集和所述多个场景分别对应的视频分析规则,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率;
将所述多个场景分别对应的目标事件中,最大概率对应的目标事件作为从所述目标图像帧中识别到的事件,将所述最大概率作为从所述目标图像帧中识别到的事件对应的概率。
可选的,所述利用所述目标角点集和所述多个场景分别对应的视频分析规则,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,包括:
对于所述目标角点集中的每个角点,若该角点不是以其为中心的邻域所包含的角点中的最优角点,则将该角点从所述目标角点集中删除;
利用剩余角点组成的角点集合和所述多个场景分别对应的视频分析规则,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率。
可选的,确定一个角点是否为以其为中心的邻域所包含的角点中的最优角点,包括:
确定以该角点为中心的邻域所包含的所有角点分别对应的目标值,其中,一个角点对应的目标值为该角点的邻域圆上各像素点分别与该角点的像素值差的绝对值之和;
若该角点对应的目标值不是确定出的所有目标值中的最大值,则确定该角点不是以其为中心的邻域所包含的角点中的最优角点,否则,确定该角点是以其为中心的邻域所包含的角点中的最优角点。
可选的,所述根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件,包括:
若所述识别到的事件为所述目标场景对应的目标事件,且所述识别到的事件对应的概率大于预设的概率阈值,则确定所述目标场景中发生了所述目标场景对应的目标事件。
一种视频分析装置,包括:图像帧获取模块、事件识别模块和事件判别模块;
所述图像帧获取模块,用于获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;
所述事件识别模块,用于利用预先构建的多个场景分别对应的视频分析规则,对所述目标图像帧进行事件识别,获得识别到的事件以及所述识别到的事件对应的概率,其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像;
所述事件判别模块,用于根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件。
一种视频分析系统,包括:配置单元、存储单元和分析单元;
所述配置单元,用于预先构建多个场景分别对应的视频分析规则,其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像;
所述存储单元,用于存储所述多个场景分别对应的视频分析规则;
所述分析单元,用于获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;利用所述多个场景分别对应的视频分析规则,对所述目标图像帧进行事件识别,获得识别到的事件以及所述识别到的事件对应的概率;根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件。
可选的,所述视频分析系统还包括:报警管理单元;
所述报警管理单元,用于当所述目标场景中发生了所述目标场景对应的目标事件时,向报警设备发送报警指令,并存储目标图像帧序列;
其中,所述目标图像帧序列包括所述目标图像帧,以及所述目标图像帧之前的至少一个图像帧和/或所述目标图像帧之后的至少一个图像帧。
可选的,所述视频分析系统还包括:监控管理单元;
所述监控管理单元,用于将所述目标图像帧序列和区域指示信息发送至终端,以使所述终端展示所述目标图像帧序列,并在所述目标图像帧序列中展示所述区域指示信息所指示的区域的检测框和跟随框;
其中,所述区域指示信息用于指示所述目标图像帧序列的各图像帧中发生所述目标场景对应的目标事件的区域。
一种视频分析设备,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现上述任一项所述的视频分析方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现上述任一项所述的视频分析方法的各个步骤。
经由上述方案可知,本申请提供的视频分析方法中,由于多个场景分别对应的视频分析规则从多个不同场景分别对应的样本图像中获得,而任一场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像,因此,根据待分析的目标图像帧和多个场景分别对应的视频分析规则可确定出目标场景中可能发生的事件以及发生该事件的概率,进而可根据目标场景中可能发生的事件以及发生该事件的概率,确定目标场景中是否发生了对应的目标事件。本申请提供的视频分析方法,能够根据某个场景的待分析图像帧和预先构建的多个场景分别对应的视频分析规则,自动确定出该场景是否发生了对应的目标事件,该视频分析方法可实现多个不同场景所对应目标事件的检测。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的视频分析方法的流程示意图;
图2为本申请实施例提供的构建一场景对应的视频分析规则的流程示意图;
图3为本申请实施例提供的构建角点决策器的流程示意图;
图4为本申请实施例提供的一像素点的邻域圆的示意图;
图5为本申请实施例提供的利用预先构建的多个场景分别对应的视频分析规则,对目标图像帧进行事件识别,获得识别到的事件以及识别到的事件对应的概率的流程示意图;
图6为本申请实施例提供的视频分析装置的结构示意图;
图7为本申请实施例提供的视频分析系统的结构示意图;
图8为本申请实施例提供的视频分析设备的结构示意图。
具体实施方式
为了能够实现对多种不同场景对应的目标事件进行检测,本案发明人进行了研究,起初的思路是:预先根据场景,为针对对应场景采集视频的摄像机配置对应场景的视频分析规则,当需要对摄像机针对某个场景采集的视频进行分析时,利用对应的视频分析规则进行分析。
然而,需要分析的场景可能不止一个,针对每个场景采集视频的摄像机可能也不止一个,为多个场景的多个摄像机人工配置视频分析规则的工作量较大,且人工配置可能产生遗漏或差错,会影响后续的视频分析效果。
鉴于上述思路存在的问题,本案发明人进一步进行研究,最终提供了一种视频分析方法,该方法不但能够对多种不同场景分别对应的目标事件进行检测分析,而且不需要人工为采集每种场景视频的摄像机配置视频分析规则,该方法可应用于单个服务器,也可以应用于多个服务器,还可以应用于服务器集群,接下来通过下述实施例对本申请提供的视频分析方法进行介绍。
第一实施例
请参阅图1,示出了本实施例提供的视频分析方法的流程示意图,该方法可以包括:
步骤S101:获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧。
可选的,指定摄像机可以为普通摄像机,也可以为PTZ摄像机,其中,普通摄像机的监控范围是固定的,而PTZ摄像机相比于普通摄像机具有可变视角和可变焦距等优势,其监控范围更大。另外,本实施例中的指定摄像机可以为一个,也可以为多个,即,对于目标场景而言,可采用一个摄像机对其进行监控,也可以采用多个摄像机进行监控。
步骤S102:利用预先构建的多个场景分别对应的视频分析规则,对目标图像帧进行事件识别,获得识别到的事件以及识别到的事件对应的概率。
其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像。通过一场景对应的视频分析规则能够确定某个场景中所发生的事件为该场景对应的目标事件的概率。
示例性的,多个场景分别为需要进行“人跌倒”检测的场景A、需要进行“人跳跃”检测的场景B,则预先获取场景A对应的大量样本图像,并且,获取场景B对应的大量样本图像,其中,场景A对应的样本图像为,当场景A中发生“人跌倒”事件时,摄像机针对场景A采集的图像,同样的,场景B对应的样本图像为,当场景B中发生“人跳跃”这一事件时,摄像机针对场景B采集的图像。需要说明的是,场景A对应的视频分析规则从场景A对应的样本图像中学习得到,利用场景A对应的视频分析规则能够分析出某个场景发生的事件为场景A对应的目标事件(即“人跌倒”事件)的概率,同样的,场景B对应的视频分析规则从场景B对应的样本图像中学习得到,利用场景B对应的视频分析规则能够分析出某个场景发生的事件为场景B对应的目标事件(即“人跳跃”事件)的概率。
另外,需要说明的是,多个场景分别对应的视频分析规则根据当前的监控需求,若后续增设了新的场景,则可获取新场景对应的大量样本图像,利用新场景对应的大量样本图像构建新场景对应的视频规则,同样的,新场景对应的样本图像为当新场景中发生其对应的目标事件时,摄像机针对新场景采集的图像。
步骤S103:根据识别到的事件以及识别到的事件对应的概率,确定目标场景中是否发生了目标场景对应的目标事件。
具体的,若识别到的事件为目标场景对应的目标事件,且识别到的事件对应的概率大于预设的概率阈值,则确定目标场景中发生了目标场景对应的目标事件。
示例性的,目标场景为需要进行“人跌倒”检测的场景,目标场景对应的目标事件为“人跌倒”,假设识别到的事件为“人跌倒”,识别到的事件对应的概率为95%,由于概率95%大于预设的概率阈值90%,因此,确定目标场景中发生了“人跌倒”事件。
本实施例提供的视频分析方法中,由于多个场景分别对应的视频分析规则从多个不同场景分别对应的样本图像中学习得到,而任一场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像,因此,根据待分析的目标图像帧和多个场景分别对应的视频分析规则可确定出目标场景中可能发生的事件以及发生该事件的概率,进而可根据目标场景中可能发生的事件以及发生该事件的概率,确定目标场景中是否发生了对应的目标事件。本申请提供的视频分析方法,能够根据某个场景的待分析图像帧和预先构建的多个场景分别对应的视频分析规则,自动确定出该场景是否发生了对应的目标事件,该视频分析方法可实现多个不同场景所对应目标事件的检测分析,另外,本申请提供的视频分析方法不需要人工对摄像机进行视频分析规则的配置,由于不需要人工参与,因此,能够避免人工参与所带来的问题。
第二实施例
由上述实施例一提供的视频分析方法可知,在对待分析的目标图像帧进行分析时,需要利用预先构建的多个场景分别对应的视频分析规则,为此,本实施例对构建多个场景分别对应的视频分析规则的过程进行介绍。由于每个场景对应的视频分析规则的构建方式相同,因此,本实施例以对一个场景对应的视频分析规则为例对构建过程进行介绍。
请参阅图2,示出了构建一场景A对应的视频分析规则的流程示意图,可以包括:
步骤S201:从场景A对应的样本图像中确定出目标区域.
其中,目标区域为与场景A对应的目标事件a相关的区域,具体的,与场景A对应的目标事件a相关的区域为场景A对应的样本图像中目标事件a所涉及的对象所在的区域。示例性的,场景A为需要进行“人跌倒”检测的场景,场景A对应的目标事件为“人跌倒”,那么,场景A对应的样本图像中的目标区域即为人所在的区域。
可选的,可采用边缘检测算法对场景A对应的样本图像进行边缘检测,具体的,对场景A对应的目标事件a所涉及的对象所在的区域进行边缘检测,然后利用多边形近似改善检测出的边缘,以得到一个封闭轮廓,该封闭轮廓中的区域即为目标区域。
步骤S202:从目标区域所包含的像素点中确定角点,以得到由确定出的角点组成的角点集。
在一种可能的实现方式中,可利用预先构建的角点决策器确定目标区域中的每个像素点是否为角点,以得到由确定出的角点组成的角点集。其中,角点决策器以训练集中的训练像素为样本,以训练像素对应的像素类别为标签训练得到,一个像素的像素类别为角点或非角点。
步骤S203:利用角点集构建决策树,将构建的决策树作为场景A对应的视频分析规则。
由于场景A对应的视频分析规则根据角点集构建,因此,获取角点集的过程至关重要,上述内容提到可利用角点决策器获取角点集,以下对构建角点决策器的过程进行介绍。
请参阅图3,示出了构建角点决策器的流程示意图,可以包括:
步骤S301:从角点决策器的训练图像中获取目标像素点集。
其中,目标像素点集由角点决策器的训练图像中可能包含角点的区域中的像素点组成。在一种可能的实现方式中,目标像素点集可以包括“可能包含角点的区域”中的所有像素点,为了降低运算量,在另一种可能的实现方式中,目标像素点集可以包括针对“可能包含角点的区域”从多个不同方向选取的像素点。
步骤S302:根据目标像素点集中像素点的亮度,确定目标像素点集中每个像素点的像素类别。
具体的,根据目标像素点集中像素点的亮度,确定目标像素点集中每个像素点的像素类别的过程可以包括:对于目标像素点集中的每个像素点,根据该像素点的亮度以及该像素点的邻域圆上像素点的亮度,确定该像素点是否为角点,以得到目标像素点集中每个像素点的像素类别。
其中,一个像素点的邻域圆为以该像素点为圆心,预设个像素点为半径的圆,请参阅图4,示出了像素点p的邻域圆的示意图,图4中p的邻域圆以p为圆心,以3个像素点为半径,p的邻域圆上有16个像素点。
在本实施例中,根据一像素点的亮度以及该像素点的邻域圆上像素点的亮度,确定该像素点是否为角点的实现方式有多种:
在一种可能的实现方式中,可判断该像素点的邻域圆上是否存在连续N个像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,若是,则确定该像素点为角点,若否,则确定该像素点不是角点。需要说明的时,一像素点对应的第一亮度值为该像素点的亮度值与预设亮度值t的和,该像素点对应的第二亮度值为该像素点的亮度值与预设亮度值t的差。
以图4中的像素点p为例:像素点p的邻域圆上有16个像素,假设这16个像素点中存在连续N个像素点的亮度值均大于或等于Ip+t,或者这16个像素点中存在连续N个像素点的亮度值均小于或等于Ip-t,则确定像素点p为角点,否则,确定像素点p不为角点,其中,Ip为像素点p的亮度值。
需要说明的是,若一个像素点为角点,那么其邻域圆上至少有3/4像素点应满足亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,从这点出发,为了能够更快速地进行角点判别,本实施例提供了另一种较优选的实现方式:
可先判断该像素点的邻域圆上的四个目标像素点中是否有至少连续三个目标像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,若是,则确定该像素点为候选角点,否则,确定该像素点不是角点;若该像素点为候选角点,进一步判断该像素点的邻域圆上是否存在连续N个像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,若是,则确定该像素点为角点,若否,则确定该像素点不是角点。其中,一个像素点的邻域圆上的四个目标像素点可以为将该像素点的邻域圆四等分的四个像素点。
同样以图4中的像素点p为例:像素点p的邻域圆上有16个像素点,16个像素中的四个目标像素可以为位置1、9、5、13的像素点,如果这四个像素点中有至少连续三个像素点的像素值均大于或等于Ip+t,或者均小于或等于Ip-t,则确定像素点p为候选角点,否则,确定像素点p不为角点,假设像素点p为候选角点,则进一步判断其邻域圆的16个像素中是否存在连续N个像素点的亮度值均大于或等于Ip+t,或者均小于或等于Ip-t,若是,则确定像素点p为角点,否则确定像素点p不为角点。需要说明的是,N的取值可根据后续角点决策器的训练情况进行调整,直至达到最优。
步骤S303:以目标像素点集中像素点对应的信息增益为依据,用目标像素点集中的像素和目标像素点集中像素对应的像素类别训练角点决策器。
可选的,可利用ID3算法训练角点决策器。
其中,目标像素点集中一像素点对应的信息增益可通过如下方式确定:
步骤a1、根据目标像素点集中所包含的角点的数量和非角点的数量计算目标像素点集的信息熵。
其中,根据目标像素点集中各像素对应的像素类别确定目标像素点集中所包含的角点的数量和非角点的数量。
具体的,可根据目标像素点集中所包含的角点的数量和非角点的数量,利用下式确定目标像素点集的信息熵:
步骤a2、获取该像素点对应的三个子向量,并分别确定该像素点对应的三个子向量的信息熵。
其中,该像素点对应的三个子向量分别由该像素点的邻域圆上亮度大于或等于该像素点对应的第一亮度值的像素点的像素值组成、该像素点的邻域圆上亮度小于或等于该像素点对应的第二亮度值的像素点的像素值组成、该像素点的邻域圆上亮度小于第一亮度值且大于第二亮度值的像素点的像素值组成。可选的,一个像素点的像素值可以由该像素点的亮度值表征。
步骤a3、根据目标像素点集的信息熵和该像素点对应的三个子向量的信息熵,确定该像素点对应的信息增益。
具体的,可根据目标像素点集的信息熵和该像素点对应的三个子向量的信息熵,利用下式确定该像素点对应的信息增益:
Gain=H(X)-H(vd)-H(vs)-H(vb) (2)
其中,Gain该角点对应的信息增益,vd、vs和vb为该角点对应的三个子向量,H(vd)、H(vs)和H(vb)为该角点对应的三个子向量的信息熵。
第三实施例
本实施例对上述实施例中“利用预先构建的多个场景分别对应的视频分析规则,对目标图像帧进行事件识别,获得识别到的事件以及识别到的事件对应的概率”进行介绍。
请参阅图5,示出了利用预先构建的多个场景分别对应的视频分析规则,对目标图像帧进行事件识别,获得识别到的事件以及识别到的事件对应的概率的流程示意图,可以包括:
步骤S501:从目标图像帧中确定出与目标场景对应的目标事件可能相关的目标区域。
从目标图像帧中确定目标区域的过程与上述从样本图像中确定目标区域的过程相同,本实施例在此不做赘述。
步骤S502:从目标图像帧的目标区域中确定角点,以得到由确定出的角点组成的目标角点集。
从目标图像帧的目标区域中确定角点过程与上述从样本图像中的目标区域确定角点的过程相同,本实施例在此不做赘述。
步骤S503:利用目标角点集和多个场景分别对应的视频分析规则,确定目标场景发生的事件为多个场景中每个场景对应的目标事件的概率。
示例性的,多个场景分别为需要进行“人跌倒”检测的场景A、需要进行“人跳跃”检测的场景B,则利用目标角点集和场景A对应的视频分析规则,可确定目标场景中发生的事件为“人跌倒”这一事件的概率PA,利用目标角点集和场景B对应的视频分析规则可确定目标场景中发生的事件为“人跌倒”这一事件的概率PB。
通常情况下,目标角点集中包括很多角点,在一种可能的实现方式中,可利用目标角点集中的所有角点进行事件分析,在另一种可能的实现方式中,为了降低运算量,可从目标角点集中选取部分较优的角点,用选取出的角点进行事件分析。
具体的,从目标角点集中选取较优角点的过程可以包括:对于目标角点集中的每个角点,判断该角点是否为以其为中心的邻域所包含的角点中的最优角点,若不是,则将该角点从目标角点集中删除,若是,将该角点保留。
其中,判断一角点是否为以其为中心的邻域所包含的角点中的最优角点的过程包括:确定以该角点为中心的邻域所包含的所有角点分别对应的目标值,若该角点对应的目标值不是确定出的所有目标值中的最大值,则确定该角点不是以其为中心的邻域所包含的角点中的最优角点,否则,确定该角点是以其为中心的邻域所包含的角点中的最优角点。其中,一个角点对应的目标值为该角点的邻域圆上各像素点分别与该角点的像素值差的绝对值之和。
步骤S504:将多个场景分别对应的目标事件中,最大概率对应的目标事件作为从目标图像帧中识别到的事件,最大概率作为从目标图像帧中识别到的事件对应的概率。
假设多个场景分别为A、B、C、D,目标场景发生的事件为场景A对应的目标事件a的概率为5%,目标场景发生的事件为场景B对应的目标事件b的概率为10%,,目标场景发生的事件为场景C对应的目标事件c的概率为3%,目标场景发生的事件为场景D对应的目标事件d的概率为95%,则将场景D对应的目标事件d作为最终识别到的事件,95%即为最终识别到的事件对应的概率。
第四实施例
本实施例提供了另一种视频分析方法,该视频分析方法除了包括实施例一中的步骤S101~步骤S103外,还可以包括:当目标场景发生了目标场景对应的目标事件时,向报警设备发生报警指令,以使报警设备报警。
本实施例提供的视频分析方法还可以包括:当目标场景发生了目标场景对应的目标事件时,存储目标图像帧序列。
其中,目标图像帧序列包括目标图像帧,以及目标图像帧之前的至少一个图像帧和/或目标图像帧之后的至少一个图像帧。优选的,目标图像帧序列包括目标图像帧、目标图像帧之前的至少一个图像帧以及目标图像帧之前的至少一个图像帧。
可以理解的是,若目标图像帧与目标场景发生的目标事件有关,那么其前后图像帧很可能也与目标场景发生的目标事件有关,为了后续能够使相关人员获知产生报警的事件,本实施例可将目标图像帧、目标图像帧之前的至少一个图像帧以及目标图像帧之前的至少一个图像帧进行存储。
可选的,在存储目标图像帧序列时,还可一并存储采集目标图像帧序列的摄像机的标识以及目标图像帧序列的采集时间等。
可选的,本实施例提供的视频分析方法还可以包括:将目标图像帧序列和区域指示信息发送至终端。其中,区域指示信息用于指示目标图像帧序列的各图像帧中发生目标场景对应的目标事件的区域。
当终端接收到目标图像帧序列和区域指示信息时,展示目标图像帧序列,并在目标图像帧序列中展示区域指示信息所指示的区域的检测框和跟随框,以便监控人员能够较快速直观地获知目标场景所发生的目标事件的情况。
第五实施例
本实施例提供了与上述实施例提供的视频分析方法对应的视频分析装置,请参阅图6,示出了该视频分析装置的结构示意图,可以包括:图像帧获取模块601、事件识别模块602和事件判别模块603。
图像帧获取模块601,用于获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧。
事件识别模块602,用于利用预先构建的多个场景分别对应的视频分析规则,对所述目标图像帧进行事件识别,获得识别到的事件以及所述识别到的事件对应的概率。
其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像;
事件判别模块603,用于根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件。
可选的,本实施例提供的视频分析装置还可以包括:视频存储模块和/或视频发送模块。
视频存储模块,用于当目标场景中发生了目标场景对应的目标事件时,存储目标图像帧序列。其中,所述目标图像帧序列包括所述目标图像帧,以及所述目标图像帧之前的至少一个图像帧和/或所述目标图像帧之后的至少一个图像帧。
视频发送模块,用于当目标场景中发生了目标场景对应的目标事件时,将所述目标图像帧序列和区域指示信息发送至终端。其中,区域指示信息用于指示所述目标图像帧序列的各图像帧中发生所述目标场景对应的目标事件的区域。
可选的,本实施例提供的视频分析装置可以包括:视频分析规则构建模块。视频分析规则构建模块可以包括:目标区域确定模块、角点确定模块和决策树构建模块。
目标区域确定模块,用于从该场景对应的样本图像中确定出目标区域。其中,所述目标区域为与该场景对应的目标事件相关的区域。
角点确定模块,用于从所述目标区域所包含的像素点中确定角点,以得到由确定出的角点组成的角点集。
决策树构建模块,用于利用所述角点集构建决策树,将构建的决策树作为该场景对应的视频分析规则。
可选的,角点确定模块,具体用于利用预先构建的角点决策器,确定所述目标区域中的每个像素点是否为角点,以得到由确定出的角点组成的角点集。其中,所述角点决策器以训练集中的训练像素为样本,以所述训练像素对应的像素类别为标签训练得到,一个像素的像素类别为角点或非角点。
可选的,本实施例提供的视频分析装置可以包括:角点决策器构建模块。角点决策器构建模块包括:目标像素点集获取模块、像素类别确定模块和角点决策器训练模块。
目标像素点集获取模块,用于从角点决策器的训练图像中获取目标像素点集,其中,所述目标像素点集由所述训练图像中可能包含角点的区域中的像素点组成;
像素类别确定模块,用于根据所述目标像素点集中像素点的亮度,确定所述目标像素点集中每个像素点的像素类别。
角点决策器训练模块,用于以所述目标像素点集中像素点对应的信息增益为依据,用所述目标像素点集中的像素和所述目标像素点集中像素对应的像素类别训练角点决策器。
可选的,像素类别确定模块,具体用于对于所述目标像素点集中的每个像素点,根据该像素点的亮度以及该像素点的邻域圆上像素点的亮度,确定该像素点是否为角点,以从所述目标像素点集中获得所有的角点。
可选的,像素类别确定模块包括:候选角点确定子模块和角点确定子模块。
候选角点确定子模块,用于判断该像素点的邻域圆上的四个目标像素点中是否有至少连续三个目标像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,若是,则确定该像素点为候选角点。
其中,所述四个目标像素为将该像素点的邻域圆四等分的四个像素点,一像素点对应的第一亮度值为该像素点的亮度值与预设亮度值的和,该像素点对应的第二亮度值为该像素点的亮度值与所述预设亮度值的差。
角点确定子模块,用于当该像素点为候选角点时,判断该像素点的邻域圆上存在连续预设个像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,若是,则确定该像素点为角点。
可选的,上述的角点决策器训练模块包括:用于确定目标像素点集中像素点对应的信息增益的信息增益确定子模块。
信息增益确定子模块,在确定目标像素点集中一像素点对应的信息增益时,具体用于
根据所述目标像素点集中所包含的角点的数量和非角点的数量计算所述目标像素点集的信息熵;获取该像素点对应的三个子向量,并分别确定该像素点对应的三个子向量的信息熵,其中,该像素点对应的三个子向量分别由所述训练图像中该像素点的邻域圆上亮度大于或等于该像素点对应的第一亮度值的像素点的像素值组成、该像素点的邻域圆上亮度小于或等于该像素点对应的第二亮度值的像素点的像素值组成、该像素点的邻域圆上亮度小于所述第一亮度值且大于所述第二亮度值的像素点的像素值组成;根据所述目标像素点集的信息熵和该像素点对应的三个子向量的信息熵,确定该角点对应的信息增益。
可选的,上述的事件识别模块包括:目标区域确定子模块、目标角点集确定子模块和事件识别子模块。
目标区域确定子模块,用于从所述目标图像帧中确定出与所述目标场景对应的目标事件可能相关的目标区域。
目标角点集确定子模块,用于从所述目标图像帧的目标区域中确定角点,以得到由确定出的角点组成的目标角点集。
事件识别子模块,用于利用所述目标角点集和所述多个场景分别对应的视频分析规则,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,将所述多个场景分别对应的目标事件中,最大概率对应的目标事件作为从所述目标图像帧中识别到的事件,所述最大概率作为从所述目标图像帧中识别到的事件对应的概率。
可选的,上述的事件识别子模块,具体对于所述目标角点集中的每个角点,若该角点不是以其为中心的邻域所包含的角点中的最优角点,则将该角点从所述目标角点集中删除,利用剩余角点组成的角点集合和所述多个场景分别对应的视频分析规则,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率。
可选的,上述的事件识别子模块,在确定一个角点是否为以其为中心的邻域所包含的角点中的最优角点时,具体用于确定以该角点为中心的邻域所包含的所有角点分别对应的目标值,若该角点对应的目标值不是确定出的所有目标值中的最大值,则确定该角点不是以其为中心的邻域所包含的角点中的最优角点,否则,确定该角点是以其为中心的邻域所包含的角点中的最优角点。其中,一个角点对应的目标值为该角点的邻域圆上各像素点分别与该角点的像素值差的绝对值之和。
可选的,上述的事件判别模块,具体用于若所述识别到的事件为所述目标场景对应的目标事件,且所述识别到的事件对应的概率大于预设的概率阈值,则确定所述目标场景中发生了所述目标场景对应的目标事件。
本申请提供的视频分析装置,能够根据某个场景的待分析图像帧和预先构建的多个场景分别对应的视频分析规则,自动确定出该场景是否发生了对应的目标事件,该视频分析方法可实现多个不同场景所对应目标事件的检测。
第六实施例
本实施例提供了一种视频分析系统,请参阅图7,使出了该视频分析系统的结构示意图,可以包括:配置单元701、存储单元702和分析单元703。
配置单元701,用于预先构建多个场景分别对应的视频分析规则。
其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像。
配置单元701,还用于配置指定场景对应的视频分析规则的启用时间。
存储单元702,用于存储所述多个场景分别对应的视频分析规则;
分析单元703,用于获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;利用所述多个场景分别对应的视频分析规则,对所述目标图像帧进行事件识别,获得识别到的事件以及所述识别到的事件对应的概率;以及根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件。
分析单元703对目标图像帧进行事件分析的过程可参见上述实施例提供的视频分析方法的具体实现过程,本实施例在此不做赘述。
可选的,本实施例提供的视频分析系统还可以包括:报警管理单元704。
报警管理单元704,用于当所述目标场景中发生了所述目标场景对应的目标事件时,向报警设备发送报警指令,并存储目标图像帧序列。
其中,所述目标图像帧序列包括所述目标图像帧,以及所述目标图像帧之前的至少一个图像帧和/或所述目标图像帧之后的至少一个图像帧。
可选的,报警管理单元704在存储目标图像帧序列时,还可将目标图像帧序列的采集事件、采集目标图像帧序列的摄像机的标识一并存储。
可选的,本实施例提供的视频分析系统还可以包括:监控管理单元705。
监控管理单元705,用于将所述目标图像帧序列和区域指示信息发送至终端,以使所述终端展示所述目标图像帧序列,并在所述目标图像帧序列中展示所述区域指示信息所指示的区域的检测框和跟随框。
其中,所述区域指示信息用于指示所述目标图像帧序列的各图像帧中发生所述目标场景对应的目标事件的区域。
另外,监控管理单元,还用于添加、禁用或者删除摄像机,还可以接收针对指定摄像机的视频分析指令,以通知分析单元对指定摄像机采集的图像帧进行分析。
本实施例提供的视频分析系统,能够根据摄像机针对某个场景采集的待分析图像帧和预先构建的多个场景分别对应的视频分析规则,自动确定出该场景是否发生了对应的目标事件,在该场景发生了对应的目标事件时,可触发报警装置报警,并且,本实施例提供的视频分析系统还可将该场景发生对应目标事件的相关图像帧序列发生至终端显示,在显示时还可使终端在图像帧序列的各图像帧中显示检测框和跟随框,以便用户能够快速直观地获知目标事件的情况。
第七实施例
本申请实施例还提供了一种视频分析设备,请参阅图8,示出了该视频分析设备的结构示意图,该视频分析设备可以包括:至少一个处理器801,至少一个通信接口802,至少一个存储器803和至少一个通信总线804;
在本申请实施例中,处理器801、通信接口802、存储器803、通信总线804的数量为至少一个,且处理器801、通信接口802、存储器803通过通信总线804完成相互间的通信;
处理器801可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器803可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;
利用预先构建的多个场景分别对应的视频分析规则,对所述目标图像帧进行事件识别,获得识别到的事件以及所述识别到的事件对应的概率,其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像;
根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
第八实施例
本申请实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的程序,所述程序用于:
获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;
利用预先构建的多个场景分别对应的视频分析规则,对所述目标图像帧进行事件识别,获得识别到的事件以及所述识别到的事件对应的概率,其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像;
根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (16)
1.一种视频分析方法,其特征在于,包括:
获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;
利用预先构建的多个场景分别对应的视频分析规则和所述目标图像帧,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,其中,所述目标场景为所述多个场景中的任一场景,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像,一场景对应的视频分析规则为用于确定待分析图像帧中发生该场景对应的目标事件的概率的规则;
根据所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,确定识别到的事件和识别到的事件对应的概率;
根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件;
当目标场景发生了目标场景对应的目标事件时,将目标图像帧序列和区域指示信息发送至终端,以使所述终端展示所述目标图像帧序列,并在所述目标图像帧序列中展示区域指示信息所指示的区域的检测框和跟随框,其中,所述目标图像帧序列包括所述目标图像帧,以及所述目标图像帧之前的至少一个图像帧和/或所述目标图像帧之后的至少一个图像帧,所述区域指示信息用于指示所述目标图像帧序列的各图像帧中发生所述目标场景对应的目标事件的区域。
2.根据权利要求1所述的视频分析方法,其特征在于,还包括:
当所述目标场景中发生了所述目标场景对应的目标事件时,存储所述目标图像帧序列。
3.根据权利要求1所述的视频分析方法,其特征在于,预先构建任一场景对应的视频分析规则的过程包括:
从该场景对应的样本图像中确定出目标区域,其中,所述目标区域为与该场景对应的目标事件相关的区域;
从所述目标区域所包含的像素点中确定角点,以得到由确定出的角点组成的角点集;
利用所述角点集构建决策树,将构建的决策树作为该场景对应的视频分析规则。
4.根据权利要求3所述的视频分析方法,其特征在于,所述从所述目标区域所包含的像素点中确定角点,以得到由确定出的角点组成的角点集,包括:
利用预先构建的角点决策器,确定所述目标区域中的每个像素点是否为角点,以得到由确定出的角点组成的角点集;
其中,所述角点决策器以训练集中的训练像素为样本,以所述训练像素对应的像素类别为标签训练得到,一个像素的像素类别为角点或非角点。
5.根据权利要求4所述的视频分析方法,其特征在于,构建所述角点决策器的过程包括:
从角点决策器的训练图像中获取目标像素点集,其中,所述目标像素点集由所述训练图像中可能包含角点的区域中的像素点组成;
根据所述目标像素点集中像素点的亮度,确定所述目标像素点集中每个像素点的像素类别;
以所述目标像素点集中像素点对应的信息增益为依据,用所述目标像素点集中的像素和所述目标像素点集中像素对应的像素类别训练角点决策器。
6.根据权利要求5所述的视频分析方法,其特征在于,所述根据所述目标像素点集中像素点的亮度,确定所述目标像素点集中每个像素点的像素类别,包括:
对于所述目标像素点集中的每个像素点,根据该像素点的亮度以及该像素点的邻域圆上像素点的亮度,确定该像素点是否为角点,以得到所述目标像素点集中每个像素点的像素类别。
7.根据权利要求6所述的视频分析方法,其特征在于,所述根据该像素点的亮度以及该像素点的邻域圆上像素点的亮度,确定该像素点是否为角点,包括:
若该像素点的邻域圆上的四个目标像素点中有至少连续三个目标像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,则确定该像素点为候选角点,其中,所述四个目标像素为将该像素点的邻域圆四等分的四个像素点,一像素点对应的第一亮度值为该像素点的亮度值与预设亮度值的和,该像素点对应的第二亮度值为该像素点的亮度值与所述预设亮度值的差;
当该像素点为候选角点时,若该像素点的邻域圆上存在连续预设个像素点的亮度值均大于或等于该像素点对应的第一亮度值,或者均小于或等于该像素点对应的第二亮度值,则确定该像素点为角点。
8.根据权利要求5所述的视频分析方法,其特征在于,确定所述目标像素点集中一像素点对应的信息增益的过程包括:
根据所述目标像素点集中所包含的角点的数量和非角点的数量计算所述目标像素点集的信息熵;
获取该像素点对应的三个子向量,并分别确定该像素点对应的三个子向量的信息熵,其中,该像素点对应的三个子向量分别由所述训练图像中该像素点的邻域圆上亮度大于或等于该像素点对应的第一亮度值的像素点的像素值组成、该像素点的邻域圆上亮度小于或等于该像素点对应的第二亮度值的像素点的像素值组成、该像素点的邻域圆上亮度小于所述第一亮度值且大于所述第二亮度值的像素点的像素值组成;
根据所述目标像素点集的信息熵和该像素点对应的三个子向量的信息熵,确定该角点对应的信息增益。
9.根据权利要求1所述的视频分析方法,其特征在于,所述利用预先构建的多个场景分别对应的视频分析规则和所述目标图像帧,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,包括:
从所述目标图像帧中确定出与所述目标场景对应的目标事件可能相关的目标区域;
从所述目标图像帧的目标区域中确定角点,以得到由确定出的角点组成的目标角点集;
利用所述目标角点集和所述多个场景分别对应的视频分析规则,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率。
10.根据权利要求9所述的视频分析方法,其特征在于,所述利用所述目标角点集和所述多个场景分别对应的视频分析规则,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,包括:
对于所述目标角点集中的每个角点,若该角点不是以其为中心的邻域所包含的角点中的最优角点,则将该角点从所述目标角点集中删除;
利用剩余角点组成的角点集合和所述多个场景分别对应的视频分析规则,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率。
11.根据权利要求10所述的视频分析方法,其特征在于,确定一个角点是否为以其为中心的邻域所包含的角点中的最优角点,包括:
确定以该角点为中心的邻域所包含的所有角点分别对应的目标值,其中,一个角点对应的目标值为该角点的邻域圆上各像素点分别与该角点的像素值差的绝对值之和;
若该角点对应的目标值不是确定出的所有目标值中的最大值,则确定该角点不是以其为中心的邻域所包含的角点中的最优角点,否则,确定该角点是以其为中心的邻域所包含的角点中的最优角点。
12.一种视频分析装置,其特征在于,包括:图像帧获取模块、事件识别模块、事件判别模块和数据发送模块;
所述图像帧获取模块,用于获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;
所述事件识别模块,用于利用预先构建的多个场景分别对应的视频分析规则和所述目标图像帧,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,其中,所述目标场景为所述多个场景中的任一场景,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像,一场景对应的视频分析规则为用于确定待分析图像帧中发生该场景对应的目标事件的概率的规则;
所述事件判别模块,用于根据所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,确定识别到的事件和识别到的事件对应的概率,根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件;
所述数据发送模块,用于当所述目标场景发生了所述目标场景对应的目标事件时,将目标图像帧序列和区域指示信息发送至终端,以使所述终端展示所述目标图像帧序列,并在所述目标图像帧序列中展示区域指示信息所指示的区域的检测框和跟随框,其中,所述目标图像帧序列包括所述目标图像帧,以及所述目标图像帧之前的至少一个图像帧和/或所述目标图像帧之后的至少一个图像帧,所述区域指示信息用于指示所述目标图像帧序列的各图像帧中发生所述目标场景对应的目标事件的区域。
13.一种视频分析系统,其特征在于,包括:配置单元、存储单元、分析单元和监控管理单元;
所述配置单元,用于预先构建多个场景分别对应的视频分析规则,其中,任一场景对应的视频分析规则从该场景对应的样本图像中学习得到,一个场景对应的样本图像为该场景中发生对应的目标事件时,摄像机针对该场景采集的图像,一场景对应的视频分析规则为用于确定待分析图像帧中发生该场景对应的目标事件的概率的规则;
所述存储单元,用于存储所述多个场景分别对应的视频分析规则;
所述分析单元,用于获取指定摄像机对其所监控的目标场景采集的图像帧,作为目标图像帧;利用所述多个场景分别对应的视频分析规则和所述目标图像帧,确定所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率;根据所述目标场景发生的事件为所述多个场景中每个场景对应的目标事件的概率,确定识别到的事件和识别到的事件对应的概率;根据所述识别到的事件以及所述识别到的事件对应的概率,确定所述目标场景中是否发生了所述目标场景对应的目标事件,其中,所述目标场景为所述多个场景中的任一场景;
所述监控管理单元,用于将目标图像帧序列和区域指示信息发送至终端,以使所述终端展示所述目标图像帧序列,并在所述目标图像帧序列中展示所述区域指示信息所指示的区域的检测框和跟随框;
其中,所述目标图像帧序列包括所述目标图像帧,以及所述目标图像帧之前的至少一个图像帧和/或所述目标图像帧之后的至少一个图像帧,所述区域指示信息用于指示所述目标图像帧序列的各图像帧中发生所述目标场景对应的目标事件的区域。
14.根据权利要求13所述的视频分析系统,其特征在于,还包括:报警管理单元;
所述报警管理单元,用于当所述目标场景中发生了所述目标场景对应的目标事件时,向报警设备发送报警指令,并存储所述目标图像帧序列。
15.一种视频分析设备,其特征在于,包括:存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1~11中任一项所述的视频分析方法的各个步骤。
16.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1~11中任一项所述的视频分析方法的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010182741.1A CN111401239B (zh) | 2020-03-16 | 2020-03-16 | 一种视频分析方法、装置、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010182741.1A CN111401239B (zh) | 2020-03-16 | 2020-03-16 | 一种视频分析方法、装置、系统、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401239A CN111401239A (zh) | 2020-07-10 |
CN111401239B true CN111401239B (zh) | 2021-04-20 |
Family
ID=71432451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010182741.1A Active CN111401239B (zh) | 2020-03-16 | 2020-03-16 | 一种视频分析方法、装置、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401239B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931633A (zh) * | 2020-08-05 | 2020-11-13 | 珠海完全网络科技有限公司 | 一种基于视频识别的行为分析与微表情分析方法 |
CN112149596A (zh) * | 2020-09-29 | 2020-12-29 | 厦门理工学院 | 一种异常行为检测方法、终端设备及存储介质 |
CN112749660B (zh) * | 2021-01-13 | 2024-06-28 | 中国科学院上海微系统与信息技术研究所 | 一种视频内容描述信息的生成方法和设备 |
CN113792019B (zh) * | 2021-08-03 | 2023-08-18 | RealMe重庆移动通信有限公司 | 一种分析方法、电子设备及计算机存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872418A (zh) * | 2010-05-28 | 2010-10-27 | 电子科技大学 | 基于群体环境异常行为的检测方法 |
CN103456003A (zh) * | 2012-05-31 | 2013-12-18 | 三星Sds株式会社 | 对象跟踪装置及方法以及错误特征点剔除装置及方法 |
CN103761748A (zh) * | 2013-12-31 | 2014-04-30 | 北京邮电大学 | 异常行为检测方法和装置 |
CN105469427A (zh) * | 2015-11-26 | 2016-04-06 | 河海大学 | 一种用于视频中目标跟踪方法 |
CN109063667A (zh) * | 2018-08-14 | 2018-12-21 | 视云融聚(广州)科技有限公司 | 一种基于场景的视频识别方式优化及推送方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7394916B2 (en) * | 2003-02-10 | 2008-07-01 | Activeye, Inc. | Linking tracked objects that undergo temporary occlusion |
CN104700434B (zh) * | 2015-03-27 | 2017-10-31 | 北京交通大学 | 一种用于复杂结构化场景的人群运动轨迹异常检测方法 |
CN109389794A (zh) * | 2018-07-05 | 2019-02-26 | 北京中广通业信息科技股份有限公司 | 一种智能化视频监控方法和系统 |
CN110162451B (zh) * | 2019-04-22 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 一种性能分析方法、装置、服务器及存储介质 |
-
2020
- 2020-03-16 CN CN202010182741.1A patent/CN111401239B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872418A (zh) * | 2010-05-28 | 2010-10-27 | 电子科技大学 | 基于群体环境异常行为的检测方法 |
CN103456003A (zh) * | 2012-05-31 | 2013-12-18 | 三星Sds株式会社 | 对象跟踪装置及方法以及错误特征点剔除装置及方法 |
CN103761748A (zh) * | 2013-12-31 | 2014-04-30 | 北京邮电大学 | 异常行为检测方法和装置 |
CN105469427A (zh) * | 2015-11-26 | 2016-04-06 | 河海大学 | 一种用于视频中目标跟踪方法 |
CN109063667A (zh) * | 2018-08-14 | 2018-12-21 | 视云融聚(广州)科技有限公司 | 一种基于场景的视频识别方式优化及推送方法 |
Non-Patent Citations (2)
Title |
---|
Faster and Better: A Machine Learning Approach to Corner Detection;E. Rosten;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20100131;第1卷(第32期);摘要、第3节,图1 * |
Machine learning for high-speed corner detection;Edward Rosten;《9th European Conference on Computer Vision》;20060731;第2.3节,图1 * |
Also Published As
Publication number | Publication date |
---|---|
CN111401239A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401239B (zh) | 一种视频分析方法、装置、系统、设备及存储介质 | |
CN109166261B (zh) | 基于图像识别的图像处理方法、装置、设备及存储介质 | |
US9141184B2 (en) | Person detection system | |
CN109299703B (zh) | 对鼠情进行统计的方法、装置以及图像采集设备 | |
CN109766779B (zh) | 徘徊人员识别方法及相关产品 | |
CN111654700B (zh) | 一种隐私遮蔽处理方法、装置、电子设备及监控系统 | |
US20130216107A1 (en) | Method of surveillance by face recognition | |
JP5388829B2 (ja) | 侵入物体検知装置 | |
EP4035070B1 (en) | Method and server for facilitating improved training of a supervised machine learning process | |
CN106165391A (zh) | 增强的图像捕获 | |
JP4764172B2 (ja) | 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム | |
JP2011227654A (ja) | 照合装置 | |
KR102127276B1 (ko) | 복수의 고해상도 카메라들을 이용한 파노라마 영상 감시 시스템 및 그 방법 | |
CN111127508A (zh) | 一种基于视频的目标跟踪方法及装置 | |
CN113688820B (zh) | 频闪条带信息识别方法、装置和电子设备 | |
CN113255685A (zh) | 一种图像处理方法、装置、计算机设备以及存储介质 | |
JPH0844874A (ja) | 画像変化検出装置 | |
CN113505643A (zh) | 违章目标物检测方法及相关装置 | |
KR102511287B1 (ko) | 영상 기반 자세 예측 및 행동 검출 방법 및 장치 | |
CN110505438B (zh) | 一种排队数据的获取方法和摄像机 | |
US20100102961A1 (en) | Alert system based on camera identification | |
CN117671548A (zh) | 异常分拣检测方法、装置、电子设备及存储介质 | |
GB2499449A (en) | Surveillance by face recognition using colour display of images | |
CN113920585A (zh) | 行为识别方法及装置、设备和存储介质 | |
CN114255493A (zh) | 图像检测方法、人脸检测方法及装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |