CN110866509A - 动作识别方法、装置、计算机存储介质和计算机设备 - Google Patents
动作识别方法、装置、计算机存储介质和计算机设备 Download PDFInfo
- Publication number
- CN110866509A CN110866509A CN201911143008.2A CN201911143008A CN110866509A CN 110866509 A CN110866509 A CN 110866509A CN 201911143008 A CN201911143008 A CN 201911143008A CN 110866509 A CN110866509 A CN 110866509A
- Authority
- CN
- China
- Prior art keywords
- time sequence
- sequence frame
- target time
- convolution
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 title claims abstract description 167
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000033001 locomotion Effects 0.000 claims abstract description 467
- 238000010586 diagram Methods 0.000 claims abstract description 170
- 230000009467 reduction Effects 0.000 claims description 55
- 230000006870 function Effects 0.000 claims description 27
- 238000012544 monitoring process Methods 0.000 claims description 22
- 230000003993 interaction Effects 0.000 claims description 20
- 238000011176 pooling Methods 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 9
- 230000001174 ascending effect Effects 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 description 40
- 238000005516 engineering process Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 6
- 230000002708 enhancing effect Effects 0.000 description 6
- 230000001965 increasing effect Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000002411 adverse Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004899 motility Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 230000001429 stepping effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0261—System arrangements wherein the object is to detect trespassing over a fixed physical boundary, e.g. the end of a garden
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Child & Adolescent Psychology (AREA)
- Medical Informatics (AREA)
- Gerontology & Geriatric Medicine (AREA)
- Psychology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
Abstract
本申请涉及一种动作识别方法、装置、计算机可读存储介质和计算机设备,该方法通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重,并根据运动信息权重获取目标时序帧在各卷积通道上的运动信息特征图;对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型,本申请提供的方案可有效提高动作识别精度。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种动作识别方法、装置、计算机可读存储介质和计算机设备。
背景技术
随着计算机技术的发展,动作识别技术从图像领域扩展到了视频领域。现有技术中,对视频数据进行动作识别,一般是使用二维卷积网络神经网络对视频数据中的每一帧图像进行识别,最终对该视频数据的所有帧的动作识别结果进行一个融合得到对视频数据的动作识别结果,但是在强调运动对象动作变化的场景中,即使打乱视频数据中各帧图像的顺序,并不会影响二维卷积网络神经网络对视频数据中动作类型的识别结果,二维卷积神经网络进行动作识别的精度低。
发明内容
基于此,有必要针对传统的二维卷积神经网络进行动作识别精度低的技术问题,提供一种动作识别方法、装置、计算机可读存储介质和计算机设备。
一种动作识别方法,包括:
获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
一种动作识别方法,包括:
获取实时的监控视频数据;
提取所述监控视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
确定目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型;
将所述动作类型确定为当前所述监控视频数据中运动对象的动作信息。
一种动作识别装置,所述装置包括:
图像获取模块,用于获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
权重获取模块,用于分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
特征确定模块,用于根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
时序交互模块,用于对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
动作识别模块,用于根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
上述动作识别方法、装置、计算机可读存储介质和计算机设备,获取视频数据在不同时序帧的图像数据,在通过多通道卷积层获取各个时序帧的图像数据在不同卷积通道上的原始子特征图后,分别以各时序帧作为目标时序帧,通过目标时序帧以及后一时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各个卷积通道上的运行信息权重,并将运动信息权重加到对应的卷积通道的原始子特征图上,增强单一时序帧中原始子特征图上的运动信息,获得目标时序帧在各卷积通道上的运动信息特征图,然后对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,使得目标时序帧在各卷积通道上的运动信息特征图融合了来自相邻时序帧的运动信息特征图,实现在时序上信息进行建模,获得目标时序帧在各卷积通道上的时序运动特征图,最终将目标时序帧在各个卷积通道上的时序运动特征图作为目标时序帧的图像数据的特征信息进行动作识别,获取目标时序帧的图像数据中运动对象的动作类型,该动作识别方法在增强单一时序帧中原始子特征图上的运动信息的同时,实现对各时序帧间的时序信息进行建模,有效提高动作识别的精度性。
附图说明
图1为一个实施例中动作识别方法的应用环境图;
图2是一个实施例中动作识别网络模型的结构示意图;
图3为一个实施例中动作识别方法的流程示意图;
图4为一个实施例中对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图的示意图;
图5为一个实施例中计算目标时序帧在各卷积通道上的运动信息权重步骤的流程示意图;
图6a为一个实施例中获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息步骤的流程示意图;
图6b为一个实施例中计算目标时序帧在各卷积通道上的运动信息权重的示意图;
图7为一个实施例中得到目标时序帧在各卷积通道上的时序运动特征图步骤的流程示意图;
图8a为一个实施例中根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型步骤的流程示意图;
图8b为一个实施例中残差网络层的结构示意图;
图9为一个实施例中参数训练步骤的流程示意图;
图10为一个实施中原始子特征图、运动信息特征图以及时序运动特征图的可视化示意图;
图11为另一个实施例中动作识别方法的流程示意图;
图12为一个实施例中动作识别装置的结构框图;
图13为一个实施例中权重获取模块的结构框图;
图14为一个实施例中计算机设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
图1为一个实施例中动作识别方法的应用环境图。参见图1,该动作识别方法应用于一种计算机设备中,该计算机设备可以是终端或者服务器。如图1所示,以该计算机设备是服务器为例,计算机设备中部署有动作识别网络模型,该动作识别网络是根据本申请所提供的动作识别方法对应构建的网络模型。服务器从视频数据中提取多个时序帧的图像数据,如图1中所示,从视频数据中获取的多个时序帧的图像数据均包含运动对象,服务器通过将提取到的多个时序帧的图像数据输入至动作识别网络模型中,动作识别网络模型对从视频数据中获得的每一时序帧的图像数据进行动作识别,得到每一时序帧图像数据对应的动作类型,后续可对从视频数据提取到的所有时序帧的图像数据对应的动作类型进行融合,得到对视频数据的动作识别结果。
比如,在一个示例性的应用场景中,视频数据可以是实时的监控视频,通过将实时的监控视频输入至动作识别模型中,以对监控视频中每一时序帧的图像数据中的监控对象的实时动作进行识别,获得监控视频中每一帧的图像数据中监控对象的动作信息,实现对监控对象的实时监控,无需通过人工观看视频数据获知监控对象的行为动作。
又比如,在一个示例性的应用场景中,视频数据可以是手语视频,通过将手语视频输入至动作识别模型中,以对手语视频中每一时序帧的图像数据中的手部动作进行识别,获得手语视频中每一时序帧的图像数据对应的手语动作信息,实现手语翻译。
图2是一个实施例中动作识别网络模型的结构示意图,如图2所示,动作识别网络模型中包括多通道卷积层、动作信息增强模块、时序交互模块以及主干网络层。其中,在获取视频数据在不同时序帧的图像数据后,多通道卷积层用于获取每一时序帧的图像数据的原始特征图,其中原始特征图包括在不同卷积通道上的原始子特征图;动作信息增强模块用于对每一时序帧的图像数据在不同卷积通道上的原始子特征图进行动作信息增强,得到每一时序帧的图像数据在不同卷积通道上的动作信息特征图;时序交互模块用于对前后相邻时序帧的图像数据的动作信息特征图在相同卷积通道上进行卷积运算,得到时序运动特征图,该时序运行特征图融合了前后相邻时序帧的运动信息;主干网络层用于根据时序运动特征图获取图像数据中运动对象的动作类型。
在一个实施例中,主干网络层是用于动作识别的2D卷积网络,由依次连接的多个网络层构成,如图2示出的动作识别网络模型中,主干网络层由依次连接的3层子网络层构成。可选的,主干网络层可以是ResNet-50卷积神经网络。
如图3所示,在一个实施例中,提供了一种动作识别方法。本实施例主要以该方法应用于上述图1中的服务器102来举例说明。参照图3,该动作识别方法具体包如下步骤:
步骤S302,获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图。
其中,视频数据可以是任意视频数据。从内容上来讲,视频数据是指包括有运动对象的视频,例如可以是舞蹈类视频、监控类视频、手语类视频等,从来源上讲,视频数据可以是通过摄像头拍摄的监控视频,也可以是由其他设备发送获得的视频数据。
其中,不同时序帧的图像数据是指按照时间顺序从视频数据中抽取的图像数据,其中,可以包括视频数据中所有时序帧的图像数据,也可包括部分连续时序帧的图像数据。获取视频数据在不同时序帧的图像数据,具体可以是按照视频数据中图像数据的排列顺序依次获取,也可以是以一定的采样频率从视频数据中提取的,例如,以视频数据第一帧的图像数据作为第一时序帧的图像数据,然后根据视频数据中图像数据的排列顺序,以一定的采样频率抽取后续时序帧的图像数据。应该理解的是,图像数据的帧数量,可以是根据动作识别的复杂度要求确定的,或者根据视频数据中的图像数据帧数量确定的。
其中,原始子特征图是指表征图像数据的特征信息;多通道卷积层是指用于获取图像数据中的特征信息的网络模型,这里的多通道卷积层是已训练好的网络模型,可直接用来获取图像数据的特征信息。其中,多通道卷积层包括多个卷积核,卷积通道是由多通道卷积层所决定的,多通道卷积层中用于抽取图像数据的卷积核的数量,即为卷积通道数量。具体地,将图像数据作为多通道卷积层的输入数据输入至多通道卷积层中,多通道卷积层中的各个卷积核对图像数据进行卷积计算,获取与各个卷积核对应的卷积通道的原始子特征图。
比如,以灰度图为例,从视频数据中获得的不同时序帧的图像数据为灰度图,将该灰度图输入至多通道卷积层中,获取多通道卷积层输出原始特征图,其中原始特征图的数据维度为C,H,W,其中,H、W标识原始特征图的长度以及宽度,C表示原始特征图的通道维度,即原始特征图包括有C张原始子特征图。
步骤S304,分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重。
其中,后一时序帧是指相对于目标时序帧,下一时刻所对应的时序帧,例如,目标时序帧为第t帧,即目标时序帧的图像数据是从视频数据中获取到的第t帧的图像数据,则后一时序帧为第(t+1)帧,即后一时序帧的图像数据是从视频数据中获取到的第(t+1)帧的图像数据。
其中,运动信息权重是指对目标时序帧的图像数据在不同通道上的原始子特征图的注意力分配的概率分布;运动性权重的大小,与目标时序帧的图像数据在不同卷积通道上的原始子特征图与运动对象的动作信息的相关性相关,也可以说与目标时序帧的图像数据在不同卷积通道上的原始子特征图中所包含的运动信息的多少相关。可以理解的是,当目标时序帧的图像数据在某一卷积通道上的原始子特征图与运动对象的动作信息的相关性越大,包含的运动信息越多,则在该卷积通道上的原始子特征图分配到的注意力越多,即运动运动信息权重越大。
在视频数据中获取的每一时序帧的图像数据中,都包含有对动作识别而言关键的信息,例如运动对象的表观信息,也包含有对动作识别而已无用甚至起反作用的噪声信息,例如图像数据中的噪声或背景信息。在获取目标时序帧的图像数据在不同卷积通道上的原始子特征图与运动对象的动作信息的相关性,即运动信息权重后,可通过增大包含与运动对象动作信息更相关的原始子特征图中的特征信息,即该卷积通道上的原始子特征图分配更多的注意力,而抑制包含较少的运动对象的动作信息或包含更多噪声信息的原始子特征图,即该卷积通道上的原始子特征图分配较少的注意力,实现对对动作识别有利的信息得到增强而对动作识别无关甚至有害的信息得到一致,有效提高动作识别的准确性。
由于单一的时序帧的图像数据中,运动对象以及背景信息都是静态的,而运动是一个动作变化的过程,因此需要通过目标时序帧的图像数据及其后一时序帧的图像数据实现对运动对象的动作变化过程进行描述,以提高动作识别的准确度。具体地,在获取到每一时序帧的图像数据在各个卷积通道上的原始子特征后,对于每一个时序帧的图像数据,以其本身作为目标时序帧的图像数据,从而根据目标时序帧的图像数据在不同卷积通道上的原始子特征图,及其后一时序帧的图像数据在不同卷积通道上原始子特征图,获取目标时序帧在各个卷积通道上的原始子特征图对应的运动信息权重。
进一步地,获取目标时序帧在各个卷积通道上的原始子特征图所包含的运动信息权重,具体可以先计算目标时序帧的图像数据在各个卷积通道上的原始子特征图,与其后一时序帧的图像数据在对应卷积通道上原始子特征图间的差异度,然后根据各个卷积通道上原始子特征图间的差异度确定目标时序帧的图像数据在各个卷积通道上对应的运动信息权重。
步骤S306,根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图。
其中,在获取到目标时序帧在各卷积通道上的运动信息权重后,可将目标时序帧在各卷积通道上的运动信息权重加到目标时序帧在对应卷积通道的原始子特征图中,以获取目标时序帧在各卷积通道上的运动信息特征图。
由于运动信息权重用于描述在目标时序帧的图像数据在不同卷积通道上的原始子特征图与运动对象的动作信息的相关性,通过将每个卷积通道上的运动信息权重以及对应通道上原始子特征图进行相乘,获取目标时序帧在各个卷积通道上的动作信息特征图,使得与运动对象的动作信息相关性较强的原始子特征图得到增强,而与运动对象的动作信息相关性较弱的原始子特征图得到抑制,实现对对动作识别有利的信息得到增强而对动作识别无关甚至有害的信息得到抑制,使得动作信息特征图包含更多与运动对象的动作信息,利于后续对运动对象的动作识别,有效提高动作识别的准确性。
步骤S308,对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图。
其中,对目标时序帧在在各个卷积通道上的运动信息特征图进行时序卷积,具体可以是根据目标时序帧确定待卷积时序帧,对目标时序帧与待卷积时序帧在同一卷积通道上的运动信息特征图进行卷积。其中,待卷积时序帧是指与目标时序帧相邻的时序帧,可以包括目标时序帧的前、后两个时序帧,也可以包括目标时序帧的前、后四个时序帧等。例如,目标时序帧为第t帧,待卷积时序帧可以包括与目标时序帧相邻的前、后两个时序帧,即待卷积时序帧可以包括第(t-1)帧以及第(t+1)帧,也就是说,针对第t帧,对第(t-1)帧、第t帧以及第(t+1)帧在同一卷积通道上的运动信息特征图进行卷积,以获取第t帧的在各卷积通道上的时序运动特征图;待卷积时序帧还包括与目标时序帧相邻的前、后两个时序帧,即待卷积时序帧包括第(t-2)帧、第(t-1)帧、第(t+1)帧以及第(t+2)帧,此时针对第t帧,对第(t-2)帧、第(t-1)帧、第t帧以及第(t+1)帧以及第(t+2)帧在同一卷积通道上的运动信息特征图进行卷积,以获取第t帧的在各卷积通道上的时序运动特征图。
具体地,在得到各个时序帧在各个卷积通道上的运动信息特征图后,可以将与目标时序帧相邻的时序帧确定为待卷积时序帧,并对目标时序帧以及待卷积时序帧在同一卷积通道上的运动信息特征图进行卷积运算,以获取目标时序帧在各个卷积通道上的时序运动特征图,使得时序运动特征图中融合了前后时序帧的运动特征图,即运动对象的动作信息,实现在时序这一维度进行建模。其中,待卷积时序帧在各个卷积通道上的运动信息特征图的获取方法,与目标时序帧在各个卷积通道上的运动信息特征图的获取方法相同。
如图4所示,图4为一个实施例中对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图的示意图,图中左边的矩阵图表示各个时序帧在各个卷积通道上的运动信息特征图,右边矩阵图表示各个时序帧在各个卷积通道上的时序运动特征图;图中矩阵图的横轴表示卷积通道的维度,纵轴表示时序帧的维度,以左边的矩阵图为例,图中左边的矩阵图第一行表示第1时序帧在各个卷积通道上的运动信息特征图,第二行表示第2时序帧在各个卷积通道上的运动信息特征图,依次类推。以第2时序帧作为目标时序帧、卷积时序帧包括第2时序帧的前一时序帧以及第2时序帧的后一时序帧为例,对于第2时序帧的时序运动特征图,利用一个3*1的卷积核对第1时序帧在第1卷积通道上的运动信息特征图、第2时序帧在第1卷积通道上的运动信息特征图以及第3时序帧在第1卷积通道上的运动信息特征图进行卷积运算,以获取第2时序帧在第1卷积通道的时序运动特征图,同样的,利用一个3*1的卷积核对第1时序帧在第2卷积通道上的运动信息特征图(图中A1)、第2时序帧在第2卷积通道上的运动信息特征图(图中A2)以及第3时序帧在第2卷积通道上的运动信息特征图(图中A3)进行卷积运算,以获取第2时序帧在第2卷积通道的时序运动特征图(图中B),以此类推,获得第2时序帧在各个卷积通道上的时序运动特征图。对于任意一个时序帧,可以利用其前后相邻的相邻时序帧,在各个卷积通道上进行时间维度上的卷积运算,使得运算后的时序运动特征图融合了前后时序帧的运动特征图,即运动对象的动作信息。
应该理解的是,如图4所示,对于第1时序帧以及最后一个的第4时序帧,由于没有前一时序帧或后一时序帧的图像数据,可以将第1时序帧的前一时序帧以及最后一个的第4时序帧的后一时序帧进行填0操作。
步骤S310,根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
其中,在得到目标时序帧的图像数据的时序运动特征后,可以利用时序运动特征图作为图像数据的特征信息,获取目标时序帧的图像数据中运动对象的动作类型。时序运动特征图中即包括较强的与运动相关的信息,又包括时序信息,利用时序运动特征图进进行动作识别,可有效提高动作识别的精确度。
具体地,可以将时序运动特征图作为图像数据的特征信息,输入至用于动作识别的2D卷积网络中,以获取目标时序帧的图像数据中运动对象的动作类型。其中,2D卷积网络可以包括ResNet-50卷积神经网络,目标时序帧在各个通道的时序运动特征图输入至ResNet-50卷积神经网络后,相应输出时序特征图指向各个动作类型的概率,以获取目标时序帧的图像数据中运动对象的动作类型。
以图2所示的动作识别网络模型为例,根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型的步骤是由主干网络层执行的,将目标时序帧在各卷积通道的时序运动特征图输入至主干网络层中,主干网络层起到分类器的作用,主干网络层输出目标时序帧的图像数据中运动对象的动作类型。步骤S302描述的获取各时序帧的图像数据在不同卷积通道上的原始子特征图的步骤由多通道卷积层执行,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;步骤S304描述的分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重的步骤是由动作信息增强模块执行的。而步骤S308,对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图的步骤,是由时序交互模块执行的。
上述动作识别方法,获取视频数据在不同时序帧的图像数据,在通过多通道卷积层获取各个时序帧的图像数据在不同卷积通道上的原始子特征图后,分别以各时序帧作为目标时序帧,通过目标时序帧以及后一时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各个卷积通道上的运行信息权重,并将运动信息权重加到对应的卷积通道的原始子特征图上,增强单一时序帧中原始子特征图上的运动信息,获得目标时序帧在各卷积通道上的运动信息特征图,然后对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,使得目标时序帧在各卷积通道上的运动信息特征图融合了来自相邻时序帧的运动信息特征图,实现在时序上这一维度上的建模,获得目标时序帧在各卷积通道上的时序运动特征图,最终将目标时序帧在各个卷积通道上的时序运动特征图作为目标时序帧的图像数据的特征信息进行动作识别,获取目标时序帧的图像数据中运动对象的动作类型,该动作识别方法在增强单一时序帧中原始子特征图上的运动信息的同时,实现对各时序帧间的时序信息进行建模,打乱各时序帧间的顺序会得到完全不同的动作识别结果,有效提高动作识别的精度性。
在一个实施例中,根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型的步骤之后,还包括:在得到各个时序帧的图像数据中运动对象的动作类型后,根据各时序帧的动作类型确定视频数据的动作类型。
其中,在获得目标时序帧的图像数据中运动对象的动作类型后,根据时序帧的次序,依次将后续的时序帧作为目标时序帧,并获取其图像数据中运动对象的动作类型,在得到所有时序帧的图像数据中的运动对象的动作类型后,最终对视频数据的所有时序帧的图像数据中的运动对象对应的动作类型进行融合,以获取对该视频数据的动作识别结果。
在一个实施例中,如图5所示,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重的步骤,包括:
步骤S502,获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息。
其中,差异信息可以描述两个时序帧的图像数据中运动对象的动作变化程度,即与运动对象的动作相关的信息;如前所述,在视频数据中获取的每一时序帧的图像数据中,都包含有对动作识别而言关键的信息,也包含有对动作识别而已无用甚至起反作用的噪声信息。但是由于在单一的时序帧的图像数据中,运动对象以及背景信息都是静态的,而运动是一个动作变化的过程,因此仅仅根据单一的时序帧的图像数据难以获取到运动对象的动作信息。而目标时序帧的图像数据在各个卷积通道上的原始子特征图,与其后一时序帧的图像数据在对应卷积通道上的原始子特征图间的差异信息,即前后时序帧中运动对象的动作变化,获取到前后时序帧中对应卷积通道上原始子特征图间的差异信息,即可得到目标时序帧的图像数据在各个卷积通道上的原始子特征图中所包含的运动信息。
可以理解的是,当目标时序帧的图像数据在某个卷积通道上的原始子特征图,与其后一时序帧的图像数据在对应卷积通道上的原始子特征图上间的差异信息越大,该卷积通道上的原始子特征图与运动对象的动作信息越相关,原始子特征图中包含越多的与运行相关的特征信息,相反,该卷积通道上的原始子特征图与运动对象的动作信息越不相关,原始子特征图中包含较少的与运行相关的特征信息。
具体地,获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息,具体可以是通过计算目标时序帧的图像数据在各个卷积通道上的原始子特征图,与其后一时序帧的图像数据在对应卷积通道上的原始子特征图上间的差值获得的。
步骤S504,通过激活函数将各卷积通道上差异信息映射为目标时序帧在各卷积通道上的运动信息权重。
其中,在得到目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息后,可以通过激活函数根据各个卷积通道上的差异信息获取对应卷积通道的运行信息权重。如上所述,当目标时序帧的图像数据在某个卷积通道上的原始子特征图,与其后一时序帧的图像数据在对应卷积通道上的原始子特征图上间的差异信息越大,该卷积通道上的原始子特征图的运动信息权重越大,相反,该卷积通道上的原始子特征图与运动对象的动作信息越不相关,该卷积通道上的原始子特征图的运动信息权重越小。
具体地,激活函数可以是Sigmiod函数。在得到目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息后,可通过激活函数Sigmiod函数,将在各个卷积通道上的差异信息映射为0到1之间的权重值,得到目标时序帧在各个通道上的原始子特征图的运动信息权重。
在一个实施例中,如图6a所示,获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息的步骤,包括:
步骤S602,分别通过单位池化层将目标时序帧在各卷积通道上的原始子特征图以及后一时序帧在各卷积通道上的原始子特征图变换为单位子特征图。
其中,单位池化层是指用于原始子特征图进行降维的池化层,可选的,单位池化层可以包括均值池化层(average pooling),例如全局平均池化。
其中,单位子特征图是指长、宽均为1的特征图。具体地,通过单位池化层可以将空间大小为H*W的原始子特征图,降维为空间大小为1*1的单位子特征图。应该理解的是,此时在卷积通道这一维度是不变的,即获得的单位子特征图的卷积通道的数量与原始子特征图的卷积通道数据是相等的。
步骤S604,分别对目标时序帧在各卷积通道上的单位子特征图以及后一时序帧在各卷积通道上的单位子特征图进行预设缩放倍数的降维,得到降维后的单位子特征图。
其中,预设缩放倍数是根据实际情况设置的,可以根据原始子特征图在卷积通道这一维度上的数量与进行卷积通道降维后的单位子特征图在卷积通道这一维度上的数量的比值进行确定。例如,原始子特征图在卷积通道这一维度上的数量为265,而进行卷积通道降维后,单位子特征图在卷积通道这一维度上的数量为16,则预设缩放倍数为16倍。
其中,在获取到目标时序帧在各个卷积通道上的单位子特征图以及后一时序帧在各个卷积通道上的单位子特征图后,可以通过降维卷积层降低目标时序帧以及后一时序帧对应的单位子特征图在卷积通道这一维度上的数量,其中,该降维卷积层中卷积核的大小为1*1,卷积核的数量与降维后需要获得的单位子特征图在卷积通道这一维度上的数量相等。
例如,各个时序帧的原始子特征图的空间大小为H*W,在卷积通道这一维度的数量为C,即包括了C个空间大小为H*W的原始子特征图,各个时序帧的图像数据的原始子特征图的数据维度为C*H*W;在经过单位池化层后得到的单位子特征图在卷积通道这一维度的数量不变,空间大小降维为1*1,即单位子特征图的数据维度为(C*1*1);然后,通过降维卷积层对卷积通道这一维度进行降维,将单位子特征图在卷积通道这一维度的数量降为(C/r),即获得降维后的单位子特征图的数据维度为(C/r*1*1),其中r为缩放倍数。
步骤S606,获取目标时序帧降维后的单位子特征图与后一时序帧降维后的单位子特征图间的降维差异信息。
其中,获取目标时序帧降维后的单位子特征图与后一时序帧降维后的单位子特征图间的降维差异信息,具体可以是通过计算目标时序帧降维后的单位子特征图与后一时序帧降维后的单位子特征图,在对应卷积通道上的单位子特征图的差值获得的。
步骤S608,对降维差异信息进行预设缩放倍数的升维,得到目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息。
其中,在得到降维差异信息后,可以通过升维卷积层将降维差异信息在卷积通道这一维度上的数量,恢复至与原始子特征图的卷积通道的数据一致。其中,该升维卷积层中卷积核的大小为1*1,卷积核的数量与原始子特征图的卷积通道数量相等。
本实施例中,通过单位池化层将目标时序帧在各卷积通道上的原始子特征图以及后一时序帧在各卷积通道上的原始子特征图变换为单位子特征图,并对获得的单位子特征图在卷积通道这一维度进行预设缩放倍数的降维后,降维后的单位子特征图的数据量相对于原始子特征图的数量量大大降低,使得计算目标时序帧与后一时序帧在各卷积通道上的原始子特征图的差异信息,转换为计算目标时序帧的降维后的单位子特征图与后一时序帧的降维后的单位子特征图间的差异信息,有效降低计算量,提高计算速度。
以图2所示的动作识别网络模型为例,上述如图5以及如图6所示的步骤可以由动作信息增强模块执行的;如图6b所示,图6b为一个实施例中计算目标时序帧在各卷积通道上的运动信息权重的示意图。图6中A、B两个输入分别表示目标时序帧的原始子特征图以及后一时序帧的原始子特征图,其中,输入A以及输入B的数据维度均为C*H*W,其中,H与W分别标识原始子特征图的长度以及宽度,C表示原始子特征图在卷积通道这一维度上的数量,即输入A与输入B均包括有C个卷积通道的、空间大小为H*W的原始子特征图。为了降低这一模块的计算量,先通过单位池化层分别对输入A中的原始子特征图以及输入B中的原始子特征图的空间维度进行降维,获得C个卷积通道、空间大小为1*1的单位子特征图。接着,通过第一降维池化层在卷积通道这一维度上对与输入A对应的单位子特征图进行降维,降维后的单位子特征图的数据维度为C/r*1*1,同样的,通过第二降维池化层在卷积通道这一维度上对与输入B对应的单位子特征图进行降维,降维后的单位子特征图的数据维度同样为C/r*1*1。可以理解的是,第一降维卷保护层与第二降维卷积层的网络参数一致。然后,将输入A、输入B这两个时序帧降维后的单位子特征图(数据维度为C/r*1*1)相减,得到表征运动信息的降维差异信息,该降维差异信息的数据维度为C/r*1*1,再通过升维卷积层将卷积通道这一维度的数量恢复至与原始子特征图的卷积通道的数量一致,得到数据维度为C*1*1的差异信息。最后,经过sigmoid函数将对应每个卷积通道的差异信息,映射为数据值为0至1的运动信息权重。后续将每个卷积通道的运动信息权重与对应卷积通道的原始子特征图进行相乘,使得部分卷积通道的原始子特征图的特征信息得到不同程度的增强,而其余卷积通道的原始子特征图的特征信息得到不同程度的抑制,实现利用后一时序帧的特征信息来增强目标时序帧的原始子特征图中与运动信息相关的特征信息。应该理解的是,由于最后一时序帧由于没有后帧,因此不能利用后一时序帧的原始子特征图中的特征信息增强本时序帧,即运动信息特征图与原始子特征图一致。
在一个实施例中,如图7所示,对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图的步骤,包括:
步骤S702,分别获取与目标时序帧相邻的前一时序帧在各卷积通道的运动信息特征图以及与目标时序帧相邻的后一时序帧在各卷积通道的运动信息特征图;
步骤S704,利用时序卷积核对目标时序帧、前一时序帧以及后一时序帧在同一卷积通道的运动信息特征图进卷积运算,得到目标时序帧在各个卷积通道上的时序运动特征图。
其中,分别获取前一时序帧在各卷积通道的运动信息特征图以及后一时序帧在各卷积通道的运动信息特征图,然后利用时序卷积核对目标时序帧、前一时序帧以及后一时序帧在同一卷积通道上的运动信息特征图进卷积运算,以获得目标时序帧在该卷积通道上的时序运动特征图,进而获取目标时序帧在所有卷积通道上的时序运动特征图,使得时序运动特征图中融合了前后时序帧的运动特征图,即运动对象的动作信息,实现在时序这一维度进行建模。
应该理解的是,前一时序帧在各卷积通道的运动信息特征图以及后一时序帧在各卷积通道的运动信息特征图的获取方法,与目标时序帧在各个卷积通道上的运动信息特征图的获取方法相同。例如,目标时序帧为第t帧,与目标时序帧相邻的前一时序帧为第(t-1)帧,则对于前一时序帧(第(t-1)帧)的运动信息特征图,是根据第(t-1)帧在各卷积通道上的原始子特征图,以及与第(t)帧在各卷积通道上的原始子特征图,计算第(t-1)帧在各卷积通道上的运动信息权重,然后根据第(t-1)帧在各卷积通道上的运动信息权重以及第(t-1)帧在各卷积通道上的原始子特征图,获取第(t-1)帧在各卷积通道上的运动信息特征图。同样的,与目标时序帧相邻的后一时序帧为第(t+1)帧,对于后一时序帧(第(t+1)帧)的运动信息特征图,是根据第(t+1)帧在各卷积通道上的原始子特征图,以及与第(t+2)帧在各卷积通道上的原始子特征图,计算第(t+1)帧在各卷积通道上的运动信息权重,然后根据第(t+1)帧在各卷积通道上的运动信息权重以及第(t+1)帧在各卷积通道上的原始子特征图,获取第(t+1)帧在各卷积通道上的运动信息特征图。
以图2所示的动作识别网络模型为例,上述利用时序卷积核对目标时序帧、前一时序帧以及后一时序帧在同一卷积通道的运动信息特征图进卷积运算,得到目标时序帧在各个卷积通道上的时序运动特征图的步骤可以由动作信息增强模块执行的,具体如图4所示,以图中第3时序帧作为目标时序帧,对于第3时序帧的时序运动特征图,利用一个3*1的卷积核对第2时序帧、第3时序帧以及第4时序帧的第1卷积通道进行卷积运算,以获取第3时序帧在第1卷积通道的时序运动特征图,同样的,利用一个3*1的卷积核对第2时序帧、第3时序帧以及第4时序帧的第2卷积通道进行卷积运算,以获取第3时序帧在第2卷积通道的时序运动特征图,以此类推,获得第3时序帧在各个卷积通道上的时序运动特征图。对于任意一个时序帧,可以利用其前后相邻的相邻时序帧,在各个卷积通道上进行时间维度上的卷积运算,使得运算后的时序运动特征图融合了前后时序帧的运动特征图,即运动对象的动作信息。
在一个实施例中,如图8a所示,根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型的步骤,包括:
步骤S802,将目标时序帧的时序运动特征图输入至残差网络层中,得到目标时序帧的图像数据的动作特征信息。
其中,残差网络层是用于获取时序运动特征图进行进一步的特征学习,以获取能够更好表征运动对象动作类型的动作特征信息。
具体地,在获得目标时序帧在各卷积通道的时序运动特征图后,将目标时序帧在各卷积通道的时序运动特征图作为目标时序帧的图像数据的特征信息,输入至残差网络层中,通过残差网络层对各个时序运动特征图进行特征学习,以获取图像数据的动作特征信息。其中,运动特征信息在卷积通道这一维度上的数量可以与时序运行特征图的一致。
步骤S804,将动作特征信息输入至动作分类网络层中,获取目标时序帧的图像数据中运动对象的动作类型。
其中,动作分类网络层是用于根据图像数据的动作特征信息进行动作类型识别的网络结构,这里的动作分类网络层是经过训练的动作分类网络层,可直接用于获取图像数据中运动对象的动作类型。具体地,在获取到目标时序帧的图像数据的动作特征信息后,将动作特征信息输入至动作分类网络层中,通过动作分类网络层获取目标时序帧中图像数据运动对象的动作类型。
以图2所示的动作识别网络模型为例,上述根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型的步骤可以由主干网络层执行的,其中,主干网络层中的残差网络层是用于获取时序运动特征图进行进一步的特征学习,以获取能够更好表征运动对象动作类型的动作特征信息,而主干网络层中的池化层以及全连接层相当于动作分类网络层,用于根据输入的动作特征信息获取目标时序帧的图像数据中运动对象的动作类型。进一步地,在一个实施例中,残差网络层的网络结构可以如图8b所示。
在一个实施例中,将目标时序帧的时序运动特征图输入至残差网络层中,得到目标时序帧的图像数据的动作特征信息的步骤之后,还包括:将动作特征信息确定为目标时序帧的图像数据在不同卷积通道上的原始子特征图;重新执行根据目标时序帧在各卷积通道上的原始子特征图,以及后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重的步骤。
其中,在得到目标时序帧的图像数据的动作特征信息后,可以将动作特征信息重新确定为目标时序帧的图像数据在不同卷积通道上的原始子特征图,然后重新对新确定的原始子特征图进行相同的操作,即计算原始子特征图在各个卷积通道上的运动信息权重,并将运动信息权重加到对应的卷积通道的原始子特征图上,获得目标时序帧在各卷积通道上的运动信息特征图,然后利用时序卷积核对目标时序帧与相邻时序帧在同一卷积通道的运动信息特征图进行卷积,使得目标时序帧在各卷积通道上的运动信息特征图融合了来自相邻时序帧的运动信息特征图,获得目标时序帧在各卷积通道上的时序运动特征图。
通过将动作特征信息确定为原始子特征图,再次基于注意力机制对运动特征信息进行的信息增强,以及再次对时序信息进行建模,可有效提高动作特征信息表征动作信息的能力,后续将动作特性信息用于动作识别,有效提高动作识别的精度。
以图2所示的动作识别网络模型为例,图中的动作信息增强模块用于对每一时序帧的图像数据在不同卷积通道上的原始子特征图进行动作信息增强,得到每一时序帧的图像数据在不同卷积通道上的动作信息特征图;而时序交互模块用于对前后相邻时序帧的图像数据的动作信息特征图在相同卷积通道上进行卷积运算,得到时序运动特征图,该时序运行特征图融合了前后相邻时序帧的运动信息;而主干网络层中的残差网络层用于获取时序运动特征图进行进一步的特征学习,以获取能够更好表征运动对象动作类型的动作特征信息。对于动作信息增强模块、时序交互模块以及残差网络层,可以作为一个特征提取单元,通过多个特征提取单元,提高特征学习的精度,可有效提高动作识别的精度。
进一步的,对于动作信息增强模块以及时序交互模块,不仅仅可应用于视频数据的动作识别这一应用环境中,还可以用于与任何需要对视频数据进行建模的场景中,例如,动作信息增强模块可以嵌入到对连续时序帧建模的神经网络中,根据应用场景的不同,针对性的增强有利于应用场景的特征信息而抑制不利于应用场景的噪声信息,时序交互模块也可以嵌入与任何2D卷积网络中进行对时序信息的建模,有助于特征学习。
在一个实施例中,如图9所示,动作识别方法还包括:
步骤S902,获取视频样本,其中视频样本包括多张不同时序帧的图像样本以及各时序帧的图像样本中运动对象的标准动作类型。
其中,视频样本是指用于动作识别网络模型的视频样本。视频样本中包括有多张不同时序帧的图像样本,以及各个图像样本对应的标准动作类型。
步骤S904,通过多通道卷积层获取各图像样本在不同卷积通道上的原始子特征图样本。
其中,将图像样本作为多通道卷积层的输入数据输入至多通道卷积层中,多通道卷积层中的各个卷积核对图像样本进行卷积计算,获取与各个卷积核对应的卷积通道的原始子特征图样本。
步骤S906,分别以各个时序帧作为目标时序帧,获取目标时序帧的原始子特征图样本以及后一时序帧的原始子特征图样本在各卷积通道上的样本差异信息。
其中,样本差异信息可以描述两个时序帧的图像样本中运动对象的动作变化程度,即与运动对象的动作相关的信息;在视频样本中获取的每一时序帧的图像样本中,都包含有对动作识别而言关键的信息,也包含有对动作识别而已无用甚至起反作用的噪声信息。但是由于在单一的时序帧的图像样本中,运动对象以及背景信息都是静态的,而运动是一个动作变化的过程,因此仅仅根据单一的时序帧的图像样本难以获取到运动对象的动作信息。而目标时序帧的图像样本在各个卷积通道上的原始子特征图样本,与其后一时序帧的图像样本在对应卷积通道上的原始子特征图样本间的差异信息,即前后时序帧中运动对象的动作变化,获取到前后时序帧中在对应卷积通道上原始子特征图样本间的样本差异信息,即可得到目标时序帧的图像样本在各个卷积通道上的原始子特征图样本中所包含的运动信息。
具体地,获取目标时序帧的原始子特征图样本与后一时序帧的原始子特征图样本在各卷积通道上的样本差异信息,具体可以是通过计算目标时序帧的图像样本在各个卷积通道上的原始子特征图样本,与其后一时序帧的图像样本在对应卷积通道上的原始子特征图样本上间的差值获得的。
进一步地,可以对目标时序帧在各卷积通道上的原始子特征图样本进行数据降维,得到目标时序帧降维后的单位子特征图样本,并对后一时序帧在各卷积通道上的原始子特征图样本进行数据降维进行数据降维,得到后一时序帧降维后的单位子特征图样本,降维后的后的单位子特征图的数据量相对于原始子特征图的数量大大降低,通过将计算目标时序帧与后一时序帧在各卷积通道上的原始子特征图样本的样本差异信息,转换为计算目标时序帧的降维后的单位子特征图样本与后一时序帧的降维后的单位子特征图样本间的差异信息,有效降低计算量,提高计算速度。
步骤S908,通过激活函数将各卷积通道上样本差异信息映射为目标时序帧在各卷积通道上的运动信息权重样本。
其中,在得到目标时序帧的原始子特征图样本与后一时序帧的原始子特征图样本在各卷积通道上的样本差异信息后,可以通过激活函数根据各个卷积通道上的差异信息获取对应卷积通道的运行信息权重。具体地,激活函数可以是Sigmiod函数。在得到目标时序帧的原始子特征图样本与后一时序帧的原始子特征图样本在各卷积通道上的样本差异信息后,可通过激活函数Sigmiod函数,将在各个卷积通道上的样本差异信息映射为0到1之间的权重值,得到目标时序帧在各个通道上的原始子特征图样本的运动信息权重。
步骤S910,根据目标时序帧在各卷积通道上的运动信息权重样本以及原始子特征图样本,获取目标时序帧在各卷积通道上的运动信息特征图样本。
步骤S912,对目标时序帧在各卷积通道上的运动信息特征图样本进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图样本。
其中,在得到各个时序帧在各个卷积通道上的运动信息特征图样本后,可以利用时序卷积核,对目标时序帧以及相邻的时序帧在同一卷积通道上的运动信息特征图样本进行卷积运算,以获取目标时序帧在各个卷积通道上的时序运动特征图样本,使得时序运动特征图样本中融合了前后时序帧的运动特征图样本,即运动对象的动作信息,实现在时序这一维度进行建模。
步骤S914,根据目标时序帧在各卷积通道的时序运动特征图样本获取目标时序帧的图像样本中运动对象的预测动作类型。
其中,在得到目标时序帧的图像数据的时序运动特征图样本后,可以利用时序运动特征图样本作为图像样本的特征信息,获取目标时序帧的图像样本中运动对象的动作类型。具体地,可以将时序运动特征图样本输入至用于动作识别的2D卷积网络中,以获取目标时序帧的图像样本中运动对象的预测动作类型。
步骤S916,根据预测动作类型以及标准动作类型间的差异,调整多通道卷积层、激活函数以及时序卷积核的参数,继续训练直至满足训练结束条件。
其中,在获得图像样本的预测动作类型后,可将预测动作类型与标准动作类型间的差异作为损失函数,对多通道卷积层、激活函数以及时序卷积核的参数进行调整,直至训练结束条件。这里的训练结束条件可根据实际需要进行调整或设置,例如,当损失函数满足收敛条件,则可认为达到训练结束条件;或者当训练次数达到预设次数时,则可认为达到训练结束条件。
在一个实施例中,一种动作识别方法,包括:
1、获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
2、分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
2-1、获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息;
2-1-1、分别通过单位池化层将目标时序帧在各卷积通道上的原始子特征图以及后一时序帧在各卷积通道上的原始子特征图变换为单位子特征图;
2-1-2、分别对目标时序帧在各卷积通道上的单位子特征图以及后一时序帧在各所述卷积通道上的单位子特征图进行预设缩放倍数的降维,得到降维后的单位子特征图;
2-1-3、获取目标时序帧降维后的单位子特征图与后一时序帧降维后的单位子特征图间的降维差异信息;
2-1-4、对所述降维差异信息进行预设缩放倍数的升维,得到目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息。
2-2、通过激活函数将各卷积通道上差异信息映射为目标时序帧在各卷积通道上的运动信息权重。
3、根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
4、对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
4-1、分别获取与目标时序帧相邻的前一时序帧在各卷积通道的运动信息特征图以及与目标时序帧相邻的后一时序帧在各卷积通道的运动信息特征图;
4-2、利用时序卷积核对目标时序帧、前一时序帧以及后一时序帧在同一卷积通道的运动信息特征图进卷积运算,得到目标时序帧在各个卷积通道上的时序运动特征图。
5、根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
5-1、将目标时序帧的时序运动特征图输入至残差网络层中,得到目标时序帧的图像数据的动作特征信息;
5-2、将所述动作特征信息输入至动作分类网络层中,获取目标时序帧的图像数据中运动对象的动作类型。
6、在得到各个时序帧的图像数据中运动对象的动作类型后,根据各时序帧的动作类型确定所述视频数据的动作类型。
进一步地,结合图2所示的动作识别网络模型以及图10,对动作识别方法进行进一步说明。在图10中,左边栏目是从视频中按时间顺序截取的两个时序帧的图像数据,其中,左边栏目中的第一列图像数据为目标时序帧的图像数据,第二列为后一时序帧的图像数据;右边栏目中,第一列的图像是对左边栏目中的目标时序帧的图像数据对应的原始子特征图的可视化,第二列图像是原始子特征图经过动作信息增强模块后获得的运动信息特征图的可视化,第三列图像是运动信息特征图经过时序交互模块后获得的时序运动特征图的可视化。从图10中可以看出,原始子特征图中即包括有对动作识别而言关键的信息,也包含有对动作识别而已无用甚至起反作用的噪声信息,其中噪声信息较多,运动对象的轮廓较为模糊;而经过动作信息增强模块后获得的运动信息特征图中,运动对象的轮廓变得清洗,与动作信息无关的背景噪声信息得到一定程度上的一致;而经过时序交互模块后获得的时序运动特征图中,不仅具有左边栏目中第一列目标时序帧图像数据的信息,还包括了左边栏目中第二列后一时序帧图像数据的信息,达到了对时序信息进行建模的目的。
进一步的,上述步骤2到步骤4中对数据的操作过程是在卷积通道这一维度上进行的,不同的卷积通道的特征图(包括原始子特征图或运动信息特征图)是相互独立的,相邻卷积通道的特征图的信息不会被混合,使得运算过程中运算量保持在低运算量而具有较高的运算速度。同样的,图2中的动作信息增强模块以及时序交互模块都是在卷积通道上进行操作的,即对于单一或多个时序帧在各个卷积通道的特征图(原始子特征图或运动信息特征图),不同的卷积通道的特征图是相互独立的,相邻卷积通道的特征图的信息不会被混合,使得运算过程中运算量保持在低运算量而具有较高的运算速度。
在一个实施例中,如图11所示,一种动作识别方法,包括:
步骤S1102,获取实时的监控视频数据。
其中,本实施例是应用于实时监控的场景中的,视频数据选用实时获取的监控视频数据。监控视频数据可以是通过摄像头拍摄的实时视频,其中,监控视频数据的图像中包括被监视的运动对象。
步骤S1104,提取监控视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图。
其中,不同时序帧的图像数据是指按照拍摄的时间顺序从监控视频数据中抽取的图像数据,其中,包括监控视频数据中所有时序帧的图像数据。获取视频数据在不同时序帧的图像数据,具体可以是按照视频数据中图像数据的排列顺序依次获取。
其中,原始子特征图是指表征图像数据的特征信息;多通道卷积层是指用于获取图像数据中的特征信息的网络模型,这里的多通道卷积层是已训练好的网络模型,可直接用来获取图像数据的特征信息。其中,多通道卷积层包括多个卷积核,卷积通道是由多通道卷积层所决定的,多通道卷积层中用于抽取图像数据的卷积核的数量,即为卷积通道数量。具体地,将监控视频中的各个时序帧的图像数据分别作为多通道卷积层的输入数据输入至多通道卷积层中,多通道卷积层中的各个卷积核对图像数据进行卷积计算,获取与各个卷积核对应的卷积通道的原始子特征图。
步骤S1106,确定目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重。
其中,目标时序帧是指当前时刻获取的图像数据所对应的时序帧,后一时序帧是指相对于目标时序帧,下一时刻所对应的时序帧。
在监控视频数据中获取的每一时序帧的图像数据中,都包含有对动作识别而言关键的信息,例如运动对象的表观信息,也包含有对动作识别而已无用甚至起反作用的噪声信息,例如图像数据中的噪声或背景信息。在获取目标时序帧的图像数据在不同卷积通道上的原始子特征图与运动对象的动作信息的相关性,即运动信息权重后,可通过增大包含与运动对象动作信息更相关的原始子特征图中的特征信息,即该卷积通道上的原始子特征图分配更多的注意力,而抑制包含较少的运动对象的动作信息或包含更多噪声信息的原始子特征图,即该卷积通道上的原始子特征图分配较少的注意力,实现对对动作识别有利的信息得到增强而对动作识别无关甚至有害的信息得到一致,有效提高动作识别的准确性。
由于单一的时序帧的图像数据中,运动对象以及背景信息都是静态的,而运动是一个动作变化的过程,因此需要通过目标时序帧的图像数据及其后一时序帧的图像数据实现对运动对象的动作变化过程进行描述,以提高动作识别的准确度。其中,在获取到每一时序帧的图像数据在各个卷积通道上的原始子特征后,对于每一时序帧的图像数据,以其本身作为目标时序帧的图像数据,从而根据目标时序帧的图像数据在不同卷积通道上的原始子特征图,及其后一时序帧的图像数据在不同卷积通道上原始子特征图,获取目标时序帧在各个卷积通道上的原始子特征图对应的运动信息权重。
具体地,获取目标时序帧在各个卷积通道上的原始子特征图所包含的运动信息权重,具体可以先计算目标时序帧的图像数据在各个卷积通道上的原始子特征图,与其后一时序帧的图像数据在对应卷积通道上原始子特征图间的差异度,然后根据各个卷积通道上原始子特征图间的差异度确定目标时序帧的图像数据在各个卷积通道上对应的运动信息权重。
步骤S1108,根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图。
步骤S1110,对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图。
其中,对目标时序帧在在各个卷积通道上的运动信息特征图进行时序卷积,具体可以是根据目标时序帧确定待卷积时序帧,对目标时序帧与待卷积时序帧在同一卷积通道上的运动信息特征图进行卷积,以获取目标时序帧在各个卷积通道上的时序运动特征图,使得时序运动特征图中融合了前后时序帧的运动特征图,即运动对象在前后时间的动作信息,实现在时序这一维度进行建模。其中,待卷积时序帧在各个卷积通道上的运动信息特征图的获取方法,与目标时序帧在各个卷积通道上的运动信息特征图的获取方法相同。
步骤S1112,根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
其中,在得到目标时序帧的图像数据的时序运动特征后,可以将时序运动特征图确定为目标时序帧图像数据的特征信息,并根据该特征信息获取目标时序帧的图像数据中运动对象的动作类型。具体地,可以将时序运动特征图输入至用于动作识别的2D卷积网络中,以获取目标时序帧的图像数据中运动对象的动作类型。时序运动特征图中即包括较强的与运动相关的信息,又包括时序信息,利用时序运动特征图进进行动作识别,可有效提高动作识别的精确度。
步骤S1114,将动作类型确定为当前监控视频数据中运动对象的动作信息。
其中,在获得目标时序帧的图像数据中运动对象的动作类型后,将该动作类型确定为监控视频数据中运动对象的动作信息,实现实时更新运动对象的运动信息,无需观看监控视频即可获取运动对象的运动信息,同时确保对运动对象的实时监控。
进一步地,可以通过显示装置显示该运动信息,使得监控人员获取监控视频中运动对象的运动状态。
以待监控对象是人为例,假设被监控人正在做跨步这以动作,获取实时监控视频数据中当前时刻拍摄到的目标时序帧以及与目标时序帧相邻的后一时序帧,通过目标时序帧以及后一时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各个卷积通道上的运行信息权重,并将运动信息权重加到目标时序帧对应的卷积通道的原始子特征图上,获得目标时序帧在各卷积通道上的运动信息特征图,然后根据目标时序帧确定待卷积时序帧,从而对待卷积时序帧在同一卷积通道的运动信息特征图进行卷积,获得目标时序帧在各卷积通道上的时序运动特征图,最终将目标时序帧在各个卷积通道上的时序运动特征图作为目标时序帧的图像数据的特征信息进行动作识别,得到目标时序帧的图像数据中被监控人的动作类型,此时被监控人的动作类型为跨步动作类型,并将该动作类型确定为被监控人的动作信息。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图12所示,提供了一种动作识别装置1200,该装置包括:图像获取模块1202、权重获取模块1204、特征确定模块1206、时序交互模块1208以及动作识别模块1210,其中::
图像获取模块1202,用于获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
权重获取模块1204,用于分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
特征确定模块1206,用于根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
时序交互模块1208,用于对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
动作识别模块1210,用于根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
在一个实施例中,如图13所示,权重获取模块1204,包括:
差异信息获取模块1204a,用于获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息;
权重映射模块1204b,用于通过激活函数将各卷积通道上差异信息映射为目标时序帧在各卷积通道上的运动信息权重。
在一个实施例中,差异信息获取模块,用于:分别通过单位池化层将目标时序帧在各卷积通道上的原始子特征图以及后一时序帧在各卷积通道上的原始子特征图变换为单位子特征图;分别对目标时序帧在各卷积通道上的单位子特征图以及后一时序帧在各卷积通道上的单位子特征图进行预设缩放倍数的降维,得到降维后的单位子特征图;获取目标时序帧降维后的单位子特征图与后一时序帧降维后的单位子特征图间的降维差异信息;对降维差异信息进行预设缩放倍数的升维,得到目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息。
在一个实施例中,时序交互模块,用于:分别获取与目标时序帧相邻的前一时序帧在各卷积通道的运动信息特征图以及与目标时序帧相邻的后一时序帧在各卷积通道的运动信息特征图;利用时序卷积核对目标时序帧、前一时序帧以及后一时序帧在同一卷积通道的运动信息特征图进卷积运算,得到目标时序帧在各个卷积通道上的时序运动特征图。
在一个实施例中,动作识别模块,用于将目标时序帧的时序运动特征图输入至残差网络层中,得到目标时序帧的图像数据的动作特征信息;将动作特征信息输入至动作分类网络层中,获取目标时序帧图像数据中运动对象的动作类型。
在一个实施例中,时序交互模块,还用于将动作特征信息确定为目标时序帧的图像数据在不同卷积通道上的原始子特征图,并使得权重获取模块1104再次根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重。
在一个实施例中,动作识别模块,还用于在得到各个时序帧的图像数据中运动对象的动作类型后,根据各时序帧的动作类型确定视频数据的动作类型。
在一个实施例中,动作识别装置还包括训练模块,训练模块用于获取视频样本,其中视频样本包括多张不同时序帧的图像样本以及各时序帧的图像样本中运动对象的标准动作类型;通过多通道卷积层获取各图像样本在不同卷积通道上的原始子特征图样本;分别以各个时序帧作为目标时序帧,获取目标时序帧的原始子特征图样本以及后一时序帧的原始子特征图样本在各卷积通道上的样本差异信息;通过激活函数将各卷积通道上样本差异信息映射为目标时序帧在各卷积通道上的运动信息权重样本;根据目标时序帧在各卷积通道上的运动信息权重样本以及原始子特征图样本,获取目标时序帧在各卷积通道上的运动信息特征图样本;对目标时序帧在各卷积通道上的运动信息特征图样本进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图样本;根据目标时序帧在各卷积通道的时序运动特征图样本获取目标时序帧的图像样本中运动对象的预测动作类型;根据预测动作类型以及目标时序帧的标准动作类型间的差异,调整多通道卷积层、激活函数以及时序卷积核的参数,继续训练直至满足训练结束条件。
图14示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的服务器102。如图14所示,该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现动作识别方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行动作识别方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图14中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的动作识别装置可以实现为一种计算机程序的形式,计算机程序可在如图14所示的计算机设备上运行。计算机设备的存储器中可存储组成该动作识别装置的各个程序模块,比如,图12所示的图像获取模块1202、权重获取模块1204、特征确定模块1206、时序交互模块1208以及动作识别模块1210。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的动作识别方法中的步骤。
例如,图14所示的计算机设备可以通过如图12所示的动作识别装置中的图像获取模块1202执行步骤S302。计算机设备可通过权重获取模块1204执行步骤S304。计算机设备可通过特征确定模块1206执行步骤S306。计算机设备可通过时序交互模块1208执行步骤S308。计算机设备可通过动作识别模块1210执行步骤S310。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述动作识别方法的步骤。此处动作识别方法的步骤可以是上述各个实施例的动作识别方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述动作识别方法的步骤。此处动作识别方法的步骤可以是上述各个实施例的动作识别方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种动作识别方法,包括:
获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
2.根据权利要求1所述的方法,其特征在于,所述根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重的步骤,包括:
获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息;
通过激活函数将各卷积通道上差异信息映射为目标时序帧在各卷积通道上的运动信息权重。
3.根据权利要求2所述的方法,其特征在于,所述获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息的步骤,包括:
分别通过单位池化层将目标时序帧在各卷积通道上的原始子特征图以及后一时序帧在各卷积通道上的原始子特征图变换为单位子特征图;
分别对目标时序帧在各卷积通道上的单位子特征图以及后一时序帧在各卷积通道上的单位子特征图进行预设缩放倍数的降维,得到降维后的单位子特征图;
获取目标时序帧降维后的单位子特征图与后一时序帧降维后的单位子特征图间的降维差异信息;
对所述降维差异信息进行预设缩放倍数的升维,得到目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息。
4.根据权利要求1所述的方法,其特征在于,所述对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图的步骤,包括:
分别获取与目标时序帧相邻的前一时序帧在各卷积通道的运动信息特征图以及与目标时序帧相邻的后一时序帧在各卷积通道的运动信息特征图;
利用时序卷积核对目标时序帧、前一时序帧以及后一时序帧在同一卷积通道的运动信息特征图进卷积运算,得到目标时序帧在各个卷积通道上的时序运动特征图。
5.根据权利要求1所述的方法,其特征在于,所述根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型的步骤,包括:
将目标时序帧的时序运动特征图输入至残差网络层中,得到目标时序帧的图像数据的动作特征信息;
将所述动作特征信息输入至动作分类网络层中,获取目标时序帧的图像数据中运动对象的动作类型。
6.根据权利要求5所述的方法,其特征在于,所述将目标时序帧的时序运动特征图输入至残差网络层中,得到目标时序帧的图像数据的动作特征信息的步骤之后,还包括:
将所述动作特征信息确定为目标时序帧的图像数据在不同卷积通道上的原始子特征图;
重新执行根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重的步骤。
7.根据权利要求1所述的方法,其特征在于,所述根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型的步骤之后,还包括:
在得到各个时序帧的图像数据中运动对象的动作类型后,根据各时序帧的动作类型确定所述视频数据的动作类型。
8.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取视频样本,其中所述视频样本包括多张不同时序帧的图像样本以及各时序帧的图像样本中运动对象的标准动作类型;
通过多通道卷积层获取各所述图像样本在不同卷积通道上的原始子特征图样本;
分别以各个时序帧作为目标时序帧,获取目标时序帧的原始子特征图样本以及后一时序帧的原始子特征图样本在各卷积通道上的样本差异信息;
通过激活函数将各卷积通道上样本差异信息映射为目标时序帧在各卷积通道上的运动信息权重样本;
根据目标时序帧在各卷积通道上的运动信息权重样本以及原始子特征图样本,获取目标时序帧在各卷积通道上的运动信息特征图样本;
对目标时序帧在各卷积通道上的运动信息特征图样本进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图样本;
根据目标时序帧在各卷积通道的时序运动特征图样本获取目标时序帧的图像样本中运动对象的预测动作类型;
根据所述预测动作类型以及目标时序帧的标准动作类型间的差异,调整所述多通道卷积层、所述激活函数以及时序卷积核的参数,继续训练直至满足训练结束条件。
9.一种动作识别方法,其特征在于,包括:
获取实时的监控视频数据;
提取所述监控视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
确定目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型;
将所述动作类型确定为当前所述监控视频数据中运动对象的动作信息。
10.一种动作识别装置,其特征在于,所述装置包括:
图像获取模块,用于获取视频数据在不同时序帧的图像数据,通过多通道卷积层获取各时序帧的图像数据在不同卷积通道上的原始子特征图;
权重获取模块,用于分别以各个时序帧作为目标时序帧,根据目标时序帧在各卷积通道上的原始子特征图,以及与目标时序帧相邻的后一时序帧在各卷积通道上的原始子特征图,计算目标时序帧在各卷积通道上的运动信息权重;
特征确定模块,用于根据目标时序帧在各卷积通道上的运动信息权重以及目标时序帧在各卷积通道上的原始子特征图,获取目标时序帧在各卷积通道上的运动信息特征图;
时序交互模块,用于对目标时序帧在各卷积通道上的运动信息特征图进行时序卷积,得到目标时序帧在各卷积通道上的时序运动特征图;
动作识别模块,用于根据目标时序帧在各卷积通道的时序运动特征图获取目标时序帧的图像数据中运动对象的动作类型。
11.根据权利要求10所述的装置,其特征在于,所述权重获取模块,包括:
差异信息获取模块,用于获取目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息;
权重映射模块,用于通过激活函数将各卷积通道上差异信息映射为目标时序帧在各卷积通道上的运动信息权重。
12.根据权利要求10所述的装置,其特征在于,所述差异信息获取模块,用于:
分别通过单位池化层将目标时序帧在各卷积通道上的原始子特征图以及后一时序帧在各卷积通道上的原始子特征图变换为单位子特征图;
分别对目标时序帧在各卷积通道上的单位子特征图以及后一时序帧在各卷积通道上的单位子特征图进行预设缩放倍数的降维,得到降维后的单位子特征图;
获取目标时序帧降维后的单位子特征图与后一时序帧降维后的单位子特征图间的降维差异信息;
对所述降维差异信息进行预设缩放倍数的升维,得到目标时序帧的原始子特征图与后一时序帧的原始子特征图在各卷积通道上的差异信息。
13.根据权利要求10所述的装置,其特征在于,时序交互模块,用于:
分别获取与目标时序帧相邻的前一时序帧在各卷积通道的运动信息特征图以及与目标时序帧相邻的后一时序帧在各卷积通道的运动信息特征图;
利用所述时序卷积核对目标时序帧、前一时序帧以及后一时序帧在同一卷积通道的运动信息特征图进卷积运算,得到目标时序帧在各个卷积通道上的时序运动特征图。
14.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至8中任一项所述方法的步骤。
15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至8中任一项所述方法的步骤。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911143008.2A CN110866509B (zh) | 2019-11-20 | 2019-11-20 | 动作识别方法、装置、计算机存储介质和计算机设备 |
JP2022516004A JP7274048B2 (ja) | 2019-11-20 | 2020-10-10 | 動作認識方法、装置、コンピュータプログラム及びコンピュータデバイス |
EP20888898.2A EP3992846A4 (en) | 2019-11-20 | 2020-10-10 | ACTION RECOGNITION METHOD AND APPARATUS, COMPUTER STORAGE MEDIUM AND COMPUTER DEVICE |
PCT/CN2020/120076 WO2021098402A1 (zh) | 2019-11-20 | 2020-10-10 | 动作识别方法、装置、计算机存储介质和计算机设备 |
KR1020227005895A KR20220038434A (ko) | 2019-11-20 | 2020-10-10 | 액션 인식 방법 및 장치, 컴퓨터 저장 매체, 및 컴퓨터 디바이스 |
US17/530,428 US11928893B2 (en) | 2019-11-20 | 2021-11-18 | Action recognition method and apparatus, computer storage medium, and computer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911143008.2A CN110866509B (zh) | 2019-11-20 | 2019-11-20 | 动作识别方法、装置、计算机存储介质和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110866509A true CN110866509A (zh) | 2020-03-06 |
CN110866509B CN110866509B (zh) | 2023-04-28 |
Family
ID=69655231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911143008.2A Active CN110866509B (zh) | 2019-11-20 | 2019-11-20 | 动作识别方法、装置、计算机存储介质和计算机设备 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11928893B2 (zh) |
EP (1) | EP3992846A4 (zh) |
JP (1) | JP7274048B2 (zh) |
KR (1) | KR20220038434A (zh) |
CN (1) | CN110866509B (zh) |
WO (1) | WO2021098402A1 (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111835448A (zh) * | 2020-07-27 | 2020-10-27 | 上海挚想科技有限公司 | 多通道的通信时序控制方法及系统 |
CN112633260A (zh) * | 2021-03-08 | 2021-04-09 | 北京世纪好未来教育科技有限公司 | 视频动作分类方法、装置、可读存储介质及设备 |
CN112668410A (zh) * | 2020-12-15 | 2021-04-16 | 浙江大华技术股份有限公司 | 分拣行为检测方法、系统、电子装置和存储介质 |
CN112749666A (zh) * | 2021-01-15 | 2021-05-04 | 百果园技术(新加坡)有限公司 | 一种动作识别模型的训练及动作识别方法与相关装置 |
WO2021098402A1 (zh) * | 2019-11-20 | 2021-05-27 | 腾讯科技(深圳)有限公司 | 动作识别方法、装置、计算机存储介质和计算机设备 |
CN113111842A (zh) * | 2021-04-26 | 2021-07-13 | 浙江商汤科技开发有限公司 | 一种动作识别方法、装置、设备及计算机可读存储介质 |
CN113408585A (zh) * | 2021-05-21 | 2021-09-17 | 上海师范大学 | 一种基于人工智能的智能印章移动检测方法 |
CN113424203A (zh) * | 2019-05-16 | 2021-09-21 | 三星电子株式会社 | 图像处理设备及其操作方法 |
CN113469138A (zh) * | 2021-07-28 | 2021-10-01 | 浙江大华技术股份有限公司 | 对象检测方法和装置、存储介质及电子设备 |
CN114997228A (zh) * | 2022-05-30 | 2022-09-02 | 平安科技(深圳)有限公司 | 基于人工智能的动作检测方法、装置、计算机设备及介质 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201917578D0 (en) * | 2019-12-02 | 2020-01-15 | Volpara Health Tech Limited | Sytem and method for generating training images |
JP7297705B2 (ja) * | 2020-03-18 | 2023-06-26 | 株式会社東芝 | 処理装置、処理方法、学習装置およびプログラム |
CN114743265B (zh) * | 2022-04-11 | 2024-10-25 | 国网山东省电力公司莱芜供电公司 | 基于多尺度特征的人类动作识别方法及系统 |
WO2024039225A1 (en) * | 2022-08-18 | 2024-02-22 | Samsung Electronics Co., Ltd. | Method and electronic device of predicting next event in episode |
CN116719420B (zh) * | 2023-08-09 | 2023-11-21 | 世优(北京)科技有限公司 | 一种基于虚拟现实的用户动作识别方法及系统 |
CN117649630B (zh) * | 2024-01-29 | 2024-04-26 | 武汉纺织大学 | 一种基于监控视频流的考场作弊行为识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110182469A1 (en) * | 2010-01-28 | 2011-07-28 | Nec Laboratories America, Inc. | 3d convolutional neural networks for automatic human action recognition |
CN105184246A (zh) * | 2015-08-28 | 2015-12-23 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN107463949A (zh) * | 2017-07-14 | 2017-12-12 | 北京协同创新研究院 | 一种视频动作分类的处理方法及装置 |
US9877056B1 (en) * | 2016-11-10 | 2018-01-23 | Google Inc. | Compressed media with still images selected from a video stream |
US20180121731A1 (en) * | 2016-11-03 | 2018-05-03 | Nec Laboratories America, Inc. | Surveillance system using adaptive spatiotemporal convolution feature representation with dynamic abstraction for video to language translation |
CN109086873A (zh) * | 2018-08-01 | 2018-12-25 | 北京旷视科技有限公司 | 递归神经网络的训练方法、识别方法、装置及处理设备 |
CN109344764A (zh) * | 2018-09-28 | 2019-02-15 | 大连民族大学 | 度量视频连续帧与其卷积特征图间差异的系统及装置 |
CN109379550A (zh) * | 2018-09-12 | 2019-02-22 | 上海交通大学 | 基于卷积神经网络的视频帧率上变换方法及系统 |
CN109389588A (zh) * | 2018-09-28 | 2019-02-26 | 大连民族大学 | 度量视频连续帧与其卷积特征图间差异的方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017000116A1 (zh) * | 2015-06-29 | 2017-01-05 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及计算机程序产品 |
US10417498B2 (en) * | 2016-12-30 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for multi-modal fusion model |
JP7002729B2 (ja) * | 2017-07-31 | 2022-01-20 | 株式会社アイシン | 画像データ生成装置、画像認識装置、画像データ生成プログラム、及び画像認識プログラム |
CN108230359B (zh) | 2017-11-12 | 2021-01-26 | 北京市商汤科技开发有限公司 | 目标检测方法和装置、训练方法、电子设备、程序和介质 |
US10699382B2 (en) * | 2018-03-29 | 2020-06-30 | Disney Enterprises, Inc. | Denoising Monte Carlo renderings using neural networks with asymmetric loss |
CN109145150B (zh) * | 2018-06-15 | 2021-02-12 | 深圳市商汤科技有限公司 | 目标匹配方法及装置、电子设备和存储介质 |
CN108769535B (zh) * | 2018-07-04 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN109993096B (zh) * | 2019-03-26 | 2022-12-20 | 东北大学 | 一种面向视频目标检测的光流多层帧特征传播及聚合方法 |
CN110427807B (zh) * | 2019-06-21 | 2022-11-15 | 诸暨思阔信息科技有限公司 | 一种时序事件动作检测方法 |
CN110348345B (zh) * | 2019-06-28 | 2021-08-13 | 西安交通大学 | 一种基于动作连贯性的弱监督时序动作定位方法 |
CN110362715B (zh) * | 2019-06-28 | 2021-11-19 | 西安交通大学 | 一种基于图卷积网络的未剪辑视频动作时序定位方法 |
CN110866509B (zh) * | 2019-11-20 | 2023-04-28 | 腾讯科技(深圳)有限公司 | 动作识别方法、装置、计算机存储介质和计算机设备 |
-
2019
- 2019-11-20 CN CN201911143008.2A patent/CN110866509B/zh active Active
-
2020
- 2020-10-10 WO PCT/CN2020/120076 patent/WO2021098402A1/zh active Application Filing
- 2020-10-10 EP EP20888898.2A patent/EP3992846A4/en active Pending
- 2020-10-10 KR KR1020227005895A patent/KR20220038434A/ko not_active Application Discontinuation
- 2020-10-10 JP JP2022516004A patent/JP7274048B2/ja active Active
-
2021
- 2021-11-18 US US17/530,428 patent/US11928893B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110182469A1 (en) * | 2010-01-28 | 2011-07-28 | Nec Laboratories America, Inc. | 3d convolutional neural networks for automatic human action recognition |
CN105184246A (zh) * | 2015-08-28 | 2015-12-23 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
US20180121731A1 (en) * | 2016-11-03 | 2018-05-03 | Nec Laboratories America, Inc. | Surveillance system using adaptive spatiotemporal convolution feature representation with dynamic abstraction for video to language translation |
US9877056B1 (en) * | 2016-11-10 | 2018-01-23 | Google Inc. | Compressed media with still images selected from a video stream |
CN107463949A (zh) * | 2017-07-14 | 2017-12-12 | 北京协同创新研究院 | 一种视频动作分类的处理方法及装置 |
CN109086873A (zh) * | 2018-08-01 | 2018-12-25 | 北京旷视科技有限公司 | 递归神经网络的训练方法、识别方法、装置及处理设备 |
CN109379550A (zh) * | 2018-09-12 | 2019-02-22 | 上海交通大学 | 基于卷积神经网络的视频帧率上变换方法及系统 |
CN109344764A (zh) * | 2018-09-28 | 2019-02-15 | 大连民族大学 | 度量视频连续帧与其卷积特征图间差异的系统及装置 |
CN109389588A (zh) * | 2018-09-28 | 2019-02-26 | 大连民族大学 | 度量视频连续帧与其卷积特征图间差异的方法 |
Non-Patent Citations (2)
Title |
---|
刘嘉莹;张孙杰;: "融合视频时空域运动信息的3D CNN人体行为识别" * |
易生;梁华刚;茹锋;: "基于多列深度3D卷积神经网络的手势识别" * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113424203A (zh) * | 2019-05-16 | 2021-09-21 | 三星电子株式会社 | 图像处理设备及其操作方法 |
WO2021098402A1 (zh) * | 2019-11-20 | 2021-05-27 | 腾讯科技(深圳)有限公司 | 动作识别方法、装置、计算机存储介质和计算机设备 |
US11928893B2 (en) | 2019-11-20 | 2024-03-12 | Tencent Technology (Shenzhen) Company Limited | Action recognition method and apparatus, computer storage medium, and computer device |
CN111835448A (zh) * | 2020-07-27 | 2020-10-27 | 上海挚想科技有限公司 | 多通道的通信时序控制方法及系统 |
CN112668410A (zh) * | 2020-12-15 | 2021-04-16 | 浙江大华技术股份有限公司 | 分拣行为检测方法、系统、电子装置和存储介质 |
CN112668410B (zh) * | 2020-12-15 | 2024-03-29 | 浙江大华技术股份有限公司 | 分拣行为检测方法、系统、电子装置和存储介质 |
CN112749666A (zh) * | 2021-01-15 | 2021-05-04 | 百果园技术(新加坡)有限公司 | 一种动作识别模型的训练及动作识别方法与相关装置 |
CN112749666B (zh) * | 2021-01-15 | 2024-06-04 | 百果园技术(新加坡)有限公司 | 一种动作识别模型的训练及动作识别方法与相关装置 |
CN112633260A (zh) * | 2021-03-08 | 2021-04-09 | 北京世纪好未来教育科技有限公司 | 视频动作分类方法、装置、可读存储介质及设备 |
CN112633260B (zh) * | 2021-03-08 | 2021-06-22 | 北京世纪好未来教育科技有限公司 | 视频动作分类方法、装置、可读存储介质及设备 |
CN113111842B (zh) * | 2021-04-26 | 2023-06-27 | 浙江商汤科技开发有限公司 | 一种动作识别方法、装置、设备及计算机可读存储介质 |
CN113111842A (zh) * | 2021-04-26 | 2021-07-13 | 浙江商汤科技开发有限公司 | 一种动作识别方法、装置、设备及计算机可读存储介质 |
CN113408585A (zh) * | 2021-05-21 | 2021-09-17 | 上海师范大学 | 一种基于人工智能的智能印章移动检测方法 |
CN113469138A (zh) * | 2021-07-28 | 2021-10-01 | 浙江大华技术股份有限公司 | 对象检测方法和装置、存储介质及电子设备 |
CN114997228A (zh) * | 2022-05-30 | 2022-09-02 | 平安科技(深圳)有限公司 | 基于人工智能的动作检测方法、装置、计算机设备及介质 |
CN114997228B (zh) * | 2022-05-30 | 2024-05-03 | 平安科技(深圳)有限公司 | 基于人工智能的动作检测方法、装置、计算机设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2022551396A (ja) | 2022-12-09 |
EP3992846A1 (en) | 2022-05-04 |
JP7274048B2 (ja) | 2023-05-15 |
US20220076002A1 (en) | 2022-03-10 |
US11928893B2 (en) | 2024-03-12 |
CN110866509B (zh) | 2023-04-28 |
EP3992846A4 (en) | 2022-10-26 |
KR20220038434A (ko) | 2022-03-28 |
WO2021098402A1 (zh) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110866509B (zh) | 动作识别方法、装置、计算机存储介质和计算机设备 | |
CN111047548B (zh) | 姿态变换数据处理方法、装置、计算机设备和存储介质 | |
CN109271933B (zh) | 基于视频流进行三维人体姿态估计的方法 | |
CN110689599B (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
CN111402294A (zh) | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 | |
CN108986041A (zh) | 一种图像恢复方法、装置、电子设备及可读存储介质 | |
CN111178211A (zh) | 图像分割方法、装置、电子设备及可读存储介质 | |
CN111754396A (zh) | 脸部图像处理方法、装置、计算机设备和存储介质 | |
CN112862023B (zh) | 对象密度确定方法、装置、计算机设备和存储介质 | |
CN113435432B (zh) | 视频异常检测模型训练方法、视频异常检测方法和装置 | |
CN111062263A (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
CN111833360B (zh) | 一种图像处理方法、装置、设备以及计算机可读存储介质 | |
CN112818955A (zh) | 一种图像分割方法、装置、计算机设备以及存储介质 | |
CN113807330B (zh) | 面向资源受限场景的三维视线估计方法及装置 | |
Xiao et al. | Multi-scale attention generative adversarial networks for video frame interpolation | |
CN117078809A (zh) | 基于图像的动效生成方法、装置、设备和存储介质 | |
CN111931679A (zh) | 动作识别方法、装置、设备及存储介质 | |
Sharma et al. | A novel 3d-unet deep learning framework based on high-dimensional bilateral grid for edge consistent single image depth estimation | |
Gupta et al. | A robust and efficient image de-fencing approach using conditional generative adversarial networks | |
CN110705513A (zh) | 视频特征提取方法、装置、可读存储介质和计算机设备 | |
CN112085680B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN114792401A (zh) | 行为识别模型的训练方法、装置、设备及存储介质 | |
CN112115786A (zh) | 基于注意力U-net的单目视觉里程计方法 | |
CN117218468A (zh) | 特征提取模型训练方法、装置、电子设备及存储介质 | |
CN111539420B (zh) | 基于注意力感知特征的全景图像显著性预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40023017 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |