CN110188239A - 一种基于跨模态注意力机制的双流视频分类方法和装置 - Google Patents
一种基于跨模态注意力机制的双流视频分类方法和装置 Download PDFInfo
- Publication number
- CN110188239A CN110188239A CN201910294018.XA CN201910294018A CN110188239A CN 110188239 A CN110188239 A CN 110188239A CN 201910294018 A CN201910294018 A CN 201910294018A CN 110188239 A CN110188239 A CN 110188239A
- Authority
- CN
- China
- Prior art keywords
- branch
- rgb
- light stream
- cross
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于跨模态注意力机制的双流视频分类方法和装置。与传统的双流方法不同,本发明在预测结果之前就将两个模态(甚至更多模态)的信息进行了融合,因此能够更加高效充分,同时,由于在较早阶段就进行了信息交互,单个分支在后阶段已经具有了另一分支的重要信息,单分支的精度已经与传统双流方法持平甚至超过,单分支的参数量要比传统双流方法少很多;相比非局部神经网络,本发明设计的注意力模块能够跨模态,而不仅仅只在单模态内部使用注意力机制,本发明提出的方法在两个模态相同的情况下其效果等价于非局部神经网络。
Description
技术领域
本发明涉及一种视频分类的方法,尤其涉及一种使用注意力机制的双流视频分类方法和装置,属于计算机视觉领域。
技术背景
随着深度学习在图像领域的飞速发展,视频领域也逐渐引入深度学习方法并取得了一定成就。但现在的技术水平还远未达到理想效果,面临的问题主要有以下两方面:
第一,当前的技术还未能充分利用动态信息。视频与图像所不同的地方在于,帧与帧之间的动态信息对视频来说是独特而且十分重要的。比如,即使对于人类来说,只看一帧图像是难以判断各种细分类的舞蹈(比如探戈和萨尔萨舞),而如果加入了动作轨迹信息,那么这一任务将会变得容易很多。同样地,在一些体育运动的分类也是依赖于动作轨迹。
第二,当前的技术还很难迅速准确定位到关键物体上。注意力机制在自然语言处理中已经有广泛应用,但在视频分类中的研究还比较缺乏。通过注意力机制,神经网络能够过滤掉无关物体而更加关注关键物体。比如“舞剑”这一类别,如果检测到关键物体“剑”,那么分类就变得简单了。通常情况下,移动物体更能够吸引人类的目光,而该区域也往往蕴含着视频分类的关键信息,比如“做蛋糕”与“做披萨”两类,关键物体“蛋糕”或“披萨”正是位于移动的双手附近。
有很多现有技术在不断尝试解决上述两种问题。关于如何利用动态信息,当前的技术主要有两种:一种是设计与时间维度相关的神经网络结构,比如循环神经网络(RNN)、三维卷积神经网络(3D-Conv)等,通过数据驱动的方式来训练一个能够捕捉到帧与帧之间信息的网络结构;另一种是显式地利用动态信息,即先抽取光流,之后利用这些光流单独训练一个神经网络分支,与RGB分支的结果进行加权求和,这也就是目前使用比较广泛的双流视频分类技术。而关于如何捕捉关键线索,即将注意力机制引入到视频分类中去,其研究相对较少,比较有代表性的便是非局部神经网络(Non-local Neural Networks),但该网络只能关注到单模态内部的重要信息,对于“移动物体”没有特殊的建模方式。
发明内容
本发明主要提出一种新颖的基于跨模态注意力机制的双流视频分类方法,能够高效地利用多模态信息进行视频分类,并且能关注到移动的物体上,使视频分类变得更加简单高效。本发明提出的技术具有通用性,可以广泛用于现有的视频分类问题甚至是其他多模态模型。
本发明具体要解决的技术问题包括:1.充分利用多模态信息进行视频分类;2.更加关注关键物体,使视频分类更加准确;3.使用更少的参数达到更高的精度。
与传统的双流方法不同,本发明在预测结果之前就将两个模态(甚至更多模态,比如提取的声音以及使用物体检测模型提取的中间特征图等)的信息进行了融合,因此能够更加高效充分,同时,由于在较早阶段就进行了信息交互,单个分支在后阶段已经具有了另一分支的重要信息,单分支的精度已经与传统双流方法持平甚至超过,单分支的参数量要比传统双流方法少很多;相比非局部神经网络,本发明设计的注意力模块能够跨模态,而不仅仅只在单模态内部使用注意力机制,本发明提出的方法在两个模态相同的情况下其效果等价于非局部神经网络。
本发明的一种基于跨模态注意力机制的双流视频分类方法,包括以下步骤:
1)建立RGB分支与光流分支的神经网络结构,其中包含跨模态注意力模块;
2)根据待分类视频得到RGB与光流,将其分别输入RGB分支与光流分支的神经网络结构中;
3)对于输入的RGB与光流,RGB分支与光流分支的神经网络结构通过跨模态注意力模块进行信息交互,实现跨模态的信息融合;
4)根据RGB分支与光流分支的神经网络结构得到的信息融合后的结果进行视频分类。
本方法设计的跨模态注意力机制(跨模态注意力模块)主要由三部分组成:关键值(Key)、查询(Query)和数值(Value)。其中,关键值是指所有信息的索引,查询是指查询信息的索引,数值是指所有信息。跨模态的注意力机制可以描述为:从当前模态中生成查询,从另一个模态中生成关键值-数值匹配对,根据查询与关键值的相似程度来从另一个模态中获取重要信息。因此,跨模态的注意力机制实际上是一种根据当前模态从另一模态中选择性获取信息的过程,获取的信息往往是在当前模态中比较微弱甚至是缺失的但对最终结果是非常重要的。
图1是一个跨模态注意力机制的实现例子。X和Y表示输入,分别来自RGB分支和光流分支。Q(查询)、K(字典)和V(数值)是X或Y通过1x1卷积生成,其形状大小在图中已经标注,在矩阵相乘之前进行矩阵转置、变形等操作使其可以进行矩阵乘法运算。Q与K相乘,得到M,表示每一个像素在整张特征图上的注意力权重分布,得到该分布M后,将M与V相乘,即从V中有选择性地获取信息Z,得到Z后进行非线性变换(比如采用ReLU等激活函数),将变换后的结果与原始输入进行残差连接,得到最终输出结果(Output)。
通过这种操作方式,在当前的网络阶段,RGB分支能够遍历光流分支的所有位置。因此,RGB分支能够综合光流分支的所有信息进而能够有选择性地选取重要信息与当前信息进行融合,而不仅仅是在最后阶段进行加权求和(普通双流方法)。同时,由于该操作的输入与输出的形状是完全一致的而且能够处理任意形状的输入,该操作具有很好的兼容性,能够插入到几乎所有网络的任何阶段,这样也能充分利用多尺度信息。为了进一步提升其兼容性,为其加入了残差连接,即在上述操作的结果上与操作前的输入直接相加,这样在理论上就能保证加入跨模态注意力模块的模型不会比原始模型精度低。
图2是本发明设计的网络结构,该网络结构基于双流模型,加入了跨模态注意力模块。该模型的两个分支分别是RGB分支与Flow分支,分别负责处理图像的表面特征与动态信息。其具体流程如下:
Step1:初始网络参数。该网络的参数是以在ImageNet数据集上预训练的模型为初始值,之后再在kinetics数据集上进行训练,直到收敛。
Step2:数据处理。该网络的输入需要RGB与光流两种输入,对于RGB,是直接从原始视频中截取帧,之后缩放到指定分辨率(224x224);对于光流,是采用相邻两帧的RGB图像通过OpenCV中GPU版本的TVL1光流算法抽取的,连续若干帧(如连续五帧)光流堆叠在一起作为Flow分支的输入,其分辨率与RGB的分辨率一致;
Step3:得到数据后,将RGB与光流分别输入到两个分支中,在运行过程中,两个分支通过跨模态注意力模块(即图1中所示的结构,在图2中用CMA1~CMAn来表示)进行信息交互,从而达到多层次充分利用多模态信息的作用。
Step4:两个分支最终会得到两个结果,两个结果也可以像普通双流方法一样进行加权求和。由于该模型能够在较早的阶段进行信息融合,因此,只采用RGB分支的结果进行视频分类也能达到甚至超过普通双流模型中两个分支同时预测的精度,而此时光流分支并不需要进行后面的运算(在图2中用虚线表示),也节省了大量参数,因此该模型是十分高效的。另外,如果同时采用该模型两个分支结果进行预测精度会进一步提升。
基于同一发明构思,本发明还提供一种与上面方法对应的基于跨模态注意力机制的双流视频分类装置,其包括:
网络构建模块,负责建立RGB分支与光流分支的神经网络结构,其中包含跨模态注意力模块;
数据处理模块,负责根据待分类视频得到RGB与光流,将其分别输入RGB分支与光流分支的神经网络结构中;
信息融合模块,负责对于输入的RGB与光流,RGB分支与光流分支的神经网络结构通过跨模态注意力模块进行信息交互,实现跨模态的信息融合;
视频分类模块,负责根据RGB分支与光流分支的神经网络结构得到的信息融合后的结果进行视频分类。
与现有技术相比,本发明的优点:
(1)增加了多模态的信息交互,能够多层次充分利用多模态信息;
(2)通过跨模态注意力机制使两个模态能够有选择性地选择对方的信息,从而达到高效利用互补信息,更为准确地捕捉到关键物体;
(3)能够用更少的参数量达到甚至超过传统双流方法的精度,同时也可以综合两个分支的结果进行预测,其分类精度会进一步提升;
(4)本发明设计的跨模态注意力模块具有很好的兼容性,与大多数现有技术均不冲突,几乎可以插入到任何现有的网络架构中去,能够稳定提升视频分类精度。
附图说明
图1为跨模态注意力模块示例图;
图2为本发明提出的视频分类网络结构图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面通过具体实施例和附图,对本发明做进一步详细说明。
1、跨模态注意力模块的配置
跨模态注意力模块能够处理任意维度的输入,且能够保证输入与输出的形状一致,因此具有极好的兼容性。以2维的配置为例,Q、K、V分别通过1x1的2维卷积操作得到(对于3维模型,这里的卷积是1x1x1的3维卷积操作),为了降低计算复杂度以及节省GPU空间,上述卷积操作在获得Q、K、V的同时在通道维度进行了降维操作。为了进一步简化运算,可以在卷积操作之前先经过一次最大化池化(max-pooling)操作,在空间维度降低到原来的1/4。得到Z后,需要再经过一次卷积操作将维度升到与输入维度一致,之后再经过一次BatchNormalization(BN,批标准化),将BN的参数全都初始化为零,这样就使该模块的初始状态对之前网络的运算结果无任何影响。
2、网络的配置
两个分支均以ResNet-50为基础网络。在节省GPU显存的情况下为了尽可能利用多尺度、更精确的空间信息,在res3和res4两个阶段均匀插入了5个(也可以是其它数目)跨模态注意力模块,这一配置与非局部神经网络也是一致的。RGB分支只输入一帧图像,而光流分支输入的是连续五帧光流图像。RGB分支的权重是直接以ImageNet pretrained的参数为初始化,而光流分支,由于其输入的形状与在ImageNet上训练模型的输入形状不同,需要进行适当改动,这里将第一层卷积网络的卷积核参数在通道维度上取平均,之后将该平均值复制五次得到五通道的卷积核,其它层的参数可以直接复制过来,这样就能很好地将在ImageNet上训练的参数迁移过来。
网络是基于时序分段网络框架(Temporal Segment Networks,TSN),因为该框架能够简单高效地建模长序列关系。将整个视频平均分成m段,每一段随机选取一帧作为网络的输入,这样便会得到m个结果,而最终的视频预测结果是基于这m个结果的平均值。
3、数据处理
原始视频数据分辨率并不完全一致。将其统一缩放至256x256分辨率大小。使用OpenCV中的GPU版本TVL1算法抽取光流,将其结果在[-20,20]处截断,然后缩放到[-1,1]之间。还进行了数据增强,比如随机裁剪、缩放、镜像处理等,需要注意的是,两个分支对于同一输入的数据增强是一致的,比如,如果对RGB图像的左上角进行了裁剪,那么对光流的左上角同一位置也进行裁剪。在时间维度上,RGB图像对应连续五帧光流的第一帧光流。
4、网络的训练
由于通常情况下光流分支的收敛速度比RGB分支的收敛速度慢,因此,首先在kinetics数据集上训练了光流分支,这样也有有助于光流分支为RGB分支提供更准确的信息。之后,开始迭代训练,即RGB分支与光流分支交替优化。在训练RGB分支的过程中,冻结光流分支的所有参数,包括光流分支中的跨模态注意力模块,只更新RGB分支的参数,训练光流分支时反之。每次迭代的训练次数不超过30个epoch。实践发现,对于刚训练完的分支,其精度往往要高于另一个分支,因此对于两个分支结果的加权权重,给更高精度分支赋予更高权重(5:1),这样会得到较高的精度。通常情况下,迭代一次便能达到很高的精度。
训练过程中,采用了标准的交叉熵损失函数以及随机梯度下降优化方法。batch大小为128,训练过程中也同时更新BN参数,为了获得更准确的BN统计量,采用了同步BN。学习率初始化为0.01,当训练准确率到达一个平稳阶段时,学习率降低为当前学习率的十分之一。为了防止过拟合,加入了dropout=0.7与weight decay=0.0005.训练过程中的K设为3.
测试过程中,裁剪出图像的四个角以及中心位置并进行反转,这样便得到了10个样本,将这10个样本输入到网络中便会得到10个结果,对这10个结果进行平均便是最终的视频分类结果。TSN中的K设为25。
5、迁移学习
本发明提出的网络结构是基于kinetics进行训练的,kinetics具有400类,其他数据集,比如ucf101,只有101类,且这101类与kinetics 400类中有重叠部分也有非重叠部分。为了将该模型迁移到新的视频分类上,只需要在新的数据集上对最后一层全连接层进行微调即可,这样便能达到很好的效果。对于其他数据集也可以采用类似方法,该模型具有较好的迁移能力。
ResNet50是不加跨模态注意力模块的模型,CMA-ResNet50是在此基础上加了该模块的模型。-R表示RGB分支,-S表示RGB分支与光流分支的融合。下面表1是以ResNet50为主干网络的实验:
表1.以ResNet50为主干网络的实验结果
模型 | 准确率(%) |
ResNet50-R | 67.73 |
ResNet50-S | 71.21 |
CMA-ResNet50-R | 72.17 |
CMA-ResNet50-S | 72.62 |
P3D是一个3维卷积神经网络模型,CMA-P3D是在此基础上加了3维跨模态注意力模块的模型。下面表2是以P3D为主干网络的实验:
表2.以P3D为主干网络的实验结果
模型 | 准确率(%) |
P3D-R | 71.50 |
P3D-S | 74.62 |
CMA-P3D-R | 74.86 |
CMA-P3D-S | 75.98 |
从上面两张表中可以看出,无论是二维还是三维的跨模态注意力模块,均能稳定提升精度,而且加了该模块的RGB分支比对比实验中的双流模型(ResNet50-S/P3D-S)精度都要高,加了该模块的双流模型精度会进一步提升。
本发明另一实施例提供一种基于跨模态注意力机制的双流视频分类装置,其包括:
网络构建模块,负责建立RGB分支与光流分支的神经网络结构,其中包含跨模态注意力模块;
数据处理模块,负责根据待分类视频得到RGB与光流,将其分别输入RGB分支与光流分支的神经网络结构中;
信息融合模块,负责对于输入的RGB与光流,RGB分支与光流分支的神经网络结构通过跨模态注意力模块进行信息交互,实现跨模态的信息融合;
视频分类模块,负责根据RGB分支与光流分支的神经网络结构得到的信息融合后的结果进行视频分类。
本发明不局限于ResNet-50神经网络,可以应用于各种神经网络(比如VGG、DenseNet、SENet等),也可以应用于3D神经网络(如I3D、P3D等)。同时,跨模态注意力模块内部的操作也不局限于上文中所描述的实现方式,比如生成关键值/查询/数值的过程中,可以用更复杂的操作来代替1x1卷积操作(比如叠加多层卷积操作),在得到Z后也可以进行更加复杂的操作(同样可以采用更多层的卷积操作)。对于与主分支的合并方式,上文采用的是残差连接,也可以采用其他方式,比如与主分支的特征进行拼接等。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的原理和范围,本发明的保护范围应以权利要求书所述为准。
Claims (10)
1.一种基于跨模态注意力机制的双流视频分类方法,其特征在于,包括以下步骤:
1)建立RGB分支与光流分支的神经网络结构,其中包含跨模态注意力模块;
2)根据待分类视频得到RGB与光流,将其分别输入RGB分支与光流分支的神经网络结构中;
3)对于输入的RGB与光流,RGB分支与光流分支的神经网络结构通过跨模态注意力模块进行信息交互,实现跨模态的信息融合;
4)根据RGB分支与光流分支的神经网络结构得到的信息融合后的结果进行视频分类。
2.根据权利要求1所述的方法,其特征在于,所述跨模态注意力模块包含关键值、查询和数值,从当前模态中生成查询,从另一个模态中生成关键值-数值匹配对,根据查询与关键值的相似程度来从另一个模态中获取重要信息。
3.根据权利要求2所述的方法,其特征在于,所述跨模态注意力模块为:X和Y表示输入,分别来自RGB分支和光流分支,查询Q、字典K和数值V是X或Y通过1x1卷积生成;Q与K相乘得到M,表示每一个像素在整张特征图上的注意力权重分布;将M与V相乘,即从V中有选择性地获取信息Z,得到Z后进行非线性变换,将变换后的结果与原始输入进行残差连接,得到最终结果。
4.根据权利要求3所述的方法,其特征在于,所述跨模态注意力模块在通过卷积操作获得Q、K、V的同时在通道维度进行降维操作,以降低计算复杂度以及节省GPU空间;在卷积操作之前先经过一次最大化池化操作以简化运算,得到Z后再经过一次卷积操作将维度升到与输入维度一致,之后再经过一次BN,将BN的参数全都初始化为零。
5.根据权利要求1所述的方法,其特征在于,所述根据待分类视频得到RGB与光流,包括:
a)对于RGB,直接从原始的待分类视频中截取帧,之后缩放到指定分辨率,作为RGB分支的神经网络结构的输入;
b)对于光流,采用相邻两帧的RGB图像通过光流算法抽取,连续若干帧光流堆叠在一起作为光流分支的神经网络结构的输入,其分辨率与RGB的分辨率一致。
6.根据权利要求1所述的方法,其特征在于,步骤4)采用以下方式之一进行视频分类:
a)只采用RGB分支的结果进行视频分类;
b)通过将两个分支得到的两个结果进行加权求和来进行视频分类。
7.根据权利要求1所述的方法,其特征在于,所述RGB分支与光流分支的神经网络结构均以ResNet-50为基础网络,在res3和res4两个阶段均匀插入若干个跨模态注意力模块;采用时序分段网络框架,将整个视频平均分成m段,每一段随机选取一帧作为网络的输入,这样便会得到m个结果,而最终的视频预测结果是基于这m个结果的平均值。
8.根据权利要求1所述的方法,其特征在于,所述RGB分支与光流分支的神经网络结构的训练过程包括:首先训练光流分支,之后开始迭代训练即RGB分支与光流分支交替优化;在训练RGB分支的过程中冻结光流分支的所有参数,包括光流分支中的跨模态注意力模块,只更新RGB分支的参数,训练光流分支时反之;对于两个分支结果的加权权重,给更高精度的分支赋予更高权重;训练过程中采用标准的交叉熵损失函数以及随机梯度下降优化方法。
9.根据权利要求1所述的方法,其特征在于,所述RGB分支与光流分支的神经网络结构通过对最后一层全连接层进行微调而迁移到新的数据集上,实现迁移学习。
10.一种基于跨模态注意力机制的双流视频分类装置,其特征在于,包括:
网络构建模块,负责建立RGB分支与光流分支的神经网络结构,其中包含跨模态注意力模块;
数据处理模块,负责根据待分类视频得到RGB与光流,将其分别输入RGB分支与光流分支的神经网络结构中;
信息融合模块,负责对于输入的RGB与光流,RGB分支与光流分支的神经网络结构通过跨模态注意力模块进行信息交互,实现跨模态的信息融合;
视频分类模块,负责根据RGB分支与光流分支的神经网络结构得到的信息融合后的结果进行视频分类。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2018116019716 | 2018-12-26 | ||
CN201811601971 | 2018-12-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110188239A true CN110188239A (zh) | 2019-08-30 |
CN110188239B CN110188239B (zh) | 2021-06-22 |
Family
ID=67714102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910294018.XA Active CN110188239B (zh) | 2018-12-26 | 2019-04-12 | 一种基于跨模态注意力机制的双流视频分类方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110188239B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852273A (zh) * | 2019-11-12 | 2020-02-28 | 重庆大学 | 一种基于强化学习注意力机制的行为识别方法 |
CN111104553A (zh) * | 2020-01-07 | 2020-05-05 | 中国科学院自动化研究所 | 一种高效运动互补神经网络系统 |
CN111160452A (zh) * | 2019-12-25 | 2020-05-15 | 北京中科研究院 | 一种基于预训练语言模型的多模态网络谣言检测方法 |
CN111325155A (zh) * | 2020-02-21 | 2020-06-23 | 重庆邮电大学 | 基于残差式3d cnn和多模态特征融合策略的视频动作识别方法 |
CN111428699A (zh) * | 2020-06-10 | 2020-07-17 | 南京理工大学 | 伪3d卷积神经网络与注意力机制结合的驾驶疲劳检测方法及系统 |
CN111476131A (zh) * | 2020-03-30 | 2020-07-31 | 北京微播易科技股份有限公司 | 一种视频处理方法和装置 |
CN111709304A (zh) * | 2020-05-21 | 2020-09-25 | 江南大学 | 一种基于时空注意力增强特征融合网络的行为识别方法 |
CN111709306A (zh) * | 2020-05-22 | 2020-09-25 | 江南大学 | 一种基于多层次时空特征融合增强的双流网络行为识别方法 |
CN111723239A (zh) * | 2020-05-11 | 2020-09-29 | 华中科技大学 | 一种基于多模态的视频标注方法 |
CN111931713A (zh) * | 2020-09-21 | 2020-11-13 | 成都睿沿科技有限公司 | 一种异常行为检测方法、装置、电子设备及存储介质 |
CN112489092A (zh) * | 2020-12-09 | 2021-03-12 | 浙江中控技术股份有限公司 | 细粒度工业运动模态分类方法、存储介质、设备和装置 |
CN112650886A (zh) * | 2020-12-28 | 2021-04-13 | 电子科技大学 | 基于跨模态动态卷积网络的跨模态视频时刻检索方法 |
CN112949433A (zh) * | 2021-02-18 | 2021-06-11 | 北京百度网讯科技有限公司 | 视频分类模型的生成方法、装置、设备和存储介质 |
CN113657425A (zh) * | 2021-06-28 | 2021-11-16 | 华南师范大学 | 基于多尺度与跨模态注意力机制的多标签图像分类方法 |
WO2022104618A1 (en) * | 2020-11-19 | 2022-05-27 | Intel Corporation | Bidirectional compact deep fusion networks for multimodality visual analysis applications |
CN115393779A (zh) * | 2022-10-31 | 2022-11-25 | 济宁九德半导体科技有限公司 | 用于激光熔覆金属球制造的控制系统及其控制方法 |
CN116776157A (zh) * | 2023-08-17 | 2023-09-19 | 鹏城实验室 | 支持模态增加的模型学习方法及其装置 |
CN117422704A (zh) * | 2023-11-23 | 2024-01-19 | 南华大学附属第一医院 | 一种基于多模态数据的癌症预测方法、系统及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273800A (zh) * | 2017-05-17 | 2017-10-20 | 大连理工大学 | 一种基于注意机制的卷积递归神经网络的动作识别方法 |
CN107609460A (zh) * | 2017-05-24 | 2018-01-19 | 南京邮电大学 | 一种融合时空双重网络流和attention机制的人体行为识别方法 |
CN108388900A (zh) * | 2018-02-05 | 2018-08-10 | 华南理工大学 | 基于多特征融合和时空注意力机制相结合的视频描述方法 |
CN108681695A (zh) * | 2018-04-26 | 2018-10-19 | 北京市商汤科技开发有限公司 | 视频动作识别方法及装置、电子设备和存储介质 |
CN109034001A (zh) * | 2018-07-04 | 2018-12-18 | 安徽大学 | 一种基于时空线索的跨模态视频显著性检测方法 |
-
2019
- 2019-04-12 CN CN201910294018.XA patent/CN110188239B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273800A (zh) * | 2017-05-17 | 2017-10-20 | 大连理工大学 | 一种基于注意机制的卷积递归神经网络的动作识别方法 |
CN107609460A (zh) * | 2017-05-24 | 2018-01-19 | 南京邮电大学 | 一种融合时空双重网络流和attention机制的人体行为识别方法 |
CN108388900A (zh) * | 2018-02-05 | 2018-08-10 | 华南理工大学 | 基于多特征融合和时空注意力机制相结合的视频描述方法 |
CN108681695A (zh) * | 2018-04-26 | 2018-10-19 | 北京市商汤科技开发有限公司 | 视频动作识别方法及装置、电子设备和存储介质 |
CN109034001A (zh) * | 2018-07-04 | 2018-12-18 | 安徽大学 | 一种基于时空线索的跨模态视频显著性检测方法 |
Non-Patent Citations (4)
Title |
---|
XIAOLONG WANG: "Non-local Neural Networks", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
孙逊之等: "基于多模态融合的RGB-D物体识别", 《电脑知识与技术》 * |
杨文瀚: "基于多流三维卷积神经网络的手势识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
王云峰: "基于深度学习的视频人体动作识别", 《万方学术期刊数据库》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852273A (zh) * | 2019-11-12 | 2020-02-28 | 重庆大学 | 一种基于强化学习注意力机制的行为识别方法 |
CN110852273B (zh) * | 2019-11-12 | 2023-05-16 | 重庆大学 | 一种基于强化学习注意力机制的行为识别方法 |
CN111160452A (zh) * | 2019-12-25 | 2020-05-15 | 北京中科研究院 | 一种基于预训练语言模型的多模态网络谣言检测方法 |
CN111104553A (zh) * | 2020-01-07 | 2020-05-05 | 中国科学院自动化研究所 | 一种高效运动互补神经网络系统 |
CN111104553B (zh) * | 2020-01-07 | 2023-12-12 | 中国科学院自动化研究所 | 一种高效运动互补神经网络系统 |
CN111325155A (zh) * | 2020-02-21 | 2020-06-23 | 重庆邮电大学 | 基于残差式3d cnn和多模态特征融合策略的视频动作识别方法 |
CN111325155B (zh) * | 2020-02-21 | 2022-09-23 | 重庆邮电大学 | 基于残差式3d cnn和多模态特征融合策略的视频动作识别方法 |
CN111476131B (zh) * | 2020-03-30 | 2021-06-11 | 北京微播易科技股份有限公司 | 一种视频处理方法和装置 |
CN111476131A (zh) * | 2020-03-30 | 2020-07-31 | 北京微播易科技股份有限公司 | 一种视频处理方法和装置 |
CN111723239B (zh) * | 2020-05-11 | 2023-06-16 | 华中科技大学 | 一种基于多模态的视频标注方法 |
CN111723239A (zh) * | 2020-05-11 | 2020-09-29 | 华中科技大学 | 一种基于多模态的视频标注方法 |
CN111709304B (zh) * | 2020-05-21 | 2023-05-05 | 江南大学 | 一种基于时空注意力增强特征融合网络的行为识别方法 |
CN111709304A (zh) * | 2020-05-21 | 2020-09-25 | 江南大学 | 一种基于时空注意力增强特征融合网络的行为识别方法 |
CN111709306A (zh) * | 2020-05-22 | 2020-09-25 | 江南大学 | 一种基于多层次时空特征融合增强的双流网络行为识别方法 |
CN111428699A (zh) * | 2020-06-10 | 2020-07-17 | 南京理工大学 | 伪3d卷积神经网络与注意力机制结合的驾驶疲劳检测方法及系统 |
CN111931713A (zh) * | 2020-09-21 | 2020-11-13 | 成都睿沿科技有限公司 | 一种异常行为检测方法、装置、电子设备及存储介质 |
CN111931713B (zh) * | 2020-09-21 | 2021-01-29 | 成都睿沿科技有限公司 | 一种异常行为检测方法、装置、电子设备及存储介质 |
WO2022104618A1 (en) * | 2020-11-19 | 2022-05-27 | Intel Corporation | Bidirectional compact deep fusion networks for multimodality visual analysis applications |
CN112489092A (zh) * | 2020-12-09 | 2021-03-12 | 浙江中控技术股份有限公司 | 细粒度工业运动模态分类方法、存储介质、设备和装置 |
CN112489092B (zh) * | 2020-12-09 | 2023-10-31 | 浙江中控技术股份有限公司 | 细粒度工业运动模态分类方法、存储介质、设备和装置 |
CN112650886B (zh) * | 2020-12-28 | 2022-08-02 | 电子科技大学 | 基于跨模态动态卷积网络的跨模态视频时刻检索方法 |
CN112650886A (zh) * | 2020-12-28 | 2021-04-13 | 电子科技大学 | 基于跨模态动态卷积网络的跨模态视频时刻检索方法 |
CN112949433A (zh) * | 2021-02-18 | 2021-06-11 | 北京百度网讯科技有限公司 | 视频分类模型的生成方法、装置、设备和存储介质 |
CN113657425B (zh) * | 2021-06-28 | 2023-07-04 | 华南师范大学 | 基于多尺度与跨模态注意力机制的多标签图像分类方法 |
CN113657425A (zh) * | 2021-06-28 | 2021-11-16 | 华南师范大学 | 基于多尺度与跨模态注意力机制的多标签图像分类方法 |
CN115393779A (zh) * | 2022-10-31 | 2022-11-25 | 济宁九德半导体科技有限公司 | 用于激光熔覆金属球制造的控制系统及其控制方法 |
CN116776157A (zh) * | 2023-08-17 | 2023-09-19 | 鹏城实验室 | 支持模态增加的模型学习方法及其装置 |
CN116776157B (zh) * | 2023-08-17 | 2023-12-12 | 鹏城实验室 | 支持模态增加的模型学习方法及其装置 |
CN117422704A (zh) * | 2023-11-23 | 2024-01-19 | 南华大学附属第一医院 | 一种基于多模态数据的癌症预测方法、系统及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110188239B (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188239A (zh) | 一种基于跨模态注意力机制的双流视频分类方法和装置 | |
Fang et al. | Densely nested top-down flows for salient object detection | |
Nguyen et al. | Yolo based real-time human detection for smart video surveillance at the edge | |
Du et al. | Skeleton based action recognition with convolutional neural network | |
WO2020108362A1 (zh) | 人体姿态检测方法、装置、设备及存储介质 | |
CN112434608B (zh) | 一种基于双流结合网络的人体行为识别方法及系统 | |
CN106909938B (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
Xu et al. | Refined marine object detector with attention-based spatial pyramid pooling networks and bidirectional feature fusion strategy | |
CN110826462A (zh) | 一种非局部双流卷积神经网络模型的人体行为识别方法 | |
CN110008961A (zh) | 文字实时识别方法、装置、计算机设备及存储介质 | |
Bhattacharya et al. | Interleaved deep artifacts-aware attention mechanism for concrete structural defect classification | |
CN112288699A (zh) | 图像相对清晰度的评估方法、装置、设备和介质 | |
CN109657634A (zh) | 一种基于深度卷积神经网络的3d手势识别方法及系统 | |
Sudhakaran et al. | Gate-shift-fuse for video action recognition | |
Yang et al. | [Retracted] A Method of Image Semantic Segmentation Based on PSPNet | |
CN113887501A (zh) | 行为识别方法、装置、存储介质及电子设备 | |
CN117557779A (zh) | 一种基于yolo的多尺度目标检测方法 | |
CN117392753A (zh) | 融合非均匀采样与特征强化的人体不文明行为检测方法 | |
Liu et al. | Student behavior recognition from heterogeneous view perception in class based on 3-D multiscale residual dense network for the analysis of case teaching | |
Aliakbarian et al. | Deep action-and context-aware sequence learning for activity recognition and anticipation | |
Peng et al. | Motion boundary emphasised optical flow method for human action recognition | |
Wu et al. | Spatial–temporal hypergraph based on dual-stage attention network for multi-view data lightweight action recognition | |
Wei et al. | Lightweight multimodal feature graph convolutional network for dangerous driving behavior detection | |
Liu et al. | Multi-stream with deep convolutional neural networks for human action recognition in videos | |
Zhang et al. | Video action recognition with Key-detail Motion Capturing based on motion spectrum analysis and multiscale feature fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |