[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN111061915B - 视频人物关系识别方法 - Google Patents

视频人物关系识别方法 Download PDF

Info

Publication number
CN111061915B
CN111061915B CN201911301387.3A CN201911301387A CN111061915B CN 111061915 B CN111061915 B CN 111061915B CN 201911301387 A CN201911301387 A CN 201911301387A CN 111061915 B CN111061915 B CN 111061915B
Authority
CN
China
Prior art keywords
features
video
segment
target
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911301387.3A
Other languages
English (en)
Other versions
CN111061915A (zh
Inventor
徐童
陈恩红
何向南
周培伦
胡林康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN201911301387.3A priority Critical patent/CN111061915B/zh
Publication of CN111061915A publication Critical patent/CN111061915A/zh
Application granted granted Critical
Publication of CN111061915B publication Critical patent/CN111061915B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种视频人物关系识别方法,结合视觉信息以及丰富的文本信息,能够准确的的识别视频中任务之间的社交关系;在电影数据集上进行了人物社交关系的识别验证,结果表明该方案在客观评价指标上取得了突出的效果。

Description

视频人物关系识别方法
技术领域
本发明涉及计算机视觉和自然语言处理领域,尤其涉及一种视频人物关系识别方法。
背景技术
视频中人物的社交关系是视频理解的重要课题,它既可以帮助观众更好地理解视频内涵,也将支撑许多视频相关的应用,如视频标注、视频检索和视觉问答等。传统的方法主要分析可由视觉内容直接体现的空间或动作关系等,很少涉及到更高层的语义信息,如视频中人物之间的社交关系。
与此同时,现有的视频分析工作主要针对人工剪裁的富含语义的图片或短视频,但是在现实场景的长视频中,往往却包含着大量与人物关系无关的信息,不仅场景和人物频繁切换,社交关系的呈现方式也更为复杂。因此,现有技术往往难以取得令人满意的效果。
发明内容
本发明的目的是提供一种视频人物关系识别方法,可以精确地识别出人物之间社交关系的类别。
本发明的目的是通过以下技术方案实现的:
一种视频人物关系识别方法,包括:
对原始视频数据进行等间距采样,得到一个由视频帧组成的序列;并对与原始视频数据相关的文本进行预处理,得到与视频帧序列相对应的文本信息;
建立识别模型,包含三个模块:人物搜索模块,对每一人工标记的目标人物,均通过重识别方法从视频帧序列中识别出目标人物出现的片段;多模态嵌入模块,通过多流的网络,提取每一目标人物出现的片段中每一视频帧及对应文本信息的视觉特征和文本特征,并结合注意力机制,得到相应片段的多模态表征;关系分类模块,利用社交关系分类器根据每一片段的多模态表征,得到每一片段在所有社交关系类别上的概率分布;对于一对目标人物A与B,选出至少包含目标人物A或B的多个片段,并计算所选出片段的概率分布的均值,作为一对目标人物的社交关系概率分布,将其中概率最大的一项所对应的社交关系作为识别的结果。
由上述本发明提供的技术方案可以看出,结合视觉信息以及丰富的文本信息,能够准确的的识别视频中任务之间的社交关系;在电影数据集上进行了人物社交关系的识别验证,结果表明该方案在客观评价指标上取得了突出的效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种视频人物关系识别方法的框架图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
现有技术所存在的技术缺陷的主要问题就在于语义标注的缺失,而正是这一环节依赖大量的人工标注,因此导致了极高的成本。与此同时,也注意到,随着社交媒体平台的发展,视频往往会吸引到大量的众包评论,这些评论不仅可以提供主观的描述,而且往往包含时间戳信息,因此可以与视频中的帧直接对应。显然,这些文本信息为识别人物社交关系提供了新的线索。然而,众包文本包含着大量的无关甚至噪声信息,需要在视频与文本信息有效对齐的基础之上进行筛选和表征,才能够更好地支撑本发明的任务。
如图1所示,为本发明实施例提供的一种视频人物关系识别方法的框架,其主要包括:
1、数据的预处理。
本发明实施例中,将完整视频作为输入,对原始视频数据进行等间距采样,得到一个由视频帧组成的序列;并对与原始视频数据相关的文本进行预处理,得到与视频帧序列相对应的文本信息。
示例性的,可以以1帧/秒的采样频率进行采样得到由视频帧组成的序列。
对文本进行预处理包括:对众包评论文本信息,通过正则规则进行过滤;对过滤后的众包评论文本信息进行时间轴校正。
示例性的,众包评论文本信息的噪声较高,为了过滤掉无关的文本,可以参考屏蔽词网站上提供的正则规则进行过滤。同时,考虑到众包评论发送具有一定的时间延迟,可以以30字/1分钟的打字速度对众包评论的发送时间做了矫正。
2、模型的建立。
本发明实施例中,建立的识别模型,包含三个模块:人物搜索模块、多模态嵌入模块以及关系分类模块。
1)人物搜索模块。
人物搜索模块,对每一人工标记的目标人物,均通过重识别方法从视频帧序列中识别出目标人物出现的片段;具体来说:
首先,基人物检测方法,逐帧地及无差别地定位出所有视频帧序列中出现的人物区域,保存相应的人物区域及对应的视频帧。示例性的,可以基于Faster R-CNN的人物检测方法来检测人物区域,对Faster R-CNN人物检测器使用VGG-16网络进行初始化,检测的置信度大于0.85的区域将被视为有人物出现的区域。
其次,对于每个目标人物,人工标记指定数目的包含目标人物的人物区域作为参照;采用重识别方法从保存的人物区域及中估计每个人物区域内相应目标人物出现的概率;示例性的,对于一对目标人物中的每个人物,都随机选取10张包含该人物的检测区域作为参照,并使用KPMM(克罗内克积匹配模型)来估计出每个由Faster R-CNN检测得到的检测区域内每个目标人物出现的概率,具体而言,所有的检测区域的分辨率都被归一化为256×128,先采用数据增广策略(在训练阶段,通过对于训练图像的横向翻转来进行训练数据的扩充)以增强该模型的泛化能力,再使用难例挖掘的策略(在训练过程的每个批次中,只有那些交叉熵损失大于0.05的样本才会进行反向传播以优化该模型的参数)来增强模型的效果。对于每一帧,只有出现概率最高的区域才会被记录下来。如果该帧中没有区域被检测到,则出现概率记为0。
如果某一视频帧中目标人物出现的概率高于设定的概率阈值,则保留相应视频帧;最终将所保留的视频帧聚合为相应目标人物出现的片段。
示例性的,通过重识别的方式估计目标人物出现的概率后,可以将潜在目标人物出现的帧都保存下来,构成潜在序列{<imgt,probt>},其中imgt和probt分别表示时刻t的潜在的目标人物出现帧和出现概率。为了增加表示的稳定性,我们先对于出现概率序列进行滑动平均操作。考虑到片段相比于单帧图像,包含更多且更完整的信息以助益于关系的识别,我们通过一个全局阈值(也即前文提到的概率阈值)θ=0.70筛选相应的视频帧,因为相邻帧的出现概率都经过了滑动平均处理,按照全局阈值筛选也就得到了目标人物的出现片段。之后,删去过短的片段或分割过长的片段,把所有片段长度控制在(6,15)的长度范围内,以使得每一个片段都包含有充足且精简的信息量。
通过上述人物搜索模块,对于每一个目标人物都能够,单独识别出对应的片段。
2)多模态嵌入模块。
多模态嵌入模块,通过多流的网络,提取每一目标人物出现的片段中每一视频帧及对应文本信息的视觉特征和文本特征,并结合注意力机制,得到相应片段的多模态表征。
a、对于片段中的每一帧,我们先使用一个多流的网络来分别提取出多个信息流的特征,具体来说:通过预训练的残差网络(例如,在ImageNet数据集上预训练得到的50层残差网络)从目标人物出现的片段中提取视觉特征:从出现概率最高的人物区域,以及由其余部分组成的背景区域中提取对应的特征;通过预训练的长短期记忆网络(例如,预先训练好的3层的长短期记忆网络)来从每一帧对应的文本信息中提取文本特征:字幕文本特征与众包评论文本特征。
本领域技术人员可以理解,字幕文本主要是指电影中人物的对话和旁白文本;众包评论文本主要是指用户在观看电影时发的弹幕评论文本,这两类文本特征都是指通过长短期记忆网络从相应的文本中抽取出的文本向量。
b、再通过特征融合操作将多流特征映射到同一个特征空间中,并建立起特征间的关联。具体来说:通过特征融合操作将上述视觉特征与文本特征映射到同一个特征空间中,并建立起特征间的关联,得到融合后的片段级别的特征。
示例性的,考虑到文本与视觉特征之间所具有的关联性,对以上4类特征,均通过全连接层将它们映射到64维的共享特征空间中来进行特征融合,通过每一帧的特征的拼接,得到了片段级别的多流特征fi∈Rn×64,i∈[1,2,3,4],分别表示从出现概率最高的人物区域提取到的特征、从由其余部分组成的背景区域提取到的特征、字幕文本特征、众包评论文本特征;n为片段中的视频帧数目。
通过损失函数来拉近文本特征与视觉特征的距离,通过软间隔m来放置过度拟合,损失函数为:
Figure BDA0002321884210000051
为了增加时间上的鲁棒性,对时间上相邻的特征进行高斯模糊:
Figure BDA0002321884210000052
其中,fi,t表示第t帧第i流特征,t=1,…,n;g(·)为期望为0,方差为1的高斯函数;k=[-2,2],[-2,2]表示时间窗口范围。
根据i和t的顺序将
Figure BDA0002321884210000053
拼接起来,得到融合后的片段级别的特征F。
c、利用注意力机制,对片段级别的特征进行整合,得到片段的多模态表征。
得到融合后的片段级别的特征F∈R4×n×64后,考虑到每一类的特征对于社交关系的识别的重要程度都是不同的,同时每一帧的重要程度也互不相同,所以我们又通过一个注意力机制来对特征F进行整合。具体来说,通过卷积(例如,1×1×64的卷积操作)、批量池化以及线性整流操作,得到能够反映片段中每一帧上每一流特征重要性的注意图a∈R4×n,从而通过特征重加权的方式进行特征整合:
Figure BDA0002321884210000054
将整合后的特征
Figure BDA0002321884210000055
通过一个卷积层以及批量池化层和平坦化操作,得到片段的多模态表征。
3)关系分类模块。
关系分类模块,利用社交关系分类器(依次连接的两个全连接层以及一个softmax层)根据每一片段的多模态表征,得到每一片段在所有社交关系类别上的概率分布;对于一对目标人物A与B,选出至少包含目标人物A或B的多个片段,并计算所选出片段的概率分布的均值,作为一对目标人物的社交关系概率分布,将其中概率最大的一项所对应的社交关系作为识别的结果。具体来说,社交关系分布将表示为一个N维的向量,分别对应于N类社交关系,其中概率最大的一项所对应的社交关系就作为模型识别的结果。
本发明实施例中,对于每一片段都预先计算出概率分布,此后,可以基于相关片段的概率分布来计算一对指定目标人物的社交关系。因为考虑到社交关系并非仅仅体现在两个目标人物共同出现的片段中,而哪怕只包含一个目标人物的片段也有可能对两个人物间的关系有揭示作用,所以会利用所有至少包含其中一个目标人物的片段来判断两个目标人物间的社交关系。比如说AB两个目标人物,对于两个至少包含A或B的片段S1和S2,S1在3个社交关系类别上的概率分布为[0.1,0.6,0.3],S2在3个社交类别上的概率分布为[0.3,0.5,0.2],则计算得到的均值就是[0.2,0.55,0.25],则AB的关系就是第二类社交关系。
此外,关于社交关系的各个类别可以根据情况预先定义,例如,朋友、同事等。
同时,考虑到上一步中得到的注意力图a可以反映每一帧上每一流的特征的重要性得分,所以利用在训练过程中得到的注意力图来增强测试过程的输入的人物出现片段的质量。具体来说,保存了在训练过程中产生的注意力图a以及其相应的视频帧,再在此基础上训练一个基于径向基函数的支持向量回归模型(SVR)以建立起从视频帧的文本特征到重要性得分的映射(考虑到文本特征对于社交关系更加敏感)。因此,该支持向量回归模型可以被看成是一个针对视频帧的过滤器。在此基础之上,只有那些由得分在前20%之内的视频帧组成的人物片段才参与到测试过程中,这样就确保了测试阶段的输入片段的质量。
注意力图本质上反映的是当前片段上的每一帧对于社交关系判断的重要性,所以上述操作只是将训练片段的注意力图作为SVR模型的标签,将训练片段本身作为SVR模型的训练数据,通过SVR模型来拟合从片段到注意力图的映射,这样训练得到的SVR模型就能够预先对测试片段去预测片段上每一帧的注意力(在社交关系判断上的重要性)
3、基于上述建立的模型,在训练阶段,利用包含已知不同目标人物的标签和不同目标人物之间的社交关系标签数据去训练识别模型,当识别模型训练完毕后,能够在视频中进行人物社交关系的识别。
对于每一对目标人物,为保证训练数据的质量,只有它们共同出现的片段才会参与到训练当中。在训练的过程中,使用随机梯度下降算法来优化交叉熵损失函数,距离损失函数Losspush以及L2正则化损失函数,使用的优化器是动量优化器(momentum optimizer)反向传播优化参数。每个批次的大小为4,初始学习率设置为0.0001,随着训练轮数指数级下降。
需要说明的是,上述实施例中所涉及的参数数值均为举例,并非构成限制;具体的参数数值可根据实际应用场景中的数据特点进行调整,此外,图1中所示的文本信息的内容也仅用于示意,并非限制。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (4)

1.一种视频人物关系识别方法,其特征在于,包括:
对原始视频数据进行等间距采样,得到一个由视频帧组成的序列;并对与原始视频数据相关的文本进行预处理,得到与视频帧序列相对应的文本信息;
建立识别模型,包含三个模块:人物搜索模块,对每一人工标记的目标人物,均通过重识别方法从视频帧序列中识别出目标人物出现的片段;多模态嵌入模块,通过多流的网络,提取每一目标人物出现的片段中每一视频帧及对应文本信息的视觉特征和文本特征,并结合注意力机制,得到相应片段的多模态表征;关系分类模块,利用社交关系分类器根据每一片段的多模态表征,得到每一片段在所有社交关系类别上的概率分布;对于一对目标人物A与B,选出至少包含目标人物A或B的多个片段,并计算所选出片段的概率分布的均值,作为一对目标人物的社交关系概率分布,将其中概率最大的一项所对应的社交关系作为识别的结果;
所述对每一人工标记的目标人物,均通过重识别方法从视频帧序列中识别出目标人物出现的片段包括:
基人物检测方法,逐帧地及无差别地定位出所有视频帧序列中出现的人物区域,保存相应的人物区域及对应的视频帧;
对于每个目标人物,人工标记指定数目的包含目标人物的人物区域作为参照,采用重识别方法从保存的人物区域及中估计每个人物区域内相应目标人物出现的概率,如果某一视频帧中目标人物出现的概率高于设定的概率阈值,则保留相应视频帧;最终将所保留的视频帧聚合为相应目标人物出现的片段;
得到片段的多模态表征的步骤包括:
通过预训练的残差网络从目标人物出现的片段中提取视觉特征:从出现概率最高的人物区域,以及由其余部分组成的背景区域中提取对应的特征;
通过预训练的长短期记忆网络来提取从每一帧对应的文本信息中提取文本特征:字幕文本特征与众包评论文本特征;
通过特征融合操作将上述视觉特征与文本特征映射到同一个特征空间中,并建立起特征间的关联,得到融合后的片段级别的特征;
再利用注意力机制,对片段级别的特征进行整合,得到片段的多模态表征;
将视觉特征与文本特征映射到同一个特征空间,将每一帧的相关特征拼接,得到片段级别的多流特征fi,i∈[1,2,3,4],分别表示从出现概率最高的人物区域提取到的特征、从由其余部分组成的背景提取到的特征、字幕文本特征、众包评论文本特征;
通过损失函数来拉近文本特征与视觉特征的距离,通过软间隔m来放置过度拟合,损失函数为:
Figure FDA0004059830310000021
对时间上相邻的特征进行高斯模糊:
Figure FDA0004059830310000022
其中,fi,t表示第t帧第i流特征,t=1,…,n;g(·)为期望为0,方差为1的高斯函数;k=[-2,2],[-2,2]表示时间窗口范围;
根据i和t的顺序将
Figure FDA0004059830310000023
拼接起来,得到融合后的片段级别的特征F,再通过卷积、批量池化以及线性整流操作,得到能够反映片段中每一帧上每一流特征重要性的注意图a,从而通过特征重加权的方式进行特征整合:
Figure FDA0004059830310000024
将整合后的特征
Figure FDA0004059830310000025
通过一个卷积层以及批量池化层和平坦化操作,得到目标人物的多模态表征。
2.根据权利要求1所述的一种视频人物关系识别方法,其特征在于,对文本进行预处理包括:对众包评论文本信息,通过正则规则进行过滤;对过滤后的众包评论文本信息进行时间轴校正。
3.根据权利要求1所述的一种视频人物关系识别方法,其特征在于,所述社交关系分类器包括依次连接的两个全连接层以及一个softmax层。
4.根据权利要求1所述的一种视频人物关系识别方法,其特征在于,
在训练阶段,利用包含已知不同目标人物的标签和不同目标人物之间的社交关系标签数据去训练识别模型,当识别模型训练完毕后,能够在视频中进行人物社交关系的识别。
CN201911301387.3A 2019-12-17 2019-12-17 视频人物关系识别方法 Active CN111061915B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911301387.3A CN111061915B (zh) 2019-12-17 2019-12-17 视频人物关系识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911301387.3A CN111061915B (zh) 2019-12-17 2019-12-17 视频人物关系识别方法

Publications (2)

Publication Number Publication Date
CN111061915A CN111061915A (zh) 2020-04-24
CN111061915B true CN111061915B (zh) 2023-04-18

Family

ID=70301973

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911301387.3A Active CN111061915B (zh) 2019-12-17 2019-12-17 视频人物关系识别方法

Country Status (1)

Country Link
CN (1) CN111061915B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111986656B (zh) * 2020-08-31 2021-07-30 上海松鼠课堂人工智能科技有限公司 教学视频自动字幕处理方法与系统
CN112199582B (zh) * 2020-09-21 2023-07-18 聚好看科技股份有限公司 一种内容推荐方法、装置、设备及介质
CN112464875B (zh) * 2020-12-09 2024-06-25 南京大学 一种视频中的人-物交互关系检测方法及装置
CN113343029B (zh) * 2021-06-18 2024-04-02 中国科学技术大学 社交关系增强的复杂视频人物检索方法
CN114186069B (zh) * 2021-11-29 2023-09-29 江苏大学 基于多模态异构图注意力网络的深度视频理解知识图谱构建方法
CN115953716A (zh) * 2022-12-27 2023-04-11 中山大学 一种基于跨媒介数据的人物图谱关系识别方法及系统
CN116567350B (zh) * 2023-05-19 2024-04-19 上海国威互娱文化科技有限公司 全景视频数据处理方法及系统
CN116758402B (zh) * 2023-08-16 2023-11-28 中国科学技术大学 图像人物关系识别方法、系统、设备及存储介质
CN118485949B (zh) * 2024-07-11 2024-10-18 山东海量信息技术研究院 一种人物关系检测方法、模型、程序产品、装置及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508375A (zh) * 2018-11-19 2019-03-22 重庆邮电大学 一种基于多模态融合的社交情感分类方法
CN109948447A (zh) * 2019-02-21 2019-06-28 山东科技大学 基于视频图像识别的人物网络关系发现及演化呈现方法
CN109977782A (zh) * 2019-02-27 2019-07-05 浙江工业大学 基于目标位置信息推理的跨店经营行为检测方法
CN110083741A (zh) * 2019-04-11 2019-08-02 中国科学技术大学 文本与图像联合建模的面向人物的视频摘要提取方法
WO2019192397A1 (zh) * 2018-04-04 2019-10-10 华中科技大学 一种任意形状的场景文本端到端识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090940A (zh) * 2011-05-06 2018-05-29 西尔股份有限公司 基于文本的视频生成
BR102016007265B1 (pt) * 2016-04-01 2022-11-16 Samsung Eletrônica da Amazônia Ltda. Método multimodal e em tempo real para filtragem de conteúdo sensível

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019192397A1 (zh) * 2018-04-04 2019-10-10 华中科技大学 一种任意形状的场景文本端到端识别方法
CN109508375A (zh) * 2018-11-19 2019-03-22 重庆邮电大学 一种基于多模态融合的社交情感分类方法
CN109948447A (zh) * 2019-02-21 2019-06-28 山东科技大学 基于视频图像识别的人物网络关系发现及演化呈现方法
CN109977782A (zh) * 2019-02-27 2019-07-05 浙江工业大学 基于目标位置信息推理的跨店经营行为检测方法
CN110083741A (zh) * 2019-04-11 2019-08-02 中国科学技术大学 文本与图像联合建模的面向人物的视频摘要提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宁煜西 ; 周铭 ; 李广强 ; 王宁 ; .基于卷积神经网络的航班跟踪视频关键信息识别.空军预警学院学报.2018,(05),全文. *
高翔 ; 陈志 ; 岳文静 ; 龚凯 ; .基于视频场景深度学习的人物语义识别模型.计算机技术与发展.2018,(06),全文. *

Also Published As

Publication number Publication date
CN111061915A (zh) 2020-04-24

Similar Documents

Publication Publication Date Title
CN111061915B (zh) 视频人物关系识别方法
US11983919B2 (en) Video anomaly detection method based on human-machine cooperation
CN110119711B (zh) 一种获取视频数据人物片段的方法、装置及电子设备
US10108709B1 (en) Systems and methods for queryable graph representations of videos
CN111797820B (zh) 一种视频数据处理方法、装置、电子设备及存储介质
CN110083741B (zh) 文本与图像联合建模的面向人物的视频摘要提取方法
CN107870896B (zh) 一种对话分析方法及装置
CN110717470B (zh) 一种场景识别方法、装置、计算机设备和存储介质
CN109063611B (zh) 一种基于视频语义的人脸识别结果处理方法和装置
CN111428088A (zh) 视频分类方法、装置及服务器
EP3367676A1 (en) Video content analysis for automatic demographics recognition of users and videos
JP7394809B2 (ja) ビデオを処理するための方法、装置、電子機器、媒体及びコンピュータプログラム
CN112183334B (zh) 一种基于多模态特征融合的视频深度关系分析方法
CN111126122B (zh) 人脸识别算法评估方法及装置
CN111918130A (zh) 视频封面确定方法、装置、电子设备及存储介质
US11176679B2 (en) Person segmentations for background replacements
CN111783712A (zh) 一种视频处理方法、装置、设备及介质
CN111814817A (zh) 视频分类方法、装置、存储介质及电子设备
CN111984824A (zh) 一种基于多模态的视频推荐方法
US20230023164A1 (en) Systems and methods for rapid development of object detector models
CN109948483B (zh) 一种基于动作和面部表情的人物交互关系识别方法
Heng et al. How to assess the quality of compressed surveillance videos using face recognition
CN115359409A (zh) 视频拆分方法、装置、计算机设备和存储介质
CN113301382B (zh) 视频处理方法、设备、介质及程序产品
US11763564B1 (en) Techniques for generating optimized video segments utilizing a visual search

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant