CN111639563B - 一种基于多任务的篮球视频事件与目标在线检测方法 - Google Patents
一种基于多任务的篮球视频事件与目标在线检测方法 Download PDFInfo
- Publication number
- CN111639563B CN111639563B CN202010419217.1A CN202010419217A CN111639563B CN 111639563 B CN111639563 B CN 111639563B CN 202010419217 A CN202010419217 A CN 202010419217A CN 111639563 B CN111639563 B CN 111639563B
- Authority
- CN
- China
- Prior art keywords
- event
- time
- target
- frame
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多任务的篮球视频事件与目标在线检测方法,本发明利用深度卷积神经网络共享多任务权重,能以在线或离线的方式对篮球比赛视频进行事件检测和目标检测。基于多任务的混合损失函数将各自任务的损失分别反向传播到对应的分支,加快了各自任务分支学习的速度。将两种任务得到的损失依特定权重相加得到总体损失并反向传播,使得骨干网络学习到混合两种任务的潜在特征归纳方式。半监督伪标签挖掘扩充了训练数据,有效抑制了偏离事件高潮时刻生成的低质量事件预测框和偏离目标几何中心生成的低质量包围框。时空多尺度的网络结构充分利用了多步幅的时域信息,归纳出多尺度的历史特征,有效提高了事件检测的召回率和准确率。
Description
技术领域
本发明属于视频事件检测和视频目标检测技术领域,具体涉及一种基于多任务的篮球比赛视频事件和目标在线检测方法。
背景技术
视频理解中,视频事件和目标检测是关键技术。随着通信技术、计算机技术的高速发展和体育产业的稳步增长,业余和专业体育比赛视频数据量呈爆炸式增长。体育比赛视频作为一类包含大量事件和目标的视频资源,具有非常广泛的受众群体和巨大的研究价值,也对视频数学的精细处理、归档和共享提出了更高的要求。近年来,基于卷积神经网络的深度学习和高性能并行计算设备的进步为这一需求提供了保障。
视频目标检测是为了准确检测出视频帧中出现的目标,这在人群监控、自动驾驶等方面具有重要意义。最简单的检测方法是使用普通的图片目标检测网络对每一帧视频进行检测,但是这样缺少对帧间时域信息的利用,在实际情况中帧与帧之间容易出现包围框的抖动和分类的突变。使用3D卷积、光流图、LSTM层、多流等方式可以很好地利用帧间时域信息,但是他们带来了非常多的计算量,对计算设备提出了很高的要求。
现有的视频事件检测研究工作主要通过离线处理的方式对比赛视频进行事件检测,缺乏在直播和转播等在线处理领域的实用性。现有的视频在线事件检测方式只对单独帧进行分类,缺乏对当前事件开始和结束时刻的预测。此外,现有的视频事件检测研究与视频目标检测研究分离度较高,对同一视频存在冗余计算,且事件检测缺少对目标位置和运动信息的利用。因此,目前仍然缺乏一种同时对篮球视频中事件和目标进行高效在线检测的方法。
发明内容
针对现有技术的以上缺陷和改进需求,本发明的目的是提供一种基于多任务共享卷积神经网络底层权重、可同时对篮球视频中事件和目标进行高效在线检测的方法。
为了达到上述目的,本发明通过以下技术方案来实现:一种基于多任务的篮球视频事件与目标在线检测方法,该方法包括如下步骤:
S1:基于多尺度的特征归纳和表达的神经网络构建:
骨干网络层为Resnet网络,在骨干网络层中添加时域置换模块;所述时域置换模块添加在Resnet网络中每个残差结构的非旁路的卷积前,在当前时刻将特征图中前通道替换为上一时刻缓存中存储的值,并将当前帧在该层网络特征图的前/>通道更新到缓存中,其中m>1;
将网络的conv3_x层、conv4_x层、conv5_x层的输出作为特征金字塔网络的输入,得到五个不同尺度的时空特征F3-F7;
将最低分辨率的两层特征图F6、F7输入事件检测头,事件检测头分为两路,均经过4层卷积层和全局平均池化层,一路输出规模为1×1×Ce,Ce为事件种类数;另一路再分为两子路,一子路输出规模为1×1×2的事件开始和结束时间偏移,另一子路输出规模为1×1×1的事件高潮打分值;
将不同尺度大小的特征图F3-F7输入目标检测头,目标检测头分为两路,均经过4层卷积层,一路输出规模为H×W×Co,Co为目标种类数;另一路再分为两子路,一子路输出规模为H×W×4的回归框坐标,另一子路输出规模为H×W×1的目标中心打分值,H×W为前层输出的特征图分辨率;
S2:神经网络训练:
目标检测损失包括分类损失、回归损失和半监督中心偏移损失,将这些损失依特定权重相加,得到总目标检测损失;
事件检测损失包括分类损失、回归损失和半监督高潮偏移损失,将这两种损失依特定权重相加,得到总事件检测损失;
对目标检测损失和事件检测损失进行单独计算,将各自任务的损失分别反向传播到对应的分支,加快各自任务分支学习速度;将两种任务得到的损失依特定权重相加,得到基于多任务的混合损失函数并同时反向传播,使得底层骨干网络学习到混合两种任务的潜在特征归纳方式;使用梯度下降最小化基于多任务的混合损失函数以求得最佳的网络模型参数。
S3:推理及结果处理:
使用训练好的神经网络通过多分支前向传播得到目标检测和事件检测结果;
对网络目标检测部分的输出,将目标分类得分与目标中心打分值相乘以抑制大量偏离中心的低质量回归框,得到最终的目标分类得分值,将最终得分值最高的分类作为该目标的分类;
对网络事件检测部分的输出,将事件分类得分与事件高潮打分值相乘以抑制大量偏离事件高潮的低质量回归段,得到最终的事件分类得分值,将最终得分值最高的分类作为当前帧对应的事件分类。
进一步地,添加时域置换模块后,第j层在时刻t的特征图计算公式为:
其中:Fi,t为第i层输出的时刻t的特征图,Fi,t-n为第i层输出的t-n时刻的特征图,fconv为残差结构运算,fconcat为通道维度上的拼接操作,Fj,t为第j层得到的时刻t的输出,j为i后一层残差块的输入;
第j层在时刻t-n的特征图计算公式为:
其中:Fi,t-n为第i层输出的时刻t-n的特征图,Fi,t-2n为第i层输出的t-2n时刻的特征图,Fj,t-n为第j层得到的时刻t-n的输出;
在网络结构上展开,可得第k层输出的时刻t的特征图含有多个时间步幅信息,k为j后一层残差块的输入,第k层输出的时刻t的特征图计算方式为:
进一步地,所述得到五个不同尺度的时空特征F3-F7的过程具体为:
将Resnet网络的conv3_x层、conv4_x层、conv5_x层记为C3、C4、C5,分别对C3、C4、C5层进行卷积操作得到C3′、C4′、C5′,对C5′进行两次下采样,分别得到F6和F7,将C5′直接输出作为F5,将C5′上采样后与C4′相加,得到F4,将F4上采样后与C3′相加,得到F3,F3-F7构成金字塔特征图结构。
进一步地,对于五个不同尺度的时空特征F3-F7,将大小不同的目标分配到不同尺度大小的特征图F3-F7中进行检测,小目标主要在高分辨率的底层特征图中提取,通常为F3、F4层,大目标主要在较低分辨率的中高层特征图中提取,通常为F4-F7层,最低分辨率的两层特征图F6、F7连接事件检测头用于事件特征的表达和提取。
进一步地,对于获取的视频流,每隔n帧提取一张图像并转换为RGB色彩空间,将该图像保持纵横比重采样到短边为800像素大小并对重采样后的图片减去RGB三个通道上ImageNet的均值作为神经网络的输入。
进一步地,使用半监督伪标签挖掘方法扩充训练集,为间隔n帧标注的标签补充剩余帧的目标检测伪标签,具体为:使用SOTA的行人重识别模型提取帧内目标的特征表达,对两间隔帧内的特征向量进行多目标相似度匹配,相似度计算公式为:其中/>Ot为t时刻帧内目标的特征向量集合,Ot+n为t+n时刻帧内目标的特征向量集合,/>分别为集合中的特征向量;若cosθi,j≥threshold,则认为是同一人的标注框,该对匹配成功;当两间隔帧内匹配成功的目标比例Psuccess超过阈值T时,即认为两帧匹配成功,对成功的配对框使用线性插值方法计算无标签帧对应的框大小和位置,由此得到中间缺失帧的伪标签;若小于等于阈值T,则不进行伪标签标注;匹配成功的目标比例计算方式为:/>其中,Osuccess为t时刻帧和t+n时刻帧匹配成功的目标对数,Ot、Ot+n与前式意义相同。
进一步地,使用半监督伪标签挖掘方法扩充训练集,为有效抑制偏离事件高潮时刻生成的低质量事件预测框,通过计算当前时刻t在本事件开始和结束时间中相对高潮时刻的接近程度,得到高潮打分值伪标签,计算公式为:其中Tb *为高潮时刻距离本事件开始时刻的时长,Tl *为本时刻距离包含本时刻的事件开始时刻的时长,Tf *为高潮时刻距离本事件结束时刻的时长,Tr *为本时刻距离包含本时刻的事件结束时刻的时长;真实高潮时刻对应的伪标签值为1,构造得到的伪标签值大小在本事件内的时间轴上从高潮点向两边非线性递减,直至与事件开始和结束时间重合,重合点标签均为0。
进一步地,使用半监督伪标签挖掘方法扩充训练集,为有效抑制偏离目标几何中心生成的低质量预测框,计算当前位置相对本位置包含的标定框几何中心点的接近程度,得到目标中心打分值伪标签,计算公式为:其中left*为当前位置距离标注框左侧的距离,right*为当前位置距离标注框右侧的距离,top*为当前位置距离标注框顶部的距离,bottom*为当前位置距离标注框低部的距离,ε为调节值分布的参数;真实几何中心的伪标签值为1+ε,构造得到的伪标签值大小在本目标标定框内从几何中心向四周呈放射状递减,直至到达标定框上的标签为0+ε。
进一步地,目标检测损失Lobject计算公式如下:
其中:Npos_obj表示目标正样本数,cx,y是坐标(x,y)处特征点预测的目标类别,是坐标(x,y)处特征点标注的实际目标类别,α、β为权重参数,bx,y是坐标(x,y)处特征点对应的目标预测框参数,/>是坐标(x,y)处特征点对应的目标标注框参数,rx,y是坐标(x,y)处特征点预测的目标中心打分值,/>是坐标(x,y)处特征点伪标签标注的目标中心打分值,Lcls为交叉熵分类损失函数,Lreg为GIOU损失函数,Lctr为二元损失函数;
事件检测损失Levent计算公式如下:
其中:Npos_ev表示事件正样本数,et是时刻t对应的帧预测的事件类别,是时刻t对应的帧标注的实际类别,γ、δ为权重参数,lt为预测的当前时刻t距离事件开始时刻的时长,rt为预测的当前时刻t距离事件结束时刻的时长,l*为标注的高潮时刻距离事件开始时刻的时长,r*为标注的高潮时刻距离事件结束时刻的时长,t*为标注的高潮时刻,以相对整个视频开头的偏移量计,ht是时刻t对应的帧预测的高潮打分值,/>是时刻t对应的帧伪标签标注的高潮打分值,Lcls为交叉熵分类损失函数,Lhot为二元损失函数,Lreg为检测出的事件跨度与真实标注在时间轴上的交并比,计算公式为:
总损失计算公式为:Ltotal=Lobject+λLevent,其中λ为权重参数。
进一步地,所述步骤S3中,对网络目标检测部分的输出,将回归框坐标的四个参数换算成常用的标定框对角两点坐标形式,不同尺度特征图中的坐标点(x,y)对应的原图坐标计算公式为:其中s为当前特征图相对原图缩小的倍数;对于回归出的预测框,使用NMS对预测框进行抑制;
对网络事件检测部分的输出,若最终的事件得分值小于阈值则进行抑制,认为当前无事件;在线处理时,连续三帧大于阈值则判定当前事件发生;离线处理时,对时间轴上重叠的事件进行去重和归并。
本发明与现有技术相比,具有以下优点:本发明方法利用深度卷积神经网络共享多任务权重,能以在线或离线的方式对篮球比赛视频进行事件检测和目标检测。基于多任务的混合损失函数将各自任务的损失分别反向传播到对应的分支,加快了各自任务分支学习的速度,提高了各自分支检测的能力。此外,将两种任务得到的损失依特定权重相加,得到总体损失并反向传播,使得底层骨干网络学习到混合了两种任务的潜在特征归纳方式。半监督伪标签挖掘扩充了训练数据,并有效抑制了偏离事件高潮时刻生成的低质量事件预测框和偏离目标几何中心生成的低质量包围框,提高了目标检测的准确性,减少了事件检测的误警率。时空多尺度的网络结构充分利用了多步幅的时域信息,归纳出多尺度的历史特征,小目标主要在高分辨率的底层特征图中提取,大目标主要在较低分辨率的中高层特征图中提取,最低分辨率的两层特征图由于归纳了全局运动信息,有效提高了事件检测的召回率和准确率。
附图说明
图1是本发明实施例基于多任务的篮球视频事件与目标在线检测方法的流程示意图;
图2是本发明实施例基于多任务的篮球视频事件与目标在线检测方法的神经网络结构图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
如图1所示,本申请提出的一种基于多任务的篮球视频事件与目标在线检测方法,包括如下步骤:
S1:基于多尺度的特征归纳和表达的神经网络构建,如图2所示,骨干网络层为Resnet-50网络。
S1.1为充分利用多步幅的时域信息,归纳多尺度的历史特征以提取时域信息,在骨干网络层中添加时域置换模块,增强了网络在时间维度上的学习能力,提高了目标检测的稳定度和事件检测的准确性。由于时域置换模块添加在Resnet的残差结构前或旁路(shortcut)上会破坏空域信息,所以选择在Resnet网络中每个残差结构的非旁路的卷积前添加时域置换模块,即每次将特征图中前通道替换为上次(上一时刻)缓存中存储的值,并将当前帧在该层网络特征图的前/>通道更新到缓存中,其中m大于1,第j层在时刻t的特征图计算公式为:
其中:Fi,t为第i层输出的时刻t的特征图,Fi,t-n为第i层输出的t-n时刻的特征图,fconv为残差结构运算,fconcat为通道维度上的拼接操作,Fj,t为第j层得到的时刻t的输出,j为i后一层残差块的输入。类似的,在时间上展开,可求得第j层在时刻t-n的特征图,计算公式为:
其中:Fi,t-n为第i层输出的时刻t-n的特征图,Fi,t-2n为第i层输出的t-2n时刻的特征图,Fj,t-n为第j层得到的时刻t-n的输出。
因此,在网络结构上展开,可得第k层输出的时刻t的特征图含有多个时间步幅信息,k为j后一层残差块的输入,第k层输出的时刻t的特征图计算方式为:
S1.2将Resnet网络的conv3_x阶段层、conv4_x阶段层、conv5_x阶段层分别记为C3、C4、C5,为充分利用多尺度的空域信息,将C3、C4、C5层进行特征融合,融合方法为分别对C3、C4、C5层进行卷积操作(对C3、C4、C5层的输出应用1×1卷积),得到C3′、C4′、C5′,对C5′进行两次下采样,分别得到F6和F7,将C5′直接输出作为F5,将C5′上采样后与C4′相加,得到F4,将F4上采样后与C3′相加,得到F3,F3计算方式为:F3=fup(fup(C5′)+C4′)+C3′;其中fup为上采样方法,F4、F5、F6、F7不再赘述。F3-F7构成金字塔特征图结构,该金字塔特征图有利于多个尺度特征的表达。
将大小不同的目标分配到不同尺度大小的特征图中进行检测,小目标主要在高分辨率的底层特征图中提取(通常为F3、F4层),大目标主要在较低分辨率的中高层特征图中提取(通常为F4-F7层),最低分辨率的两层特征图F6、F7由于归纳了全局运动信息,具有潜在的高层次语义,连接事件检测头用于事件特征的表达和提取。
S1.3使用事件检测头和目标检测头得到多任务的输出。
事件检测头的输入为经过若干层卷积的特征图F6、F7,事件检测头分为两路,均经过4层卷积层和全局平均池化层,一路输出规模为1×1×Ce,Ce为事件种类数;另一路再分为两子路,一子路输出规模为1×1×2的事件开始和结束时间偏移,另一子路输出规模为1×1×1的事件高潮打分值。全局平均池化层使得网络可以适应不同分辨率的视频输入,对不同分辨率视频具有很好的鲁棒性,计算公式为: 为事件分类输出的特征图,/>为事件分类未处理前的特征图,H×W为前层输出的特征图分辨率,Ce为前层输出的特征图通道数,即事件类别数,同理/>为事件高潮打分值输出的特征图,/>为事件开始和结束回归预测输出的时刻偏移。
目标检测头的输入为经过若干层卷积的特征图F3、F4、F5、F6、F7,目标检测头也分为两路,均经过4层卷积,一路输出规模为H×W×Co,Co为目标种类数;另一路再分为两子路,一子路输出规模为H×W×4的回归框坐标,另一子路输出规模为H×W×1的目标中心打分值,H×W为前层输出的特征图分辨率。
S2:神经网络训练
对于获取到的视频流,每隔n帧提取一张图像并转换为RGB色彩空间,将该图像保持纵横比重采样到短边为800像素大小并对重采样后的图片减去RGB三个通道上ImageNet的均值作为神经网络的输入。以网络输入800×1024大小的帧为例,网络的C3、C4、C5输出层大小分别为100×128,50×64,25×32,通道数分别为512、1024、2048。将C3、C4、C5层的输出作为FPN网络即特征金字塔网络的输入并融合下采样和上采样,骨干网络得到5个不同尺度的时空特征F3-F7,大小分别为100×128,50×64,25×32,13×16,7×8。使用半监督伪标签挖掘方法扩充训练的输入数据,并使用Adam优化器梯度下降最小化基于多任务的混合损失函数。
S2.1半监督伪标签挖掘扩充训练集
为有效增广训练数据,为原本间隔n帧标注的标签补充剩余帧的目标检测伪标签。使用SOTA的行人重识别(ReID)模型提取帧内目标的特征表达,每个目标得到4096维向量,对两间隔帧内的特征向量进行多目标相似度匹配,相似度计算公式为:其中/>Ot为t时刻帧内目标的特征向量集合,Ot+n为t+n时刻帧内目标的特征向量集合,/>分别为集合中的特征向量。若cosθi,j≥threshold,则认为是同一人的标注框,该对匹配成功。当两间隔帧内匹配成功的目标比例Psuccess超过阈值T时,即认为两帧匹配成功,对成功的配对框使用线性插值方法计算无标签帧对应的框大小和位置,由此得到中间缺失帧的伪标签;若小于等于阈值T,则不进行伪标签标注。匹配成功的目标比例计算方式为:/>其中,Osuccess为t时刻帧和t+n时刻帧匹配成功的目标对数,0t、Ot+n与前式意义相同。
同时,为有效抑制偏离事件高潮时刻生成的低质量事件预测框,通过计算当前时刻t在本事件开始和结束时间中相对高潮时刻的接近程度,得到高潮打分值伪标签,伪标签计算公式为:其中Tb *为高潮时刻距离本事件开始时刻的时长,Tl *为本时刻距离包含本时刻的事件开始时刻的时长,Tf *为高潮时刻距离本事件结束时刻的时长,Tr *为本时刻距离包含本时刻的事件结束时刻的时长,根号运算使hotness标签衰减先缓后陡,总体上减少了半监督的惩罚。因此,真实高潮时刻对应的伪标签值为1,构造得到的伪标签值大小在本事件内的时间轴上从高潮点向两边非线性递减,直至与事件开始和结束时间重合,重合点标签均为0,有效抑制了偏离事件高潮时刻生成的低质量事件预测。
为有效抑制偏离目标几何中心生成的低质量预测框,计算当前位置相对本位置包含的标定框几何中心点的接近程度,得到位置打分值(即目标中心打分值)伪标签,计算公式为:其中left*为当前位置距离标注框左侧的距离,right*为当前位置距离标注框右侧的距离,top*为当前位置距离标注框顶部的距离,bottom*为当前位置距离标注框低部的距离,ε为调节值分布的参数。因此,真实几何中心的伪标签值为1+ε,构造得到的伪标签值大小在本目标标定框内从几何中心向四周呈放射状递减,直至到达标定框上的标签为0+ε,有效抑制了偏离目标几何中心生成的低质量预测框。
S2.2最小化基于多任务的混合损失函数
目标检测损失Lobject包括分类损失、回归损失和半监督中心偏移损失,将这些损失依特定权重相加,得到总目标检测损失。事件检测损失Levent包括分类损失、回归损失和半监督高潮偏移损失,将这两种损失依特定权重相加,得到总事件检测损失。
对目标检测损失和事件检测损失进行单独计算,将各自任务的损失分别反向传播到对应的分支,加快了各自任务分支学习的速度,提高了各自分支检测的能力。此外,将两种任务得到的损失依特定权重相加,得到总体损失并同时反向传播,使得底层骨干网络学习到混合了两种任务的潜在特征归纳方式。
目标检测损失Lobject计算公式如下:
其中:Npos_obj表示目标正样本数,cx,y是坐标(x,y)处特征点预测的目标类别,是坐标(x,y)处特征点标注的实际目标类别,α、β为权重参数,bx,y是坐标(x,y)处特征点对应的目标预测框参数,/>是坐标(x,y)处特征点对应的目标标注框参数,rx,y是坐标(x,y)处特征点预测的目标中心打分值,/>是坐标(x,y)处特征点伪标签标注的目标中心打分值,Lcls为交叉熵分类损失函数,Lreg为GIOU损失函数,Lctr为二元损失函数。
事件检测损失Levent计算公式如下:
其中:Npos_ev表示事件正样本数,et是时刻t对应的帧预测的事件类别,是时刻t对应的帧标注的实际类别,γ、δ为权重参数,lt为预测的当前时刻t距离事件开始时刻的时长,rt为预测的当前时刻t距离事件结束时刻的时长,l*为标注的高潮时刻距离事件开始时刻的时长,r*为标注的高潮时刻距离事件结束时刻的时长,t*为标注的高潮时刻,以相对整个视频开头的偏移量计,ht是时刻t对应的帧预测的高潮打分值,/>是时刻t对应的帧伪标签标注的高潮打分值,Lcls为交叉熵分类损失函数,Lhot为二元损失函数,Lreg为检测出的事件跨度与真实标注在时间轴上的交并比,计算公式定义为:
综上,总损失计算公式为:Ltotal=Lobject+λLevent,其中λ为权重参数,Lobject为上述目标检测损失,Levent为上述事件检测损失。
训练时使用梯度下降最小化基于多任务的混合损失函数Ltotal以求得最佳的网络模型参数。
S3:推理及结果处理
使用训练好的神经网络通过多分支前向传播得到目标检测和事件检测结果。
对网络目标检测部分的输出,将物体分类得分与中心打分值centerness相乘以抑制大量偏离中心的低质量回归框,得到最终的目标分类得分值,将最终得分值最高的分类作为该目标的分类。将回归框坐标的四个参数换算成常用的标定框对角两点坐标形式。不同尺度特征图中的坐标点(x,y)对应的原图坐标计算公式为:其中s为当前特征图相对原图缩小的倍数。对于回归出的预测框,使用NMS对预测框进行抑制。
对网络事件检测部分的输出,将事件分类得分与事件高潮打分值hotness相乘以抑制大量偏离事件高潮的低质量回归段,得到最终的事件分类得分值,将最终得分值最高的分类作为当前帧对应的事件分类。若最终得分值小于阈值,则进行抑制,认为当前无事件。在线处理时,连续三帧大于阈值则判定当前事件发生。离线处理时,对时间轴上重叠的事件进行去重和归并。
以上所述仅是本发明优选的实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明构思的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明所保护范围内。
Claims (10)
1.一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,包括如下步骤:
S1:基于多尺度的特征归纳和表达的神经网络构建:
骨干网络层为Resnet网络,在骨干网络层中添加时域置换模块;所述时域置换模块添加在Resnet网络中每个残差结构的非旁路的卷积前,在当前时刻将特征图中前通道替换为上一时刻缓存中存储的值,并将当前帧在网络特征图的前/>通道更新到缓存中,其中m>1;
将网络的conv3_x层、conv4_x层、conv5_x层的输出作为特征金字塔网络的输入,得到五个不同尺度的时空特征F3-F7;
将最低分辨率的两层特征图F6、F7输入事件检测头,事件检测头分为两路,均经过4层卷积层和全局平均池化层,一路输出规模为1×1e,Cr为事件种类数;另一路再分为两子路,一子路输出规模为1×1×2的事件开始和结束时间偏移,另一子路输出规模为1×1×1的事件高潮打分值;
将不同尺度大小的特征图F3-F7输入目标检测头,目标检测头分为两路,均经过4层卷积层,一路输出规模为H×Wo,Co为目标种类数;另一路再分为两子路,一子路输出规模为H×W×4的回归框坐标,另一子路输出规模为H×W×1的目标中心打分值,HW为前层输出的特征图分辨率;
S2:神经网络训练:
目标检测损失包括分类损失、回归损失和半监督中心偏移损失,将这些损失依特定权重相加,得到总目标检测损失;
事件检测损失包括分类损失、回归损失和半监督高潮偏移损失,将这两种损失依特定权重相加,得到总事件检测损失;
对目标检测损失和事件检测损失进行单独计算,将各自任务的损失分别反向传播到对应的分支,加快各自任务分支学习速度;将两种任务得到的损失依特定权重相加,得到基于多任务的混合损失函数并同时反向传播,使得底层骨干网络学习到混合两种任务的潜在特征归纳方式;使用梯度下降最小化基于多任务的混合损失函数以求得最佳的网络模型参数;
S3:推理及结果处理:
使用训练好的神经网络通过多分支前向传播得到目标检测和事件检测结果;
对网络目标检测部分的输出,将目标分类得分与目标中心打分值相乘以抑制大量偏离中心的低质量回归框,得到最终的目标分类得分值,将最终得分值最高的分类作为该目标的分类;
对网络事件检测部分的输出,将事件分类得分与事件高潮打分值相乘以抑制大量偏离事件高潮的低质量回归段,得到最终的事件分类得分值,将最终得分值最高的分类作为当前帧对应的事件分类。
2.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,添加时域置换模块后,第j层在时刻t的特征图计算公式为:
其中:Fi,t为第i层输出的时刻t的特征图,Fi,t-n为第i层输出的t-n时刻的特征图,fconv为残差结构运算,fconcat为通道维度上的拼接操作,Fj,t为第j层得到的时刻t的输出,j为i后一层残差块的输入;
第j层在时刻t-n的特征图计算公式为:
其中:Fi,t-n为第i层输出的时刻t-n的特征图,Fi,t-2n为第i层输出的t-2n时刻的特征图,Fj,t-n为第j层得到的时刻t-n的输出;
在网络结构上展开,可得第k层输出的时刻t的特征图含有多个时间步幅信息,k为j后一层残差块的输入,第k层输出的时刻t的特征图计算方式为:
3.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,所述得到五个不同尺度的时空特征F3-F7的过程具体为:
将Resnet网络的conv3_x层、conv4_x层、conv5_x层记为C3、C4、C5,分别对C3、C4、C5层进行卷积操作得到C3′、C4′、C5′,对C5′进行两次下采样,分别得到F6和F7,将C5′直接输出作为F5,将C5′上采样后与C4′相加,得到F4,将F4上采样后与C3′相加,得到F3,F3-F7构成金字塔特征图结构。
4.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,对于五个不同尺度的时空特征F3-F7,将大小不同的目标分配到不同尺度大小的特征图F3-F7中进行检测,小目标主要在高分辨率的底层特征图中提取,通常为F3、F4层,大目标主要在较低分辨率的中高层特征图中提取,通常为F4-F7层,最低分辨率的两层特征图F6、F7连接事件检测头用于事件特征的表达和提取。
5.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,对于获取的视频流,每隔n帧提取一张图像并转换为RGB色彩空间,将该图像保持纵横比重采样到短边为800像素大小并对重采样后的图片减去RGB三个通道上ImageNet的均值作为神经网络的输入。
6.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,使用半监督伪标签挖掘方法扩充训练集,为间隔n帧标注的标签补充剩余帧的目标检测伪标签,具体为:使用SOTA的行人重识别模型提取帧内目标的特征表达,对两间隔帧内的特征向量进行多目标相似度匹配,相似度计算公式为:其中/>Ot+n,Ot为t时刻帧内目标的特征向量集合,Ot+n为t+n时刻帧内目标的特征向量集合,/> 分别为集合中的特征向量;若cosθi,j≥threshold,则认为是同一人的标注框,该对匹配成功;当两间隔帧内匹配成功的目标比例Psuccess超过阈值T时,即认为两帧匹配成功,对成功的配对框使用线性插值方法计算无标签帧对应的框大小和位置,由此得到中间缺失帧的伪标签;若小于等于阈值T,则不进行伪标签标注;匹配成功的目标比例计算方式为:/>其中,Osuccess为t时刻帧和t+n时刻帧匹配成功的目标对数,Ot、Ot+n与前式意义相同。
7.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,使用半监督伪标签挖掘方法扩充训练集,为有效抑制偏离事件高潮时刻生成的低质量事件预测框,通过计算当前时刻t在本事件开始和结束时间中相对高潮时刻的接近程度,得到高潮打分值伪标签,计算公式为:其中Tb *为高潮时刻距离本事件开始时刻的时长,Tl *为本时刻距离包含本时刻的事件开始时刻的时长,Tf *为高潮时刻距离本事件结束时刻的时长,Tr *为本时刻距离包含本时刻的事件结束时刻的时长;真实高潮时刻对应的伪标签值为1,构造得到的伪标签值大小在本事件内的时间轴上从高潮点向两边非线性递减,直至与事件开始和结束时间重合,重合点标签均为0。
8.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,使用半监督伪标签挖掘方法扩充训练集,为有效抑制偏离目标几何中心生成的低质量预测框,计算当前位置相对本位置包含的标定框几何中心点的接近程度,得到目标中心打分值伪标签,计算公式为:其中left*为当前位置距离标注框左侧的距离,right*为当前位置距离标注框右侧的距离,top*为当前位置距离标注框顶部的距离,bottom*为当前位置距离标注框低部的距离,ε为调节值分布的参数;真实几何中心的伪标签值为1,构造得到的伪标签值大小在本目标标定框内从几何中心向四周呈放射状递减,直至到达标定框上的标签为0。
9.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,目标检测损失Lobject计算公式如下:
其中:Npos_obj表示目标正样本数,cx,y是坐标(x,y)处特征点预测的目标类别,是坐标(x,y)处特征点标注的实际目标类别,α、β为权重参数,bx,y是坐标(x,y)处特征点对应的目标预测框参数,/>是坐标(x,y)处特征点对应的目标标注框参数,rx,y是坐标(x,y)处特征点预测的目标中心打分值,/>是坐标(x,y)处特征点伪标签标注的目标中心打分值,Lcls为交叉熵分类损失函数,Lreg为GIOU损失函数,Lctr为二元损失函数;
事件检测损失Levent计算公式如下:
其中:Npos_ev表示事件正样本数,et是时刻t对应的帧预测的事件类别,是时刻t对应的帧标注的实际类别,γ、δ为权重参数,lt为预测的当前时刻t距离事件开始时刻的时长,t为预测的当前时刻t距离事件结束时刻的时长,l*为标注的高潮时刻距离事件开始时刻的时长,r*为标注的高潮时刻距离事件结束时刻的时长,*为标注的高潮时刻,以相对整个视频开头的偏移量计,ht是时刻t对应的帧预测的高潮打分值,/>是时刻t对应的帧伪标签标注的高潮打分值,Lcls为交叉熵分类损失函数,Lhot为二元损失函数,Lreg为检测出的事件跨度与真实标注在时间轴上的交并比,计算公式为:
总损失计算公式为:Ltotal=Lobject+λLevent,其中λ为权重参数。
10.根据权利要求1所述的一种基于多任务的篮球视频事件与目标在线检测方法,其特征在于,所述步骤S3中,对网络目标检测部分的输出,将回归框坐标的四个参数换算成常用的标定框对角两点坐标形式,不同尺度特征图中的坐标点(x,y)对应的原图坐标计算公式为:其中s为当前特征图相对原图缩小的倍数;对于回归出的预测框,使用NMS对预测框进行抑制;
对网络事件检测部分的输出,若最终的事件得分值小于阈值则进行抑制,认为当前无事件;在线处理时,连续三帧大于阈值则判定当前事件发生;离线处理时,对时间轴上重叠的事件进行去重和归并。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010419217.1A CN111639563B (zh) | 2020-05-18 | 2020-05-18 | 一种基于多任务的篮球视频事件与目标在线检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010419217.1A CN111639563B (zh) | 2020-05-18 | 2020-05-18 | 一种基于多任务的篮球视频事件与目标在线检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111639563A CN111639563A (zh) | 2020-09-08 |
CN111639563B true CN111639563B (zh) | 2023-07-18 |
Family
ID=72331022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010419217.1A Active CN111639563B (zh) | 2020-05-18 | 2020-05-18 | 一种基于多任务的篮球视频事件与目标在线检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639563B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114201726B (zh) * | 2020-09-18 | 2023-02-10 | 深圳先进技术研究院 | 一种卷积运算优化方法、系统、终端以及存储介质 |
CN114742176A (zh) * | 2022-05-06 | 2022-07-12 | 维沃移动通信有限公司 | 用户分类方法、装置及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304808A (zh) * | 2018-02-06 | 2018-07-20 | 广东顺德西安交通大学研究院 | 一种基于时空信息与深度网络的监控视频对象检测方法 |
CN108681712A (zh) * | 2018-05-17 | 2018-10-19 | 北京工业大学 | 一种融合领域知识和多阶深度特征的篮球比赛语义事件识别方法 |
CN110378208A (zh) * | 2019-06-11 | 2019-10-25 | 杭州电子科技大学 | 一种基于深度残差网络的行为识别方法 |
CN110765886A (zh) * | 2019-09-29 | 2020-02-07 | 深圳大学 | 一种基于卷积神经网络的道路目标检测方法及装置 |
WO2020088763A1 (en) * | 2018-10-31 | 2020-05-07 | Huawei Technologies Co., Ltd. | Device and method for recognizing activity in videos |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11106947B2 (en) * | 2017-12-13 | 2021-08-31 | Canon Kabushiki Kaisha | System and method of classifying an action or event |
US11638854B2 (en) * | 2018-06-01 | 2023-05-02 | NEX Team, Inc. | Methods and systems for generating sports analytics with a mobile device |
US11538143B2 (en) * | 2018-10-26 | 2022-12-27 | Nec Corporation | Fully convolutional transformer based generative adversarial networks |
-
2020
- 2020-05-18 CN CN202010419217.1A patent/CN111639563B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304808A (zh) * | 2018-02-06 | 2018-07-20 | 广东顺德西安交通大学研究院 | 一种基于时空信息与深度网络的监控视频对象检测方法 |
CN108681712A (zh) * | 2018-05-17 | 2018-10-19 | 北京工业大学 | 一种融合领域知识和多阶深度特征的篮球比赛语义事件识别方法 |
WO2020088763A1 (en) * | 2018-10-31 | 2020-05-07 | Huawei Technologies Co., Ltd. | Device and method for recognizing activity in videos |
CN110378208A (zh) * | 2019-06-11 | 2019-10-25 | 杭州电子科技大学 | 一种基于深度残差网络的行为识别方法 |
CN110765886A (zh) * | 2019-09-29 | 2020-02-07 | 深圳大学 | 一种基于卷积神经网络的道路目标检测方法及装置 |
Non-Patent Citations (6)
Title |
---|
Kai Kang et al.Object Detection from Video Tubelets with Convolutional Neural Networks.2016 IEEE Conference on Computer Vision and Pattern Recognition.2016,第817-825页. * |
Xizhou Zhu et al..Towards High Performance Video Object Detection.2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.2018,第7210-7218页. * |
单义等.基于跳跃连接金字塔模型的小目标检测.智能系统学报.2019,第14卷(第06期),第1144-1151页. * |
孙明华等.基于深度可分离卷积的地铁隧道巡检视频分析.计算机工程与科学.2020,第42卷(第04期),第691-698页. * |
王慧燕等.深度学习辅助的多行人跟踪算法.中国图象图形学报.2017,第22卷(第03期),第349-357页. * |
耿月.旅游景区视频异常事件检测与识别.中国优秀硕士学位论文全文数据库 (信息科技辑).2019,(第08期),第I138-860页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111639563A (zh) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112507777A (zh) | 一种基于深度学习的光学遥感图像舰船检测与分割方法 | |
CN111259779B (zh) | 一种基于中心点轨迹预测的视频动作检测方法 | |
CN111210446B (zh) | 一种视频目标分割方法、装置和设备 | |
CN111639563B (zh) | 一种基于多任务的篮球视频事件与目标在线检测方法 | |
CN113537462A (zh) | 数据处理方法、神经网络的量化方法及相关装置 | |
CN111723660A (zh) | 一种用于长形地面目标检测网络的检测方法 | |
CN116758340A (zh) | 基于超分辨率特征金字塔和注意力机制的小目标检测方法 | |
CN112801029B (zh) | 基于注意力机制的多任务学习方法 | |
Jayasinghe et al. | SwiftLane: towards fast and efficient lane detection | |
Osman et al. | LoopNet: Where to focus? Detecting loop closures in dynamic scenes | |
CN117893957A (zh) | 用于流计数的系统和方法 | |
Aldhaheri et al. | MACC Net: Multi-task attention crowd counting network | |
CN115239765B (zh) | 基于多尺度可形变注意力的红外图像目标跟踪系统及方法 | |
Ge et al. | Improving road extraction for autonomous driving using swin transformer unet | |
Shi et al. | Cpa-yolov7: Contextual and pyramid attention-based improvement of yolov7 for drones scene target detection | |
Guo et al. | ANMS: attention-based non-maximum suppression | |
Nag et al. | ARCN: a real-time attention-based network for crowd counting from drone images | |
CN114882403B (zh) | 基于渐进注意力超图的视频时空动作定位方法 | |
CN116721130A (zh) | 一种基于背景弱化机制的单目标跟踪方法及跟踪系统 | |
Zhang et al. | Boosting the speed of real-time multi-object trackers | |
Fu et al. | Foreground gated network for surveillance object detection | |
WO2022047736A1 (zh) | 一种基于卷积神经网络的损伤检测方法 | |
CN114140524A (zh) | 一种多尺度特征融合的闭环检测系统及方法 | |
Dalva et al. | Benchmarking the robustness of instance segmentation models | |
Tian et al. | Lightweight dual-task networks for crowd counting in aerial images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |