CN113807185A - 一种数据处理方法和装置 - Google Patents
一种数据处理方法和装置 Download PDFInfo
- Publication number
- CN113807185A CN113807185A CN202110949822.4A CN202110949822A CN113807185A CN 113807185 A CN113807185 A CN 113807185A CN 202110949822 A CN202110949822 A CN 202110949822A CN 113807185 A CN113807185 A CN 113807185A
- Authority
- CN
- China
- Prior art keywords
- target object
- data
- calibration frame
- calibration
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 206010000117 Abnormal behaviour Diseases 0.000 claims abstract description 72
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000003709 image segmentation Methods 0.000 claims description 37
- 238000012549 training Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 6
- 230000001502 supplementing effect Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 description 23
- 238000013527 convolutional neural network Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种数据处理方法和装置。包括:获取目标对象的标定框数据和掩膜数据,所述目标对象包括确定为有异常行为的对象;根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹;根据所述掩膜数据,从带有所述运动轨迹视频数据中获取所述目标对象的前景图像;将所述前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据。本公开相较于传统的人工模拟或搜集相关场景的视频,本公开实施例能够高效准确的获得大量的带有异常行为目标对象的视频数据。
Description
技术领域
本公开涉及计算机视觉技术领域,尤其涉及一种数据处理方法和装置。
背景技术
随着科学技术的发展,视频安防替代人力工作成为工业主流。视频安防领域大多利用基于图像分割的异常行为的检测方法,异常行为如:异常人员的闯入、摔倒、打架、抢劫、快跑等。但是在进行模型训练时,一些异常行为的样本获取十分困难,而缺少这些异常行为的样本会导致模型训练数据不均衡,最终造成模型分类结果不准确。
相关技术中,为了获取应用场景的异常行为样本,甚至需要人员前往现场环境进行采样模拟,这样非常耗费人力物力。
因此,亟需一种数据处理方法,能够自动的获取异常行为样本,从而得到更准确的检测异常行为的模型。
发明内容
为克服相关技术中存在的至少一个问题,本公开提供一种数据处理方法和装置。
根据本公开实施例的第一方面,提供一种数据处理方法,包括:
获取至少包括异常行为的目标对象的标定框数据和掩膜数据;
根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹;
根据所述掩膜数据,从带有所述运动轨迹视频数据中获取所述目标对象的前景图像;
将所述前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据。
在一种可能的实现方式中,所述根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹,包括:
获取所述标定框数据的置信度信息;
根据所述置信度信息,对所述标定框数据进行分类,得到不同精度类别的标定框数据;
利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹。
在一种可能的实现方式中,所述利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹,包括:
获取第一标定框数据和第二标定框数据,其中,所述第一标定框数据的精度大于第二标定框数据的精度;
利用所述第一标定框数据中历史帧标定框的标识信息以及所述第二标定框数据,确定所述第一标定框数据中当前帧标定框的标识信息;
获取同一标识信息的第二标定框数据,作为与所述标识信息相对应的目标对象的运动轨迹。
在一种可能的实现方式中,所述利用所述第一标定框数据中历史帧标定框的标识信息以及所述第二标定框数据,确定当前帧标定框的标识信息,包括:
利用所述第一标定框数据中历史帧标定框的标识信息,确定所述第一标定框数据中当前帧中所有标定框的标识信息;
在所述当前帧的标定框中不存在与历史帧的标定框相匹配的情况下,从所述第二标定框数据中确定与所述历史帧的标定框相匹配的标定框;
将所述历史帧标定框的标识信息设置到所述相匹配的标定框的标识信息,将设置完标识信息后的所述相匹配的标定框补充到对应帧中。
在一种可能的实现方式中,两标定框相匹配的条件被设置为两标定框中目标对象的重合度大于预设值。
在一种可能的实现方式中,所述将所述前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据,包括:
对所述前景图像进行几何变换,得到多种前景图像;
将所述前景图像和所述多种前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据。
在一种可能的实现方式中,所述获取至少包括有异常行为的目标对象的标定框数据和掩膜数据,包括:
获取至少包括异常行为的目标对象的视频数据;
将所述视频数据输入至图像分割模型,经所述图像分割模型,输出所述目标对象的标定框数据和掩膜数据,其中,所述图像分割模型被设置为利用样本视频数据与样本目标对象的标定框、掩膜的对应关系训练获得。
在一种可能的实现方式中,所述图像分割模型被设置为利用样本视频数据与样本目标对象的标定框、掩膜的对应关系训练获得,包括:
获取目标对象的视频数据的样本集合,所述样本集合中包括多个在目标对象上标注标定框和掩膜的图像数据,
构建图像分割模型,所述图像分割模型中设置有训练参数;
将所述目标对象的视频数据输入至所述图像分割模型,生成预测结果;
基于所述预测结果与标注的标定框和掩膜之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求。
在一种可能的实现方式中,所述将所述目标对象的视频数据输入至所述图像分割模型,生成预测结果,包括:
获取图像尺寸大于预设值的目标对象的视频数据;
对所述视频数据进行下采样,得到多个尺寸缩小的视频数据;
将所述视频数据输入至所述图像分割模型,生成预测结果。
根据本公开实施例的第二方面,提供一种检测目标对象异常行为的方法,包括:
获取视频数据;
将所述视频数据输入至异常行为检测模型,经所述异常行为检测模型,输出所述视频数据中有异常行为的目标对象,其中,所述异常行为检测模型被利用权利要求1至9中任一项所述的数据处理方法得到的样本视频数据与标注异常行为的目标对象之间的对应关系训练获得。
根据本公开实施例的第三方面,提供一种数据处理装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利根据本公开实施例任一项所述的方法。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行根据本公开实施例中任一项所述的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:本公开实施例中,通过获取至少包括异常行为的目标对象的标定框数据和掩膜数据,利用获取到的标定框数据和掩膜数据确定目标对象的前景图像的运动轨迹,再将前景图像插入新的应用场景的图像中可以得到新的视频图像,并确保新的视频图像包含有异常行为的目标对象。相较于传统的人工模拟或搜集相关场景的视频,本公开实施例能够高效准确的获得大量的带有异常行为目标对象的视频数据。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种数据处理方法的流程图。
图2是根据一示例性实施例示出的FPN结构的示意图。
图3是根据一示例性实施例示出的Protonet结构的示意图。
图4是根据一示例性实施例示出的Focus结构的示意图。
图5是根据一示例性实施例示出的一种数据处理方法的流程图。
图6是根据一示例性实施例示出的一种数据处理装置的示意框图。
图7是根据一示例性实施例示出的一种数据处理装置的示意框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
为了方便本领域技术人员理解本公开实施例提供的技术方案,下面先对技术方案实现的技术环境进行说明。
相关技术中,对带有异常行为的样本视频数据的获取依赖于人工模拟。例如,检测异常行为的模型应用在A城市,获取A城市的视频数据比较容易,但获取A城市的带有异常行为的目标对象的视频数据就非常困难。一种可能的方法是需要人员前往A城市进行模拟异常行为,以获得相应的模型训练样本。该方案耗费人力物力,且视频样本难以通过如图片编辑的方式进行编辑。由于缺少异常行为的训练样本,导致正常行为和异常行为的样本分布不均衡,导致检测异常行为的模型精度不够高,模型对各场景的泛化能力不够好。
基于类似于上文所述的实际技术需求,亟需一种数据处理方法,能够自动的获取异常行为样本,从而得到更准确的检测异常行为的模型。
图6是根据一示例性实施例示出的一种数据处理方法的流程图。参考图6所示,首先获取包括有异常行为的视频数据,所述视频数据可以是前景视频。对该视频数据进行处理,得到目标对象的掩码(掩膜),对多张图像进行上述处理,可以得到目标对象的运动轨迹,对所述运动轨迹进行平移、旋转和缩放等几何变换,将目标对象的掩膜坐标映射到背景视频中,生成新的应用场景的视频数据。本公开实施例可以根据需要更换异常行为所发生的背景环境;可以根据需要对异常行为在新背景环境中发生的像素位置、角度、像素区域大小进行编辑;还可以在一个新背景环境中插入多个人的异常行为模板进行包含多种异常行为的样本生成。
下面结合附图1对本公开所述的数据处理方法进行详细的说明。图1是本公开提供的数据处理方法的一种实施例的方法流程图。虽然本公开提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑性上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本公开实施例提供的执行顺序。
具体的,本公开提供的数据处理方法一种实施例如图1所示,所述方法可以应用于终端或服务器,包括:
步骤S101,获取目标对象的标定框数据和掩膜数据,所述目标对象包括确定为有异常行为的对象。
本公开实施例中,所述目标对象可以包括图像中的人物,所述异常行为可以包括异常人员的闯入、摔倒、打架、抢劫、快跑等。所述至少包括异常行为的目标对象可以包括:仅有异常行为的目标对象、有异常行为的目标对象和没有异常行为的目标对象。本公开实施例中,所述目标对象的标定框数据包括以预设图形标注出的视频数据,所述预设图形如矩形、圆形、或与目标对象相同的形状等。所述目标对象的掩膜数据包括与目标对象的形状相同的图形,该图形的像素值为1,图像其余像素值为0。目标对象的掩膜用于与视频数据相乘,得到视频数据中的目标对象,并且视频数据中除所述目标对象外,其余图像值为0。本公开实施例中,获取目标对象的标定框数据的方法可以包括基于目标检测的算法,例如基于候选框的R-CNN系算法:R-CNN,Fast R-CNN,Faster R-CNN等,或仅用一个卷积神经网络CNN直接预测不同目标的类别与位置。本公开实施例中,获取目标对象的掩膜数据的方法可以包括基于图像分割的算法,确定目标对象的掩膜。在一个示例中,可以分别利用目标检测模型和掩膜模型获取目标对象的标定框数据和掩膜数据,也可以利用同一个模型,例如YOLACT算法,在输入包括有目标对象的视频数据后,同时得到目标对象的标定框数据和掩膜数据。在另一个示例中,可以对YOLACT算法进行改进,如在输入层和第一个卷积层件插入Focus结构,达到推理提速的作用。
步骤S102,根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹。
本公开实施例中,所述目标对象的运动轨迹包括按照时间的先后顺序,依次出现的连续多张包含该目标对象的视频图像。在一个示例中,对目标对象进行目标跟踪的方法可以包括:在第一帧图像中,为每个目标对象的标定框设置初始标识信息,例如1号、2号、3号…n号等。对于在第k帧(k≥2)才出现的目标对象的标定框同样设置初始标识信息。对于在第k帧已出现的目标对象的标定框,通过将第k帧中的目标对象与历史帧的目标对象进行重叠度的计算,所述重叠度计算算法可以包括IOU算法、GIOU算法、CIOU算法和DIOU等。将重叠度大于预设阈值的目标对象确定为同一个目标对象,对k帧的目标对象的标定框使用历史帧同一目标对象的标定框的标识信息。按照时间的先后顺序,将相同标识信息的标定框确定为同一目标对象的运动轨迹。
步骤S103,根据所述掩膜数据,从带有所述运动轨迹视频数据中获取所述目标对象的前景图像。
本公开实施例中,首先获取所述运动轨迹视频数据中对应的掩膜数据,利用图像的掩膜数据,乘以相同帧的视频数据,从而将视频数据中除目标对象以外的区域置零,得到所述目标对象的前景图像,记录所述前景图像相对于所述视频数据位置变化。
步骤S104,将所述前景图像插入预设的背景图像中,生成所述目标对象的视频数据。
本公开实施例中,首先确定第一帧前景图像,按照目标对象的运动轨迹,依次将多张所述前景图像插入到背景图像中。所述背景图像是具有区别与原视频图像不同的场景的图像。生成所述目标对象的视频数据。
本公开实施例中,通过获取至少包括异常行为的目标对象的标定框数据和掩膜数据,利用获取到的标定框数据和掩膜数据确定目标对象的前景图像的运动轨迹,再将前景图像插入的新的应用场景的图像中可以得到新的视频图像,并确保新的视频图像包含有异常行为的目标对象。相较于传统的人工模拟或搜集相关场景的视频,本公开实施例能够高效准确的获得大量的带有异常行为目标对象的视频数据。
在一种可能的实现方式中,所述根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹,包括:
获取所述标定框数据的置信度信息;
根据所述置信度信息,对所述标定框数据进行分类,得到不同精度类别的标定框数据;
利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹。
本公开实施例中,利用目标检测的算法获取标定框数据的时候,可以根据标定框数据的置信度信息,即标定框的分类得分,利用非极大值抑制(NMS,Non MaximumSuppression)的方法,对标定框数据进行分类。以目标检测算法为例,同一个目标对象,由于滑动窗口,可能有几个框,每一个框都带有一个分类器得分。利用非极大值抑制方法,首先使用预设的第一阈值过滤目标框的得分,得到第一过滤结果;然后在第一过滤结果中挑选出得分大于预设的第二阈值的目标框,得到第二过滤结果。在一个示例中,可以设置所述第一阈值小于第二阈值,如第一阈值为0.2,第二阈值为0.5。因此,第一过滤结果包括第二过滤结果。由于第二阈值比较高,因此第二过滤结果中标定框的精度要高于第一过滤结果中标定框的精度。
本公开实施例中,所述利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪可以包括:利用高精度的标定框数据对所述目标对象进行目标跟踪,在高精度的标定框数据中匹配不到目标对象的情况下,利用低精度的标定框数据继续对所述目标对象进行目标跟踪。从而确定目标对象的运动轨迹。
本公开实施例,首先使用高精度的标定框数据对目标对象进行跟踪,保证了目标对象的准确性,即确保目标对象为人物而不是其他运动物体。在高精度的下一帧标定框数据无法匹配当前帧图像的目标对象的情况下,可以从低精度的标定框数据中去寻找匹配的目标对象,以使得该目标对象的运动轨迹能够延续下去。本公开实施例能够准确的获得目标对象的运动轨迹,同时保证的运动轨迹的连续性。
在一种可能的实现方式中,所述利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹,包括:
获取第一标定框数据和第二标定框数据,其中,所述第一标定框数据的精度大于第二标定框数据的精度;
利用所述第一标定框数据中历史帧标定框的标识信息以及所述第二标定框数据,确定所述第一标定框数据中当前帧标定框的标识信息;
获取同一标识信息的第一标定框数据,作为与所述标识信息相对应的目标对象的运动轨迹。
本公开实施例中,在所述第一标定数据的第一帧图像中,为每个目标对象的标定框设置初始标识信息,例如1号、2号、3号…n号等。对于在第k帧(k≥2)才出现的目标对象的标定框同样设置初始标识信息。在一个示例中,所述初始标识信息与标定框相对应,能够唯一确认该标定框。对于在第k帧已出现的目标对象的标定框,通过将第k帧中的目标对象与历史帧的目标对象进行重叠度的计算,所述重叠度计算算法可以包括IOU算法、GIOU算法、CIOU算法和DIOU等。将重叠度大于预设阈值的目标对象确定为同一个目标对象,将历史帧中同一目标对象的标定框的标识信息设置于第k帧的目标对象的标定框上。在另一个示例中,若所述第一标定框数据中匹配不到目标对象的情况下,从第二标定框数据的对应帧的标定框数据继续寻找上述匹配不到的目标对象。若匹配成功,则将第二标定框数据中的标定框加入到第一标定数据中。
本公开实施例,标识信息相同,对应相同的目标对象,因此,可以将同一标识信息的第一标定框数据作为与所述标识信息相对应的目标对象的运动轨迹。
在一种可能的实现方式中,所述利用所述第一标定框数据中历史帧标定框的标识信息以及所述第二标定框数据,确定当前帧标定框的标识信息,包括:
利用所述第一标定框数据中历史帧标定框的标识信息,确定所述第一标定框数据中当前帧中所有标定框的标识信息;
在所述当前帧的标定框中不存在与历史帧的标定框相匹配的情况下,从所述第二标定框数据中确定与所述前一帧的标定框相匹配的标定框;
将所述前一帧标定框的标识信息设置到所述相匹配的标定框的标识信息,将设置完标识信息后的所述相匹配的标定框补充到所述对应帧中。
为了更好的说明本公开实施例,现对各标定框做如下设置。所述第一标定框数据中第k帧的标定框可以表示为Boxes1[k],所述第二标定框数据中第k帧的标定框可以表示为Boxes2[k]。Boxes1[k][i]表示第一标定框数据中第k帧第i个标定框,Boxes1[k][j]表示第一标定框数据中第k帧第j个标定框。其中,k的取值范围是1<=k<=视频数据的总帧数i和j的取值范围是:1<=i≤第一或第二标定框数据中总目标框的个数;1<=j≤第一或第二标定框数据中总目标框的个数。
本公开实施例中,对于第一标定框数据中的第一帧的标定框Boxes1[1],对每个标定框添加对应的标识信息。对于第一标定数据中的第k(k≥2)帧的标定框Boxes1[k],将标定框Boxes1[k]与上一帧中的所述标定框Boxes1[k-1]进行匹配,若匹配失败,则将标定框Boxes1[k]继续与上上帧的所有标定框Boxes1[k-2]进行匹配,若仍然匹配失败,则将标定框Boxes1[k]继续与历史帧的标定框进行匹配,或者认为匹配不成功的Boxes1[k]是一个新的目标框,为Boxes1[k]设置新的标识信息。若标定框Boxes1[k]与标定框Boxes1[k-1]匹配成功,则将标定框Boxes1[k-1]的标识信息赋值给标定框Boxes1[k];若标定框Boxes1[k]与标定框Boxes1[k-2]匹配成功,则将标定框Boxes1[k-2]的标识信息赋值给标定框Boxes1[k],以此类推。应当注意的是,由于第一标定数据中的第k帧的标定框Boxes1[k]可能包括多个标定框,因此,需要将标定框Boxes1[k]所有的标定框与历史帧的标定框做匹配。
在所述当前帧的标定框中不存在与历史帧的标定框相匹配的情况下,例如Boxes1[k]中没有与Boxes1[k-1][j]相匹配的标定框,则从第二标定数据Boxes2[k]中寻找与Boxes1[k-1][j]相匹配的标定框,若存在Boxes2[k][i]与Boxes1[k-1][j]相匹配,则将Boxes2[k][i]补充到第一标定数据Boxes1[k]中,并将Boxes1[k-1][j]的标识信息赋值给Boxes2[k][i]。在一个示例中,若第二标定数据Boxes2[k]中未存在与Boxes1[k-1][j]相匹配的标定框,则从第二标定数据k+1帧中Boxes2[k+1]中去寻找与Boxes1[k-1][j]相匹配的标定框,若存在Boxes2[k+1][i]与Boxes1[k-1][j]相匹配,则将Boxes2[k+1][i]补充到第一标定数据Boxes1[k+1]中,并将Boxes1[k-1][j]的标识信息赋值给Boxes2[k+1][i]。在另一个示例中,若第二标定数据中也没有与Boxes1[k-1][j]相匹配的标定框,则认为该目标框的动作轨迹结束。依次类推,获取每个目标对象的标定框和掩膜的轨迹。
在一种可能的实现方式中,筛选运动轨迹包含帧数大于预设值的运动轨迹,所述预设值可以设置,如5帧。本公开实施例可以对整个数据进行降噪,降低了由于模型误检产生的较短的运动轨迹。
本公开实施例,在高精度的下一帧标定框数据无法匹配当前帧图像的目标对象的情况下,可以从低精度的标定框数据中去寻找匹配的目标对象,以使得该目标对象的运动轨迹能够连续。
在一种可能的实现方式中,两标定框相匹配的条件被设置为两标定框中目标对象的重合度大于预设值,其中重合度的算法可以包括IOU算法、GIOU算法、CIOU算法、和DIOU。
在一种可能的实现方式中,所述将所述前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据,包括:
对所述前景图像进行几何变换,得到多种前景图像;
将所述前景图像和所述多种前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据。
本公开实施例中,所述对前景图像进行几何变换,可以包括:改变前景图像与背景图像的水平或垂直方向的位置关系,对前景图像进行尺寸大小的缩放或旋转、镜像等操作,得到多种前景图像,将所述前景图像和所述多种前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据。
本公开实施例,对前景图像进行几何变换得到多种前景图像,可以增加训练样本的种类,提高模型的泛化能力。
在一种可能的实现方式中,所述获取至少包括有异常行为的目标对象的标定框数据和掩膜数据,包括:
获取至少包括异常行为的目标对象的视频数据;
将所述视频数据输入至图像分割模型,经所述图像分割模型,输出所述目标对象的标定框数据和掩膜数据,其中,所述图像分割模型被设置为利用样本视频数据与样本目标对象的标定框、掩膜的对应关系训练获得。
本公开实施例中,所述视频数据中至少包括异常行为的目标对象,该视频数据是可以人为筛选的,由于不限定异常行为的应用场景,因此,该视频数据的获得方式是比较容易的。在一个示例中,可以利用目标对象在本地进行模拟,以获得所述视频数据。本公开实施例中,所述图像分割模型是利用样本视频数据与样本目标对象的标定框、掩膜的对应关系训练获得的,在一个示例中,所述图像分割模型可以利用已有的YOLACT网络模型算法,得到目标对象的标定框和掩膜。所述YOLACT网络模型包括FPN结构和Protonet结构。图2是根据一示例性实施例示出的FPN结构的示意图,图3是根据一示例性实施例示出的Protonet结构的示意图。参考图2,输入的图像分辨率可以包括550×550×3,使用Resnet101网络作为主干网络,首先对输入的图像进行深度卷积,然后对第二层201及以上的层进行通过卷积进行特征提取,并进行降采样。对第四层进行上采样,使得右侧图像金字塔层203与左侧图像金字塔层201具有相同的尺寸。然后层203由层201与层203在特征金字塔的上层经过结构202结构操作得到。具体地,层203在特征金字塔的上层经过上采样处理后,与层201经过一次1*1卷积处理后的结果进行对应元素相加。将处理过的低层特征和处理过的高层特征进行累加,这样做的目的是因为低层特征可以提供更加准确的位置信息,而多次的降采样和上采样操作使得深层网络的定位信息存在误差,因此我们将其结合起来使用,这样我们就构建了一个更深的特征金字塔,融合了多层特征信息。参考图3所示,P3对应于图2中的右侧图像金字塔203,此处特征映射图feature_map分辨率计算是假定网络输入为550*550*3通过网络推导所得。第一个69*69*256的特征映射图表示取用P3,经过3次3*3卷积后得到第二个69*69*256的特征映射图,再使用上采样(upsampling)以及一次3*3卷积得到138*138*256的特征映射图,最后经过一次1*1卷积降低通道数至k(此处k=32),得到138*138*32的特征映射图。最终的32个特征映射图即为Protonet为每张图片生成的原型掩膜(prototypemask)。YOLACT的损失函数分为三种:类别置信度损失(Softmax损失)、坐标框回归损失(Smooth-L1损失)、掩码损失(Binary_Cross_Entropy损失)。YOLACT方法的优势有:针对大目标的mask比MaskR-CNN和FCIS算法的质量有显著的优势;推理速度能够达到实时,能够更快速的进行语义分割任务;在动态视频检测中YOLACT比MaskRCNN能够提供时域上更稳定的掩码结果。
在另一个示例中,所述图像分割模型被设置为利用样本视频数据与样本目标对象的标定框、掩膜的对应关系训练获得,包括:
获取目标对象的视频数据的样本集合,所述样本集合中包括多个在目标对象上标注标定框和掩膜的图像数据,
构建图像分割模型,所述图像分割模型中设置有训练参数;
将所述目标对象的视频数据输入至所述图像分割模型,生成预测结果;
基于所述预测结果与标注的标定框和掩膜之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求。
本公开实施例中所述图像分割模型可以通过深度学习的方法训练获得。所述视频数据中包括目标对象,该目标对象可以是有异常行为的目标对象也可以没有异常行为的目标对象。样本集合中包括了标注了标定框和掩膜的视频数据。可以采用人工标注或其他已标定好的数据,本公开不做限制。所述图像分割模型可以包括卷积神经网络,如R-CNN,FastR-CNN,Faster R-CNN等。将所述视频数据输入至图像分割模型,生成带有标定框和掩膜的预测结果,基于所述预测结果与标注的标定框和掩膜之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求。
本公开实施例中,图像分割模型的类别置信度损失采用Focal Loss损失,FocalLoss损失的计算公式如下:
FL(pt)=-αt(1-pt)γlog(pt) (1)
其中,αt为平衡因子,此处取值可以为0.25,γ为聚焦参数,此处取值可以为2,式中,y为真实样本类别,值为1或-1,表示样本属于正类或负类,p为模型预测样本属于正类的概率,t无实义。
在一种可能的实现方式中,所述将所述目标对象的视频数据输入至所述图像分割模型,生成预测结果,包括:
获取图像尺寸大于预设值的目标对象的视频数据;
对所述视频数据进行下采样,得到多个尺寸缩小的视频数据;
将所述视频数据输入至所述图像分割模型,生成预测结果。
本公开实施例中,获取图像尺寸大于预设值的目标对象的视频数据,例如:640×640×3。越大的图像,进行图像分割时,预测预测结果越准确。而图像尺寸的增加,会降低运行速度,因此,本公开实施例,对视频数据进行下采样,例如在输入层和卷积层之间插入Focus结构,达到推理提速的作用。利用Focus结构处理过程包括:对输入的图像,如640×640×3,以2×2的网格窗口步长为2对图像进行滑动窗口,将2×2中第一个网格经过的像素点整合为一个通道,对2、3、4的网格也做相应的操作,如此,通过Focus结构后输入尺寸由640×640×3转换为320×320×12。如此达到降低分辨率的同时又能够保证输入信息的完整性。
在一种可能的实现方式中,提供一种检测目标对象异常行为的方法,获取视频数据;
将所述视频数据输入至异常行为检测模型,经所述异常行为检测模型,输出所述视频数据中有异常行为的目标对象,其中,所述异常行为检测模型被利用本公开实施例中任一项所述的数据处理方法得到的样本视频数据与标注异常行为的目标对象之间的对应关系训练获得。
本公开实施例检测目标对象异常行为的模型可以通过深度学习的方法训练获得。利用本公开实施例中任一项所述的数据处理方法得到的样本视频数据与标注异常行为的目标对象,构建样本集合。样本集合中包括了标注了异常行为的目标对象。可以利用上述实施例中的标定框数据标注异常行为或其他人工标注的方法,本公开不做限制。所述异常行为检测模型可以包括卷积神经网络,如R-CNN,Fast R-CNN,Faster R-CNN等。将所述视频数据输入至图像分割模型,生成带有异常行为的目标对象的预测结果,基于所述预测结果与标注的目标对象之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求。
图6是根据一示例性实施例示出的一种数据处理装置框图。参照图6,该装置包括:第一获取模块601、确定模块602、第二获取模块、生成模块。
第一获取模块601,用于获取目标对象的标定框数据和掩膜数据,所述目标对象包括确定为有异常行为的对象;
确定模块602,用于根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹;
第二获取模块603,用于根据所述掩膜数据,从带有所述运动轨迹视频数据中获取所述目标对象的前景图像;
生成模块604,用于将所述前景图像插入预设的背景图像中,生成所述目标对象的视频数据。
在一种可能的实现方式中,所述确定模块602包括:
获取子模块,用于获取所述标定框数据的置信度信息;
分类子模块,用于根据所述置信度信息,对所述标定框数据进行分类,得到不同精度类别的标定框数据;
确定子模块,用于利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图7是根据一示例性实施例示出的一种数据处理装置700的框图。例如,装置700可以被提供为一服务器。参照图7,装置700包括处理组件722,其进一步包括一个或多个处理器,以及由存储器732所代表的存储器资源,用于存储可由处理组件722的执行的指令,例如应用程序。存储器732中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件722被配置为执行指令,以执行上述实施例中任一项所述的数据处理方法方法。
装置700还可以包括一个电源组件726被配置为执行装置700的电源管理,一个有线或无线网络接口750被配置为将装置700连接到网络,和一个输入输出(I/O)接口758。装置700可以操作基于存储在存储器732的操作系统,例如Windows Server,Mac OS X,Unix,Linux,FreeBSD或类似。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器732,上述指令可由装置700的处理组件722执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (14)
1.一种数据处理方法,其特征在于,包括:
获取目标对象的标定框数据和掩膜数据,所述目标对象包括确定为有异常行为的对象;
根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹;
根据所述掩膜数据,从带有所述运动轨迹视频数据中获取所述目标对象的前景图像;
将所述前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据。
2.根据权利要求1所述的方法,其特征在于,所述根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹,包括:
获取所述标定框数据的置信度信息;
根据所述置信度信息,对所述标定框数据进行分类,得到不同精度类别的标定框数据;
利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹。
3.根据权利要求2所述的方法,其特征在于,所述利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹,包括:
获取第一标定框数据和第二标定框数据,其中,所述第一标定框数据的精度大于第二标定框数据的精度;
利用所述第一标定框数据中历史帧标定框的标识信息以及所述第二标定框数据,确定所述第一标定框数据中当前帧标定框的标识信息;
获取同一标识信息的第二标定框数据,作为与所述标识信息相对应的目标对象的运动轨迹。
4.根据权利要求3所述的方法,其特征在于,所述利用所述第一标定框数据中历史帧标定框的标识信息以及所述第二标定框数据,确定当前帧标定框的标识信息,包括:
利用所述第一标定框数据中历史帧标定框的标识信息,确定所述第一标定框数据中当前帧中所有标定框的标识信息;
在所述当前帧的标定框中不存在与历史帧的标定框相匹配的情况下,从所述第二标定框数据中确定与所述历史帧的标定框相匹配的标定框;
将所述历史帧标定框的标识信息设置到所述相匹配的标定框的标识信息,将设置完标识信息后的所述相匹配的标定框补充到对应帧中。
5.根据权利要求4所述的方法,其特征在于,两标定框相匹配的条件被设置为两标定框中目标对象的重合度大于预设值。
6.根据权利要求1所述的方法,其特征在于,所述将所述前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据,包括:
对所述前景图像进行几何变换,得到多种前景图像;
将所述前景图像和所述多种前景图像插入预设的背景图像中,生成所述目标对象的新的视频数据。
7.根据权利要求1所述的方法,其特征在于,所述获取至少包括有异常行为的目标对象的标定框数据和掩膜数据,包括:
获取至少包括异常行为的目标对象的视频数据;
将所述视频数据输入至图像分割模型,经所述图像分割模型,输出所述目标对象的标定框数据和掩膜数据,其中,所述图像分割模型被设置为利用样本视频数据与样本目标对象的标定框、掩膜的对应关系训练获得。
8.根据权利要求7所述的方法,其特征在于,所述图像分割模型被设置为利用样本视频数据与样本目标对象的标定框、掩膜的对应关系训练获得,包括:
获取目标对象的视频数据的样本集合,所述样本集合中包括多个在目标对象上标注标定框和掩膜的图像数据,
构建图像分割模型,所述图像分割模型中设置有训练参数;
将所述目标对象的视频数据输入至所述图像分割模型,生成预测结果;
基于所述预测结果与标注的标定框和掩膜之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求。
9.根据权利要求8所述的方法,其特征在于,所述将所述目标对象的视频数据输入至所述图像分割模型,生成预测结果,包括:
获取图像尺寸大于预设值的目标对象的视频数据;
对所述视频数据进行下采样,得到多个尺寸缩小的视频数据;
将所述视频数据输入至所述图像分割模型,生成预测结果。
10.一种检测目标对象异常行为的方法,其特征在于,
获取视频数据;
将所述视频数据输入至异常行为检测模型,经所述异常行为检测模型,输出所述视频数据中有异常行为的目标对象,其中,所述异常行为检测模型被利用权利要求1至9中任一项所述的数据处理方法得到的样本视频数据与标注异常行为的目标对象之间的对应关系训练获得。
11.一种数据处理装置,其特征在于,包括:
第一获取模块,用于获取至少包括异常行为的目标对象的标定框数据和掩膜数据;
确定模块,用于根据所述标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹;
第二获取模块,用于根据所述掩膜数据,从带有所述运动轨迹视频数据中获取所述目标对象的前景图像;
生成模块,用于将所述前景图像插入预设的背景图像中,生成所述目标对象的视频数据。
12.根据权利要求11所述的装置,其特征在于,所述确定模块包括:
获取子模块,用于获取所述标定框数据的置信度信息;
分类子模块,用于根据所述置信度信息,对所述标定框数据进行分类,得到不同精度类别的标定框数据;
确定子模块,用于利用所述不同精度的标定框数据,对所述目标对象进行目标跟踪,确定所述目标对象的运动轨迹。
13.一种数据处理装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利根据权利要求1至10中任一项所述的方法。
14.一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行根据权利要求的1至10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110949822.4A CN113807185B (zh) | 2021-08-18 | 2021-08-18 | 一种数据处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110949822.4A CN113807185B (zh) | 2021-08-18 | 2021-08-18 | 一种数据处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113807185A true CN113807185A (zh) | 2021-12-17 |
CN113807185B CN113807185B (zh) | 2024-02-27 |
Family
ID=78941424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110949822.4A Active CN113807185B (zh) | 2021-08-18 | 2021-08-18 | 一种数据处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113807185B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114693702A (zh) * | 2022-03-24 | 2022-07-01 | 小米汽车科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN114742825A (zh) * | 2022-05-23 | 2022-07-12 | 东南大学 | 一种基于多任务深度神经网络的秀丽线虫检测方法 |
WO2023160061A1 (zh) * | 2022-02-25 | 2023-08-31 | 京东科技信息技术有限公司 | 图像中运动对象的确定方法、装置、电子设备和存储介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070086675A1 (en) * | 2005-10-13 | 2007-04-19 | Fujifilm Software(California), Inc. | Segmenting images and simulating motion blur using an image sequence |
WO2015131734A1 (zh) * | 2014-07-25 | 2015-09-11 | 中兴通讯股份有限公司 | 一种前视监视场景下的行人计数方法、装置和存储介质 |
WO2017054455A1 (zh) * | 2015-09-30 | 2017-04-06 | 深圳大学 | 一种监控视频中运动目标的阴影检测方法、系统 |
CN109640168A (zh) * | 2018-11-27 | 2019-04-16 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备和计算机可读介质 |
CN109977790A (zh) * | 2019-03-04 | 2019-07-05 | 浙江工业大学 | 一种基于迁移学习的视频烟雾检测与识别方法 |
CN110176027A (zh) * | 2019-05-27 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法、装置、设备及存储介质 |
CN110287850A (zh) * | 2019-06-20 | 2019-09-27 | 北京三快在线科技有限公司 | 一种模型训练以及目标物识别的方法及装置 |
US20190311202A1 (en) * | 2018-04-10 | 2019-10-10 | Adobe Inc. | Video object segmentation by reference-guided mask propagation |
CN110689063A (zh) * | 2019-09-18 | 2020-01-14 | 平安科技(深圳)有限公司 | 一种基于神经网络的证件识别的训练方法及装置 |
CN111242026A (zh) * | 2020-01-13 | 2020-06-05 | 中国矿业大学 | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 |
CN111357295A (zh) * | 2017-06-27 | 2020-06-30 | 皮克索洛特公司 | 用于将用户特定内容融合到视频制作中的方法和系统 |
CN111738231A (zh) * | 2020-08-06 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 目标对象检测方法、装置、计算机设备和存储介质 |
CN111931654A (zh) * | 2020-08-11 | 2020-11-13 | 精英数智科技股份有限公司 | 一种人员跟踪智能监测方法、系统和装置 |
CN112184757A (zh) * | 2020-09-28 | 2021-01-05 | 浙江大华技术股份有限公司 | 运动轨迹的确定方法及装置、存储介质、电子装置 |
CN112233042A (zh) * | 2020-11-05 | 2021-01-15 | 中国人民解放军国防科技大学 | 一种含非合作目标的大场景sar图像快速生成方法 |
CN112669350A (zh) * | 2020-12-31 | 2021-04-16 | 广东电网有限责任公司电力科学研究院 | 一种自适应特征融合的智能变电站人体目标跟踪方法 |
CN112989962A (zh) * | 2021-02-24 | 2021-06-18 | 上海商汤智能科技有限公司 | 轨迹生成方法、装置、电子设备及存储介质 |
-
2021
- 2021-08-18 CN CN202110949822.4A patent/CN113807185B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070086675A1 (en) * | 2005-10-13 | 2007-04-19 | Fujifilm Software(California), Inc. | Segmenting images and simulating motion blur using an image sequence |
WO2015131734A1 (zh) * | 2014-07-25 | 2015-09-11 | 中兴通讯股份有限公司 | 一种前视监视场景下的行人计数方法、装置和存储介质 |
WO2017054455A1 (zh) * | 2015-09-30 | 2017-04-06 | 深圳大学 | 一种监控视频中运动目标的阴影检测方法、系统 |
CN111357295A (zh) * | 2017-06-27 | 2020-06-30 | 皮克索洛特公司 | 用于将用户特定内容融合到视频制作中的方法和系统 |
US20190311202A1 (en) * | 2018-04-10 | 2019-10-10 | Adobe Inc. | Video object segmentation by reference-guided mask propagation |
CN109640168A (zh) * | 2018-11-27 | 2019-04-16 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备和计算机可读介质 |
CN109977790A (zh) * | 2019-03-04 | 2019-07-05 | 浙江工业大学 | 一种基于迁移学习的视频烟雾检测与识别方法 |
CN110176027A (zh) * | 2019-05-27 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法、装置、设备及存储介质 |
CN110287850A (zh) * | 2019-06-20 | 2019-09-27 | 北京三快在线科技有限公司 | 一种模型训练以及目标物识别的方法及装置 |
CN110689063A (zh) * | 2019-09-18 | 2020-01-14 | 平安科技(深圳)有限公司 | 一种基于神经网络的证件识别的训练方法及装置 |
CN111242026A (zh) * | 2020-01-13 | 2020-06-05 | 中国矿业大学 | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 |
CN111738231A (zh) * | 2020-08-06 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 目标对象检测方法、装置、计算机设备和存储介质 |
CN111931654A (zh) * | 2020-08-11 | 2020-11-13 | 精英数智科技股份有限公司 | 一种人员跟踪智能监测方法、系统和装置 |
CN112184757A (zh) * | 2020-09-28 | 2021-01-05 | 浙江大华技术股份有限公司 | 运动轨迹的确定方法及装置、存储介质、电子装置 |
CN112233042A (zh) * | 2020-11-05 | 2021-01-15 | 中国人民解放军国防科技大学 | 一种含非合作目标的大场景sar图像快速生成方法 |
CN112669350A (zh) * | 2020-12-31 | 2021-04-16 | 广东电网有限责任公司电力科学研究院 | 一种自适应特征融合的智能变电站人体目标跟踪方法 |
CN112989962A (zh) * | 2021-02-24 | 2021-06-18 | 上海商汤智能科技有限公司 | 轨迹生成方法、装置、电子设备及存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023160061A1 (zh) * | 2022-02-25 | 2023-08-31 | 京东科技信息技术有限公司 | 图像中运动对象的确定方法、装置、电子设备和存储介质 |
CN114693702A (zh) * | 2022-03-24 | 2022-07-01 | 小米汽车科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN114742825A (zh) * | 2022-05-23 | 2022-07-12 | 东南大学 | 一种基于多任务深度神经网络的秀丽线虫检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113807185B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222787B (zh) | 多尺度目标检测方法、装置、计算机设备及存储介质 | |
CN113538480B (zh) | 图像分割处理方法、装置、计算机设备和存储介质 | |
CN112348036B (zh) | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 | |
CN113807185B (zh) | 一种数据处理方法和装置 | |
CN110147777B (zh) | 一种基于深度迁移学习的绝缘子类别检测方法 | |
CN111723798B (zh) | 一种基于关联性层级残差的多实例自然场景文本检测方法 | |
CN111311475A (zh) | 检测模型训练方法、装置、存储介质和计算机设备 | |
CN111461212A (zh) | 一种用于点云目标检测模型的压缩方法 | |
CN106897738A (zh) | 一种基于半监督学习的行人检测方法 | |
CN112837315A (zh) | 一种基于深度学习的输电线路绝缘子缺陷检测方法 | |
CN112634369A (zh) | 空间与或图模型生成方法、装置、电子设备和存储介质 | |
CN114897738A (zh) | 一种基于语义不一致性检测的图像盲修复方法 | |
CN112529931B (zh) | 一种前景分割的方法及系统 | |
CN118351435A (zh) | 一种基于轻量化模型LTE-Det的无人机遥感影像目标检测方法与装置 | |
CN115424017A (zh) | 一种建筑物内外轮廓分割方法、装置及存储介质 | |
CN111832616A (zh) | 利用多类深度表示图的遥感图像飞机型号识别方法及系统 | |
CN115424264A (zh) | 全景分割方法及相关装置、电子设备、存储介质 | |
CN115049675A (zh) | 生成区域确定及光斑生成方法、设备、介质及程序产品 | |
CN112149528A (zh) | 一种全景图目标检测方法、系统、介质及设备 | |
CN112417974A (zh) | 一种公共卫生监控方法 | |
CN113888567B (zh) | 一种图像分割模型的训练方法、图像分割方法及装置 | |
CN114882490B (zh) | 一种基于点引导定位的无受限场景车牌检测分类方法 | |
CN118247764A (zh) | 一种障碍物检测模型的训练以及障碍物检测方法及装置 | |
CN116805410A (zh) | 三维目标检测方法、系统及电子设备 | |
CN113326891A (zh) | 小目标对象的检测方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |