CN110782005A - 基于弱标注数据进行跟踪的图像标注方法及系统 - Google Patents
基于弱标注数据进行跟踪的图像标注方法及系统 Download PDFInfo
- Publication number
- CN110782005A CN110782005A CN201910925715.0A CN201910925715A CN110782005A CN 110782005 A CN110782005 A CN 110782005A CN 201910925715 A CN201910925715 A CN 201910925715A CN 110782005 A CN110782005 A CN 110782005A
- Authority
- CN
- China
- Prior art keywords
- tracked
- training
- tracking
- data set
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000012549 training Methods 0.000 claims abstract description 57
- 238000013136 deep learning model Methods 0.000 claims abstract description 39
- 238000002372 labelling Methods 0.000 claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开公开了基于弱标注数据进行跟踪的图像标注方法及系统,包括:获取训练用的待跟踪的视频,在训练用的待跟踪视频的首帧图像中,人工标注待跟踪物体的位置;利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;将整合后的弱标注数据集输入到深度学习模型中,对深度学习模型进行训练,得到训练好的深度学习模型;基于训练好的深度学习模型,对新的待跟踪视频进行跟踪,获得新的待跟踪视频的每一帧图像的图像标注结果;所述新的待跟踪视频的首帧图像,在输入到训练好的深度学习模型之前,由人工标注待跟踪物体的位置。
Description
技术领域
本公开涉及人工智能技术领域,特别是涉及基于弱标注数据进行跟踪的图像标注方法及系统。
背景技术
本部分的陈述仅仅是提到了与本公开相关的背景技术,并不必然构成现有技术。
深度学习的成功应用依赖于大量的训练数据,我们希望这些数据都是被精确标注过的。但实际应用中的许多数据都受到标签噪声的影响。数据标注比数据收集更昂贵、更消耗资源,这在一定程度上限制了深度学习的发展。
在实现本公开的过程中,发明人发现现有技术中存在以下技术问题:
在标注过程中,错误是不可避免的:人为的解释错误、测量错误和主观偏见都是产生标签噪声的原因。许多大规模的数据集都是从网站上搜罗来的,这是产生噪音标签的另一个原因。此外,即使是高质量的数据集也会包含标签噪声,这通常是由于数据本身的模糊性造成的。
在标注的过程中,由于训练集数量大,但是训练集带有标注的样本少,这样就出现了弱标注的现象,如果逐一对训练集全部的每一帧图像的目标物体均进行逐一人工标注,会提高人工标注的工作量,而且标注的过程繁琐,容易出错。
因此,如何对弱标注的数据进行快速标注,以及如何利用这些标注并不十分精确的数据或弱标注的数据进行图像中物体的标注跟踪成为一大难题。
发明内容
为了解决现有技术的不足,本公开提供了基于弱标注数据进行跟踪的图像标注方法及系统,在弱标注数据集或数据集含有噪声的情况下,神经网络由于具有一定的鲁棒性,其依然可以达到比较好的效果。
第一方面,本公开提供了基于弱标注数据进行跟踪的图像标注方法;
基于弱标注数据进行跟踪的图像标注方法,包括:
获取训练用的待跟踪的视频,在训练用的待跟踪视频的首帧图像中,人工标注待跟踪物体的位置;
利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;
将整合后的弱标注数据集输入到深度学习模型中,对深度学习模型进行训练,得到训练好的深度学习模型;
基于训练好的深度学习模型,对新的待跟踪视频进行跟踪,获得新的待跟踪视频的每一帧图像的图像标注结果;所述新的待跟踪视频的首帧图像,在输入到训练好的深度学习模型之前,由人工标注待跟踪物体的位置。
第二方面,本公开还提供了基于弱标注数据进行跟踪的图像标注系统;
基于弱标注数据进行跟踪的图像标注系统,包括:
预处理模块,其被配置为:获取训练用的待跟踪的视频,在训练用的待跟踪视频的首帧图像中,人工标注待跟踪物体的位置;
跟踪模块,其被配置为:利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;
训练模块,其被配置为:将整合后的弱标注数据集输入到深度学习模型中,对深度学习模型进行训练,得到训练好的深度学习模型;
图像标注模块,其被配置为:基于训练好的深度学习模型,对新的待跟踪视频进行跟踪,获得新的待跟踪视频的每一帧图像的图像标注结果;所述新的待跟踪视频的首帧图像,在输入到训练好的深度学习模型之前,由人工标注待跟踪物体的位置。
第三方面,本公开还提供了一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成第一方面所述方法的步骤。
第四方面,本公开还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述方法的步骤。
与现有技术相比,本公开的有益效果是:
1、对于原始数据数量和质量都没有严格的要求,同时运算时间大大缩短,最终能达到与精确标注时十分接近的准确率;
2、使用机器学习的方法去标注图片中物体所在位置,相对于人工标注,大大降低了工作量和工作时间,减少了成本。本公开只需要标注每一类图像的第一帧,剩下的图像均由机器去标注,工作量仅为原有工作量的0.1%-1%,然而,取得效果与全标注相比,性能仅下降不足2%。
3、提出了一种在仅有少量数据下进行深度学习的方法,在精确标注数据量不足时,采用多种弱标注的方法要优于仅采用一种方法。
4、根据实际生产的情况,若已知部分数据标注不精确,本公开提出一种扩充训练集的方法,可以有效地应对弱标注问题,同时提升跟踪的准确率。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为第一个实施例的方法流程图;
图2为第一个实施例的方法流程图;
图3为第一个实施例的根据重叠率计算的跟踪成功率示意图;
图4为第一个实施例的根据中心点距离计算的成功率示意图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
术语解释:
1.弱标注数据:数据标注并不十分精确时的数据,与之对应的是精确标注数据。例如,在图像中标注一辆车时,如果只标注了这辆车的车轮胎或者另外某个位置,没有将这辆车完整的标注出来,那么此时就叫做弱标注数据;如果这辆车被精确的标出来,那么就叫做精确标注数据。
2.MDNet(Multi-Domain Network,多域网络):MDNet是2015年VOT跟踪比赛的冠军,网络的输入是107*107大小的边界框,后方接有卷积层和全连接层,其速度虽然慢,但是跟踪效果达到了顶尖的水准。
3.CSRT:(Discriminative Correlation Filter(with Channel and SpatialReliability),判别空间滤波器,具有通道和空间可靠性。往往比KCF更准确,但速度略慢。
4.KCF:(Kernel Correlation Filter核相关滤波算法)算法将相关滤波的方法用到极致,其核心思想是利用循环矩阵乘以图片,使图像产生位移,从而得到大量样本。把位移的样本存在一个矩阵中会组成一个循环矩阵,其速度快但是准确率稍低。
实施例一,本实施例提供了基于弱标注数据进行跟踪的图像标注方法;
基于弱标注数据进行跟踪的图像标注方法,包括:
S1:获取训练用的待跟踪的视频,在训练用的待跟踪视频的首帧图像中,人工标注待跟踪物体的位置;
S2:利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;
S3:将整合后的弱标注数据集输入到深度学习模型中,对深度学习模型进行训练,得到训练好的深度学习模型;
S4:基于训练好的深度学习模型,对新的待跟踪视频进行跟踪,获得新的待跟踪视频的每一帧图像的图像标注结果;所述新的待跟踪视频的首帧图像,在输入到训练好的深度学习模型之前,由人工标注待跟踪物体的位置。
作为一个或多个实施例,所述深度学习模型,至少包括:卷积神经网络或MDNet神经网络。
作为一个或多个实施例,利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;具体步骤包括:
利用KCF跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,获得第一弱标注数据集;同时,利用CSRT跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,获得第二弱标注数据集;对第一弱标注数据集和第二弱标注数据集进行整合,得到第三弱标注数据集。
作为一个或多个实施例,所述步骤S1之后,所述步骤S2之前,还包括:
数据集扩充步骤:
将被标注物体的标注框向上、下、左和右四个方向均平移1/4个单位,这样训练集扩充为原来的4倍。
数据集扩充步骤,可以提升跟踪器的跟踪精度。
本公开中,为了验证使用两种跟踪器比单独使用某一种跟踪器对弱标注数据集的标注效果更好,做了以下实验:
(1)获取已标注数据和未标注数据。在本文实验中,为了模拟真实场景,已标注数据是选取的数据集中的一部分数据,并且根据实验设置决定是否为这些标签之中添加噪声,即弱标注数据。未标注数据为数据集经过选取后剩下的数据,人为去掉其标签。在实际操作中,我们获取的数据都是未标注数据,需要人工标注其中的一部为(可能标注不精确,标注错误即为弱标注数据),剩下的原始数据为未标注数据;设定获取的已标注数据包括训练集Data1(x1,y1)、测试集Data0(x0,y0),x0,x1为数据,y0,y1为标签,标签指的是物体在图片中的坐标。设定获取的未标注数据为Data2(x2),x2为数据,其无标签。
(2)使用不同的标注工具标注Data2(x2),采用的是不同的跟踪器n1,n2,n1,n2指的是CSRT和KCF跟踪器。
(3)先使用由KCF标注的数据去训练MDNet,得到准确率a1,再使用CSRT方法标注的数据重新训练MDNet,得到准确率a2,最后使用KCF和CSRT方法标注的所有数据重新训练MDNet,得到准确率a3。
(4)比较三种准确率,得到最佳的标注方法。
图1和图2为本公开的流程图。首先标注部分数据,之后将部分标注数据集送入CSRT跟踪器和KCF跟踪器,标注剩下的图像。由CSRT跟踪器标注得到弱标注数据集1,由KCF跟踪器标注得到弱标注数据集3,由二者标注的图像汇总得到弱标注数据集2。之后将三个弱标注数据集送入MDNet训练,最后通过比较,优选出最佳方案,即二者合作标注的方法。
图3为根据重叠率计算的跟踪成功率示意图,单位为%。可以看出在弱标注情况下,本公开优于绝大多数跟踪方法,仅比MDNet使用全部精确数据时成功率低1.6%,但是我们的标注量仅为其0.1%-1%,以极少的准确率减小的代价换来了效率上质的飞跃。
图4为根据中心点距离计算的成功率示意图,单位同样为%。同样可以看出弱标注情况下,本公开优于绝大多数跟踪器,仅比MDNet使用全部精确数据时成功率低1.25%。
两种计算跟踪成功率的方法如下。
根据重叠率:
如果A∩B≥M1%,则判定跟踪成功
如果跟踪器标注的图像位置与验证集中的图像真实位置重叠超过M1,我们将判定跟踪成功,本文中选定的M1为60%。
根据中心点距离:
如果|l1-l2|<M2,则判定跟踪成功
l1,l2为标注图像的中心点和验证集中图像真正的中心点。如果二者之间距离小于M2,则判定跟踪成功。本文中选定的M2为20,单位为像素。
(1)首先选取训练集VOT与测试集OTB,VOT中剔除与OTB数据集中重复的部分。在训练集VOT中,为了模拟真实场景,我们去除每类图像除了第一帧以外的所有标注,只保留第一帧的ground-truth。
(2)使用CSRT跟踪器,仅根据第一帧标注数据集中剩下的部分,得到弱标注数据集1;同样地,使用KCF跟踪器标注数据集中剩下的部分,得到弱标注数据集3;二者所标注的所有数据汇总得到数据集2。
(3)使用3个弱标注数据集分别训练MDNet,并且通过两种不同的方式比较最终的识别率,确定一个最佳方案。根据重叠率计算的跟踪成功率如表1所示,根据中心点距离计算的跟踪成功率如表2所示。与其他跟踪器的比较如图3,图4所示。
(4)在实际生产中,我们收集的数据也可能是标注不精确的。为了应对这种问题,本公开提出了一种扩充数据集的方式。为了模拟此情况,我们首先在精确标注的数据集中添加噪声。方式是将物体的ground-truth随机的上下左右平移1/4个单位(概率各为25%,左右平移即平移矩形长的1/4个单位,宽不变,上下平移即平移矩形宽的1/4个单位,长不变),训练后得到准确率a4;
再将物体的ground-truth向上下左右四个方向均平移1/4个单位,这样训练集扩充为原来的4倍,训练后得到准确率a5,比较二者的准确率,得到在已知训练集含有弱标注数据的前提下,通过扩充数据集以提升跟踪器的性能,效果比较如表3所示。
表1
MDNet | KCF | CSRT | KCF+CSRT |
67.80% | 63% | 65% | 66.20% |
表1为根据重叠率计算的跟踪成功率,使用单个机器学习的方式标注的图像送入MDNet训练后的效果,不如二者分别标注后共同送入MDNet进行训练的效果。
表2
MDNet | KCF | CSRT | KCF+CSRT |
90.90% | 86.34% | 88.08% | 89.65% |
表2为根据中心点偏移计算的跟踪成功率,可以得到与表1同样的结论。用多个跟踪器标注数据的效果,要比单一跟踪器的效果要好。而机器标注不需要人工绘制ground-truth,效率提升明显。
表3
弱标注准确率 | 随机平移扩充数据后准确率 |
64.10% | 65.60% |
87.24% | 88.24% |
表3为弱标注数据集本身的跟踪成功率和采用扩充数据策略后的跟踪成功率。第二行为根据重叠率计算的成功率,第三行则为根据中心点距离计算的成功率。由此可以看出,采用了本公开的策略后,不论采用何种衡量标注,跟踪器均有较为明显的性能提升。
实施例二,本实施例还提供了基于弱标注数据进行跟踪的图像标注系统;
基于弱标注数据进行跟踪的图像标注系统,包括:
预处理模块,其被配置为:获取训练用的待跟踪的视频,在训练用的待跟踪视频的首帧图像中,人工标注待跟踪物体的位置;
跟踪模块,其被配置为:利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;
训练模块,其被配置为:将整合后的弱标注数据集输入到深度学习模型中,对深度学习模型进行训练,得到训练好的深度学习模型;
图像标注模块,其被配置为:基于训练好的深度学习模型,对新的待跟踪视频进行跟踪,获得新的待跟踪视频的每一帧图像的图像标注结果;所述新的待跟踪视频的首帧图像,在输入到训练好的深度学习模型之前,由人工标注待跟踪物体的位置。
作为一个或多个实施例,所述深度学习模型,至少包括:卷积神经网络或MDNet神经网络。
作为一个或多个实施例,跟踪模块,包括:
利用KCF跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,获得第一弱标注数据集;同时,利用CSRT跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,获得第二弱标注数据集;对第一弱标注数据集和第二弱标注数据集进行整合,得到第三弱标注数据集。
作为一个或多个实施例,所述预处理模块之后,所述跟踪模块之前,还包括:
数据集扩充模块:
将被标注物体的标注框向上、下、左和右四个方向均平移1/4个单位,这样训练集扩充为原来的4倍。
数据集扩充模块,可以提升跟踪器的跟踪精度。
实施例三,本实施例还提供了一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成实施例一所述方法的步骤。
实施例四,本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述方法的步骤。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.基于弱标注数据进行跟踪的图像标注方法,其特征是,包括:
获取训练用的待跟踪的视频,在训练用的待跟踪视频的首帧图像中,人工标注待跟踪物体的位置;
利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;
将整合后的弱标注数据集输入到深度学习模型中,对深度学习模型进行训练,得到训练好的深度学习模型;
基于训练好的深度学习模型,对新的待跟踪视频进行跟踪,获得新的待跟踪视频的每一帧图像的图像标注结果;所述新的待跟踪视频的首帧图像,在输入到训练好的深度学习模型之前,由人工标注待跟踪物体的位置。
2.如权利要求1所述的方法,其特征是,所述深度学习模型,包括:卷积神经网络或MDNet神经网络。
3.如权利要求1所述的方法,其特征是,利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;具体步骤包括:
利用KCF跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,获得第一弱标注数据集;同时,利用CSRT跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,获得第二弱标注数据集;对第一弱标注数据集和第二弱标注数据集进行整合,得到第三弱标注数据集。
4.如权利要求1所述的方法,其特征是,所述步骤S1之后,所述步骤S2之前,还包括:
数据集扩充步骤:
将被标注物体的标注框向上、下、左和右四个方向均平移1/4个单位,这样训练集扩充为原来的4倍。
5.基于弱标注数据进行跟踪的图像标注系统,其特征是,包括:
预处理模块,其被配置为:获取训练用的待跟踪的视频,在训练用的待跟踪视频的首帧图像中,人工标注待跟踪物体的位置;
跟踪模块,其被配置为:利用至少两种跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,并将每一种跟踪器跟踪后得到的弱标注数据集进行整合,得到整合后的弱标注数据集;
训练模块,其被配置为:将整合后的弱标注数据集输入到深度学习模型中,对深度学习模型进行训练,得到训练好的深度学习模型;
图像标注模块,其被配置为:基于训练好的深度学习模型,对新的待跟踪视频进行跟踪,获得新的待跟踪视频的每一帧图像的图像标注结果;所述新的待跟踪视频的首帧图像,在输入到训练好的深度学习模型之前,由人工标注待跟踪物体的位置。
6.如权利要求5所述的系统,其特征是,所述深度学习模型,至少包括:卷积神经网络或MDNet神经网络。
7.如权利要求5所述的系统,其特征是,跟踪模块,包括:
利用KCF跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,获得第一弱标注数据集;同时,利用CSRT跟踪器对人工标注后的训练用的待跟踪视频进行跟踪,获得第二弱标注数据集;对第一弱标注数据集和第二弱标注数据集进行整合,得到第三弱标注数据集。
8.如权利要求5所述的系统,其特征是,所述预处理模块之后,所述跟踪模块之前,还包括:数据集扩充模块:
将被标注物体的标注框向上、下、左和右四个方向均平移1/4个单位,这样训练集扩充为原来的4倍。
9.一种电子设备,其特征是,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-4任一项方法所述的步骤。
10.一种计算机可读存储介质,其特征是,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-4任一项方法所述的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910925715.0A CN110782005B (zh) | 2019-09-27 | 2019-09-27 | 基于弱标注数据进行跟踪的图像标注方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910925715.0A CN110782005B (zh) | 2019-09-27 | 2019-09-27 | 基于弱标注数据进行跟踪的图像标注方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110782005A true CN110782005A (zh) | 2020-02-11 |
CN110782005B CN110782005B (zh) | 2023-02-17 |
Family
ID=69384629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910925715.0A Active CN110782005B (zh) | 2019-09-27 | 2019-09-27 | 基于弱标注数据进行跟踪的图像标注方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110782005B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968115A (zh) * | 2020-09-09 | 2020-11-20 | 山东大学第二医院 | 基于栅格化图像处理方法的骨科耗材检测方法及系统 |
CN111968114A (zh) * | 2020-09-09 | 2020-11-20 | 山东大学第二医院 | 基于级联深度学习方法的骨科耗材检测方法及系统 |
CN114371784A (zh) * | 2022-01-14 | 2022-04-19 | 天津大学 | 一种面向稳态视觉诱发电位的脑-机接口解码方法 |
CN118411653A (zh) * | 2024-07-01 | 2024-07-30 | 西安电子科技大学广州研究院 | 一种基于单目标跟踪的半自动化视频图像标注方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559237A (zh) * | 2013-10-25 | 2014-02-05 | 南京大学 | 基于目标跟踪的半自动图像标注样本生成方法 |
CN108520218A (zh) * | 2018-03-29 | 2018-09-11 | 深圳市芯汉感知技术有限公司 | 一种基于目标跟踪算法的舰船样本收集方法 |
CN108986134A (zh) * | 2018-08-17 | 2018-12-11 | 浙江捷尚视觉科技股份有限公司 | 一种基于相关滤波跟踪的视频目标半自动标注方法 |
CN109147254A (zh) * | 2018-07-18 | 2019-01-04 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
-
2019
- 2019-09-27 CN CN201910925715.0A patent/CN110782005B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559237A (zh) * | 2013-10-25 | 2014-02-05 | 南京大学 | 基于目标跟踪的半自动图像标注样本生成方法 |
CN108520218A (zh) * | 2018-03-29 | 2018-09-11 | 深圳市芯汉感知技术有限公司 | 一种基于目标跟踪算法的舰船样本收集方法 |
CN109147254A (zh) * | 2018-07-18 | 2019-01-04 | 武汉大学 | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 |
CN108986134A (zh) * | 2018-08-17 | 2018-12-11 | 浙江捷尚视觉科技股份有限公司 | 一种基于相关滤波跟踪的视频目标半自动标注方法 |
Non-Patent Citations (1)
Title |
---|
YUCHEN WANG ET AL.: "A Recursive Ensemble Learning Approach With Noisy Labels or Unlabeled Data", 《IEEE ACCESS》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968115A (zh) * | 2020-09-09 | 2020-11-20 | 山东大学第二医院 | 基于栅格化图像处理方法的骨科耗材检测方法及系统 |
CN111968114A (zh) * | 2020-09-09 | 2020-11-20 | 山东大学第二医院 | 基于级联深度学习方法的骨科耗材检测方法及系统 |
CN111968115B (zh) * | 2020-09-09 | 2021-05-04 | 山东大学第二医院 | 基于栅格化图像处理方法的骨科耗材检测方法及系统 |
CN114371784A (zh) * | 2022-01-14 | 2022-04-19 | 天津大学 | 一种面向稳态视觉诱发电位的脑-机接口解码方法 |
CN114371784B (zh) * | 2022-01-14 | 2023-11-03 | 天津大学 | 一种面向稳态视觉诱发电位的脑-机接口解码方法 |
CN118411653A (zh) * | 2024-07-01 | 2024-07-30 | 西安电子科技大学广州研究院 | 一种基于单目标跟踪的半自动化视频图像标注方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110782005B (zh) | 2023-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110782005B (zh) | 基于弱标注数据进行跟踪的图像标注方法及系统 | |
CN113240691B (zh) | 一种基于u型网络的医学图像分割方法 | |
WO2021120834A1 (zh) | 基于生物识别的手势识别方法、装置、计算机设备及介质 | |
CN106709936A (zh) | 一种基于卷积神经网络的单目标跟踪方法 | |
CN111191649A (zh) | 一种识别弯曲多行文本图像的方法与设备 | |
CN110276264A (zh) | 一种基于前景分割图的人群密度估计方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN103559237A (zh) | 基于目标跟踪的半自动图像标注样本生成方法 | |
CN105069774B (zh) | 基于多示例学习与图割优化的目标分割方法 | |
CN103295032B (zh) | 基于空间Fisher向量的图像分类方法 | |
CN104915684B (zh) | 一种基于鲁棒多平面支持向量机的图像识别方法及装置 | |
CN104268526A (zh) | 一种汉字图片匹配与变形方法 | |
CN109858454B (zh) | 一种基于双模型自适应核相关滤波追踪方法 | |
CN107392244A (zh) | 基于深度神经网络与级联回归的图像美感增强方法 | |
CN103473308B (zh) | 基于最大间隔张量学习的高维多媒体数据分类方法 | |
CN111368824B (zh) | 一种仪表识别方法、移动设备及存储介质 | |
CN114511853B (zh) | 一种文字图像书写轨迹恢复效果判别方法 | |
CN113095319B (zh) | 基于全卷积角点修正网络的多向场景文字检测方法及装置 | |
CN111709971A (zh) | 一种基于多目标跟踪的半自动化视频标注方法 | |
CN112417947A (zh) | 关键点检测模型的优化及面部关键点的检测方法及装置 | |
CN102122391A (zh) | 一种运动捕获数据自动分割方法 | |
CN111626102B (zh) | 基于视频弱标记的双模态迭代去噪异常检测方法及终端 | |
CN109543700B (zh) | 一种抗遮挡的服饰关键点检测方法 | |
CN107729821A (zh) | 一种基于一维序列学习的视频概括方法 | |
CN116778164A (zh) | 一种基于多尺度结构改进DeeplabV3+网络的语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |