CN109325505A - 用于嵌入式设备的实例分割方法及装置、手机端 - Google Patents
用于嵌入式设备的实例分割方法及装置、手机端 Download PDFInfo
- Publication number
- CN109325505A CN109325505A CN201811057744.1A CN201811057744A CN109325505A CN 109325505 A CN109325505 A CN 109325505A CN 201811057744 A CN201811057744 A CN 201811057744A CN 109325505 A CN109325505 A CN 109325505A
- Authority
- CN
- China
- Prior art keywords
- convolutional layer
- layer
- training
- loss
- application
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012360 testing method Methods 0.000 claims abstract description 26
- 238000000926 separation method Methods 0.000 claims abstract description 19
- 238000010606 normalization Methods 0.000 claims abstract description 13
- 230000004913 activation Effects 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 abstract description 24
- 230000006870 function Effects 0.000 abstract description 19
- 238000001514 detection method Methods 0.000 abstract description 9
- 238000004364 calculation method Methods 0.000 description 9
- 238000013461 design Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000003475 lamination Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本申请公开了一种用于嵌入式设备的实例分割方法及装置、手机端。该方法包括配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层;在卷积层之后还包括:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层;以及训练并测试得到用于嵌入式设备的目标网络。本申请解决了实例分割的准确率和速度无法做到兼容的技术问题。本申请大大降低了原模型的大小,同时计算时间具有较为明显缩短。此外,本申请可以用于手机端等嵌入式设备中实现物体检测、识别以及分割等功能。
Description
技术领域
本申请涉及计算机视觉领域,具体而言,涉及一种用于嵌入式设备的实例分割方法及装置。
背景技术
随着计算机视觉的快速发展,物体检测和语意分割已经有了很大的进展,很多物体检测和分割方法都是基于Fast/Faster RCNN以及FCN全卷积网络衍生而来,同时这些方法兼具灵活性和鲁棒性,并且在很短的时间内能完成训练。相比语意分割和物体检测,实例分割有着更大的难度,它的难点在于准确的检测每个物体的同时,还要去分割它们。总的来说,实例分割包括了:物体检测,物体分类以及物体分割三个功能。实例分割的完善有助于无人车,增强现实,视频分析等领域的快速发展,目前比较完善的方法有Mask RCNN,它是在Faster RCNN的基础上,增加了物体分割分支,实现了实例分割功能,并且在COCO数据集上测试,具有较高的准确度。
发明人发现,由于采用Mask RCNN在12G显存GPU上运行仅有5FPS帧率,这对于无人车等对实时性要求高的系统来说,这无法达到要求。尤其在嵌入式设备上,很多设备目前并没有配置GPU,所以算法逻辑只能运行在CPU上。比如,经测试,Mask RCNN在iPhoneX的运行时间为6s,无法达到实时。所以,如何在保持Mask RCNN的准确率的基础上,提高Mask RCNN的运行速度是有待解决的技术问题。
针对相关技术中实例分割的准确率和速度无法做到兼容的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种用于嵌入式设备的实例分割方法及装置,以解决实例分割的准确率和速度无法做到兼容的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种用于嵌入式设备的实例分割方法。
根据本申请的用于嵌入式设备的实例分割方法包括:配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层;在卷积层之后还包括:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层;以及训练并测试得到用于嵌入式设备的目标网络。
进一步地,深度分离卷积层包括:3*3深度分离卷积层。
进一步地,方法还包括:通过增加FPN结构得到多尺度网络结构。
进一步地,方法还包括:设计损失函数,其中,损失函数中包括:RPN的类别损失,RPN的回归框损失,Fast RCNN的类别损失,Fast RCNN的回归框损失,Mask分支的像素点类别损失中的任意一种。
进一步地,所述训练的过程包括:使用ImageNet数据集训练、使用微软COCO数据集训练、使用针对预设任务的数据集训练。
进一步地,所述测试的过程包括:Fast RCNN的输出是RPN的输出,Mask分支的输入是Fast RCNN的输出。
为了实现上述目的,根据本申请的另一方面,提供了一种用于嵌入式设备的实例分割装置。
根据本申请的用于嵌入式设备的实例分割装置包括:配置模块,用于配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层;在卷积层之后还包括:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层;以及训练测试模块,用于训练并测试得到用于嵌入式设备的目标网络。
进一步地,装置还包括:多尺度模块,用于通过增加FPN结构得到多尺度网络结构。
进一步地,装置还包括:损失函数模块,用于设计损失函数,其中,损失函数中包括:RPN的类别损失,RPN的回归框损失,Fast RCNN的类别损失,Fast RCNN的回归框损失,Mask分支的像素点类别损失中的任意一种。
为了实现上述目的,根据本申请的另一方面,提供了一种手机端,包括:所述的实例分割装置。
在本申请实施例中,采用配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层的方式,通过在卷积层之后还包括:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层,达到了训练并测试得到用于嵌入式设备的目标网络的目的,从而实现了嵌入式设备上执行准确、高速地完成实例分割的技术效果,进而解决了实例分割的准确率和速度无法做到兼容的技术问题。经过测试,在手机上,本方法可以实现6FPS的帧率,大约200ms一帧,相比原版Mask RCNN,本申请有了30倍左右的提升,同时准确率只降低了5%。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的用于嵌入式设备的实例分割方法示意图;
图2是根据本申请实施例的用于嵌入式设备的实例分割装置示意图;以及
图3是根据本申请实施例中的多组Mobile模块结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
本申请中的方法实现了实例分割功能,具体包括:1)物体检测;2)物体识别;3)物体分割等三个子功能。本申请在移动端运行时间大约一帧200ms,准确度相比原Mask RCNN仅下降5%。
如图1所示,该方法包括如下的步骤S102至步骤S106:
步骤S102,配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层;
配置主干网络结构时首先是一个普通卷积层,接下来采用的是13组不同大小的{3*3深度分离卷积层+1*1卷积层},然后是批归一化层,最后是RELU激活函数层。
优选地,使用MobileNets结构替换了Mask RCNN中的ResNet结构,采用该结构在参数量和计算量都有所节省。
步骤S104,在卷积层之后还包括:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层;以及
多组Mobile模块采用不同的大小。同时在一个Mobile模块中包括了一个深度分离卷积层和一个1*1卷积层。
步骤S106,训练并测试得到用于嵌入式设备的目标网络。
对模型进行训练、测试之后得到目标网络的结果可以用于嵌入式设备中。
在训练过程中,做到了端到端的训练,减少了训练所需的时间,和人工成本。
从以上的描述中,可以看出,本申请实现了如下技术效果:
在本申请实施例中,采用配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层的方式,通过在卷积层之后还包括:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层,达到了训练并测试得到用于嵌入式设备的目标网络的目的,从而实现了嵌入式设备上执行准确、高速地完成实例分割的技术效果,进而解决了实例分割的准确率和速度无法做到兼容的技术问题。本申请相比原版Mask RCNN,模型大小为27M,原版Mask RCNN模型大小为256M,减少为原本的1/10,同时速度提升了将近30倍,准确率降低5%。
为了解决相关卷积网络在嵌入式设备上运行速度慢的问题,在本申请的实施例中将卷积网络中的预设深度残差结构ResNet替换为MobileNets结构。MobileNets结构经测试在移动端CPU上的表现性能良好。同时为了增加物体检测和分割的多尺度性,保留了原卷积网络中的FPN模块。
根据本申请实施例,作为本实施例中的优选,深度分离卷积层包括:3*3深度分离卷积层。
根据本申请实施例,作为本实施例中的优选,方法还包括:通过增加FPN结构得到多尺度网络结构。将MobileNets与FPN相结合,保证了参数量急剧减少的同时,准确率不会降低太多,同时使得主干网络MobileNets具备多尺度的性能,增加了对小尺寸物体的分割能力。
根据本申请实施例,作为本实施例中的优选,方法还包括:设计损失函数,其中,损失函数中包括:RPN的类别损失,RPN的回归框损失,Fast RCNN的类别损失,Fast RCNN的回归框损失,MaskRCNN分支的像素点类别损失中的任意一种。
根据本申请实施例,作为本实施例中的优选,所述训练的过程包括:使用ImageNet数据集训练、使用微软COCO数据集训练、使用针对预设任务的数据集训练。本申请的实施例提供一套训练策略,其中预训练部分涉及的训练数据均为公开数据集,所以本申请的实施例的训练策略具有普适性特点。
根据本申请实施例,作为本实施例中的优选,所述测试的过程包括:FastRCNN的输出是RPN的输出,Mask分支的输入是Fast RCNN的输出。本申请的实施例中提供的测试策略,将Mask分支接在Fast RCNN分支之后,保证了分割的准确性。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本申请实施例,还提供了一种用于实施上述用于嵌入式设备的实例分割方法的装置,如图2所示,该装置包括:配置模块101,用于配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层;在卷积层之后还配置:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层;以及训练测试模块102,用于训练并测试得到用于嵌入式设备的目标网络。
在本申请实施例的配置模块101中配置主干网络结构时首先是一个普通卷积层,接下来采用的是13组不同大小的{3*3深度分离卷积层+1*1卷积层},然后是批归一化层,最后是RELU激活函数层。
优选地,使用MobileNets结构替换了Mask RCNN中的ResNet结构,采用该结构在参数量和计算量都有所节省。
在本申请实施例的配置模块101中多组Mobile模块采用不同的大小。同时在一个Mobile模块中包括了一个深度分离卷积层和一个1*1卷积层。
在本申请实施例的训练测试模块102中对模型进行训练、测试之后得到目标网络的结果可以用于嵌入式设备中。
在训练过程中,做到了端到端的训练,减少了训练所需的时间,和人工成本。
作为本实施例中的优选,装置还包括:多尺度模块103,用于通过增加FPN结构得到多尺度网络结构。将MobileNets与FPN相结合,保证了参数量急剧减少的同时,准确率不会降低太多,同时使得主干网络MobileNets具备多尺度的性能,增加了对小尺寸物体的分割能力。
作为本实施例中的优选,装置还包括:损失函数模块104,用于设计损失函数,其中,损失函数中包括:RPN的类别损失,RPN的回归框损失,Fast RCNN的类别损失,Fast RCNN的回归框损失,Mask分支的像素点类别损失中的任意一种。
此外,在本申请的另一实施例中,还提供了手机端,包括:所述的实例分割装置。所述的实例分割装置包括:
配置模块,用于配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层;
在卷积层之后还配置:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层;以及
训练测试模块,用于训练并测试得到用于嵌入式设备的目标网络。
本申请的实现原理如下:在本申请中以Mask RCNN作为例子对本申请的实现原理进行详细地说明。
为了解决Mask RCNN在嵌入式设备上运行速度慢的问题,在本申请中的方案是把Mask RCNN中的ResNet101替换为较为轻量级的网络MobileNets结构,经测试在移动端CPU上的表现性能良好,同时为了增加物体检测和分割的多尺度性,本申请保留了原Mask RCNN的FPN模块;在本申请中所使用的Mask RCNN全称是MM RCNN(Mobile Mask RCNN的缩写)。经测试,在iPhoneX上,本方法可以实现6FPS的帧率,大约200ms一帧,相比原版Mask RCNN,本申请有了30倍左右的提升,同时准确率只降低了5%。
总的来说,本发明MM RCNN,实现了实例分割功能,包括:1)物体检测;2)物体识别;3)物体分割,三个子功能,本发明在移动端运行时间大约一帧200ms,准确度相比原MaskRCNN仅下降5%。
本发明分为主干网络结构设计,多尺度网络结构设计,损失函数设计,训练阶段,以及测试阶段五个部分:
1)主干网络结构设计:本发明替换了原版Mask RCNN中的ResNet结构,使用MobileNet结构,该结构在参数量和计算量都有所节省。
宏观上,本发明使用26层网络结构,每层结构称作一个单元,按顺序包括:卷积层,批归一化层,修正线性单元(Rectified Linear Unit,ReLU),其中26层网络还可以看成13个Mobile模块,每个模块由一个深度分离卷积单元和一个1x1卷积单元组成。
细节上,假设输入特征图大小为Sf x Sf x IN,经过一次卷积,输出的特征图大小为Sf x Sf x OUT,传统的卷积操作,其卷积核K的大小为:Sk x Sk x IN x OUT,其中Sf是特征图的尺寸,Sk是卷积核的尺寸,IN是输入特征图的通道数,OUT是输出特征图的通道数,一次卷积操作的过程如下:IN个Sk x Sk个卷积核与IN个输入特征图做卷积,得到的结果相加,得到一张输出特征图,同理,一共OUT次操作,得到OUT个输出特征图,用公式表示这个过程如下:
根据公式,可以计算出传统卷积层的计算量为:
Sk x Sk x IN x OUT x Sf x Sf
参数量为:
Sk x Sk x IN x OUT
对应一次传统卷积的是个Mobile模块(深度分离卷积+1x1卷积),其中深度分离卷积的具体实现如下:其卷积核K的大小为:Sk x Sk x IN,卷积核只跟对应通道的输入特征图做卷积,得到输出特征图,所以输出的特征图大小为Sf x Sf x IN,用公式表示这个过程如下:
根据公式,可以计算出深度分离卷积的计算量为:
Sk x Sk x IN x Sf x Sf
参数量为:
Sk x Sk x IN
深度分离卷积之后,是一层传统的批归一化层,和激活层,然后是1x1卷积层,1x1卷积层的卷积核大小为1x 1x IN x OUT,操作跟传统卷积一致,计算量为1x 1x IN x OUTx Sf x Sf,参数量为1x 1x IN x OUT。
综上,Mobile模块(MobileNets网络结构)总的计算量为:Sk x Sk x IN x Sf xSf+1x 1x IN x OUT x Sf x Sf=(Sk x Sk+OUT)x IN x Sf x Sf,参数量:Sk x Sk x IN+1x 1x IN x OUT=(Sk x Sk+OUT)x IN,相比传统卷积,计算量是(Sk x Sk+OUT)/Sk x Skx OUT=1/OUT+1/(Sk x Sk),参数量是(Sk x Sk+OUT)/Sk x Sk x OUT=1/OUT+1/(Sk xSk),在计算量和参数量都有所减少。
本申请的方法相比原版Mask RCNN,模型大小为27M,原版Mask RCNN模型大小为256M,减少为原本的1/10,同时速度提升了将近30倍,准确率降低5%。
2)多尺度网络结构设计:为了增加网络的多尺度,在MobileNets的基础上结合了FPN结构,具体实施时,比如,FPN的特征图金字塔选取的特征图分别来自MobileNets的13个模块中的第3模块,第5模块,第11模块和第14模块的输出,具体的操作与传统FPN一致,如此,网络结构便具有多尺度的特性。
3)损失函数设计:损失函数一共由5部分组成,分别包括RPN的类别损失,RPN的回归框损失,Fast RCNN的类别损失,Fast RCNN的回归框损失,Mask分支的像素点类别损失,其中Mask分支输出大小为28x 28,分别对28x 28个像素点做分类。
4)训练过程:训练分成3部分:1.分主干网络预训练,本发明使用ImageNet数据集进行预训练,输入图片大小为224x 224,批大小为128,初始学习率为0.1;2.整个MM RCNN在微软COCO数据集上训练,得到一个能实例分割80类的模型,输入图片大小为1024x 1024,批大小为2,初始学习率为0.01;3.针对具体的任务的数据集进行微调训练,数据集不限,需要包括图片中需分割的物体的类别,位置,轮廓,输入大小为1024x 1024,初始学习率为0.001。
5)测试过程:测试过程与训练过程的不同在于,训练过程Fast RCNN分支与Mask分支是并行训练,两个分支的输入都是RPN的输出,而测试时,Fast RCNN的输出仍然时RPN的输出,而Mask分支的输入为Fast RCNN的输出。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种用于嵌入式设备的实例分割方法,其特征在于,包括:
配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层;
在卷积层之后还包括:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层;以及
训练并测试得到用于嵌入式设备的目标网络。
2.根据权利要求1所述的实例分割方法,其特征在于,深度分离卷积层包括:3*3深度分离卷积层。
3.根据权利要求1所述的实例分割方法,其特征在于,还包括:通过增加FPN结构得到多尺度网络结构。
4.根据权利要求1所述的实例分割方法,其特征在于,还包括:设计损失函数,其中,损失函数中包括:RPN的类别损失,RPN的回归框损失,Fast RCNN的类别损失,Fast RCNN的回归框损失,Mask分支的像素点类别损失中的任意一种。
5.根据权利要求1所述的实例分割方法,其特征在于,所述训练的过程包括:使用ImageNet数据集训练、使用微软COCO数据集训练、使用针对预设任务的数据集训练。
6.根据权利要求1所述的实例分割方法,其特征在于,所述测试的过程包括:Fast RCNN的输出是RPN的输出,Mask分支的输入是Fast RCNN的输出。
7.一种用于嵌入式设备的实例分割装置,其特征在于,包括:
配置模块,用于配置主干网络结构,按顺序依次得到卷积层、批归一化层以及激活函数层;
在卷积层之后还配置:多组Mobile模块,多组所述Mobile模块中包括:深度分离卷积层和1*1卷积层;以及
训练测试模块,用于训练并测试得到用于嵌入式设备的目标网络。
8.根据权利要求1所述的实例分割装置,其特征在于,还包括:多尺度模块,用于通过增加FPN结构得到多尺度网络结构。
9.根据权利要求1所述的实例分割装置,其特征在于,还包括:损失函数模块,用于设计损失函数,其中,损失函数中包括:RPN的类别损失,RPN的回归框损失,Fast RCNN的类别损失,Fast RCNN的回归框损失,Mask分支的像素点类别损失中的任意一种。
10.一种手机端,其特征在于,包括:如权利要求7至9任一项所述的实例分割装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811057744.1A CN109325505A (zh) | 2018-09-11 | 2018-09-11 | 用于嵌入式设备的实例分割方法及装置、手机端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811057744.1A CN109325505A (zh) | 2018-09-11 | 2018-09-11 | 用于嵌入式设备的实例分割方法及装置、手机端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109325505A true CN109325505A (zh) | 2019-02-12 |
Family
ID=65264933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811057744.1A Pending CN109325505A (zh) | 2018-09-11 | 2018-09-11 | 用于嵌入式设备的实例分割方法及装置、手机端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109325505A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032935A (zh) * | 2019-03-08 | 2019-07-19 | 北京联合大学 | 一种基于深度学习级联网络的交通信号标识检测识别方法 |
CN110111345A (zh) * | 2019-05-14 | 2019-08-09 | 西安电子科技大学 | 一种基于注意力网络的3d点云分割方法 |
CN111414815A (zh) * | 2020-03-04 | 2020-07-14 | 清华大学深圳国际研究生院 | 行人重识别网络搜索方法及行人重识别方法 |
CN112580407A (zh) * | 2019-09-30 | 2021-03-30 | 南京理工大学 | 一种基于轻量化神经网络模型的空间目标部件识别方法 |
CN112614135A (zh) * | 2020-12-23 | 2021-04-06 | 国网安徽省电力有限公司检修分公司 | 一种嵌入式端的表计主刻度线分割方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN107909027A (zh) * | 2017-11-14 | 2018-04-13 | 电子科技大学 | 一种具有遮挡处理的快速人体目标检测方法 |
CN108509839A (zh) * | 2018-02-02 | 2018-09-07 | 东华大学 | 一种基于区域卷积神经网络高效的手势检测识别方法 |
-
2018
- 2018-09-11 CN CN201811057744.1A patent/CN109325505A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN107909027A (zh) * | 2017-11-14 | 2018-04-13 | 电子科技大学 | 一种具有遮挡处理的快速人体目标检测方法 |
CN108509839A (zh) * | 2018-02-02 | 2018-09-07 | 东华大学 | 一种基于区域卷积神经网络高效的手势检测识别方法 |
Non-Patent Citations (2)
Title |
---|
TO_BE_BETTER_ONE: "Mobilenet版的mask rcnn可以扩展到移动设备中", 《HTTPS://BLOG.CSDN.NET/GHW15221836342/ARTICLE/DETAILS/80084861》 * |
TO_BE_BETTER_ONE: "Mobilenet版的mask rcnn可以扩展到移动设备中-config.py文件", 《HTTPS://GITHUB.COM/CHRISPOLO/MOBILENET-_V1-MASK-RCNN-FOR-DETECTION/BLOB/MASTER/CONFIG.PY》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032935A (zh) * | 2019-03-08 | 2019-07-19 | 北京联合大学 | 一种基于深度学习级联网络的交通信号标识检测识别方法 |
CN110111345A (zh) * | 2019-05-14 | 2019-08-09 | 西安电子科技大学 | 一种基于注意力网络的3d点云分割方法 |
CN110111345B (zh) * | 2019-05-14 | 2023-04-28 | 西安电子科技大学 | 一种基于注意力网络的3d点云分割方法 |
CN112580407A (zh) * | 2019-09-30 | 2021-03-30 | 南京理工大学 | 一种基于轻量化神经网络模型的空间目标部件识别方法 |
CN112580407B (zh) * | 2019-09-30 | 2023-06-20 | 南京理工大学 | 一种基于轻量化神经网络模型的空间目标部件识别方法 |
CN111414815A (zh) * | 2020-03-04 | 2020-07-14 | 清华大学深圳国际研究生院 | 行人重识别网络搜索方法及行人重识别方法 |
CN111414815B (zh) * | 2020-03-04 | 2023-11-14 | 清华大学深圳国际研究生院 | 行人重识别网络搜索方法及行人重识别方法 |
CN112614135A (zh) * | 2020-12-23 | 2021-04-06 | 国网安徽省电力有限公司检修分公司 | 一种嵌入式端的表计主刻度线分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325505A (zh) | 用于嵌入式设备的实例分割方法及装置、手机端 | |
TWI742690B (zh) | 人體檢測方法、裝置、電腦設備及儲存媒體 | |
CN104596519B (zh) | 基于ransac算法的视觉定位方法 | |
CN109543549A (zh) | 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器 | |
CN114332530A (zh) | 图像分类方法、装置、计算机设备及存储介质 | |
CN110009700B (zh) | 基于rgb图和梯度图的卷积神经网络视觉深度估计方法 | |
CN106228109A (zh) | 一种基于骨骼运动轨迹的动作识别方法 | |
CN110046941A (zh) | 一种人脸识别方法、系统及电子设备和存储介质 | |
CN102385752B (zh) | 一种基于距离和色彩差异的立体匹配方法 | |
CN108197669A (zh) | 卷积神经网络的特征训练方法及装置 | |
CN110807798B (zh) | 图像识别方法、系统、相关设备以及计算机可读存储介质 | |
CN109274416A (zh) | 一种无人机及无人机采集移动终端信息的方法 | |
CN114360018A (zh) | 三维人脸表情的渲染方法及装置、存储介质及电子装置 | |
CN104202448A (zh) | 一种解决移动终端摄像头拍照亮度不均的系统及其方法 | |
CN109443200A (zh) | 一种全局视觉坐标系和机械臂坐标系的映射方法及装置 | |
CN110149551A (zh) | 媒体文件播放方法和装置、存储介质及电子装置 | |
CN107167132A (zh) | 基于增强现实与虚拟现实的室内定位系统 | |
CN113870163B (zh) | 基于三维场景的视频融合方法以及装置、存储介质、电子装置 | |
CN115861667A (zh) | 自注意力多尺度金字塔双目立体匹配方法及电子设备 | |
CN110175240A (zh) | 与外呼流程相关的知识图谱的构建方法、装置及存储介质 | |
CN109685802A (zh) | 一种低延迟的视频分割实时预览方法 | |
CN109375640A (zh) | 一种多无人机竞技的展示方法、系统及终端设备 | |
CN101894369A (zh) | 从图像序列中计算摄像机焦距的实时方法 | |
CN114360068B (zh) | 基于多流分组洗牌图卷积神经网络的骨骼动作识别方法 | |
CN106251316A (zh) | 照片的修复方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190212 |