CN113807351A - 一种场景文字检测方法和装置 - Google Patents
一种场景文字检测方法和装置 Download PDFInfo
- Publication number
- CN113807351A CN113807351A CN202111096713.9A CN202111096713A CN113807351A CN 113807351 A CN113807351 A CN 113807351A CN 202111096713 A CN202111096713 A CN 202111096713A CN 113807351 A CN113807351 A CN 113807351A
- Authority
- CN
- China
- Prior art keywords
- character
- area
- edge
- text
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000011176 pooling Methods 0.000 claims description 67
- 239000013598 vector Substances 0.000 claims description 35
- 230000007246 mechanism Effects 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 239000004576 sand Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000010339 dilation Effects 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009901 attention process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种场景文字检测方法和装置,涉及计算机视觉技术领域。该方法的一具体实施方式包括:将待检测图像输入到文字区域识别模型中,以输出所述待检测图像中的文字中心区域和文字边缘区域;将所述文字中心区域和所述文字边缘区域融合在一起,生成文字中心边缘区域;根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓。该实施方式能够解决无法准确检测不规则形状的文字和无法分离粘连的文字区域的技术问题。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种场景文字检测方法和装置。
背景技术
场景文字检测方法经常用于自动驾驶中,并已受到人工智能和计算机视觉领域研究人员的广泛关注。由于场景文字的大小、形状、纹理和背景复杂多样,场景文字检测是计算机视觉应用中最具挑战性的任务之一。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
在过去的十年里,大量的场景文字检测方法被提了出来,但这些方法严重依赖于手工设计的特征来区分文字区域和背景区域,因此不能保证模型的检测鲁棒性。
借助于深度学习技术,场景文字检测方法已取得了巨大的突破。基于深度学习的场景文字检测方法大致可以分为基于回归和基于分割两类方法,前者一般是回归候选区域与实际文字框的偏移,后者一般是基于语义分割来逐像素点区分文字区域和背景区域。因此,基于回归的方法受限于候选区域框的表达形式,对于不规则形状文字的检测结果会含有大量冗余背景信息,从而给文字识别模块带来干扰;基于分割的方法则一般无法将粘连的文字区域有效分开。
发明内容
有鉴于此,本发明实施例提供一种场景文字检测方法和装置,以解决无法准确检测不规则形状的文字和无法分离粘连的文字区域的技术问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种场景文字检测方法,包括:
将待检测图像输入到文字区域识别模型中,以输出所述待检测图像中的文字中心区域和文字边缘区域;其中,所述文字中心区域为文字几何形状所在区域的中心,所述文字边缘区域为文字几何形状所在区域的边缘,所述文字几何形状所在区域由所述文字中心区域和所述文字边缘区域组成;
将所述文字中心区域和所述文字边缘区域融合在一起,生成文字中心边缘区域;
根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓。
可选地,所述文字区域识别模型为以全卷积网络作为基本的特征提取网络的特征金字塔网络,所述全卷积网络的每个阶段分别输出一张特征图;
所述特征金字塔网络包括多个依次串联的特征合并层,沿着所述文字区域识别模型的输入到输出的方向,每个特征合并层与所述全卷积网络自顶到底的每个阶段输出的特征图一一对应地进行级联;
当前特征合并层的输入为将前一特征合并层输出的特征图与所述全卷积网络输出的特征图进行级联得到的级联特征图,通过所述当前特征合并层对所述级联特征图进行特征合并处理,从而输出特征图。
可选地,所述特征合并层包括上采样层和位于所述上采样层之前的注意力机制模块,所述注意力机制模块包括通道注意力模块和空间注意力模块。
可选地,所述特征合并层还包括位于所述注意力机制模块之前的卷积层。
可选地,通过所述通道注意力模块首先对输入的特征图在每一层特征上分别做平均池化操作和最大池化操作,从而获得平均池化向量和最大池化向量,然后将所述平均池化向量和所述最大池化向量送入含有一个隐藏层的多层感知机,最后将所述多层感知机输出的特征向量按位相加,从而生成通道注意力特征图;其中,在所述多层感知机中,所述平均池化向量和所述最大池化向量共享参数。
可选地,通过所述空间注意力模块首先沿通道轴对输入的特征图分别做平均池化操作和最大池化操作,从而获得平均池化特征图和最大池化特征图,然后对所述平均池化特征图和所述最大池化特征图进行级联,以生成级联特征图,最后对所述级联特征图进行卷积操作,以生成空间注意力特征图。
可选地,所述文字区域识别模型的网络参数采用基于实例平衡的Dice系数损失函数优化得到,其中,所述文字区域识别模型的损失包括文字中心区域的损失和文字边缘区域的损失。
可选地,基于实例平衡的Dice系数损失函数如下所示:
L=λLcenter+Lborder
Lcenter=Lpixel_dice(Gc,Pc,Wc)
Lborder=Lpixel_dice(Gb,Pb,Wb)
其中,Lcenter和Lborder分别表示文字中心区域的损失和文字边缘区域的损失,λ为预设的损失参数;G,P和W分别表示实际的文字区域、预测的文字区域和像素点权重图,c和b分别表示文字中心区域和文字边缘区域。
可选地,所述文字边缘区域由若干个边缘段组成,在所述像素点权重图中,所述边缘段的段长度越小,所述边缘段上的像素点的权重越大。
可选地,所述像素点权重图采用如下方法计算:
其中,wc(p)和Wc(p)分别表示在文字中心区域和文字边缘区域上的像素点p的权重,Area()表示该区域的像素点总数,C和Z分别表示文字中心区域和文字边缘区域的像素点集合,Cp表示包含像素点p的文字中心区域,Sp表示包含像素点p的文字边缘段,Edgesp表示包含像素点p的文字边框的边数。
可选地,所述文字边缘区域采用如下方法得到:
连接文字实例的各个顶点,从而生成外多边形;
将所述外多边形的每条边沿其垂直方向向内平移,将两两相邻边的交点依次连接起来,从而在所述外多边形内构造出内多边形;
将所述外多边形与所述内多边形之间的区域作为文字边缘区域。
可选地,将所述多边形的每条边沿其垂直方向向内平移,包括:
将所述多边形的每条边沿其垂直方向向内平移c*es个像素点的距离;其中,c表示收缩系数,es表示多边形最短边的像素点数量。
可选地,根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓,包括:
从所述文字中心边缘区域中识别出有效文字中心区域;
将所述有效文字中心区域周边的位于所述文字边缘区域中的像素点合并到所述有效文字中心区域;
采用膨胀操作来扩展所述有效文字中心区域,以使膨胀操作后的所述有效文字中心区域覆盖到合并的像素点,将膨胀操作后的所述有效文字中心区域的外轮廓作为所述待检测图像中的文字的外轮廓。
可选地,从所述文字中心边缘区域中识别出有效文字中心区域,包括:
采用以下公式计算所述文字中心区域的像素点比值X:
其中,N表示文字中心边缘区域中的文字中心区域周边的像素点数量,M表示在文字中心区域周边的像素点中,在其半径为Y个像素的圆内具有文字边缘区域像素点的数量,Y为正整数;
若所述文字中心区域的像素点比值大于预设的有效阈值,则将所述文字中心区域识别为有效文字中心区域。
另外,根据本发明实施例的另一个方面,提供了一种场景文字检测装置,包括:
识别模块,用于将待检测图像输入到文字区域识别模型中,以输出所述待检测图像中的文字中心区域和文字边缘区域;其中,所述文字中心区域为文字几何形状所在区域的中心,所述文字边缘区域为文字几何形状所在区域的边缘,所述文字几何形状所在区域由所述文字中心区域和所述文字边缘区域组成;
融合模块,用于将所述文字中心区域和所述文字边缘区域融合在一起,生成文字中心边缘区域;
计算模块,用于根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓。
可选地,所述文字区域识别模型为以全卷积网络作为基本的特征提取网络的特征金字塔网络,所述全卷积网络的每个阶段分别输出一张特征图;
所述特征金字塔网络包括多个依次串联的特征合并层,沿着所述文字区域识别模型的输入到输出的方向,每个特征合并层与所述全卷积网络自顶到底的每个阶段输出的特征图一一对应地进行级联;
当前特征合并层的输入为将前一特征合并层输出的特征图与所述全卷积网络输出的特征图进行级联得到的级联特征图,通过所述当前特征合并层对所述级联特征图进行特征合并处理,从而输出特征图。
可选地,所述特征合并层包括上采样层和位于所述上采样层之前的注意力机制模块,所述注意力机制模块包括通道注意力模块和空间注意力模块。
可选地,所述特征合并层还包括位于所述注意力机制模块之前的卷积层。
可选地,通过所述通道注意力模块首先对输入的特征图在每一层特征上分别做平均池化操作和最大池化操作,从而获得平均池化向量和最大池化向量,然后将所述平均池化向量和所述最大池化向量送入含有一个隐藏层的多层感知机,最后将所述多层感知机输出的特征向量按位相加,从而生成通道注意力特征图;其中,在所述多层感知机中,所述平均池化向量和所述最大池化向量共享参数。
可选地,通过所述空间注意力模块首先沿通道轴对输入的特征图分别做平均池化操作和最大池化操作,从而获得平均池化特征图和最大池化特征图,然后对所述平均池化特征图和所述最大池化特征图进行级联,以生成级联特征图,最后对所述级联特征图进行卷积操作,以生成空间注意力特征图。
可选地,所述文字区域识别模型的网络参数采用基于实例平衡的Dice系数损失函数优化得到,其中,所述文字区域识别模型的损失包括文字中心区域的损失和文字边缘区域的损失。
可选地,基于实例平衡的Dice系数损失函数如下所示:
L=λLcenter+Lborder
Lcenter=Lpixel_dice(Gc,Pc,Wc)
Lborder=Lpixel_dice(Gb,Pb,Wb)
其中,Lcenter和Lborder分别表示文字中心区域的损失和文字边缘区域的损失,λ为预设的损失参数;G,P和W分别表示实际的文字区域、预测的文字区域和像素点权重图,c和b分别表示文字中心区域和文字边缘区域。
可选地,所述文字边缘区域由若干个边缘段组成,在所述像素点权重图中,所述边缘段的段长度越小,所述边缘段上的像素点的权重越大。
可选地,所述像素点权重图采用如下方法计算:
其中,wc(p)和Wc(p)分别表示在文字中心区域和文字边缘区域上的像素点p的权重,Area()表示该区域的像素点总数,C和Z分别表示文字中心区域和文字边缘区域的像素点集合,Cp表示包含像素点p的文字中心区域,Sp表示包含像素点p的文字边缘段,Edgesp表示包含像素点p的文字边框的边数。
可选地,所述文字边缘区域采用如下方法得到:
连接文字实例的各个顶点,从而生成外多边形;
将所述外多边形的每条边沿其垂直方向向内平移,将两两相邻边的交点依次连接起来,从而在所述外多边形内构造出内多边形;
将所述外多边形与所述内多边形之间的区域作为文字边缘区域。
可选地,将所述多边形的每条边沿其垂直方向向内平移,包括:
将所述多边形的每条边沿其垂直方向向内平移c*es个像素点的距离;其中,c表示收缩系数,es表示多边形最短边的像素点数量。
可选地,所述计算模块还用于:
从所述文字中心边缘区域中识别出有效文字中心区域;
将所述有效文字中心区域周边的位于所述文字边缘区域中的像素点合并到所述有效文字中心区域;
采用膨胀操作来扩展所述有效文字中心区域,以使膨胀操作后的所述有效文字中心区域覆盖到合并的像素点,将膨胀操作后的所述有效文字中心区域的外轮廓作为所述待检测图像中的文字的外轮廓。
可选地,所述计算模块还用于:
采用以下公式计算所述文字中心区域的像素点比值X:
其中,N表示文字中心边缘区域中的文字中心区域周边的像素点数量,M表示在文字中心区域周边的像素点中,在其半径为Y个像素的圆内具有文字边缘区域像素点的数量,Y为正整数;
若所述文字中心区域的像素点比值大于预设的有效阈值,则将所述文字中心区域识别为有效文字中心区域。
根据本发明实施例的另一个方面,还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,所述一个或多个处理器实现上述任一实施例所述的方法。
根据本发明实施例的另一个方面,还提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任一实施例所述的方法。
上述发明中的一个实施例具有如下优点或有益效果:因为采用将待检测图像输入到文字区域识别模型中,以输出文字中心区域和文字边缘区域,从而确定待检测图像中的文字的外轮廓的技术手段,所以克服了现有技术中无法准确检测不规则形状的文字和无法分离粘连的文字区域的技术问题。本发明实施例通过在文字区域识别模型中引入注意力机制来增强网络对于文字区域和背景区域的区分能力,进而大大提升了模型对于场景文字,尤其是不规则形状的场景文字的检测精度;本发明实施例基于场景文字的几何特性,通过对文字边缘区域中不同长度的边缘段中的像素点分配不同的权重,从而有效地分隔开粘连的文字区域,其中较短的边缘段上的像素点所占权重较大。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的场景文字检测方法的主要流程的示意图;
图2是根据本发明一个可参考实施例的场景文字检测方法的主要流程的示意图;
图3是根据本发明实施例的文字区域识别模型的结构示意图;
图4是根据本发明实施例的对文字边缘区域分配不同权重的示意图;
图5是根据本发明实施例的场景文字检测装置的主要模块的示意图;
图6是本发明实施例可以应用于其中的示例性系统架构图;
图7是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
针对现有技术存在的技术问题,本发明实施例基于深度神经网络,提出了一种场景文字检测方法来检测具有任意形状和方向的场景文字。现有技术不能解决粘连文字区域的分离问题,也无法对任意形状的场景文字进行检测,本发明实施例提出了加权文字边缘的构思,从而将粘连文字区域有效地分隔开,而且在文字区域识别模型的网络结构中引入了注意力机制,包括通道注意力模块和空间注意力模块,该机制有效地提升了模型对文字区域和背景区域的分辨能力。
图1是根据本发明实施例的场景文字检测方法的主要流程的示意图。作为本发明的一个实施例,如图1所示,所述场景文字检测方法可以包括:
步骤101,将待检测图像输入到文字区域识别模型中,以输出所述待检测图像中的文字中心区域和文字边缘区域。
可以将文字检测任务视为一个语义分割问题,本发明实施例将文字区域拆分为文字中心区域和边缘区域两部分,并以此来精确定位具有任意形状和方向的场景文字。其中,所述文字中心区域为文字几何形状所在区域的中心,所述文字边缘区域为文字几何形状所在区域的边缘,所述文字几何形状所在区域由所述文字中心区域和所述文字边缘区域组成。
如图2所示,给定一张待检测图像,将该待检测图像输入到文字区域识别模型中,该文字区域识别模型通过两个通道分别输出文字中心区域和文字边缘区域。可选地,所述文字区域识别模型为以全卷积网络作为基本的特征提取网络的特征金字塔网络,所述全卷积网络输出多张特征图,即每个阶段分别输出一张特征图。如图3所示。可以以VGG16作为基本的特征提取网络,每个阶段分别输出一张特征图,总共输出五张特征图(自底向顶依次为f5、f4、f3、f2和f1);其中,第一阶段(stage1)的通道数为64,池化尺寸为/2;第二阶段(stage2)的通道数为128,池化尺寸为/2;第三阶段(stage3)的通道数为256,池化尺寸为/2;第四阶段(stage4)的通道数为512,池化尺寸为/2;第五阶段(stage5)的通道数为512,池化尺寸为/2。
可选地,所述特征金字塔网络包括多个依次串联的特征合并层,沿着所述文字区域识别模型的输入到输出的方向,每个特征合并层与所述全卷积网络自顶到底的每个阶段输出的特征图一一对应地进行级联;当前特征合并层的输入为将前一特征合并层输出的特征图与所述全卷积网络输出的特征图进行级联得到的级联特征图,通过所述当前特征合并层对所述级联特征图进行特征合并处理,从而输出特征图。本发明实施例采用逐层合并特征图的方式输出文字中心区域和文字边缘区域。可选地,所述特征合并层包括上采样层和位于所述上采样层之前的注意力机制模块,所述注意力机制模块包括通道注意力模块和空间注意力模块。本发明实施例通过对全卷积网络输出的特征图和前一特征合并层输出的特征图做上采样来合并特征,并在每个上采样层之前加入通道注意力模块和空间注意力模块,最后输出文字中心区域和文字边缘区域两张特征图。可选地,所述特征合并层还包括位于所述注意力机制模块之前的卷积层,卷积层将输入到特征合并层中的特征图相加。
如图3所示,所述特征金字塔网络包括五个依次串联的特征合并层,其中,第一个特征合并层包括注意力机制模块和上池化层(Unpool),上池化层的尺寸为×2;第二个特征合并层包括卷积层、注意力机制模块和上池化层,卷积核的尺寸为1×1和3×3,通道数为256和256,上池化层的尺寸为×2;第三个特征合并层包括卷积层、注意力机制模块和上池化层,卷积核的尺寸为1×1和3×3,通道数为128和128,上池化层的尺寸为×2;第四个特征合并层包括卷积层、注意力机制模块和上池化层,卷积核的尺寸为1×1和3×3,通道数为64和64,上池化层的尺寸为×2;第五个特征合并层包括卷积层、注意力机制模块和上池化层,卷积核的尺寸为1×1和3×3,通道数为32和32,上池化层的尺寸为×2。最后再连接一个卷积层,卷积核的尺寸为3×3和1×1,通道数为32和2,因此最后通过两个通道分别输出待检测图像中的文字中心区域和文字边缘区域
在本发明的实施例中,特征合并的具体过程如下公式定义:
gi=unpool(As(Ac(hi)))
其中,gi表示第i个特征合并层合并后的特征图,fi表示全卷积网络第i个阶段输出的特征图,hi表示卷积层合并后的特征图,As和Ac分别表示空间注意力模块和通道注意力模块。
通过特征合并层逐层合并特征后,得到一张与输入图像具有相同宽高的特征图,在经过两个大小分别为3×3和1×1的卷积层,最终输出一张具有两个通道的特征图,分别表示待检测图像中的文字中心区域和文字边缘区域。
注意力机制有助于引导模型去更好地关注图像中重要的特征而忽略掉那些不重要的特征,为了让模型更好的关注到图像中的前景文字区域,本发明实施例在网络结构中引入了通道注意力模块和空间注意力模块。
可选地,通过所述通道注意力模块首先对输入的特征图在每一层特征上分别做平均池化操作和最大池化操作,从而获得平均池化向量和最大池化向量,然后将所述平均池化向量和所述最大池化向量送入含有一个隐藏层的多层感知机(MLP),最后将所述多层感知机输出的特征向量按位相加,从而生成通道注意力特征图;其中,在所述多层感知机中,所述平均池化向量和所述最大池化向量共享参数。在本发明的实施例中,通道注意力模块通过为特征图中对文字区域具有更强响应的通道分配更大的权重来减少无关背景信息的干扰。
可选地,所述多层感知机的隐藏层的大小可以设置为Rc/r×1×1,缩小比率r可以设置为8,最后,将多层感知机输出的两个特征向量按位相加,从而得到通道注意力特征图Mc∈Rc ×1×1。可选地,通道注意力模块的公式可以定义为:
Mc(f)=σ(MLP(poolavg(f)+MLP(poolmax(f))))
其中,σ表示激活函数,poolavg和poolmax分别表示平均池化操作和最大池化操作。
自然图像中的背景区域常常会转移人们的注意视线,从而使得前景区域被忽视掉。空间注意力模块可以减轻背景区域对网络的干扰,使文字区域在特征图中得以凸显。可选地,通过所述空间注意力模块首先沿通道轴对输入的特征图分别做平均池化操作和最大池化操作,从而获得平均池化特征图和最大池化特征图,然后对所述平均池化特征图和所述最大池化特征图进行级联,以生成级联特征图,最后对所述级联特征图进行卷积操作,以生成空间注意力特征图Ms∈Rt×H×W。可选地,空间注意力模块的公式可以定义为:
Ms(f)=σ(conv7×7[poolavg(f),poolmax(f)]
其中,σ表示激活函数,conv7×7表示卷积核尺寸为7×7的卷积层。
给定一个中间特征图f,整个注意力过程是通过依次使用通道注意力模块和空间注意力模块来实现的,公式定义如下所示:
需要指出的是,文字区域识别模型采用标记好的图像样本训练得到,并且需要对每个图像样本标记文字中心区域和文字边缘区域,使文字区域识别模型进行有监督训练。
可选地,所述文字区域识别模型的网络参数采用基于实例平衡的Dice系数损失函数优化得到,其中,所述文字区域识别模型的损失包括文字中心区域的损失和文字边缘区域的损失。在本发明的实施例中,模型训练的损失由文字中心区域的损失和文字边缘区域的损失这两部分损失构成:
L=λLcenter+Lborder
其中,Lcenter和Lborder分别表示文字中心区域的损失和文字边缘区域的损失,λ为预设的损失参数。
可选地,λ可以设置为1.0,本发明实施例对此不作限制。
需要指出的是,对图像中文字中心区域和文字边缘区域的预测可以看作是像素点的二分类问题。本发明实施例采用基于实例平衡的Dice系数损失函数来优化网络参数,如下所示:
Lcenter=Lpixel_dice(Gc,Pc,Wc)
Lborder=Lpixel_dice(Gb,Pb,Wb)
其中,G,P和W分别表示实际的文字区域、预测的文字区域和像素点权重图,c和b分别表示文字中心区域和文字边缘区域。
由于场景文字尺度差异较大,如果一张图像中文字区域上的所有像素点都具有相同的权重,那么面积较小的文字区域会因为其损失值在总的损失值中占比较小而不易被检测到。以此类推,模型也会容易漏检文字边缘区域中的短边部分。在计算损失时,如果文字边缘段上的像素点都享有相同的权重,那么长度较短的边缘段上的像素点往往无法被检测到,这就会导致相邻的文字实例粘连在一起而无法分离。进一步分析其原因主要是长度较长的边缘段含有大量的像素点,当其被检测得足够好时,网络的损失值就已经很小了,从而造成大量长度较短的边缘段被漏检。为了解决这些问题,本发明实施例进一步为文字边缘区域中不同段的像素点分配不同的权重。
可选地,所述文字边缘区域由若干个边缘段组成,在所述像素点权重图中,所述边缘段的段长度越小,所述边缘段上的像素点的权重越大。本发明实施例将文字边缘区域划分为若干边缘段,并给不同边缘段上的像素点分配不同的权重,使得文字区域识别模型可以有效地分离粘连在一起的单词和文本行。
可选地,所述文字边缘区域采用如下方法得到:连接文字实例的各个顶点,从而生成外多边形;将所述外多边形的每条边沿其垂直方向向内平移,将两两相邻边的交点依次连接起来,从而在所述外多边形内构造出内多边形;将所述外多边形与所述内多边形之间的区域作为文字边缘区域。
本发明实施例利用现有数据集提供的文字框的顶点坐标来自动标记出文字边缘区域,如图4所示,具体的标记步骤可以包括:首先通过连接一个文字实例的顶点坐标来产生若干条边,这些边构成一个多边形(即外多边形);接着,将每条边沿其垂直方向向内平移若干个个像素点的距离;然后,将两两相邻边的所有交点依次连接起来,以在原始多边形内构造出一个更小的多边形(即内多边形),这两个多边形之间的区域即文字边缘区域;最后,连接内多边形和外多边形的对应顶点,从而将文字边缘区域划分为若干边缘段,并给不同边缘段中的像素点分配不同的权重。在文字边缘区域中,边缘段的长度越小,该边缘段上的像素点的权重越大。
可选地,将所述多边形的每条边沿其垂直方向向内平移,包括:将所述多边形的每条边沿其垂直方向向内平移c*es个像素点的距离;其中,c表示收缩系数(可以设置为0.3,0.5或者0.25等),es表示多边形最短边的像素点数量。
可选地,所述像素点权重图采用如下方法计算:
给定一张包含N个文字实例的图像,文字中心区域和文字边缘区域中像素点的权重定义如下:
其中,wc(p)和Wc(p)分别表示在文字中心区域和文字边缘区域上的像素点p的权重,Area()表示该区域的像素点总数,C和Z分别表示文字中心区域和文字边缘区域的像素点集合,Cp表示包含像素点p的文字中心区域,Sp表示包含像素点p的文字边缘段,Edgesp表示包含像素点p的文字边框的边数。
步骤102,将所述文字中心区域和所述文字边缘区域融合在一起,生成文字中心边缘区域。
如图2所示,文字区域识别模型输出待检测图像中的文字中心区域和文字边缘区域之后,本发明实施例进一步将文字中心区域和文字边缘区域融合在一起,从而生成文字中心-边缘区域。
步骤103,根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓。
在该步骤中,对文字中心-边缘区域进行一系列后处理,比如分组、过滤和扩展操作,最终重建出待检测图像中的文字实例的外轮廓。
可选地,根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓,包括:从所述文字中心边缘区域中识别出有效文字中心区域;将所述有效文字中心区域周边的位于所述文字边缘区域中的像素点合并到所述有效文字中心区域;采用膨胀操作来扩展所述有效文字中心区域,以使膨胀操作后的所述有效文字中心区域覆盖到合并的像素点,将膨胀操作后的所述有效文字中心区域的外轮廓作为所述待检测图像中的文字的外轮廓。
如图2所示,网络完成一次前向传播,分别输出文字中心区域的特征图和文字边缘区域的特征图,然将文字中心区域的特征图和文字边缘区域的特征图融合在一起,从而得到一张文字中心-边缘区域的特征图。基于这张文字中心-边缘区域的特征图,采用后处理方式即可有效地重建出文字实例的外轮廓。可选地,后处理步骤可以包括:首先,将文字中心区域上的像素点聚合成若干个文字中心区域;接着,根据预设规则从聚合而成的若干个文字中心区域中筛选出有效文字中心区域;然后,将每个有效文字中心区域周边的位于文字边缘区域中的像素点合并到该有效文字中心区域;最后,采用膨胀操作来扩展每个有效文字中心区域,使其能覆盖到合并的位于文字边缘区域中的像素点,膨胀后的有效文字中心区域的外轮廓即为文字实例的外轮廓。可选地,
可选地,采用膨胀操作来扩展每个有效文字中心区域,使其能覆盖到90%合并的位于文字边缘区域中的像素点。可选地,采用膨胀操作来扩展每个有效文字中心区域,使其能覆盖到80%合并的位于文字边缘区域中的像素点。可选地,采用膨胀操作来扩展每个有效文字中心区域,使其能覆盖到95%合并的位于文字边缘区域中的像素点。
可选地,从所述文字中心边缘区域中识别出有效文字中心区域,包括:
采用以下公式计算所述文字中心区域的像素点比值X:
其中,N表示文字中心边缘区域中的文字中心区域周边的像素点数量,M表示在文字中心区域周边的像素点中,在其半径为Y个像素的圆内具有文字边缘区域像素点的数量,Y为正整数;
若所述文字中心区域的像素点比值大于预设的有效阈值(比如0.6,0.8或者0.9等),则将所述文字中心区域识别为有效文字中心区域。
例如,假设文字中心区域周边的像素点数量为N,在这N个像素点中,在其半径为3个像素点的圆内具有文字边缘区域像素点的数量M,如果M/N>0.8,则认为该文字中心区域为有效文字中心区域。
根据上面所述的各种实施例,可以看出本发明实施例通过将待检测图像输入到文字区域识别模型中,以输出文字中心区域和文字边缘区域,从而确定待检测图像中的文字的外轮廓的技术手段,解决了现有技术中无法准确检测不规则形状的文字和无法分离粘连的文字区域的技术问题。本发明实施例通过在文字区域识别模型中引入注意力机制来增强网络对于文字区域和背景区域的区分能力,进而大大提升了模型对于场景文字,尤其是不规则形状的场景文字的检测精度;本发明实施例基于场景文字的几何特性,通过对文字边缘区域中不同长度的边缘段中的像素点分配不同的权重,从而有效地分隔开粘连的文字区域,其中较短的边缘段上的像素点所占权重较大。
图5是根据本发明实施例的场景文字检测装置的主要模块的示意图,如图5所示,所述场景文字检测装置500包括识别模块501、融合模块502和计算模块503;其中,识别模块501用于将待检测图像输入到文字区域识别模型中,以输出所述待检测图像中的文字中心区域和文字边缘区域;其中,所述文字中心区域为文字几何形状所在区域的中心,所述文字边缘区域为文字几何形状所在区域的边缘,所述文字几何形状所在区域由所述文字中心区域和所述文字边缘区域组成;融合模块502用于将所述文字中心区域和所述文字边缘区域融合在一起,生成文字中心边缘区域;计算模块503用于根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓。
可选地,所述文字区域识别模型为以全卷积网络作为基本的特征提取网络的特征金字塔网络,所述全卷积网络的每个阶段分别输出一张特征图;
所述特征金字塔网络包括多个依次串联的特征合并层,沿着所述文字区域识别模型的输入到输出的方向,每个特征合并层与所述全卷积网络自顶到底的每个阶段输出的特征图一一对应地进行级联;
当前特征合并层的输入为将前一特征合并层输出的特征图与所述全卷积网络输出的特征图进行级联得到的级联特征图,通过所述当前特征合并层对所述级联特征图进行特征合并处理,从而输出特征图。
可选地,所述特征合并层包括上采样层和位于所述上采样层之前的注意力机制模块,所述注意力机制模块包括通道注意力模块和空间注意力模块。
可选地,所述特征合并层还包括位于所述注意力机制模块之前的卷积层。
可选地,通过所述通道注意力模块首先对输入的特征图在每一层特征上分别做平均池化操作和最大池化操作,从而获得平均池化向量和最大池化向量,然后将所述平均池化向量和所述最大池化向量送入含有一个隐藏层的多层感知机,最后将所述多层感知机输出的特征向量按位相加,从而生成通道注意力特征图;其中,在所述多层感知机中,所述平均池化向量和所述最大池化向量共享参数。
可选地,通过所述空间注意力模块首先沿通道轴对输入的特征图分别做平均池化操作和最大池化操作,从而获得平均池化特征图和最大池化特征图,然后对所述平均池化特征图和所述最大池化特征图进行级联,以生成级联特征图,最后对所述级联特征图进行卷积操作,以生成空间注意力特征图。
可选地,所述文字区域识别模型的网络参数采用基于实例平衡的Dice系数损失函数优化得到,其中,所述文字区域识别模型的损失包括文字中心区域的损失和文字边缘区域的损失。
可选地,基于实例平衡的Dice系数损失函数如下所示:
L=λLcenter+Lborder
Lcenter=Lpixel-dice(Gc,Pc,Wc)
Lborder=Lpixel-dice(Gb,Pb,Wb)
其中,Lcenter和Lborder分别表示文字中心区域的损失和文字边缘区域的损失,λ为预设的损失参数;G,P和W分别表示实际的文字区域、预测的文字区域和像素点权重图,c和b分别表示文字中心区域和文字边缘区域。
可选地,所述文字边缘区域由若干个边缘段组成,在所述像素点权重图中,所述边缘段的段长度越小,所述边缘段上的像素点的权重越大。
可选地,所述像素点权重图采用如下方法计算:
其中,wc(p)和Wc(p)分别表示在文字中心区域和文字边缘区域上的像素点p的权重,Area()表示该区域的像素点总数,C和Z分别表示文字中心区域和文字边缘区域的像素点集合,Cp表示包含像素点p的文字中心区域,Sp表示包含像素点p的文字边缘段,Edgesp表示包含像素点p的文字边框的边数。
可选地,所述文字边缘区域采用如下方法得到:
连接文字实例的各个顶点,从而生成外多边形;
将所述外多边形的每条边沿其垂直方向向内平移,将两两相邻边的交点依次连接起来,从而在所述外多边形内构造出内多边形;
将所述外多边形与所述内多边形之间的区域作为文字边缘区域。
可选地,将所述多边形的每条边沿其垂直方向向内平移,包括:
将所述多边形的每条边沿其垂直方向向内平移c*es个像素点的距离;其中,c表示收缩系数,es表示多边形最短边的像素点数量。
可选地,所述计算模块503还用于:
从所述文字中心边缘区域中识别出有效文字中心区域;
将所述有效文字中心区域周边的位于所述文字边缘区域中的像素点合并到所述有效文字中心区域;
采用膨胀操作来扩展所述有效文字中心区域,以使膨胀操作后的所述有效文字中心区域覆盖到合并的像素点,将膨胀操作后的所述有效文字中心区域的外轮廓作为所述待检测图像中的文字的外轮廓。
可选地,所述计算模块503还用于:
采用以下公式计算所述文字中心区域的像素点比值X:
其中,N表示文字中心边缘区域中的文字中心区域周边的像素点数量,M表示在文字中心区域周边的像素点中,在其半径为Y个像素的圆内具有文字边缘区域像素点的数量,Y为正整数;
若所述文字中心区域的像素点比值大于预设的有效阈值,则将所述文字中心区域识别为有效文字中心区域。
需要说明的是,在本发明所述场景文字检测装置的具体实施内容,在上面所述场景文字检测方法中已经详细说明了,故在此重复内容不再说明。
图6示出了可以应用本发明实施例的场景文字检测方法或场景文字检测装置的示例性系统架构600。
如图6所示,系统架构600可以包括终端设备601、602、603,网络604和服务器605。网络604用以在终端设备601、602、603和服务器605之间提供通信链路的介质。网络604可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备601、602、603通过网络604与服务器605交互,以接收或发送消息等。终端设备601、602、603上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备601、602、603可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器605可以是提供各种服务的服务器,例如对用户利用终端设备601、602、603所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的物品信息查询请求等数据进行分析等处理,并将处理结果反馈给终端设备。
需要说明的是,本发明实施例所提供的场景文字检测方法一般由服务器605执行,相应地,所述场景文字检测装置一般设置在服务器605中。本发明实施例所提供的场景文字检测方法也可以由终端设备601、602、603执行,相应地,所述场景文字检测装置可以设置在终端设备601、602、603中。
应该理解,图6中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图7,其示出了适于用来实现本发明实施例的终端设备的计算机系统700的结构示意图。图7示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括识别模块、融合模块和计算模块,其中,这些模块的名称在某种情况下并不构成对该模块本身的限定。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,该设备实现如下方法:将待检测图像输入到文字区域识别模型中,以输出所述待检测图像中的文字中心区域和文字边缘区域;其中,所述文字中心区域为文字几何形状所在区域的中心,所述文字边缘区域为文字几何形状所在区域的边缘,所述文字几何形状所在区域由所述文字中心区域和所述文字边缘区域组成;将所述文字中心区域和所述文字边缘区域融合在一起,生成文字中心边缘区域;根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓。
根据本发明实施例的技术方案,因为采用将待检测图像输入到文字区域识别模型中,以输出文字中心区域和文字边缘区域,从而确定待检测图像中的文字的外轮廓的技术手段,所以克服了现有技术中无法准确检测不规则形状的文字和无法分离粘连的文字区域的技术问题。本发明实施例通过在文字区域识别模型中引入注意力机制来增强网络对于文字区域和背景区域的区分能力,进而大大提升了模型对于场景文字,尤其是不规则形状的场景文字的检测精度;本发明实施例基于场景文字的几何特性,通过对文字边缘区域中不同长度的边缘段中的像素点分配不同的权重,从而有效地分隔开粘连的文字区域,其中较短的边缘段上的像素点所占权重较大。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (17)
1.一种场景文字检测方法,其特征在于,包括:
将待检测图像输入到文字区域识别模型中,以输出所述待检测图像中的文字中心区域和文字边缘区域;其中,所述文字中心区域为文字几何形状所在区域的中心,所述文字边缘区域为文字几何形状所在区域的边缘,所述文字几何形状所在区域由所述文字中心区域和所述文字边缘区域组成;
将所述文字中心区域和所述文字边缘区域融合在一起,生成文字中心边缘区域;
根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓。
2.根据权利要求1所述的方法,其特征在于,所述文字区域识别模型为以全卷积网络作为基本的特征提取网络的特征金字塔网络,所述全卷积网络的每个阶段分别输出一张特征图;
所述特征金字塔网络包括多个依次串联的特征合并层,沿着所述文字区域识别模型的输入到输出的方向,每个特征合并层与所述全卷积网络自顶到底的每个阶段输出的特征图一一对应地进行级联;
当前特征合并层的输入为将前一特征合并层输出的特征图与所述全卷积网络输出的特征图进行级联得到的级联特征图,通过所述当前特征合并层对所述级联特征图进行特征合并处理,从而输出特征图。
3.根据权利要求2所述的方法,其特征在于,所述特征合并层包括上采样层和位于所述上采样层之前的注意力机制模块,所述注意力机制模块包括通道注意力模块和空间注意力模块。
4.根据权利要求2所述的方法,其特征在于,所述特征合并层还包括位于所述注意力机制模块之前的卷积层。
5.根据权利要求3所述的方法,其特征在于,通过所述通道注意力模块首先对输入的特征图在每一层特征上分别做平均池化操作和最大池化操作,从而获得平均池化向量和最大池化向量,然后将所述平均池化向量和所述最大池化向量送入含有一个隐藏层的多层感知机,最后将所述多层感知机输出的特征向量按位相加,从而生成通道注意力特征图;其中,在所述多层感知机中,所述平均池化向量和所述最大池化向量共享参数。
6.根据权利要求3所述的方法,其特征在于,通过所述空间注意力模块首先沿通道轴对输入的特征图分别做平均池化操作和最大池化操作,从而获得平均池化特征图和最大池化特征图,然后对所述平均池化特征图和所述最大池化特征图进行级联,以生成级联特征图,最后对所述级联特征图进行卷积操作,以生成空间注意力特征图。
7.根据权利要求1所述的方法,其特征在于,所述文字区域识别模型的网络参数采用基于实例平衡的Dice系数损失函数优化得到,其中,所述文字区域识别模型的损失包括文字中心区域的损失和文字边缘区域的损失。
9.根据权利要求8所述的方法,其特征在于,所述文字边缘区域由若干个边缘段组成,在所述像素点权重图中,所述边缘段的段长度越小,所述边缘段上的像素点的权重越大。
11.根据权利要求9所述的方法,其特征在于,所述文字边缘区域采用如下方法得到:
连接文字实例的各个顶点,从而生成外多边形;
将所述外多边形的每条边沿其垂直方向向内平移,将两两相邻边的交点依次连接起来,从而在所述外多边形内构造出内多边形;
将所述外多边形与所述内多边形之间的区域作为文字边缘区域。
12.根据权利要求11所述的方法,其特征在于,将所述多边形的每条边沿其垂直方向向内平移,包括:
将所述多边形的每条边沿其垂直方向向内平移c*es个像素点的距离;其中,c表示收缩系数,es表示多边形最短边的像素点数量。
13.根据权利要求1所述的方法,其特征在于,根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓,包括:
从所述文字中心边缘区域中识别出有效文字中心区域;
将所述有效文字中心区域周边的位于所述文字边缘区域中的像素点合并到所述有效文字中心区域;
采用膨胀操作来扩展所述有效文字中心区域,以使膨胀操作后的所述有效文字中心区域覆盖到合并的像素点,将膨胀操作后的所述有效文字中心区域的外轮廓作为所述待检测图像中的文字的外轮廓。
15.一种场景文字检测装置,其特征在于,包括:
识别模块,用于将待检测图像输入到文字区域识别模型中,以输出所述待检测图像中的文字中心区域和文字边缘区域;其中,所述文字中心区域为文字几何形状所在区域的中心,所述文字边缘区域为文字几何形状所在区域的边缘,所述文字几何形状所在区域由所述文字中心区域和所述文字边缘区域组成;
融合模块,用于将所述文字中心区域和所述文字边缘区域融合在一起,生成文字中心边缘区域;
计算模块,用于根据所述文字中心边缘区域确定所述待检测图像中的文字的外轮廓。
16.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,所述一个或多个处理器实现如权利要求1-14中任一所述的方法。
17.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-14中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111096713.9A CN113807351B (zh) | 2021-09-18 | 2021-09-18 | 一种场景文字检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111096713.9A CN113807351B (zh) | 2021-09-18 | 2021-09-18 | 一种场景文字检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113807351A true CN113807351A (zh) | 2021-12-17 |
CN113807351B CN113807351B (zh) | 2024-01-16 |
Family
ID=78895914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111096713.9A Active CN113807351B (zh) | 2021-09-18 | 2021-09-18 | 一种场景文字检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113807351B (zh) |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140023274A1 (en) * | 2012-07-19 | 2014-01-23 | Qualcomm Incorporated | Method Of Handling Complex Variants Of Words Through Prefix-Tree Based Decoding For Devanagiri OCR |
WO2014129018A1 (ja) * | 2013-02-25 | 2014-08-28 | 三菱重工業株式会社 | 文字認識装置、文字認識方法及び記録媒体 |
CN108038486A (zh) * | 2017-12-05 | 2018-05-15 | 河海大学 | 一种文字检测方法 |
KR101858099B1 (ko) * | 2017-02-03 | 2018-06-27 | 인천대학교 산학협력단 | 자동차 번호판 검출 방법 및 장치 |
CN109117846A (zh) * | 2018-08-22 | 2019-01-01 | 北京旷视科技有限公司 | 一种图像处理方法、装置、电子设备和计算机可读介质 |
WO2019192397A1 (zh) * | 2018-04-04 | 2019-10-10 | 华中科技大学 | 一种任意形状的场景文本端到端识别方法 |
CN110738207A (zh) * | 2019-09-10 | 2020-01-31 | 西南交通大学 | 一种融合文字图像中文字区域边缘信息的文字检测方法 |
CN111091123A (zh) * | 2019-12-02 | 2020-05-01 | 上海眼控科技股份有限公司 | 文本区域检测方法及设备 |
CN111444919A (zh) * | 2020-04-17 | 2020-07-24 | 南京大学 | 一种自然场景中的任意形状文本检测方法 |
CN111563502A (zh) * | 2020-05-09 | 2020-08-21 | 腾讯科技(深圳)有限公司 | 图像的文本识别方法、装置、电子设备及计算机存储介质 |
CN112528997A (zh) * | 2020-12-24 | 2021-03-19 | 西北民族大学 | 一种基于文本中心区域扩增的藏汉双语场景文本检测方法 |
US20210110189A1 (en) * | 2019-10-14 | 2021-04-15 | Shenzhen Malong Technologies Co., Ltd. | Character-based text detection and recognition |
CN112733858A (zh) * | 2021-01-08 | 2021-04-30 | 北京匠数科技有限公司 | 基于字符区域检测的图像文字快速识别方法及装置 |
CN112861860A (zh) * | 2021-03-11 | 2021-05-28 | 南京大学 | 一种基于上下边界提取的自然场景下文字检测方法 |
CN112966691A (zh) * | 2021-04-14 | 2021-06-15 | 重庆邮电大学 | 基于语义分割的多尺度文本检测方法、装置及电子设备 |
CN113033558A (zh) * | 2021-04-19 | 2021-06-25 | 深圳市华汉伟业科技有限公司 | 一种用于自然场景的文本检测方法及装置、存储介质 |
CN113033559A (zh) * | 2021-04-19 | 2021-06-25 | 深圳市华汉伟业科技有限公司 | 一种基于目标检测的文本检测方法及装置、存储介质 |
US20210224568A1 (en) * | 2020-07-24 | 2021-07-22 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for recognizing text |
WO2021146951A1 (zh) * | 2020-01-21 | 2021-07-29 | 京东方科技集团股份有限公司 | 文本检测方法及装置、存储介质 |
-
2021
- 2021-09-18 CN CN202111096713.9A patent/CN113807351B/zh active Active
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104428790A (zh) * | 2012-07-19 | 2015-03-18 | 高通股份有限公司 | 经由用于梵文光学字符辨识的基于前缀树的解码来处置字的复杂变体的方法 |
US20140023274A1 (en) * | 2012-07-19 | 2014-01-23 | Qualcomm Incorporated | Method Of Handling Complex Variants Of Words Through Prefix-Tree Based Decoding For Devanagiri OCR |
WO2014129018A1 (ja) * | 2013-02-25 | 2014-08-28 | 三菱重工業株式会社 | 文字認識装置、文字認識方法及び記録媒体 |
KR101858099B1 (ko) * | 2017-02-03 | 2018-06-27 | 인천대학교 산학협력단 | 자동차 번호판 검출 방법 및 장치 |
CN108038486A (zh) * | 2017-12-05 | 2018-05-15 | 河海大学 | 一种文字检测方法 |
WO2019192397A1 (zh) * | 2018-04-04 | 2019-10-10 | 华中科技大学 | 一种任意形状的场景文本端到端识别方法 |
CN109117846A (zh) * | 2018-08-22 | 2019-01-01 | 北京旷视科技有限公司 | 一种图像处理方法、装置、电子设备和计算机可读介质 |
CN110738207A (zh) * | 2019-09-10 | 2020-01-31 | 西南交通大学 | 一种融合文字图像中文字区域边缘信息的文字检测方法 |
US20210110189A1 (en) * | 2019-10-14 | 2021-04-15 | Shenzhen Malong Technologies Co., Ltd. | Character-based text detection and recognition |
CN111091123A (zh) * | 2019-12-02 | 2020-05-01 | 上海眼控科技股份有限公司 | 文本区域检测方法及设备 |
WO2021146951A1 (zh) * | 2020-01-21 | 2021-07-29 | 京东方科技集团股份有限公司 | 文本检测方法及装置、存储介质 |
CN111444919A (zh) * | 2020-04-17 | 2020-07-24 | 南京大学 | 一种自然场景中的任意形状文本检测方法 |
CN111563502A (zh) * | 2020-05-09 | 2020-08-21 | 腾讯科技(深圳)有限公司 | 图像的文本识别方法、装置、电子设备及计算机存储介质 |
US20210224568A1 (en) * | 2020-07-24 | 2021-07-22 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for recognizing text |
CN112528997A (zh) * | 2020-12-24 | 2021-03-19 | 西北民族大学 | 一种基于文本中心区域扩增的藏汉双语场景文本检测方法 |
CN112733858A (zh) * | 2021-01-08 | 2021-04-30 | 北京匠数科技有限公司 | 基于字符区域检测的图像文字快速识别方法及装置 |
CN112861860A (zh) * | 2021-03-11 | 2021-05-28 | 南京大学 | 一种基于上下边界提取的自然场景下文字检测方法 |
CN112966691A (zh) * | 2021-04-14 | 2021-06-15 | 重庆邮电大学 | 基于语义分割的多尺度文本检测方法、装置及电子设备 |
CN113033558A (zh) * | 2021-04-19 | 2021-06-25 | 深圳市华汉伟业科技有限公司 | 一种用于自然场景的文本检测方法及装置、存储介质 |
CN113033559A (zh) * | 2021-04-19 | 2021-06-25 | 深圳市华汉伟业科技有限公司 | 一种基于目标检测的文本检测方法及装置、存储介质 |
Non-Patent Citations (1)
Title |
---|
杨剑锋;王润民;何璇;李秀梅;钱盛友;: "基于FCN的多方向自然场景文字检测方法", 计算机工程与应用, no. 02, pages 164 - 170 * |
Also Published As
Publication number | Publication date |
---|---|
CN113807351B (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113657390B (zh) | 文本检测模型的训练方法和检测文本方法、装置和设备 | |
CN111753727A (zh) | 用于提取结构化信息的方法、装置、设备及可读存储介质 | |
CN113343982B (zh) | 多模态特征融合的实体关系提取方法、装置和设备 | |
CN114155543A (zh) | 神经网络训练方法、文档图像理解方法、装置和设备 | |
AU2016201908A1 (en) | Joint depth estimation and semantic labeling of a single image | |
KR20200087808A (ko) | 인스턴스 분할 방법 및 장치, 전자 기기, 프로그램 및 매체 | |
CN112016546A (zh) | 一种文本区域的定位方法及装置 | |
CN112163577B (zh) | 游戏画面中的文字识别方法、装置、电子设备和存储介质 | |
CN110807379B (zh) | 一种语义识别方法、装置、以及计算机存储介质 | |
CN112749300B (zh) | 用于视频分类的方法、装置、设备、存储介质和程序产品 | |
CN114792355B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN111967297A (zh) | 图像的语义分割方法、装置、电子设备及介质 | |
CN116612204A (zh) | 图像生成方法、训练方法、装置、电子设备以及存储介质 | |
CN110633717A (zh) | 一种目标检测模型的训练方法和装置 | |
CN113343981A (zh) | 一种视觉特征增强的字符识别方法、装置和设备 | |
CN110633716A (zh) | 一种目标对象的检测方法和装置 | |
CN113139110B (zh) | 区域特征处理方法、装置、设备、存储介质和程序产品 | |
CN112256254A (zh) | 一种生成布局代码的方法和装置 | |
CN113742485A (zh) | 一种处理文本的方法和装置 | |
CN113326766A (zh) | 文本检测模型的训练方法及装置、文本检测方法及装置 | |
CN110633595B (zh) | 一种利用双线性插值的目标检测方法和装置 | |
CN113807351B (zh) | 一种场景文字检测方法和装置 | |
CN114329016B (zh) | 图片标签生成方法和文字配图方法 | |
CN114882313B (zh) | 生成图像标注信息的方法、装置、电子设备及存储介质 | |
CN113610856B (zh) | 训练图像分割模型和图像分割的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |