CN109492627B - 一种基于全卷积网络的深度模型的场景文本擦除方法 - Google Patents
一种基于全卷积网络的深度模型的场景文本擦除方法 Download PDFInfo
- Publication number
- CN109492627B CN109492627B CN201910056611.0A CN201910056611A CN109492627B CN 109492627 B CN109492627 B CN 109492627B CN 201910056611 A CN201910056611 A CN 201910056611A CN 109492627 B CN109492627 B CN 109492627B
- Authority
- CN
- China
- Prior art keywords
- network
- text
- full convolution
- neural network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000003062 neural network model Methods 0.000 claims abstract description 53
- 238000012549 training Methods 0.000 claims abstract description 42
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 4
- 230000004913 activation Effects 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 230000008485 antagonism Effects 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 6
- 230000006872 improvement Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000005215 recombination Methods 0.000 description 4
- 230000006798 recombination Effects 0.000 description 4
- 230000003042 antagnostic effect Effects 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:收集并合成对应的文本与非文本图片、构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,并进行模型训练和测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果;本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测。
Description
技术领域
本发明涉及模式识别与人工智能领域,尤其涉及一种基于全卷积网络的深度模型的场景文本擦除方法。
背景技术
在我们的日常生活当中,自然场景文字无处不在,文字是人类交流的基本工具,对人类理解信息有着至关重要的作用,与此同时,各种隐私信息,比如身份证号码、手机号码、车牌号码以及家庭住址等也暴露在自然场景文本当中,随着自然场景文本检测与识别技术的发展,如此重要的隐私信息很容易被机器自动收集用于欺诈、营销或其他非法活动,如何隐藏这些暴露于自然场景之中的隐私信息成为了研究的热点。
对于隐藏自然场景文本问题,传统的方法通常对图像做文本检测,然后人工设计一些规则滤除一些负样本,接着将文本区域移除,最后通过图像填补算法来补全移除的文本区域,这种方法一方面高度依赖文本检测的准确性,另一方面对人工设计的规则以及填补算法要求较高,其次单张图片处理的效率与文本区域成反比,只能解决一些干净,清晰,分布规则的简单图像。
目前关于场景文本擦除的研究倾向于图像填补算法上,假设用户提供要移除目标的掩码,而获取对应的掩码也是一个极具挑战的任务,如果我们不能获取非常整齐的掩码,那么填补算法会试图补回目标,会产生相反的效果。因此,本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,以解决现有技术中的不足之处。
发明内容
针对上述问题,本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,然后将成对图片输入到全卷积隐藏神经网络模型,计算相对应的代价函数,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛;
步骤三:测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果。
进一步改进在于:所述步骤一中合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能。
进一步改进在于:所述步骤二中条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,所述生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片。
进一步改进在于:所述判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数。
进一步改进在于:所述损失网络由VGG网络组成,所述VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离。
进一步改进在于:所述步骤二中将成对图片输入到全卷积隐藏神经网络中时,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接受由反卷积支路去预测对应的非文本特征。
进一步改进在于:所述步骤二中将成对图片输入到全卷积隐藏神经网络中的过程中,由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积支路和反卷积支路的特征进行融合,对这两个特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果。
进一步改进在于:所述步骤二中代价函数由重组损失函数和对抗损失函数组成,具体如公式(1)所示:
其中,λe,λi,λt表示各个损失函数的权重;
重组损失函数的各个分项是基于欧式距离损失函数进行设计的,具体如公式(2)所示:
其中,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,n代表选择用来输出特征的层数,N代表预测的总的层数,代表对应的真实的非文本图片,代表对应的预测的非文本图片,表示经过VGG网络第n个层之后的特征图;
其中,HnWnCn代表高维特征图的形状,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,表示经过VGG网络第n个卷积层层之后的特征图,N代表用来输出特征的总的层数;
进一步改进在于:所述步骤二中使用反向传播算法对该条件生成对抗全卷积隐藏神经网络模型进行训练的具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛。
进一步改进在于:所述步骤三中先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
本发明的有益效果为:通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,通过人工标注一定数量的配对的自然场景文本图片与非文本图片数据可以增加全卷积隐藏神经网络模型的泛化性能,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
附图说明
图1为本发明方法流程示意图。
图2为本发明全卷积隐藏神经网络模型示意图。
图3为本发明全卷积隐藏神经网络模型网络优化方式示意图。
具体实施方式
为了使发明实现的技术手段、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
根据图1、2、3示,本实施例提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据,合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片;
判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数;
损失网络由VGG网络组成,VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离计算相对应的代价函数;
然后将成对图片输入到全卷积隐藏神经网络模型,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接受由反卷积支路去预测对应的非文本特征,将成对图片输入到全卷积隐藏神经网络中的过程中,由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积支路和反卷积支路的特征进行融合,对这两个特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,代价函数由重组损失函数和对抗损失函数组成,具体如公式(1)所示:
其中,λe,λi,λt表示各个损失函数的权重;
重组损失函数的各个分项是基于欧式距离损失函数进行设计的,具体如公式(2)所示:
其中,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,n代表选择用来输出特征的层数,N代表预测的总的层数,代表对应的真实的非文本图片,代表对应的预测的非文本图片,表示经过VGG网络第n个层之后的特征图;
其中,HnWnCn代表高维特征图的形状,代表将预测的图片分为两个部分,文本区域与非文本区域,文本区域设置成预测出来的特征,非文本区域设置成对应的真实特征,表示经过VGG网络第n个卷积层层之后的特征图,N代表用来输出特征的总的层数;
最后利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛,具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛;
步骤三:测试网络,先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,通过人工标注一定数量的配对的自然场景文本图片与非文本图片数据可以增加全卷积隐藏神经网络模型的泛化性能,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测,同时,本发明方法创建的深度全卷积隐藏神经网络模型是灵活的,可以通过不同基本网络结构实现的,实现方法方便简单,具有较强的实用性。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (6)
1.一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于,包括以下步骤:
步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据;
步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,然后将成对图片输入到全卷积隐藏神经网络模型,计算相对应的代价函数,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛;
步骤三:测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果;
所述步骤二中条件生成对抗全卷积隐藏神经网络模型由三个子网络组成,具体为生成器网络、判别器网络和损失网络,所述生成器网络是基于全卷积神经网络的结构进行设计的,它的输入是一张自然场景图片;
所述步骤二中将成对图片输入到全卷积隐藏神经网络中时,首先由卷积特征抽取支路网络抽取高维特征进行文本与非文本特征的区分,接着由反卷积支路去预测对应的非文本特征;由于特征经过低维到高维再到低维的转换,一些细节信息会被丢失,因此还需要用侧向连接模块将对应大小分别来自于卷积特征抽取支路和反卷积支路的特征进行融合,对来自所述卷积特征抽取支路的特征向量和来自所述反卷积支路的特征向量进行按元素相加之后送入下一个反卷积模块,直到最后输出一个关于非文本的自然场景图片的预测结果。
2.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤一中合成的一定数量的成对的自然场景文本与非文本图片需要被划分成训练集和测试集,训练集用于训练全卷积隐藏神经网络模型,测试集用于测试全卷积隐藏神经网络模型的性能。
3.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述判别器网络是由多个卷积层加正则化层以及激活层组成,将输入图片与预测结果一起送入判别器网络,经过卷积层提取高维特征之后,接入激活函数层,最终输出关于对应感受野图片块真假的预测分数。
4.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述损失网络由VGG网络组成,所述VGG网络由多个卷积层、正则化层、激活函数层以及池化层叠加而成,将对应的预测图片和真实标签图片一起送入损失网络,可以进行优化两张图片在高维特征上的距离。
5.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤二中使用反向传播算法对该条件生成对抗全卷积隐藏神经网络模型进行训练的具体过程为:使用反向传播算法,从最后一层计算传递梯度,逐层传递,更新所有的参数权重,达到训练网络的目的,训练采用交替训练的优化方式,首先初始化所有的网络结构,接着固定生成器网络训练判别器网络,然后反过来使用固定判别器网络训练生成器网络和损失网络,接着再次固定生成器网络训练判别器网络,以此类推直至模型收敛。
6.根据权利要求1所述的一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于:所述步骤三中先将一张自然场景文本图片输入到全卷积隐藏神经网络模型的生成器网络中,生成器网络的输出即为最后的预测结果和全卷积隐藏神经网络模型预测的对应的非文本图片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910056611.0A CN109492627B (zh) | 2019-01-22 | 2019-01-22 | 一种基于全卷积网络的深度模型的场景文本擦除方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910056611.0A CN109492627B (zh) | 2019-01-22 | 2019-01-22 | 一种基于全卷积网络的深度模型的场景文本擦除方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109492627A CN109492627A (zh) | 2019-03-19 |
CN109492627B true CN109492627B (zh) | 2022-11-08 |
Family
ID=65714792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910056611.0A Active CN109492627B (zh) | 2019-01-22 | 2019-01-22 | 一种基于全卷积网络的深度模型的场景文本擦除方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109492627B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619885B (zh) * | 2019-08-15 | 2022-02-11 | 西北工业大学 | 基于深度完全卷积神经网络的生成对抗网络语音增强方法 |
CN111193657A (zh) * | 2019-12-12 | 2020-05-22 | 广州啦咔网络科技有限公司 | 聊天表情回复方法、装置及存储介质 |
CN111080155B (zh) * | 2019-12-24 | 2022-03-15 | 武汉大学 | 一种基于生成对抗网络的空调用户调频能力评估方法 |
CN111860434B (zh) * | 2020-07-31 | 2021-05-25 | 贵州大学 | 机器人视觉隐私行为识别与保护方法 |
CN112465931B (zh) * | 2020-12-03 | 2024-05-31 | 科大讯飞股份有限公司 | 图像文本抹除方法、相关设备及可读存储介质 |
CN113065407B (zh) * | 2021-03-09 | 2022-07-12 | 国网河北省电力有限公司 | 基于注意力机制和生成对抗网络的财务票据印章擦除方法 |
CN113657396B (zh) * | 2021-08-17 | 2024-02-09 | 北京百度网讯科技有限公司 | 训练方法、译文展示方法、装置、电子设备以及存储介质 |
CN113469878B (zh) * | 2021-09-02 | 2021-11-12 | 北京世纪好未来教育科技有限公司 | 一种文本擦除方法及其模型的训练方法、装置、存储介质 |
CN113781356B (zh) * | 2021-09-18 | 2024-06-04 | 北京世纪好未来教育科技有限公司 | 图像去噪模型的训练方法、图像去噪方法、装置及设备 |
CN114170099A (zh) * | 2021-12-02 | 2022-03-11 | 中国科学技术大学 | 任意形状场景文字擦除方法、系统、设备与存储介质 |
CN114463676A (zh) * | 2022-01-19 | 2022-05-10 | 北京工业大学 | 一种基于隐式表达的安全帽配戴检测方法 |
CN114913588B (zh) * | 2022-06-20 | 2023-04-25 | 电子科技大学 | 一种应用于复杂场景下的人脸图像修复及识别方法 |
CN117132994B (zh) * | 2023-08-17 | 2024-07-02 | 华南理工大学 | 一种基于生成对抗网络的手写文字擦除方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018053340A1 (en) * | 2016-09-15 | 2018-03-22 | Twitter, Inc. | Super resolution using a generative adversarial network |
CN107203606A (zh) * | 2017-05-17 | 2017-09-26 | 西北工业大学 | 基于卷积神经网络的自然场景下文本检测与识别方法 |
CN108399419B (zh) * | 2018-01-25 | 2021-02-19 | 华南理工大学 | 基于二维递归网络的自然场景图像中中文文本识别方法 |
CN108764268A (zh) * | 2018-04-02 | 2018-11-06 | 华南理工大学 | 一种基于深度学习的图文多模态情感识别方法 |
CN108509596B (zh) * | 2018-04-02 | 2021-06-04 | 广州市申迪计算机系统有限公司 | 文本分类方法、装置、计算机设备和存储介质 |
CN109086756B (zh) * | 2018-06-15 | 2021-08-03 | 众安信息技术服务有限公司 | 一种基于深度神经网络的文本检测分析方法、装置及设备 |
-
2019
- 2019-01-22 CN CN201910056611.0A patent/CN109492627B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109492627A (zh) | 2019-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492627B (zh) | 一种基于全卷积网络的深度模型的场景文本擦除方法 | |
JP7464752B2 (ja) | 画像処理方法、装置、機器及びコンピュータプログラム | |
CN109840531B (zh) | 训练多标签分类模型的方法和装置 | |
CN112084917B (zh) | 一种活体检测方法及装置 | |
CN111340013B (zh) | 人脸识别方法、装置、计算机设备及存储介质 | |
US20230021661A1 (en) | Forgery detection of face image | |
CN113011387B (zh) | 网络训练及人脸活体检测方法、装置、设备及存储介质 | |
CN114943789A (zh) | 一种图像处理方法、模型训练方法及相关装置 | |
KR20160083127A (ko) | 얼굴 이미지 인식 방법 및 시스템 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN110414593B (zh) | 图像处理方法及装置、处理器、电子设备及存储介质 | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
WO2023142550A1 (zh) | 异常事件检测方法及装置、计算机设备、存储介质、计算机程序、计算机程序产品 | |
CN112017162B (zh) | 病理图像处理方法、装置、存储介质和处理器 | |
CN115424056A (zh) | 模型训练方法和装置、图像分类方法、设备和介质 | |
CN114764870A (zh) | 对象定位模型处理、对象定位方法、装置及计算机设备 | |
CN111626212A (zh) | 图片中对象的识别方法和装置、存储介质及电子装置 | |
CN111914809A (zh) | 目标对象定位方法、图像处理方法、装置和计算机设备 | |
CN116798041A (zh) | 图像识别方法、装置和电子设备 | |
CN116469177A (zh) | 混合精度的活体目标检测方法和活体检测模型的训练方法 | |
CN117011909A (zh) | 人脸识别模型的训练方法、人脸识别的方法和装置 | |
CN111738213B (zh) | 人物属性识别方法、装置、计算机设备及存储介质 | |
CN113962846A (zh) | 图像对齐方法及装置、计算机可读存储介质及电子设备 | |
CN114118412A (zh) | 证件识别模型训练及证件识别的方法、系统、设备及介质 | |
CN114118203A (zh) | 图像特征提取匹配的方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |