CN111783767B - 文字识别方法、装置、电子设备及存储介质 - Google Patents
文字识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111783767B CN111783767B CN202010734202.4A CN202010734202A CN111783767B CN 111783767 B CN111783767 B CN 111783767B CN 202010734202 A CN202010734202 A CN 202010734202A CN 111783767 B CN111783767 B CN 111783767B
- Authority
- CN
- China
- Prior art keywords
- vector
- character
- matrix
- probability distribution
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 239000013598 vector Substances 0.000 claims abstract description 191
- 239000011159 matrix material Substances 0.000 claims abstract description 140
- 238000012216 screening Methods 0.000 claims abstract description 59
- 230000006870 function Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 230000005693 optoelectronics Effects 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 15
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 10
- 238000012015 optical character recognition Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 125000004122 cyclic group Chemical group 0.000 description 4
- 238000007667 floating Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 108091026890 Coding region Proteins 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Character Discrimination (AREA)
Abstract
本申请涉及人工智能,提供一种文字识别方法,所述方法包括:将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量;将所述历史预测字符输入至预先训练好的语言模型中,获得第一概率分布;若所述第一概率分布中存在概率值小于预设概率阈值的元素,降低所述元素的概率值,获得第二概率分布;从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量;根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量;根据所述目标向量,确定预测字符;输出所述预测字符。本发明还提供一种文字识别装置、电子设备及存储介质。本发明能提高人工智能识别文字的准确度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种文字识别方法、装置、电子设备及存储介质。
背景技术
目前,随着人工智能的发展,可以通过比较成熟的光电字符识别系统来识别图片中的文字,但在实践中发现,检测的图片会出现不同类型的噪声现象,比如光线导致的色温、色差变化,拍摄角度偏移,水印,字体不统一(斜体,加粗),下划线等等,使得人工智能识别文字容易出错,降低了人工智能识别文字的准确度。
因此,如何提高人工智能识别文字的准确度是一个亟需解决的技术问题。
发明内容
鉴于以上内容,有必要提供一种文字识别方法、装置、电子设备及存储介质,能够提高人工智能识别文字的准确度。
本发明的第一方面提供一种文字识别方法,所述文字识别方法包括:
将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量;
将所述历史预测字符输入至预先训练好的语言模型中,获得第一概率分布;
若所述第一概率分布中存在概率值小于预设概率阈值的元素,降低所述元素的概率值,获得第二概率分布;
从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量;
根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量;
根据所述目标向量,确定预测字符;
输出所述预测字符。
在一种可能的实现方式中,所述根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量包括:
从所述预设相似度矩阵中确定与所述筛选向量对应的多行相似度;
将所述多行相似度组合为第一矩阵;
根据所述第二概率分布,对所述第一矩阵中的每个元素进行差异化调整,获得第二矩阵;
根据所述第二矩阵,生成所述目标向量。
在一种可能的实现方式中,所述根据所述第二矩阵,生成所述目标向量包括:
根据所述第二矩阵,确定每个字符与所述筛选向量对应的总相似度;
将所有字符的总相似度组合成所述目标向量。
在一种可能的实现方式中,所述根据所述目标向量,确定预测字符包括:
通过归一化指数函数,将所述目标向量映射为第三概率分布;
从所述第三概率分布中,将概率值最大的字符确定为所述预测字符。
在一种可能的实现方式中,所述将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,所述文字识别方法还包括:
获取所述预设相似度矩阵;
判断所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引是否一致;
若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引不一致,将所述第一字典索引与所述第二字典索引进行对齐。
在一种可能的实现方式中,所述从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量之后,以及所述根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量之前,所述文字识别方法还包括:
确定所述预设相似度矩阵的数据类型;
判断所述数据类型是否为整数数据类型;
若所述数据类型不为整数数据类型,对所述预设相似度矩阵进行数据类型转换,以使所述预设相似度矩阵的数据类型为整数数据类型。
在一种可能的实现方式中,所述将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,所述文字识别方法还包括:
获取预设的自然语言样本集;
使用所述自然语言样本集进行训练,获得训练好的所述语言模型。
本发明的第二方面提供一种文字识别装置,所述装置包括:
输入模块,用于将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量;
所述输入模块,还用于将所述历史预测字符输入至预先训练好的语言模型中,获得第一概率分布;
降低模块,用于若所述第一概率分布中存在概率值小于预设概率阈值的元素,降低所述元素的概率值,获得第二概率分布;
组成模块,用于从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量;
确定模块,用于根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量;
所述确定模块,还用于根据所述目标向量,确定预测字符;
输出模块,用于输出所述预测字符。
作为一种可选的实施方式,所述确定模块根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量的方式具体为:
从所述预设相似度矩阵中确定与所述筛选向量对应的多行相似度;
将所述多行相似度组合为第一矩阵;
根据所述第二概率分布,对所述第一矩阵中的每个元素进行差异化调整,获得第二矩阵;
根据所述第二矩阵,生成所述目标向量。
作为一种可选的实施方式,所述确定模块根据所述第二矩阵,生成所述目标向量的方式具体为:
根据所述第二矩阵,确定每个字符与所述筛选向量对应的总相似度;
将所有字符的总相似度组合成所述目标向量。
作为一种可选的实施方式,所述确定模块根据所述目标向量,确定预测字符的方式具体为:
通过归一化指数函数,将所述目标向量映射为第三概率分布;
从所述第三概率分布中,将概率值最大的字符确定为所述预测字符。
作为一种可选的实施方式,所述文字识别装置还可以包括:
第一获取模块,用于所述输入模块将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,获取所述预设相似度矩阵;
第一判断模块,用于判断所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引是否一致;
对齐模块,用于若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引不一致,将所述第一字典索引与所述第二字典索引进行对齐。
作为一种可选的实施方式,所述确定模块,还用于所述组成模块从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量之后,以及所述根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量之前,确定所述预设相似度矩阵的数据类型;
所述文字识别装置还包括:
第二判断模块,用于判断所述数据类型是否为整数数据类型;
转换模块,用于若所述数据类型不为整数数据类型,对所述预设相似度矩阵进行数据类型转换,以使所述预设相似度矩阵的数据类型为整数数据类型。
在该可选的实施方式中,可以将所述预设相似度矩阵的数据类型转换为整数类型,以减少后续的运算量,提高运算速度。
作为一种可选的实施方式,所述文字识别装置还包括:
第二获取模块,用于所述输入模块将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,获取预设的自然语言样本集;
训练模块,用于使用所述自然语言样本集进行训练,获得训练好的所述语言模型。
本发明的第三方面提供一种电子设备,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述的文字识别方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述的文字识别方法。
由以上技术方案,本发明中,可以将历史预测字符输入至预先训练好的语言模型中,得到基于上文内容得出的当前预测字符的概率分布,根据这个概率分布,结合预设相似度矩阵,对光电字符识别系统的当前预测向量进行调整,得到结合语义信息的概率分布(由所述目标向量转换来),能够避免出现一些因为噪声干扰带来的错误,提高人工智能识别文字的准确度。
附图说明
图1是本发明公开的一种文字识别方法的较佳实施例的流程图。
图2是本发明公开的一种文字识别装置的较佳实施例的功能模块图。
图3是本发明实现文字识别方法的较佳实施例的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明实施例的文字识别装置应用在电子设备中,也可以应用在电子设备和通过网络与所述电子设备进行连接的服务器所构成的硬件环境中,由服务器和电子设备共同执行。网络包括但不限于:广域网、城域网或局域网。
其中,服务器可以是指能对网络中其它设备(如电子设备)提供服务的计算机系统。如果一个个人电脑能够对外提供文件传输协议(File Transfer Protocol,简称FTP)服务,也可以叫服务器。从狭义范围上讲,服务器专指某些高性能计算机,能通过网络,对外提供服务,其相对于普通的个人电脑来说,稳定性、安全性、性能等方面都要求更高,因此在CPU、芯片组、内存、磁盘系统、网络等硬件和普通的个人电脑有所不同。
所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、数字处理器(DSP)、嵌入式设备等。所述电子设备还可包括网络设备和/或用户设备。其中,所述网络设备包括但不限于单个网络设备、多个网络设备组成的服务器组或基于云计算(Cloud Computing)的由大量主机或网络设备构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。所述用户设备包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理PDA等。
请参见图1,图1是本发明公开的一种文字识别方法的较佳实施例的流程图。其中,根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。其中,所述文字识别方法的执行主体可以为电子设备。
S11、将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量。
其中,所述光电字符识别系统包括卷积神经网络以及循环神经网络。
其中,所述待检测问题图片包含一段文字,所述历史预测字符是所述光电字符识别(Optical Character Recognition,OCR)系统针对所述待检测文字图片输出的已识别的文字字符,即在预测当前字符之前所完成预测的字符,所述当前预测向量是所述光电字符识别系统对下一个文字进行识别的过程中,生成概率分布之前,所产生的数据向量。
其中,所述光电字符识别是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成计算机文字的过程。
其中,光电字符识别系统的工作过程可以分为两个步骤,第一个步骤是边框回归,即输入一张图片,通过CNN(Convolutional Neural Networks,卷积神经网络)预测图片中的文字区域位置;第二个步骤为文字识别,首先会把一行文字区域图片按照区域分块逐个输入到CNN,得到区域的特征编码序列,再将这些编码送入利用CTC(ConnectionistTemporal Classification,联结主义时间分类)技术训练的循环神经网络(RecurrentNeural Network,RNN),使得可以在不需要精确指定文字宽度的情况下输出真实的文字预测概率分布。
其中,所述历史预测字符可以是所述光电字符识别系统对输入的文字图片进行识别已获得的文字内容,比如输入携带有文字“你好”的文字图片后,假设所述光电字符识别系统识别出了文字“你”,则文字“你”为所述历史预测字符。
其中,所述当前预测向量可以是所述光电字符识别系统对输入的文字图片进行识别时产生的当前正在识别的文字在神经网络中对应的向量。
作为一种可选的实施方式,所述将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,所述方法还包括:
获取所述预设相似度矩阵;
判断所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引是否一致;
若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引不一致,将所述第一字典索引与所述第二字典索引进行对齐。
其中,所述相似度矩阵可以是一个7500*7500的矩阵,即包括了7500个汉字相互之间的相似度。
在该可选的实施方式中,可以先判断所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引是否一致;若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引不一致,将所述第一字典索引与所述第二字典索引进行对齐;或,若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引一致,则不需要进行索引对齐的工作。因为用来计算相似度的字典和语言模型使用的字典可能不一致,其两个字典分别对应的字典索引也就不一致,如果在涉及所述预设相似度矩阵与所述语言模型之间的运算时,可能需要逐字逐字地查找相关数据,效率低下。可以将用来计算相似度的字典的索引和语言模型使用的字典的索引进行对齐,比如重新建立在两个字典通用的索引,使得可以通过对齐后的索引在所述相似度矩阵以及所述语言模型中快速定位到相关的数据,减少运算量,提高运算速度。
作为一种可选的实施方式,所述将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,所述文字识别方法还包括:
获取预设的自然语言样本集;
使用所述自然语言样本集进行训练,获得训练好的所述语言模型。
在该可选的实施方式中,可以使用预设的自然语言样本集对神经网络进行训练,获得训练好的所述语言模型。
S12、将所述历史预测字符输入至预先训练好的语言模型中,获得第一概率分布。
其中,所述语言模型,能够根据输入的上文,推断下一个最大可能出现的文字。
其中,所述第一概率分布包括所述语言模型计算得出字典中的每个文字对应的可能出现的概率,所述第一概率分布包括了所有字符对应的可能出现的概率值。
S13、若所述第一概率分布中存在概率值小于预设概率阈值的元素,降低所述元素的概率值,获得第二概率分布。
本发明实施例中,可以在所述第一概率分布中确定概率值小于预设概率阈值的元素,通过降低低概率值的元素的概率值,获得第二概率分布,可以在后续作进一步的调整时,排除不符合语境(概率值低)的字符,进一步缩小字符出错的范围(提高预测出正确字符的概率)。
其中,所述历史预测字符为[xi],i∈(1,...,t),所述语言模型lm输出的概率分布为:
其中,所述预设概率阈值可以在所述第一概率分布中指定某一项元素的概率值,将概率值低于所述预设概率阈值的元素的概率值调低,比如置零,假设预设概率阈值为所述概率分布中第k个元素的概率值,则所述第一概率分布中任一项元素的概率值/>可以为:
S14、从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量。
本发明实施例中,可以从所述当前预测向量中,确定数值大于预设数值阈值的元素,并将这部分元素组成向量。因为在光电字符识别系统中,由于文字图片可能存在各种噪声影响,导致所述光电字符识别系统可能识别出错,如果所述光电字符识别系统识别出错(预测并输出错误文字),预测的错误文字在所述当前预测向量中对应的数值最大,正确文字在所述当前预测向量对应的数值比错误文字在所述当前预测向量中对应的数值要小,但正确文字在所述当前预测向量对应的数值也要比所述当前预测向量中大部分文字对应的数值要大;如果所述光电字符识别系统识别正确,正确文字在所述当前预测向量对应的数值最大,因此可以预先设置一个数值阈值,将大于预设数值阈值的元素组成筛选向量,所述筛选向量中包括正确文字对应数值,同时由于筛选向量中的元素的数量比所述当前预测向量中的元素的数量要少,后面对所述筛选向量进行处理时,可以减少运算量,从而提高了运算速度,提高了人工智能识别文字的效率。
作为一种可选的实施方式,所述从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量之后,以及所述根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量之前,所述文字识别方法还包括:
确定所述预设相似度矩阵的数据类型;
判断所述数据类型是否为整数数据类型;
若所述数据类型不为整数数据类型,对所述预设相似度矩阵进行数据类型转换,以使所述预设相似度矩阵的数据类型为整数数据类型。
在该可选的实施方式中,可以将所述预设相似度矩阵的数据类型转换为整数类型,以减少后续的运算量,提高运算速度。
S15、根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量。
其中,所述预设相似度矩阵数据类型为整数类型。
其中,对于汉字,相关模型使用的字典中汉字总数在7500个左右,将所有汉字都会唯一映射到16*16的汉字点阵字体库的图片上,得到每个汉字在汉字点阵字体库中存放的序列,比如,‘我’在16*16的汉字点阵字库的存放的序列为:04 80 0E A0 78 90 08 90 0884 FF FE 08 80 08 90 0A 90 0C 60 18 40 68 A0 09 20 0A 14 28 14 10 0C。可以将这两个汉字的杰卡德(Jaccard)系数作为相似度,杰卡德系数越大,字越相似,假设其中一个字的序列为A,另一个字的序列为B,杰卡德(Jaccard)系数J(A,B)的计算公式如下:
本发明实施例中,所述相似度矩阵可以是一个7500*7500的矩阵,即包括了7500个汉字相互之间的相似度。计算出来的相似度为浮点数类型,可以将矩阵中的相似度保存为整数类型,由于整数类型比浮点数类型占用的内存更少,可以节约系统资源,提高处理速度。
具体的,所述根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量包括:
从所述预设相似度矩阵中确定与所述筛选向量对应的多行相似度;
将所述多行相似度组合为第一矩阵;
根据所述第二概率分布,对所述第一矩阵中的每个元素进行差异化调整,获得第二矩阵;
根据所述第二矩阵,生成所述目标向量。
在该可选的实施方式中,假设所述筛选向量为对于/>中的每个元素取所述预设相似度矩阵的行再进行组合,得到一个大小为p*7500的矩阵M,M的每行和概率分布逐项相乘得到第二矩阵/>然后,根据所述第二矩阵,生成所述目标向量。
具体的,所述根据所述第二矩阵,生成所述目标向量包括:
根据所述第二矩阵,确定每个字符与所述筛选向量对应的总相似度;
将所有字符的总相似度组合成所述目标向量。
本发明实施例中,将所述第二矩阵各列元素累加得到所述目标向量。
其中,所述第二矩阵中的一行包括所述筛选向量中某一个元素与所有字符的相似度。所述第二矩阵中的一列包括一个字符与所述筛选向量中所有元素的相似度。将第二矩阵中一列元素累加,获得该列对于的某个字符与所述筛选向量对应的总相似度。所述第二矩阵各列元素累加获得的多个总相似度,构成所述目标向量。
S16、根据所述目标向量,确定预测字符。
具体的,所述根据所述目标向量,确定预测字符包括:
通过归一化指数函数,将所述目标向量映射为第三概率分布;
从所述第三概率分布中,将概率值最大的字符确定为所述预测字符。
其中,归一化指数函数(Softmax),能将一个含任意实数的K维向量z“压缩”到另一个K维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1。
假设目标向量为m,所述第三概率分布pt+1为:
pt+1=softmax(m)。
在该可选的实施方式中,可以通过通过归一化指数函数,将所述目标向量映射为第三概率分布,所述第三概率分布中包含了各个字符的概率,概率值最大的字符表示该字符是最有可能正确的字符,可以从所述第三概率分布中,将概率值最大的字符确定为所述预测字符。确保人工智能识别文字的准确度。
S17、输出所述预测字符。
本发明实施例中,可以输出所述预测字符,当进行下一个字符的预测时,所述预测字符变成了下一个字符的历史预测字符。
在图1所描述的方法流程中,可以将历史预测字符输入至预先训练好的语言模型中,得到基于上文内容得出的当前预测字符的概率分布,根据这个概率分布,结合预设相似度矩阵,对光电字符识别系统的当前预测向量进行调整,得到结合语义信息的概率分布(由所述目标向量转换来),能够避免出现一些因为噪声干扰带来的错误,提高人工智能识别文字的准确度。
图2是本发明公开的一种文字识别装置的较佳实施例的功能模块图。
请参见图2,所述文字识别装置20可运行于电子设备中。所述文字识别装置20可以包括多个由程序代码段所组成的功能模块。所述文字识别装置20中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行图1所描述的文字识别方法中的部分或全部步骤。
本实施例中,所述文字识别装置20根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:输入模块201、降低模块202、组成模块203、确定模块204及输出模块205。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。
输入模块201,用于将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量。
其中,所述光电字符识别系统包括卷积神经网络以及循环神经网络。
其中,所述待检测问题图片包含一段文字,所述历史预测字符是所述光电字符识别(Optical Character Recognition,OCR)系统针对所述待检测文字图片输出的已识别的文字字符,即在预测当前字符之前所完成预测的字符,所述当前预测向量是所述光电字符识别系统对下一个文字进行识别的过程中,生成概率分布之前,所产生的数据向量。
其中,所述光电字符识别是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成计算机文字的过程。
其中,光电字符识别系统的工作过程可以分为两个步骤,第一个步骤是边框回归,即输入一张图片,通过CNN(Convolutional Neural Networks,卷积神经网络)预测图片中的文字区域位置;第二个步骤为文字识别,首先会把一行文字区域图片按照区域分块逐个输入到CNN,得到区域的特征编码序列,再将这些编码送入利用CTC(ConnectionistTemporal Classification,联结主义时间分类)技术训练的循环神经网络(RecurrentNeural Network,RNN),使得可以在不需要精确指定文字宽度的情况下输出真实的文字预测概率分布。
其中,所述历史预测字符可以是所述光电字符识别系统对输入的文字图片进行识别已获得的文字内容,比如输入携带有文字“你好”的文字图片后,假设所述光电字符识别系统识别出了文字“你”,则文字“你”为所述历史预测字符。
其中,所述当前预测向量可以是所述光电字符识别系统对输入的文字图片进行识别时产生的当前正在识别的文字在神经网络中对应的向量。
所述输入模块201,还用于将所述历史预测字符输入至预先训练好的语言模型中,获得第一概率分布。
其中,所述语言模型,能够根据输入的上文,推断下一个最大可能出现的文字。
其中,所述第一概率分布包括所述语言模型计算得出字典中的每个文字对应的可能出现的概率,所述第一概率分布包括了所有字符对应的可能出现的概率值。
降低模块202,用于若所述第一概率分布中存在概率值小于预设概率阈值的元素,降低所述元素的概率值,获得第二概率分布。
本发明实施例中,可以在所述第一概率分布中确定概率值小于预设概率阈值的元素,通过降低低概率值的元素的概率值,获得第二概率分布,可以在后续作进一步的调整时,排除不符合语境(概率值低)的字符,进一步缩小字符出错的范围(提高预测出正确字符的概率)。
其中,所述历史预测字符为[xi],i∈(1,...,t),所述语言模型lm输出的概率分布为:
其中,所述预设概率阈值可以在所述第一概率分布中指定某一项元素的概率值,将概率值低于所述预设概率阈值的元素的概率值调低,比如置零,假设预设概率阈值为所述概率分布中第k个元素的概率值,则所述第一概率分布中任一项元素的概率值/>可以为:
组成模块203,用于从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量。
本发明实施例中,可以从所述当前预测向量中,确定数值大于预设数值阈值的元素,并将这部分元素组成向量。因为在光电字符识别系统中,由于文字图片可能存在各种噪声影响,导致所述光电字符识别系统可能识别出错,如果所述光电字符识别系统识别出错(预测并输出错误文字),预测的错误文字在所述当前预测向量中对应的数值最大,正确文字在所述当前预测向量对应的数值比错误文字在所述当前预测向量中对应的数值要小,但正确文字在所述当前预测向量对应的数值也要比所述当前预测向量中大部分文字对应的数值要大;如果所述光电字符识别系统识别正确,正确文字在所述当前预测向量对应的数值最大,因此可以预先设置一个数值阈值,将大于预设数值阈值的元素组成筛选向量,所述筛选向量中包括正确文字对应数值,同时由于筛选向量中的元素的数量比所述当前预测向量中的元素的数量要少,后面对所述筛选向量进行处理时,可以减少运算量,从而提高了运算速度,提高了人工智能识别文字的效率。
确定模块204,用于根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量。
其中,所述预设相似度矩阵数据类型为整数类型。
其中,对于汉字,相关模型使用的字典中汉字总数在7500个左右,将所有汉字都会唯一映射到16*16的汉字点阵字体库的图片上,得到每个汉字在汉字点阵字体库中存放的序列,比如,‘我’在16*16的汉字点阵字库的存放的序列为:04 80 0E A0 78 90 08 90 0884 FF FE 08 80 08 90 0A 90 0C 60 18 40 68 A0 09 20 0A 14 28 14 10 0C。可以将这两个汉字的杰卡德(Jaccard)系数作为相似度,杰卡德系数越大,字越相似,假设其中一个字的序列为A,另一个字的序列为B,杰卡德(Jaccard)系数J(A,B)的计算公式如下:
本发明实施例中,所述相似度矩阵可以是一个7500*7500的矩阵,即包括了7500个汉字相互之间的相似度。计算出来的相似度为浮点数类型,可以将矩阵中的相似度保存为整数类型,由于整数类型比浮点数类型占用的内存更少,可以节约系统资源,提高处理速度。
所述确定模块204,还用于根据所述目标向量,确定预测字符。
输出模块205,用于输出所述预测字符。
本发明实施例中,可以输出所述预测字符,当进行下一个字符的预测时,所述预测字符变成了下一个字符的历史预测字符。
作为一种可选的实施方式,所述确定模块204根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量的方式具体为:
从所述预设相似度矩阵中确定与所述筛选向量对应的多行相似度;
将所述多行相似度组合为第一矩阵;
根据所述第二概率分布,对所述第一矩阵中的每个元素进行差异化调整,获得第二矩阵;
根据所述第二矩阵,生成所述目标向量。
在该可选的实施方式中,假设所述筛选向量为对于/>中的每个元素取所述预设相似度矩阵的行再进行组合,得到一个大小为p*7500的矩阵M,M的每行和概率分布逐项相乘得到第二矩阵/>然后,根据所述第二矩阵,生成所述目标向量。
作为一种可选的实施方式,所述确定模块204根据所述第二矩阵,生成所述目标向量的方式具体为:
根据所述第二矩阵,确定每个字符与所述筛选向量对应的总相似度;
将所有字符的总相似度组合成所述目标向量。
本发明实施例中,将所述第二矩阵各列元素累加得到所述目标向量。
其中,所述第二矩阵中的一行包括所述筛选向量中某一个元素与所有字符的相似度。所述第二矩阵中的一列包括一个字符与所述筛选向量中所有元素的相似度。将第二矩阵中一列元素累加,获得该列对于的某个字符与所述筛选向量对应的总相似度。所述第二矩阵各列元素累加获得的多个总相似度,构成所述目标向量。
作为一种可选的实施方式,所述确定模块204根据所述目标向量,确定预测字符的方式具体为:
通过归一化指数函数,将所述目标向量映射为第三概率分布;
从所述第三概率分布中,将概率值最大的字符确定为所述预测字符。
其中,归一化指数函数(Softmax),能将一个含任意实数的K维向量z“压缩”到另一个K维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1。
假设目标向量为m,所述第三概率分布pt+1为:
pt+1=softmax(m)。
在该可选的实施方式中,可以通过通过归一化指数函数,将所述目标向量映射为第三概率分布,所述第三概率分布中包含了各个字符的概率,概率值最大的字符表示该字符是最有可能正确的字符,可以从所述第三概率分布中,将概率值最大的字符确定为所述预测字符。确保人工智能识别文字的准确度。
作为一种可选的实施方式,所述文字识别装置20还可以包括:
第一获取模块,用于所述输入模块201将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,获取所述预设相似度矩阵;
第一判断模块,用于判断所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引是否一致;
对齐模块,用于若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引不一致,将所述第一字典索引与所述第二字典索引进行对齐。
其中,所述相似度矩阵可以是一个7500*7500的矩阵,即包括了7500个汉字相互之间的相似度。
在该可选的实施方式中,可以先判断所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引是否一致;若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引不一致,将所述第一字典索引与所述第二字典索引进行对齐;或,若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引一致,则不需要进行索引对齐的工作。因为用来计算相似度的字典和语言模型使用的字典可能不一致,其两个字典分别对应的字典索引也就不一致,如果在涉及所述预设相似度矩阵与所述语言模型之间的运算时,可能需要逐字逐字地查找相关数据,效率低下。可以将用来计算相似度的字典的索引和语言模型使用的字典的索引进行对齐,比如重新建立在两个字典通用的索引,使得可以通过对齐后的索引在所述相似度矩阵以及所述语言模型中快速定位到相关的数据,减少运算量,提高运算速度。
作为一种可选的实施方式,所述确定模块204,还用于所述组成模块203从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量之后,以及所述根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量之前,确定所述预设相似度矩阵的数据类型;
所述文字识别装置20还包括:
第二判断模块,用于判断所述数据类型是否为整数数据类型;
转换模块,用于若所述数据类型不为整数数据类型,对所述预设相似度矩阵进行数据类型转换,以使所述预设相似度矩阵的数据类型为整数数据类型。
在该可选的实施方式中,可以将所述预设相似度矩阵的数据类型转换为整数类型,以减少后续的运算量,提高运算速度。
作为一种可选的实施方式,所述文字识别装置20还包括:
第二获取模块,用于所述输入模块201将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,获取预设的自然语言样本集;
训练模块,用于使用所述自然语言样本集进行训练,获得训练好的所述语言模型。
在该可选的实施方式中,可以使用预设的自然语言样本集对神经网络进行训练,获得训练好的所述语言模型。
在图2所描述的文字识别装置20中,可以将历史预测字符输入至预先训练好的语言模型中,得到基于上文内容得出的当前预测字符的概率分布,根据这个概率分布,结合预设相似度矩阵,对光电字符识别系统的当前预测向量进行调整,得到结合语义信息的概率分布(由所述目标向量转换来),能够避免出现一些因为噪声干扰带来的错误,提高人工智能识别文字的准确度。
如图3所示,图3是本发明实现文字识别方法的较佳实施例的电子设备的结构示意图。所述电子设备3包括存储器31、至少一个处理器32、存储在所述存储器31中并可在所述至少一个处理器32上运行的计算机程序33及至少一条通讯总线34。
本领域技术人员可以理解,图3所示的示意图仅仅是所述电子设备3的示例,并不构成对所述电子设备3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备3还可以包括输入输出设备、网络接入设备等。
所述电子设备3还包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(InternetProtocol Television,IPTV)、智能式穿戴式设备等。所述电子设备3所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
所述至少一个处理器32可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、分立硬件组件等。该处理器32可以是微处理器或者该处理器32也可以是任何常规的处理器等,所述处理器32是所述电子设备3的控制中心,利用各种接口和线路连接整个电子设备3的各个部分。
所述存储器31可用于存储所述计算机程序33和/或模块/单元,所述处理器32通过运行或执行存储在所述存储器31内的计算机程序和/或模块/单元,以及调用存储在存储器31内的数据,实现所述电子设备3的各种功能。所述存储器31可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备3的使用所创建的数据等。此外,存储器31可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件等。
结合图1,所述电子设备3中的所述存储器31存储多个指令以实现一种文字识别方法,所述处理器32可执行所述多个指令从而实现:
将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量;
将所述历史预测字符输入至预先训练好的语言模型中,获得第一概率分布;
若所述第一概率分布中存在概率值小于预设概率阈值的元素,降低所述元素的概率值,获得第二概率分布;
从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量;
根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量;
根据所述目标向量,确定预测字符;
输出所述预测字符。
具体地,所述处理器32对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在图3所描述的电子设备3中,可以将历史预测字符输入至预先训练好的语言模型中,得到基于上文内容得出的当前预测字符的概率分布,根据这个概率分布,结合预设相似度矩阵,对光电字符识别系统的当前预测向量进行调整,得到结合语义信息的概率分布(由所述目标向量转换来),能够避免出现一些因为噪声干扰带来的错误,提高人工智能识别文字的准确度。
所述电子设备3集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (7)
1.一种文字识别方法,其特征在于,所述文字识别方法包括:
将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量;
将所述历史预测字符输入至预先训练好的语言模型中,获得第一概率分布;
若所述第一概率分布中存在概率值小于预设概率阈值的元素,降低所述元素的概率值,获得第二概率分布;
从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量;
根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量包括:从所述预设相似度矩阵中确定与所述筛选向量对应的多行相似度;将所述多行相似度组合为第一矩阵;根据所述第二概率分布,对所述第一矩阵中的每个元素进行差异化调整,获得第二矩阵;根据所述第二矩阵,生成所述目标向量包括:根据所述第二矩阵,确定每个字符与所述筛选向量对应的总相似度;将所有字符的总相似度组合成所述目标向量;所述从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量之后,以及所述根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量之前,所述文字识别方法还包括:确定所述预设相似度矩阵的数据类型;判断所述数据类型是否为整数数据类型;若所述数据类型不为整数数据类型,对所述预设相似度矩阵进行数据类型转换,以使所述预设相似度矩阵的数据类型为整数数据类型;
根据所述目标向量,确定预测字符;
输出所述预测字符。
2.根据权利要求1所述的文字识别方法,其特征在于,所述根据所述目标向量,确定预测字符包括:
通过归一化指数函数,将所述目标向量映射为第三概率分布;
从所述第三概率分布中,将概率值最大的字符确定为所述预测字符。
3.根据权利要求1至2中任一项所述的文字识别方法,其特征在于,所述将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,所述文字识别方法还包括:
获取所述预设相似度矩阵;
判断所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引是否一致;
若所述预设相似度矩阵对应的第一字典索引与所述语言模型对应的第二字典索引不一致,将所述第一字典索引与所述第二字典索引进行对齐。
4.根据权利要求1至2中任一项所述的文字识别方法,其特征在于,所述将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量之前,所述文字识别方法还包括:
获取预设的自然语言样本集;
使用所述自然语言样本集进行训练,获得训练好的所述语言模型。
5.一种文字识别装置,其特征在于,所述文字识别装置包括:
输入模块,用于将待检测文字图片输入至光电字符识别系统中,获得历史预测字符以及当前预测向量;
所述输入模块,还用于将所述历史预测字符输入至预先训练好的语言模型中,获得第一概率分布;
降低模块,用于若所述第一概率分布中存在概率值小于预设概率阈值的元素,降低所述元素的概率值,获得第二概率分布;
组成模块,用于从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量;
确定模块,用于根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量包括:从所述预设相似度矩阵中确定与所述筛选向量对应的多行相似度;将所述多行相似度组合为第一矩阵;根据所述第二概率分布,对所述第一矩阵中的每个元素进行差异化调整,获得第二矩阵;根据所述第二矩阵,生成所述目标向量包括:根据所述第二矩阵,确定每个字符与所述筛选向量对应的总相似度;将所有字符的总相似度组合成所述目标向量;所述从所述当前预测向量中,将数值大于预设数值阈值的元素组成筛选向量之后,以及所述根据所述第二概率分布、所述筛选向量以及预设相似度矩阵,确定目标向量之前,所述文字识别方法还包括:确定所述预设相似度矩阵的数据类型;判断所述数据类型是否为整数数据类型;若所述数据类型不为整数数据类型,对所述预设相似度矩阵进行数据类型转换,以使所述预设相似度矩阵的数据类型为整数数据类型;
所述确定模块,还用于根据所述目标向量,确定预测字符;
输出模块,用于输出所述预测字符。
6.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述处理器用于执行存储器中存储的计算机程序以实现如权利要求1至4中任意一项所述的文字识别方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有至少一个指令,所述至少一个指令被处理器执行时实现如权利要求1至4中任意一项所述的文字识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010734202.4A CN111783767B (zh) | 2020-07-27 | 2020-07-27 | 文字识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010734202.4A CN111783767B (zh) | 2020-07-27 | 2020-07-27 | 文字识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783767A CN111783767A (zh) | 2020-10-16 |
CN111783767B true CN111783767B (zh) | 2024-03-19 |
Family
ID=72765063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010734202.4A Active CN111783767B (zh) | 2020-07-27 | 2020-07-27 | 文字识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783767B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507080A (zh) * | 2020-12-16 | 2021-03-16 | 北京信息科技大学 | 文字识别矫正的方法 |
CN113011177B (zh) * | 2021-03-15 | 2023-09-29 | 北京百度网讯科技有限公司 | 模型训练和词向量确定方法、装置、设备、介质和产品 |
CN113326351A (zh) * | 2021-06-17 | 2021-08-31 | 湖北亿咖通科技有限公司 | 一种用户意图确定方法及装置 |
CN113674866B (zh) * | 2021-06-23 | 2024-06-14 | 江苏天瑞精准医疗科技有限公司 | 一种面向医疗文本的预训练方法 |
CN114092940B (zh) * | 2021-11-24 | 2024-07-12 | 支付宝(杭州)信息技术有限公司 | 识别图像中字符的方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07116606A (ja) * | 1993-09-22 | 1995-05-09 | Toshiba Corp | 郵便物あて名認識装置及びあて名認識方法 |
CN107480680A (zh) * | 2017-07-28 | 2017-12-15 | 顺丰科技有限公司 | 基于OCR和Bi‑LSTM的识别图像中文字信息的方法、系统及设备 |
CN107633250A (zh) * | 2017-09-11 | 2018-01-26 | 畅捷通信息技术股份有限公司 | 一种文字识别纠错方法、纠错系统及计算机装置 |
CN111062376A (zh) * | 2019-12-18 | 2020-04-24 | 厦门商集网络科技有限责任公司 | 基于光学字符识别与纠错紧耦合处理的文本识别方法 |
CN111079768A (zh) * | 2019-12-23 | 2020-04-28 | 北京爱医生智慧医疗科技有限公司 | 一种基于ocr的文字图像识别方法及装置 |
CN111144391A (zh) * | 2019-12-23 | 2020-05-12 | 北京爱医生智慧医疗科技有限公司 | 一种ocr识别结果纠错方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2626555C2 (ru) * | 2015-12-02 | 2017-07-28 | Общество с ограниченной ответственностью "Аби Продакшн" | Извлечение сущностей из текстов на естественном языке |
-
2020
- 2020-07-27 CN CN202010734202.4A patent/CN111783767B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07116606A (ja) * | 1993-09-22 | 1995-05-09 | Toshiba Corp | 郵便物あて名認識装置及びあて名認識方法 |
CN107480680A (zh) * | 2017-07-28 | 2017-12-15 | 顺丰科技有限公司 | 基于OCR和Bi‑LSTM的识别图像中文字信息的方法、系统及设备 |
CN107633250A (zh) * | 2017-09-11 | 2018-01-26 | 畅捷通信息技术股份有限公司 | 一种文字识别纠错方法、纠错系统及计算机装置 |
CN111062376A (zh) * | 2019-12-18 | 2020-04-24 | 厦门商集网络科技有限责任公司 | 基于光学字符识别与纠错紧耦合处理的文本识别方法 |
CN111079768A (zh) * | 2019-12-23 | 2020-04-28 | 北京爱医生智慧医疗科技有限公司 | 一种基于ocr的文字图像识别方法及装置 |
CN111144391A (zh) * | 2019-12-23 | 2020-05-12 | 北京爱医生智慧医疗科技有限公司 | 一种ocr识别结果纠错方法及装置 |
Non-Patent Citations (1)
Title |
---|
一种基于语义分析的汉语语音识别纠错方法;韦向峰,张全,熊 亮;《计算机科学》;第10卷;第156-159页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111783767A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111783767B (zh) | 文字识别方法、装置、电子设备及存储介质 | |
CN110162593B (zh) | 一种搜索结果处理、相似度模型训练方法及装置 | |
US11392838B2 (en) | Method, equipment, computing device and computer-readable storage medium for knowledge extraction based on TextCNN | |
CN106599900B (zh) | 一种识别图像中的字符串的方法和装置 | |
CN109948149B (zh) | 一种文本分类方法及装置 | |
CN111985229B (zh) | 一种序列标注方法、装置及计算机设备 | |
CN111783760B (zh) | 文字识别的方法、装置、电子设备及计算机可读存储介质 | |
CN111275107A (zh) | 一种基于迁移学习的多标签场景图像分类方法及装置 | |
CN111488732B (zh) | 一种变形关键词检测方法、系统及相关设备 | |
CN112613293B (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN113822264A (zh) | 一种文本识别方法、装置、计算机设备和存储介质 | |
Wu et al. | STR transformer: a cross-domain transformer for scene text recognition | |
US20230065965A1 (en) | Text processing method and apparatus | |
CN111539417B (zh) | 一种基于深度神经网络的文本识别训练优化方法 | |
Chao et al. | Variational connectionist temporal classification | |
CN114861635A (zh) | 一种中文拼写纠错方法、装置、设备及存储介质 | |
CN110738261B (zh) | 图像分类和模型训练方法、装置、电子设备及存储介质 | |
CN112307769B (zh) | 一种自然语言模型的生成方法和计算机设备 | |
CN112307749A (zh) | 文本检错方法、装置、计算机设备和存储介质 | |
CN114187445A (zh) | 识别图像中文本的方法、装置、电子设备及存储介质 | |
CN113361511B (zh) | 修正模型的建立方法、装置、设备及计算机可读存储介质 | |
CN112989869B (zh) | 人脸质量检测模型的优化方法、装置、设备及存储介质 | |
CN116543389B (zh) | 基于关系网络的字符识别方法、装置、设备及介质 | |
CN117474070B (zh) | 模型剪枝方法、人脸识别模型训练方法及人脸识别方法 | |
CN117710763B (zh) | 图像噪声识别模型训练方法、图像噪声识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |