[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2002279344A - Character recognition device and method, and recording medium - Google Patents

Character recognition device and method, and recording medium

Info

Publication number
JP2002279344A
JP2002279344A JP2001077279A JP2001077279A JP2002279344A JP 2002279344 A JP2002279344 A JP 2002279344A JP 2001077279 A JP2001077279 A JP 2001077279A JP 2001077279 A JP2001077279 A JP 2001077279A JP 2002279344 A JP2002279344 A JP 2002279344A
Authority
JP
Japan
Prior art keywords
character
image
recognition
unit
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001077279A
Other languages
Japanese (ja)
Inventor
Koichi Inoue
浩一 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001077279A priority Critical patent/JP2002279344A/en
Publication of JP2002279344A publication Critical patent/JP2002279344A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a character recognition device improving a picking precision of characters and improving the efficiency of character recognition processing, by improving the correction precision of the character recognition result in the character recognition process of a colored image. SOLUTION: This character recognition device recognizes the characters, relative to a character image in the colored image and converts them into codes corresponding to the character image. The colored image is divided into multiple regions based on the color information, and when the character image extends over the region obtained by region dividing, the character image is divided at the boundary of the region so as to conduct character recognition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、文字認識装置、そ
の方法および記録媒体に関し、特に、カラー画像に対し
て文字認識する際に、カラー情報を利用して文字の切り
出しおよび認識結果の修正を行う技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognizing apparatus, a method thereof, and a recording medium, and more particularly, to character recognition for a color image by using color information and correcting a recognition result. Regarding the technology to be performed.

【0002】[0002]

【従来の技術】スキャナ等からコンピュータに取り込ん
だ文書画像データ中の文字画像を識別し、文字コードと
して出力する文字認識ソフトウェアは近年非常に広範囲
に用いられている。また、カラースキャナの低価格化や
技術の進歩によって、文字認識ソフトウェアの適用範囲
はモノクロのみからカラーへと広がりつつある。このよ
うなカラーの文書に文字認識処理を施す場合、まず適当
な方法でカラー画像から文字の領域を選択し、二値化を
行ってモノクロの画像としてから文字認識を行うことが
多い。
2. Description of the Related Art Character recognition software for identifying a character image in document image data taken into a computer from a scanner or the like and outputting it as a character code has been used very widely in recent years. In addition, due to the price reduction of color scanners and technological advances, the application range of character recognition software is expanding from monochrome only to color. In the case of performing character recognition processing on such a color document, a character area is first selected from a color image by an appropriate method, binarized, and then subjected to character recognition to form a monochrome image.

【0003】[0003]

【発明が解決しようとする課題】文字認識においては、
1文字に対応する領域の確定や後処理における適切な単
語列の探索が重要である。特に日本語では印刷文書であ
っても1文字が縦方向(縦書きの文書にあっては横方向)
の背景色の領域で複数の文字領域に分かれることがあ
り、正しい組み合わせを選択しなければ正しい認識結果
を導出できない。また、文字同士は接触している場合も
あり、この場合も文字の切り出しはより困難になる。
例えば、特許第2565150号公報の技術によると、
行方向の周辺分布と行に垂直な方向の周辺分布を用いて
文字標準文字幅と標準文字高を推定して文字切り出しを
行っていた。しかし、この技術では、文字列がいくつか
の領域に区分されていた場合、その隣り合った領域に属
する隣同士文字が近接している時には正しく文字を切り
出すことはできない。これを解決するために、特開平6
−111060号公報の技術は、同一色の背景を統合し
て、この統合された領域にある文字画像に対して文字認
識するようにしている。しかし、この技術によると文字
の色に対する考慮がなされておらず、背景が同一であっ
ても、色の異なる文字についての切り出しには効果がな
い。また、文字認識では誤認識を完全に排除することは
きわめて困難である。このため後処理として、文字認識
された結果の文字列に対して、形態素解析により自動的
に修正することが行われるものがある(特開平4−31
5278号公報等)。しかし、正しいと思われる文字画
像に対する認識結果であっても、それが誤った文字区切
りに対する認識結果をもとに修正を行ったのであれば、
結果として改悪してしまう恐れがある。本発明は、上述
の問題を解決するためのものであり、カラー画像に対す
る文字認識処理において、文字の切り出し精度を向上さ
せ、また、文字認識結果の修正精度を向上させることに
より、文字認識処理の効率向上をはかる文字認識装置、
文字認識方法および記録媒体を提供することを目的とす
る。
SUMMARY OF THE INVENTION In character recognition,
It is important to determine an area corresponding to one character and to search for an appropriate word string in post-processing. Especially in Japanese, one character is vertical (even in a vertically written document)
May be divided into a plurality of character areas in the background color area, and a correct recognition result cannot be derived unless a correct combination is selected. In addition, characters may be in contact with each other, and in this case, it is more difficult to extract characters.
For example, according to the technology of Japanese Patent No. 2565150,
Character extraction is performed by estimating the standard character width and standard character height using the marginal distribution in the line direction and the marginal distribution in the direction perpendicular to the line. However, in this technique, when a character string is divided into several regions, characters cannot be cut out correctly when adjacent characters belonging to the adjacent regions are close to each other. To solve this, Japanese Patent Application Laid-Open
According to the technology disclosed in Japanese Patent Application Laid-Open No. 11-110060, backgrounds of the same color are integrated, and character recognition is performed on character images in the integrated area. However, according to this technique, no consideration is given to the color of the characters, and even if the background is the same, there is no effect in extracting characters having different colors. In character recognition, it is extremely difficult to completely eliminate erroneous recognition. For this reason, there is a post-processing in which a character string as a result of character recognition is automatically corrected by morphological analysis (Japanese Patent Laid-Open No. Hei 4-31)
No. 5278). However, even if the recognition result for a character image that seems to be correct is corrected based on the recognition result for the incorrect character delimiter,
As a result, there is a danger that it will be degraded. The present invention has been made to solve the above-described problem. In character recognition processing for a color image, the character extraction accuracy is improved, and the character recognition result correction accuracy is improved by improving the character recognition result correction accuracy. Character recognition device to improve efficiency,
An object of the present invention is to provide a character recognition method and a recording medium.

【0004】[0004]

【課題を解決するための手段】上記の問題を解決するた
めに、請求項1の発明は、カラー画像中の文字画像に対
して文字認識して、文字画像に対応した符号に変換する
文字認識装置において、カラー画像を色情報に基いて複
数の領域に分割する領域分割部と、文字画像が前記領域
分割部で得た領域をまたがっている場合には、この文字
画像をその領域の境界で分割して文字認識処理を行う文
字認識部とを備えることを特徴とする。また、本発明の
請求項2は、入力された画像の文字画像に対して文字認
識を行う文字認識装置において、入力された画像を色情
報に基いて複数の領域に分割する領域分割部と、入力さ
れた画像の文字画像領域から文字を切り出す際に、前記
領域分割部により得た領域をまたがっている場合には1
つの文字ではないと見なして文字を切り出すようにした
文字切出し部と、前記文字切出し部で切り出された文字
を認識する文字認識部とを備えたことを特徴とする。ま
た、本発明の請求項3は、請求項1または請求項2に記
載の文字認識装置において、前記領域分割部は、前記カ
ラー画像に含まれる文字画像の文字色に対する色情報に
基いて複数の領域に分割するようにしたことを特徴とす
る。また、本発明の請求項4は、請求項1、請求項2ま
たは請求項3に記載の文字認識装置において、前記領域
分割部は、前記カラー画像の色パラメータが一定以上の
勾配で変化する場合、別の色の領域であるとして統合し
ないようにしたことを特徴とする。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problem, a first aspect of the present invention is a character recognition apparatus which performs character recognition on a character image in a color image and converts the character image into a code corresponding to the character image. In the device, an area dividing unit that divides a color image into a plurality of areas based on color information, and when a character image straddles an area obtained by the area dividing unit, the character image is divided by a boundary of the area. A character recognition unit that performs character recognition processing by dividing the character. According to a second aspect of the present invention, in a character recognition device that performs character recognition on a character image of an input image, an area dividing unit that divides the input image into a plurality of areas based on color information; When characters are cut out from the character image region of the input image, if the characters are straddled by the region obtained by the region dividing unit, 1
A character extracting unit configured to extract a character by regarding the character as not being a single character, and a character recognizing unit that recognizes the character extracted by the character extracting unit. Further, according to a third aspect of the present invention, in the character recognition device according to the first or second aspect, the area dividing unit includes a plurality of character recognition units based on color information for a character color of a character image included in the color image. It is characterized in that it is divided into regions. According to a fourth aspect of the present invention, in the character recognition device according to the first, second, or third aspect, the region dividing unit may be configured such that the color parameter of the color image changes at a gradient equal to or greater than a certain value. , And are not integrated as regions of different colors.

【0005】また、本発明の請求項5は、入力された画
像の文字画像に対して文字認識を行う文字認識方法にお
いて、入力された画像を色情報に基いて複数の領域に分
割する領域分割工程と、入力された画像の文字画像領域
から文字を切り出す際に、前記領域分割工程により得た
領域をまたがっている場合には1つの文字ではないと見
なして文字を切り出すようにした文字切出し工程と、前
記文字切出し工程で切り出された文字を認識する文字認
識工程とを備えたことを特徴とする。また、本発明の請
求項6は、請求項5に記載の文字認識方法において、前
記領域分割工程は、前記カラー画像に含まれる文字画像
の文字色に対する色情報に基いて複数の領域に分割する
ようにしたことを特徴とする。また、本発明の請求項7
は、請求項5または請求項6に記載の文字認識方法にお
いて、前記領域分割工程は、前記カラー画像の色パラメ
ータが一定以上の勾配で変化する場合、別の色の領域で
あるとして統合しないようにしたことを特徴とする。ま
た、本発明の請求項8は、コンピュータを、入力された
画像の文字画像に対して文字認識を行う文字認識装置と
して機能させるためのプログラムを記録したコンピュー
タ読み取り可能な記録媒体であって、入力された画像を
色情報に基いて複数の領域に分割する領域分割部と、入
力された画像の文字画像領域から文字を切り出す際に、
前記領域分割部により得た領域をまたがっている場合に
は1つの文字ではないと見なして文字を切り出すように
した文字切出し部と、前記文字切出し部で切り出された
文字を認識する文字認識部とを備え、カラー画像の文字
画像を文字認識するプログラムを記録したことを特徴と
する。
According to a fifth aspect of the present invention, there is provided a character recognition method for performing character recognition on a character image of an input image, wherein the input image is divided into a plurality of regions based on color information. And a character extracting step for extracting a character from a character image area of an input image, wherein the character is extracted as a character if the area extends over the area obtained by the area dividing step. And a character recognizing step of recognizing the character extracted in the character extracting step. According to a sixth aspect of the present invention, in the character recognition method according to the fifth aspect, in the area dividing step, the area is divided into a plurality of areas based on color information on a character color of a character image included in the color image. It is characterized by doing so. Claim 7 of the present invention
In the character recognition method according to claim 5 or 6, when the color parameter of the color image changes at a gradient equal to or higher than a certain value, the area dividing step does not integrate the color image as an area of another color. It is characterized by the following. An eighth aspect of the present invention is a computer-readable recording medium storing a program for causing a computer to function as a character recognition device that performs character recognition on a character image of an input image, An area dividing unit that divides the input image into a plurality of areas based on color information, and when cutting out characters from a character image area of the input image,
A character cutout unit that cuts out a character as if it is not one character when straddling the area obtained by the region division unit, and a character recognition unit that recognizes the character cutout by the character cutout unit Wherein a program for character recognition of a character image of a color image is recorded.

【0006】また、本発明の請求項9は、カラー画像中
の文字画像に対して文字認識して、文字画像に対応した
符号に変換する文字認識装置において、入力された画像
を色情報に基づいて複数の領域に分割する領域分割部
と、入力された画像の文字画像領域から文字を切り出す
文字切出し部と、前記文字切出し部で切り出された文字
を認識する文字認識部と、前記文字認識部で認識された
文字候補を組み合わせて生成される文字列を言語解析し
て認識文字候補を修正する認識結果修正部とを備え、前
記認識結果修正部は、認識候補の文字列に対して言語解
析する際、前記領域分割部により得た領域をまたがって
いる場合には単語候補ではないと解釈して認識候補を修
正するようにしたことを特徴とする。また、本発明の請
求項10は、カラー画像中の文字画像に対して文字認識
して、文字画像に対応した符号に変換する文字認識方法
において、入力された画像を色情報に基いて複数の領域
に分割する領域分割工程と、入力された画像の文字画像
領域から文字を切り出す文字切出し工程と、前記文字切
出し工程で切り出された文字を認識する文字認識工程
と、前記文字認識工程で認識された文字候補を組み合わ
せて生成される文字列を言語解析して認識文字候補を修
正する認識結果修正工程とを備え、前記認識結果修正工
程は、認識候補の文字列に対して言語解析する際、前記
領域分割工程により得た領域をまたがっている場合には
単語候補ではないと解釈して認識候補を修正するように
したことを特徴とする。また、本発明の請求項11は、
コンピュータを、カラー画像中の文字画像に対して文字
認識して、文字画像に対応した符号に変換する文字認識
装置として機能させるためのプログラムを記録したコン
ピュータ読み取り可能な記録媒体であって、入力された
画像を色情報に基いて複数の領域に分割する領域分割部
と、入力された画像の文字画像領域から文字を切り出す
文字切出し部と、前記文字切出し部で切り出された文字
を認識する文字認識部と、前記文字認識部で認識された
文字候補を組み合わせて生成される文字列を言語解析し
て認識文字候補を修正する認識結果修正部とを備え、前
記認識結果修正部は、認識候補の文字列に対して言語解
析する際、前記領域分割部により得た領域をまたがって
いる場合には単語候補ではないと解釈して認識候補を修
正するようにしたプログラムを記録したことを特徴とす
る。
A ninth aspect of the present invention is a character recognition device for recognizing a character in a character image in a color image and converting the character image into a code corresponding to the character image. An area dividing unit that divides the input image into a plurality of areas; a character extracting unit that extracts characters from a character image area of an input image; a character recognizing unit that recognizes a character extracted by the character extracting unit; And a recognition result correction unit for correcting the recognition character candidate by linguistically analyzing a character string generated by combining the character candidates recognized in the above, wherein the recognition result correction unit performs a linguistic analysis on the recognition candidate character string. In this case, if the region spans the region obtained by the region dividing unit, the recognition candidate is interpreted as not a word candidate, and the recognition candidate is corrected. According to a tenth aspect of the present invention, there is provided a character recognition method for performing character recognition on a character image in a color image and converting the character into a code corresponding to the character image. An area dividing step of dividing the input image into characters, a character extracting step of extracting characters from a character image area of the input image, a character recognizing step of recognizing the character extracted in the character extracting step, and a character recognizing step. A recognition result correction step of correcting the recognition character candidate by language analysis of the character string generated by combining the character candidates, the recognition result correction step, when performing language analysis on the character string of the recognition candidate, In the case where the region crosses over the region obtained in the region dividing step, the recognition candidate is interpreted as not a word candidate, and the recognition candidate is corrected. Claim 11 of the present invention is:
A computer-readable recording medium storing a program for causing a computer to function as a character recognition device that recognizes a character in a character image in a color image and converts the character into a code corresponding to the character image. Segmentation unit that divides an image into a plurality of regions based on color information, a character segmentation unit that segments characters from a character image region of an input image, and character recognition that recognizes characters segmented by the character segmentation unit. And a recognition result correction unit for correcting a recognition character candidate by language analysis of a character string generated by combining the character candidates recognized by the character recognition unit, and wherein the recognition result correction unit At the time of language analysis of a character string, when a region straddling the region obtained by the region dividing unit is interpreted as not a word candidate, the recognition candidate is corrected. And I characterized by recording a program.

【0007】[0007]

【発明の実施の形態】以下に、図面を用いて本発明の実
施例の構成および動作を詳細に述べる。 <実施例1> (1)実施例1の構成 図1は、本発明の実施の形態である文字認識装置の構成
を示すブロック図である。本発明の実施例1の文字認識
装置は、画像入力部10、原画像記憶部15、領域分割
部20、領域分割結果記憶部25、二値化処理部30、
二値化画像記憶部35、文字切出し部40、文字認識部
50、認識辞書45、認識結果記憶部55、出力部70
とから構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The construction and operation of an embodiment of the present invention will be described below in detail with reference to the drawings. Example 1 (1) Configuration of Example 1 FIG. 1 is a block diagram showing a configuration of a character recognition device according to an embodiment of the present invention. The character recognition device according to the first embodiment of the present invention includes an image input unit 10, an original image storage unit 15, an area division unit 20, an area division result storage unit 25, a binarization processing unit 30,
Binary image storage unit 35, character cutout unit 40, character recognition unit 50, recognition dictionary 45, recognition result storage unit 55, output unit 70
It is composed of

【0008】画像入力部10は、スキャナ等の画像読取
装置や画像を保持するファイルからカラー画像を読取
り、原画像記憶部15へ登録する。原画像記憶部15
は、入力したカラー原画像情報(例えば、各画素ごとに
座標位置情報、色情報等)を格納する記憶手段(例え
ば、磁気ディスクのような記憶装置等)である。このカ
ラー原画像は、領域分割部20、二値化部30、出力部
70等の処理のためにそれぞれ使われる。領域分割部2
0は、原画像記憶部15に格納されたカラー画像を読み
込み、カラーによるクラスタリングとラベリングを行う
ことによって、同色と見なせる画像領域に分割する。こ
のために先ず、原画像を色空間における色分布に変換
し、色情報(明度や色相等)を基に色分布を分割する。
この操作は、原画像の色分布をひとつのクラスタと考
え、クラスタ分割が所定の色数に達するか、分割できな
くなるまでクラスタを分割していく。次に、原画像をメ
ッシュ領域に分割し、この領域の色情報の平均値がどの
クラスタに属するかを判断することによって、この領域
に対するラベリングを行う。このラベリング処理のと
き、隣接する領域の色が許容値以内であれば、同一のラ
ベルを与えることを繰り返し、画像全体を同色の領域と
して統合することを繰り返す。また、隣接する領域の色
が許容値以内であっても、元の画像の色パラメータの勾
配が所定値以上であるときには、これらの領域は統合し
ない。以上、クラスタリングおよびラベリング処理は画
像全体に対して処理したが、文字画像を抽出し、その文
字画像に対してのみ行うようにした方が本発明ではより
効果的である。このようにして統合された領域に対する
情報を磁気ディスクのような記憶装置等の領域分割結果
記憶部25へ登録する。領域分割結果記憶部25の内容
は、図2で示されるように、分割された各領域(ラベ
ル)ごとに領域の始点座標(X,Y)、終点座標(X,
Y)、内包する領域のラベル番号、この領域の平均色等
の情報である。
The image input unit 10 reads a color image from an image reading device such as a scanner or a file holding an image and registers the color image in the original image storage unit 15. Original image storage unit 15
Is storage means (for example, a storage device such as a magnetic disk) for storing input color original image information (for example, coordinate position information, color information, and the like for each pixel). The color original image is used for processing of the area dividing unit 20, the binarizing unit 30, the output unit 70, and the like. Area division unit 2
0 reads the color image stored in the original image storage unit 15 and performs color clustering and labeling to divide the image area into image areas that can be regarded as the same color. For this purpose, first, the original image is converted into a color distribution in a color space, and the color distribution is divided based on color information (lightness, hue, etc.).
In this operation, the color distribution of the original image is regarded as one cluster, and the cluster is divided until the cluster division reaches a predetermined number of colors or the cluster cannot be divided. Next, the original image is divided into mesh areas, and it is determined which cluster the average value of the color information of this area belongs to, thereby labeling this area. At the time of this labeling process, if the color of the adjacent area is within the allowable value, the same label is repeatedly given, and the integration of the entire image as the same color area is repeated. Even if the colors of the adjacent areas are within the allowable value, these areas are not integrated when the gradient of the color parameter of the original image is equal to or more than a predetermined value. As described above, the clustering and labeling processes are performed on the entire image. However, it is more effective in the present invention to extract a character image and perform the process only on the character image. Information on the area integrated in this way is registered in the area division result storage unit 25 such as a storage device such as a magnetic disk. As shown in FIG. 2, the contents of the area division result storage unit 25 include the start point coordinates (X, Y) and the end point coordinates (X, Y,
Y), the label number of the included region, and information such as the average color of this region.

【0009】二値化処理部30は、原画像記憶部15に
格納されたカラー画像情報を二値化し、二値化画像記憶
部35へ格納する。文字切出し部40は、二値化画像記
憶部35に格納されている画像情報から文字画像領域を
判別し、その文字領域から行を切り出し、この切り出さ
れた行から文字を切り出し、その文字部分の大きさの正
規化やノイズ(汚れ等)除去を行って、一時的に記憶し
ておく。行の切り出しは、行の区切りであると判断する
ための閾値、文字画像以外と判断する条件(ノイズ画素
の矩形サイズ、罫線など、文字サイズを越える画素の矩
形のサイズ・縦横比等)等をパラメータとして設定して
おき、黒画素分布において黒画素数0の地点で区切るよ
うにして行を切り出す。文字の切り出しは、このように
して切り出された行の対象領域の中で行方向に直交する
方向に背景色(通常白)の画素が十分多い部分を探し、そ
こで領域を分割して文字に外接する長方形からなる小領
域の列とし、それら小領域の内、連続するものを適当な
基準で重複を許して統合し、1文字領域の候補を得る。
この基準としては、縦横の比が文字として妥当であるこ
となどがある。このように小領域を統合していく際に、
領域分割結果記憶部25に登録された同色と見なせる領
域を参照して、これらの小領域が文字色の異なる領域に
またがっている場合には統合しないようにする。これ
は、一つの文字は同じ色で表現され、分断することは少
ないためである。
The binarization processing section 30 binarizes the color image information stored in the original image storage section 15 and stores it in the binarized image storage section 35. The character cutout unit 40 determines a character image area from the image information stored in the binarized image storage unit 35, cuts out a line from the character area, cuts out a character from the cutout line, and Normalization of the size and removal of noise (dirt, etc.) are performed and temporarily stored. For the line segmentation, a threshold value for judging a line segment, a condition for judging other than a character image (rectangular size of pixel exceeding character size, aspect ratio, etc., such as a rectangular size of a noise pixel, a ruled line, etc.), etc. A parameter is set as a parameter, and a line is cut out at a point where the number of black pixels is 0 in the black pixel distribution. Character extraction is performed by searching the target area of the line extracted in this way for a portion having a sufficiently large number of background color (usually white) pixels in the direction orthogonal to the row direction, and dividing the area to circumscribe the character. A series of small areas consisting of rectangles are formed, and consecutive ones of the small areas are integrated with an appropriate standard while allowing overlap, and a candidate for one character area is obtained.
This criterion includes that the aspect ratio is appropriate as a character. When integrating small areas like this,
By referring to the regions registered in the region division result storage unit 25 that can be regarded as the same color, if these small regions extend over regions having different character colors, they are not integrated. This is because one character is expressed in the same color and is hardly divided.

【0010】例えば、図3のような「加」という文字を
文字切り出しを行うと「力」と「口」の2つの領域に分
割されてしまう。これを1つの文字として統合するため
には、これらの領域が間隔や外接長方形の大きさが周囲
の文字に対する外接長方形の大きさと比較する等してか
ら決定している。しかし、この2つの領域は1つの文字
「加」であるので、一般的には同じ色を持っているはず
である。また、逆に、「力」と「口」の領域が別の文字
色であれば、それぞれ独立の文字として切り出せばよい
ことになる。このように、文字色の境界の左右の文字が
比較的幅の狭い部分矩形を持っていたり、従来技術では
境界をまたいで切り出してしまった1文字領域の文字認
識の結果が非常によい信頼度を持っている場合でも、こ
のような誤った文字切り出しをしないですむし、また、
別々のグループに属する文字が接触している状態でも正
しく切り放して1文字領域を作成することができる。文
字認識部50は、文字切出し部40で切り出され、一時
的に記憶された文字に対して特徴量を計算し、その特徴
量と標準パターンの認識辞書45の標準パターンの特徴
量とを比較し、類似度の高いものから所定の個数だけ認
識結果の候補とし、候補文字コードとその類似度と候補
文字の文字種等を認識結果データとして認識結果記憶部
55に格納する。認識辞書45は、文字ごとに文字コー
ド、その文字の標準パターンの特徴量等の情報を保持す
る。認識結果記憶部55は、文字認識部50で得た認識
結果を格納しておく記憶手段(例えば、磁気ディスクの
ような記憶装置等)である。この内容は、処理対象の画
像の位置とその処理結果である。出力手段70は、認識
結果記憶部55に得られた認識結果データと原画像記憶
部15内のカラー画像とを対比させて、プリンタ、ディ
スプレイまたはファイル等の出力装置へ出力する。この
ような構成において、実施例1の文字認識装置を動作さ
せると、先ず、画像入力部10が起動され、ユーザーの
指定した文書をスキャナ等の画像読取装置からカラー画
像として読み取るか、または指定された画像を保持する
ファイルからカラー画像を読取り、その画像情報を原画
像記憶部15へ登録する。
For example, if the character "add" as shown in FIG. 3 is cut out, it is divided into two regions, "power" and "mouth". In order to integrate them as one character, these areas are determined after comparing the interval and the size of the circumscribed rectangle with the size of the circumscribed rectangle for surrounding characters. However, since these two areas are one character "add", they should generally have the same color. Conversely, if the "power" and "mouth" areas have different character colors, they may be cut out as independent characters. As described above, the result of character recognition of a character region in which a character on the left and right sides of a character color boundary has a relatively narrow partial rectangle or a character region cut out across a boundary in the related art is very reliable. Even if you have, you do not have to cut out such erroneous characters,
Even when characters belonging to different groups are in contact with each other, it is possible to create a one-character area by properly cutting off the characters. The character recognizing unit 50 calculates a feature amount of the character extracted and temporarily stored by the character extracting unit 40, and compares the feature amount with the feature amount of the standard pattern in the standard pattern recognition dictionary 45. A predetermined number of candidates having the highest similarity are selected as candidates for recognition results, and the candidate character codes, their similarities, the character types of the candidate characters, and the like are stored in the recognition result storage unit 55 as recognition result data. The recognition dictionary 45 holds information such as a character code for each character and a feature amount of a standard pattern of the character. The recognition result storage unit 55 is a storage unit (for example, a storage device such as a magnetic disk) that stores the recognition result obtained by the character recognition unit 50. The contents are the position of the image to be processed and the processing result. The output unit 70 compares the recognition result data obtained in the recognition result storage unit 55 with the color image in the original image storage unit 15 and outputs the color image to an output device such as a printer, a display, or a file. In such a configuration, when the character recognition device according to the first embodiment is operated, first, the image input unit 10 is activated, and a document specified by the user is read as a color image from an image reading device such as a scanner, or specified. A color image is read from a file holding the stored image, and the image information is registered in the original image storage unit 15.

【0011】次に、領域分割部20が起動され、原画像
記憶部15に格納されたカラー画像を読み込み、カラー
によるクラスタリングとラベリングを行うことによっ
て、同色と見なせる画像領域に分割して、このラベリン
グされた各領域を領域分割結果記憶部25へ登録する。
ここでクラスタリング処理は、原画像を色空間における
色分布に変換し、この色分布をひとつのクラスタと考
え、クラスタ分割が所定の色数に達するか、色情報(明
度や色相等)を基に分割できなくなるまでクラスタを分
割していく。ラベリング処理は、原画像をメッシュ領域
に分割し、この領域の色情報の平均値がどのクラスタに
属するかを判断することによって、この領域に対するラ
ベリングを行い、隣接する領域の色が許容値以内のとき
に、同一のラベルを与えることを繰り返し、画像全体を
同色の領域として統合することを繰り返す。また、隣接
する領域の色が許容値以内であっても、元の画像の色パ
ラメータの勾配が所定値以上であるときには、これらの
領域は統合しない。上記のクラスタリングおよびラベリ
ング処理は、画像全体に対して処理せずに、文字画像を
抽出し、その文字画像に対してのみ行うようにしてもよ
い。カラー画像の領域分割後、二値化処理部30が起動
され、原画像記憶部15に格納されたカラー画像情報を
2値化し、二値化画像記憶部35へ格納する。
Next, the area dividing section 20 is activated, reads the color image stored in the original image storing section 15, performs clustering and labeling by color, and divides the image area into image areas that can be regarded as the same color. The registered regions are registered in the region division result storage unit 25.
Here, the clustering process converts the original image into a color distribution in a color space, considers this color distribution as one cluster, and determines whether the cluster division reaches a predetermined number of colors or based on color information (lightness, hue, etc.). The cluster is divided until it cannot be divided. In the labeling process, the original image is divided into mesh regions, and labeling is performed on this region by determining which cluster the average value of the color information of this region belongs to, and the color of an adjacent region is within an allowable value. Sometimes, the same label is repeatedly given, and the integration of the entire image as a region of the same color is repeated. Even if the colors of the adjacent areas are within the allowable value, these areas are not integrated when the gradient of the color parameter of the original image is equal to or more than a predetermined value. The above-described clustering and labeling processing may be such that a character image is extracted and not performed on the entire image, and is performed only on the character image. After the color image is divided into regions, the binarization processing unit 30 is started, the color image information stored in the original image storage unit 15 is binarized, and stored in the binarized image storage unit 35.

【0012】次に、文字切出し部40が起動され、二値
化画像記憶部35に格納されている画像情報から文字画
像領域を判別し、その文字領域から行を切り出し、この
切り出された行から文字を切り出し、その文字部分の大
きさの正規化やノイズ(汚れ等)除去を行って、一時的
に記憶しておく。この文字の切り出しは、行方向に直交
する方向に背景色の画素が十分多い部分を探し、そこで
領域を分割して文字に外接する長方形からなる小領域の
列とし、それら小領域の内、連続するものを適当な基準
で重複を許して統合し、1文字領域の候補を得る。この
小領域を統合するとき、領域分割結果記憶部25に登録
された同色と見なせる領域を参照して、これらの小領域
が文字色の異なる領域にまたがっている場合には統合し
ないようにする。次に、文字認識部50が起動され、文
字切出し部40で切り出された文字に対して特徴量を計
算し、その特徴量と標準パターンの認識辞書45の標準
パターンの特徴量とを比較し、類似度の高いものから所
定の個数だけ認識結果の候補とし、候補文字コードとそ
の類似度と候補文字の文字種等を認識結果データとして
認識結果記憶部55に格納する。最後に、出力手段70
が起動され、認識結果記憶部55に得られた認識結果デ
ータと原画像記憶部15内のカラー画像とを対比させ
て、プリンタ、ディスプレイまたはファイル等の出力装
置へ出力する。従って、このように構成することによ
り、カラー文書における文字色の変化点が1文字や1単
語を分断することは少ないという知見を利用し、文字色
の変化点を文字領域や単語の境界であるとみなし、文字
画像領域の抽出を効果的に行えることになる。この結果
から、カラー文書に対する文字認識の精度を向上し、修
正に必要とされる労力を低減することができる。
Next, the character cutout section 40 is activated, a character image area is determined from the image information stored in the binarized image storage section 35, a line is cut out from the character area, and a line is cut out from the cutout line. A character is cut out, the size of the character portion is normalized, noise (dirt, etc.) is removed, and the character portion is temporarily stored. This character is cut out by searching for a sufficiently large portion of background color pixels in the direction orthogonal to the row direction, dividing the area into a row of small areas consisting of rectangles circumscribing the character, and Are merged on a suitable basis while permitting duplication, and a one-character area candidate is obtained. When the small areas are integrated, the areas that can be regarded as having the same color registered in the area division result storage unit 25 are referred to, and if these small areas span areas having different character colors, they are not integrated. Next, the character recognition unit 50 is activated, calculates a feature amount for the character cut out by the character cutout unit 40, compares the feature amount with the feature amount of the standard pattern in the standard pattern recognition dictionary 45, A predetermined number of candidates of the recognition result are selected from those having the highest similarity, and the candidate character code, the similarity thereof, the character type of the candidate character, and the like are stored in the recognition result storage unit 55 as the recognition result data. Finally, the output means 70
Is started, the recognition result data obtained in the recognition result storage unit 55 is compared with the color image in the original image storage unit 15, and output to an output device such as a printer, a display, or a file. Therefore, by adopting such a configuration, the knowledge that the character color change point in a color document rarely separates one character or one word is used, and the character color change point is a character region or a word boundary. As a result, the character image area can be effectively extracted. As a result, the accuracy of character recognition for a color document can be improved, and the labor required for correction can be reduced.

【0013】(2)処理の流れ 図4は、本実施例1の処理の流れを説明するためのフロ
ーチャートである。ユーザーの指定した文書をスキャナ
等の画像読取装置からカラー画像として読み取り、その
画像情報を原画像記憶部15へ登録する(ステップS1
00)。または、既に画像読取装置で読み取られ、ファ
イルとしてカラー画像を登録してある場合には、そのフ
ァイルを指定することによってカラー画像を読取るよう
にしてもよい。原画像記憶部15に格納されたカラー画
像を読み込み、カラーによるクラスタリングとラベリン
グを行うことによって、同色と見なせる画像領域に分割
して、このラベリングされた各領域を領域分割結果記憶
部25へ登録する(ステップS110)。ここでクラス
タリング処理は、原画像を色空間における色分布に変換
し、色分布をひとつのクラスタと考え、クラスタ分割が
所定の色数に達するか、色情報(明度や色相等)を基に
分割できなくなるまでクラスタを分割していく。ラベリ
ング処理は、原画像をメッシュ領域に分割し、この領域
の色情報の平均値がどのクラスタに属するかを判断する
ことによって、この領域に対するラベリングを行い、隣
接する領域の色が許容値以内のときに、同一のラベルを
与えることを繰り返し、画像全体を同色の領域として統
合することを繰り返す。また、隣接する領域の色が許容
値以内であっても、元の画像の色パラメータの勾配が所
定値以上であるときには、これらの領域は統合しないよ
うにする。上記のクラスタリングおよびラベリング処理
は、画像全体に対して処理せずに、文字画像を抽出し、
その文字画像に対してのみ行うようにしてもよい。原画
像記憶部15に格納されたカラー画像情報を二値化し、
二値化画像記憶部35へ格納する(ステップS12
0)。
(2) Processing Flow FIG. 4 is a flowchart for explaining the processing flow of the first embodiment. A document specified by the user is read as a color image from an image reading device such as a scanner, and the image information is registered in the original image storage unit 15 (step S1).
00). Alternatively, when a color image has already been read by the image reading apparatus and a color image has been registered as a file, the color image may be read by designating the file. The color image stored in the original image storage unit 15 is read, and clustering and labeling by color are performed to divide the image region into image regions that can be regarded as the same color, and each of the labeled regions is registered in the region division result storage unit 25. (Step S110). Here, the clustering process converts the original image into a color distribution in a color space, considers the color distribution as one cluster, and determines whether cluster division reaches a predetermined number of colors or based on color information (lightness, hue, etc.). Divide the cluster until it is no longer possible. In the labeling process, the original image is divided into mesh regions, and labeling is performed on this region by determining which cluster the average value of the color information of this region belongs to, and the color of an adjacent region is within an allowable value. Sometimes, the same label is repeatedly given, and the integration of the entire image as a region of the same color is repeated. Even if the colors of the adjacent areas are within the allowable value, when the gradient of the color parameter of the original image is equal to or higher than a predetermined value, these areas are not integrated. The above clustering and labeling process extracts a character image without processing the entire image,
It may be performed only for the character image. The color image information stored in the original image storage unit 15 is binarized,
Storing in the binarized image storage unit 35 (step S12)
0).

【0014】二値化画像記憶部35に格納されている画
像情報から文字画像領域を判別し、その文字領域から行
を切り出し、この切り出された行から文字を切り出し、
その文字部分の大きさの正規化やノイズ(汚れ等)除去
を行って、一時的に記憶しておく(ステップS13
0)。この文字の切り出しは、行方向に直交する方向に
背景色の画素が十分多い部分を探し、そこで領域を分割
して文字に外接する長方形からなる小領域の列とし、そ
れら小領域の内、連続するものを統合し、1文字領域の
候補を得る。この小領域を統合するとき、領域分割結果
記憶部25に登録された同色と見なせる領域を参照し
て、これらの小領域が文字色の異なる領域にまたがって
いる場合には統合しないようにする。切り出された文字
に対して特徴量を計算し、その特徴量と標準パターンの
認識辞書45の標準パターンの特徴量とを比較し、類似
度の高いものから所定の個数だけ認識結果の候補とし、
候補文字コードとその類似度と候補文字の文字種等を認
識結果データとして認識結果記憶部55に格納する(ス
テップS140)。認識結果記憶部55に得られた認識
結果データと原画像記憶部15内のカラー画像とを対比
させて、プリンタ、ディスプレイまたはファイル等の出
力装置へ出力する(ステップS150)。
A character image area is determined from the image information stored in the binarized image storage unit 35, a line is cut out from the character area, and a character is cut out from the cut line.
Normalization of the size of the character portion and removal of noise (dirt, etc.) are performed and temporarily stored (step S13).
0). This character is cut out by searching for a sufficiently large portion of background color pixels in the direction orthogonal to the row direction, dividing the area into a row of small areas consisting of rectangles circumscribing the character, and Are integrated to obtain one character area candidates. When the small areas are integrated, the areas that can be regarded as having the same color registered in the area division result storage unit 25 are referred to, and if these small areas span areas having different character colors, they are not integrated. A feature amount is calculated for the cut-out character, the feature amount is compared with the feature amount of the standard pattern in the standard pattern recognition dictionary 45, and a predetermined number of candidates having high similarity are set as candidates for a recognition result,
The candidate character code, its similarity, the character type of the candidate character, and the like are stored as recognition result data in the recognition result storage unit 55 (step S140). The recognition result data obtained in the recognition result storage unit 55 is compared with the color image in the original image storage unit 15 and output to an output device such as a printer, a display, or a file (step S150).

【0015】<実施例2>図5は、本発明の他の実施の
形態である文字認識装置の構成を示すブロック図であ
る。本発明の実施例2の文字認識装置は、画像入力部1
0、原画像記憶部15、領域分割部20、領域分割結果
記憶部25、二値化処理部30、二値化画像記憶部3
5、文字切出し部40、文字認識部50、認識辞書4
5、認識結果記憶部55、認識結果修正部60、言語辞
書65、出力部70とから構成されている。ここで、画
像入力部10、原画像記憶部15、領域分割部20、領
域分割結果記憶部25、二値化処理部30、二値化画像
記憶部35、文字切出し部40、文字認識部50、認識
辞書45、認識結果記憶部55、出力部70について
は、実施例1で説明した各部の機能と同様であるので省
略し、認識結果修正部60および言語辞書65につい
て、以下に説明する。認識結果修正部60は、文字認識
部50で出力された認識結果記憶部55に格納された文
字候補の並びを考えた場合、隣接する文字候補の組み合
わせからなる複数の文字列を生成して、これらの文字列
に対して言語辞書65を用いて形態素解析を行う。これ
らの文字列に対して、言語辞書65に登録されている単
語を探索することで複数の単語列を得て、単語の重み情
報、単語の品詞情報と品詞間の接続コスト等から単語列
ごとにコストを計算し、このコストの小さいものから所
定の個数の単語列を選択することにより、不要の候補文
字を削除して認識結果記憶部55の内容を書き換える。
<Embodiment 2> FIG. 5 is a block diagram showing a configuration of a character recognition apparatus according to another embodiment of the present invention. The character recognition device according to the second embodiment of the present invention includes an image input unit 1
0, original image storage unit 15, region division unit 20, region division result storage unit 25, binarization processing unit 30, binary image storage unit 3
5, character extraction unit 40, character recognition unit 50, recognition dictionary 4
5, a recognition result storage unit 55, a recognition result correction unit 60, a language dictionary 65, and an output unit 70. Here, the image input unit 10, the original image storage unit 15, the region division unit 20, the region division result storage unit 25, the binarization processing unit 30, the binarized image storage unit 35, the character cutout unit 40, and the character recognition unit 50 , The recognition dictionary 45, the recognition result storage unit 55, and the output unit 70 have the same functions as those of the respective units described in the first embodiment, and thus are omitted. The recognition result correction unit 60 and the language dictionary 65 will be described below. When considering the arrangement of the character candidates stored in the recognition result storage unit 55 output from the character recognition unit 50, the recognition result correction unit 60 generates a plurality of character strings including a combination of adjacent character candidates, Morphological analysis is performed on these character strings using the language dictionary 65. For these character strings, a plurality of word strings are obtained by searching for words registered in the language dictionary 65. Each word string is obtained based on word weight information, word part of speech information and connection cost between parts of speech. By calculating a cost and selecting a predetermined number of word strings from the one with the lowest cost, unnecessary candidate characters are deleted and the contents of the recognition result storage unit 55 are rewritten.

【0016】実施例2では、隣接する文字候補の組み合
わせから生成された文字列に対して、言語辞書65に登
録されている単語を探索するとき、領域分割結果記憶部
25に登録された同色と見なせる領域を参照して、文字
色の異なる領域にまたがるような単語は選択しないよう
にする。例えば、図6を参照すると、「東福祉事務所在
宅介護の」のうち「在宅介護」の4文字の文字の色が同
色であって、他の部分のとは別の色であるときには、こ
の4文字分を単語として言語辞書65とマッチングさ
せ、残りの「東福祉事務所」についてだけ言語辞書65
とマッチングさせて形態素解析すればよい。しかし、
「在宅介護」に文字の色がついていなければ、「東福祉
事務所在宅介護の」のすべての可能な単語に対して言語
辞書65とマッチングさせなければならない。例えば、
この例では誤った区切りである「所在」というような単
語に関しても考慮されてしまうことになる。言語辞書6
5は、単語ごとに表記、品詞、重み等の情報を持つ単語
辞書および品詞相互間の接続可能性を示す接続コスト情
報を保持する。実施例2のように構成することにより、
カラー文書では一つのキーワードは、同一の文字色で書
かれることが多いので、一つの単語として検索する (候
補)文字の範囲を同色の文字が続く間に限定することに
より、二つ以上の単語を誤って一つの単語としてしまう
ことを防止し、正しい単語列を得る可能性が高くなる。
このことから、カラー文書に対する文字認識の精度を向
上し、修正に必要とされる労力を低減することができ
る。
In the second embodiment, when a word registered in the language dictionary 65 is searched for a character string generated from a combination of adjacent character candidates, the same color registered in the area division result storage unit 25 is used. By referring to the area that can be considered, words that span areas having different character colors are not selected. For example, referring to FIG. 6, when the color of the four characters “Home care” in “East welfare office home care” is the same color and different from the other parts, Four characters are matched as words with the language dictionary 65, and only the remaining “East welfare office” is a language dictionary 65
And morphological analysis may be performed. But,
If "home care" is not colored, all possible words of "east care home care" must be matched with the language dictionary 65. For example,
In this example, a word such as “location” which is an incorrect delimiter is also considered. Language dictionary 6
Reference numeral 5 holds a word dictionary having information such as notation, part of speech, and weight for each word, and connection cost information indicating the possibility of connection between parts of speech. By configuring as in the second embodiment,
In a color document, one keyword is often written in the same character color, so searching as one word (candidate) By limiting the range of characters that can be continued while characters of the same color continue, two or more words Is prevented from being mistakenly regarded as one word, and the possibility of obtaining a correct word string is increased.
Thus, the accuracy of character recognition for a color document can be improved, and the labor required for correction can be reduced.

【0017】<コンピュータによる実施例>さらに、本
発明は上記の実施形態のみに限定されたものではない。
例えば、図1または図5の文字認識装置は、図7に示し
たようなコンピュータ装置100の構成によっても実現
が可能である。即ち、入力装置1はキーボード、マウ
ス、タッチパネル、スキャナ等により構成され、情報の
入力に使用される。表示装置2は、種々の出力情報や入
力装置1からの入力された情報などを表示出力させる。
CPU(Central Processing Unit;中央処理ユニッ
ト)3は、種々のプログラムを動作させる。メモリ4
は、プログラム自身を保持し、またそのプログラムがC
PU3によって実行されるときに一時的に作成される情
報等を保持する。記憶装置5は、本発明の文字認識装置
で扱う原画像記憶部15、領域分割結果記憶部25、二
値化画像記憶部35、認識辞書45、認識結果記憶部5
5、言語辞書65およびプログラムやプログラム実行時
の一時的な情報等を保持する。媒体駆動装置6は、プロ
グラムやデータ等を記憶した記録媒体を装着してそれら
を読み込み、メモリ4または記憶装置5へ格納するのに
用いられる。また、直接データの入出力やプログラム実
行するのに使ってもよい。バス8は、上記各部を接続す
る。図1または図5に示した文字認識装置を構成する各
機能をそれぞれプログラム化し、予めCD−ROM等の
記録媒体に書き込んでおき、このCD−ROMを各サイ
トのCD−ROMドライブのような媒体駆動装置6を搭
載したコンピュータに装着して、これらのプログラムを
それぞれのコンピュータのメモリ4あるいは記憶装置5
に格納し、それを実行することによって、上記の実施の
形態と同様な機能を実現することができる。
<Example by Computer> Further, the present invention is not limited to the above embodiment.
For example, the character recognition device of FIG. 1 or FIG. 5 can also be realized by the configuration of the computer device 100 as shown in FIG. That is, the input device 1 includes a keyboard, a mouse, a touch panel, a scanner, and the like, and is used for inputting information. The display device 2 displays and outputs various output information, information input from the input device 1, and the like.
A CPU (Central Processing Unit) 3 runs various programs. Memory 4
Holds the program itself, and the program
Information temporarily created when executed by the PU 3 is stored. The storage device 5 includes an original image storage unit 15, an area division result storage unit 25, a binarized image storage unit 35, a recognition dictionary 45, and a recognition result storage unit 5 handled by the character recognition device of the present invention.
5. It holds the language dictionary 65, programs and temporary information at the time of program execution. The medium drive device 6 is used to mount a recording medium storing programs, data, and the like, read them, and store them in the memory 4 or the storage device 5. Further, it may be used for directly inputting / outputting data or executing a program. The bus 8 connects the above components. Each function constituting the character recognition apparatus shown in FIG. 1 or FIG. 5 is programmed and written in advance on a recording medium such as a CD-ROM, and this CD-ROM is stored in a medium such as a CD-ROM drive at each site. These programs are mounted on a computer equipped with a drive device 6 and these programs are stored in the memory 4 or the storage device 5 of each computer.
And executing the same, it is possible to realize functions similar to those of the above-described embodiment.

【0018】尚、記録媒体としては半導体媒体(例え
ば、ROM、ICメモリカード等)、光媒体(例えば、
DVD、MO、MD、CD−R等)、磁気媒体(例え
ば、磁気テープ、フレキシブルディスク等)のいずれで
あってもよい。また、ロードしたプログラムを実行する
ことにより前述した実施の形態の機能が実現されるだけ
でなく、そのプログラムの指示に基づき、オペレーティ
ングシステム等が実際の処理の一部または全部を行い、
その処理によって上述した実施の形態の機能が実現され
る場合も含まれる。また、上述した実施の形態を実現す
るプログラムがROM等のような半導体の記録媒体であ
る場合には、媒体駆動装置6からではなく、直接、メモ
リ4へロードして実行される。さらに、上述した実施の
形態の機能を実現するプログラムが、機能拡張ボードや
機能拡張ユニットに備わるメモリにロードされ、そのプ
ログラムの指示に基づき、その機能拡張ボードや機能拡
張ユニットに備わるCPUなどが実際の処理の一部また
は全部を行い、その処理によって、上述した実施の形態
の機能が実現される場合も含まれる。
As a recording medium, a semiconductor medium (for example, ROM, IC memory card, etc.), an optical medium (for example, ROM,
DVD, MO, MD, CD-R, etc.) and magnetic media (for example, magnetic tape, flexible disk, etc.). Further, not only the functions of the above-described embodiment are realized by executing the loaded program, but also the operating system or the like performs part or all of the actual processing based on the instructions of the program,
The case where the function of the above-described embodiment is realized by the processing is also included. Further, when the program for realizing the above-described embodiment is a semiconductor recording medium such as a ROM, the program is directly loaded into the memory 4 and executed not from the medium driving device 6. Further, a program for realizing the functions of the above-described embodiment is loaded into the memory provided on the function expansion board or the function expansion unit, and the CPU or the like provided on the function expansion board or the function expansion unit is actually executed based on the instructions of the program. And a part of the entire process is performed, and the function of the above-described embodiment is realized by the process.

【0019】<本発明のネットワーク環境での運用>図
8は、本発明をネットワーク接続して運用する形態の構
成を示している。例えば、文字認識プログラムを保持す
るサーバー110とユーザーが画像を入力し、結果を出
力する端末120とをネットワーク9で接続する。この
場合、サーバー110およびユーザーの端末120は、
図7に示した汎用のコンピュータ装置で構成され、ネッ
トワーク9に接続するためのネットワーク接続装置7を
それぞれ備えるようにする。また、このネットワーク9
は、サーバー110とユーザーの端末120とを結合す
るための伝送路であって、一般には、ケーブルで実現さ
れ、通信プロトコルにはTCP/IPが使われる。但
し、伝送路としてはケーブルだけではなく、それらの間
の通信プロトコルが一致するものであれば無線、有線お
よび放送波のいずれでもよく、例えば、LAN(Local
Area Network)、WAN(Wide Area Network)、イン
ターネット、アナログ電話網、デジタル電話網(ISD
N:Integral Service Digital Network)、PHS(パ
ーソナルハンディホンシステム)、携帯電話網、衛星通
信網などを用いることができる。ユーザーの端末120
は、サーバー110から文字認識プログラムを受信し
て、画像を入力し、受信した文字認識プログラムを実行
させ、その実行結果を出力するようにする。このように
することで、文字認識プログラムが常に最新のものを使
えるという利点がある。また、図8のようにサーバー1
10と端末120とをネットワークで接続した場合、サ
ーバー110の磁気ディスク等の記憶装置に本発明の機
能を実現する文字認識プログラムを格納しておき、端末
120に対してダウンロード等の形式で頒布することも
可能である。さらに、本発明の機能を実現する文字認識
プログラムを放送波によって配布することで提供するよ
うにしてもよい。
<Operation in Network Environment of the Present Invention> FIG. 8 shows a configuration of a mode in which the present invention is connected to a network and operated. For example, a server 110 holding a character recognition program and a terminal 120 for inputting an image by a user and outputting the result are connected via a network 9. In this case, the server 110 and the user terminal 120
It is composed of the general-purpose computer device shown in FIG. 7 and has a network connection device 7 for connecting to the network 9. Also, this network 9
Is a transmission path for connecting the server 110 and the user terminal 120, and is generally realized by a cable, and TCP / IP is used as a communication protocol. However, the transmission path is not limited to the cable, but may be any of wireless, wired, and broadcast waves as long as the communication protocol between them is the same.
Area Network), WAN (Wide Area Network), Internet, analog telephone network, digital telephone network (ISD)
N: Integral Service Digital Network), PHS (Personal Handy Phone System), mobile phone network, satellite communication network, and the like can be used. User terminal 120
Receives the character recognition program from the server 110, inputs an image, executes the received character recognition program, and outputs the execution result. This has the advantage that the latest character recognition program can always be used. Also, as shown in FIG.
When the terminal 10 and the terminal 120 are connected via a network, a character recognition program for realizing the function of the present invention is stored in a storage device such as a magnetic disk of the server 110 and distributed to the terminal 120 in a form such as download. It is also possible. Further, a character recognition program for realizing the functions of the present invention may be provided by distributing it by broadcast waves.

【0020】[0020]

【発明の効果】以上説明したように、本発明によれば、
カラー文書における文字色の変化点は1文字や1単語を
分断することは少ないことに着目し、文字色の変化点を
文字領域や単語の境界であるとみなすことによって、1
文字領域の抽出及び後処理における言語処理を効果的に
行うことができる。この結果、カラー文書に対する文字
認識の精度を向上し、修正に必要とされる労力を低減す
ることができる。
As described above, according to the present invention,
Focusing on the fact that the character color change point in a color document rarely breaks one character or one word, and considers the character color change point as a character region or word boundary,
Language processing in character region extraction and post-processing can be performed effectively. As a result, the accuracy of character recognition for a color document can be improved, and the labor required for correction can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1の構成を示すブロック図であ
る。
FIG. 1 is a block diagram illustrating a configuration of a first exemplary embodiment of the present invention.

【図2】領域分割結果記憶部のデータ構造を説明するた
めの図である。
FIG. 2 is a diagram for explaining a data structure of a region division result storage unit.

【図3】文字切り出しの文字統合について説明するため
の図である。
FIG. 3 is a diagram for explaining character integration of character cutout;

【図4】本発明の実施例1の処理を説明するためのフロ
ーチャートである。
FIG. 4 is a flowchart illustrating a process according to the first exemplary embodiment of the present invention.

【図5】本発明の実施例2の構成を示すブロック図であ
る。
FIG. 5 is a block diagram illustrating a configuration of a second exemplary embodiment of the present invention.

【図6】言語解析時の単語の区切りについて説明するた
めの図である。
FIG. 6 is a diagram for explaining word division during language analysis.

【図7】文字認識装置をコンピュータで実現するときの
ハードウェアの構成を示す図である。
FIG. 7 is a diagram illustrating a hardware configuration when the character recognition device is implemented by a computer.

【図8】本発明をネットワークで運用する形態の構成を
示す図である。
FIG. 8 is a diagram showing a configuration of a mode in which the present invention is operated in a network.

【符号の説明】[Explanation of symbols]

1 入力装置、2 表示装置、3 CPU、4 メモ
リ、5 記憶装置、6媒体駆動装置、7 ネットワーク
接続装置、8 バス、9 ネットワーク、10画像入力
部、15 原画像記憶部、20 領域分割部、25 領
域分割結果記憶部、30 二値化部、35 二値化画像
記憶部、40 文字切り出し部、45認識辞書、50
文字認識部、55 認識結果記憶部、60 認識結果修
正部、65 言語辞書、70 出力部、100 コンピ
ュータ装置、110 サーバー、120 端末
1 input device, 2 display device, 3 CPU, 4 memory, 5 storage device, 6 medium drive device, 7 network connection device, 8 bus, 9 network, 10 image input section, 15 original image storage section, 20 area division section, 25 area division result storage unit, 30 binarization unit, 35 binarization image storage unit, 40 character cutout unit, 45 recognition dictionary, 50
Character recognition unit, 55 recognition result storage unit, 60 recognition result correction unit, 65 language dictionary, 70 output unit, 100 computer device, 110 server, 120 terminal

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 カラー画像中の文字画像に対して文字認
識して、文字画像に対応した符号に変換する文字認識装
置において、 カラー画像を色情報に基づいて複数の領域に分割する領
域分割部と、 文字画像が前記領域分割部で得た領域をまたがっている
場合には、この文字画像をその領域の境界で分割して文
字認識処理を行う文字認識部と、を備えることを特徴と
する文字認識装置。
1. A character recognition device for recognizing a character in a character image in a color image and converting the character image into a code corresponding to the character image, wherein an area dividing unit divides the color image into a plurality of areas based on color information. A character recognizing unit that performs a character recognition process by dividing the character image at a boundary of the region when the character image straddles the region obtained by the region dividing unit. Character recognition device.
【請求項2】 入力された画像の文字画像に対して文字
認識を行う文字認識装置において、 入力された画像を色情報に基づいて複数の領域に分割す
る領域分割部と、 入力された画像の文字画像領域から文字を切り出す際
に、前記領域分割部により得た領域をまたがっている場
合には1つの文字ではないと見なして文字を切り出すよ
うにした文字切出し部と、 前記文字切出し部で切り出された文字を認識する文字認
識部とを備えたことを特徴とする文字認識装置。
2. A character recognition device for performing character recognition on a character image of an input image, comprising: an area dividing unit configured to divide the input image into a plurality of areas based on color information; When a character is cut out from a character image region, a character cutout unit that cuts out a character as if it is not one character when straddling the region obtained by the region division unit, and a character cutout unit that cuts out the character. A character recognition device comprising: a character recognition unit that recognizes a shifted character.
【請求項3】 請求項1または請求項2に記載の文字認
識装置において、 前記領域分割部は、前記カラー画像に含まれる文字画像
の文字色に対する色情報に基づいて複数の領域に分割す
るようにしたことを特徴とする文字認識装置。
3. The character recognition device according to claim 1, wherein the region dividing unit divides the character into a plurality of regions based on color information on a character color of a character image included in the color image. A character recognition device characterized in that:
【請求項4】 請求項1、請求項2または請求項3に記
載の文字認識装置において、 前記領域分割部は、前記カラー画像の色パラメータが一
定以上の勾配で変化する場合、別の色の領域であるとし
て統合しないようにしたことを特徴とする文字認識装
置。
4. The character recognition device according to claim 1, wherein the area dividing unit is configured to output a different color when a color parameter of the color image changes at a gradient equal to or greater than a certain value. A character recognition device characterized in that it is not integrated as an area.
【請求項5】 入力された画像の文字画像に対して文字
認識を行う文字認識方法において、 入力された画像を色情報に基づいて複数の領域に分割す
る領域分割工程と、 入力された画像の文字画像領域から文字を切り出す際
に、前記領域分割工程により得た領域をまたがっている
場合には1つの文字ではないと見なして文字を切り出す
ようにした文字切出し工程と、 前記文字切出し工程で切り出された文字を認識する文字
認識工程と、を備えたことを特徴とする文字認識方法。
5. A character recognition method for performing character recognition on a character image of an input image, comprising: an area dividing step of dividing the input image into a plurality of areas based on color information; When extracting a character from a character image area, a character extracting step in which a character is regarded as not a single character when the area extends over the area obtained by the area dividing step, and the character is extracted, and the character extracting step A character recognition step of recognizing a deviated character.
【請求項6】 請求項5に記載の文字認識方法におい
て、 前記領域分割工程は、前記カラー画像に含まれる文字画
像の文字色に対する色情報に基づいて複数の領域に分割
するようにしたことを特徴とする文字認識方法。
6. The character recognition method according to claim 5, wherein in the area dividing step, the area is divided into a plurality of areas based on color information on a character color of a character image included in the color image. Character recognition method to be characterized.
【請求項7】 請求項5または請求項6に記載の文字認
識方法において、 前記領域分割工程は、前記カラー画像の色パラメータが
一定以上の勾配で変化する場合、別の色の領域であると
して統合しないようにしたことを特徴とする文字認識方
法。
7. The character recognition method according to claim 5, wherein in the area dividing step, when a color parameter of the color image changes at a gradient equal to or more than a certain value, the area is determined to be an area of another color. Character recognition method characterized by not being integrated.
【請求項8】 コンピュータを、入力された画像の文字
画像に対して文字認識を行う文字認識装置として機能さ
せるためのプログラムを記録したコンピュータ読み取り
可能な記録媒体であって、 入力された画像を色情報に基づいて複数の領域に分割す
る領域分割部と、 入力された画像の文字画像領域から文字を切り出す際
に、前記領域分割部により得た領域をまたがっている場
合には1つの文字ではないと見なして文字を切り出すよ
うにした文字切出し部と、 前記文字切出し部で切り出された文字を認識する文字認
識部とを備え、カラー画像の文字画像を文字認識するプ
ログラムを記録したことを特徴とするコンピュータ読み
取り可能な記録媒体。
8. A computer-readable recording medium storing a program for causing a computer to function as a character recognition device for performing character recognition on a character image of an input image, the computer-readable recording medium storing a program An area dividing unit that divides the image into a plurality of areas based on information; and a case where a character is cut out from a character image area of an input image, the character is not one character if the area spans the area obtained by the area dividing unit. A character cutout unit that cuts out a character by considering it as a character, and a character recognizing unit that recognizes a character cut out by the character cutout unit, wherein a program for recognizing a character image of a color image is recorded. Computer readable recording medium.
【請求項9】 カラー画像中の文字画像に対して文字認
識して、文字画像に対応した符号に変換する文字認識装
置において、 入力された画像を色情報に基づいて複数の領域に分割す
る領域分割部と、 入力された画像の文字画像領域から文字を切り出す文字
切出し部と、 前記文字切出し部で切り出された文字を認識する文字認
識部と、 前記文字認識部で認識された文字候補を組み合わせて生
成される文字列を言語解析して認識文字候補を修正する
認識結果修正部とを備え、 前記認識結果修正部は、認識候補の文字列に対して言語
解析する際、前記領域分割部により得た領域をまたがっ
ている場合には単語候補ではないと解釈して認識候補を
修正するようにしたことを特徴とする文字認識装置。
9. A character recognition apparatus for performing character recognition on a character image in a color image and converting the character image into a code corresponding to the character image, wherein the input image is divided into a plurality of regions based on color information. Combining a dividing unit, a character extracting unit that extracts characters from a character image area of an input image, a character recognizing unit that recognizes characters extracted by the character extracting unit, and a character candidate that is recognized by the character recognizing unit. And a recognition result correction unit for correcting a recognition character candidate by language analysis of the generated character string.When the recognition result correction unit performs language analysis on the character string of the recognition candidate, the region division unit A character recognition device, characterized in that when it extends over an obtained area, it is interpreted as not a word candidate and the recognition candidate is corrected.
【請求項10】 カラー画像中の文字画像に対して文字
認識して、文字画像に対応した符号に変換する文字認識
方法において、 入力された画像を色情報に基づいて複数の領域に分割す
る領域分割工程と、 入力された画像の文字画像領域から文字を切り出す文字
切出し工程と、 前記文字切出し工程で切り出された文字を認識する文字
認識工程と、 前記文字認識工程で認識された文字候補を組み合わせて
生成される文字列を言語解析して認識文字候補を修正す
る認識結果修正工程とを備え、 前記認識結果修正工程は、認識候補の文字列に対して言
語解析する際、前記領域分割工程により得た領域をまた
がっている場合には単語候補ではないと解釈して認識候
補を修正するようにしたことを特徴とする文字認識方
法。
10. A character recognition method for performing character recognition on a character image in a color image and converting the character image into a code corresponding to the character image, wherein the input image is divided into a plurality of regions based on color information. A dividing step, a character extracting step of extracting a character from a character image area of the input image, a character recognizing step of recognizing the character extracted in the character extracting step, and a character candidate recognized in the character recognizing step. And a recognition result correcting step of correcting a recognition character candidate by language analysis of the generated character string.The recognition result correction step includes: A character recognition method characterized by interpreting that a candidate is not a word candidate when the obtained region is straddled, and correcting the recognition candidate.
【請求項11】 コンピュータを、カラー画像中の文字
画像に対して文字認識して、文字画像に対応した符号に
変換する文字認識装置として機能させるためのプログラ
ムを記録したコンピュータ読み取り可能な記録媒体であ
って、 入力された画像を色情報に基づいて複数の領域に分割す
る領域分割部と、 入力された画像の文字画像領域から文字を切り出す文字
切出し部と、 前記文字切出し部で切り出された文字を認識する文字認
識部と、 前記文字認識部で認識された文字候補を組み合わせて生
成される文字列を言語解析して認識文字候補を修正する
認識結果修正部とを備え、 前記認識結果修正部は、認識候補の文字列に対して言語
解析する際、前記領域分割部により得た領域をまたがっ
ている場合には単語候補ではないと解釈して認識候補を
修正するようにしたプログラムを記録したことを特徴と
するコンピュータ読み取り可能な記録媒体。
11. A computer-readable recording medium storing a program for causing a computer to function as a character recognition device that performs character recognition on a character image in a color image and converts the character into a code corresponding to the character image. An area dividing unit that divides an input image into a plurality of regions based on color information; a character extracting unit that extracts characters from a character image area of the input image; and a character that is extracted by the character extracting unit. A character recognition unit for recognizing, and a recognition result correction unit for correcting the recognition character candidate by language analysis of a character string generated by combining the character candidates recognized by the character recognition unit, When performing a language analysis on the character string of the recognition candidate, if the character string crosses the region obtained by the region dividing unit, the character A computer-readable recording medium characterized by recording a program to be corrected.
JP2001077279A 2001-03-16 2001-03-16 Character recognition device and method, and recording medium Pending JP2002279344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001077279A JP2002279344A (en) 2001-03-16 2001-03-16 Character recognition device and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001077279A JP2002279344A (en) 2001-03-16 2001-03-16 Character recognition device and method, and recording medium

Publications (1)

Publication Number Publication Date
JP2002279344A true JP2002279344A (en) 2002-09-27

Family

ID=18934060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001077279A Pending JP2002279344A (en) 2001-03-16 2001-03-16 Character recognition device and method, and recording medium

Country Status (1)

Country Link
JP (1) JP2002279344A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146608A (en) * 2006-12-13 2008-06-26 Canon Inc Image processor, and processing method therefor
US7574279B2 (en) 2002-08-07 2009-08-11 Seiko Epson Corporation Manufacturing system and controller, controlling method, controlling system, and control program for the manufacturing system
WO2023077963A1 (en) * 2021-11-05 2023-05-11 腾讯科技(深圳)有限公司 Image text recognition method and apparatus, computer readable medium, and electronic device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7574279B2 (en) 2002-08-07 2009-08-11 Seiko Epson Corporation Manufacturing system and controller, controlling method, controlling system, and control program for the manufacturing system
US7920934B2 (en) 2002-08-07 2011-04-05 Seiko Epson Corporation Manufacturing system and controller, controlling method, controlling system, and control program for the manufacturing system
JP2008146608A (en) * 2006-12-13 2008-06-26 Canon Inc Image processor, and processing method therefor
WO2023077963A1 (en) * 2021-11-05 2023-05-11 腾讯科技(深圳)有限公司 Image text recognition method and apparatus, computer readable medium, and electronic device

Similar Documents

Publication Publication Date Title
JP4031210B2 (en) Character recognition device, character recognition method, and recording medium
JP3919617B2 (en) Character recognition device, character recognition method, program, and storage medium
US7680329B2 (en) Character recognition apparatus and character recognition method
JP3851742B2 (en) Form processing method and apparatus
JP4704601B2 (en) Character recognition method, program, and recording medium
JP2007086954A (en) Character recognition processing device, character recognition processing method, and computer program
JP2002279344A (en) Character recognition device and method, and recording medium
JPH11272800A (en) Character recognition device
JP2001022883A (en) Character recognizing system and recording medium for realizing function for the same
JP4162195B2 (en) Image processing apparatus and image processing program
JP2003030654A (en) Pattern identification device, pattern identification method and program for pattern identification
JP4204185B2 (en) Character recognition device, character recognition method, and recording medium
JP4849883B2 (en) Row direction determination program, method and apparatus
JP2002056356A (en) Character recognizing device, character recognizing method, and recording medium
JP2000137728A (en) Document analyzing device and program recording medium
JP3817442B2 (en) Image recognition apparatus, image recognition method, program for realizing image recognition method, and recording medium for the program
JP4328511B2 (en) Pattern recognition apparatus, pattern recognition method, program, and storage medium
JP2002056357A (en) Character recognizing device, its method, and recording medium
JP4209511B2 (en) Character recognition method, character recognition device, and computer-readable recording medium recording a program for causing a computer to execute the character recognition method
JP2985813B2 (en) Character string recognition device and knowledge database learning method
JPH10154191A (en) Business form identification method and device, and medium recording business form identification program
JPH0785221A (en) Method for separating and recognizing character and symbol in automatic drawing recognizing device
JP2746345B2 (en) Post-processing method for character recognition
JP2023034823A (en) Image processing apparatus, and control method, and program for image processing apparatus
JP2001266070A (en) Device and method for recognizing character and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060327

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090714