JPH0644406A - Method and device for processing image - Google Patents
Method and device for processing imageInfo
- Publication number
- JPH0644406A JPH0644406A JP4199746A JP19974692A JPH0644406A JP H0644406 A JPH0644406 A JP H0644406A JP 4199746 A JP4199746 A JP 4199746A JP 19974692 A JP19974692 A JP 19974692A JP H0644406 A JPH0644406 A JP H0644406A
- Authority
- JP
- Japan
- Prior art keywords
- image information
- character
- characters
- image
- division
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は画像処理方法及び装置に
関し、特に入力した画像情報から文字を1文字ずつ切り
出す為の画像処理方法及び装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus, and more particularly to an image processing method and apparatus for cutting out characters one by one from input image information.
【0002】[0002]
【従来の技術】従来の光学的文字認識装置における文字
認識処理の一例を図13に示す。2. Description of the Related Art FIG. 13 shows an example of character recognition processing in a conventional optical character recognition device.
【0003】まず、イメージスキャナ等を用いて原稿を
読み取り(S301)、続いて入力された画像から1文
字分の文字画像を切り出す(S302)。次に切り出さ
れた文字画像の特徴を抽出し(S303)、予め容易さ
れている各カテゴリの標準的な特徴等を用いて類似度を
計算する(S304)。その結果、類似度が最も大きい
カテゴリが認識結果となり、CRT等に表示する(S3
05)。First, an original is read using an image scanner or the like (S301), and then a character image for one character is cut out from the input image (S302). Next, the features of the cut-out character image are extracted (S303), and the similarity is calculated using the standard features of each category that are facilitated in advance (S304). As a result, the category with the highest degree of similarity becomes the recognition result and is displayed on the CRT or the like (S3).
05).
【0004】入力画像から文字を切り出す方法としてい
くつか知られているが、その中で最も一般的な方法の一
つである文字画像の射影を取る方法を、簡単に説明を行
う。There are some known methods for cutting out a character from an input image, but a method for projecting a character image, which is one of the most general methods, will be briefly described.
【0005】図14に示すような横書きの文字列を例に
とると、横方向の射影面401に射影402をとること
で、射影の長さhを高さとする行矩形403が得られ
る。さらに得られた行矩形を縦方向に射影を取ることで
射影面404に射影405〜410が得られ、文字が切
り出される。Taking a horizontal character string as shown in FIG. 14 as an example, by taking a projection 402 on a horizontal projection plane 401, a line rectangle 403 whose height is the length h of the projection is obtained. Further, by projecting the obtained line rectangle in the vertical direction, projections 405 to 410 are obtained on the projection surface 404, and characters are cut out.
【0006】[0006]
【発明が解決しようとしている課題】しかしながら、上
記従来例では、図15のように「こ」と「う」と「で」
がオーバーラップしてしまっている場合、画像の射影を
取ったのでは、枠15で示すように、3文字合わせて
「こうで」が1文字として切り出されてしまう。そこ
で、1度切り出した矩形の中の、高さと幅の比率等から
更に分割する必要がある矩形を判断し、更なる分割が必
要な矩形に対する文字切り出し処理を再度行わなければ
ならない。However, in the above conventional example, as shown in FIG. 15, "ko", "uu" and "de" are used.
If the two overlap, the projection of the image is taken, and as shown by the frame 15, three characters are combined and “kode” is cut out as one character. Therefore, it is necessary to judge a rectangle that needs to be further divided from the once cut-out rectangles based on the ratio of the height to the width, and perform the character cutting process again for the rectangle that needs to be further divided.
【0007】しかし、図16のように、文字切り出しの
対象が英文等の文字幅が文字によって大きく異なる文字
列である場合には、平均文字幅での切り出しはできず、
また「AWA」を縦一線で切ると正しく1文字分が得ら
れず、後の認識が正しく行われないという欠点がある。However, as shown in FIG. 16, when an object to be cut out is a character string such as an English sentence whose character width greatly differs depending on the character, it cannot be cut out with the average character width.
Further, if "AWA" is cut in a vertical line, one character cannot be obtained correctly, and subsequent recognition cannot be performed correctly.
【0008】また、図17のように、隣りどうしの文字
が接触している場合、文字画像の境界を追跡していく方
法でも2文字を分けることができないという欠点があ
る。Further, as shown in FIG. 17, when adjacent characters are in contact with each other, there is a drawback that the two characters cannot be separated even by the method of tracing the boundary of the character image.
【0009】[0009]
【課題を解決するための手段】上記課題を解決する為
に、本発明は複数文字を含む画像情報において、分割可
能位置を求め、前記分割可能位置から上下に白画素を追
跡し、前記追跡して得た分割線によって前記画像情報を
分割することを特徴とする画像処理方法及び装置を提供
する。In order to solve the above problems, the present invention obtains a dividable position in image information containing a plurality of characters, tracks white pixels above and below the dividable position, and traces the white pixels. There is provided an image processing method and device, characterized in that the image information is divided by the dividing line obtained.
【0010】上記課題を解決する為に、好ましくは前記
複数文字を含む画像情報は、文書画像情報から文字切り
処理を行って得た一つの画像情報枠とする。In order to solve the above problems, preferably, the image information containing the plurality of characters is one image information frame obtained by performing character cutting processing from the document image information.
【0011】上記課題を解決する為に、好ましくは前記
分割可能位置は、前記複数文字を含む画像情報中に設定
した線分上の白画素連続領域上とする。In order to solve the above-mentioned problems, it is preferable that the dividable position is on a white pixel continuous area on a line segment set in the image information including the plurality of characters.
【0012】上記課題を解決する為に、好ましくは前記
画像情報中に設定する線分は、該画像情報の高さの半分
の位置とする。In order to solve the above problems, it is preferable that the line segment set in the image information is at a position half the height of the image information.
【0013】上記課題を解決する為に、本発明は複数文
字を含む画像情報において、分割候補位置を導出し、前
記導出した分割候補位置で分割した画像情報を各分割領
域毎に認識して類似度を演算し、前記演算した類似度に
従って前記分割位置を決定することを特徴とする画像処
理方法及び装置。In order to solve the above-mentioned problems, the present invention derives a division candidate position in image information containing a plurality of characters, recognizes the image information divided at the derived division candidate position for each divided area, and resembles each other. An image processing method and apparatus, characterized in that a degree is calculated and the division position is determined according to the calculated similarity.
【0014】上記課題を解決する為に、好ましくは前記
複数文字を含む画像情報は、文書画像情報から文字切り
処理を行って得た一つの画像情報枠とする。In order to solve the above-mentioned problems, it is preferable that the image information containing the plurality of characters is one image information frame obtained by performing character cutting processing from the document image information.
【0015】[0015]
〔実施例1〕図1は本実施例の画像処理装置の構成を示
すブッロク図である。図1において、101はROM1
04に格納されている制御プログラムに従って画像の入
力、文字画像の切り出し等の処理や本装置全体の制御等
を行うCPU、102は文字の入力や修正等を行うキー
ボード(KB)、103はマウス等のポインティングデ
バイス(PD)、104はCPU101が実行する後述
するフローチャートに示す処理の制御プログラム等を格
納するROM、105は文字画像や文字切り出し結果や
認識結果等を記憶するRAM、106は切り出された文
字画像について各文字との類似度を計算する類似度計算
部、107は画像を読み取るイメージスキャナ(SCA
N)であり、108は無イメージスキャナのインターフ
ェース(I/F)、109は文字認識結果等を表示する
ディスプレイである。[Embodiment 1] FIG. 1 is a block diagram showing the configuration of an image processing apparatus according to this embodiment. In FIG. 1, 101 is a ROM 1
A CPU for inputting images, cutting out character images, and controlling the entire apparatus according to a control program stored in 04, a keyboard (KB) 102 for inputting and correcting characters, and a mouse 103. Pointing device (PD), 104 is a ROM for storing a control program for the processing executed by the CPU 101, which will be described later with reference to the flowchart, 105 is a RAM for storing character images, character cutout results, recognition results, etc., and 106 is a cutout. A similarity calculation unit that calculates the similarity between each character image and each character, 107 is an image scanner (SCA) that reads the image.
N), 108 is an interface (I / F) of the imageless scanner, and 109 is a display for displaying a character recognition result and the like.
【0016】本実施例は、図16のように文字幅の異な
る英文等の文字切り出しを分割可能点の追跡により求め
る方法を示す。図1に示す構成の文字認識装置が実行す
る本実施例の文字切り出し処理全体の概略を図2のフロ
ーチャートに示し説明する。This embodiment shows a method for obtaining character cut-outs of English sentences having different character widths as shown in FIG. 16 by tracing the dividable points. An outline of the entire character segmentation process of the present embodiment executed by the character recognition device configured as shown in FIG. 1 will be described with reference to the flowchart of FIG.
【0017】まず、S201で従来よりあった写影を取
ることによる第1の文字切り出しを行う。切り出された
文字画像が更に分割できるか否かを判定し(S20
2)、分割でる場合は、その位置を分割可能位置として
求める(S203)。S203で求めた分割可能位置に
従って第2の文字切り出し処理を行うか否か判断し(S
204)、第2の文字切り出しを行う。更に詳細な説明
をするために、図3のプロポーショナルピッチのアルフ
ァベットの文字画像を用いて各ステップを説明する。図
3(a)は入力さりた文字画像で、この画像情報に対し
文字切り出しを行う。まず、S201において、第1の
文字切り出しとして、写影を取る方法を用いる。これ
は、入力した画像全体に対して、まず行方向に写影を取
り行矩形を切り出し、その後切り出した行矩形ごとに行
に垂直な方向に写影を取り、文字画像を切り出すもので
ある。その結果、図3(b)に示すように、4つの矩形
301,302,303,304が得られる。First, in step S201, a first character is cut out by taking a conventional mapping. It is determined whether the cut-out character image can be further divided (S20).
2) In the case of division, the position is obtained as a dividable position (S203). According to the dividable position obtained in S203, it is determined whether or not the second character cutting process is performed (S
204), the second character is cut out. For more detailed description, each step will be described using the character image of the alphabet of proportional pitch in FIG. FIG. 3A shows the input character image, and character cutting is performed on this image information. First, in S201, a method of taking a projection is used as the first character cutout. In this, a mapping is first performed in the row direction and a line rectangle is cut out for the entire input image, and then a mapping is performed in a direction perpendicular to the line for each cut out line rectangle, and a character image is cut out. As a result, four rectangles 301, 302, 303, 304 are obtained as shown in FIG.
【0018】ここで、S201で得た各矩形を更に分割
するか否かを決める(S202)。この決め方として
は、例えば各矩形(301,302,303,304)
の高さと幅の比率から判断したり、或いは幅がある基準
値以上(以下)であることにより判断することができ
る。また、このS202は省略し、すぐS203で分割
可能位置を求めても良い。Here, it is determined whether or not each rectangle obtained in S201 is further divided (S202). As a method of determining this, for example, each rectangle (301, 302, 303, 304)
It can be determined from the ratio of the height to the width of the sheet, or can be determined from the width being equal to or larger than (equal to or less than) a reference value. Further, this step S202 may be omitted, and the dividable position may be immediately obtained in step S203.
【0019】次に、文字画像の分割可能位置を求める
(S203)。これは、図3(c)のように文字矩形の
半分の高さに線305,306,307,308を引
き、線上で白画素が連続する部分の中点を分割可能位置
とする。S204では、各文字矩形(301,302,
303,304)のなかにS203で求めた分割可能位
置が存在するかどうかを調べ、存在するならば、第2の
文字切り出し処理S205を行う。この例の場合、文字
矩形301と302に分割可能位置(図3(c)におい
てxで示す)が、存在するので、その2つの矩形につい
て第2の文字切り出し処理を行う。S203で求めた分
割可能位置から上下に追跡を行い、矩形を更に分割する
方法を、図4及び図5のフローチャートを用いて説明す
る。図4は上方向への追跡、図5は下方向への追跡を行
う、文字切り出し処理(S205)のフローチャートで
ある。座標軸は、横方向をx軸、縦方向をy軸とする。Next, the dividable position of the character image is obtained (S203). As shown in FIG. 3C, lines 305, 306, 307, and 308 are drawn at the height of a half of the character rectangle, and the midpoint of the part where white pixels are continuous on the line is set as the dividable position. In S204, each character rectangle (301, 302,
(303, 304) whether or not the dividable position obtained in S203 exists, and if there is, a second character cutout process S205 is performed. In the case of this example, since there are dividable positions (indicated by x in FIG. 3C) in the character rectangles 301 and 302, the second character cutout process is performed on the two rectangles. A method for further dividing the rectangle by tracing up and down from the dividable position obtained in S203 will be described with reference to the flowcharts of FIGS. 4 and 5. FIG. 4 is a flowchart of the character segmentation processing (S205) for tracing in the upward direction and FIG. 5 for tracing in the downward direction. The coordinate axes are x-axis in the horizontal direction and y-axis in the vertical direction.
【0020】まず、得られた分割可能位置をPsとし、
分割可能位置Psから上下に分割位置を捜していく為の
追跡点PをPsに置く(S401)。次に、上方向への
分割を試みるため、Pを上へ1画素ずらす(S40
2)。Pが黒画素でなければどんどん上へずらし、Pが
文字矩形の上部に達する(文字矩形の上方向の分割終
了)まで行う(S403)。分割線追跡中に、Pが黒画
素上にきた場合(S404)、文字画像の(黒画素領
域)の境界線を追跡することにする。黒画素領域の境界
線を右回りに追跡する方法を、図7のように「8」から
「P」に追跡が移動した時を例に説明する。追跡点Pの
回りの8画素に対して、一つ前のPの位置である「8」
の右隣りすなわち「1」から順に黒画素を調べ、初めて
黒画素があった点、すなわち「5」を追跡点Pの次なる
移動先として進めるものである。左回りの追跡の場合
は、S412〜S418において左回りに調べる。境界
線の追跡は、まずPの座標をPmに記憶しておく(S4
05)。次に右回りに次の境界線上の黒画素を見つけP
を進める(S406)。もし、Pが文字矩形の上部に達
すれば上方向の分割は終了である(S407)。また、
もしPのy座標がPsのy座標と等しくなったら、追跡
が下向きに進んでいるとし右回りの追跡を中止する(S
408)。追跡を進めた結果、Pのx座標がPsのx座
標と等しくなったら、境界線による追跡は終了するが
(S409)、ただし、その時PがPmより上に存在し
なければ、その点は以前にPが通過した点であり、右回
りの追跡は続行不可能となり中止する(S410)。そ
の様子を図6に示す。なお、Pの上の画素が黒画素の場
合、境界線がまだ続いているので、再びS406に戻る
(S411)。そうでなければ、再び上部に向かい分割
を試みる。First, let Ps be the obtained dividable position,
The tracking point P for searching for the division position up and down from the dividable position Ps is set at Ps (S401). Next, P is shifted upward by one pixel in order to attempt the upward division (S40
2). If P is not a black pixel, the pixel is gradually moved upward until P reaches the upper part of the character rectangle (end of division of the character rectangle in the upward direction) (S403). When P is on the black pixel during the dividing line tracking (S404), the boundary line of the (black pixel area) of the character image is tracked. A method of tracking the boundary line of the black pixel region in the clockwise direction will be described by taking the case where the tracking moves from "8" to "P" as shown in FIG. For the 8 pixels around the tracking point P, the position of the previous P is "8".
The black pixels are sequentially examined from the right adjacent to, ie, “1”, and the point where the black pixel is present for the first time, that is, “5” is advanced as the next movement destination of the tracking point P. In the case of counterclockwise tracking, the counterclockwise check is performed in S412 to S418. To trace the boundary line, the coordinate of P is first stored in Pm (S4
05). Next, find a black pixel on the next boundary line clockwise and set P
(S406). If P reaches the upper portion of the character rectangle, the upward division is completed (S407). Also,
If the y coordinate of P becomes equal to the y coordinate of Ps, it is determined that the tracking is proceeding downward, and the clockwise tracking is stopped (S
408). When the x-coordinate of P becomes equal to the x-coordinate of Ps as a result of advancing the tracking, the tracking by the boundary line ends (S409). It is a point where P has passed, and the clockwise tracking cannot be continued and is stopped (S410). This is shown in FIG. If the pixel above P is a black pixel, the boundary line is still continuing, and therefore the process returns to S406 again (S411). If not, try heading up again to split.
【0021】右回りの追跡で文字矩形の分割が出来なか
った場合、Pの座標をPmに戻して(S412)、左回
りの追跡で分割を試みる(S413)。これも右回りと
同様に処理を進め、追跡が中止になる条件になった場
合、その文字矩形は分割できないと判断し、追跡をやめ
る(S419)。When the character rectangle cannot be divided by the clockwise tracking, the coordinate of P is returned to Pm (S412), and the division is attempted by the counterclockwise tracking (S413). In this case as well, the process proceeds in the same manner as clockwise, and if the condition for stopping the tracking is met, it is determined that the character rectangle cannot be divided, and the tracking is stopped (S419).
【0022】上方向の分割が成功したなら、次に下方向
に分割を試みる。その処理を図5のフローチャートに示
す。これも、上方向の分割とほぼ同様であり、追跡点P
が文字矩形の下部に達すれば分割が成功である(S51
9)。最終的には図3(d)のように302の文字矩形
が309,310,311の3つに分割され、文字切り
出しの処理が終了する。If the upward division is successful, then the downward division is tried. The process is shown in the flowchart of FIG. This is also similar to the upward division, and the tracking point P
If the character reaches the bottom of the character rectangle, the division is successful (S51).
9). Finally, as shown in FIG. 3D, the character rectangle 302 is divided into three parts 309, 310, and 311 and the character cutting process is completed.
【0023】従って本実施例に従えば、射影を用いた文
字切り出しと、境界線追跡による文字切り出しを用いる
ことで、文字画像がオーバーラップしている場合でも、
文字の切り出しが可能となり、斜文字の文書などでも文
字が切り出せる。また、境界線の追跡は局部的に行わ
れ、必要以外の場所では行われないので、処理を高速に
行える効果がある。Therefore, according to the present embodiment, by using the character segmentation using the projection and the character segmentation by the boundary line tracking, even when the character images overlap each other,
Characters can be cut out, and it is possible to cut out characters even in italicized documents. Further, since the boundary line is traced locally and not in a place other than necessary, there is an effect that the processing can be performed at high speed.
【0024】先の説明では、S203において分割可能
位置を探す為に文字矩形の半分の高さに線を引いたが、
この位置は変化させてもよく、或いは各矩形毎に横方向
の黒画素のヒストグラムを取り、最大となった部分に線
を引いてもよい。その場合、分割可能位置を減らせ、第
2の文字切り出し処理を行う回数を減少させる効果があ
る。また、前述の実施例において、分割可能位置を白画
素の線分の中点としたが、中心線上の黒画素から白画素
に変わる点、或いは白画素から黒画素に変わる点として
もよい。In the above description, a line is drawn at half the height of the character rectangle in order to search for a dividable position in S203.
This position may be changed, or a histogram of black pixels in the horizontal direction may be taken for each rectangle and a line may be drawn at the maximum portion. In that case, there is an effect that the dividable position is reduced and the number of times the second character cutout process is performed is reduced. Further, in the above-described embodiment, the dividable position is the midpoint of the line segment of the white pixel, but it may be the point where the black pixel on the center line changes to the white pixel or the point where the white pixel changes to the black pixel.
【0025】〔実施例2〕本実施例は、図17のように
隣り合う文字が接触している場合の文字切り出しの方法
を示す。[Embodiment 2] This embodiment shows a method of cutting out characters when adjacent characters are in contact as shown in FIG.
【0026】本実施例における画像処理装置の構成は、
実施例1と同様であり、図1に示すものである。The configuration of the image processing apparatus in this embodiment is as follows.
This is similar to the first embodiment and is shown in FIG.
【0027】本実施例に示す文字切り出し処理を図8の
フローチャートに示し、詳細に説明する。The character cutout process shown in this embodiment is shown in the flowchart of FIG. 8 and will be described in detail.
【0028】まず、S801でイメージスキャナ107
から画像を入力し、文字画像をRAM105に格納す
る。S802では、従来例で説明した、或いは他の公知
の方法、例えば射影を取る等の方法で文字切り出しを行
う。そして、切り出した枠から、横書きならば標準文字
幅、縦書きならば標準文字高を演算し求める(S80
3)。標準文字幅を求める処理は図12のフローチャー
トに示し、後で詳細に説明する。First, in step S801, the image scanner 107
The image is input from and the character image is stored in the RAM 105. In step S802, character extraction is performed by the method described in the conventional example or another known method, for example, a method such as projection. Then, from the cut-out frame, the standard character width is calculated for horizontal writing and the standard character height is calculated for vertical writing (S80).
3). The process of obtaining the standard character width is shown in the flowchart of FIG. 12 and will be described later in detail.
【0029】S804では、S803で求めた標準文字
幅(高)を用いてS802で切り出した1つのブロック
を複数のブロックに分割する必要があるか否かを判断す
る。このS804における判断は、例えば、横書きの場
合、S802で切り出された各文字ブロックの幅がS8
03で求めた標準文字幅の1.5倍を超えた場合に、分
割する必要があると判断することができる。S804で
分割することが認められた場合、分割ブロック作成を行
う(S805)。In step S804, it is determined whether or not one block cut out in step S802 needs to be divided into a plurality of blocks using the standard character width (high) obtained in step S803. In the determination in S804, for example, in the case of horizontal writing, the width of each character block cut out in S802 is S8.
If it exceeds 1.5 times the standard character width obtained in 03, it can be determined that division is necessary. If the division is recognized in S804, division blocks are created (S805).
【0030】S805の更なる分割の処理を、図9の文
字ブロックの接触が起こりやすい、文字間がほとんどな
い日本語の横書きの文字画像を例に説明する。S804
で選択された文字ブロックが標準文字幅Wのほぼ整数倍
になっていれば、標準文字幅毎に分割した場合(90
1,902)と分割しない場合(903)の3つの文字
ブロックを作成しておく(S805)。図10は、図9
に半角文字が含まれたような複雑な場合の例である。半
角や倍角文字を考慮して、標準文字幅の半分を分割の単
位にし、文字ブロックの幅が標準文字幅の1.5倍を超
えた場合、分割ブロックの作成を開始するようにする。
この例の場合、半角ブロック(1001〜1006)、
全角ブロック(1007〜1011)、倍角ブロック
(1012〜1014)を作成しておく。The process of further division in S805 will be described by taking a horizontally written character image of Japanese as shown in FIG. S804
If the character block selected in step is almost an integral multiple of the standard character width W, it is divided by the standard character width (90
1, 902) and when not divided (903), three character blocks are created (S805). FIG. 10 shows FIG.
This is an example of a complicated case where half-width characters are included in. Considering half-width and double-width characters, half of the standard character width is used as a unit of division, and when the width of the character block exceeds 1.5 times the standard character width, creation of the divided block is started.
In the case of this example, half-width blocks (1001 to 1006),
Full-width blocks (1007 to 1011) and double-width blocks (1012 to 1014) are created.
【0031】以上の様に作成された文字ブロックを特徴
抽出(S805)、類似度計算(S807)し、S80
5で分割ブロックが作成されたものについてどのブロッ
クを採用するかをS809で決定する。The character block created as described above is subjected to feature extraction (S805), similarity calculation (S807), and S80.
In S809, it is determined which block is to be adopted for the divided block created in 5.
【0032】S809の決定方法について、図9、図1
0の分割例を用いて説明する。図9では、ブロック90
1と902の類似度が小さい方と、903の類似度を比
較し、903の類似度が大きければ901と902は採
用せず、903を文字切り結果とし、その逆の場合、9
01と902を採用し903は使用しないとする。この
例では903の類似度が小さくなることが予想されるの
で、接触文字であっても、文字切り枠901と902が
求まる。次に図10の場合であるが、上記例と同様に1
001から1014を用いて全ての組合せを考え、各組
合せで最小類似度となる分割ブロックの中で、類似度が
最も大きい組合せを文字切り結果として採用する。或い
は、左側から文字切り結果に採用するブロックを決定し
ていく、すなわち、まず、1001を含んだブロック
(1001,1007,1012)の中で類似度が最大
となるものもを文字切り結果とし、次のブロックに進
む。この場合1007が最大類似度となることが予想さ
れ、それを採用する。次は、1003,1009,10
14で同様の判定を行う。その結果、上記2例とも10
07,1003,1010,1006が採用されること
が予想され、正しい文字切り結果が得られる。Regarding the determination method of S809, FIG. 9 and FIG.
This will be described using an example of division of 0. In FIG. 9, block 90
The similarity between 1 and 902 is smaller, and the similarity between 903 is compared. If the similarity between 903 is large, 901 and 902 are not adopted, 903 is taken as the character cutting result, and vice versa.
01 and 902 are adopted and 903 is not used. In this example, it is expected that the degree of similarity of 903 will be small, so that the character cutting frames 901 and 902 can be obtained even for a contact character. Next, in the case of FIG. 10, as in the above example, 1
All combinations are considered using 001 to 1014, and among the divided blocks having the minimum similarity in each combination, the combination having the highest similarity is adopted as the character cutting result. Alternatively, the block to be adopted as the character cutting result is determined from the left side, that is, the block having the maximum similarity among the blocks (1001, 1007, 1012) including 1001 is set as the character cutting result. Go to the next block. In this case, 1007 is expected to be the maximum similarity and that is adopted. Next is 1003, 1009, 10
The same judgment is made at 14. As a result, both of the above two examples are 10
It is expected that 07, 1003, 1010, 1006 will be adopted, and a correct character cutting result can be obtained.
【0033】以上の様にして得られた認識結果をディス
プレイ109に表示する(S810)。The recognition result obtained as described above is displayed on the display 109 (S810).
【0034】本発明により、特に日本語文書等のように
文字画像の外接矩形がほぼ正方形に近い文字で大分部が
構成される文書に含まれる接触文字を、標準文字サイズ
と類似度の比較のみで精度良く認識が可能となり、なお
かつ、文字サイズの異なる文字例えば半角や倍角等が接
触文字内に混在していても正しい認識が可能である。According to the present invention, contact characters included in a document whose circumscribed rectangle of a character image is almost square and whose major part is large, such as a Japanese document, are compared only with a standard character size and similarity. Allows accurate recognition, and correct recognition is possible even when characters having different character sizes, such as half-width characters and double-width characters, are mixed in the contact character.
【0035】ここで、S805の分割ブロックの作成方
法についての他の例を説明する。Now, another example of the method of creating divided blocks in S805 will be described.
【0036】図11は、文字が接触し1つの文字ブロッ
クとなった文字画像である。この場合、文字ブロックの
幅は標準文字幅よりわずかに大きいだけで、前実施例の
様に標準文字幅、或いはその半分を分割位置とした場
合、正しい認識結果が得られないような分割がなされる
(1101)。そこで、分割パターンを少しずつ変えた
ものを類似度計算を行う前に作成しておく。類似度計算
後、最も類似度の大きい組合せを採用する。FIG. 11 shows a character image in which characters come into contact with each other to form one character block. In this case, the width of the character block is only slightly larger than the standard character width, and if the standard character width or half of the standard character width is used as the division position as in the previous embodiment, division is performed so that a correct recognition result cannot be obtained. (1101). Therefore, a pattern in which the division pattern is changed little by little is created before the similarity calculation. After the similarity calculation, the combination with the highest similarity is adopted.
【0037】本発明により、標準文字サイズと異なる文
字が接触をした場合でも、高精度の認識結果が得られ、
また、英文の様に文字幅が文字により異なる文書につい
ても同様の効果が得られる。According to the present invention, even if a character different from the standard character size comes into contact, a highly accurate recognition result can be obtained.
Also, the same effect can be obtained for documents such as English whose character width varies depending on the characters.
【0038】なお、以上の実施例では文字の切り出し処
理をCPU101で行うとして説明したが、文字切り出
し処理部を独立させた構成でも良く、また、認識計算を
CPU101で行っても良い。In the above embodiments, the character cutout processing is performed by the CPU 101, but the character cutout processing unit may be independent, and the recognition calculation may be performed by the CPU 101.
【0039】また、画像の入力はイメージスキャナ10
7からに限るものではなく、外部記憶装置等が構成され
ていれば、別の手段で得られた画像データを一時的に記
憶しておき、そこから取り込んでも良い。The image is input by the image scanner 10.
However, if the external storage device is configured, the image data obtained by another means may be temporarily stored and taken in from there.
【0040】先に述べたS803の標準文字幅(高)を
求める方法を、図12のフローチャートを用いて説明す
る。A method of obtaining the standard character width (height) in S803 described above will be described with reference to the flowchart of FIG.
【0041】まず、S802で切り出された各文字ブロ
ックの高さが最大であるものを見つけ、その高さをhm
axとする(S120)。注目する文字ブロックを行の
先頭のブロックとし(S121)、行内のブロックすべ
てをチェックするまで以下の処理を行う。First, the character block cut out in S802 is found to have the maximum height, and its height is hm.
Ax (S120). The character block of interest is set as the first block of the line (S121), and the following processing is performed until all blocks in the line are checked.
【0042】注目ブロックの幅Wとhmaxとを比較し
(S123)、注目文字ブロックの幅がhmaxに比べ
十分狭かったり、十分広くなければ、このブロックを標
準文字ブロックとし(S124)、標準文字幅を求める
のに使用する。The width W of the target block is compared with hmax (S123), and if the width of the target character block is sufficiently narrow or not wide enough than hmax, this block is set as a standard character block (S124), and the standard character width is set. Used to ask for.
【0043】もし、ブロック幅がhmaxに比べて十分
狭い場合、次の文字ブロックと合成し(S126)、合
成した文字ブロックの幅とhmaxを比較する(S12
7)。合成したブロックの幅がS127の判定条件と同
様の条件を満たせば、そのブロックを標準文字ブロック
とし、まだ狭ければ更に合成して同様の判定をする。一
方、十分大きい場合は合成しすぎであり、合成を取り消
す。標準文字ブロックかどうかの判定が終了したら、注
目ブロックを次に移す(S125)。このようにして求
まった標準文字ブロックの幅の平均を計算し、これを標
準文字幅Wとする(S129)。If the block width is sufficiently narrower than hmax, it is combined with the next character block (S126) and the width of the combined character block is compared with hmax (S12).
7). If the width of the combined block satisfies the same condition as the judgment condition of S127, the block is set as a standard character block, and if it is still narrow, it is further combined and the same judgment is performed. On the other hand, if it is sufficiently large, it means that the composition is too much and the composition is canceled. When it is determined whether the block is a standard character block, the block of interest is moved to the next (S125). The average width of the standard character blocks thus obtained is calculated, and this is set as the standard character width W (S129).
【0044】縦書きの場合も、横方向を高さ方向に、縦
方向を幅方向に置き換えれば、同様な方法で標準文字高
さを求められる。Also in the case of vertical writing, if the horizontal direction is replaced by the height direction and the vertical direction is replaced by the width direction, the standard character height can be obtained by the same method.
【0045】[0045]
【発明の効果】以上説明したように、文字ピッチや文字
幅が一定しない文書に関し、第1の文字切り出しのみで
は、十分に確実さが得られなかったものに対しても、分
離可能位置を探し、第2の文字切り出しを行うことで文
字切り出しの精度が向上し、誤認識が減少する効果があ
る。これにより、その後の修正作業が軽減され、文書入
力時間を短縮できる利点も有する。As described above, regarding a document in which the character pitch and the character width are not constant, a separable position is searched for even if the first character cutout alone cannot provide sufficient certainty. By performing the second character cutout, there is an effect that the accuracy of the character cutout is improved and erroneous recognition is reduced. As a result, the subsequent correction work is reduced, and the document input time can be shortened.
【0046】以上説明したように、これまでの文字切り
方法では正確に行うことが出来なかつた接触文字等が存
在しても、疑わしい文字画像についていくつかの文字切
りパターンを用意し、識別計算後最も確からしいパター
ンを認識結果として選択することで、誤認識が減少し、
修正作業が軽減される効果がある。As described above, some character cutting patterns are prepared for suspicious character images even if there are contact characters etc. that cannot be accurately performed by the conventional character cutting methods, and after the identification calculation. By selecting the most probable pattern as the recognition result, false recognition is reduced,
This has the effect of reducing correction work.
【0047】また、既存文書の入力作業が短時間で容易
に行える効果がある。Further, there is an effect that the input operation of the existing document can be easily performed in a short time.
【図1】本実施例の文字認識装置のブロック図。FIG. 1 is a block diagram of a character recognition device according to an embodiment.
【図2】実施例1の文字認識処理のフローチャート。FIG. 2 is a flowchart of character recognition processing according to the first embodiment.
【図3】実施例1を説明するための文字画像。FIG. 3 is a character image for explaining the first embodiment.
【図4】実施例1における文字切り出し処理の第2のフ
ローチャート。FIG. 4 is a second flowchart of character cutting processing according to the first embodiment.
【図5】実施例1における文字切り出し処理の第2のフ
ローチャート。FIG. 5 is a second flowchart of character cutting processing according to the first embodiment.
【図6】文字切り出しの例示図。FIG. 6 is an exemplary diagram of character cutout.
【図7】境界線追跡の説明図。FIG. 7 is an explanatory diagram of boundary line tracking.
【図8】実施例2の文字認識処理のフローチャート。FIG. 8 is a flowchart of character recognition processing according to the second embodiment.
【図9】分割パターンの第1の例示図。FIG. 9 is a first exemplary diagram of a division pattern.
【図10】分割パターンの第2の例示図。FIG. 10 is a second exemplary diagram of a division pattern.
【図11】分割パターンの第3の例示図。FIG. 11 is a third exemplary diagram of a division pattern.
【図12】標準文字幅(高)を求める処理のフローチャ
ート。FIG. 12 is a flowchart of processing for obtaining a standard character width (height).
【図13】従来の文字認識処理のフローチャート。FIG. 13 is a flowchart of conventional character recognition processing.
【図14】射影による文字切り出しの例示図。FIG. 14 is an exemplary diagram of character segmentation by projection.
【図15】文字切り出しの例示図。FIG. 15 is an exemplary diagram of character segmentation.
【図16】文字切り対象の第1の例示図。FIG. 16 is a first exemplary diagram of a character cutting target.
【図17】文字切り対象の第2の例示図。FIG. 17 is a second exemplary diagram of a character cutting target.
Claims (14)
可能位置を求め、 前記分割可能位置から上下に白画素を追跡し、 前記追跡して得た分割線によって前記画像情報を分割す
ることを特徴とする画像処理方法。1. The image information including a plurality of characters is obtained with a dividable position, white pixels are traced up and down from the dividable position, and the image information is divided by dividing lines obtained by the tracing. Image processing method.
像情報から文字切り処理を行って得た一つの画像情報枠
であることを特徴とする請求項1に記載の画像処理方
法。2. The image processing method according to claim 1, wherein the image information including the plurality of characters is one image information frame obtained by performing character cutting processing from document image information.
む画像情報中に設定した線分上の白画素連続領域上とす
ることを特徴とする請求項1に記載の画像処理方法。3. The image processing method according to claim 1, wherein the dividable position is on a white pixel continuous area on a line segment set in the image information including the plurality of characters.
像情報の高さの半分の位置とすることを特徴とする請求
項3に記載の画像処理方法。4. The image processing method according to claim 3, wherein the line segment set in the image information is at a position half the height of the image information.
候補位置を導出し、 前記導出した分割候補位置で分割した画像情報を各分割
領域毎に認識して類似度を演算し、 前記認識結果の類似度に従って前記分割位置を決定する
ことを特徴とする画像処理方法。5. In image information including a plurality of characters, a division candidate position is derived, image information divided at the derived division candidate position is recognized for each divided area, and a similarity is calculated. An image processing method, wherein the division position is determined according to the degree of similarity.
像情報から文字切り処理を行って得た一つの画像情報枠
であることを特徴とする請求項5に記載の画像処理方
法。6. The image processing method according to claim 5, wherein the image information including the plurality of characters is one image information frame obtained by performing character cutting processing from document image information.
可能位置を求める分割可能位置導出手段と、 前記分割可能位置から上下に白画素を追跡する追跡手段
と、 前記追跡手段により追跡して得た分割線によって前記画
像情報を分割する分割手段とを有することを特徴とする
画像処理装置。7. In image information including a plurality of characters, a dividable position deriving means for obtaining a dividable position, a tracing means for tracing white pixels up and down from the dividable position, and a tracing means for tracing the white pixels. An image processing apparatus comprising: a dividing unit that divides the image information by a dividing line.
像情報から文字切り処理を行って得た一つの画像情報枠
であることを特徴とする請求項7に記載の画像処理装
置。8. The image processing apparatus according to claim 7, wherein the image information including the plurality of characters is one image information frame obtained by performing character cutting processing from the document image information.
む画像情報中に設定した線分上の白画素連続領域上とす
ることを特徴とする請求項7に記載の画像処理装置。9. The image processing apparatus according to claim 7, wherein the dividable position is on a white pixel continuous area on a line segment set in the image information including the plurality of characters.
画像情報の高さの半分の位置とすることを特徴とする請
求項9に記載の画像処理装置。10. The image processing apparatus according to claim 9, wherein the line segment set in the image information is at a position half the height of the image information.
割候補位置を導出し、 前記導出した分割候補位置で分割した画像情報を各分割
領域毎に認識して類似度を演算し、 前記演算した類似度に従って前記分割位置を決定するこ
とを特徴とする画像処理方法。11. In image information including a plurality of characters, a division candidate position is derived, image information divided at the derived division candidate position is recognized for each divided region, a similarity is calculated, and the calculated similarity is calculated. An image processing method, characterized in that the division position is determined according to the degree.
画像情報から文字切り処理を行って得た一つの画像情報
枠であることを特徴とする請求項11に記載の画像処理
方法。12. The image processing method according to claim 11, wherein the image information including the plurality of characters is one image information frame obtained by performing character cutting processing from document image information.
割候補位置を導出する分割候補位置導出手段と、 前記分割候補位置導出手段により導出した分割候補位置
で分割した画像情報を各分割領域毎に認識して類似度を
演算する類似度演算手段と、 前記類似度演算手段により演算した類似度に従って前記
分割位置を決定する分割位置決定手段とを有することを
特徴とする画像処理装置。13. In image information including a plurality of characters, division candidate position deriving means for deriving a division candidate position, and image information divided at the division candidate position derived by the division candidate position deriving means is recognized for each divided area. An image processing apparatus comprising: a similarity calculation means for calculating a similarity and a division position determination means for determining the division position according to the similarity calculated by the similarity calculation means.
画像情報から文字切り処理を行って得た一つの画像情報
枠であることを特徴とする請求項13に記載の画像処理
装置。14. The image processing apparatus according to claim 13, wherein the image information including the plurality of characters is one image information frame obtained by performing character cutting processing from document image information.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4199746A JPH0644406A (en) | 1992-07-27 | 1992-07-27 | Method and device for processing image |
EP97203415A EP0831418B1 (en) | 1991-10-21 | 1992-10-20 | Method and apparatus for character recognition |
EP92309572A EP0539158A2 (en) | 1991-10-21 | 1992-10-20 | Method and apparatus for character recognition |
DE69232493T DE69232493T2 (en) | 1991-10-21 | 1992-10-20 | Method and device for character recognition |
US08/339,879 US5684891A (en) | 1991-10-21 | 1994-11-14 | Method and apparatus for character recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4199746A JPH0644406A (en) | 1992-07-27 | 1992-07-27 | Method and device for processing image |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0644406A true JPH0644406A (en) | 1994-02-18 |
Family
ID=16412945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4199746A Pending JPH0644406A (en) | 1991-10-21 | 1992-07-27 | Method and device for processing image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0644406A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6380117B2 (en) | 1998-06-16 | 2002-04-30 | Ngk Spark Plug Co., Ltd. | Dielectric material and process for producing the same |
US8213748B2 (en) | 2008-02-26 | 2012-07-03 | Fuji Xerox Co., Ltd. | Generating an electronic document with reference to allocated font corresponding to character identifier from an image |
US8411955B2 (en) | 2007-02-21 | 2013-04-02 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method and computer-readable medium |
-
1992
- 1992-07-27 JP JP4199746A patent/JPH0644406A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6380117B2 (en) | 1998-06-16 | 2002-04-30 | Ngk Spark Plug Co., Ltd. | Dielectric material and process for producing the same |
US8411955B2 (en) | 2007-02-21 | 2013-04-02 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method and computer-readable medium |
US8213748B2 (en) | 2008-02-26 | 2012-07-03 | Fuji Xerox Co., Ltd. | Generating an electronic document with reference to allocated font corresponding to character identifier from an image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2536966B2 (en) | Text editing system | |
US5075895A (en) | Method and apparatus for recognizing table area formed in binary image of document | |
JP2761467B2 (en) | Image segmentation device and character recognition device | |
JP2000235619A (en) | Surface image processor and its program storage medium | |
US20130287300A1 (en) | Defining a layout of text lines of cjk and non-cjk characters | |
JP2000112599A (en) | Device and method for processing document image | |
JPH0644406A (en) | Method and device for processing image | |
JPH06208625A (en) | Method and device for processing image | |
JP3133797B2 (en) | Character recognition method and apparatus | |
JP2022090469A (en) | Format defining device, format defining method, and program | |
JPH0830725A (en) | Device and method for processing image | |
JPH1049624A (en) | Method and device for handwritten character recognition | |
JP2803736B2 (en) | Character recognition method | |
JP5361315B2 (en) | Information processing apparatus and information processing method | |
JP2004158041A (en) | Surface image processor and its program storage medium | |
JP2003016385A (en) | Image processor, method, program and storage medium | |
JPH08263588A (en) | Character recognition device | |
JP3190794B2 (en) | Character segmentation device | |
JPH0816719A (en) | Character segmenting character recognition method, method and device by using same | |
JPH11242716A (en) | Image processing method and storage medium | |
JP2982221B2 (en) | Character reader | |
JPH0573718A (en) | Area attribute identifying system | |
JP3024234B2 (en) | Document image ruled line extraction device | |
JPH04311283A (en) | Line direction discriminating device | |
JPH0524555B2 (en) |