[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2003016386A - Method and device for character recognition - Google Patents

Method and device for character recognition

Info

Publication number
JP2003016386A
JP2003016386A JP2001202414A JP2001202414A JP2003016386A JP 2003016386 A JP2003016386 A JP 2003016386A JP 2001202414 A JP2001202414 A JP 2001202414A JP 2001202414 A JP2001202414 A JP 2001202414A JP 2003016386 A JP2003016386 A JP 2003016386A
Authority
JP
Japan
Prior art keywords
character
recognition
value
neural network
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001202414A
Other languages
Japanese (ja)
Inventor
Koichi Sato
功一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui Engineering and Shipbuilding Co Ltd
Original Assignee
Mitsui Engineering and Shipbuilding Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui Engineering and Shipbuilding Co Ltd filed Critical Mitsui Engineering and Shipbuilding Co Ltd
Priority to JP2001202414A priority Critical patent/JP2003016386A/en
Publication of JP2003016386A publication Critical patent/JP2003016386A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and a device for character recognition, which can widely be applied to character recognition on the site, e.g. outdoors or in a factory. SOLUTION: A plurality of character patterns are obtained by binarizing a photographed image of an object character to be recognized by using a plurality of thresholds and those character patterns are projected and added in X and Y directions to cut a character area out. The obtained characters are inputted to a neural network and the character having the maximum output value exceeding a set reference value is outputted as a final recognition result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は文字認識方法および
装置に係り、特にコンテナ記載の文字、部品上のマーキ
ング文字、汚れ・損傷の程度が大きい印字文字、文字毎
に複数のフォントをもつものなどを自動認識させるのに
好適な文字認識方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition method and apparatus, and more particularly, to characters on a container, marking characters on parts, printed characters with a high degree of dirt and damage, and one having a plurality of fonts for each character. The present invention relates to a character recognition method and apparatus suitable for automatically recognizing characters.

【0002】[0002]

【従来の技術】コンテナヤードで荷役されるコンテナに
は一般に入出庫管理や在庫管理の観点から識別コードが
付けられている。また、部品点数の多い各種製造工程で
も部品種別などを表すために識別コードを付することも
ある。このようなコードなどの文字を、自動的に認識判
別することができれば作業の自動化の上で非常に好まし
い。
2. Description of the Related Art Generally, a container to be loaded and unloaded at a container yard is provided with an identification code from the viewpoint of inventory management and inventory management. Also, in various manufacturing processes with a large number of parts, an identification code may be added to represent the kind of parts. It is very preferable for automation of work if the characters such as codes can be automatically recognized and discriminated.

【0003】従来の文字認識装置は、一般的には、照明
装置により、印字表面を照明し、CCDカメラにより、
表面に印刷された文字を撮像し、濃淡画像を得る。そし
て、文字と背景とのコントラストの差を大きくする処理
を施し、その後に、文字と背景とを分離する閾値を用い
て、濃淡画像を2値画像に変換する。次に、2値画像に
含まれるノイズをフィルターにより除去した後、その2
値画像から抽出した文字の特徴量を対応する基準特徴量
と比較することにより、表面に印刷された文字を識別す
るようにしている。
A conventional character recognition device generally illuminates a printing surface with an illuminating device, and a CCD camera.
The characters printed on the surface are imaged to obtain a grayscale image. Then, a process of increasing the contrast difference between the character and the background is performed, and thereafter, the grayscale image is converted into a binary image by using a threshold value for separating the character and the background. Next, after removing noise included in the binary image by a filter,
By comparing the feature amount of the character extracted from the value image with the corresponding reference feature amount, the character printed on the surface is identified.

【0004】ところが、印刷文字などが汚れたり、欠損
したりしているときには、通常の文字認識を行い得な
い。この種の問題に対する文字認識装置として、コンテ
ナに記載されている識別コードを認識するシステムが提
示されている(特開平9−50484号公報)。これ
は、撮像装置により識別コードを撮影して通常の画像認
識処理を行って認識するが、汚れなどに起因して認識判
別できない文字があった場合、認識できない文字とそれ
以外の文字との関係など識別コードの作成ルールに基づ
いて推定処理を行い、推定値を含む識別コードを同時に
表示するようにし、文字の一つが認識でない場合でも対
処できるようにしたものである。
However, when the printed characters are dirty or defective, normal character recognition cannot be performed. As a character recognition device for this kind of problem, a system for recognizing an identification code written on a container has been proposed (JP-A-9-50484). This is because when an identification code is taken by an image pickup device and normal image recognition processing is performed for recognition, if there is a character that cannot be recognized and identified due to dirt or the like, the relationship between the unrecognizable character and other characters. The identification code including the estimated value is displayed at the same time by performing the estimation process based on the identification code creation rule, so that even if one of the characters is not recognized, it can be dealt with.

【0005】[0005]

【発明が解決しようとする課題】ところが、上記方法
は、認識度を向上させるのではなく、文字認識できない
ときに記載文字列の作成ルールを利用して推定処理しよ
うとするものであり、作成ルールのない文字の認識には
適用できない。また、例えばコンテナ文字の場合、識別
コードは船会社ごとに字体や文字間隔が異なるうえ、輸
送中に汚れてしまうケースも多い。また船会社によって
コンテナ文字のフォントがまちまちで統一された規格が
ないので、上記従来方法を適用しても文字の認識率を向
上させることはできない。
However, the above method does not improve the degree of recognition, but attempts to perform an estimation process by using a rule for creating a written character string when a character cannot be recognized. It cannot be applied to the recognition of characters without. Further, for example, in the case of container characters, the identification code has different fonts and character intervals depending on the shipping company, and in many cases, the identification code becomes dirty during transportation. Further, since there is no standard for different container character fonts to be unified by shipping companies, the recognition rate of characters cannot be improved even if the above conventional method is applied.

【0006】また、部材への印字文字の場合、汚れや滲
み、あるいはかすれ等があり、画像中の明るさの分布が
ある。更に、印字装置の稼動状況によっては、文字を構
成するドットの太さ、間隔が変化して、図3に示す正常
時の印字とは異なることがあり、この場合には認識がで
きなくなる。
Further, in the case of characters printed on a member, there are stains, bleeding, blurring, etc., and there is a distribution of brightness in the image. Further, depending on the operating condition of the printing device, the thickness and interval of the dots forming the characters may change, and the printing may differ from the normal printing shown in FIG. 3. In this case, the recognition becomes impossible.

【0007】更に、ニューラルネットワークを単に文字
認識に適用しても、文字に汚れや滲み、かすれ等の損傷
がある場合、文字認識率は90%以下と低く、市販のO
CRソフトを適用しても、印刷文字用に調整してあるた
め、コンテナ文字や部品文字のように、文字に汚れや滲
み・かすれがある場合、同じく文字認識率は低くなって
しまう。
Further, even if the neural network is simply applied to character recognition, if the character has damage such as stains, bleeding, and blurring, the character recognition rate is as low as 90% or less, and the commercially available O
Even if CR software is applied, since it is adjusted for printing characters, if there is dirt, blurring, or blurring of characters such as container characters or component characters, the character recognition rate will also be low.

【0008】すなわち、従来装置は英数字を認識対象と
しているが、文字に汚れ、かすれ、にじみ、ぼけなどの
欠陥や変形を伴っていることが多く、適用対象ごとに認
識のための条件を設定する必要がある。本発明は、上記
従来の問題点に着目し、屋外や工場内などの現場での文
字認識に汎用的に適用できる文字認識方法および装置を
提供することを目的とする。また、本発明は目視判定と
同等の性能がある文字認識方法および装置を提供するこ
とを目的とする。
That is, although the conventional apparatus targets alphanumeric characters for recognition, the characters are often accompanied by defects or deformation such as dirt, faintness, blurring, and blurring, and the conditions for recognition are set for each application target. There is a need to. An object of the present invention is to provide a character recognition method and apparatus that can be generally applied to character recognition in the field such as outdoors or in factories, focusing on the above conventional problems. Another object of the present invention is to provide a character recognizing method and device having a performance equivalent to that of visual judgment.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係る文字認識方法は、認識対象文字の撮影
画像を複数の閾値で2値化した複数の文字パターンを取
得し、この複数の文字パターンをX方向、Y方向に射影
加算することによって文字領域を切り出し、得られた文
字をニューラルネットワークに入力して、設定基準値を
越える出力値が最大値をとるものを最終認識結果として
出力することを特徴としている。前記射影加算によって
切り出された文字領域を一定の縦長比に調整し、一旦拡
大処理してから縮小変換して切り出し文字のサイズを学
習文字のサイズに統一してニューラルネットワークに入
力するようにすればよい。前記閾値は任意の方法により
定めた基準閾値と、当該基準閾値をもとに前後一定値を
加減した複数の閾値を用いる。このような基準閾値は判
別分析法により定めた後、この基準閾値をPタイル法の
パーセント表示値に変換し、この基準Pタイルパーセン
ト表示値に上下一定値を加減算して得られた表示値から
計算される前後閾値を用いるようにすればよい。
In order to achieve the above object, a character recognition method according to the present invention obtains a plurality of character patterns obtained by binarizing a photographed image of a character to be recognized with a plurality of thresholds. A character area is cut out by projectively adding a plurality of character patterns in the X direction and the Y direction, the obtained characters are input to the neural network, and the output value exceeding the set reference value takes the maximum value. It is characterized by outputting as. If the character area cut out by the projective addition is adjusted to a certain aspect ratio, once enlarged and then reduced and converted, the cutout character size is unified to the learning character size and input to the neural network. Good. As the threshold value, a reference threshold value determined by an arbitrary method and a plurality of threshold values obtained by adding or subtracting a constant value before and after based on the reference threshold value are used. After such a reference threshold value is determined by the discriminant analysis method, the reference threshold value is converted into a percentage display value of the P tile method, and a reference value obtained by adding and subtracting a fixed upper and lower value to and from the reference P tile percentage display value. It suffices to use the calculated front and rear threshold values.

【0010】また、本発明に係る文字認識装置は、認識
対象文字の撮影画像を2値化するときに複数の閾値で作
成した複数の文字パターンを得る前処理手段と、得られ
た複数の文字パターンの入力層と少なくとも認識文字種
の出力層を有するニューラルネットワークと、当該ニュ
ーラルネットワークによる複数の判定結果のうち、確信
度が最大値をとるものを最終の認識結果として出力する
判別手段を有することを特徴としている。
Further, the character recognition apparatus according to the present invention includes preprocessing means for obtaining a plurality of character patterns created with a plurality of thresholds when binarizing a photographed image of a character to be recognized, and a plurality of obtained characters. A neural network having an input layer of patterns and an output layer of at least recognized character types; and a discriminating means for outputting, as a final recognition result, a neural network having a maximum certainty factor among a plurality of determination results by the neural network. It has a feature.

【0011】また、特にコンテナ文字のチェックディジ
ットのような枠付き文字の場合には、認識対象文字の撮
影画像を2値化するときに複数の閾値で作成した複数の
文字パターンを得た後、当該文字パターンの周縁を切り
出して枠きり出し文字パターンを得る前処理手段と、得
られた複数の文字パターンの入力層と少なくとも認識文
字種の出力層を有するニューラルネットワークと、当該
ニューラルネットワークによる複数の判定結果のうち、
確信度が最大値をとるものを最終の認識結果として出力
する判別手段を有する構成とすればよい。
Further, particularly in the case of a framed character such as a check digit of a container character, after obtaining a plurality of character patterns created by a plurality of thresholds when binarizing a photographed image of a character to be recognized, Pre-processing means for cutting out the periphery of the character pattern to obtain a frame-exposed character pattern, a neural network having an input layer of the obtained plurality of character patterns and an output layer of at least the recognized character type, and a plurality of determinations by the neural network Out of the results
It may be configured to have a discriminating means for outputting the one with the maximum certainty value as the final recognition result.

【0012】[0012]

【発明の実施の形態】以下に本発明に係る文字認識方法
および装置の具体的実施の形態を、図面を参照しつつ、
詳細に説明する。本実施形態では、屋外や工場などの現
場で収集された英数字36個を対象に、画像処理とニュ
ーラルネットワーク技術を応用した文字認識方法並びに
装置について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Specific embodiments of a character recognition method and apparatus according to the present invention will be described below with reference to the drawings.
The details will be described. In the present embodiment, a character recognition method and apparatus applying image processing and neural network technology will be described, targeting 36 alphanumeric characters collected outdoors or at a site such as a factory.

【0013】図1は実施形態に係る文字認識方法の処理
フローチャートを示しているが、基本的には以下の手順
で文字の認識を行う。 (1)入力文字画像を判別分析法による閾値を基準にし
た複数の閾値で2値化することにより、複数の文字パタ
ーンを作成する。 (2)作成された複数のパターンを3層階層型のニュー
ラルネットワークに入力し、各パターンに対するニュー
ラルネットワークの認識結果の中で確信度が最大の認識
結果を最終的な認識結果として出力する。
FIG. 1 shows a processing flowchart of the character recognition method according to the embodiment. Basically, character recognition is performed by the following procedure. (1) A plurality of character patterns are created by binarizing the input character image with a plurality of threshold values based on the threshold value by the discriminant analysis method. (2) The plurality of created patterns are input to a three-layer hierarchical neural network, and the recognition result with the highest certainty factor among the recognition results of the neural network for each pattern is output as the final recognition result.

【0014】入力画像に含まれる文字を認識するために
は、まず、入力画像中の文字領域を抽出し、最後に1文
字単位で文字を切り出す必要がある。この基本的な処理
としては、図2に示した文字切り出しのフローチャート
に示すように、認識対象文字列を撮影した画像を取込み
(ステップ200)、これを2値化処理した後(ステッ
プ202)、ノイズの除去(ステップ204)、射影加
算(ステップ206)による文字列領域の切り出しを行
う(ステップ208)。そして、文字列傾き角度算出と
補正を行って(ステップ210)射影加算をなすことで
(ステップ212)文字領域を決定した後(ステップ2
14)、文字画像を切り出すのである(ステップ21
6)。
In order to recognize a character included in an input image, it is necessary to first extract a character area in the input image and finally cut out the character in character units. As the basic processing, as shown in the flow chart of character cutting shown in FIG. 2, an image of a character string to be recognized is captured (step 200), binarized (step 202), A character string region is cut out by removing noise (step 204) and projective addition (step 206) (step 208). Then, after the character string inclination angle is calculated and corrected (step 210), the projective addition is performed (step 212) to determine the character area (step 2).
14) The character image is cut out (step 21).
6).

【0015】造船部品のマーキング文字画像を例にと
り、文字切り出し処理について説明する。対象はマーキ
ング文字であるが、コンテナ番号に対しても同様の方法
で文字切り出しが可能である。まず、入力画像に対して
2値化処理を行う。その結果、文字領域を含む明るい部
分が抽出される。次に2値化画像にスパイク状の雑音を
取り除くノイズ処理をした後、X方向、Y方向の射影加
算を行う。この処理により、文字列の存在する部分の射
影加算値が高くなる。そこで、X方向の射影加算値の高
い部分から白線で囲まれた横長の文字列領域を切り出
し、各文字列領域に対して、傾き角度の補正を行った
後、再度、射影加算を行い、1文字単位で文字領域を決
定する。最後に、入力画像から決定された文字領域に相
当する領域を切り出し、文字画像を得ることができる。
The character cutting process will be described by taking a marking character image of a shipbuilding component as an example. The target is the marking character, but the character can be cut out in the same way for the container number. First, the input image is binarized. As a result, a bright portion including the character area is extracted. Next, noise processing for removing spike-like noise is performed on the binarized image, and then projection addition in the X and Y directions is performed. By this processing, the projection addition value of the portion where the character string exists increases. Therefore, a horizontally long character string area surrounded by a white line is cut out from a portion where the projection addition value in the X direction is high, the inclination angle is corrected for each character string area, and then the projection addition is performed again. Determine the character area for each character. Finally, a region corresponding to the character region determined from the input image can be cut out to obtain a character image.

【0016】ここで、本実施形態では、上述のように切
り出された個々の文字が認識対象となるが、この切り出
された文字画像から認識処理のための文字パターンが作
成される。切り出された文字画像には背景領域が含まれ
ている場合があるので、2値化を行い、文字を外接枠で
切り出した後、縦M画素×横N画素の大きさの文字パタ
ーンを作成する。外接枠で切り出された文字の大きさ
は、一定ではないのでアフィン変換を用いてM×Nの大
きさに揃えるようにしている。
Here, in the present embodiment, the individual characters cut out as described above are to be recognized, and a character pattern for recognition processing is created from the cut out character image. Since the cut-out character image may include the background area, binarization is performed, the character is cut out with the circumscribing frame, and then a character pattern having a size of vertical M pixels × horizontal N pixels is created. . Since the sizes of the characters cut out by the circumscribing frame are not constant, they are arranged to have the size of M × N by using affine transformation.

【0017】ところで、本実施形態では、特に、2値化
の閾値は、判別分析法(「画像処理工学」谷口他、共立
出版参照)によって決定したものを基準値として、この
基準閾値を挟んで前後に複数個の閾値を作成し、これら
複数の閾値により2値化するように構成している。これ
により、複数個の文字パターンが作成される。複数個の
閾値を作成する理由は、文字と背景の濃度分布が近い場
合や、文字が小さい場合は、判別分析法によって決定し
た閾値では良好に2値化できない場合があり、その結
果、文字を誤認識するケースがあるためである。複数個
の閾値として、判別分析法で算出した閾値よりも画素値
が大きい画素の割合を求め(これをX%とする)、pタ
イル法(X−10)%、X%(判別分析法で算出した閾
値に相当)、(X+10)%で決めた3つの閾値を用い
る。
By the way, in the present embodiment, particularly, the threshold value for binarization is determined by the discriminant analysis method (see "Image Processing Engineering" Taniguchi et al., Kyoritsu Shuppan) as a reference value, and the reference threshold value is sandwiched. A plurality of thresholds are created before and after, and the thresholds are binarized. As a result, a plurality of character patterns are created. The reason for creating a plurality of threshold values is that the threshold values determined by the discriminant analysis method may not be binarized well when the density distribution of the characters and the background are close to each other or the characters are small. This is because there are cases in which it is erroneously recognized. As a plurality of threshold values, the ratio of pixels having a pixel value larger than the threshold value calculated by the discriminant analysis method is obtained (this is defined as X%), and the p tile method (X-10)%, X% (by the discriminant analysis method). (Corresponding to the calculated threshold value), and three threshold values determined by (X + 10)% are used.

【0018】このような文字パターンの作成の処理フロ
ーを、図1を参照しつつ、詳細に説明する。切り出した
文字画像データを配列に入力し(ステップ100)、判
別分析法による2値化の閾値(ThrDA)を決定する
(ステップ102)。そして、この閾値ThrDAを与え
るPタイル法の%:PctDAを計算する(ステップ10
4)。次いで、Pタイル法%がXのときの閾値Thrを計
算する(ステップ106)。認識対象として予め切り出
している文字画像をこの閾値Thrで2値化するのである
(ステップ108)。そして、得られた2値化画像をX
方向、Y方向に射影加算することにより(ステップ11
0)、正味の文字領域を切り出せばよい(ステップ11
2)。
The processing flow for creating such a character pattern will be described in detail with reference to FIG. The cut-out character image data is input to the array (step 100), and the threshold value (T hr DA) for binarization by the discriminant analysis method is determined (step 102). Then, the% of the P-tile method that gives this threshold value T hr DA: P ct DA is calculated (step 10).
4). Next, the threshold value T hr when the P tile method% is X is calculated (step 106). A character image cut out in advance as a recognition target is binarized with this threshold value T hr (step 108). Then, the obtained binary image is X
By adding projections in the direction and Y direction (step 11
0), the net character area should be cut out (step 11).
2).

【0019】ところで、文字が「1」や「I」のような
縦長比が大きい場合には、X方向、Y方向に射影加算す
ることにより切り出される文字パターンは殆ど文字領域
であり、峻別ができなくなる。そこで、文字サイズの縦
横比が設定値以上(実施形態では3.3以上)か否かを
判別し(ステップ114)、設定値より大きい場合に
は、ニューラルネットワークでの学習パターンサイズに
一致するように左右に余白を付加する調整を行う(ステ
ップ116)。実施形態では15×30にサイズ調整す
るようにしているので、縦横比が2となるように余白を
付加する調整をなす。
By the way, when a character has a large aspect ratio such as "1" or "I", most of the character patterns cut out by projective addition in the X and Y directions are character regions, and distinction can be made. Disappear. Therefore, it is determined whether or not the aspect ratio of the character size is equal to or larger than the set value (3.3 or larger in the embodiment) (step 114), and if larger than the set value, the learning pattern size in the neural network is matched. The margins are added to the left and right of the display (step 116). In the embodiment, since the size is adjusted to 15 × 30, the margin is added so that the aspect ratio becomes 2.

【0020】そして、切り出し文字サイズを学習パター
ンの3倍となる45×90の大きさにAffine変換
した後(ステップ118)、1/3に縮小変換するよう
にしている(ステップ120)。これは一旦文字パター
ンを拡大処理してから所定の比較サイズに縮小処理する
ことにより、文字パターンが明瞭になるからである。
Then, after the cut-out character size is Affine converted to a size of 45 × 90 which is three times as large as the learning pattern (step 118), it is reduced to 1/3 (step 120). This is because the character pattern becomes clear by expanding the character pattern once and then reducing it to a predetermined comparison size.

【0021】このようにサイズ調整をした後、ニューラ
ルネットワークによって判定を行うが(ステップ12
2)、本実施形態では、上述したステップ108で文字
画像を2値化処理する場合の閾値を複数準備して、一つ
の認識対象文字に対し、複数の文字パターンを取得した
上で、ニューラルネットワークによる判定処理を行うよ
うにしている。すなわち、最初に基準閾値Thrによって
認識対象として予め切り出している文字画像を2値化し
たが、今度はこの基準閾値Thrに対応するPタイル法の
±10%の値に相当する複数の閾値X=(PctDA−1
0)%、(PctDA+10)%に更新し、当該更新Xに
相当する閾値Thr1、Thr2を求め、これらの閾値で2値
化処理するようにしている(ステップ124)。
After the size adjustment as described above, the judgment is made by the neural network (step 12).
2) In the present embodiment, a plurality of thresholds for binarizing the character image in step 108 described above are prepared, a plurality of character patterns are acquired for one recognition target character, and then the neural network is used. The determination process is performed according to. That is, the character image cut out beforehand as a recognition target by the reference threshold T hr was binarized first, but this time, a plurality of thresholds corresponding to the reference threshold T hr corresponding to a value of ± 10% of the P-tile method is used. X = (P ct DA-1
0)%, and the (updated to P ct DA + 10)%, as determined threshold T hr1, T hr2 corresponding to the update X, binarizes these thresholds (step 124).

【0022】これにより、一つの認識対象の文字に対
し、複数の閾値で2値化された複数の文字パターンが得
られ、これらがニューラルネットワークに入力され、判
定処理される(ステップ126)。ニューラルネットワ
ークによる認識処理は次にようになっている。図3に文
字認識に用いた3層階層型ニューラルネットワーク10
の構成を示す。入力層12と中間層14の各ユニット、
中間層14と出力層16の各ユニットはそれぞれ学習に
よって得られた結合係数及びバイアス値によって結合し
ている。入力層12のユニットは、入力値をそのまま出
力する。中間層14、出力層16の各ユニットはそれぞ
れ上流層(中間層14の各ユニットであれば入力層1
2、出力層16の各ユニットであれば中間層14)の各
ユニットの出力に結合係数を乗じて加算し、それに式
(1)に示す非線形なシグモイド関数f(z)に入力し
た結果を出力する。
As a result, a plurality of character patterns binarized with a plurality of threshold values are obtained for one character to be recognized, and these are input to the neural network for judgment processing (step 126). The recognition process by the neural network is as follows. FIG. 3 shows a three-layer hierarchical neural network 10 used for character recognition.
Shows the configuration of. Each unit of the input layer 12 and the intermediate layer 14,
The respective units of the intermediate layer 14 and the output layer 16 are coupled by the coupling coefficient and the bias value obtained by learning. The unit of the input layer 12 outputs the input value as it is. Each unit of the intermediate layer 14 and the output layer 16 is an upstream layer (if each unit of the intermediate layer 14 is the input layer 1
2. If it is each unit of the output layer 16, the output of each unit of the intermediate layer 14) is multiplied by the coupling coefficient and added, and the result input to the nonlinear sigmoid function f (z) shown in Expression (1) is output. To do.

【数1】 ここで、n:上流層のユニット数、wj:結合係数、
j:上流層のユニットからの入力、w0:バイアス値で
ある。
[Equation 1] Here, n: the number of units in the upstream layer, w j : coupling coefficient,
x j : input from a unit in the upper layer, w 0 : bias value.

【0023】ニューラルネットワーク10で文字認識を
行うためには、出力層16の各ユニットに認識の対象と
なる英数字を割り当て、入力層に入力された文字パター
ンに相当する出力層16のユニットのみが1に近い値を
出力し、それ以外のユニットの出力は0になるように結
合係数、バイアス値を調整する。この過程を学習という
が、本実施形態では学習アルゴリズムとして誤差逆伝播
法を用いた。
In order to perform character recognition by the neural network 10, alphanumeric characters to be recognized are assigned to each unit of the output layer 16, and only the unit of the output layer 16 corresponding to the character pattern input to the input layer is assigned. The coupling coefficient and the bias value are adjusted so that the value close to 1 is output and the output of the other units is 0. Although this process is called learning, the error backpropagation method is used as a learning algorithm in this embodiment.

【0024】構築したニューラルネットワーク10に文
字パターンを入力すると出力層16の各ユニットに0か
ら1の間の出力があり、最も1に近い値を出力したユニ
ットに割り当てられた文字が認識結果である。また、こ
のときの出力値を確信度といい、1のときを100%と
する。
When a character pattern is input to the constructed neural network 10, each unit of the output layer 16 has an output between 0 and 1, and the character assigned to the unit that outputs the value closest to 1 is the recognition result. . Further, the output value at this time is referred to as the certainty factor, and when 1 is set to 100%.

【0025】本実施形態では構築した文字認識ニューラ
ルネットワーク10に複数の文字パターンを入力して認
識結果の最良値を最終の認識結果とした。実施例として
生産工程の自動化を目的に造船小組ラインの配材・仮組
工程自動化のための部品番号認識、および物流工程の自
動化を目的にコンテナヤードゲートシステムのコンテナ
番号認識に適用したところ、それぞれ高い認識率を得
て、目視判定と同等の性能にあることを確認した。
In this embodiment, a plurality of character patterns are input to the constructed character recognition neural network 10 and the best value of the recognition result is used as the final recognition result. As an example, when it was applied to the part number recognition for the distribution / temporary assembly process automation of the shipbuilding small assembly line for the purpose of automating the production process, and the container number recognition of the container yard gate system for the purpose of automating the logistics process, respectively. A high recognition rate was obtained and it was confirmed that the performance was equivalent to the visual judgment.

【0026】<実施例1>上述した文字認識装置を造船
小組工程自動化へ適用した例について説明する。まず、
自動配材仮組システムの概念は次のようになっている。
造船現場においては3次元CADの導入により、板材、
骨材の切断加工工程や溶接工程の自動化が進んでいる。
しかし、両工程間の配材や仮組(溶接の板付け)につい
ては、依然としてその多くを人手に頼っており、自動化
が望まれている。
<Embodiment 1> An example in which the above-described character recognition device is applied to automation of shipbuilding small set process will be described. First,
The concept of the automatic distribution temporary assembly system is as follows.
At the shipbuilding site, the introduction of three-dimensional CAD,
The automation of aggregate cutting and welding processes and welding processes is progressing.
However, with regard to material distribution and temporary assembly (welding plate attachment) between both processes, most of them still rely on manpower, and automation is desired.

【0027】小組工程は配材仮組・溶接・仕上げ歪取り
等の工程から構成されている。このうち、配材仮粗工程
は、作業者が小組部品ストックから部品に印字された番
号をもとに部品を選択し、べ一スパネル上に描かれた取
付線に沿って配置し、仮溶接する方法で行われている。
The small assembly process is composed of processes such as temporary distribution of materials, welding, and finish strain relief. Of these, in the provisional roughing process, the worker selects parts based on the numbers printed on the parts from the subassembly parts stock, arranges them along the attachment lines drawn on the base panel, and performs temporary welding. Is done in a way that

【0028】そこで、本工程の自動化のため、図4に示
すような小組部品の配材と仮組を自動化する自動配材仮
組システムの導入を検討した。本システムは、部品20
上のマーキング文字や取付線位置を認識するための画像
認識部、小組部品をハンドリングするためのハンドリン
グ部22、小組部品を仮溶接するための板付け溶接機2
4で構成され、視覚センサ26で得た情報とCAD情報
とを照合しながら、図5に示すようにべ一スパネル28
上の取付線に小組部品20を配置して仮溶接作業までを
行うものである。本システムを実現するために必要な技
術は、小組部品20に印字された部品番号を示すマーキ
ング文字30の認識技術とべ一スパネル上の取付線認識
技術である。本実施例では、このうち、部品上のマーキ
ング文字30に文字認識技術を適用した結果について述
べる。
Therefore, in order to automate this process, the introduction of an automatic material distribution temporary assembly system as shown in FIG. 4 for automating the material distribution and temporary assembly of small assembly parts was examined. This system consists of parts 20.
An image recognition part for recognizing the above marking characters and the position of the mounting line, a handling part 22 for handling the small set parts, and a plate welding machine 2 for temporarily welding the small set parts.
4, and the CAD information is collated with the information obtained by the visual sensor 26, the base panel 28 as shown in FIG.
The preliminary assembly work is performed by disposing the small set component 20 on the upper attachment line. The technology required to realize this system is a recognition technology for the marking characters 30 indicating the part number printed on the subassembly 20 and a mounting line recognition technology on the base panel. In this embodiment, the result of applying the character recognition technique to the marking characters 30 on the component among these will be described.

【0029】造船小組工程におけるマーキング文字の特
徴は次の通りである。部材上に印字されているマーキン
グ文字30は、船番号、部品を取り付けるブロック名、
組立番号、部品の材質などの情報を英数字で記号化した
もので、白色の塗料で部材の中央部に印字されている。
短いものでは4文字、部品によっては10文字を越える
ものもあり、文字列の長さも表記内容によって様々であ
る。
The characteristics of the marking characters in the shipbuilding subassembly process are as follows. The marking character 30 printed on the member is the ship number, the block name to attach the part,
Information such as the assembly number and material of the parts is symbolized by alphanumeric characters, and is printed on the center of the member with white paint.
There are some characters that are shorter than four characters and some characters that exceed ten characters, and the length of the character string also varies depending on the description content.

【0030】部品20上に印字されているマーキング文
字30標準パターンで7×9のドットパターンである。
ところが、現実にはドットのコラムずれ、ドットの膨
張、特定のコラムのドット抜け、部材の汚れなどの各種
の低品位文字が存在する。そこで、マーキング文字30
の学習を行わせる。マーキング文字認識用ニューラルネ
ットワーク10を構築するために、実際の工場内で撮影
した画像から文字を切り出し、文字パターンを作成し
た。文字パターンの大きさは、マーキング文字30の大
きさが9×7であることから、その2倍にあたる18×
14の大きさとし、英数字1文字当たり5データの文字
パターンを学習データとして作成した。
A standard pattern of marking characters 30 printed on the component 20 is a 7 × 9 dot pattern.
However, in reality, there are various low-quality characters such as dot column shift, dot expansion, dot omission in a specific column, and member stain. Therefore, the marking character 30
Let's learn. In order to construct the marking character recognition neural network 10, characters were cut out from an image taken in an actual factory to create a character pattern. The size of the character pattern is 18 ×, which is twice the size of the marking character 30 because the size of the marking character 30 is 9 × 7.
A size of 14 and a character pattern of 5 data per alphanumeric character was created as learning data.

【0031】これらの学習データを人力層252ユニッ
ト、中間層40ユニット、出力層36ユニットの3層階
層型ニューラルネットワークで学習した。パターン学習
の後、マーキング文字30を認識させた結果、各文字画
像について複数文字パターンの認識結果の最良値を最終
の認識結果としたところ、80個の画像から切り出され
た1218文字に対して、1205文字が正しく認識さ
れ、文字単位で99%という認識率を得た。これを、番
号に含まれる文字すべてが認識された場合のみを正解と
したところ、部品番号単位の認識率は80個中77個で
96%であった。
These learning data were learned by a three-layer hierarchical neural network consisting of a human power layer 252 units, an intermediate layer 40 units, and an output layer 36 units. As a result of recognizing the marking characters 30 after the pattern learning, the best value of the recognition results of the plural character patterns for each character image was taken as the final recognition result, and for 1218 characters cut out from 80 images, 1205 characters were correctly recognized, and a recognition rate of 99% was obtained for each character. When this was set as the correct answer only when all the characters included in the number were recognized, the recognition rate per part number was 77 out of 80, which was 96%.

【0032】正解でない場合は、文字を別の文字と認識
する誤認識と認識結果の確信度が低い認識不能に分類さ
れるが、間違えた文字はすべて認識不能に相当するもの
であった。最終的には、認識結果をCADデータとの照
合することにより、認識結果の検証、認識不能文字の推
定を行い、部品番号を特定することにより、認識精度の
向上を図ることができる。
If the answer is not correct, the character is classified as erroneous recognition for recognizing the character as another character and unrecognizable with low certainty of the recognition result, but any erroneous character corresponds to unrecognizable character. Finally, by collating the recognition result with the CAD data, the recognition result is verified, the unrecognizable character is estimated, and the part number is specified, whereby the recognition accuracy can be improved.

【0033】<実施例2>前述した文字認識装置をコン
テナヤードゲートシスナムヘ適用した実施例は次の通り
である。まず、コンテナヤードゲートシステムとは、ト
レーラーに積まれて港湾施設に入ってきたコンテナの番
号を認識し、コンテナの番号確認と蔵置場所を指示する
システムである。現状は、作業員が目視で確認している
が、コンテナヤード全体の自動化、効率化のためには、
カメラで撮像した画像中のコンテナ番号認識を自動で行
わせる必要がある。
<Embodiment 2> An embodiment in which the above-mentioned character recognition device is applied to a container yard gate cisnum is as follows. First, the container yard gate system is a system that recognizes the number of a container loaded on a trailer and enters a port facility, confirms the container number, and instructs the storage location. At present, the workers are visually checking, but in order to automate and improve the efficiency of the entire container yard,
It is necessary to automatically recognize the container number in the image captured by the camera.

【0034】コンテナ文字の特徴は、次の通りである。
コンテナ番号はコンテナドア面の右上方に描かれてお
り、所有者コードを示す4個のアルファベット、6個の
数字からなる一連番号、1個のチェックディジットの合
計11個から成る。チェックディジットは、一連番号に
既定の演算を施した結果得られる数値を示している。こ
のことから、コンテナ文字を認識するには、英数字36
個とチェックディジット10個を認識する必要がある。
The characteristics of the container character are as follows.
The container number is drawn on the upper right side of the container door surface, and consists of a total of 11 letters, which are the four alphabets indicating the owner code, a serial number consisting of six numbers, and one check digit. The check digit indicates a numerical value obtained as a result of performing a predetermined operation on the sequence number. From this, alphanumeric characters 36
And 10 check digits must be recognized.

【0035】コンテナ画像はゲートに進入してきたトレ
ーラーをビームスイッチで判定したタイミングで撮像さ
れる。このため、撮影状況によって文字の明るさ、大き
さが異なるとともに、文字に汚れ、損傷、ぼけなどがあ
る。また、文字に規格がないため、文字の太さや、フォ
ントが一定ではない。
The container image is taken at the timing when the trailer entering the gate is judged by the beam switch. For this reason, the brightness and size of the character differ depending on the shooting situation, and the character has dirt, damage, blurring, and the like. Moreover, since there is no standard for characters, the thickness of the characters and the font are not constant.

【0036】このような特徴の文字を実施形態に係る認
識装置で認識させるために、コンテナ文字の学習が最初
に行われる。コンテナ文字認識用ニューラルネットワー
クを構築するために、ニューラルネットワークにコンテ
ナ画像から作成した文字パターンを作成した。実際のコ
ンテナ文字の縦横比が2:1であることから文字パター
ンの大きさは30×15とし、各英数字について4〜6
個の文字パターンを学習用パターンとして作成した。た
だし、チェックディジットについては、枠がある以外は
一連番号中の数字と何ら差がないことから、枠を取り除
く方法を採用した。
In order to recognize the character having such a characteristic by the recognition device according to the embodiment, the container character is first learned. In order to construct a neural network for container character recognition, a character pattern created from a container image was created in the neural network. Since the actual container aspect ratio is 2: 1, the size of the character pattern is 30x15, and 4 to 6 for each alphanumeric character.
Individual character patterns were created as learning patterns. However, with respect to the check digit, there is no difference from the numbers in the serial number except for the frame, so the method of removing the frame was adopted.

【0037】構築したニューラルネットワークは3層階
層型で入力層は450ユニット、中間層は80ユニッ
ト、出力層は36ユニットとした。このような学習の
後、コンテナ文字を認識させた。チェック文字以外の英
数字については2値化の閾値を変えて複数文字パターン
を作成し、ニューラルネットワークによる認識結果の最
良値を最終の認識結果とした。この結果、文字単位で5
79データ中567データが正しく認識され、認識率は
98%であった。
The constructed neural network was a three-layer hierarchical type, with 450 units for the input layer, 80 units for the intermediate layer, and 36 units for the output layer. After such learning, the container character was recognized. For alphanumeric characters other than check characters, a binarization threshold value was changed to create a multi-character pattern, and the best value of the recognition results by the neural network was used as the final recognition result. As a result, 5
567 data out of 79 data were correctly recognized, and the recognition rate was 98%.

【0038】チェックディジットの場合、枠の濃度が小
さい場合は、2値化処理で枠の部分が消えることから、
他の文字と同じく、複数文字パターンによる認識方法で
正解になることがある。しかし、枠が濃い場合は、誤認
識される。そこで、認識結果の確信度が80%よりも低
い場合、文字の周囲から仮定した枠幅分を取り除いた
後、文字パターンを作成してニューラルネットワークで
認識させることにした。図6に認識方法のフローを示
す。まず、画像データを入力し(ステップ300)、p
タイル80%で決めた小さい閾値を求め(ステップ30
2)、この閾値で2値化することにより枠がついた文字
画像を得る(ステップ304)。射影加算、文字領域の
切り出しをなし(ステップ306,308)、次に、設
定した枠幅分内側の領域を文字画像から切り出し(ステ
ップ310)、複数文字パターンによる文字認識を行っ
た(ステップ312)。枠幅を1画素から4画素の範囲
で設定したところ(ステップ314)、すべてのチェッ
クディジット文字画像に対して枠のない数字を得ること
ができた。図7にチェックディジットの「4」を例にし
たチェックディジットの認識結果を示す。
In the case of a check digit, if the density of the frame is small, the frame part disappears in the binarization process.
As with other characters, the recognition method using multiple character patterns may give the correct answer. However, if the frame is dark, it is misrecognized. Therefore, when the certainty factor of the recognition result is lower than 80%, after removing the assumed frame width from the periphery of the character, the character pattern is created and is recognized by the neural network. FIG. 6 shows a flow of the recognition method. First, input image data (step 300), p
A small threshold value determined by tile 80% is calculated (step 30
2) A binarized character image is obtained by binarizing with this threshold value (step 304). The projection addition and the character region are not cut out (steps 306 and 308), then the region inside the set frame width is cut out from the character image (step 310), and character recognition is performed using a plurality of character patterns (step 312). . When the frame width was set within the range of 1 pixel to 4 pixels (step 314), it was possible to obtain numbers without a frame for all check digit character images. FIG. 7 shows a check digit recognition result in which the check digit "4" is taken as an example.

【0039】図7(a)が文字画像、図7(b)が枠付
き2値化画像である。また、図7(c)に2値化の閾値
と取り除く枠幅を変えて作成した12通りの文字パター
ンとその認識結果を示す。各パターンの下に示した上段
の数値は閾値を決定したpタイルの%値と枠幅、下段の
数値は認識結果と確信度を表す。
FIG. 7A shows a character image, and FIG. 7B shows a framed binary image. Further, FIG. 7C shows 12 character patterns created by changing the binarization threshold and the frame width to be removed and the recognition result thereof. The upper numerical values shown below each pattern represent the% value and the frame width of the p tile for which the threshold is determined, and the lower numerical values represent the recognition result and the certainty factor.

【0040】例えば左上のパターンは、Pタイル55%
のときの閾値と、取り除く枠幅が1画素の条件で作成さ
れたパターンで認識結果が「T」、そのときの確信度が
33%であることを示す。この場合、12通りの最良値
として「4」と正しく認概されている。チェックディジ
ットについては101個を認識させたところ、98個が
正しく認識され、文字単位で97%の認識率を得た。
For example, the pattern on the upper left is 55% for the P tile.
It is shown that the recognition result is "T" in the pattern created under the condition that the threshold value at that time is 1 and the frame width to be removed is 1 pixel, and the confidence factor at that time is 33%. In this case, it is correctly accepted as “4” as the 12 best values. When 101 check digits were recognized, 98 were correctly recognized, and a recognition rate of 97% was obtained for each character.

【0041】そこで、本実施例を61個のコンテナ画像
に適用したところ、59個についてコンテナ番号すべて
が正しく認識され、96%の認識率を得た。なお、ニュ
ーラルネットワークの認識結果に対してアルファベット
については、データベースに登録された所有者コードと
の比較、数字については6個の一連数字の演算結果とチ
ェックディジットを比較することにより、検証を行っ
た。
Therefore, when this embodiment was applied to 61 container images, all 59 container numbers were correctly recognized, and a recognition rate of 96% was obtained. The recognition result of the neural network was verified by comparing the alphabet with the owner code registered in the database, and the numerical value by comparing the operation result of a series of 6 numbers and the check digit. .

【0042】以上の通り、本発明に係る文字認識方法お
よび装置は、生産工程や物流工程の自動化を目的に汚れ
やにじみ、ぼけのある英数字を対象とした場合であって
も、入力された文字画像から判別分析法によって決定し
た閾値を基準に作成した複数の閾値で作成した複数の文
字パターンをニューラルネットワークに認識させて、そ
の中の最良値を最終認識結果として出力し、高い認識率
を実現することができる。造船小組工程自動化を目的と
した部品のマーキング文字に適用した例では、文字単位
で99%、部品単位で96%の認識率を得ることがで
き、また、コンテナヤードゲートシステムのコンテナ文
字認識に適用した実施例では、文字単位で98%、コン
テナ画像単位で96%の認識率を得ることができた。い
ずれの場合も高い認識率であり、目視判定と同等の性能
をもつ文字認識装置といえる。
As described above, the character recognizing method and apparatus according to the present invention can be input even when the target is an alphanumeric character that is dirty, bleeding, or blurred for the purpose of automating the production process or the physical distribution process. The neural network recognizes a plurality of character patterns created with a plurality of thresholds created based on the threshold determined by the discriminant analysis method from the character image, and the best value among them is output as the final recognition result, which gives a high recognition rate. Can be realized. In the example applied to marking characters of parts for the purpose of automating the process of shipbuilding assembly, recognition rate of 99% per character and 96% per part can be obtained, and it is also applied to container character recognition of container yard gate system. In the example described above, a recognition rate of 98% for each character and 96% for each container image could be obtained. In any case, the recognition rate is high, and it can be said that the character recognition device has performance equivalent to that of visual judgment.

【0043】なお、閾値の決定は、他の手法、モード法
などを用いてもよい。変化させる範囲も適用対象毎に変
えてよい。チェックディジットについてはさらに、枠幅
についても1〜4pixの範囲で変化させて実施した
が、1〜4pixに限定するものではない。変化させる
範囲も適用対象毎に変えてよい。
The threshold value may be determined by using another method, mode method or the like. The range to be changed may be changed for each application target. Regarding the check digit, the frame width was further changed within the range of 1 to 4 pix, but it is not limited to 1 to 4 pix. The range to be changed may be changed for each application target.

【0044】また、実施例では、入力層:450ユニッ
ト(文字サイズ:縦30pix×横15pix)、中間
層80ユニット、出力層36ユニット(アルファベット
26文字+数字10文字)とした。入力層、中間層サイ
ズは、今回実施例のユニット数に限定したものではな
い。出力層も認識対象をアルファベット大文字26文
字、数字10字としたため、36ユニットとしたが、認
識する対象のカテゴリ数に応じて変えることができる。
In the embodiment, the input layer is 450 units (character size: vertical 30 pix × horizontal 15 pix), the intermediate layer is 80 units, and the output layer is 36 units (alphabet 26 characters + numeral 10 characters). The sizes of the input layer and the intermediate layer are not limited to the number of units in this embodiment. In the output layer, the recognition target is 26 uppercase letters and 10 numbers, so 36 units are used, but it can be changed according to the number of categories to be recognized.

【0045】[0045]

【発明の効果】以上説明したように、本発明によれば、
生産工程や物流工程の自動化を目的に汚れやにじみ、ぼ
けのある英数字を対象とした文字認識に際し、入力され
た文字画像から所定の方法によって決定した閾値を基準
に作成した複数の閾値で作成した複数の文字パターンを
ニューラルネットワークに認識させて、その中の最良値
を最終認識結果とする方法であって、文字毎の認識率と
して英数字に対し高い認識率を得ることができ、また、
文字毎の認識率としてチェックディジットに対しても同
様に高い認識率をもたせることができる。
As described above, according to the present invention,
Created with multiple threshold values created based on the threshold value determined by a predetermined method from the input character image when recognizing characters that are dirty, blurred, or blurred alphanumeric for the purpose of automating the production process or logistics process This is a method of recognizing a plurality of character patterns by a neural network and using the best value among them as the final recognition result, and it is possible to obtain a high recognition rate for alphanumeric characters as the recognition rate for each character.
As a recognition rate for each character, it is possible to give the check digit a high recognition rate as well.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態に係る文字認識方法の処理フローチ
ャートである。
FIG. 1 is a processing flowchart of a character recognition method according to the present embodiment.

【図2】部材などに記載されている文字列の切り出しの
フローチャートである。
FIG. 2 is a flowchart of cutting out a character string described in a member or the like.

【図3】ニューラルネットワークの構成例である。FIG. 3 is a configuration example of a neural network.

【図4】自動配材仮組システムの概念構成図である。FIG. 4 is a conceptual configuration diagram of an automatic material distribution temporary assembly system.

【図5】小組部品の取り付け線上への配置の説明図であ
る。
FIG. 5 is an explanatory diagram of the arrangement of the small set components on the attachment line.

【図6】チェックディジットの認識処理方法を示すフロ
ーチャートである。
FIG. 6 is a flowchart showing a check digit recognition processing method.

【図7】チェックディジットの文字パターン例である。FIG. 7 is an example of a check digit character pattern.

【符号の説明】[Explanation of symbols]

10………ニューラルネットワーク、12………入力
層、14………中間層、16………出力層、20………
小組部品、22………ハンドリング部、24………溶接
機、26………視覚センサ、28………ベースパネル、
30………マーキング文字。
10 ... Neural network, 12 ... Input layer, 14 ... Intermediate layer, 16 ... Output layer, 20 ...
Assembly parts, 22 ......... Handling part, 24 ......... Welding machine, 26 ... Visual sensor, 28 ... Base panel,
30 ......... Marking characters.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 認識対象文字の撮影画像を複数の閾値で
2値化した複数の文字パターンを取得し、この複数の文
字パターンをX方向、Y方向に射影加算することによっ
て文字領域を切り出し、得られた文字をニューラルネッ
トワークに入力して、設定基準値を越える出力値が最大
値をとるものを最終認識結果として出力することを特徴
とする文字認識方法。
1. A plurality of character patterns obtained by binarizing a captured image of a recognition target character with a plurality of threshold values are obtained, and the plurality of character patterns are projectively added in the X and Y directions to cut out a character region, A character recognition method, characterized in that the obtained characters are input to a neural network, and the one having the maximum output value exceeding the set reference value is output as the final recognition result.
【請求項2】 前記射影加算によって切り出された文字
領域を一定の縦長比に調整し、一旦拡大処理してから縮
小変換して切り出し文字のサイズを学習文字のサイズに
統一してニューラルネットワークに入力することを特徴
とする請求項1に記載の文字認識方法。
2. The character area cut out by the projective addition is adjusted to a certain aspect ratio, once enlarged and then reduced and converted, and the extracted character size is unified to the learning character size and input to the neural network. The character recognition method according to claim 1, wherein:
【請求項3】 前記閾値は任意の方法により定めた基準
閾値と、当該基準閾値をもとに前後一定値を加減した複
数の閾値を用いることを特徴とする請求項1記載の文字
認識方法。
3. The character recognition method according to claim 1, wherein the threshold uses a reference threshold defined by an arbitrary method and a plurality of thresholds obtained by adding or subtracting a constant value before and after based on the reference threshold.
【請求項4】 前記基準閾値は判別分析法により定めた
後、この基準閾値をPタイル法のパーセント表示値に変
換し、この基準Pタイル閾値に上下一定値を加減算して
得られた前後Pタイル閾値を用いることを特徴とする請
求項3に記載の文字認識方法。
4. The reference threshold value is determined by a discriminant analysis method, and then the reference threshold value is converted into a percentage display value of the P tile method, and a predetermined upper and lower value is added to or subtracted from the reference P tile threshold value to obtain a front and rear P value. The character recognition method according to claim 3, wherein a tile threshold is used.
【請求項5】 認識対象文字の撮影画像を2値化すると
きに複数の閾値で作成した複数の文字パターンを得る前
処理手段と、得られた複数の文字パターンの入力層と少
なくとも認識文字種の出力層を有するニューラルネット
ワークと、当該ニューラルネットワークによる複数の判
定結果のうち、確信度が最大値をとるものを最終の認識
結果として出力する判別手段を有することを特徴とする
文字認識装置。
5. Preprocessing means for obtaining a plurality of character patterns created with a plurality of thresholds when binarizing a photographed image of a recognition target character, an input layer of the obtained plurality of character patterns, and at least a recognized character type. A character recognition device, comprising: a neural network having an output layer; and a discrimination means for outputting, as a final recognition result, one having a maximum certainty value among a plurality of determination results by the neural network.
【請求項6】 認識対象文字の撮影画像を2値化すると
きに複数の閾値で作成した複数の文字パターンを得た
後、当該文字パターンの周縁を切り出して枠きり出し文
字パターンを得る前処理手段と、得られた複数の文字パ
ターンの入力層と少なくとも認識文字種の出力層を有す
るニューラルネットワークと、当該ニューラルネットワ
ークによる複数の判定結果のうち、確信度が最大値をと
るものを最終の認識結果として出力する判別手段を有す
ることを特徴とする文字認識装置。
6. A pre-process for obtaining a frame-extracted character pattern by cutting out the periphery of the character pattern after obtaining a plurality of character patterns created with a plurality of thresholds when binarizing a captured image of a recognition target character. Means, a neural network having an input layer of a plurality of obtained character patterns and an output layer of at least a recognized character type, and among a plurality of determination results by the neural network, the one having the maximum confidence is the final recognition result. A character recognition device having a discrimination means for outputting as.
JP2001202414A 2001-07-03 2001-07-03 Method and device for character recognition Pending JP2003016386A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001202414A JP2003016386A (en) 2001-07-03 2001-07-03 Method and device for character recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001202414A JP2003016386A (en) 2001-07-03 2001-07-03 Method and device for character recognition

Publications (1)

Publication Number Publication Date
JP2003016386A true JP2003016386A (en) 2003-01-17

Family

ID=19039225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001202414A Pending JP2003016386A (en) 2001-07-03 2001-07-03 Method and device for character recognition

Country Status (1)

Country Link
JP (1) JP2003016386A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118737A (en) * 2010-11-30 2012-06-21 Fujitsu Ltd Inspection support program, inspection support method and inspection support device
JP5950317B1 (en) * 2016-02-25 2016-07-13 有限会社Ics Sakabe Code recognition system, code recognition method, code recognition program, and package sorting system
JP2018136926A (en) * 2016-12-16 2018-08-30 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Method and system for container code recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118737A (en) * 2010-11-30 2012-06-21 Fujitsu Ltd Inspection support program, inspection support method and inspection support device
JP5950317B1 (en) * 2016-02-25 2016-07-13 有限会社Ics Sakabe Code recognition system, code recognition method, code recognition program, and package sorting system
JP2018136926A (en) * 2016-12-16 2018-08-30 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Method and system for container code recognition

Similar Documents

Publication Publication Date Title
US5889885A (en) Method and apparatus for separating foreground from background in images containing text
Coetzee et al. PC based number plate recognition system
US6339651B1 (en) Robust identification code recognition system
CN110197180B (en) Character defect detection method, device and equipment
Yoo et al. Image matching using peak signal-to-noise ratio-based occlusion detection
CN112507782A (en) Text image recognition method and device
CN108932449B (en) Bar code binarization method and system based on clustering
JPH06215293A (en) Device for recognizing vehicle number
CN110210467B (en) Formula positioning method of text image, image processing device and storage medium
EP0594061B1 (en) Apparatus for verifying a container code
CN113435219B (en) Anti-counterfeiting detection method and device, electronic equipment and storage medium
WO1994010654A9 (en) A method and apparatus for verifying a container code
CN111402185A (en) Image detection method and device
CN117195928B (en) Bar code positioning detection method based on deep learning
JP2898562B2 (en) License plate determination method
EP0651337A1 (en) Object recognizing method, its apparatus, and image processing method and its apparatus
JP2003016386A (en) Method and device for character recognition
Siddique et al. Development of an automatic vehicle license plate detection and recognition system for Bangladesh
KR102502523B1 (en) Apparatus and method for extracting barcode
JP2805476B2 (en) Character recognition method
CN118037552A (en) Two-dimensional code defect repairing method, device, equipment and medium
CN115759146A (en) Two-dimensional bar code identification method and device, electronic equipment and storage medium
JPH0520459A (en) Method and device for recognizing pattern
WO2015181580A1 (en) Automated review of forms through augmented reality
CN116740398A (en) Target detection and matching method, device and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110330