[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014238773A - Character recognition device, character recognition method, and character recognition program - Google Patents

Character recognition device, character recognition method, and character recognition program Download PDF

Info

Publication number
JP2014238773A
JP2014238773A JP2013121992A JP2013121992A JP2014238773A JP 2014238773 A JP2014238773 A JP 2014238773A JP 2013121992 A JP2013121992 A JP 2013121992A JP 2013121992 A JP2013121992 A JP 2013121992A JP 2014238773 A JP2014238773 A JP 2014238773A
Authority
JP
Japan
Prior art keywords
image
item
character recognition
type
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013121992A
Other languages
Japanese (ja)
Other versions
JP6081298B2 (en
Inventor
勝利 小原
Katsutoshi Obara
勝利 小原
中村 一夫
Kazuo Nakamura
一夫 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Frontech Ltd filed Critical Fujitsu Frontech Ltd
Priority to JP2013121992A priority Critical patent/JP6081298B2/en
Publication of JP2014238773A publication Critical patent/JP2014238773A/en
Application granted granted Critical
Publication of JP6081298B2 publication Critical patent/JP6081298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically generate a definition body.SOLUTION: A character recognition device has an acquisition part, an extraction part, and a generation part. The acquisition part acquires an image of one or more items from an image of a paper surface. The extraction part extracts an image of the item with first size or larger from the image of one or more acquired items. The generation part generates a definition body for storing by associating a type of the paper surface from which the image of the item is acquired with the extracted image of the item.

Description

本発明は文字を認識する技術に関する。   The present invention relates to a technique for recognizing characters.

近年、帳票に記載された文字を認識(以下、帳票の文字認識とも言う。)するために、OCR(Optical Character Reader)機能を有する文字認識装置が用いられている。文字認識装置では、例えば、帳票の文字認識をするとき、帳票に記載された文字の位置や文字の種類などを格納した定義体が用いられている。   In recent years, a character recognition device having an OCR (Optical Character Reader) function has been used to recognize characters written on a form (hereinafter also referred to as form character recognition). In the character recognition device, for example, when character recognition is performed on a form, a definition body that stores the position of the character written on the form, the type of character, and the like is used.

また、文字認識装置は、複数種類の帳票の文字認識をする場合、各帳票の文字認識で用いられる定義体に、さらに文字認識をする帳票の種類と帳票が有する特有の図形とを関連付けて格納する。そして、文字認識装置は、帳票の文字認識をするとき、入力された帳票の画像から図形を取得し、複数の定義体の中から取得した図形と同じ図形を格納した定義体を検索する。これにより、文字認識装置は、文字認識する対象の帳票が検索された定義体で示される種類の帳票であると判別する。そして、文字認識装置は、検索された定義体に格納された文字の位置や文字の種類などを用いて、帳票の文字認識をする処理を実行する。   In addition, when recognizing characters of multiple types of forms, the character recognition device stores the definition type used for character recognition of each form by further associating the type of form for character recognition with the specific figure of the form. To do. When the character recognition device recognizes characters in a form, it acquires a figure from the input form image and searches for a definition body that stores the same figure as the acquired figure from among a plurality of definition bodies. As a result, the character recognition device determines that the form for character recognition is the type of form indicated by the searched definition. Then, the character recognition apparatus executes a process for recognizing the character of the form by using the character position and the character type stored in the searched definition body.

関連する技術として、文字認識部によって帳票上に記載された文字を認識したとき、リジェクト率が非常に高い場合にはそのイメージデータをイメージデータ格納部に保存するとともに、認識結果の統計を行う。そして、必要と判断した場合には、フォーマット情報生成部がその帳票のイメージデータを使用してフォーマット情報を自動生成する。また、フォントが異なることによる認識率の低下に対してはフォント情報を再登録する技術が知られている。   As a related technique, when the character written on the form is recognized by the character recognition unit, if the rejection rate is very high, the image data is stored in the image data storage unit and statistics of the recognition result are performed. If it is determined that the format information is necessary, the format information generation unit automatically generates the format information using the image data of the form. Also, a technique for re-registering font information is known for a reduction in recognition rate due to different fonts.

関連する他の技術として、文字認識情報記憶手段には、予め、文字認識を行なう帳票上の対象範囲の位置指定を含む文字認識情報が格納されている。同様に、構文ルール情報記憶手段には、対象範囲の文字列によって表される文字認識項目と対象範囲の文字列についての規定を含む構文ルール情報が格納されている。文字認識手段は、イメージスキャナによって光学的に読み取られた帳票のイメージ情報を入力し、文字認識情報記憶手段から読み出した文字認識情報に基づき、対象範囲のイメージ情報を抽出して文字認識を行なう。文字認識された結果は、構文解析手段に送られる。構文解析手段は、文字認識結果である対象範囲の文字列を構文ルール情報に基づいて解析し、文字認識項目との対応付けを行なう技術が知られている。   As another related technique, the character recognition information storage means stores in advance character recognition information including position designation of a target range on a form for character recognition. Similarly, the syntax rule information storage means stores syntax rule information including a character recognition item represented by a character string in the target range and a rule for the character string in the target range. The character recognition means inputs the image information of the form optically read by the image scanner, extracts the image information of the target range based on the character recognition information read from the character recognition information storage means, and performs character recognition. The result of character recognition is sent to the parsing means. As the syntax analysis means, a technique is known in which a character string in a target range, which is a character recognition result, is analyzed based on syntax rule information and associated with a character recognition item.

関連する他の技術として、画像入力装置で入力され、画像記憶装置に格納された部分画像データは、画像認識処理によって罫線、文字コードに変換され、記憶装置に格納される。記憶装置に格納された部分領域の罫線、文字コードから、書式定義データが作成され、書式記憶装置に格納される。入力部分画像から表単位の書式データを生成し、これらを合成することにより、帳票全体の書式定義データを生成する技術が知られている。   As another related technique, partial image data input by an image input device and stored in the image storage device is converted into ruled lines and character codes by image recognition processing and stored in the storage device. Format definition data is created from the ruled lines and character codes of the partial areas stored in the storage device, and stored in the format storage device. A technique for generating format definition data for the entire form by generating format data for each table from an input partial image and combining them is known.

関連する他の技術として、マスター画像入力部と、データ画像入力部と、マスク領域入力部と、画像整合部と、差分抽出部と、相違度出力部とを備える画像識別装置がある。マスター画像入力部は、第1の画像としてのマスター画像を入力する。データ画像入力部は、第2の画像としてのデータ画像を入力する。マスク領域入力部は、マスター画像に対して指定されるマスク領域の組を入力する。画像整合部は、マスター画像とデータ画像とを整合させる。差分抽出部は、整合されたマスター画像とデータ画像との間で、マスク領域を除いた差分を抽出する。相違度出力部は、抽出された差分の大きさにもとづいてマスター画像とデータ画像との相違度を出力する技術が知られている。   As another related technique, there is an image identification device including a master image input unit, a data image input unit, a mask area input unit, an image matching unit, a difference extraction unit, and a difference degree output unit. The master image input unit inputs a master image as the first image. The data image input unit inputs a data image as the second image. The mask area input unit inputs a set of mask areas designated for the master image. The image matching unit matches the master image and the data image. The difference extraction unit extracts a difference excluding the mask area between the matched master image and the data image. A technique for outputting the difference degree between the master image and the data image based on the extracted difference is known.

関連する他の技術として、被分類帳票から抽出された罫線特徴リストと、帳票様式データベース内の基準帳票の罫線特徴リストとを対応付け、罫線位置の補正量が補正量検出手段により算出され、罫線特徴補正手段で基準帳票の罫線位置の補正がされる。罫線特徴照合手段で、被分類帳票の罫線特徴リストと補正後の基準帳票の罫線特徴リストとを照合し、その類似度を求める。被分類帳票は、最大の類似度を持つ基準帳票と同一の様式として分類される。補正量は、被分類帳票の複数の罫線位置と、比較対照される一つの基準帳票の複数の罫線位置との間の、全ての組合せの対応関係から求められる技術が知られている。(例えば、特許文献1〜5)。   As another related technique, the ruled line feature list extracted from the classified form is associated with the ruled line feature list of the reference form in the form format database, and the correction amount of the ruled line position is calculated by the correction amount detecting means, and the ruled line The ruled line position of the reference form is corrected by the feature correcting means. The ruled line feature collating means collates the ruled line feature list of the classified form with the ruled line feature list of the corrected standard form, and obtains the similarity. The classified form is classified as the same format as the reference form having the maximum similarity. A technique is known in which the correction amount is obtained from the correspondence of all combinations between the plurality of ruled line positions of the classified form and the plurality of ruled line positions of one reference form to be compared. (For example, Patent Documents 1 to 5).

特開平9−73500号公報JP-A-9-73500 特開2004−199529号公報Japanese Patent Laid-Open No. 2004-199529 特開平5−67189号公報JP-A-5-67189 特開2013−61764号公報JP 2013-61764 A 特開2003−109007号公報JP 2003-109007 A

前述した文字認識技術では、例えば、特有の図形を用いて帳票の種類を判別する場合、ユーザが各帳票に記載された図形の中から各帳票に特有の図形を選択し、各帳票で用いられる定義体に選択した図形を予め格納している。したがって、前述した文字認識技術では、文字を認識する対象の帳票の種類が増加すると、定義体を生成する作業が煩雑になることがある。   In the above-described character recognition technology, for example, when the type of a form is determined using a specific figure, the user selects a figure specific to each form from the figures described in each form, and is used in each form. The selected figure is stored in advance in the definition body. Therefore, in the character recognition technology described above, when the types of forms for which characters are to be recognized increases, the task of generating a definition body may become complicated.

本発明は、一側面として、定義体を自動生成する技術を提供する。   As one aspect, the present invention provides a technique for automatically generating a definition body.

本明細書で開示する文字認識装置のひとつに、取得部と、抽出部と、生成部とを有する文字認識装置がある。取得部は、紙面の画像から1以上のアイテムの画像を取得する。抽出部は、取得した1以上のアイテムの画像から、第1サイズ以上のアイテムの画像を抽出する。生成部は、アイテムの画像を取得した紙面の種類と、抽出したアイテムの画像とを関連付けて格納する定義体を生成する。   One of the character recognition devices disclosed in this specification is a character recognition device having an acquisition unit, an extraction unit, and a generation unit. The acquisition unit acquires an image of one or more items from the image on the paper. An extraction part extracts the image of the item of 1st size or more from the acquired image of the 1 or more item. The generation unit generates a definition body that stores the type of the page from which the item image is acquired and the extracted item image in association with each other.

1実施態様によれば、定義体を自動生成することができる。   According to one embodiment, the definition body can be automatically generated.

文字認識装置の一実施例を示す機能ブロック図である。It is a functional block diagram which shows one Example of a character recognition apparatus. 帳票の種類を判別する処理を示すフローチャートである。It is a flowchart which shows the process which discriminate | determines the kind of form. 帳票の種類を判別する処理を示すフローチャートである。It is a flowchart which shows the process which discriminate | determines the kind of form. 定義体を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates a definition body. 定義体を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates a definition body. 定義体を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates a definition body. 定義体を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates a definition body. 定義体を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates a definition body. 定義体を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates a definition body. 帳票の一例を示す図である。It is a figure which shows an example of a form. 帳票の一例を示す図である。It is a figure which shows an example of a form. 帳票判別情報の一例を示す図である。It is a figure showing an example of form discernment information. 文字認識情報の一例を示す図である。It is a figure which shows an example of character recognition information. 判別データの一例を示す図である。It is a figure which shows an example of discrimination | determination data. 取引データの一例を示す図である。It is a figure which shows an example of transaction data. 判別データの一例を示す図である。It is a figure which shows an example of discrimination | determination data. アイテムデータの一例を示す図である。It is a figure which shows an example of item data. 抽出データの一例を示す図である。It is a figure which shows an example of extraction data. 抽出データの一例を示す図である。It is a figure which shows an example of extraction data. 見出しデータの一例を示す図である。It is a figure which shows an example of heading data. 認識領域を説明する図である。It is a figure explaining a recognition area. 認識領域を説明する図である。It is a figure explaining a recognition area. コンピュータ装置の一実施例を示すブロック図である。It is a block diagram which shows one Example of a computer apparatus.

実施形態の文字認識装置について説明する。
図1は、文字認識装置の一実施例を示す機能ブロック図である。
The character recognition device of the embodiment will be described.
FIG. 1 is a functional block diagram showing an embodiment of a character recognition device.

図1を参照して、文字認識装置1について説明する。
文字認識装置1は、制御部10と、記憶部20と、読取部30と、表示部40とを備える。文字認識装置1は、例えば、後述するコンピュータ装置である。
A character recognition device 1 will be described with reference to FIG.
The character recognition device 1 includes a control unit 10, a storage unit 20, a reading unit 30, and a display unit 40. The character recognition device 1 is, for example, a computer device described later.

制御部10は、取得部11と、抽出部12と、生成部13と、認識部14と、判別部15との機能を有する。   The control unit 10 has functions of an acquisition unit 11, an extraction unit 12, a generation unit 13, a recognition unit 14, and a determination unit 15.

取得部11は、紙面の画像から1以上のアイテムの画像を取得する。紙面とは、例えば、帳票、解答用紙、健康診断表、およびアンケート用紙などであり、見出しとデータとが関連付けられて記載されている用紙のことである。アイテムとは、例えば、紙面に記載された図形および文字列である。以下の説明において、文字列とは、1文字以上の文字を含む文言を意味する。   The acquisition unit 11 acquires an image of one or more items from a paper image. The paper is, for example, a form, an answer sheet, a health checkup table, a questionnaire sheet, and the like, and is a sheet on which headings and data are described in association with each other. Items are, for example, figures and character strings written on paper. In the following description, a character string means a word including one or more characters.

抽出部12は、取得した1以上のアイテムの画像から、第1サイズ以上のアイテムの画像を抽出する。第1サイズとは、例えば、紙面の特徴となるアイテムの画像を抽出するときに用いられる閾値である。第1サイズ以上のアイテムの画像とは、例えば、紙面の特徴を示すアイテムの画像である。以下の説明では、紙面の特徴を示すアイテムの画像のことを特徴画像とも言う。   The extraction part 12 extracts the image of the item of 1st size or more from the acquired image of the 1 or more item. The first size is, for example, a threshold value used when extracting an image of an item that is a feature of the paper surface. The image of the item of the first size or larger is, for example, an image of an item that shows the characteristics of the page. In the following description, an item image indicating a feature of a paper surface is also referred to as a feature image.

また、第1サイズは、アイテムの画像の縦幅のサイズと横幅のサイズとを含んでも良い。このとき、抽出部12は、取得した1以上のアイテムの画像から、縦幅のサイズが第1サイズに含まれる縦幅のサイズ以上、および横幅のサイズが第1サイズに含まれる横幅のサイズ以上のアイテムの画像を抽出しても良い。   Further, the first size may include a vertical size and a horizontal size of the item image. At this time, the extraction unit 12 determines from the acquired image of one or more items that the vertical size is equal to or larger than the vertical size included in the first size, and the horizontal width is equal to or larger than the horizontal width included in the first size. Images of items may be extracted.

抽出部12は、取得した1以上のアイテムの画像が1以上の文字列の画像を含むとき、1以上の文字列の画像から、所定の文字サイズ以上の文字を含む第1文字数以上の文字列の画像を抽出する。所定の文字サイズとは、例えば、紙面の特徴となる文字列の画像を抽出するために設定された文字のサイズの閾値である。所定の文字サイズとは、文字の縦幅のサイズと横幅のサイズとを含んでも良い。そして、所定の文字サイズには、第1文字サイズと第1文字サイズよりも小さい第2文字サイズを含んでも良い。第1文字数は、例えば、紙面の特徴となる文字列の画像を抽出するために用いられる閾値である。   When the acquired image of one or more items includes an image of one or more character strings, the extraction unit 12 includes a character string of a first character number or more including characters of a predetermined character size or more from the one or more character string images. Extract images. The predetermined character size is, for example, a character size threshold that is set to extract an image of a character string that is a feature of the page. The predetermined character size may include a vertical size and a horizontal size of the character. The predetermined character size may include a first character size and a second character size smaller than the first character size. The first number of characters is, for example, a threshold value used for extracting an image of a character string that is a feature of the page.

抽出部12は、紙面が有する罫線の配置と同じ罫線の配置と、紙面から第1サイズを用いて抽出したアイテムの画像と同じアイテムの画像とを格納している定義体が記憶部に記憶されているとき、第1サイズよりも小さい第2サイズ以上のアイテムの画像を抽出する。第2サイズは、例えば、紙面の特徴となるアイテムの画像を抽出するときに用いられる閾値である。   The extraction unit 12 stores in the storage unit a definition body that stores the same ruled line layout as the layout of the ruled lines on the page, and the same item image as the item image extracted from the page using the first size. The image of the item of the second size or more smaller than the first size is extracted. The second size is a threshold used when, for example, an image of an item that is a feature of the paper surface is extracted.

抽出部12は、紙面が有する罫線の配置と同じ罫線の配置と、紙面から第1文字数を用いて抽出した文字列の画像と同じ文字列の画像とを格納している定義体が記憶部に記憶されているとき、第1文字数よりも少ない第2文字数以上の文字列の画像を抽出する。第2文字数は、例えば、紙面の特徴となる文字列の画像を抽出するために用いられる閾値である。   The extracting unit 12 stores in the storage unit a definition body that stores the same ruled line layout as the layout of the ruled lines on the page, and the same character string image as the character string image extracted from the page using the first number of characters. When stored, an image of a character string having a second character number or more smaller than the first character number is extracted. The second number of characters is, for example, a threshold used for extracting an image of a character string that is a feature of the page.

生成部13は、アイテムの画像を取得した紙面の種類と抽出したアイテムの画像とを関連付けて格納する定義体を生成する。   The generation unit 13 generates a definition body that stores the type of the page from which the item image is acquired and the extracted item image in association with each other.

生成部13は、アイテムの画像を取得した紙面の種類と、抽出したアイテムの画像と、抽出したアイテムの画像が記載された領域を示す画像領域とを関連付けて格納する定義体を生成する。   The generation unit 13 generates a definition body that associates and stores the type of the paper surface from which the item image is acquired, the extracted item image, and an image area indicating the area in which the extracted item image is described.

生成部13は、アイテムの画像を取得した紙面が有する罫線の配置と、同じ罫線の配置を格納した定義体が記憶部に記憶されていないとき、アイテムの画像を取得した紙面の種類と、抽出したアイテムの画像とを関連付けて格納する定義体を生成する。   The generation unit 13 extracts the ruled line layout of the page from which the item image is acquired and the type of the page from which the item image was acquired when the definition unit storing the same ruled line layout is not stored in the storage unit. A definition body for storing the image of the item in association with the generated image is generated.

生成部13は、項目種に対応する種類のデータが、項目種を示すと認識した文字列の近傍にあるとき、項目種と、項目種に対応する種類のデータが記載された領域を示す認識領域とを関連付けて格納する定義体を生成する。項目種とは、例えば、紙面の見出しの種別のことである。紙面の見出しの種別とは、例えば、紙面が帳票であるとき、銀行名、支店名、預金種目、口座番号、金額、受取人、および依頼人などのことを言う。データの種類とは、例えば、漢字、カナ、英字および数字などの種類のことを言う。以下の説明においては、項目種を示すと認識した文字列のことを見出し文言とも言う。また、項目種に対応するデータのことを項目データとも言う。   When the data of the type corresponding to the item type is in the vicinity of the character string recognized as indicating the item type, the generation unit 13 recognizes the item type and an area in which the type of data corresponding to the item type is described. Generate a definition body that stores an area in association with it. The item type is, for example, the type of heading on the page. The type of the headline on the page means, for example, a bank name, a branch name, a deposit item, an account number, an amount, a payee, and a client when the page is a form. The data type refers to, for example, types such as kanji, kana, alphabetic characters, and numbers. In the following description, a character string recognized as indicating an item type is also referred to as a headline wording. The data corresponding to the item type is also referred to as item data.

生成部13は、データが罫線に囲まれているとき、罫線に囲まれた領域を認識領域にする。   When the data is surrounded by ruled lines, the generation unit 13 sets the area surrounded by the ruled lines as a recognition area.

生成部13は、データが罫線に囲まれていないとき、データを囲み、他の文言を含まない領域を認識領域にする。   When the data is not surrounded by ruled lines, the generation unit 13 surrounds the data and sets an area that does not include other words as a recognition area.

認識部14は、取得した1以上のアイテムの画像が文字列の画像を含むとき、文字列の文言と同じ見出し文言に関連付けられた項目種を見出し情報から検索し、文字列が検索した項目種を示すと認識する。   When the acquired image of one or more items includes an image of a character string, the recognition unit 14 searches the item type associated with the same heading wording as the wording of the character string from the heading information, and the item type searched by the character string Recognize that

判別部15は、取得したアイテムの画像と同じアイテムの画像を格納した定義体を検索し、アイテムを取得した紙面の種類を、検索された定義体に格納された紙面の種類であると判別する。   The determination unit 15 searches for a definition body that stores an image of the same item as the acquired item image, and determines that the type of paper on which the item is acquired is the type of paper stored in the searched definition body. .

判別部15は、取得したアイテムの画像と同じアイテムの画像と、取得したアイテムの画像領域と同じアイテムの画像領域とを関連付けて格納した定義体を検索し、アイテムを取得した紙面の種類を、検索された定義体に格納された紙面の種類であると判別する。   The determination unit 15 searches for a definition body that stores the image of the same item as the acquired item image and the image area of the same item as the acquired item image area in association with each other. It is determined that the type of paper stored in the searched definition body.

また、記憶部20は、定義体情報21と、取引情報22と、判別情報23と、アイテム情報24と、抽出情報25と、見出し情報26と、設定情報27とを記憶する。   The storage unit 20 also stores definition body information 21, transaction information 22, discrimination information 23, item information 24, extraction information 25, heading information 26, and setting information 27.

定義体情報21には、例えば、文字認識をする紙面の種類ごとに、紙面の種別を判別し、紙面の文字認識をするときに用いられる情報を格納した定義体が記憶される。   The definition body information 21 stores, for example, a definition body that stores information used for determining the type of paper for each type of paper for character recognition and for character recognition on the paper.

取引情報22には、例えば、文字認識をする紙面の種類ごとに、紙面から読み取った各項目種に対応するデータに関する情報を格納した取引データが記憶される。   The transaction information 22 stores, for example, transaction data that stores information regarding data corresponding to each item type read from the page for each type of the page on which character recognition is performed.

判別情報23には、例えば、紙面の種類を判別した結果に関する情報を格納した判別データが記憶される。   In the discrimination information 23, for example, discrimination data storing information related to the result of discriminating the type of paper is stored.

アイテム情報24には、例えば、文字認識をする紙面の種類ごとに、紙面から取得部11が取得したアイテムに関する情報を格納したアイテムデータが記憶される。   The item information 24 stores, for example, item data storing information about items acquired by the acquisition unit 11 from the paper for each type of paper on which character recognition is performed.

抽出情報25には、例えば、文字認識をする紙面の種類ごとに、抽出部12が抽出したアイテムを示す情報を格納した抽出データが記憶される。   In the extraction information 25, for example, extraction data storing information indicating items extracted by the extraction unit 12 is stored for each type of paper on which character recognition is performed.

見出し情報26には、例えば、紙面が有する項目種ごとに、使用される見出し文言に関する情報を格納した見出しデータが記憶される。   In the heading information 26, for example, heading data storing information on the heading wording used is stored for each item type on the page.

設定情報27には、例えば、第1サイズ、第2サイズ、第1文字サイズ、第2文字サイズ、第1文字数、および第2文字数などの設定情報が記憶される。   The setting information 27 stores setting information such as a first size, a second size, a first character size, a second character size, a first character number, and a second character number.

読取部30は、紙面の画像を取得する。読取部30は、例えば、スキャナでも良い。そして、読取部30は、光学的に紙面の画像を読み取る機能を有する。   The reading unit 30 acquires a paper image. The reading unit 30 may be a scanner, for example. The reading unit 30 has a function of optically reading a paper image.

表示部40は、制御部10から入力された情報を表示する。
文字認識装置1について、さらに詳細に説明する。
The display unit 40 displays information input from the control unit 10.
The character recognition device 1 will be described in more detail.

以下の説明では、文字認識装置1が文字認識をする紙面の一例として、帳票を用いて説明する。ただし、文字認識装置1は、帳票に限定されるものではなく、見出しとデータとが関連付けられて記載された各種紙面の文字認識に適用することができる。   In the following description, a form is used as an example of a paper surface on which the character recognition device 1 performs character recognition. However, the character recognition device 1 is not limited to a form, and can be applied to character recognition on various types of paper on which headings and data are described in association with each other.

図2、図3は、帳票の種類を判別する処理を示すフローチャートである。
図2、図3を参照して、帳票の種類を判別する処理を説明する。また、図2、図3を参照して、項目データを認識する処理を説明する。
2 and 3 are flowcharts showing processing for determining the type of form.
With reference to FIG. 2 and FIG. 3, processing for determining the type of form will be described. The process for recognizing item data will be described with reference to FIGS.

以下の説明では、記憶部20には、予め定義体情報21と、見出し情報26と、設定情報27とが記憶されているものとする。そして、帳票は、例えば、ユーザにより読取部30に設置されているものとする。また、読取部30は、後述する帳票100の画像を読み取ったものとして説明する。文字認識装置1による図形、文字列、および罫線の認識は、例えば、OCR機能などを用いて実行しても良い。さらに、文字認識装置1は、例えば、各種データに識別子や名称を付与するとき、乱数を用いたアルゴリズムや所定の演算を用いたアルゴリズムなどを使用して任意の識別子や名称を付与しても良い。   In the following description, it is assumed that the definition unit information 21, the heading information 26, and the setting information 27 are stored in the storage unit 20 in advance. The form is assumed to be installed in the reading unit 30 by the user, for example. The reading unit 30 will be described as having read an image of a form 100 described later. Recognition of a figure, a character string, and a ruled line by the character recognition device 1 may be performed using, for example, an OCR function. Furthermore, for example, when the identifier or name is assigned to various data, the character recognition device 1 may assign an arbitrary identifier or name using an algorithm using a random number or an algorithm using a predetermined calculation. .

図2を参照して説明する。
読取部30は、図10に示す帳票100の画像を読み取る(S101)。そして、読取部30は、帳票100の画像を取得部11に出力する。
This will be described with reference to FIG.
The reading unit 30 reads the image of the form 100 shown in FIG. 10 (S101). Then, the reading unit 30 outputs the image of the form 100 to the acquisition unit 11.

図10を参照して、読取部30で読み取られた帳票100について説明する。
図10は、帳票の一例を示す図である。
The form 100 read by the reading unit 30 will be described with reference to FIG.
FIG. 10 is a diagram illustrating an example of a form.

帳票100には、図10に示すように、項目種を示す見出し文言として、銀行名、支店名、預金種目、口座番号、振込額、受取人、および依頼人が記載されている。そして、銀行名、支店名、預金種目、口座番号、振込額、受取人、および依頼人は、それぞれ銀行名、支店名、種目、口座番号、金額、受取人、および依頼人の項目種を示す見出し文言である。また、帳票100は、第1サイズ以上のサイズを有するアイテムとして、図形SH1、SH3および文字列CH1、CH2を含む。さらに、帳票100は、第1サイズよりも小さく、第2サイズ以上のサイズを有するアイテムとして、図形SH5および文字列CH3を含む。   As shown in FIG. 10, the form 100 includes a bank name, a branch name, a deposit type, an account number, a transfer amount, a payee, and a client as headline words indicating item types. The bank name, branch name, deposit type, account number, transfer amount, payee, and client indicate the item name of the bank name, branch name, item, account number, amount, payee, and client, respectively. It is a headline wording. The form 100 includes figures SH1 and SH3 and character strings CH1 and CH2 as items having a size equal to or larger than the first size. Furthermore, the form 100 includes a graphic SH5 and a character string CH3 as items having a size smaller than the first size and equal to or larger than the second size.

図2を参照して説明する。
取得部11は、読取部30から帳票100の画像が入力されると、帳票100の画像に含まれる罫線の配置を取得する(S102)。そして、取得部11は、判別部15に取得した罫線の配置を出力する。
This will be described with reference to FIG.
When the image of the form 100 is input from the reading unit 30, the acquisition unit 11 acquires the arrangement of ruled lines included in the image of the form 100 (S102). Then, the acquisition unit 11 outputs the acquired ruled line arrangement to the determination unit 15.

図11を参照して、取得部11による罫線の配置を取得する処理について説明する。
図11は、帳票の一例を示す図である。図11は、図10で示した帳票100の一部の領域を拡大した図である。以下の説明では、罫線L1の配置を取得する処理について説明する。取得部11は、その他の罫線(例えば、図11に示す罫線L2〜L7)についても同様に、罫線の配置を取得する。ただし、取得部11が罫線の配置を取得する方法は、以下に説明する方法に限定するものではない。
With reference to FIG. 11, processing for acquiring the arrangement of ruled lines by the acquisition unit 11 will be described.
FIG. 11 is a diagram illustrating an example of a form. FIG. 11 is an enlarged view of a part of the form 100 shown in FIG. In the following description, a process for acquiring the arrangement of the ruled line L1 will be described. The acquisition unit 11 similarly acquires the arrangement of ruled lines for other ruled lines (for example, ruled lines L2 to L7 shown in FIG. 11). However, the method by which the acquisition unit 11 acquires the arrangement of ruled lines is not limited to the method described below.

取得部11は、例えば、OCR機能を用いて、帳票100の画像から罫線L1を抽出する。そして、取得部11は、罫線L1の配置として、罫線座標(A1、B1)−(A2、B1)を取得する。罫線座標(A1、B1)−(A2、B1)は、帳票100上に設定された座標(A1、B1)と座標(A2、B1)とを結ぶ直線が罫線L1であることを示す情報である。座標(A1、B1)は、例えば、罫線L1の始点の座標である。また、座標(A2、B1)は、例えば、罫線L1の終点の座標である。   The acquisition unit 11 extracts the ruled line L1 from the image of the form 100 using, for example, the OCR function. And the acquisition part 11 acquires ruled line coordinate (A1, B1)-(A2, B1) as arrangement | positioning of the ruled line L1. Ruled line coordinates (A1, B1)-(A2, B1) are information indicating that a straight line connecting coordinates (A1, B1) and coordinates (A2, B1) set on the form 100 is a ruled line L1. . The coordinates (A1, B1) are, for example, the coordinates of the starting point of the ruled line L1. The coordinates (A2, B1) are, for example, the coordinates of the end point of the ruled line L1.

図2を参照して説明する。
判別部15は、取得部11から帳票100の罫線の配置が入力されると、定義体情報21に記憶されている定義体を参照して、帳票100と同じ罫線の配置を格納した定義体(以下、罫線が一致する定義体とも言う。)があるか否かを判定する(S103)。このとき、判別部15は、例えば、取得部11からの帳票100に記載された各罫線の罫線座標の入力を受け付け、入力された罫線座標と定義体情報21に記憶されている各定義体の罫線座標との一致判定をする。これにより、判別部15は、帳票100と罫線が一致する定義体があるか否かを判定しても良い。
This will be described with reference to FIG.
When the arrangement of the ruled lines of the form 100 is input from the acquisition unit 11, the determination unit 15 refers to the definition body stored in the definition body information 21 and defines the definition body (the same arrangement of the ruled lines as the form 100 ( Hereinafter, it is determined whether or not there is a definition body with matching ruled lines (S103). At this time, for example, the determination unit 15 receives an input of ruled line coordinates of each ruled line described in the form 100 from the acquiring unit 11, and receives the input ruled line coordinates and the definition body information stored in the definition object information 21. Judgment of coincidence with ruled line coordinates. Accordingly, the determination unit 15 may determine whether there is a definition body in which the form 100 and the ruled line match.

図12、図13を参照して、定義体に格納されている情報を説明する。
図12は、帳票判別情報の一例を示す図である。図13は、文字認識情報の一例を示す図である。定義体には、図12に示す帳票判別情報200と、図13に示す文字認識情報201とが格納されている。以下の説明では、一例として、帳票100に対応する定義体に格納された情報について説明する。ただし、定義体が格納する情報は、帳票判別情報200、および文字認識情報201に限定されるものではなく、文字認識装置1が紙面の種別を判別し、紙面の文字認識をするときに用いられる情報を格納すれば良い。また、文字認識装置1は、文字認識をする他の帳票についても、同形式の定義体を格納しても良い。
Information stored in the definition body will be described with reference to FIGS.
FIG. 12 is a diagram illustrating an example of the form determination information. FIG. 13 is a diagram illustrating an example of character recognition information. In the definition body, form discrimination information 200 shown in FIG. 12 and character recognition information 201 shown in FIG. 13 are stored. In the following description, information stored in a definition body corresponding to the form 100 will be described as an example. However, the information stored in the definition body is not limited to the form discrimination information 200 and the character recognition information 201, and is used when the character recognition device 1 discriminates the type of the page and recognizes the character on the page. Information only needs to be stored. Further, the character recognition device 1 may store a definition body of the same format for other forms for character recognition.

帳票判別情報200には、図12に示すように、帳票種類と、罫線情報と、特徴情報とが関連付けられて格納されている。   As shown in FIG. 12, the form discriminating information 200 stores the form type, ruled line information, and feature information in association with each other.

帳票種類には、帳票100の種類を示す帳票識別子を格納する。帳票Nは、帳票100の種類を示す帳票識別子である。   In the form type, a form identifier indicating the type of the form 100 is stored. The form N is a form identifier indicating the type of the form 100.

罫線情報は、罫線識別子と、罫線座標とを関連付けて格納する。罫線識別子は、帳票100に記載された各罫線を識別する情報を示す。なお、罫線識別子は、文字認識装置1が罫線情報を生成するときに、各レコードに付与しても良い。   The ruled line information is stored in association with ruled line identifiers and ruled line coordinates. The ruled line identifier indicates information for identifying each ruled line described in the form 100. The ruled line identifier may be assigned to each record when the character recognition device 1 generates ruled line information.

特徴情報は、特徴識別子と、画像領域と、特徴画像とを関連付けて格納する。
特徴識別子は、帳票100に記載された各特徴画像を識別する情報を示す。なお、特徴識別子は、文字認識装置1が特徴情報を生成するときに、各レコードに付与しても良い。
The feature information stores a feature identifier, an image area, and a feature image in association with each other.
The feature identifier indicates information for identifying each feature image described in the form 100. The feature identifier may be given to each record when the character recognition device 1 generates feature information.

画像領域は、帳票100において、特徴画像が記載されている領域を示す。特徴識別子SH1に対応する画像領域(C3、D3)−(C4、D4)は、例えば、図11に示すように、図形SH1を囲む矩形の左上の座標(C3、D3)と右下の座標(C4、D4)とを示す。そして、画像領域(C3、D3)−(C4、D4)は、左上の座標(C3、D3)と右下の座標(C4、D4)とを結ぶ線を対角線とする矩形を示す情報として用いられる。なお、画像領域が示す矩形は、例えば、特徴画像を囲む矩形の中で最小の矩形としても良い。   The image area indicates an area where a feature image is described in the form 100. The image regions (C3, D3)-(C4, D4) corresponding to the feature identifier SH1 are, for example, as shown in FIG. 11, the upper left coordinates (C3, D3) and lower right coordinates (C3, D3) of the rectangle surrounding the figure SH1. C4, D4). The image areas (C3, D3)-(C4, D4) are used as information indicating a rectangle having a diagonal line connecting the upper left coordinates (C3, D3) and the lower right coordinates (C4, D4). . Note that the rectangle indicated by the image area may be, for example, the smallest rectangle among the rectangles surrounding the feature image.

特徴画像は、帳票100に特有のアイテムの画像データである。特徴画像IM2は、例えば、画像領域(C3、D3)−(C4、D4)で示される領域を切り出した図形1の画像データである。   The feature image is image data of an item unique to the form 100. The feature image IM2 is, for example, image data of the graphic 1 obtained by cutting out the area indicated by the image areas (C3, D3)-(C4, D4).

文字認識情報201には、図13に示すように、項目種と、認識領域と、データ種と、最大桁数とが帳票種類に関連付けられて格納されている。   In the character recognition information 201, as shown in FIG. 13, the item type, the recognition area, the data type, and the maximum number of digits are stored in association with the form type.

認識領域とは、帳票100において、項目種に対応する項目データが記載されている領域を示す情報である。銀行名(項目種)に対応する認識領域(G1、H1)−(G2、H2)は、図11に示すように、銀行名に対応する項目データである南多摩を囲む矩形の左上の座標(G1、H1)と右下の座標(G2、H2)とを示す。これにより、認識領域(G1、H1)−(G2、H2)は、左上の座標(G1、H1)と右下の座標(G2、H2)とを結ぶ線を対角線とする矩形を示す情報として用いられる。なお、認識領域が示す矩形は、例えば、項目データを囲む矩形の中で最小の矩形としても良い。   The recognition area is information indicating an area in which item data corresponding to an item type is described in the form 100. As shown in FIG. 11, the recognition area (G1, H1)-(G2, H2) corresponding to the bank name (item type) is a coordinate (upper left corner of the rectangle surrounding Minami Tama, which is item data corresponding to the bank name). G1, H1) and lower right coordinates (G2, H2) are shown. Thereby, the recognition areas (G1, H1)-(G2, H2) are used as information indicating a rectangle whose diagonal line is a line connecting the upper left coordinates (G1, H1) and the lower right coordinates (G2, H2). It is done. Note that the rectangle indicated by the recognition area may be, for example, the smallest rectangle among the rectangles surrounding the item data.

最大桁数とは、項目データの最大の文字数を示す情報である。そして、認識部14は、帳票100の文字認識をするとき、例えば、項目種に関連付けられた最大文字数よりも多い文字数を用いたデータを項目データとして認識しない。   The maximum number of digits is information indicating the maximum number of characters of item data. And the recognition part 14 does not recognize the data using more characters than the maximum number of characters linked | related with the item kind as item data, for example, when performing the character recognition of the form 100. FIG.

図2を参照して説明する。
判別部15は、帳票100と同じ罫線の配置を格納した定義体が定義体情報21に記憶されていないとき(S103にてNo)、帳票100の種類を罫線の一致する定義体がない新規の帳票であると判別する(S104)。そして、判別部15は、後述するS206の処理を実行する。
This will be described with reference to FIG.
When the definition body that stores the same ruled line arrangement as the form 100 is not stored in the definition body information 21 (No in S103), the determination unit 15 determines that the type of the form 100 has no definition body that matches the ruled line. It is determined that it is a form (S104). Then, the determination unit 15 executes a process of S206 described later.

図3を参照して説明する。
判別部15は、帳票100と同じ罫線の配置を格納した定義体(以下、罫線が一致する定義体とも言う。)が定義体情報21に記憶されているとき(S103にてYes)、罫線が一致する定義体に格納されている各特徴画像の画像領域を取得する(S201)。
This will be described with reference to FIG.
When the definition body storing the same ruled line arrangement as the form 100 (hereinafter, also referred to as a definition body with matching ruled lines) is stored in the definition body information 21 (Yes in S103), the determination unit 15 The image area of each feature image stored in the matching definition body is acquired (S201).

判別部15は、帳票100からS201で取得した画像領域に記載された各アイテムの画像を取得する(S202)。なお、判別部15は、紙面に記載されたアイテム画像と定義体に格納されている特徴画像とが同じ画像であっても、互いの画像領域が異なっているとき、紙面から特徴画像と同じアイテムの画像を取得しない。また、判別部15は、紙面に記載されたアイテム画像と定義体に格納されている特徴画像とが同じ画像であり、互いの画像領域が同じとき、紙面から特徴画像と同じアイテムの画像を取得する。   The determination unit 15 acquires an image of each item described in the image area acquired in S201 from the form 100 (S202). Note that, even if the item image described on the page and the feature image stored in the definition body are the same image, the determination unit 15 determines the same item as the feature image from the page when the image areas are different from each other. Do not get the image. In addition, when the item image described on the paper and the feature image stored in the definition body are the same image and the image areas are the same, the determination unit 15 obtains an image of the same item as the feature image from the paper. To do.

そして、判別部15は、S202で取得した各アイテムの画像と、定義体に格納された各特徴画像とがそれぞれ一致(以下、特徴画像が一致するとも言う。)しているか否かを判定する(S203)。すなわち、判別部15は、S201〜S203を実行することにより、取得したアイテムの画像と同じ特徴画像と、取得したアイテムの画像領域と同じ特徴画像の画像領域とを関連付けて格納した定義体があるか否かを判定している。   Then, the determination unit 15 determines whether the image of each item acquired in S202 matches each feature image stored in the definition body (hereinafter also referred to as the feature image matches). (S203). In other words, the determination unit 15 executes S201 to S203, so that there is a definition body in which the same feature image as the acquired item image and the image region of the same feature image as the acquired item image are associated and stored. It is determined whether or not.

判別部15は、S202で取得した各アイテムの画像と、定義体に格納された各特徴画像とが全て一致しないとき(S203にてNo)、帳票100の種類を罫線が一致する定義体はあるが、罫線が一致する定義体と特徴画像が一致しない新規の帳票であると判別する(S204)。そして、判別部15は、後述するS206の処理を実行する。   When the image of each item acquired in S202 does not match all the feature images stored in the definition body (No in S203), the determination unit 15 has a definition body in which the ruled line matches the type of the form 100. However, it is determined that the definition form matches the ruled line and the new form does not match the feature image (S204). Then, the determination unit 15 executes a process of S206 described later.

判別部15は、S202で取得した各アイテムの画像と、定義体に格納された各特徴画像とが全て一致しているとき(S203にてYes)、帳票100の種類を既存の帳票であると判別する(S205)。   When the image of each item acquired in S202 and each feature image stored in the definition body all match (Yes in S203), the determination unit 15 determines that the type of the form 100 is an existing form. A determination is made (S205).

なお、判別部15は、S103において、帳票100と罫線の一致する定義体が、定義体情報21に複数格納されていると判定したとき、各罫線の一致した定義体について、S201〜S205の処理を実行しても良い。   Note that when the determination unit 15 determines in S103 that a plurality of definition bodies that match the form 100 and the ruled line are stored in the definition object information 21, the processing of S201 to S205 is performed on the definition bodies that match the ruled lines. May be executed.

そして、判別部15は、帳票100の帳票識別子(帳票N)と、帳票100の画像データ(SPn)と、帳票100の種類の判別結果(新規:罫線不一致)とを関連付けて判別データに格納する(S206)。このとき、判別部15は、乱数を用いて任意の帳票識別子を生成し、帳票100の画像と関連付けて格納しても良い。   Then, the determination unit 15 associates the form identifier (form N) of the form 100, the image data (SPn) of the form 100, and the determination result (new: ruled line mismatch) of the form 100 and stores them in the determination data. (S206). At this time, the determination unit 15 may generate an arbitrary form identifier using a random number and store it in association with the image of the form 100.

図14を参照して、判別データに格納されている情報を説明する。
図14は、判別データの一例を示す図である。
With reference to FIG. 14, the information stored in the discrimination data will be described.
FIG. 14 is a diagram illustrating an example of the discrimination data.

判別データ300には、図14に示すように、帳票識別子と、帳票画像と、判別結果と、取引識別子と、罫線一致帳票とが関連付けられて格納されている。   As shown in FIG. 14, the discrimination data 300 stores a form identifier, a form image, a discrimination result, a transaction identifier, and a ruled line matching form in association with each other.

帳票画像には、帳票の画像データが格納されている。帳票の画像データとは、読取部30で読み取られた帳票の画像データである。   The form image stores image data of the form. The form image data is image data of the form read by the reading unit 30.

判別結果は、帳票の種類の判別結果を示す情報である。既存とは、帳票に記載されている罫線とアイテムの画像とアイテムの画像領域とに、一致する罫線と特徴画像と特徴画像の画像領域とを格納した定義体が定義体情報21に記憶されていることを示す。新規:罫線不一致とは、帳票に記載されている罫線と、罫線が一致する定義体が定義体情報21に記憶されていないことを示す。新規:特徴不一致とは、帳票に記載されている罫線と、罫線の一致する定義体が定義体情報21に記憶されているが、罫線の一致する定義体に格納された特徴画像の画像領域に対応する帳票上の領域に、特徴画像と一致するアイテムが記載されていないことを示す。   The discrimination result is information indicating the discrimination result of the form type. “Existing” means that a definition body that stores ruled lines, feature images, and image areas of feature images stored in the definition body information 21 is stored in ruled lines, item images, and item image areas described in the form. Indicates that New: ruled line mismatch indicates that the ruled line described in the form and the definition body that matches the ruled line are not stored in the definition body information 21. New: Feature mismatch means that a ruled line described in a form and a definition that matches the ruled line are stored in the definition body information 21, but an image area of the feature image stored in the definition that matches the ruled line This indicates that no item matching the feature image is described in the corresponding area on the form.

取引識別子とは、取引情報22から、帳票に対応する取引データを検索するときに用いられる識別子である。なお、文字認識装置1は、判別データ300を生成するときに、各レコードに、対応する取引データを示す取引識別子を付与しても良い。   The transaction identifier is an identifier used when searching for transaction data corresponding to the form from the transaction information 22. In addition, when the character recognition apparatus 1 produces | generates the discrimination | determination data 300, you may provide the transaction identifier which shows corresponding transaction data to each record.

罫線一致帳票とは、帳票識別子で示される帳票と罫線が一致する定義体の帳票識別子である。   The ruled line matching form is a form identifier of a definition that matches the form indicated by the form identifier and the ruled line.

図3を参照して説明する。
認識部14は、帳票100の画像から取引データを取得する(S207)。
This will be described with reference to FIG.
The recognition unit 14 acquires transaction data from the image of the form 100 (S207).

図15を参照して、取引データに格納されている情報を説明する。
図15は、取引データの一例を示す図である。
With reference to FIG. 15, information stored in the transaction data will be described.
FIG. 15 is a diagram illustrating an example of transaction data.

取引データ400には、図15に示すように、帳票種類と、取引識別子と、項目種と、項目データとが関連付けられて格納されている。なお、取引データ400は、一例として、帳票100の記載に対応する取引結果を示している。   As shown in FIG. 15, the transaction data 400 stores a form type, a transaction identifier, an item type, and item data in association with each other. Note that the transaction data 400 shows a transaction result corresponding to the description of the form 100 as an example.

取引データ400は、帳票種類と、取引識別子と、項目種と、項目データとを格納している。   The transaction data 400 stores a form type, a transaction identifier, an item type, and item data.

取引識別子は、各帳票の取引データを識別するための情報である。なお、取引識別子は、文字認識装置1が取引データを生成するときに、各レコードに付与しても良い。   The transaction identifier is information for identifying transaction data of each form. In addition, you may provide a transaction identifier to each record, when the character recognition apparatus 1 produces | generates transaction data.

ただし、取引データ400が格納する情報は、帳票種類と、取引識別子と、項目種と、項目データとに限定されるものではなく、文字認識装置1が紙面から認識した取引結果に関する情報を格納すれば良い。また、文字認識装置1は、文字認識する他の帳票についても、同形式の取引データを格納しても良い。   However, the information stored in the transaction data 400 is not limited to the form type, the transaction identifier, the item type, and the item data, but stores information related to the transaction result recognized by the character recognition device 1 from the page. It ’s fine. The character recognition device 1 may store transaction data of the same format for other forms for character recognition.

図13、図15を参照して、S207において、認識部14が取引データ400を取得する処理を説明する。   With reference to FIG. 13, FIG. 15, the process in which the recognition part 14 acquires the transaction data 400 in S207 is demonstrated.

以下の説明では、一例として、帳票100に対応する取引データ400に格納された情報を用いて説明する。   In the following description, an example will be described using information stored in the transaction data 400 corresponding to the form 100.

認識部14は、図13に示す文字認識情報201に格納されている各認識領域を取得する。そして、認識部14は、帳票100の画像を検索し、各認識領域の示す位置に記載された項目データを取得し、それぞれの項目データを項目種に関連付けて取引データ400に格納する。   The recognition unit 14 acquires each recognition area stored in the character recognition information 201 illustrated in FIG. Then, the recognition unit 14 searches the image of the form 100, acquires item data described at the position indicated by each recognition area, and stores each item data in the transaction data 400 in association with the item type.

認識部14は、帳票100が汚れているなどして、帳票100の画像から取得できない項目データがあるとき、表示部40に帳票100の画像を表示し、ユーザに取引データ400への値の入力を促しても良い。これにより、ユーザは、表示部40に表示された帳票100の画像を参照しながら、取引データ400に認識部14が取得できなかった項目種の項目データを格納しても良い。   When there is item data that cannot be acquired from the image of the form 100 because the form 100 is dirty or the like, the recognition unit 14 displays the image of the form 100 on the display unit 40 and inputs a value to the transaction data 400 to the user. May be encouraged. Thereby, the user may store item data of item types that the recognition unit 14 could not acquire in the transaction data 400 while referring to the image of the form 100 displayed on the display unit 40.

さらに、認識部14は、定義体情報21に、帳票100に対応する文字認識情報201を格納した定義体が記憶されていないとき、表示部40に帳票100の画像を表示し、ユーザに取引データ400への値の入力を促しても良い。これにより、ユーザは、表示部40に表示された帳票100の画像を参照しながら、取引データ400に各項目種に対応する項目データを入力しても良い。   Further, the recognizing unit 14 displays the image of the form 100 on the display unit 40 and displays the transaction data to the user when the definition body that stores the character recognition information 201 corresponding to the form 100 is not stored in the definition body information 21. The input of a value to 400 may be prompted. Thus, the user may input item data corresponding to each item type in the transaction data 400 while referring to the image of the form 100 displayed on the display unit 40.

なお、認識部14は、各項目データを認識するとき、文字認識情報201において、項目種に関連付けられているデータ種を参照し、文字認識の対象となるデータの種類に対応した文字認識アルゴリズムを用いて文字認識を実行しても良い。さらに、認識部14は、各項目データを認識するとき、文字認識情報201において、項目種に関連付けられている最大桁数を参照し、最大桁数以下の文字数のデータのみを認識しても良い。これにより、認識部14は、文字認識の精度を向上することができる。   When recognizing each item data, the recognizing unit 14 refers to the data type associated with the item type in the character recognition information 201, and determines a character recognition algorithm corresponding to the type of data to be subjected to character recognition. May be used to perform character recognition. Further, when recognizing each item data, the recognizing unit 14 may refer to the maximum number of digits associated with the item type in the character recognition information 201 and recognize only the data having the number of characters equal to or less than the maximum number of digits. . Thereby, the recognition part 14 can improve the precision of character recognition.

図3を参照して説明する。
認識部14は、帳票100の帳票識別子(帳票N)と関連付けて取引データ400の取引識別子(TRn)を判別データ301に格納する(S208)。これにより、認識部14は、図16の判別データ301に示すように、帳票100の判別結果に対応するレコードを生成する。なお、図16は、S206、およびS208の処理により、帳票100の判別結果に対応する、帳票識別子(帳票N)、帳票画像(SPn)、判別結果(新規:罫線不一致)、および取引識別子(TRn)を格納したレコードを含む判別データ301を示している。
This will be described with reference to FIG.
The recognition unit 14 stores the transaction identifier (TRn) of the transaction data 400 in the discrimination data 301 in association with the form identifier (form N) of the form 100 (S208). As a result, the recognition unit 14 generates a record corresponding to the determination result of the form 100 as indicated by the determination data 301 in FIG. In FIG. 16, the forms identifier (form N), the form image (SPn), the discrimination result (new: ruled line mismatch), and the transaction identifier (TRn) corresponding to the discrimination result of the form 100 are obtained by the processing of S206 and S208. The discriminating data 301 including the record that stores) is shown.

以上により、文字認識装置1は、帳票100の種類を判別する処理と、帳票100に記載されている各項目データを認識する処理とを実行する。   As described above, the character recognition device 1 executes the process of determining the type of the form 100 and the process of recognizing each item data described in the form 100.

図4〜図9は、定義体を生成する処理を示すフローチャートである。
図4〜図6は、帳票判別情報200を生成する処理を示すフローチャートである。図7〜図9は、文字認識情報201を生成する処理を示すフローチャートである。
4 to 9 are flowcharts showing processing for generating a definition body.
4 to 6 are flowcharts showing processing for generating the form discrimination information 200. FIG. 7 to 9 are flowcharts showing processing for generating the character recognition information 201.

図4〜図6を参照して、帳票判別情報200を生成する処理を説明する。
以下の説明では、文字認識装置1が図2、図3を用いて説明した帳票の種類を判別する処理を実行し、文字認識の対象とする各帳票の判別結果を含む判別データ301が生成されているものとする。また、以下の説明では、帳票100の定義体を生成する処理を一例として示す。なお、文字認識装置1は、他の帳票に関しても、以下で説明する処理を実行することにより、帳票判別情報を生成しても良い。
With reference to FIGS. 4-6, the process which produces | generates the document discrimination | determination information 200 is demonstrated.
In the following description, the character recognition device 1 executes the process of determining the form type described with reference to FIGS. 2 and 3, and the determination data 301 including the determination result of each form that is the object of character recognition is generated. It shall be. Further, in the following description, a process for generating a definition body of the form 100 is shown as an example. Note that the character recognition device 1 may generate the form discrimination information by executing the processing described below for other forms.

取得部11は、判別データ301からレコードを取得する(S301)。このとき、取得部11は、帳票Nに対応するレコードを取得したものとする。   The acquisition unit 11 acquires a record from the discrimination data 301 (S301). At this time, the acquisition unit 11 acquires a record corresponding to the form N.

取得部11は、S301で取得したレコードに含まれる帳票画像を取得する(S302)。   The acquisition unit 11 acquires a form image included in the record acquired in S301 (S302).

そして、取得部11は、S302で取得した帳票画像に含まれるアイテムの画像を取得し、アイテムデータに格納する(S303)。取得部11は、例えば、アイテムの画像を取得する帳票が帳票100のとき、OCR機能を用いて、図10に示す帳票100に記載されている図形および文字列の画像領域を切り出したアイテムの画像を取得しても良い。   Then, the acquisition unit 11 acquires the image of the item included in the form image acquired in S302 and stores it in the item data (S303). For example, when the form from which the item image is acquired is the form 100, the acquisition unit 11 uses the OCR function to extract the image area of the item and the graphic and character strings described in the form 100 illustrated in FIG. You may get

図17は、アイテムデータの一例を示す図である。
アイテムデータ500は、一例として、帳票100に対応するアイテムデータを示す。
FIG. 17 is a diagram illustrating an example of item data.
The item data 500 indicates item data corresponding to the form 100 as an example.

アイテムデータ500には、図17に示すように、帳票種類と、アイテム識別子と、アイテム名と、画像領域と、アイテム画像とが関連付けられて格納されている。   In the item data 500, as shown in FIG. 17, a form type, an item identifier, an item name, an image area, and an item image are stored in association with each other.

アイテム識別子は、帳票100に記載されている各アイテムを識別する情報である。なお、アイテム識別子は、文字認識装置1がアイテムデータを生成するときに、各レコードに付与しても良い。   The item identifier is information for identifying each item described in the form 100. The item identifier may be assigned to each record when the character recognition device 1 generates item data.

アイテム名とは、帳票100に記載されている各アイテムの名称を示す情報である。アイテム名には、例えば、アイテムが文字列のとき、認識部14が認識した文字列を格納しても良い。   The item name is information indicating the name of each item described in the form 100. In the item name, for example, when the item is a character string, a character string recognized by the recognition unit 14 may be stored.

画像領域とは、帳票100において、アイテムが記載されている領域を示す。アイテム識別子SH1に対応する画像領域(C3、D3)−(C4、D4)は、例えば、図11に示すように、図形SH1を囲む矩形の左上の座標(C3、D3)と右下の座標(C4、D4)とを示す。これにより、画像領域(C3、D3)−(C4、D4)は、左上の座標(C3、D3)と右下の座標(C4、D4)とを結ぶ線を対角線とする矩形を示す情報として用いられる。なお、画像領域が示す矩形は、例えば、アイテムを囲む矩形の中で最小の矩形としても良い。   The image area indicates an area in which an item is described in the form 100. The image regions (C3, D3)-(C4, D4) corresponding to the item identifier SH1 are, for example, as shown in FIG. 11, the upper left coordinates (C3, D3) and the lower right coordinates (C3, D3) of the rectangle surrounding the figure SH1. C4, D4). Thus, the image areas (C3, D3)-(C4, D4) are used as information indicating a rectangle whose diagonal line is a line connecting the upper left coordinates (C3, D3) and the lower right coordinates (C4, D4). It is done. Note that the rectangle indicated by the image area may be, for example, the smallest rectangle among the rectangles surrounding the item.

アイテム画像とは、帳票100に記載されたアイテムの画像データである。アイテム画像IM2は、例えば、画像領域(C3、D3)−(C4、D4)で示される領域を切り出した図形1の画像データである。   The item image is image data of an item described in the form 100. The item image IM2 is, for example, the image data of the graphic 1 obtained by cutting out the area indicated by the image areas (C3, D3)-(C4, D4).

図4を参照して説明する。
取得部11は、S301で取得したレコードに含まれる判別結果は新規か否かを判定する(S304)。
This will be described with reference to FIG.
The acquisition unit 11 determines whether or not the determination result included in the record acquired in S301 is new (S304).

取得部11は、S301で取得したレコードに含まれる判別結果が新規でない(既存である)とき(S304にてNo)、後述するS601の処理を実行する。   When the determination result included in the record acquired in S301 is not new (existing) (No in S304), the acquiring unit 11 executes the process of S601 described later.

取得部11は、S301で取得したレコードに含まれる判別結果が新規であるとき(S304にてYes)、S301で取得したレコードに含まれる判別結果が罫線不一致であるか否かを判定する(S305)。   When the determination result included in the record acquired in S301 is new (Yes in S304), the acquisition unit 11 determines whether the determination result included in the record acquired in S301 is a ruled line mismatch (S305). ).

取得部11は、S301で取得したレコードに含まれる判別結果が罫線不一致でないとき(S305にてNo)、罫線が一致した帳票に対応する定義体を参照し、罫線座標を取得する(S306)。そして、取得部11は、取得した罫線座標を生成部13に出力する。生成部13は、後述するS308の処理を実行する。   When the determination result included in the record acquired in S301 does not match the ruled line (No in S305), the acquiring unit 11 refers to the definition body corresponding to the form with the matched ruled line and acquires the ruled line coordinates (S306). Then, the acquisition unit 11 outputs the acquired ruled line coordinates to the generation unit 13. The generation unit 13 executes a process of S308 described later.

取得部11は、S301で取得したレコードに含まれる判別結果が罫線不一致のとき(S305にてYes)、帳票画像に含まれる罫線座標を取得する(S307)。そして、取得部11は、取得した罫線座標を生成部13に出力する。このとき、取得部11は、例えば、帳票が帳票100のとき、OCR機能を用いて図11に示す帳票100に記載されている罫線座標を取得しても良い。なお、帳票100(帳票識別子:帳票N)は、図16の判別データ301に示すように、罫線一致帳票がないので、S305にてYesの場合に該当する。   When the determination result included in the record acquired in S301 does not match the ruled line (Yes in S305), the acquiring unit 11 acquires the ruled line coordinates included in the form image (S307). Then, the acquisition unit 11 outputs the acquired ruled line coordinates to the generation unit 13. At this time, for example, when the form is the form 100, the obtaining unit 11 may obtain the ruled line coordinates described in the form 100 shown in FIG. 11 using the OCR function. Note that the form 100 (form identifier: form N) corresponds to the case of Yes in S305 because there is no ruled line matching form as shown in the discrimination data 301 of FIG.

そして、生成部13は、罫線座標が入力されると、罫線情報に罫線識別子と、取得した罫線座標とを関連付けて格納する新規の定義体を生成する(S308)。なお、生成部13は、例えば、帳票100の定義体を生成するとき、図12に示す帳票判別情報200の罫線識別子、および罫線座標に示す情報を定義体に格納しても良い。定義体の帳票種類に格納する帳票識別子は、S301で取得したレコードに含まれる帳票識別子を格納しても良い。帳票100の場合には、例えば、帳票種類に帳票Nを格納しても良い。   When the ruled line coordinates are input, the generating unit 13 generates a new definition body that stores the ruled line identifier and the acquired ruled line coordinates in association with the ruled line information (S308). For example, when generating the definition body of the form 100, the generation unit 13 may store the ruled line identifier of the form determination information 200 illustrated in FIG. 12 and information indicated by the ruled line coordinates in the definition body. The form identifier stored in the form type of the definition body may store the form identifier included in the record acquired in S301. In the case of the form 100, for example, the form N may be stored in the form type.

生成部13は、生成した新規の定義体を定義体情報21に記憶する(S309)。
図5を参照して説明する。
The generation unit 13 stores the generated new definition body in the definition body information 21 (S309).
This will be described with reference to FIG.

抽出部12は、設定情報27から第1サイズを取得する。そして、抽出部12は、アイテムデータ500に格納した画像領域を検索し、縦幅のサイズが第1サイズに含まれる縦幅のサイズ以上、および横幅のサイズが第1サイズに含まれる横幅のサイズ以上のアイテムの画像を抽出する(S401)。また、抽出部12は、アイテムデータ500に格納されたアイテムが文字列のとき、第1文字サイズを用いて、縦幅のサイズが第1文字サイズに含まれる縦幅のサイズ以上、および横幅のサイズが第1文字サイズに含まれる横幅のサイズ以上のアイテムの画像を抽出しても良い。   The extraction unit 12 acquires the first size from the setting information 27. Then, the extraction unit 12 searches the image area stored in the item data 500, and the vertical size is equal to or larger than the vertical size included in the first size, and the horizontal size includes the horizontal size included in the first size. The image of the above item is extracted (S401). In addition, when the item stored in the item data 500 is a character string, the extraction unit 12 uses the first character size and the vertical size is equal to or larger than the vertical width included in the first character size, and the horizontal width You may extract the image of the item more than the size of the width included in the 1st character size.

そして、抽出部12は、抽出したアイテムの画像が文字列の画像であるか否かを判定する(S402)。   Then, the extracting unit 12 determines whether or not the extracted item image is a character string image (S402).

抽出部12は、抽出した抽出したアイテムの画像が文字列の画像でない(図形である)とき(S402にてNo)、後述するS404の処理を実行する。   When the extracted image of the extracted item is not a character string image (a graphic) (No in S402), the extraction unit 12 executes the process of S404 described later.

抽出部12は、抽出したアイテムの画像が文字列の画像であるとき(S402にてYes)、文字列の画像に含まれる文字数が第1文字数以上か否かを判定する(S403)。   When the extracted item image is a character string image (Yes in S402), the extraction unit 12 determines whether the number of characters included in the character string image is equal to or greater than the first character number (S403).

抽出部12は、文字列の画像に含まれる文字数が第1文字数以上でないとき(S403にてNo)、後述するS406の処理を実行する。   When the number of characters included in the image of the character string is not equal to or greater than the first character number (No in S403), the extracting unit 12 performs the process of S406 described later.

抽出部12は、文字列の画像に含まれる文字数が第1文字数以上であるとき(S403にてYes)、S404の処理を実行する。すなわち、抽出部12は、S401で抽出したアイテムの画像が文字列の画像の場合、文字列の文字数が第1文字数以上であるとき、文字列の画像を特徴画像の候補として抽出する。   When the number of characters included in the character string image is greater than or equal to the first number of characters (Yes in S403), the extraction unit 12 executes the process of S404. That is, when the image of the item extracted in S401 is a character string image, the extraction unit 12 extracts the character string image as a feature image candidate when the number of characters in the character string is equal to or greater than the first character number.

さらに、生成部13は、アイテムデータから抽出したアイテムを含むレコードを取得する(S404)。   Furthermore, the production | generation part 13 acquires the record containing the item extracted from item data (S404).

そして、生成部13は、S404で取得したレコードを抽出データに格納する(S405)。   And the production | generation part 13 stores the record acquired by S404 in extraction data (S405).

図18は、抽出データの一例を示す図である。
抽出データ600には、図18に示すように、アイテム識別子と、アイテム名と、画像領域と、アイテム画像とが関連付けられて格納されている。なお、抽出データ600は、帳票100に対応するデータである。抽出データ600には、帳票100に記載されたアイテムの画像から、第1サイズ以上のアイテムの画像を抽出した結果が格納されている。すなわち、抽出データ600には、帳票100の特徴画像の候補が格納されている。
FIG. 18 is a diagram illustrating an example of extracted data.
In the extracted data 600, as shown in FIG. 18, an item identifier, an item name, an image area, and an item image are stored in association with each other. The extracted data 600 is data corresponding to the form 100. The extracted data 600 stores a result of extracting an image of an item of the first size or more from an item image described in the form 100. That is, the extracted data 600 stores feature image candidates for the form 100.

そして、抽出部12は、アイテムデータに格納された画像領域について、全て検索が終了したか否かを判定する(S406)。すなわち、抽出部12は、第1サイズ以上のアイテムを全て抽出したか否かを判定する。   Then, the extraction unit 12 determines whether or not the search has been completed for all image regions stored in the item data (S406). That is, the extraction unit 12 determines whether all items of the first size or larger have been extracted.

抽出部12は、アイテムデータに格納された画像領域について、全て検索していないとき(S406にてNo)、S401の処理を実行する。   When all the image areas stored in the item data are not searched (No in S406), the extraction unit 12 performs the process of S401.

抽出部12は、アイテムデータに格納された画像領域について、全て検索したとき(S406にてYes)、S501の処理を実行する。すなわち、抽出部12は、帳票から全ての特徴画像の候補となるアイテムの画像を抽出したとき、S501の処理を実行する。   When all the image areas stored in the item data are searched (Yes in S406), the extraction unit 12 executes the process of S501. That is, the extraction unit 12 executes the processing of S501 when images of items that are candidates for all feature images are extracted from the form.

図6を参照して説明する。
生成部13は、S301で取得したレコードに含まれる判別結果が罫線不一致か否かを判定する(S501)。
This will be described with reference to FIG.
The generation unit 13 determines whether the determination result included in the record acquired in S301 is a ruled line mismatch (S501).

生成部13は、S301で取得したレコードに含まれる判別結果が罫線不一致のとき(S501にてYes)、抽出データの各レコードを新規の定義体に格納する(S502)。生成部13は、例えば、S308において生成した帳票100の定義体に、図18に示す抽出データ600のアイテム識別子、画像領域、およびアイテム画像を、それぞれ図12に示す帳票判別情報200のアイテム識別子、画像領域、および特徴画像に格納する。すなわち、生成部13は、S308とS502とを実行することで、帳票100の定義体について、帳票判別情報200を生成する。そして、後述するS601の処理を実行する。   When the determination result included in the record acquired in S301 does not match the ruled line (Yes in S501), the generation unit 13 stores each record of the extracted data in a new definition body (S502). For example, the generation unit 13 adds the item identifier, the image area, and the item image of the extracted data 600 illustrated in FIG. 18 to the definition body of the form 100 generated in S308, respectively, the item identifier of the form determination information 200 illustrated in FIG. Store in the image area and feature image. That is, the generation unit 13 generates the form determination information 200 for the definition body of the form 100 by executing S308 and S502. And the process of S601 mentioned later is performed.

生成部13は、S301で取得したレコードに含まれる判別結果が罫線一致のとき(S501にてNo)、罫線一致帳票に対応する定義体に格納されている画像領域と、抽出したアイテムの画像領域とが一致するか否かを判定する(S503)。このとき、生成部13は、読取部30による読取り誤差などを考慮して、所定の誤差を設定し、誤差の範囲内であれば罫線一致帳票に対応する定義体に格納されている画像領域と、抽出したアイテムの画像領域とが一致していると判定しても良い。なお、罫線一致帳票に対応する定義体とは、例えば、S301で取得したレコードに含まれる罫線一致帳票に格納された帳票識別子に対応する定義体である。   When the determination result included in the record acquired in S301 is a ruled line match (No in S501), the generation unit 13 stores the image area stored in the definition body corresponding to the ruled line match form, and the image area of the extracted item Is matched (S503). At this time, the generation unit 13 sets a predetermined error in consideration of a reading error by the reading unit 30 and the image region stored in the definition body corresponding to the ruled line matching form if within the error range. Alternatively, it may be determined that the image area of the extracted item matches. The definition body corresponding to the ruled line matching form is, for example, a definition body corresponding to the form identifier stored in the ruled line matching form included in the record acquired in S301.

生成部13は、罫線一致帳票に対応する定義体に格納されている画像領域と、抽出したアイテムの画像領域とが一致しないとき(S503にてNo)、S502の処理を実行する。このとき、生成部13は、S502において、罫線一致帳票に対応する定義体に格納された罫線情報と、S401〜S406の処理において生成した抽出データを格納した特徴情報とを関連付けて格納した新規の定義体を生成する。   When the image area stored in the definition body corresponding to the ruled line matching form does not match the image area of the extracted item (No in S503), the generation unit 13 executes the process of S502. At this time, in S502, the generation unit 13 associates the ruled line information stored in the definition body corresponding to the ruled line matching form with the feature information storing the extracted data generated in the processes of S401 to S406, and stores the new information. Generate a definition body.

生成部13は、罫線一致帳票に対応する定義体に格納されている画像領域と、抽出したアイテムの画像領域とが一致するとき(S503にてYes)、罫線一致帳票に対応する定義体に格納されている特徴画像と、抽出したアイテムの画像が一致するか否かを判定する(S504)。   When the image area stored in the definition body corresponding to the ruled line matching form matches the image area of the extracted item (Yes in S503), the generation unit 13 stores the definition area corresponding to the ruled line matching form. It is determined whether or not the feature image being made matches the image of the extracted item (S504).

生成部13は、罫線一致帳票に対応する定義体に格納されている特徴画像と、抽出したアイテムの画像とが一致しないとき(S504にてNo)、S502の処理を実行する。このとき、生成部13は、S502において、罫線一致帳票に対応する定義体に格納された罫線情報と、S401〜S406の処理において生成した抽出データを格納した特徴情報とを関連付けて格納した新規の定義体を生成する。   When the feature image stored in the definition body corresponding to the ruled line matching form does not match the extracted item image (No in S504), the generation unit 13 executes the process of S502. At this time, in S502, the generation unit 13 associates the ruled line information stored in the definition body corresponding to the ruled line matching form with the feature information storing the extracted data generated in the processes of S401 to S406, and stores the new information. Generate a definition body.

生成部13は、罫線一致帳票に対応する定義体に格納されている特徴画像と、抽出したアイテムの画像とが一致するとき(S504にてYes)、未使用のサイズの閾値と、未使用の文字数の閾値とが設定情報27に格納されているか否かを判定する(S505)。ここで、未使用のサイズの閾値とは、例えば、第1サイズをS401で使用していたとき、設定情報27に格納されている第1サイズよりも小さい第2サイズのことである。また、未使用の文字数の閾値とは、例えば、第1文字数をS403で使用していたとき、設定情報27に格納されている第1文字数よりも少ない第2文字数のことである。   When the feature image stored in the definition body corresponding to the ruled line matching form matches the extracted item image (Yes in S504), the generation unit 13 determines the unused size threshold value and the unused size image. It is determined whether the threshold value for the number of characters is stored in the setting information 27 (S505). Here, the unused size threshold is, for example, a second size smaller than the first size stored in the setting information 27 when the first size is used in S401. The unused character count threshold is, for example, the second character count that is smaller than the first character count stored in the setting information 27 when the first character count is used in S403.

生成部13は、未使用のサイズの閾値と、未使用の文字数の閾値とが設定情報27に格納されていないとき(S505にてNo)、後述するS601の処理を実行する。このとき、生成部13は、定義体を生成する処理をエラーとして終了しても良い。また、生成部13は、表示部40にエラー情報と、帳票の画像を表示させ、ユーザに対して手入力による帳票判別情報200の生成を促しても良い。そして、生成部13は、ユーザが帳票判別情報200を生成したあと、後述するS601の処理を実行しても良い。   When the unused size threshold value and the unused character count threshold value are not stored in the setting information 27 (No in S505), the generation unit 13 executes the process of S601 described later. At this time, the generation unit 13 may end the process of generating the definition body as an error. The generation unit 13 may display error information and a form image on the display unit 40 and prompt the user to generate the form determination information 200 by manual input. Then, after the user generates the form determination information 200, the generation unit 13 may execute the process of S601 described later.

生成部13は、未使用のサイズの閾値と、文字数の閾値とが設定情報27に格納されているとき(S505にてYes)、サイズの閾値、および文字数の閾値とを変更し、S401〜S406の処理を実行する(S506)。   The generation unit 13 changes the size threshold and the character count threshold when the unused size threshold and the character count threshold are stored in the setting information 27 (Yes in S505). The process is executed (S506).

図19は、抽出データの一例を示す図である。
図10、図18および図19を参照して、S506において、サイズの閾値と文字数の閾値とを変更したときの抽出データを説明する。以下の説明では、生成部13は、サイズの閾値を第1サイズから第2サイズに変更し、文字数の閾値を第1文字数から第2文字数に変更したものとする。そして、第1文字数は、例えば、5文字であるものとする。また、第2文字数は、例えば、2文字であるものとする。
FIG. 19 is a diagram illustrating an example of extracted data.
The extracted data when the size threshold and the character count threshold are changed in S506 will be described with reference to FIG. 10, FIG. 18, and FIG. In the following description, it is assumed that the generation unit 13 changes the size threshold value from the first size to the second size, and changes the character number threshold value from the first character number to the second character number. The first number of characters is assumed to be 5 characters, for example. In addition, the second number of characters is assumed to be two characters, for example.

図18に示す抽出データ600は、帳票100において、抽出部12が第1サイズと第1文字数とを用いてアイテムの画像を抽出したときの抽出データである。抽出データ600には、抽出部12によって抽出された、第1サイズ以上の大きさである図形SH1、図形SH3が格納される。さらに、抽出データ600には、抽出部12によって抽出された、第1サイズ以上の大きさであり、かつ第1文字数(5文字)以上の文字数を有する文字列の画像である払込取扱表(CH2)が格納される。   The extracted data 600 shown in FIG. 18 is extracted data when the extracting unit 12 extracts an image of an item using the first size and the first number of characters in the form 100. The extracted data 600 stores the figures SH1 and SH3 that are extracted by the extracting unit 12 and have a size equal to or larger than the first size. Further, in the extracted data 600, a payment handling table (CH2) which is an image of a character string having a size equal to or larger than the first size and having a number of characters equal to or larger than the first number of characters (5 characters) extracted by the extracting unit 12. ) Is stored.

図19に示す抽出データ600は、帳票100において、抽出部12が第2サイズと第2文字数とを用いてアイテムの画像を抽出したときの抽出データである。抽出データ600には、抽出部12によって抽出された、第2サイズ以上の大きさである図形SH1、図形SH3、図形SH5が格納される。さらに、抽出データ600には、抽出部12によって抽出された、第2サイズ以上の大きさであり、かつ第2文字数(2文字)以上の文字数を有する文字列の画像である東京(CH1)と払込取扱表(CH2)とが格納される。   The extracted data 600 illustrated in FIG. 19 is extracted data when the extracting unit 12 extracts an image of an item using the second size and the second number of characters in the form 100. The extracted data 600 stores a figure SH1, a figure SH3, and a figure SH5 that are extracted by the extraction unit 12 and have a size equal to or larger than the second size. Furthermore, the extracted data 600 includes Tokyo (CH1), which is an image of a character string having a size equal to or larger than the second size and having a number of characters equal to or larger than the second number (2 characters) extracted by the extraction unit 12. A payment handling table (CH2) is stored.

なお、生成部13は、S505において、未使用のサイズの閾値、および文字数の閾値のいずれか1以上が設定情報27に記憶されているとき、S506において、サイズの閾値、および文字数の閾値のいずれか1以上を変更しても良い。また、生成部13は、第1文字サイズよりも小さいサイズである第2文字サイズが設定情報27に記憶されているとき、S506において、第1文字サイズを第2文字サイズに変更しても良い。   In S505, when one or more of the unused size threshold and the character count threshold is stored in the setting information 27, the generation unit 13 determines in S506 which of the size threshold and the character count threshold. Or one or more may be changed. In addition, when the second character size that is smaller than the first character size is stored in the setting information 27, the generation unit 13 may change the first character size to the second character size in S506. .

以上により、文字認識装置1は、帳票判別情報200を生成する処理を終了する。続いて、文字認識装置1は、文字認識情報201を生成する処理を実行する。   Thus, the character recognition device 1 ends the process of generating the form discrimination information 200. Subsequently, the character recognition device 1 executes processing for generating the character recognition information 201.

図7〜図9を参照して、文字認識情報201を生成する処理を説明する。
図7を参照して説明する。以下の説明では、帳票100の文字認識情報201の生成を一例として説明する。なお、文字認識装置1は、他の帳票に関しても、以下で説明する処理を実行することにより、文字認識情報を生成しても良い。
Processing for generating the character recognition information 201 will be described with reference to FIGS.
This will be described with reference to FIG. In the following description, generation of the character recognition information 201 of the form 100 will be described as an example. Note that the character recognition device 1 may generate character recognition information for other forms by executing the processing described below.

生成部13は、アイテムデータ500から文字列(アイテム名)を取得する(S601)。生成部13は、後述するS604の処理に続いて、S601の処理を実行するとき、未取得の文字列をアイテムデータ500から取得しても良い。   The generation unit 13 acquires a character string (item name) from the item data 500 (S601). The generation unit 13 may acquire an unacquired character string from the item data 500 when executing the process of S601 following the process of S604 described later.

そして、生成部13は、見出しデータ700を検索し、S601で取得した文字列と同じ見出し文言があるか否かを判定する(S602)。   Then, the generation unit 13 searches the heading data 700 and determines whether or not there is the same heading wording as the character string acquired in S601 (S602).

図20は、見出しデータの一例を示す図である。
見出しデータ700は、見出し識別子と、項目種と、見出し文言と、データ種と、最大桁数とを記憶している。
FIG. 20 is a diagram illustrating an example of heading data.
The heading data 700 stores a heading identifier, item type, heading wording, data type, and maximum number of digits.

見出し識別子とは、各見出しを識別するための情報である。
生成部13は、見出しデータ700を検索し、S601で取得した文字列と同じ見出し文言があるとき(S602にてYes)、文字列が見出し文言に関連付けられた項目種を示す見出しであると認識する(S603)。そして、生成部13は、項目種を示す見出し文言として、文字列を設定情報27に格納する。これにより、設定情報27には、各項目種と、対応する見出し文言が関連付けられて記憶される。そして、生成部13は、S604の処理を実行する。
The heading identifier is information for identifying each heading.
The generation unit 13 searches the heading data 700, and when there is the same heading wording as the character string acquired in S601 (Yes in S602), the generation unit 13 recognizes that the character string is a heading indicating the item type associated with the heading wording. (S603). Then, the generation unit 13 stores the character string in the setting information 27 as the headline wording indicating the item type. Thereby, in the setting information 27, each item type and the corresponding headline wording are stored in association with each other. And the production | generation part 13 performs the process of S604.

生成部13は、見出しデータ700を検索し、S602で取得した文字列と同じ見出し文言がないとき(S602にてNo)、S604の処理を実行する。   The generation unit 13 searches the heading data 700, and when there is no heading wording that is the same as the character string acquired in S602 (No in S602), executes the processing of S604.

生成部13は、S601において、アイテムデータ500の全ての文字列を取得したか否かを判定する(S604)。   The generation unit 13 determines whether all the character strings of the item data 500 have been acquired in S601 (S604).

生成部13は、S601において、アイテムデータ500の全ての文字列を取得していないとき(S604にてNo)、S601の処理を実行する。   When the generation unit 13 has not acquired all the character strings of the item data 500 in S601 (No in S604), the generation unit 13 executes the process of S601.

生成部13は、S601において、アイテムデータ500の全ての文字列を取得したとき(S604にてYes)、S701の処理を実行する。このとき、生成部13は、帳票100に記載されている項目種に対応する見出し文言を全て認識したものとする。なお、生成部13は、帳票100に記載されている項目種に対応する見出し文言を全て認識できないとき、定義体を生成する処理をエラーとして終了しても良い。このとき、生成部13は、表示部40にエラー情報を表示させることにより、ユーザに対して手入力による定義体の生成を促しても良い。   When the generating unit 13 acquires all the character strings of the item data 500 in S601 (Yes in S604), the generating unit 13 executes the process of S701. At this time, the generation unit 13 recognizes all the headline wordings corresponding to the item types described in the form 100. Note that when the generation unit 13 cannot recognize all the headline wordings corresponding to the item types described in the form 100, the generation unit 13 may end the process of generating the definition body as an error. At this time, the generation unit 13 may prompt the user to generate a definition body manually by displaying error information on the display unit 40.

図8を参照して説明する。
生成部13は、アイテムデータ500から文字列(アイテム名)を取得する(S701)。生成部13は、後述するS703の処理に続いて、S701の処理を実行するとき、未取得の文字列をアイテムデータ500から取得しても良い。
This will be described with reference to FIG.
The generation unit 13 acquires a character string (item name) from the item data 500 (S701). The generation unit 13 may acquire an unacquired character string from the item data 500 when executing the processing of S701 following the processing of S703 described later.

生成部13は、取引データ400にS701で取得した文字列と同じ文字列を示す項目データがあるか否かを判定する(S702)。   The generation unit 13 determines whether there is item data indicating the same character string as the character string acquired in S701 in the transaction data 400 (S702).

生成部13は、取引データ400にS701で取得した文字列と同じ文字列を示す項目データがないとき(S702にてNo)、S701においてアイテムデータ500の全ての文字列を取得したか否かを判定する(S703)。   When there is no item data indicating the same character string as the character string acquired in S701 in the transaction data 400 (No in S702), the generation unit 13 determines whether or not all the character strings of the item data 500 are acquired in S701. Determination is made (S703).

生成部13は、S701においてアイテムデータ500の全ての文字列を取得していないとき(S703にてNo)、S701の処理を実行する。   When the generation unit 13 has not acquired all the character strings of the item data 500 in S701 (No in S703), the generation unit 13 performs the process of S701.

生成部13は、S701において、アイテムデータ500の全ての文字列を取得したとき(S703にてYes)、定義体を生成する処理を終了する。このとき、生成部13は、後述するS805において、全ての項目種に対応するレコードを生成していないと判定されている場合、定義体を生成する処理をエラーとして終了しても良い。そして、生成部13は、表示部40にエラー情報と、生成していない文字認識情報201のレコードとを表示させ、ユーザに対して手入力による定義体の生成を促しても良い。   When the generation unit 13 acquires all the character strings of the item data 500 in S701 (Yes in S703), the generation unit 13 ends the process of generating the definition body. At this time, if it is determined in S805, which will be described later, that the records corresponding to all the item types have not been generated, the generation unit 13 may end the process of generating the definition body as an error. Then, the generation unit 13 may cause the display unit 40 to display error information and a record of the character recognition information 201 that has not been generated, and prompt the user to generate a definition body by manual input.

S702において、生成部13は、取引データ400にS701で取得した文字列と同じ文字列を示す項目データがあるとき(S702にてYes)、取引データ400から同じ文字列を示す項目データに関連付けられた項目種を取得する(S704)。   In S702, when the transaction data 400 includes item data indicating the same character string as the character string acquired in S701 (Yes in S702), the generation unit 13 is associated with item data indicating the same character string from the transaction data 400. The obtained item type is acquired (S704).

生成部13は、設定情報27を参照して、S704で取得した項目種を示す見出し文言を取得する(S705)。   The generation unit 13 refers to the setting information 27 and acquires a headline wording indicating the item type acquired in S704 (S705).

そして、生成部13は、S701で取得した文字列が、S705で取得した項目種を示す見出し文言の近傍にあるか否かを判定する(S706)。生成部13は、例えば、アイテムデータ500から、S705で取得した項目種を示す見出し文言に対応する画像領域を取得し、S701で取得した文字列に対応する画像領域との位置関係を判定する。これにより、生成部13は、S701で取得した文字列が、S705で取得した項目種を示す見出しの近傍にあるか否かを判定する。見出しの近傍とは、例えば、紙面の種類や見出し種別により異なる。見出しの近傍とは、紙面が帳票100であるとき、例えば、見出しの下、右下、および右側にある所定の領域のことを言う。   Then, the generation unit 13 determines whether the character string acquired in S701 is in the vicinity of the headline wording indicating the item type acquired in S705 (S706). For example, the generation unit 13 acquires an image area corresponding to the headline wording indicating the item type acquired in S705 from the item data 500, and determines the positional relationship with the image area corresponding to the character string acquired in S701. Thereby, the generation unit 13 determines whether or not the character string acquired in S701 is near the heading indicating the item type acquired in S705. The vicinity of a headline differs depending on, for example, the type of paper and the type of headline. The vicinity of the heading means, for example, a predetermined area under the heading, the lower right, and the right side when the paper surface is the form 100.

生成部13は、S701で取得した文字列が、S705で取得した項目種を示す見出しの近傍にないとき(S706にてNo)、S703の処理を実行する。   When the character string acquired in S701 is not in the vicinity of the heading indicating the item type acquired in S705 (No in S706), the generation unit 13 executes the process of S703.

生成部13は、S701で取得した文字列が、S705で取得した項目種を示す見出しの近傍にあるとき(S706にてYes)、文字列が項目種に対応する項目データであると認識する(S707)。   When the character string acquired in S701 is in the vicinity of the heading indicating the item type acquired in S705 (Yes in S706), the generation unit 13 recognizes that the character string is item data corresponding to the item type ( S707).

なお、生成部13は、S706において、S705で取得した見出し文言に対応するデータ種を見出しデータ700から取得しても良い。そして、生成部13は、取得したデータ種がS701で取得した文字列の種類に対応するとき、S707の処理を実行しても良い。また、生成部13は、取得したデータ種がS701で取得した文字列の種類に対応しないとき、S703の処理を実行しても良い。   Note that the generation unit 13 may acquire the data type corresponding to the headline wording acquired in S705 from the headline data 700 in S706. Then, the generation unit 13 may execute the process of S707 when the acquired data type corresponds to the character string type acquired in S701. Further, the generation unit 13 may execute the process of S703 when the acquired data type does not correspond to the character string type acquired in S701.

生成部13は、S707で項目データと認識した文字列を囲む認識領域を取得する(S708)。そして、S801の処理を実行する。   The generation unit 13 acquires a recognition area surrounding the character string recognized as item data in S707 (S708). Then, the process of S801 is executed.

図21、および図22は、認識領域を説明する図である。
図21を参照して、認識領域の設定について説明する。以下の説明においては、項目種(金額)に対応する見出し文言(振込額)について、対応する項目データの認識領域を設定する処理について説明する。
21 and 22 are diagrams illustrating the recognition area.
The setting of the recognition area will be described with reference to FIG. In the following description, processing for setting a recognition area for corresponding item data for a headline wording (transfer amount) corresponding to an item type (amount) will be described.

生成部13は、図21に示すように、項目データ800が罫線に囲まれているとき、項目データ800を囲む罫線の左上の座標(G9、H9)と、右下の座標(G10、H10)とを取得する。これにより、生成部13は、左上の座標(G9、H9)と右下の座標(G10、H10)とを結ぶ線を対角線とする矩形を示す画像領域(G9、H9)−(G10、H10)を取得する。そして、生成部13は、取得した画像領域(G9、H9)−(G10、H10)を項目データ800の認識をする認識領域に設定する。   As shown in FIG. 21, when the item data 800 is surrounded by ruled lines, the generation unit 13 coordinates the upper left corner (G9, H9) and the lower right coordinates (G10, H10) of the ruled line surrounding the item data 800. And get. Thereby, the generation unit 13 displays an image area (G9, H9)-(G10, H10) indicating a rectangle having a diagonal line connecting the upper left coordinates (G9, H9) and the lower right coordinates (G10, H10). To get. Then, the generation unit 13 sets the acquired image region (G9, H9) − (G10, H10) as a recognition region for recognizing the item data 800.

生成部13は、図22(a)に示すように、項目データ801が罫線に囲まれていないとき、図22(b)に示すように、項目データ801を囲み、他の文言を含まない領域を囲む矩形を生成する。そして、生成部13は、生成した矩形の左上の座標(G9、H9)と、矩形の右下の座標(G10、H10)とを取得する。これにより、生成部13は、左上の座標(G9、H9)と右下の座標(G10、H10)とを結ぶ線を対角線とする矩形を示す画像領域(G9、H9)−(G10、H10)を取得する。そして、生成部13は、取得した画像領域(G9、H9)−(G10、H10)を項目データ800の認識をする認識領域に設定する。なお、認識領域が示す矩形は、例えば、項目データを囲む矩形の中で最小の矩形としても良い。   When the item data 801 is not surrounded by ruled lines as shown in FIG. 22A, the generation unit 13 surrounds the item data 801 and does not include other words as shown in FIG. 22B. Creates a rectangle that encloses Then, the generation unit 13 acquires the upper left coordinates (G9, H9) of the generated rectangle and the lower right coordinates (G10, H10) of the rectangle. Thereby, the generation unit 13 displays an image area (G9, H9)-(G10, H10) indicating a rectangle having a diagonal line connecting the upper left coordinates (G9, H9) and the lower right coordinates (G10, H10). To get. Then, the generation unit 13 sets the acquired image region (G9, H9) − (G10, H10) as a recognition region for recognizing the item data 800. Note that the rectangle indicated by the recognition area may be, for example, the smallest rectangle among the rectangles surrounding the item data.

図9を参照して説明する。
生成部13は、S301で取得したレコードに含まれる判別結果が新規であるか否かを判定する(S801)。
This will be described with reference to FIG.
The generation unit 13 determines whether or not the determination result included in the record acquired in S301 is new (S801).

生成部13は、S301で取得したレコードに含まれる判別結果が新規であるとき(S801にてYes)、文字認識情報201に、S704で取得した項目種に対応するレコードを生成する。そして、生成部13は、S704で取得した項目種と関連付けて、S708で取得した認識領域を文字認識情報201に格納する(S802)。   When the determination result included in the record acquired in S301 is new (Yes in S801), the generation unit 13 generates a record corresponding to the item type acquired in S704 in the character recognition information 201. Then, the generation unit 13 stores the recognition area acquired in S708 in the character recognition information 201 in association with the item type acquired in S704 (S802).

生成部13は、見出しデータ700を検索し、S704で取得した項目種を含むレコードを取得する(S803)。   The generation unit 13 searches the heading data 700 and acquires a record including the item type acquired in S704 (S803).

生成部13は、取得したレコードに含まれる情報を文字認識情報201に格納する(S804)。すなわち、生成部13は、S704で取得した項目種を含むレコードから、データ種、および最大桁数を取得し、取得した情報をS704で取得した項目種に関連付けて文字認識情報201に格納する。   The generation unit 13 stores the information included in the acquired record in the character recognition information 201 (S804). That is, the generation unit 13 acquires the data type and the maximum number of digits from the record including the item type acquired in S704, and stores the acquired information in the character recognition information 201 in association with the item type acquired in S704.

そして、生成部13は、全ての項目種に対応するレコードを生成したか否かを判定する(S805)。   Then, the generation unit 13 determines whether records corresponding to all item types have been generated (S805).

生成部13は、全ての項目種に対応するレコードを生成していないとき(S805にてNo)、S701の処理を実行する。   When the generation unit 13 has not generated records corresponding to all the item types (No in S805), the generation unit 13 executes the process of S701.

生成部13は、全ての項目種に対応するレコードを生成したとき(S805にてYes)、定義体を生成する処理を終了する。   When the generation unit 13 generates records corresponding to all item types (Yes in S805), the generation unit 13 ends the process of generating the definition body.

S801において、生成部13は、S301で取得したレコードに含まれる判別結果が既存であるとき(S801にてNo)、S301で取得したレコードに含まれる罫線一致帳票に対応する定義体から、S704で取得した項目種に関連付けられた認識領域(以下、既存の認識領域とも言う。)を取得する。そして、生成部13は、S708で取得した認識領域と、既存の認識領域とが異なるか否かを判定する(S806)。   In S801, when the determination result included in the record acquired in S301 already exists (No in S801), the generation unit 13 determines from the definition corresponding to the ruled line matching form included in the record acquired in S301 in S704. A recognition area associated with the acquired item type (hereinafter also referred to as an existing recognition area) is acquired. Then, the generation unit 13 determines whether or not the recognition area acquired in S708 is different from the existing recognition area (S806).

生成部13は、S708で取得した認識領域と、既存の認識領域とが同じとき(S806にてNo)、S805の処理を実行する。   When the recognition area acquired in S708 is the same as the existing recognition area (No in S806), the generation unit 13 executes the process of S805.

生成部13は、S708で取得した認識領域と、既存の認識領域とが異なるとき(S806にてYes)、既存の帳票の文字認識情報201に格納された認識領域をS708で取得した認識領域に更新する(S807)。そして、生成部13は、S805の処理を実行する。これにより、生成部13は、既存の帳票において、項目データの認識領域のみが変更されたとき、既存の帳票に対応する定義体の認識領域を自動で更新する。   When the recognition area acquired in S708 is different from the existing recognition area (Yes in S806), the generation unit 13 changes the recognition area stored in the character recognition information 201 of the existing form to the recognition area acquired in S708. Update (S807). Then, the generation unit 13 executes the process of S805. As a result, when only the item data recognition area is changed in the existing form, the generation unit 13 automatically updates the definition area recognition area corresponding to the existing form.

図23は、コンピュータ装置の一実施例を示すブロック図である。
図23を参照して、文字認識装置1の構成について説明する。
FIG. 23 is a block diagram illustrating an embodiment of a computer device.
The configuration of the character recognition device 1 will be described with reference to FIG.

図23において、コンピュータ装置900は、制御回路901と、記憶装置902と、読書装置903と、記録媒体904と、通信インターフェイス905(通信I/F)と、入出力インターフェイス906(入出力I/F)と、表示装置907とネットワーク908とを備えている。また、各構成要素は、バス909により接続されている。   23, a computer device 900 includes a control circuit 901, a storage device 902, a reading device 903, a recording medium 904, a communication interface 905 (communication I / F), and an input / output interface 906 (input / output I / F). ), A display device 907, and a network 908. Each component is connected by a bus 909.

制御回路901は、コンピュータ装置900全体の制御をする。そして、制御回路901は、例えば、CPU、マルチコアCPU、FPGA(Field Programmable Gate Array)およびPLD(Programmable Logic Device)などである。制御回路901は、例えば、図1において、制御部10として機能する。なお、CPU、FPGA、およびPLDのキャッシュは、例えば、図1に示す設定情報27を記憶しても良い。   The control circuit 901 controls the entire computer device 900. The control circuit 901 is, for example, a CPU, a multi-core CPU, an FPGA (Field Programmable Gate Array), a PLD (Programmable Logic Device), or the like. For example, the control circuit 901 functions as the control unit 10 in FIG. Note that the CPU, FPGA, and PLD cache may store, for example, the setting information 27 shown in FIG.

記憶装置902は、各種データを記憶する。そして、記憶装置902は、例えば、ROM(Read Only Memory)およびRAM(Random Access Memory)などのメモリや、HD(Hard Disk)などで構成される。記憶装置902は、例えば、図1において、記憶部20として機能する。そして、記憶装置902は、例えば、図1に示す、定義体情報21と、取引情報22と、判別情報23と、アイテム情報24と、抽出情報25と、見出し情報26と、設定情報27とを記憶しても良い。   The storage device 902 stores various data. The storage device 902 includes, for example, a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), an HD (Hard Disk), and the like. For example, the storage device 902 functions as the storage unit 20 in FIG. Then, the storage device 902 includes, for example, definition body information 21, transaction information 22, discrimination information 23, item information 24, extraction information 25, heading information 26, and setting information 27 shown in FIG. You may remember.

また、ROMは、ブートプログラムなどのプログラムを記憶している。RAMは、制御回路901のワークエリアとして使用される。HDは、OS、アプリケーションプログラム、ファームウェアなどのプログラム、および各種データを記憶している。   The ROM stores a program such as a boot program. The RAM is used as a work area for the control circuit 901. The HD stores an OS, an application program, a program such as firmware, and various data.

記憶装置902は、例えば、制御回路901を、制御部10として機能させる文字認識プログラムを記憶する。   The storage device 902 stores, for example, a character recognition program that causes the control circuit 901 to function as the control unit 10.

文字認識装置1は、帳票の種類を判別する処理や定義体を生成する処理をするとき、記憶装置902に記憶された文字認識プログラムをRAMに読み出す。そして、文字認識装置1は、制御回路901で、RAMに読み出された文字認識プログラムを実行することにより、帳票の種類を判別する処理や定義体を生成する処理を実行する。   When the character recognition device 1 performs processing for determining the type of form or processing for generating a definition body, the character recognition program 1 reads the character recognition program stored in the storage device 902 into the RAM. Then, the character recognition device 1 executes a process for determining the type of the form and a process for generating a definition by executing the character recognition program read into the RAM by the control circuit 901.

なお、文字認識プログラムは、制御回路901が通信インターフェイス905を介してアクセス可能であれば、ネットワーク908上のサーバが有する記憶装置に記憶されていても良い。   Note that the character recognition program may be stored in a storage device included in a server on the network 908 as long as the control circuit 901 is accessible via the communication interface 905.

読書装置903は、制御回路901に制御され、着脱可能な記録媒体904のデータのリード/ライトを行なう。そして、読書装置903は、例えば、FDD(Floppy Disk Drive)、CDD(Compact Disc Drive)、DVDD(Digital Versatile Disk Drive)、BDD(Blu−ray(登録商標) Disk Drive)およびUSB(Universal Serial Bus)などである。   The reading device 903 is controlled by the control circuit 901 and reads / writes data on the removable recording medium 904. The reading device 903 includes, for example, an FDD (Floppy Disk Drive), a CDD (Compact Disc Drive), a DVDD (Digital Versatile Disk Drive), a BDD (Blu-ray (registered trademark) U USB Ver. Etc.

記録媒体904は、各種データを保存する。記録媒体904は、例えば、文字認識プログラムを記憶する。さらに、記録媒体904は、例えば、図1に示す、定義体情報21と、取引情報22と、判別情報23と、アイテム情報24と、抽出情報25と、見出し情報26と、設定情報27とを記憶しても良い。   The recording medium 904 stores various data. The recording medium 904 stores, for example, a character recognition program. Further, the recording medium 904 includes, for example, definition body information 21, transaction information 22, discrimination information 23, item information 24, extraction information 25, heading information 26, and setting information 27 shown in FIG. You may remember.

そして、記録媒体904は、読書装置903を介してバス909に接続され、制御回路901が読書装置903を制御することにより、データのリード/ライトが行なわれる。また、記録媒体904は、例えば、FD(Floppy Disk)、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu−ray(登録商標) Disk)、およびフラッシュメモリなどである。   The recording medium 904 is connected to the bus 909 via the reading device 903, and the control circuit 901 controls the reading device 903 to read / write data. The recording medium 904 is, for example, an FD (Floppy Disk), a CD (Compact Disc), a DVD (Digital Versatile Disk), a BD (Blu-ray (registered trademark) Disk), and a flash memory.

通信インターフェイス905は、ネットワーク908を介してコンピュータ装置900と他の装置とを通信可能に接続する。   The communication interface 905 connects the computer apparatus 900 and other apparatuses via a network 908 so that they can communicate with each other.

入出力インターフェイス906は、例えば、キーボード、マウス、タッチパネル、およびスキャナなどと接続され、接続された装置から各種情報を示す信号が入力されると、バス909を介して入力された信号を制御回路901に出力する。また、入出力インターフェイス906は、制御回路901から出力された各種情報を示す信号がバス909を介して入力されると、接続された各種装置にその信号を出力する。入出力インターフェイス906は、例えば、第1サイズ、第2サイズ、第1文字サイズ、第2文字サイズ、第1文字数、および第2文字数の設定値の入力を受け付けても良い。また、入出力インターフェイス906に接続されるスキャナは、例えば、図1に示す読取部30として機能する。   The input / output interface 906 is connected to, for example, a keyboard, a mouse, a touch panel, a scanner, and the like. When signals indicating various types of information are input from the connected devices, the control circuit 901 receives the signals input via the bus 909. Output to. When a signal indicating various information output from the control circuit 901 is input via the bus 909, the input / output interface 906 outputs the signal to various connected devices. The input / output interface 906 may accept input of setting values for the first size, the second size, the first character size, the second character size, the first character number, and the second character number, for example. The scanner connected to the input / output interface 906 functions as the reading unit 30 shown in FIG. 1, for example.

表示装置907は、例えば、入出力インターフェイス906に接続され、制御部10から入力される信号に基づいて、各種情報を表示する。また、表示装置907は、例えば、例えばCRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、およびOELD(Organic Electroluminescence Display)などである。そして、表示装置907は、例えば、図1において、表示部40として機能する。   The display device 907 is connected to the input / output interface 906, for example, and displays various types of information based on signals input from the control unit 10. The display device 907 is, for example, a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or an OELD (Organic Electroluminescence Display). The display device 907 functions as the display unit 40 in FIG.

ネットワーク908は、例えば、LAN、無線通信、またはインターネットなどであり、コンピュータ装置900と他の装置を通信接続する。   The network 908 is, for example, a LAN, wireless communication, the Internet, or the like, and connects the computer apparatus 900 and other apparatuses for communication.

以上のように、実施形態の文字認識装置1は、紙面に記載されたアイテムの画像から所定のサイズ以上の画像を抽出し、抽出したアイテムの画像を特徴画像として格納する定義体を生成する。これにより、実施形態の文字認識装置1は、定義体を自動生成することができる。   As described above, the character recognition device 1 according to the embodiment extracts an image having a predetermined size or more from an item image described on a sheet, and generates a definition body that stores the extracted item image as a feature image. Thereby, the character recognition device 1 of the embodiment can automatically generate the definition body.

実施形態の文字認識装置1は、読取部30で読み取った紙面の画像からアイテムの画像を取得し、取得したアイテムの画像と同じ画像を、定義体に格納されている特徴画像から検索する。これにより、実施形態の文字認識装置1は、読取部30で読み取った紙面の種類を、検索された特徴画像を格納した定義体に格納された紙面の種類であると認識することができる。   The character recognition device 1 according to the embodiment acquires an image of an item from a paper image read by the reading unit 30 and searches the feature image stored in the definition body for the same image as the acquired image of the item. Thereby, the character recognition device 1 of the embodiment can recognize that the type of the page read by the reading unit 30 is the type of the page stored in the definition body storing the searched feature image.

実施形態の文字認識装置1は、紙面から取得されたアイテムの画像の中で、縦幅のサイズと横幅のサイズとが所定のサイズ以上のアイテムの画像を抽出し、抽出したアイテムの画像を特徴画像として格納する定義体を生成する。したがって、実施形態の文字認識装置1は、縦幅、および横幅のいずれか一方のみが長い、文章や線などを抽出しない。これにより、実施形態の文字認識装置1は、紙面に記載されたアイテムの画像の中から、他の紙面にない特徴画像を精度よく抽出することができる。   The character recognition device 1 according to the embodiment extracts an image of an item having a vertical size and a horizontal size that are equal to or larger than a predetermined size from the item images acquired from the page, and features the extracted item image. Generate a definition body to be stored as an image. Therefore, the character recognition device 1 according to the embodiment does not extract a sentence, a line, or the like in which only one of the vertical width and the horizontal width is long. As a result, the character recognition device 1 according to the embodiment can accurately extract a feature image that is not on the other paper from the image of the item described on the paper.

実施形態の文字認識装置1は、アイテムの画像が文字列の画像を含むとき、文字列に含まれる文字が所定のサイズ以上のアイテムの画像を特徴画像として格納する定義体を生成する。したがって、実施形態の文字認識装置1は、文字列の文字が所定のサイズよりも小さいアイテムの画像を特徴画像として抽出しない。これにより、実施形態の文字認識装置1は、紙面に記載されたアイテムの画像の中から、他の紙面にない特徴画像を精度よく抽出することができる。   When the item image includes a character string image, the character recognition device 1 according to the embodiment generates a definition body that stores, as a feature image, an item image in which the characters included in the character string are a predetermined size or larger. Therefore, the character recognition device 1 according to the embodiment does not extract an image of an item whose character in the character string is smaller than a predetermined size as a feature image. As a result, the character recognition device 1 according to the embodiment can accurately extract a feature image that is not on the other paper from the image of the item described on the paper.

実施形態の文字認識装置1は、アイテムの画像が文字列の画像を含むとき、文字列に含まれる文字数が所定の文字数以上のアイテムの画像を特徴画像として格納する定義体を生成する。したがって、実施形態の文字認識装置1は、文字列の文字数が所定の文字数よりも少ないアイテムの画像を特徴画像として抽出しない。これにより、実施形態の文字認識装置1は、紙面に記載されたアイテムの画像の中から、他の紙面にない特徴画像を精度よく抽出することができる。   When the item image includes a character string image, the character recognition device 1 according to the embodiment generates a definition body that stores, as a feature image, an item image in which the number of characters included in the character string is equal to or greater than a predetermined number of characters. Therefore, the character recognition device 1 of the embodiment does not extract an image of an item in which the number of characters in the character string is smaller than the predetermined number of characters as a feature image. As a result, the character recognition device 1 according to the embodiment can accurately extract a feature image that is not on the other paper from the image of the item described on the paper.

実施形態の文字認識装置1は、特徴画像が記載された領域を示す画像領域と特徴画像とを関連付けて格納する定義体を生成する。そして、実施形態の文字認識装置1は、紙面の種類を判別するとき、紙面に記載されているアイテムの画像と、定義体に格納されている特徴画像とのそれぞれに対応する画像領域を一致判定する。これにより、実施形態の文字認識装置1は、紙面と定義体とに格納されている画像領域が一致したとき、読取部30で読み取った紙面の種類を、画像領域が一致した定義体に格納された紙面の種類であると認識することができる。   The character recognition device 1 according to the embodiment generates a definition body that stores an image region indicating a region in which a feature image is described and a feature image in association with each other. When the character recognition device 1 according to the embodiment determines the type of the page, the character recognition apparatus 1 determines whether the image area corresponding to each of the image of the item described on the page and the feature image stored in the definition body matches. To do. As a result, when the image areas stored in the page and the definition body match, the character recognition device 1 of the embodiment stores the type of the page read by the reading unit 30 in the definition body in which the image area matches. It can be recognized that it is a type of paper.

実施形態の文字認識装置1は、アイテムの画像を取得した紙面が有する罫線の配置と、同じ罫線の配置を格納した定義体が記憶部20に記憶されていないとき、アイテムの画像を取得した紙面の種類と、抽出したアイテムの画像とを関連付けて格納する定義体を生成する。これにより、実施形態の文字認識装置1は、既存の定義体を重複して生成する処理を行わないので、処理の煩雑化を抑制することができる。   The character recognition device 1 according to the embodiment, when the storage unit 20 does not store the definition of the ruled line layout of the paper surface from which the item image is acquired and the same ruled line layout, the paper surface from which the item image is acquired. A definition body that stores the type of the item and the extracted item image in association with each other is generated. Thereby, since the character recognition apparatus 1 of embodiment does not perform the process which produces | generates the existing definition body redundantly, it can suppress complication of a process.

実施形態の文字認識装置1は、特徴画像を抽出するときに用いる閾値として、第1サイズと第2サイズとを記憶する。そして、実施形態の文字認識装置1は、紙面が有する罫線の配置と同じ罫線の配置と、紙面から第1サイズを用いて抽出したアイテムの画像と同じアイテムの画像とを格納している定義体が記憶部20に記憶されているとき、第2サイズ以上のアイテムの画像を抽出する。これにより、実施形態の文字認識装置1は、特徴画像として抽出するアイテムの画像を段階的に小さくするので、抽出される特徴画像の数が多くなり処理が煩雑化するのを抑制し、かつ他の帳票にない特徴画像を抽出することができる。   The character recognition device 1 of the embodiment stores a first size and a second size as threshold values used when extracting a feature image. The character recognition device 1 according to the embodiment stores a definition of a ruled line that is the same as the layout of the ruled line on the page, and an image of the same item as the image of the item extracted from the page using the first size. Is stored in the storage unit 20, an image of an item of the second size or larger is extracted. Thereby, the character recognition device 1 according to the embodiment gradually reduces the size of the item image to be extracted as the feature image, so that the number of feature images to be extracted increases and the processing becomes complicated, and the like. It is possible to extract feature images that are not in the form.

実施形態の文字認識装置1は、紙面が有する罫線の配置と同じ罫線の配置と、紙面から第1文字数を用いて抽出した文字列の画像と同じ文字列の画像とを格納している定義体が記憶部20に記憶されているとき、第1文字数よりも少ない第2文字数以上の文字列の画像を抽出する。これにより、実施形態の文字認識装置1は、特徴画像として抽出する文字列の文字数を段階的に少なくするので、抽出される特徴画像の数が多くなり処理が煩雑化するのを抑制し、かつ他の帳票にない特徴画像を抽出することができる。   The character recognition device 1 according to the embodiment includes a definition body that stores the same ruled line arrangement as the arrangement of the ruled lines on the page, and the same character string image as the character string image extracted from the page using the first number of characters. Is stored in the storage unit 20, an image of a character string having a number of characters equal to or larger than a second character number smaller than the first character number is extracted. Thereby, since the character recognition device 1 of the embodiment reduces the number of characters of the character string extracted as the feature image step by step, the number of feature images to be extracted increases and the processing becomes complicated, and It is possible to extract feature images that do not exist in other forms.

実施形態の文字認識装置1は、項目種に対応する種類のデータが、項目種を示すと認識した文字列の近傍にあるとき、項目種と、項目種に対応する種類のデータが記載された領域を示す認識領域とを関連付けて格納する定義体を生成する。これにより、実施形態の文字認識装置1は、紙面に記載されている項目種に対応するデータの認識領域を示す定義体の作成を自動化することができる。   In the character recognition device 1 of the embodiment, when the type of data corresponding to the item type is in the vicinity of the character string recognized as indicating the item type, the item type and the type of data corresponding to the item type are described. A definition body is generated that stores an association with a recognition area indicating the area. Thereby, the character recognition device 1 of the embodiment can automate the creation of a definition body indicating a recognition area of data corresponding to the item type described on the paper.

実施形態の文字認識装置1は、項目種に対応するデータが罫線に囲まれているとき、罫線に囲まれた領域を認識領域にする。これにより、実施形態の文字認識装置1は、認識領域を自動で設定することができる。   When the data corresponding to the item type is surrounded by ruled lines, the character recognition device 1 of the embodiment sets the area surrounded by the ruled lines as a recognition area. Thereby, the character recognition device 1 of the embodiment can automatically set the recognition area.

実施形態の文字認識装置1は、データが罫線に囲まれていないとき、データを囲み、他の文言を含まない領域を認識領域にする。これにより、実施形態の文字認識装置1は、認識領域を自動で設定することができる。   When the data is not surrounded by ruled lines, the character recognition device 1 of the embodiment surrounds the data and sets a region that does not include other words as a recognition region. Thereby, the character recognition device 1 of the embodiment can automatically set the recognition area.

実施形態の文字認識装置1は、紙面から取得したアイテムの画像と同じ特徴画像を格納した定義体を検索し、アイテムを取得した紙面の種類を、検索された定義体に格納された紙面の種類であると判別する。これにより、実施形態の文字認識装置1は、定義体を用いて紙面の種類を判別することができる。   The character recognition device 1 according to the embodiment searches for a definition body that stores the same feature image as the image of the item acquired from the page, and determines the type of the page from which the item is acquired as the type of the page stored in the searched definition body. It is determined that Thereby, the character recognition apparatus 1 of embodiment can discriminate | determine the kind of paper surface using a definition body.

実施形態の文字認識装置1は、取得したアイテムの画像と同じ特徴画像と、取得したアイテムの画像領域と同じ特徴画像の画像領域とを関連付けて格納した定義体を検索し、アイテムを取得した紙面の種類を、検索された定義体に格納された紙面の種類であると判別する。これにより、実施形態の文字認識装置1は、定義体を用いて紙面の種類を判別する精度を向上することができる。   The character recognition device 1 according to the embodiment searches for a definition body in which the same feature image as the acquired item image and the image area of the same feature image as the acquired item are stored in association with each other, and acquires the item. Is determined to be the type of the paper stored in the searched definition body. Thereby, the character recognition apparatus 1 of embodiment can improve the precision which discriminate | determines the kind of paper surface using a definition body.

なお、本実施形態は、以上に述べた実施形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。   In addition, this embodiment is not limited to embodiment described above, A various structure or embodiment can be taken in the range which does not deviate from the summary of this embodiment.

1 文字認識装置
10 制御部
11 取得部
12 抽出部
13 生成部
14 認識部
15 判別部
20 記憶部
21 定義体情報
22 取引情報
23 判別情報
24 アイテム情報
25 抽出情報
26 情報
27 設定情報
30 読取部
40 表示部
100 帳票
200 帳票判別情報
201 字認識情報
300、301 判別データ
400 取引データ
500 アイテムデータ
600 抽出データ
700 見出しデータ
800、801 項目データ
900 コンピュータ装置
901 制御回路
902 記憶装置
903 読書装置
904 記録媒体
905 通信インターフェイス
906 入出力インターフェイス
907 表示装置
908 ネットワーク
909 バス
DESCRIPTION OF SYMBOLS 1 Character recognition apparatus 10 Control part 11 Acquisition part 12 Extraction part 13 Generation part 14 Recognition part 15 Discrimination part 20 Storage part 21 Definition body information 22 Transaction information 23 Discrimination information 24 Item information 25 Extraction information 26 Information 27 Setting information 30 Reading part 40 Display unit 100 Form 200 Form discrimination information 201 Character recognition information 300, 301 Discrimination data 400 Transaction data 500 Item data 600 Extraction data 700 Heading data 800, 801 Item data 900 Computer device 901 Control circuit 902 Storage device 903 Reading device 904 Recording medium 905 Communication interface 906 Input / output interface 907 Display device 908 Network 909 Bus

Claims (14)

紙面の画像から1以上のアイテムの画像を取得する取得部と、
前記取得した1以上のアイテムの画像から、第1サイズ以上のアイテムの画像を抽出する抽出部と、
前記アイテムの画像を取得した紙面の種類と、前記抽出したアイテムの画像とを関連付けて格納する定義体を生成する生成部と、
を備えることを特徴とする文字認識装置。
An acquisition unit that acquires an image of one or more items from an image on a paper surface;
An extraction unit that extracts an image of an item of a first size or more from the acquired image of the one or more items;
A generating unit that generates a definition body that associates and stores the type of the page from which the image of the item is acquired and the image of the extracted item;
A character recognition device comprising:
前記第1サイズは、
アイテムの画像の縦幅のサイズと横幅のサイズとを含み、
前記抽出部は、
前記取得した1以上のアイテムの画像から、縦幅のサイズが前記第1サイズに含まれる縦幅のサイズ以上、および横幅のサイズが前記第1サイズに含まれる横幅のサイズ以上のアイテムの画像を抽出する
ことを特徴とする請求項1に記載の文字認識装置。
The first size is
Including the vertical and horizontal dimensions of the item image,
The extraction unit includes:
From the acquired image of one or more items, an image of an item whose vertical size is equal to or larger than the vertical size included in the first size, and whose horizontal width is equal to or larger than the horizontal width included in the first size. The character recognition device according to claim 1, wherein the character recognition device is extracted.
前記抽出部は、
前記取得した1以上のアイテムの画像が1以上の文字列の画像を含むとき、前記1以上の文字列の画像から、所定の文字サイズ以上の文字を含む第1文字数以上の文字列の画像を抽出する
ことを特徴とする請求項1または2に記載の文字認識装置。
The extraction unit includes:
When the acquired image of one or more items includes an image of one or more character strings, an image of a character string of a first character number or more including characters of a predetermined character size or more from the one or more character string images. The character recognition device according to claim 1, wherein the character recognition device is extracted.
前記生成部は、
前記アイテムの画像を取得した紙面の種類と前記抽出したアイテムの画像と、前記抽出したアイテムの画像が記載された領域を示す画像領域とを関連付けて格納する定義体を生成する
ことを特徴とする請求項1〜3のいずれか一つに記載の文字認識装置。
The generator is
Generating a definition body that associates and stores the type of the page from which the image of the item is acquired, the image of the extracted item, and an image area indicating an area in which the image of the extracted item is described. The character recognition apparatus as described in any one of Claims 1-3.
前記文字認識装置は、さらに、
1以上の定義体を記憶する記憶部を備え、
前記定義体は、さらに、
紙面の種類と罫線の配置とを関連付けて格納し、
前記生成部は、
前記アイテムの画像を取得した紙面が有する罫線の配置と、同じ罫線の配置を格納した定義体が前記記憶部に記憶されていないとき、前記アイテムの画像を取得した紙面の種類と、前記抽出したアイテムの画像とを関連付けて格納する定義体を生成する
ことを特徴とする請求項1〜4のいずれか一つに記載の文字認識装置。
The character recognition device further includes:
A storage unit for storing one or more definition bodies;
The definition body further includes:
Store the paper type and ruled line layout in association with each other.
The generator is
The layout of the ruled lines of the paper surface from which the image of the item is acquired and the definition body storing the same layout of the ruled lines are not stored in the storage unit, the type of the paper surface from which the image of the item was acquired, and the extracted The character recognition apparatus according to claim 1, wherein a definition body that stores an image of an item in association with the image is generated.
前記文字認識装置は、さらに、
1以上の定義体を記憶する記憶部を備え、
前記定義体は、さらに、
紙面の種類と罫線の配置とを関連付けて格納し、
前記抽出部は、
前記紙面が有する罫線の配置と同じ罫線の配置と、前記紙面から前記第1サイズを用いて抽出したアイテムの画像と同じアイテムの画像とを格納している定義体が前記記憶部に記憶されているとき、前記第1サイズよりも小さい第2サイズ以上のアイテムの画像を抽出する
ことを特徴とする請求項1〜5のいずれか一つに記載の文字認識装置。
The character recognition device further includes:
A storage unit for storing one or more definition bodies;
The definition body further includes:
Store the paper type and ruled line layout in association with each other.
The extraction unit includes:
A definition body storing an arrangement of the same ruled line as the arrangement of the ruled line on the page and an image of the item extracted from the page using the first size is stored in the storage unit. 6. The character recognition device according to claim 1, wherein an image of an item of a second size or larger that is smaller than the first size is extracted.
前記文字認識装置は、さらに、
1以上の定義体を記憶する記憶部を備え、
前記定義体は、さらに、
紙面の種類と罫線の配置とを関連付けて格納し、
前記抽出部は、
前記紙面が有する罫線の配置と同じ罫線の配置と、前記紙面から前記第1文字数を用いて抽出した文字列の画像と同じ文字列の画像とを格納している定義体が前記記憶部に記憶されているとき、前記第1文字数よりも少ない第2文字数以上の文字列の画像を抽出する
ことを特徴とする請求項3に記載の文字認識装置。
The character recognition device further includes:
A storage unit for storing one or more definition bodies;
The definition body further includes:
Store the paper type and ruled line layout in association with each other.
The extraction unit includes:
The definition unit storing the same ruled line arrangement as the ruled line arrangement on the page and the same character string image extracted from the page using the first number of characters is stored in the storage unit. 4. The character recognition device according to claim 3, wherein an image of a character string equal to or greater than a second character number smaller than the first character number is extracted.
前記記憶部は、
見出しの項目種と見出し文言とを関連付けて格納する見出し情報を記憶し、
前記文字認識装置は、さらに、
前記取得した1以上のアイテムの画像が文字列の画像を含むとき、前記文字列の文言と同じ見出し文言に関連付けられた項目種を前記見出し情報から検索し、前記文字列が検索した項目種を示すと認識する認識部を備え、
前記生成部は、
項目種に対応する種類のデータが、前記項目種を示すと認識した文字列の近傍にあるとき、前記項目種と、前記項目種に対応する種類のデータが記載された領域を示す認識領域とを関連付けて格納する定義体を生成する
ことを特徴とする請求項1〜7のいずれか一つに記載の文字認識装置。
The storage unit
Store heading information to store the heading item type and heading wording in association with each other,
The character recognition device further includes:
When the acquired image of one or more items includes an image of a character string, the item type associated with the same headline wording as the wording of the character string is searched from the heading information, and the item type searched by the character string is A recognition unit that recognizes when
The generator is
When the type of data corresponding to the item type is in the vicinity of the character string recognized as indicating the item type, the item type and a recognition area indicating an area in which the type of data corresponding to the item type is described; The character recognition device according to claim 1, wherein a definition body that stores the association is generated.
前記生成部は、
前記データが罫線に囲まれているとき、前記罫線に囲まれた領域を前記認識領域にする
ことを特徴とする請求項8に記載の文字認識装置。
The generator is
The character recognition device according to claim 8, wherein when the data is surrounded by ruled lines, an area surrounded by the ruled lines is used as the recognition area.
前記生成部は、
前記データが罫線に囲まれていないとき、前記データを囲み、他の文言を含まない領域を前記認識領域にする
ことを特徴とする請求項8に記載の文字認識装置。
The generator is
The character recognition device according to claim 8, wherein when the data is not surrounded by ruled lines, an area that surrounds the data and does not include other words is used as the recognition area.
前記文字認識装置は、さらに、
1以上の定義体を記憶する記憶部と、
前記取得したアイテムの画像と同じアイテムの画像を格納した定義体を検索し、前記アイテムを取得した紙面の種類を、前記検索された定義体に格納された紙面の種類であると判別する判別部と、
を備えることを特徴とする請求項1〜10のいずれか一つに記載の文字認識装置。
The character recognition device further includes:
A storage unit for storing one or more definition bodies;
A determination unit that searches for a definition body that stores an image of the same item as the acquired image of the item, and determines that the type of paper on which the item is acquired is the type of paper stored in the searched definition body When,
The character recognition device according to claim 1, further comprising:
前記文字認識装置は、さらに、
1以上の定義体を記憶する記憶部と、
前記取得したアイテムの画像と同じアイテムの画像と、前記取得したアイテムの画像領域と同じアイテムの画像領域とを関連付けて格納した定義体を検索し、前記アイテムを取得した紙面の種類を、前記検索された定義体に格納された紙面の種類であると判別する判別部と、
を備えることを特徴とする請求項4に記載の文字認識装置。
The character recognition device further includes:
A storage unit for storing one or more definition bodies;
The definition item stored in association with the image of the same item as the acquired image of the item and the image area of the same item as the image area of the acquired item is searched, and the type of the page on which the item is acquired is searched. A discriminating unit for discriminating that the type of paper stored in the defined definition body is;
The character recognition device according to claim 4, further comprising:
コンピュータにより実行される文字認識方法であって、
前記コンピュータは、
紙面の画像から1以上のアイテムの画像を取得し、
前記取得した1以上のアイテムの画像から、第1サイズ以上のアイテムの画像を抽出し、
前記アイテムの画像を取得した紙面の種類と前記抽出したアイテムの画像とを関連付けて格納する定義体を生成する
ことを特徴とする文字認識方法。
A character recognition method executed by a computer,
The computer
Acquire an image of one or more items from a paper image,
Extracting an image of an item of a first size or larger from the acquired image of the one or more items;
A character recognition method, comprising: generating a definition body that associates and stores the type of the page from which the item image is acquired and the extracted item image.
紙面の画像から1以上のアイテムの画像を取得し、
前記取得した1以上のアイテムの画像から、第1サイズ以上のアイテムの画像を抽出し、
前記アイテムの画像を取得した紙面の種類と前記抽出したアイテムの画像とを関連付けて格納する定義体を生成する
処理をコンピュータに実行させることを特徴とする文字認識プログラム。
Acquire an image of one or more items from a paper image,
Extracting an image of an item of a first size or larger from the acquired image of the one or more items;
A character recognition program that causes a computer to execute a process for generating a definition body that stores a type of a page on which an image of the item is acquired and an image of the extracted item in association with each other.
JP2013121992A 2013-06-10 2013-06-10 Character recognition device, character recognition method, and character recognition program Active JP6081298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013121992A JP6081298B2 (en) 2013-06-10 2013-06-10 Character recognition device, character recognition method, and character recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013121992A JP6081298B2 (en) 2013-06-10 2013-06-10 Character recognition device, character recognition method, and character recognition program

Publications (2)

Publication Number Publication Date
JP2014238773A true JP2014238773A (en) 2014-12-18
JP6081298B2 JP6081298B2 (en) 2017-02-15

Family

ID=52135866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013121992A Active JP6081298B2 (en) 2013-06-10 2013-06-10 Character recognition device, character recognition method, and character recognition program

Country Status (1)

Country Link
JP (1) JP6081298B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275196A (en) * 1997-03-28 1998-10-13 Sanyo Electric Co Ltd Data input device
JPH11161736A (en) * 1997-12-01 1999-06-18 Fujitsu Ltd Method for recognizing character
JP2001312694A (en) * 2000-05-01 2001-11-09 Hitachi Ltd Method and device for recognizing many kinds of slips
JP2004030340A (en) * 2002-06-26 2004-01-29 Nec Corp Document identifying apparatus and identifying method therefor
JP2008204226A (en) * 2007-02-21 2008-09-04 Hitachi Computer Peripherals Co Ltd Form recognition device and its program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275196A (en) * 1997-03-28 1998-10-13 Sanyo Electric Co Ltd Data input device
JPH11161736A (en) * 1997-12-01 1999-06-18 Fujitsu Ltd Method for recognizing character
JP2001312694A (en) * 2000-05-01 2001-11-09 Hitachi Ltd Method and device for recognizing many kinds of slips
JP2004030340A (en) * 2002-06-26 2004-01-29 Nec Corp Document identifying apparatus and identifying method therefor
JP2008204226A (en) * 2007-02-21 2008-09-04 Hitachi Computer Peripherals Co Ltd Form recognition device and its program

Also Published As

Publication number Publication date
JP6081298B2 (en) 2017-02-15

Similar Documents

Publication Publication Date Title
US10242296B2 (en) Method and device for realizing chinese character input based on uncertainty information
US20220222292A1 (en) Method and system for ideogram character analysis
JP7516024B2 (en) Information processing device, control method thereof, and program
US20140380169A1 (en) Language input method editor to disambiguate ambiguous phrases via diacriticization
JP2011150466A (en) Device, program and method for recognizing character string
US20190303437A1 (en) Status reporting with natural language processing risk assessment
CN103576889A (en) Input support method, and input support apparatus
CN113673294B (en) Method, device, computer equipment and storage medium for extracting document key information
JP6705352B2 (en) Language processing device, language processing method, and language processing program
JP6081298B2 (en) Character recognition device, character recognition method, and character recognition program
US20200311059A1 (en) Multi-layer word search option
US10049107B2 (en) Non-transitory computer readable medium and information processing apparatus and method
CN106709294B (en) User authentication method and device
US20210064815A1 (en) Information processing apparatus and non-transitory computer readable medium
US11386146B2 (en) Method and system for facilitating keyword-based searching in images
JP5952776B2 (en) Character recognition device, character recognition method, and character recognition program
US11995908B2 (en) Information processing device and non-transitory computer readable medium
US20240273290A1 (en) Multi-language document field extraction
US20240184985A1 (en) Information representation structure analysis device, and information representation structure analysis method
US11481544B2 (en) Form processing apparatus and non-transitory computer readable medium
US20200250419A1 (en) Information processing apparatus and non-transitory computer readable medium
KR20160073146A (en) Method and apparatus for correcting a handwriting recognition word using a confusion matrix
US20210056301A1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP6334062B2 (en) Information extraction system, information extraction method, and recording medium
JP6528927B2 (en) Document processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170118

R150 Certificate of patent or registration of utility model

Ref document number: 6081298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150