[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011181043A - Handwriting input system - Google Patents

Handwriting input system Download PDF

Info

Publication number
JP2011181043A
JP2011181043A JP2010047511A JP2010047511A JP2011181043A JP 2011181043 A JP2011181043 A JP 2011181043A JP 2010047511 A JP2010047511 A JP 2010047511A JP 2010047511 A JP2010047511 A JP 2010047511A JP 2011181043 A JP2011181043 A JP 2011181043A
Authority
JP
Japan
Prior art keywords
character
recognition result
handwriting
data
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010047511A
Other languages
Japanese (ja)
Inventor
Kazuaki Yokota
和章 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2010047511A priority Critical patent/JP2011181043A/en
Publication of JP2011181043A publication Critical patent/JP2011181043A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily carry out edition over a plurality of pages while confirming a masking objective portion by the state of paper. <P>SOLUTION: This handwriting input system includes a data storage part for storing data of a recognition result executed by masking processing in a prescribed character or a prescribed pattern obtained by character-recognizing an image of a form; a printer for printing a dot pattern indicating positional information on a paper sheet face to the paper sheet face by ink containing carbon, and printing the data of the recognition result of the data storage part to the paper sheet face by ink containing no carbon to prepare a form for correcting the recognition result; a pen device allowing writing to the form, and reading the dot pattern existing in a writing position to generate a series of the positional information; and a correction part for correcting the character or the pattern in a calligraphy detection position according to a form of a calligraphy detected based on the calligraphy of the pen device, and updating the data of the recognition result in the data storage part. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、例えばスキャナなどによって光学的に読み取られた帳票の画像を文字認識して得られた認識結果のデータ(文字、図形等のパターン)を印刷し、それをペン装置で手書き訂正する手書き入力システムに関する。   The present invention prints recognition result data (patterns of characters, figures, etc.) obtained by character recognition of a form image optically read by, for example, a scanner, and performs handwriting correction using a pen device. Regarding the input system.

例えば文書などの印刷物を公開するにあたり、印刷物に記載されている個人情報をマスクする等の処置を行う必要がある場合がある。このような場合、コンピュータの画面上であれば、通常、ワープロソフトなどで文書を開き、文書中の個人情報をマスク処理し、印刷を行う。または文書が紙でしか存在しない場合、その紙面上の個人情報をペンで黒く塗りつぶして非開示にするなどの作業を行うことになる。   For example, when publishing a printed matter such as a document, it may be necessary to take a measure such as masking personal information described in the printed matter. In such a case, if it is on the computer screen, the document is usually opened with word processing software or the like, personal information in the document is masked, and printing is performed. Or, if the document exists only on paper, the personal information on the paper is painted black with a pen to make it undisclosed.

ところで、公開する文書は、一ページとは限らず、数十ページに及ぶものある。このような場合、ワープロソフトまたは画像処理ソフトでディスプレイの画面に表示させた文書ファイルまたは文書画像の中から目視で個人情報を見つけ出し、その個人情報をキー操作やマウス操作で黒く塗りつぶしたり、またはマスク処理するといったことが行われるが、画面の目視で数十ページにも及ぶ訂正作業を行うことはいかにも作業効率が悪い。またディスプレイの限られた画面に表示した情報の中から目視で個人情報を見つける場合、見落としが発生する可能性があり、公開により個人情報が漏洩するリスクがある。   By the way, the document to be disclosed is not limited to one page, but extends to several tens of pages. In such a case, the personal information is found visually from the document file or document image displayed on the display screen with word processing software or image processing software, and the personal information is blacked out by a key operation or mouse operation, or masked. Processing is performed, but it is extremely inefficient to carry out correction work of several tens of pages by visual inspection on the screen. In addition, when personal information is visually found from information displayed on a limited screen of the display, there is a possibility that an oversight may occur, and there is a risk that personal information will be leaked due to disclosure.

文書ファイルや画像のマスク処理に関する従来の技術としては、例えば公開データファイルから画像イメージ及び領域データを読み出して公開を制限する領域をマスクした公開画像を画面上で編集可能な情報公開システムが既に公開されている(例えば特許文献1参照)。   As a conventional technique related to mask processing of a document file or an image, for example, an information publishing system that reads an image image and region data from a public data file and edits a public image masked by a region that restricts the disclosure on the screen has already been published. (For example, refer to Patent Document 1).

特開2002−298122号公報JP 2002-298122 A

しかしながら、上記従来の技術の場合、画像イメージの非公開領域をマスク処理可能なものの、ディスプレイ上の作業のため視認性の低さを解決するまでには至っていない。   However, in the case of the above-described conventional technique, although the non-public area of the image image can be masked, the low visibility has not yet been solved due to the work on the display.

本発明はこのような課題を解決するためになされたもので、紙の状態でマスク対象箇所を確認しつつ複数ページにわたる編集を容易に行うことができる作業効率のよい手書き入力システムを提供することを目的とする。   The present invention has been made to solve such a problem, and provides a work-efficient handwriting input system capable of easily performing editing over a plurality of pages while confirming a mask target portion in a paper state. With the goal.

上記の課題を解決するために、本発明の画像処理装置は、帳票の画像を文字認識して得られた所定の文字または所定の図形に対してマスク処理を施した認識結果のデータが記憶されたデータ記憶部と、紙面上の位置情報を示すドットパターンをカーボンを含むインクで紙面に印刷すると共に、前記データ記憶部の認識結果のデータを前記カーボンを含まないインクで前記紙面に印刷して認識結果訂正用の帳票を作成する印刷装置と、前記帳票に対し筆記が可能であると共に、筆記位置に存在する前記ドットパターンを読み込んで前記位置情報の系列を生成するペン装置と、前記ペン装置により生成された前記位置情報の系列から、前記ペン装置の筆跡を検出し、検出した前記筆跡の形態に応じて、筆跡検出位置の文字または図形を訂正し、前記データ記憶部の認識結果のデータを更新する訂正部とを具備することを特徴とする。   In order to solve the above problems, the image processing apparatus according to the present invention stores recognition result data obtained by performing mask processing on a predetermined character or a predetermined figure obtained by character recognition of a form image. The data storage unit and the dot pattern indicating the position information on the paper surface are printed on the paper surface with ink containing carbon, and the recognition result data of the data storage unit is printed on the paper surface with the ink not containing carbon. A printing apparatus that creates a form for correcting recognition results, a pen apparatus that can write on the form, reads the dot pattern existing at the writing position, and generates the position information series, and the pen apparatus The handwriting of the pen device is detected from the position information sequence generated by the step, and the character or figure at the handwriting detection position is corrected according to the detected form of the handwriting, Characterized by comprising a correction section for updating the data of the recognition result of the data storage unit.

本発明によれば、紙の状態でマスク対象箇所を確認しつつ複数ページにわたる編集を容易に行うことができる。   According to the present invention, it is possible to easily perform editing over a plurality of pages while confirming a mask target portion in a paper state.

本発明の一実施形態の手書き入力システムの概要構成を示す図である。It is a figure which shows schematic structure of the handwriting input system of one Embodiment of this invention. 図1の手書き入力システムのコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of the computer of the handwriting input system of FIG. 帳票に印刷されるドットによる2ビットの情報の表現方法を説明するための図である。It is a figure for demonstrating the representation method of 2-bit information by the dot printed on a form. 図3の2ビットの情報を示すドットの組み合わせで構成されるドットパターンの一例を示す図である。It is a figure which shows an example of the dot pattern comprised by the combination of the dot which shows the 2-bit information of FIG. 図4のドットパターンに対応するデータの配列を示す図である。It is a figure which shows the arrangement | sequence of the data corresponding to the dot pattern of FIG. デジタルペンの構成を示す図である。It is a figure which shows the structure of a digital pen. 帳票スキャンから訂正処理に至るまでの一連の処理を示すフローチャートである。It is a flowchart which shows a series of processes from a form scan to a correction process. 認識処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a recognition process. 訂正処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a correction process. (a)はデジタルペン文書の記載例(第1実施形態)を示す図、(b)はマスク完了PDFファイルの表示例を示す図である。(A) is a figure which shows the example of description (1st Embodiment) of a digital pen document, (b) is a figure which shows the example of a display of a mask completion PDF file. (a)はデジタルペン文書の記載例(第2実施形態)を示す図、(b)はマスク完了PDFファイルの表示例を示す図である。(A) is a figure which shows the example of description (2nd Embodiment) of a digital pen document, (b) is a figure which shows the example of a display of a mask completion PDF file. (a)はデジタルペン文書の記載例(第3実施形態)を示す図、(b)はマスク完了PDFファイルの表示例を示す図である。(A) is a figure which shows the example of description (3rd Embodiment) of a digital pen document, (b) is a figure which shows the example of a display of a mask completion PDF file. (a)はデジタルペン文書の記載例(第4実施形態)を示す図、(b)はマスク完了PDFファイルの画面表示例を示す図である。(A) is a figure which shows the example of description (4th Embodiment) of a digital pen document, (b) is a figure which shows the example of a screen display of a mask completion PDF file.

以下、図面を参照して、本発明の一つの実施の形態の手書き入力システムを詳細に説明する。図1は手書き入力システムの構成を示す図である。   Hereinafter, a handwriting input system according to an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a configuration of a handwriting input system.

図1に示すように、この実施形態の手書き入力システムは、コンピュータ3とこのコンピュータ3にUSBケーブルなどにより接続された帳票読取装置としてのスキャナ1、筆記及びドットパターン読取装置としてのデジタルペン4および印刷装置としてのプリンタ5と、コンピュータ3にモニタケーブルを介して接続されたモニタ2とを備えている。コンピュータ3は、メモリ、ハードディスク装置、外部インターフェース装置、CPUなどを備えるものであり、指示装置または入力装置としてのキーボートやマウスなども接続されている。   As shown in FIG. 1, the handwriting input system of this embodiment includes a computer 3, a scanner 1 as a form reading device connected to the computer 3 by a USB cable, a digital pen 4 as a writing and dot pattern reading device, and A printer 5 as a printing device and a monitor 2 connected to the computer 3 via a monitor cable are provided. The computer 3 includes a memory, a hard disk device, an external interface device, a CPU, and the like, and is connected to a keyboard, a mouse, and the like as an instruction device or an input device.

スキャナ1は、認識対象の文字、図形、画像などのパターンが記載された帳票P1を読み取る。モニタ2は、例えば液晶表示装置などであり、コンピュータ3から入力された情報を画面に表示する。   The scanner 1 reads a form P1 on which patterns such as characters, figures, and images to be recognized are written. The monitor 2 is, for example, a liquid crystal display device and displays information input from the computer 3 on a screen.

プリンタ5は、白紙の帳票P2に対して文字認識結果のデータをカーボンの含まれていないインクで印刷する。またプリンタ5は、白紙の帳票P2に対して紙面上の位置情報を表わす特殊な配列の微小なドットパターンをカーボンの含まれているインクで印刷する。   The printer 5 prints the character recognition result data on the blank form P2 with ink that does not contain carbon. In addition, the printer 5 prints a minute dot pattern with a special arrangement representing position information on the paper surface with a carbon-containing ink on the blank form P2.

すなわち、プリンタ5は、データ記憶部15から読み出した第2認識結果を、カーボンを含まない第1インクで帳票P2の紙面に印刷すると共に、紙面上の位置を特定するためのドットパターンを、カーボンを含む第2インクで帳票P2の紙面に印刷する。   That is, the printer 5 prints the second recognition result read from the data storage unit 15 on the paper surface of the form P2 with the first ink that does not contain carbon, and generates a dot pattern for specifying the position on the paper surface. Is printed on the paper surface of the form P2.

プリンタ5により文字認識結果のデータとドットパターンが印刷されたものが訂正用の帳票P3である。   A form P3 for correction is obtained by printing character recognition result data and a dot pattern by the printer 5.

デジタルペン4は、訂正用の帳票P3への手書き訂正内容の記入と、帳票P3にプリントされたドットパターンを読み取るペン装置である。なおデジタルペン4の内部構成については図6の説明と共に後述する。   The digital pen 4 is a pen device that inputs handwritten correction contents on a correction form P3 and reads a dot pattern printed on the form P3. The internal configuration of the digital pen 4 will be described later with reference to FIG.

すなわち、この手書き入力システムは、コンピュータ3が、スキャナ1から得た帳票P1の画像から個人情報に相当する箇所をマスクした文字認識結果のデータを、プリンタ5でドットパターンと共に白紙の帳票P2に印刷して訂正専用の記入用紙である帳票P3を作成し、帳票P3の訂正箇所に対しオペレータがデジタルペン4で記入した筆跡に応じて訂正機能により文字認識結果のデータを訂正するシステムである。   That is, in this handwriting input system, the computer 3 prints the data of the character recognition result in which the portion corresponding to the personal information is masked from the image of the form P1 obtained from the scanner 1 on the blank form P2 together with the dot pattern. Then, a form P3, which is a correction entry form, is created, and the character recognition result data is corrected by the correction function in accordance with the handwriting entered by the operator with the digital pen 4 in the correction part of the form P3.

図2に示すように、コンピュータ3は、記入情報受付部6、画像受付部7、マスク処理部8、文字認識部9、辞書10、個人情報辞書としての姓名辞書11、訂正処理部12、メモリ14、データ記憶部15、印刷制御部16、個人情報テーブル17、これら各部を統括的に制御する制御部20などを有している。   As shown in FIG. 2, the computer 3 includes an entry information reception unit 6, an image reception unit 7, a mask processing unit 8, a character recognition unit 9, a dictionary 10, a first and last name dictionary 11 as a personal information dictionary, a correction processing unit 12, and a memory. 14, a data storage unit 15, a print control unit 16, a personal information table 17, and a control unit 20 that comprehensively controls these units.

記入情報受付部6、画像受付部7、マスク処理部8、文字認識部9、訂正処理部12、印刷制御部16などを含む各構成要素は、ハードディスク装置(HDD)が例えば適用された外部記憶装置、CPU及びメインメモリなどのハードウェア、上記外部記憶装置などにインストールされたオペレーティングシステム、並びに制御ソフトウェアなどが協働して実現されている。   Each component including the entry information reception unit 6, the image reception unit 7, the mask processing unit 8, the character recognition unit 9, the correction processing unit 12, the print control unit 16, and the like is an external storage to which a hard disk device (HDD) is applied, for example. Hardware such as a device, a CPU and a main memory, an operating system installed in the external storage device, control software, and the like are realized in cooperation.

具体的には、辞書10は、外部記憶装置に格納されている。また、データ記憶部15は、外部記憶装置に構築された例えばデータベースなどである。さらに、外部記憶装置またはメインメモリには、手書き入力のために必要なプログラムや各種のテーブルなどが格納されている。プログラムはCPUによってメインメモリから読み出されて実行される。   Specifically, the dictionary 10 is stored in an external storage device. The data storage unit 15 is, for example, a database constructed in an external storage device. Furthermore, the external storage device or the main memory stores programs necessary for handwriting input, various tables, and the like. The program is read from the main memory and executed by the CPU.

画像受付部7は、スキャナ1により読み取られた帳票P1の画像を受け付け、メモリ14に記憶する。   The image receiving unit 7 receives the image of the form P1 read by the scanner 1 and stores it in the memory 14.

記入情報受付部6は、デジタルペン4の筆跡に対応したドットパターン(位置情報)の系列をこのデジタルペン4側から一括して受信しメモリ14に記憶する。マスク処理部8は、メモリ14には、デジタルペン4から受信されたドットパターン(位置情報)の系列が記憶される。   The entry information receiving unit 6 collectively receives a series of dot patterns (position information) corresponding to the handwriting of the digital pen 4 from the digital pen 4 side and stores it in the memory 14. In the mask processing unit 8, the memory 14 stores a series of dot patterns (position information) received from the digital pen 4.

辞書10には、多数の文字イメージ(文字画像)と各文字イメージに対応付けられた文字コード(テキストデータ)とが格納されている。   The dictionary 10 stores a large number of character images (character images) and character codes (text data) associated with the character images.

文字認識部9は、帳票P1の画像をメモリ14から読み出して、辞書10を参照して認識対象範囲について文字認識を行い、文字認識結果としてテキストデータ(これを「第1認識結果」という)をデータ記憶部15に記憶する。   The character recognition unit 9 reads the image of the form P1 from the memory 14, performs character recognition on the recognition target range with reference to the dictionary 10, and text data (this is referred to as “first recognition result”) as the character recognition result. The data is stored in the data storage unit 15.

文字認識部9は、文字、図形のいずれかのパターンが記載された帳票P1の画像から文字、図形のいずれかを含む第1パターンを認識し文字認識結果の第1認識結果をデータ記憶部15に記憶する認識部として機能する。   The character recognition unit 9 recognizes a first pattern including either a character or a graphic from an image of the form P1 in which either a character or a graphic is described, and the first recognition result of the character recognition result is stored in the data storage unit 15. It functions as a recognition unit that stores information.

具体的には、文字認識部9は、辞書10を参照して認識対象領域から切り出した一文字毎の文字画像と辞書10内の文字イメージとのマッチングを行い(文字認識処理を実行し)、文字認識結果の第1認識結果をデータ記憶部15へ出力する。データ記憶部15には、文字認識処理を行ったときの文字画像とこれにマッチングしたテキストデータとがおのおの対応付けられて記憶される。   Specifically, the character recognition unit 9 matches the character image for each character cut out from the recognition target area with reference to the dictionary 10 and the character image in the dictionary 10 (performs character recognition processing), The first recognition result of the recognition result is output to the data storage unit 15. The data storage unit 15 stores the character image obtained when the character recognition process is performed and the text data matched therewith in association with each other.

姓名辞書11には、氏名(名字(姓)と名前(名)の一覧が記憶されている。なお姓名辞書11以外に個人情報を検出するための辞書として、例えば住所、年齢、性別、電話番号、印鑑の印影等が格納された辞書を併用してもよい。   A list of first and last names (first name and last name) and first name (first name) is stored in the first and last name dictionary 11. In addition to the first and last name dictionary 11, as a dictionary for detecting personal information, for example, address, age, gender, telephone number A dictionary storing seal stamps and the like may be used in combination.

マスク処理部8は、第1認識結果に対して姓名辞書11を参照してマスク処理を行い、データ記憶部15に記憶する。具体的には、第1認識結果に存在する姓名辞書11の姓名(名字と名前、または名字、名前のいずれか一方)の文字または文字列をマスク(例えば網掛け文字など)に置換しデータ記憶部15に記憶する。   The mask processing unit 8 performs mask processing on the first recognition result with reference to the first name / name dictionary 11 and stores the result in the data storage unit 15. More specifically, the character or character string of the first and last name (first name and last name or last name or first name) of the first name surname dictionary 11 existing in the first recognition result is replaced with a mask (for example, shaded characters) and stored. Store in unit 15.

すなわち、マスク処理部8は、文字認識部9により認識された第1認識結果について姓名辞書11の氏名(個人情報)と照合し、第1認識結果に含まれる氏名(個人情報)に対してマスク処理を行い、氏名(個人情報)がマスクされた第2認識結果をデータ記憶部15に記憶する。   That is, the mask processing unit 8 compares the first recognition result recognized by the character recognition unit 9 with the name (personal information) in the first name / name dictionary 11 and masks the name (personal information) included in the first recognition result. Processing is performed, and the second recognition result with the name (personal information) masked is stored in the data storage unit 15.

訂正処理部12は、デジタルペン4により読み取られるドットパターンの系列から筆跡を検出する筆跡検出部として機能する。また訂正処理部12は、検出した筆跡に応じた訂正機能を有している。例えば筆跡の形態が範囲選択線、例えば「四角」や「楕円」などの場合、その範囲内に含まれるテキストデータに対してマスク処理(網掛け処理)を実行する。また筆跡の形態が取消線、例えば「二重線」などの場合、二重線が重なっているテキストデータのマスクの削除(網掛けの解除)を実行する。   The correction processing unit 12 functions as a handwriting detection unit that detects handwriting from a series of dot patterns read by the digital pen 4. The correction processing unit 12 has a correction function corresponding to the detected handwriting. For example, when the form of the handwriting is a range selection line such as “square” or “ellipse”, a mask process (shading process) is performed on the text data included in the range. When the form of the handwriting is a strike-through line, for example, “double line”, etc., deletion of the mask of the text data on which the double line overlaps (cancellation of shading) is executed.

訂正処理部12は、第2認識結果の中でデジタルペン4により記入された箇所に対して、検出された筆跡に応じた訂正機能により訂正を行う。   The correction processing unit 12 corrects the portion entered by the digital pen 4 in the second recognition result with a correction function corresponding to the detected handwriting.

訂正処理部12は、デジタルペン4により生成されたドットパターン(位置情報)の系列(筆跡検出の元となる情報)から、デジタルペン4の筆跡を検出し、検出した筆跡の形態に応じて、筆跡検出位置の文字または図形を訂正し、データ記憶部15の認識結果のデータを更新する。   The correction processing unit 12 detects the handwriting of the digital pen 4 from the series of dot patterns (position information) generated by the digital pen 4 (information that is the basis for handwriting detection), and according to the form of the detected handwriting, The character or figure at the handwriting detection position is corrected, and the recognition result data in the data storage unit 15 is updated.

筆跡の形態が、例えば範囲を指定する範囲指定線の場合、訂正処理部12はその範囲指定緯線の範囲に存在する文字認識結果のデータにマスク処理を施す。また筆跡が二重線であった場合、訂正処理部12はその二重線と重なる文字がマスクされたものの場合、そのマスクされた文字を元の文字に置換する。つまりマスクされた文字を元のテキストデータに戻す。   When the handwriting form is, for example, a range designation line that designates a range, the correction processing unit 12 performs mask processing on the character recognition result data existing in the range of the range designation latitude line. When the handwriting is a double line, the correction processing unit 12 replaces the masked character with the original character when the character overlapping the double line is masked. That is, the masked character is restored to the original text data.

データ記憶部15には、例えば帳票P1の画像を文字認識して得られた文字認識結果のデータ(第1認識結果)と、このうちの所定の文字または所定の図形に対してマスク処理を施した認識結果のデータ(これを「マスク済みデータ」または「第2認識結果」という)とが記憶される。   In the data storage unit 15, for example, character recognition result data (first recognition result) obtained by character recognition of the image of the form P1 and a predetermined character or a predetermined figure are masked. The recognition result data (this is called “masked data” or “second recognition result”) is stored.

またデータ記憶部15には、帳票P3の基準位置となる紙面の所定のコーナ部の位置情報(座標データ)と、ドットパターンで表わされる帳票P3上の各箇所の位置情報(座標データ)と、の相対的な位置関係を示す帳票P3のフォームデータが記憶されている。このフォームデータにはマスク箇所の情報も含まれている。   Further, in the data storage unit 15, the position information (coordinate data) of a predetermined corner portion of the paper serving as the reference position of the form P3, the position information (coordinate data) of each part on the form P3 represented by the dot pattern, The form data of the form P3 indicating the relative positional relationship is stored. This form data also includes mask location information.

印刷制御部16は、コンピュータ3の画面から印刷の指示が行われた場合、白紙の帳票P2に対して第2認識結果とドットパターン(図4参照)を印刷するようプリンタ5を制御する。この際、第2認識結果はカーボンを含まないインク(これを「第1のインク」と称す)で印刷し、ドットパターンはカーボンを含むインク(これを「第2のインク」と称す)で印刷するようプリンタ5を制御する。
個人情報テーブル17には、図8に示すように、検出されたマスク対象のデータ(姓名)と、検出位置(帳票P3の何ページの何行)と、マスク処理で変換した文字または図形とが対応して記憶される。すなわち、個人情報テーブル17は、マスク対象の個人情報が記憶された個人情報記憶部として機能する。
The print controller 16 controls the printer 5 to print the second recognition result and the dot pattern (see FIG. 4) on the blank form P2 when a print instruction is issued from the screen of the computer 3. At this time, the second recognition result is printed with ink not containing carbon (this is referred to as “first ink”), and the dot pattern is printed with ink containing carbon (this is referred to as “second ink”). The printer 5 is controlled to do so.
As shown in FIG. 8, the personal information table 17 includes detected mask target data (first name and last name), a detection position (how many lines of which page of the form P3), and characters or figures converted by mask processing. Correspondingly stored. That is, the personal information table 17 functions as a personal information storage unit in which personal information to be masked is stored.

制御部20は、上記各部を制御する。制御部20はメモリ14内に作業領域を確保し各種処理を実行する。より具体的には、制御部20は、例えば文字認識処理および訂正処理の際に文字認識部9、マスク処理部8、訂正処理部12を制御する。制御部20は、例えば文字認識部9を制御し、帳票P1の画像のうちの文字認識対象範囲を検出させるとともに、その範囲内の一文字毎のイメージの切り出し処理などの画像処理や、切り出したイメージの文字認識処理を実行させる。   The control unit 20 controls each of the above units. The control unit 20 secures a work area in the memory 14 and executes various processes. More specifically, the control unit 20 controls the character recognition unit 9, the mask processing unit 8, and the correction processing unit 12 during, for example, character recognition processing and correction processing. For example, the control unit 20 controls the character recognition unit 9 to detect a character recognition target range in the image of the form P1, and performs image processing such as image cut-out processing for each character in the range, or a cut-out image. The character recognition process is executed.

すなわち、このコンピュータ3は、スキャナ1により読み取られた帳票P1の画像から辞書10を用いて文字認識を行い、文字認識結果として個々のパターンの画像と対応するテキストデータを得た上で姓名辞書11を用いてテキストデータのマスク箇所(氏名記入部位)を特定してその箇所の文字にマスク処理を施し、マスク処理済みの文字認識結果のデータをハードディスク装置などに保持する。   That is, the computer 3 performs character recognition using the dictionary 10 from the image of the form P1 read by the scanner 1, obtains text data corresponding to each pattern image as a character recognition result, and then the first name surname dictionary 11. Is used to specify a mask portion (name entry portion) of the text data, mask processing is performed on the character at the portion, and character recognition result data after mask processing is held in a hard disk device or the like.

ここで、図3〜図5を参照してこの手書き入力システムで白紙の帳票P2に印刷されるドットパターンについて説明する。図3は紙面上のドットによる2ビットの情報の表現方法を説明するための図、図4は図3の2ビットの情報を示すドットの組み合わせで構成されるドットパターンの一例を示す図、図5は図4のドットパターンに対応するデータの配列を示す図である。   Here, with reference to FIGS. 3 to 5, a dot pattern printed on the blank form P <b> 2 by the handwriting input system will be described. FIG. 3 is a diagram for explaining a method of expressing 2-bit information using dots on the paper, and FIG. 4 is a diagram illustrating an example of a dot pattern composed of combinations of dots indicating 2-bit information in FIG. 5 is a diagram showing an arrangement of data corresponding to the dot pattern of FIG.

白紙の帳票P2の紙面全体には、図3に示すように、その紙面上の位置情報を表す複数のマークとしての灰色のドットパターンが印刷され、帳票P3とされる。このドットパターンでは、平均0.3mm間隔に格子状に配置された縦横6×6個のドットd1、d2…d36それぞれの基準位置(格子の縦横の交点)k1、k2…k36に対する位置ずれによって、それぞれのドットd1、d2…d36の値が示されている。これらドットd1、d2…d36の値の組み合わせが、帳票P3の紙面上の所定個所を示す一つの位置情報となる。   As shown in FIG. 3, a gray dot pattern as a plurality of marks representing position information on the paper surface is printed on the entire paper surface of the blank paper document P2 to form a paper document P3. In this dot pattern, 6 × 6 vertical and horizontal dots d1, d2,... D36 arranged in a grid pattern with an average interval of 0.3 mm are misaligned with respect to the reference positions (intersections of vertical and horizontal grids) k1, k2,. The values of the respective dots d1, d2,... D36 are shown. A combination of the values of these dots d1, d2,..., D36 becomes one piece of position information indicating a predetermined location on the paper surface of the form P3.

具体的には、図4に示すように、個々のドットは、基準位置から上下左右の四通りの方向へ僅かにずらした(シフトさせた)位置に配置されており、その基準位置に対する位置関係によって、0〜3の2ビットの符号化された情報を与える。したがって、図4に示したドットパターンから図5に示すデータの配列が得られ、このデータの配列が、ドットパターンを印刷後の帳票P3の紙面上の位置情報(二次元の座標位置)を示す。このような構成により、縦横6×6個のドットの値の組み合わせで4の36乗通りのパターンを生成でき、理論上、6000万平方キロメートルに相当する広大な二次元空間(座標平面)に対して位置情報を与えることができる。したがって、訂正対象の帳票P3がA4程度の用紙であれば全帳票P3を異なるものとして判別できる。すなわち、帳票P3には、この位置情報を持つ複数の種類のドットパターンが、紙面全体にわたって印刷されている。   Specifically, as shown in FIG. 4, each dot is arranged at a position slightly shifted (shifted) from the reference position in four directions, up, down, left, and right, and the positional relationship with respect to the reference position. Gives 2 bits of encoded information 0-3. Therefore, the arrangement of data shown in FIG. 5 is obtained from the dot pattern shown in FIG. 4, and this arrangement of data indicates positional information (two-dimensional coordinate position) on the paper surface of the form P3 after printing the dot pattern. . With such a configuration, a pattern of 4 to the 36th power can be generated by combining the values of 6 × 6 dots in the vertical and horizontal directions, and theoretically for a vast two-dimensional space (coordinate plane) equivalent to 60 million square kilometers. Location information can be given. Therefore, if the form P3 to be corrected is a sheet of about A4, it is possible to determine that all forms P3 are different. That is, a plurality of types of dot patterns having this position information are printed on the form P3 over the entire sheet.

ここで、図4に示した縦横6×6個のドットで構成される帳票P3の紙面上のドットパターンの印刷範囲は、デジタルペン4に内蔵された後述するカメラ33が一回でその映像を捕捉可能な範囲である。また、帳票P3には、図1に示すように、ユーザが例えば文章などを記入するための記入枠が印刷されている。この記入枠内は、帳票P3の紙面上における文字認識範囲(文字の読取範囲)として予めメモリ14に定義(設定)されている。   Here, the print range of the dot pattern on the paper surface of the form P3 composed of 6 × 6 dots in the vertical and horizontal directions shown in FIG. 4 is displayed by the camera 33 (described later) built in the digital pen 4 at a time. It is a range that can be captured. Further, as shown in FIG. 1, the form P3 is printed with an entry frame for the user to enter, for example, a sentence or the like. This entry frame is previously defined (set) in the memory 14 as a character recognition range (character reading range) on the sheet P3.

次に、図6を参照してデジタルペン4について説明する。
デジタルペン4は、カーボンを含む第2のインクで帳票P3に印刷されたドットパターンを光学的に読取可能なペン型の入力デバイスである。デジタルペン4は、電子ペンなどともいう。
Next, the digital pen 4 will be described with reference to FIG.
The digital pen 4 is a pen-type input device that can optically read the dot pattern printed on the form P3 with the second ink containing carbon. The digital pen 4 is also called an electronic pen.

図6に示すように、デジタルペン4は、ユーザの保持し易い形状に形成されたケーシング(筐体)31を備える。ケーシング31の先端部分(ペン先の部分)にはペン部32が設けられている。さらに、ケーシング31の内部には、このペン部32に接続されたインクカートリッジ34が搭載されている。つまり、帳票P3の紙面に対しペン部32の先端部を押圧しつつ移動させることで、インクカートリッジ34から染み出すインクによって筆記を行うことができる。インクカートリッジ34にはカーボンを含まないインク(例えば染料系のインクなど)が充填されている。   As shown in FIG. 6, the digital pen 4 includes a casing (housing) 31 formed in a shape that can be easily held by the user. A pen portion 32 is provided at the tip portion (the pen tip portion) of the casing 31. Further, an ink cartridge 34 connected to the pen portion 32 is mounted inside the casing 31. That is, writing can be performed with the ink that oozes out from the ink cartridge 34 by moving the tip portion of the pen portion 32 while pressing it against the paper surface of the form P3. The ink cartridge 34 is filled with ink not containing carbon (for example, dye-based ink).

また、ケーシング31内には、帳票P3の紙面においてペン部32が接触している位置とその近傍の領域を撮像するためのカメラ33が設けられている。カメラ33は、例えば赤外線を発光する発光ダイオードなどの照明部と、CCDセンサやCMOSセンサなどの撮像素子と、レンズなどの光学系とを備える。このカメラ33は、上述したように、帳票P3の紙面上の縦横6×6個のドット分の視野があり、例えば毎秒50以上のスナップショットを撮影する。   In addition, a camera 33 is provided in the casing 31 for capturing an image of a position where the pen unit 32 is in contact with the paper surface of the form P3 and a region in the vicinity thereof. The camera 33 includes an illumination unit such as a light emitting diode that emits infrared rays, an image sensor such as a CCD sensor or a CMOS sensor, and an optical system such as a lens. As described above, the camera 33 has a field of view of 6 × 6 dots in the vertical and horizontal directions on the paper surface of the form P3, and takes, for example, 50 or more snapshots per second.

スナップショットとしては、照明部から発光されるのが赤外光のためカーボンを含むインクの印刷部位が反射し、紙面に印刷されたドットパターンのみが撮影される。また、ケーシング31の内部には、ペン部32により帳票P3への記入が行われているタイミングを検知するためにペン部32の筆圧を検出する筆圧(加圧)センサ35が設けられている。すなわち、このカメラ33は、第2インクで印刷されたドットパターンを光学的に読み取り可能なドットパターン読取部として機能する。   As the snapshot, since the light emitted from the illumination unit is infrared light, the print portion of the ink containing carbon is reflected, and only the dot pattern printed on the paper surface is photographed. In addition, a writing pressure (pressurization) sensor 35 that detects the writing pressure of the pen unit 32 is provided inside the casing 31 in order to detect the timing when the pen unit 32 fills in the form P3. Yes. That is, the camera 33 functions as a dot pattern reading unit that can optically read the dot pattern printed with the second ink.

さらに、ケーシング31には、CPU36、メモリ37、バッテリ38、通信部39などが内蔵されている。CPU36は、デジタルペン4内の各部の統括的な制御、カメラ33によって取り込まれた映像データに対する処理、例えば映像データからの帳票P3上のドットパターンの抽出や、抽出したドットパターンを位置情報に変換する処理などを行う。   Further, the casing 31 includes a CPU 36, a memory 37, a battery 38, a communication unit 39, and the like. The CPU 36 performs overall control of each part in the digital pen 4, processing on video data captured by the camera 33, for example, extraction of a dot pattern on the form P3 from the video data, and conversion of the extracted dot pattern into position information Perform processing to do.

メモリ37は、カメラ33によって取り込まれた映像データの一時的な蓄積のための領域や、CPU36による映像データの処理のための作業領域などとして用いられる。また、メモリ37には、CPU36による映像データの処理のために必要なプログラムや、ドットパターンを位置情報に変換するために参照される変換テーブルなどが格納されている。   The memory 37 is used as an area for temporarily storing video data captured by the camera 33, a work area for processing video data by the CPU 36, and the like. Further, the memory 37 stores a program necessary for processing video data by the CPU 36, a conversion table referred to for converting a dot pattern into position information, and the like.

バッテリ38は、ケーシング31内の通信部39を含む各ハードウェアに電力を供給する。通信部39は、例えばBluetooth(登録商標)通信やIrDA通信などの無線通信により、コンピュータ3との間で情報をやり取りする。ここで、このような無線通信に代えて、USBケーブルなどを利用し有線によりコンピュータ3との間で交信を行うようにしてもよい。USBケーブルを適用した場合、コンピュータ3側からデジタルペン4側へ電力を供給できるため、上記バッテリ38を削除することが可能となる。   The battery 38 supplies power to the hardware including the communication unit 39 in the casing 31. The communication unit 39 exchanges information with the computer 3 by wireless communication such as Bluetooth (registered trademark) communication or IrDA communication. Here, instead of such wireless communication, communication with the computer 3 may be performed by wire using a USB cable or the like. When the USB cable is applied, power can be supplied from the computer 3 side to the digital pen 4 side, so that the battery 38 can be deleted.

このように構成されるデジタルペン4では、筆記操作によりペン先が用紙の上を移動するときに、カメラ33が紙面に印刷されたドットパターンを読み取る。   In the digital pen 4 configured as described above, the camera 33 reads the dot pattern printed on the paper surface when the pen tip moves on the paper by a writing operation.

より具体的には、帳票P3の紙面上においてペン部32の先端部の接触位置とその近傍の領域をカメラ33が撮像している状態で、CPU36は、筆圧センサ35の出力の変化を監視しており、ペン部32が帳票P3上に押圧されて筆圧センサ35の出力が所定のしきい値に達したことを判断した場合、カメラ33によって撮像された映像データをメモリ37に取り込む。   More specifically, the CPU 36 monitors the change in the output of the writing pressure sensor 35 while the camera 33 is imaging the contact position of the tip of the pen unit 32 and the area in the vicinity thereof on the paper surface of the form P3. When it is determined that the pen unit 32 is pressed onto the form P3 and the output of the writing pressure sensor 35 has reached a predetermined threshold value, the video data captured by the camera 33 is taken into the memory 37.

次に、CPU36は、メモリ37に記憶された映像データの中からドットパターンを抽出し、メモリ37に格納されている変換テーブルを参照して、そのドットパターンに対応する位置情報を復号(算出)する。この位置情報の生成は、所定の時間間隔で行われる。また、位置情報は、帳票P3における所定の基準座標に対するx,y座標の値(座標データ)と、ペン部32がドットパターンをなぞった時刻を示す時刻データ(タイムスタンプ)とで構成される。つまり、CPU36は、x,y座標の値を時刻データと関連付けてメモリ37に時系列に記憶させる。   Next, the CPU 36 extracts a dot pattern from the video data stored in the memory 37, refers to the conversion table stored in the memory 37, and decodes (calculates) position information corresponding to the dot pattern. To do. The position information is generated at predetermined time intervals. The position information includes x and y coordinate values (coordinate data) with respect to predetermined reference coordinates in the form P3 and time data (time stamp) indicating the time when the pen unit 32 traces the dot pattern. That is, the CPU 36 stores the x and y coordinate values in the memory 37 in time series in association with the time data.

したがって、デジタルペン4は、帳票P3に対しペン部32を通じて筆記が可能であると共に、帳票P3上の筆記を行った位置に存在するドットパターンを読み込んで、ペン部32の移動軌跡(筆跡)に対応した位置情報の系列、すなわち、文字の書き順(筆記方向)や筆記速度といったストローク情報、筆圧、筆記時刻などを含む筆跡情報を生成する。このようにして得られた位置情報の系列(筆跡情報)は、通信部39によってコンピュータ3へ転送される。   Therefore, the digital pen 4 can write on the form P3 through the pen unit 32, and also reads a dot pattern existing at the position where the writing was made on the form P3, and moves it to the movement locus (handwriting) of the pen unit 32. Corresponding position information series, that is, handwriting information including stroke information such as character writing order (writing direction) and writing speed, writing pressure, writing time, and the like is generated. The series of position information (handwriting information) obtained in this way is transferred to the computer 3 by the communication unit 39.

次に、図7乃至図13を参照してこの手書き入力システムの動作を説明する。
この手書き入力システムでは、スキャナ1は、セットされた帳票P1をスキャンし(文書スキャンステップS101)、帳票P1の画像をコンピュータ3へ送る。コンピュータ3では、画像受付部7が帳票P1の画像を受け付け、データ記憶部15へ記憶する。
Next, the operation of the handwriting input system will be described with reference to FIGS.
In this handwriting input system, the scanner 1 scans the set form P1 (document scanning step S101), and sends an image of the form P1 to the computer 3. In the computer 3, the image receiving unit 7 receives the image of the form P 1 and stores it in the data storage unit 15.

続いて、文字認識部9は、データ記憶部15の画像を読み出し、辞書10を参照して画像に含まれる文字、図形等のパターンの認識処理を行い(文字認識ステップS102)、文字や図形の認識結果として各パターンの画像とこれに対応するテキストデータと帳票P1の画像におけるパターンの位置情報(x座標,y座標)とをデータ記憶部15に記憶する。   Subsequently, the character recognizing unit 9 reads the image of the data storage unit 15 and performs a process of recognizing patterns such as characters and graphics included in the image with reference to the dictionary 10 (character recognition step S102). As a recognition result, the image of each pattern, the corresponding text data, and the pattern position information (x coordinate, y coordinate) in the image of the form P1 are stored in the data storage unit 15.

次に、マスク処理部8は、データ記憶部15から認識結果のテキストデータを読み出し、姓名辞書11を参照して、テキストデータに含まれる姓名(氏名など)の個人情報を検出(抽出)し(個人情報検出ステップS103)、検出(抽出)した姓名(氏名など)に対してマスク処理を行った上でデータ記憶部15に第2認識結果(マスク済みデータ)として記憶する。   Next, the mask processing unit 8 reads the text data of the recognition result from the data storage unit 15 and refers to the first and last name dictionary 11 to detect (extract) personal information of first and last names (names and the like) included in the text data ( The personal information detection step S103) performs mask processing on the detected first and last names (names, etc.) and stores them as second recognition results (masked data) in the data storage unit 15.

その後、印刷指示があると、印刷制御部16はプリンタ5を制御して白紙の帳票P2に第2認識結果(マスク済みデータ)を印刷し(自動マスク済み文書印刷ステップS104)、帳票P3を作成する。   Thereafter, when there is a print instruction, the print control unit 16 controls the printer 5 to print the second recognition result (masked data) on the blank form P2 (automatic masked document printing step S104), thereby creating the form P3. To do.

ここで、帳票P3には、マスク処理が施された第2認識結果(マスク済みデータ)と共にアノト方式のデジタルペン4で読み取り可能なドットパターンがプリンタ5によって印刷される。この帳票P3をデジタルペン文書と呼び、図10(a)にその印刷例を示す。   Here, a dot pattern readable by the Anoto digital pen 4 is printed by the printer 5 together with the second recognition result (masked data) subjected to the masking process on the form P3. This form P3 is called a digital pen document, and FIG.

図10(a)に示す印刷例のデジタルペン文書では、「しかしながら」の後の「日本太郎」が氏名、つまりマスク箇所であり、この部分は網掛けで印刷されており、第1認識結果の文字「日本太郎」が判読可能になっている。   In the digital pen document of the printing example shown in FIG. 10A, “Nippon Taro” after “however” is a name, that is, a mask portion, and this portion is printed with shading. The characters “Nihontaro” are legible.

オペレータ(ユーザ)は、印刷したデジタルペン文書を目視で確認することで、個人情報が適切にマスクされているか否かの確認を行う。   The operator (user) confirms whether or not the personal information is appropriately masked by visually confirming the printed digital pen document.

帳票P3から読み取った画像からの文字認識や個人情報の抽出では、読み取り元の帳票P1が手書きされたものであるため、100%確実な結果を得られない。このため自動的にマスク処理を行った文書には何らかの誤りが発生している可能性がある。   In the character recognition and the extraction of personal information from the image read from the form P3, since the form P1 as the reading source is handwritten, a 100% reliable result cannot be obtained. For this reason, there is a possibility that some error has occurred in the document that has been automatically masked.

そこで、帳票P3とデジタルペン4を用いて訂正処理を行った上で(訂正処理ステップS200)、訂正完了を示す「確定」の操作がなされることで、訂正処理部12は、第2認識結果の訂正が完了(マスク完了)したものとして、PDFファイルに変換してデータ記憶部15に保存する。訂正処理部12は、PDFファイルに変換する際に、網掛け部分を黒く塗りつぶす処理を行う。この結果、図10(b)のように、訂正済み第2認識結果の中で個人情報63が黒く塗りつぶされたマスク完了PDFとなる。   Therefore, after performing the correction process using the form P3 and the digital pen 4 (correction process step S200), the “recognition” operation indicating the completion of the correction is performed, whereby the correction processing unit 12 receives the second recognition result. Is corrected (mask completed), converted into a PDF file and stored in the data storage unit 15. The correction processing unit 12 performs a process of painting a shaded portion black when converting to a PDF file. As a result, as shown in FIG. 10B, the mask completion PDF in which the personal information 63 is painted black in the corrected second recognition result is obtained.

ここで、上記文字認識処理ステップS102について詳述する。文字認識処理ステップS102では、図8に示すように、原文書である帳票P1をスキャンすることで(ステップS201)、帳票P1の画像が得られる。そして、得られた画像を文字認識することで(ステップS202)、第1認識結果であるテキストデータが得られる。   Here, the character recognition processing step S102 will be described in detail. In the character recognition processing step S102, as shown in FIG. 8, an image of the form P1 is obtained by scanning the form P1, which is the original document (step S201). And the text data which is a 1st recognition result is obtained by character-recognizing the obtained image (step S202).

第1認識結果をテキストサーチし、姓名辞書11に格納されているデータと比較することで、一致した個人情報を抽出し(ステップS204)、抽出した個人情報を個人情報テーブル17に記憶すると共に(ステップS207)、個人情報のエリアの座標と第1認識結果とをデータ記憶部15へ格納する(ステップS208)。   The first recognition result is text-searched and compared with the data stored in the first and last name dictionary 11 to extract the matched personal information (step S204), and the extracted personal information is stored in the personal information table 17 ( In step S207, the coordinates of the area of the personal information and the first recognition result are stored in the data storage unit 15 (step S208).

最後に、マスク処理部8は、個人情報を網掛け文字に変換し、第2認識結果としての自動マスク済み文書を帳票P3(デジタルペン文書)として印刷する(ステップS209)。   Finally, the mask processing unit 8 converts the personal information into shaded characters, and prints the automatically masked document as the second recognition result as a form P3 (digital pen document) (step S209).

続いて、訂正処理ステップS200について説明する。訂正処理ステップS200では、図9に示すように、帳票P3(デジタルペン文書)の紙面上にデジタルペン4を移動し(ステップS301)、デジタルペン4を操作すると(ステップS302)、デジタルペン4から、読み取ったドットパターン(位置情報)の系列が記入情報受付部6に順次入力され(ステップS303)、メモリ14に取り込まれる。   Subsequently, the correction processing step S200 will be described. In the correction processing step S200, as shown in FIG. 9, the digital pen 4 is moved onto the paper surface of the form P3 (digital pen document) (step S301), and the digital pen 4 is operated (step S302). The series of read dot patterns (position information) is sequentially input to the entry information receiving unit 6 (step S303) and is taken into the memory 14.

訂正処理部12は、メモリ14からドットパターン(位置情報)の系列を読み出して筆跡を検出し、予め設定されている訂正機能毎の筆跡の形態(線のタイプ)と比較して合致または類似するものの有無を判別する(ステップS304)。   The correction processing unit 12 reads a series of dot patterns (position information) from the memory 14 to detect a handwriting, and matches or resembles a handwriting form (line type) for each correction function set in advance. The presence or absence of a thing is discriminated (step S304).

この判別の結果、線のタイプが二重線である場合(ステップS304の「二重線」)、訂正処理部12は、その二重線に重なる位置の文字の網掛けを削除(マスクを削除)し(ステップS305)、個人情報テーブル17を更新する(ステップS306)。   As a result of this determination, if the line type is a double line (“double line” in step S304), the correction processing unit 12 deletes the shading of the character at the position overlapping the double line (deletes the mask). (Step S305), and the personal information table 17 is updated (Step S306).

また、線のタイプが四角である場合(ステップS304の「四角」)、訂正処理部12は、四角で囲まれたエリア内へのデジタルペン4からの入力があるか否かを判定する(ステップS307)。   If the line type is a square (“square” in step S304), the correction processing unit 12 determines whether or not there is an input from the digital pen 4 in the area surrounded by the square (step S304). S307).

デジタルペン4からの入力(記入)があった場合(ステップS307の「有」)、筆跡を基にそのエリア内に記入された文字(例えば「A」など)を認識し(ステップS308)、認識した文字または図形などのマークを、個人情報テーブル17の該当する氏名の欄に追加する(ステップS309)。例えば個人情報テーブル17の既登録の「日本太郎」の欄に「A」等のマークが追加される。   When there is an input (entry) from the digital pen 4 (“Yes” in step S307), the character (for example, “A”) entered in the area is recognized based on the handwriting (step S308) and recognized. The mark such as the character or figure that has been added is added to the corresponding name column in the personal information table 17 (step S309). For example, a mark such as “A” is added to the registered “Taro Nihon” column in the personal information table 17.

一方、デジタルペン4からの入力(記入)が一定時間以上ない場合(ステップS307の「無」)、そのエリア内のテキストデータにマスクを追加、つまり網掛け文字する(ステップS310)。   On the other hand, when there is no input (entry) from the digital pen 4 for a certain time (“No” in step S307), a mask is added to the text data in the area, that is, shaded characters are added (step S310).

そして、訂正終了操作があれば(ステップS311のYes)、訂正済みの文書をデータ記憶部15に格納する(ステップS312)。   If there is a correction end operation (Yes in step S311), the corrected document is stored in the data storage unit 15 (step S312).

ここで、訂正処理ステップS200におけるマスク箇所の追加と削除の具体例について説明する。
(マスク箇所の追加)
オペレータが帳票P3を確認したときに、図10(a)に示すように、1行目の文字列「日本太郎」は網掛け文字61とされ、マスクされているにもかかわらず、マスクすべき個人情報である3行目の文字列「日本花子」(氏名)がマスクされていなかった場合、文字列「日本花子」の部分に、デジタルペン4にて、太線で示す範囲指定線62を、該当文字列「日本花子」を囲うように手書きする。ここで範囲指定線62は、できるだけ四角い枠のように記載する。
Here, a specific example of addition and deletion of mask portions in the correction processing step S200 will be described.
(Add mask part)
When the operator confirms the form P3, as shown in FIG. 10A, the character string “Nippon Taro” on the first line is the shaded character 61 and should be masked even though it is masked. When the character string “Nippon Hanako” (name) on the third line, which is personal information, is not masked, a range designation line 62 indicated by a bold line is placed on the character string “Nippon Hanako” with the digital pen 4. Handwritten to enclose the character string “Nippon Hanako”. Here, the range designation line 62 is described as a rectangular frame as much as possible.

この際、デジタルペン4は、ペン先のカメラ33で紙面から読み取ったドットパターンをリアルタイムにコンピュータ3へ送信する。   At this time, the digital pen 4 transmits the dot pattern read from the paper surface by the pen tip camera 33 to the computer 3 in real time.

コンピュータ3では、訂正処理部12は、記入情報受付部6により受け付けられたドットパターンの情報と予め設定されているドットパターンの位置情報とから、ペン先がどのページのどの座標を移動しているかを検出し(これを筆跡検出という)、検出された筆跡「範囲指定線62」で囲まれた範囲内にある各文字列「日本花子」の外形を繋げた矩形を認識し、その矩形のエリアをマスク箇所として決定し、そのマスク箇所のデータ(矩形の対角の2つの頂点の座標)をメモリ14に追加する。   In the computer 3, the correction processing unit 12 determines which coordinate of which page the pen point moves from the dot pattern information received by the entry information receiving unit 6 and the preset dot pattern position information. (This is called handwriting detection), and a rectangle connecting the outer shapes of the character strings “Nippon Hanako” within the range surrounded by the detected handwriting “range designation line 62” is recognized, and the rectangular area is recognized. Is determined as a mask location, and data of the mask location (the coordinates of the two vertices of the diagonal of the rectangle) is added to the memory 14.

(マスク箇所の削除)
図10(a)のデジタルペン文書の2行目の「放棄」の文字列のようにマスクすべきでない箇所にマスクがかかっている(網掛け文字の)場合や誤ってマスクしてしまった場合には、その箇所にデジタルペン4で二重線63を引くことで、訂正処理部12は、二重線63の筆跡を検出してその箇所のマスクを解除(削除)する。
(Delete mask part)
When a portion that should not be masked is masked (shaded characters) or masked by mistake, such as the character string “Abandoned” on the second line of the digital pen document in FIG. In other words, the correction processing unit 12 detects the handwriting of the double line 63 and cancels (deletes) the mask of the part by drawing the double line 63 at the place with the digital pen 4.

オペレータは、全ての箇所を訂正した後、訂正箇所の確定操作を行うと、訂正処理部12は、訂正箇所を反映させた第2認識結果をマスク済みPDFファイルへ変換し、データ記憶部15に記憶する、またはモニタ2の画面に表示する等の出力を行う。
この結果、図10(b)に示すように、マスク済みPDFファイルは、個人情報の部分であるマスク箇所64が黒くマスクされてモニタ2の画面に表示される。なお訂正箇所の確定操作は、キーボードのENTERボタンを押してもよく、デジタルペン4で、帳票P3の所定位置(訂正終了のマークなど)をポイントしてもよい。
When the operator corrects all the locations and then performs a determination operation for the corrected locations, the correction processing unit 12 converts the second recognition result reflecting the corrected locations into a masked PDF file, and stores it in the data storage unit 15. Output such as storing or displaying on the screen of the monitor 2 is performed.
As a result, as shown in FIG. 10B, the masked PDF file is displayed on the screen of the monitor 2 with the mask portion 64 which is a portion of the personal information masked black. The correction location confirmation operation may be performed by pressing the ENTER button on the keyboard, or by using the digital pen 4 to point a predetermined position (such as a correction end mark) on the form P3.

従来、このような作業を、画像処理アプリケーションソフトウェア(例えばPhotoshopやGIMPなど)の既存の画像処理ツールを起動し画面上で画像の訂正を行った場合、紙と比べて全体を見渡すことが難しいため、マスクの見落としが発生するリスクが高い。紙と同様の解像度を持つ高精細ディスプレイも開発されているが、高精細ディスプレイは1台あたり100万円程度と極めて高価である。   Conventionally, when an existing image processing tool of image processing application software (for example, Photoshop or GIMP) is activated and an image is corrected on the screen, it is difficult to overlook the whole work as compared with paper. There is a high risk that masks will be overlooked. A high-definition display having the same resolution as that of paper has been developed, but a high-definition display is extremely expensive at about 1 million yen per unit.

その点、デジタルペン4は1本あたりの価格が数万円程度と格段に安価であり、かつ紙であるため視認性が極めて高く低コストにかつ確実な訂正が行える。   In that respect, the digital pen 4 has a remarkably low price of about several tens of thousands of yen, and since it is paper, the visibility is extremely high and low-cost and reliable correction can be performed.

また、超音波ペンなどの他の手書き方式のペン装置では、ページを識別することができないため、編集しようとしているページがどのページなのかを、コンピュータ上の操作で、与える必要があるという欠点があったが、アノト方式のデジタルペン4は、どのページのどの座標にペンがあるのかをリアルタイムに取得するので、コンピュータ上の操作でページを指定する必要がなく、複数ページに渡る編集が極めて容易に行える。   Also, other handwritten pen devices such as ultrasonic pens cannot identify the page, so there is a drawback in that it is necessary to give an operation on the computer which page is being edited. However, the Anoto digital pen 4 obtains in real time which page the coordinate is on, so there is no need to specify the page on the computer, and editing across multiple pages is extremely easy. Can be done.

このようにこの第1実施形態の手書き入力システムによれば、マスク対象箇所を紙の状態で確認しつつその箇所の訂正を手書き作業で行った上、訂正したデータを電子的に格納できる作業効率のよい手書き入力システムを提供することができる。   As described above, according to the handwriting input system of the first embodiment, the work efficiency can be stored electronically after correcting the portion by handwriting while confirming the mask target portion in a paper state. Can provide a good handwriting input system.

以下、図10に示した例(第1実施形態)からの変形例(第2実施形態〜第4実施形態)について説明する。
(第2実施形態)図11に第2実施形態を示す。この第2実施形態では、第1実施形態に記載したマスク方法に加えて、図11(b)に示すように、名前を「A」などの仮名に置き換えたマスク完了PDFファイルを作成する機能を追加したものである。この場合、オペレータは、帳票P3に印刷されたテキストデータのうち、図11(a)に示すように、マスク漏れの個人情報、例えば「日本花子」の周囲を囲むようにデジタルペン4で範囲指定線62を描き、その後、その範囲指定線62の内側に例えば「B」という文字65を追記する。
Hereinafter, modified examples (second embodiment to fourth embodiment) from the example (first embodiment) shown in FIG. 10 will be described.
(Second Embodiment) FIG. 11 shows a second embodiment. In the second embodiment, in addition to the mask method described in the first embodiment, as shown in FIG. 11B, a function for creating a mask completion PDF file in which the name is replaced with a pseudonym such as “A” is provided. It is added. In this case, the operator designates a range with the digital pen 4 so as to surround the personal information of the mask omission, for example, “Nippon Hanako”, among the text data printed on the form P3, as shown in FIG. A line 62 is drawn, and then, for example, a character 65 “B” is added inside the range designation line 62.

この際、訂正処理部12は、範囲指定後に入力された文字「B」65を文字認識し、今回個人情報テーブル17に新たに登録する名前「日本花子」の欄に、認識した文字「B」を追加登録する。   At this time, the correction processing unit 12 recognizes the character “B” 65 inputted after the range is designated, and recognizes the recognized character “B” in the column of the name “Nippon Hanako” newly registered in the personal information table 17 this time. Register additional.

なお、追加登録の際に、文字認識及びマスク処理の時点で個人情報テーブル17に既に登録済みの名前と同じ名前が検出された場合、以降に検出された名前を、個人情報テーブル17の名前に対応する仮名に置き換える。   In addition, when the same name as the name already registered in the personal information table 17 is detected at the time of character recognition and mask processing at the time of additional registration, the name detected thereafter is used as the name of the personal information table 17. Replace with the corresponding kana.

この場合も、文字認識処理は100%の性能を得られないため、マスク箇所に誤りが発生する。そこで、この例では、自動マスク処理で見落とした名前を矩形で囲い、その中に記入された仮名「A」、「B」などの文字を挿入する。訂正処理部12は手書きされた範囲選択線および文字を認識することで、マスク対象位置の文字および置き換える仮名を判別する。   Also in this case, since the character recognition process cannot obtain 100% performance, an error occurs in the mask portion. Therefore, in this example, a name overlooked by the automatic mask process is enclosed in a rectangle, and characters such as kana “A” and “B” written therein are inserted. The correction processing unit 12 recognizes the handwritten range selection line and the character to determine the character at the mask target position and the replacement kana.

この例では、訂正済みの認識結果をPDFファイルとして出力する際には、図11(b)に示すように、黒地のマスクに反転文字(白い文字)の仮名「A」、「B」が重なったマスク66,67に置換される。   In this example, when the corrected recognition result is output as a PDF file, as shown in FIG. 11B, inverted characters (white characters) Kana “A” and “B” overlap with a black background mask. The masks 66 and 67 are replaced.

(第3実施形態)図12に第3実施形態を示す。この例では、図12(a)に示すように、オペレータが、デジタルペン4にて、マスクする箇所を範囲指定線62で多少大きめに囲んだ場合、訂正処理部12は、その囲んだエリア内で一番近い文字列の矩形(各文字毎の外形を連結したもの)に合わせてマスクを生成する。これにより、図12(b)に示すように、文字は適切な大きさでマスク63が表示され、認識結果のデータに見栄えよくマスクすることができる。   (Third Embodiment) FIG. 12 shows a third embodiment. In this example, as shown in FIG. 12A, when the operator encloses a portion to be masked with the digital pen 4 with a range designation line 62 slightly larger, the correction processing unit 12 is in the enclosed area. A mask is generated in accordance with the rectangle of the nearest character string (concatenated outline of each character). As a result, as shown in FIG. 12B, the mask 63 is displayed with an appropriate size for the characters, and can be masked in the appearance of the recognition result data.

同様の原理で、エリアを少し小さめに囲んだ場合にもそのエリアに一番近い文字矩形(文字の外形)に合わせてマスクを生成する。これにより、オペレータがデジタルペン4で多少ラフに操作を行った場合でも、正しい位置にマスクをかけることができる。   Based on the same principle, even when an area is surrounded slightly smaller, a mask is generated in accordance with the character rectangle (character outline) closest to the area. As a result, even when the operator performs a somewhat rough operation with the digital pen 4, the mask can be put on the correct position.

(第4実施形態)図13に第4実施形態を示す。この例では、図13(a)に示すように、オペレータが、デジタルペン4にて、マスクする個人情報(文字列「日本花子」)を範囲指定線62で囲んだ場合、訂正処理部12は、その文字列「日本花子」と同じ文字列を文書全体から検出して、第2認識結果の該当文字列に警告のためのフラグを設定する。このようにして紙面による第2認識結果の訂正後、マスク完了PDFファイルを作成し、データ記憶部15に記憶する。   (Fourth Embodiment) FIG. 13 shows a fourth embodiment. In this example, as shown in FIG. 13A, when the operator encloses personal information to be masked (character string “Nippon Hanako”) with a range designation line 62 with the digital pen 4, the correction processing unit 12 Then, the same character string as the character string “Nippon Hanako” is detected from the entire document, and a warning flag is set in the corresponding character string of the second recognition result. After correcting the second recognition result on the paper in this way, a mask completion PDF file is created and stored in the data storage unit 15.

最終的な認識結果であるマスク完了PDFファイルを、PDFファイル閲覧用のツールでモニタ2の画面に表示したときに、図13(b)に示すように、フラグが設定されている文字列「日本花子」を網掛け文字68したり、またはその箇所の近傍位置に「警告」というマーク69またはメッセージを表示しオペレータにマスク漏れを報知する。この実施形態によれば、同じ名前のマスクし忘れを防ぐことができる。   When the mask completion PDF file, which is the final recognition result, is displayed on the screen of the monitor 2 using a PDF file browsing tool, as shown in FIG. “Hanako” is shaded 68, or a mark 69 or a message “warning” is displayed near the location to notify the operator of mask leakage. According to this embodiment, forgetting to mask the same name can be prevented.

なお、本願発明は上記実施形態のみに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形してもよい。例えば上記実施形態で説明した各構成要素をコンピュータのハードディスク装置などのストレージにインストールしたプログラムで実現してもよく、また上記プログラムを、コンピュータ読取可能な電子媒体:electronic mediaに記憶しておき、プログラムを電子媒体からコンピュータに読み取らせることで本発明の機能をコンピュータが実現するようにしてもよい。電子媒体としては、例えばCD−ROM等の記録媒体やフラッシュメモリ、リムーバブルメディア:Removable media等が含まれる。さらに、ネットワークを介して接続した異なるコンピュータに構成要素を分散して記憶し、各構成要素を機能させたコンピュータ間で通信することで実現してもよい。   In addition, this invention is not limited only to the said embodiment, You may deform | transform a component in the range which does not deviate from the summary in an implementation stage. For example, each constituent element described in the above embodiment may be realized by a program installed in a storage such as a hard disk device of a computer, or the program is stored in a computer-readable electronic medium: program The computer may realize the functions of the present invention by causing the computer to read from the electronic medium. Examples of the electronic medium include a recording medium such as a CD-ROM, flash memory, and removable media. Further, the configuration may be realized by distributing and storing components in different computers connected via a network, and communicating between computers in which the components are functioning.

1…スキャナ、2…モニタ、3…コンピュータ、4…デジタルペン、5…プリンタ、6…記入情報受付部、7…画像受付部、8…マスク処理部、9…文字認識部、10…辞書、11…姓名辞書、12…訂正処理部、14…メモリ、15…データ記憶部、16…印刷制御部、17…個人情報テーブル、20…制御部、31…ケーシング、32…ペン部、33…カメラ、34…インクカートリッジ、35…センサ、35…筆圧センサ、37…メモリ、38…バッテリ、39…通信部。   DESCRIPTION OF SYMBOLS 1 ... Scanner, 2 ... Monitor, 3 ... Computer, 4 ... Digital pen, 5 ... Printer, 6 ... Entry information reception part, 7 ... Image reception part, 8 ... Mask processing part, 9 ... Character recognition part, 10 ... Dictionary, DESCRIPTION OF SYMBOLS 11 ... Last name dictionary, 12 ... Correction processing part, 14 ... Memory, 15 ... Data storage part, 16 ... Print control part, 17 ... Personal information table, 20 ... Control part, 31 ... Casing, 32 ... Pen part, 33 ... Camera , 34 ... ink cartridge, 35 ... sensor, 35 ... writing pressure sensor, 37 ... memory, 38 ... battery, 39 ... communication unit.

Claims (4)

帳票の画像を文字認識して得られた所定の文字または所定の図形に対してマスク処理を施した認識結果のデータが記憶されたデータ記憶部と、
紙面上の位置情報を示すドットパターンをカーボンを含むインクで紙面に印刷すると共に、前記データ記憶部の認識結果のデータを前記カーボンを含まないインクで前記紙面に印刷して認識結果訂正用の帳票を作成する印刷装置と、
前記帳票に対し筆記が可能であると共に、筆記位置に存在する前記ドットパターンを読み込んで前記位置情報の系列を生成するペン装置と、
前記ペン装置により生成された前記位置情報の系列から、前記ペン装置の筆跡を検出し、検出した前記筆跡の形態に応じて、筆跡検出位置の文字または図形を訂正し、前記データ記憶部の認識結果のデータを更新する訂正部と
を具備することを特徴とする手書き入力システム。
A data storage unit in which data of a recognition result obtained by performing mask processing on a predetermined character or a predetermined figure obtained by character recognition of an image of a form;
A dot pattern indicating positional information on the paper surface is printed on the paper surface with carbon-containing ink, and the recognition result data is printed on the paper surface with the recognition result data of the data storage unit using the carbon-free ink. A printing device to create,
A pen device that can write on the form and reads the dot pattern present at the writing position to generate the position information series;
The handwriting of the pen device is detected from the position information sequence generated by the pen device, and the character or the figure at the handwriting detection position is corrected according to the detected form of the handwriting, and the data storage unit is recognized. A handwriting input system comprising: a correction unit that updates result data.
前記訂正部は、
前記筆跡の形態が、認識結果の文字または図形を囲む範囲指定線であった場合、該当範囲の文字または図形に対してマスク処理を施すことを特徴とする請求項1記載の手書き入力システム。
The correction unit is
2. The handwriting input system according to claim 1, wherein when the form of the handwriting is a range designation line surrounding a character or a figure as a recognition result, a mask process is performed on the character or the figure in the corresponding range.
前記訂正部は、
前記筆跡の形態が、マスクされた文字または図形に重なるように引かれた取消線であった場合、該当文字または図形のマスクを削除することを特徴とする請求項1記載の手書き入力システム。
The correction unit is
2. The handwriting input system according to claim 1, wherein when the form of the handwriting is a strikethrough drawn so as to overlap a masked character or figure, the mask of the corresponding character or figure is deleted.
前記筆跡の形態が、認識結果の文字または図形を囲む範囲指定線と置換用の文字または図形との組であった場合、該当文字または図形を置換用の文字または図形に置換することを特徴とする請求項1記載の手書き入力システム。   When the form of the handwriting is a combination of a range designation line surrounding a character or graphic as a recognition result and a replacement character or graphic, the character or graphic is replaced with a replacement character or graphic. The handwriting input system according to claim 1.
JP2010047511A 2010-03-04 2010-03-04 Handwriting input system Withdrawn JP2011181043A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010047511A JP2011181043A (en) 2010-03-04 2010-03-04 Handwriting input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010047511A JP2011181043A (en) 2010-03-04 2010-03-04 Handwriting input system

Publications (1)

Publication Number Publication Date
JP2011181043A true JP2011181043A (en) 2011-09-15

Family

ID=44692447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010047511A Withdrawn JP2011181043A (en) 2010-03-04 2010-03-04 Handwriting input system

Country Status (1)

Country Link
JP (1) JP2011181043A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019097056A (en) * 2017-11-24 2019-06-20 キヤノン電子株式会社 Information processing system
CN111930251A (en) * 2020-08-08 2020-11-13 深圳腾千里科技有限公司 Method for reading carbon-containing code points

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019097056A (en) * 2017-11-24 2019-06-20 キヤノン電子株式会社 Information processing system
JP7050471B2 (en) 2017-11-24 2022-04-08 キヤノン電子株式会社 Information processing system
CN111930251A (en) * 2020-08-08 2020-11-13 深圳腾千里科技有限公司 Method for reading carbon-containing code points

Similar Documents

Publication Publication Date Title
JP6511770B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, AND PROGRAM
JP2008020973A (en) Paper document system and paper document management method
JP2012009000A (en) Business form processing system, ocr device, ocr processing program, business form creation device, business form creation program, and business form processing method
JP2007226577A (en) Data input processing system, and terminal device using digital pen, and computer program thereof
JP4983528B2 (en) Form image creation device, form image creation method, form image creation system, and program
JP6044198B2 (en) Computer apparatus, program, and information processing system
EP2595037A1 (en) Program, information processing device, information processing system
JP2009151449A (en) Electric blackboard with undo function
JP2011181043A (en) Handwriting input system
JP2012147373A (en) Image processor and image processing program
JP2007052659A (en) Information processor, association method and program
JP2008257530A (en) Electronic pen input data processing system
JP2019159932A (en) Information processing device and program
JP4807400B2 (en) Handwriting input device, program, and handwriting input method system
JP5089524B2 (en) Document processing apparatus, document processing system, document processing method, and document processing program
JP6279732B2 (en) TERMINAL DEVICE, INPUT CONTENT CONTROL METHOD, AND PROGRAM
JP2006134105A (en) Device for reading form
JP4565975B2 (en) Electronic pen form and its creation method
JP5906608B2 (en) Information processing apparatus and program
JP2006072877A (en) Document editing apparatus, document editing method, document editing program, and its recording medium
JP4693825B2 (en) Information processing apparatus and program
JP2006309505A (en) Terminal unit, program, and document for electronic pen
JP2006134104A (en) Form reader
JP6375903B2 (en) Entry information display device, entry information display method and program
JP6442995B2 (en) Information processing apparatus, information processing system, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130507