[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH0581467A - Method and device for image processing - Google Patents

Method and device for image processing

Info

Publication number
JPH0581467A
JPH0581467A JP3218571A JP21857191A JPH0581467A JP H0581467 A JPH0581467 A JP H0581467A JP 3218571 A JP3218571 A JP 3218571A JP 21857191 A JP21857191 A JP 21857191A JP H0581467 A JPH0581467 A JP H0581467A
Authority
JP
Japan
Prior art keywords
image
data
screen
character
processed data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3218571A
Other languages
Japanese (ja)
Inventor
Masami Hisagai
正己 久貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP3218571A priority Critical patent/JPH0581467A/en
Priority to US07/934,313 priority patent/US5703962A/en
Priority to EP92307847A priority patent/EP0531060B1/en
Priority to DE69230392T priority patent/DE69230392T2/en
Publication of JPH0581467A publication Critical patent/JPH0581467A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To provide the image processing method and device which process a read image by recognition, etc., to obtain processed data and perform correcting operation after the processing while displaying the original image and processed data. CONSTITUTION:Characters are segmented by processing read image data to obtain the images and positions of read characters as segmentation data, and the character images are recognized to obtain character codes as recognition data. Then the recognition data are displayed on the text screen of a CRT. The positions of the characters displayed on the text screen are made to correspond to the addresses of the corresponding recognition data and the both are combined together, so that the positions of the characters on the text screen and the character positions in the original image can be made to correspond to each other. (coordinate converting means). The screen is divided into a left and a right half part, which are a text screen and an image screen. On the image screen, a document image is displayed so that the left upper origin of the document is at the left upper part of the image when the image is read in; and the image on the specified text screen is processed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、イメージスキャナ等で
読みとった画像に認識などの処理を施し、処理データを
得、認識ミスの修正などのように元画像と処理データを
表示しながら、処理後の修正作業を伴う画像処理方法及
び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention performs processing such as recognition on an image read by an image scanner or the like, obtains processing data, displays an original image and processing data such as correction of recognition error, and performs processing. The present invention relates to an image processing method and apparatus that involve subsequent correction work.

【0002】[0002]

【従来の技術】文字認識装置(OCR)を例にとって説
明する。OCRでは、イメージスキャナ等により文書を
読み取り文書イメージをパソコンなどのモータ画面に表
示する。文書イメージの認識させたい領域をポインティ
ングデバイスで指定し文字認識させ、結果の文字列をパ
ソコンがもっているフォントでモニタにテキストとして
表示する。その後認識結果には当然誤認識が含まれてい
るから校正処理を行うことになる。校正処理はモニタに
表示されるテキスト画面とイメージ画面を比較しながら
行う方が、元の文書の紙と比較するより手軽である。
2. Description of the Related Art A character recognition device (OCR) will be described as an example. In OCR, a document is read by an image scanner or the like and the document image is displayed on a motor screen of a personal computer or the like. The area to be recognized in the document image is designated by the pointing device and characters are recognized, and the resulting character string is displayed as text on the monitor in the font that the personal computer has. After that, since the recognition result includes erroneous recognition, the calibration process is performed. It is easier to perform the proofreading process while comparing the text screen and the image screen displayed on the monitor than comparing with the paper of the original document.

【0003】図5は従来の技術の説明図であるが、J1
は640×400ドットのパソコンのモニタ画面、J2
はテキスト又はイメージを表示している画面、J3は認
識結果の文字をパソコンのフォントで表示したもので、
本例では模式的に□で表わしている。J4は元文書イメ
ージの文字画像を表示したビットイメージである。例で
は、テキスト画面とイメージ画面の切り替えをファンク
ションキーなどのスイッチにより行うようになってい
る。また、イメージ画面はA4文書を400dpiで読
み込んだ場合のイメージ(約3400×4800ドッ
ト)を全部表示しきれないのでその一部のみを表示して
いる。イメージの他の部分を表示させるには、不図示の
スクロールバーをポインティングデバイスで指示する
か、キーボードに割り当てられている画面スクロールキ
ーの押下によって行う。テキスト画面には、認識結果の
文字を16×16ドットのフォントで表示し、テキスト
を構成し、挿入、削除、置換などの編集操作が可能とな
っている。またテキスト画面もイメージ画面と同様にス
クロール操作ができる。そこで、オペレータが校正作業
を行っていきテキスト画面とイメージ画面を切り替えな
がら、テキストとイメージの比較を行いつつ誤認識の訂
正をしていくことになる。しかし、この方法だとテキス
トとイメージを同時に見ることができないので不便であ
る。また、校正作業が進んでいくとスクロール操作によ
りテキストの表示部分を変えていくことになるが、校正
対象の文字に対応した元イメージの箇所を表示させるた
めには、イメージ画面への切り替え後、さらにイメージ
のスクロールをやらなければならないという操作上の大
きな不便さがある。
FIG. 5 is an explanatory view of the prior art. J1
Is a 640 x 400 dot personal computer monitor screen, J2
Is a screen displaying a text or an image, J3 is a character of the recognition result displayed in the font of the personal computer,
In this example, it is schematically represented by □. J4 is a bit image displaying a character image of the original document image. In the example, switching between the text screen and the image screen is performed by a switch such as a function key. Further, the image screen cannot display the entire image (about 3400 × 4800 dots) when the A4 document is read at 400 dpi, so only a part of the image is displayed. To display the other part of the image, a scroll bar (not shown) is designated by a pointing device, or a screen scroll key assigned to the keyboard is pressed. On the text screen, the characters of the recognition result are displayed in a 16 × 16 dot font to compose the text, and editing operations such as insertion, deletion and replacement are possible. Also, the text screen can be scrolled like the image screen. Therefore, the operator performs the proofreading work and corrects the misrecognition while comparing the text and the image while switching between the text screen and the image screen. However, this method is inconvenient because you cannot see text and images at the same time. Also, as the proofreading work progresses, the display part of the text will be changed by scrolling, but in order to display the part of the original image corresponding to the character to be proofread, after switching to the image screen, Further, there is a great inconvenience in operation that the image has to be scrolled.

【0004】そこで、それを改良したものとして、図6
にその例を示す。図6に示す従来例では、テキスト画面
とイメージ画面を同時に表示させる方法もあるが、これ
では単に画面の切替え操作のみがなくなるだけで、スク
ロール操作の不便さは残っている。
Therefore, as an improved version thereof, FIG.
An example is shown in. In the conventional example shown in FIG. 6, there is also a method of simultaneously displaying a text screen and an image screen, but this only eliminates the screen switching operation, and the inconvenience of the scroll operation remains.

【0005】また、他の従来例として、図7のようにテ
キスト・イメージ画面とともに1行分を表示しテキスト
の対応する行のイメージをテキストの上に表示させる方
法もある。しかしこれでも横方向のスクロール操作の不
便さはまだ残っている。また、テキストの校正は通常そ
の部分の行だけでなく、文章全体を見て行う必要があ
る。たとえば、ほとんど同じような文字列が二ケ所以上
に現われた場合は、このようなところの校正は本実施例
では不便である。
As another conventional example, there is also a method of displaying one line together with a text / image screen as shown in FIG. 7 and displaying an image of the corresponding line of the text on the text. However, the inconvenience of horizontal scrolling still remains. In addition, it is usually necessary to proofread the text by looking at the entire sentence, not just at that line. For example, when almost the same character string appears in two or more places, the proofreading at such places is inconvenient in the present embodiment.

【0006】[0006]

【発明が解決しようとしている課題】以上、説明した様
に、上記いずれの従来例でも、校正箇所に対応する元画
像の部分を表示させるためにオペレータがその部分を探
し出してスクロールを行わなければならなかった。従っ
て、元画像に対する認識等の処理を施し、処理後のデー
タを得て、その処理データに校正作業を元画像と処理デ
ータを比較しながら行う場合であって、元画像と処理デ
ータの比較操作をより一層やりやすくすることによって
校正作業の負担を軽減することが望まれている。
As described above, in any of the conventional examples described above, in order to display the portion of the original image corresponding to the calibration portion, the operator must find the portion and scroll. There wasn't. Therefore, it is a case where processing such as recognition is performed on the original image, data after the processing is obtained, and calibration processing is performed on the processed data while comparing the original image and the processed data. It is desired to reduce the burden of calibration work by making it easier to perform.

【0007】[0007]

【課題を解決するための手段(及び作用)】本発明によ
れば画像データを処理データに変換し、前記画像データ
と処理データを同時に又は切り替えて表示し、処理デー
タの位置と画像データの位置を対応づけるべく位置を管
理し、処理データの任意の位置を指定すると、対応する
画像データの位置が表示画面上に識別可能に表示するよ
うにした。
According to the present invention, image data is converted into processed data, and the image data and the processed data are displayed simultaneously or in a switching manner, and the position of the processed data and the position of the image data are displayed. The positions of the corresponding image data are identifiably displayed on the display screen when the positions are managed so as to correspond to each other and an arbitrary position of the processed data is designated.

【0008】[0008]

【実施例】図1〜図4は、本発明の第1の実施例を示
す。
1 to 4 show a first embodiment of the present invention.

【0009】図1は、本発明のブロック図であり、1は
本発明の処理手順を実行するCPU、2はバス、3はテ
キストやイメージを表示するCRT、4はCPUとCR
Tのビデオインターフェース、5はCRTに表示するテ
キストやイメージを記憶するVRAM、6はイメージを
入力するイメージスキャナ、7はスキャナインターフェ
ース、8はCRT上の座標を指定するポインティングデ
バイス、9はポインティングデバイスのインターフェー
ス、10はCPUの処理手順を格納するプログラム用メ
モリ、11は処理手順のための作業領域と文書画像等を
記憶するワーク用RAM、12は文字を認識する認識部
である。
FIG. 1 is a block diagram of the present invention. 1 is a CPU for executing the processing procedure of the present invention, 2 is a bus, 3 is a CRT for displaying texts and images, 4 is a CPU and a CR.
T video interface, 5 VRAM for storing texts and images to be displayed on CRT, 6 image scanner for inputting image, 7 scanner interface, 8 pointing device for designating coordinates on CRT, 9 for pointing device The interface 10 is a program memory for storing the processing procedure of the CPU, 11 is a work RAM for storing a work area for the processing procedure and a document image, and 12 is a recognition unit for recognizing characters.

【0010】図2は文字認識の過程を示すフローチャー
トであり、図3はイメージ連動の過程を示すフローチャ
ートである。これらの処理手順はプログラムメモリ10
に格納され、CPU1で実行される。以下順を追って説
明する。
FIG. 2 is a flow chart showing the process of character recognition, and FIG. 3 is a flow chart showing the process of image interlocking. These processing steps are performed by the program memory 10
And is executed by the CPU 1. The steps will be described below in order.

【0011】ステップS101で、イメージスキャナ6
で文書を読み取り2値化された文書画像データD1(イ
メージ)をワーク用RAM11に格納する。S102で
は文書画像データD1を処理して文字の切出しを行う。
すなわち、まず横方向(X軸方向)に射影をとり、射影
の切れ目で分割することにより文字行の切り分けを行
い、次に各行について縦方向(Y軸方向)に射影をと
り、射影の切れ目で分割することにより文字の切り分け
を行う。こうして、各文字についてその外接矩形で画像
を切り取ることができ、1文字ずつ画像を分けることが
できる。また各文字の外接矩形の左上の点の座標(元文
書画像の左上を原点としたときのX,Y座標これを文字
位置とよぶ)も求まり、切り出された文字っ画像と文字
位置を切り出しデータD2としワーク用RAM11に入
れる。
In step S101, the image scanner 6
The document is read in and the binarized document image data D1 (image) is stored in the work RAM 11. In step S102, the document image data D1 is processed to cut out characters.
That is, first, the projection is performed in the horizontal direction (X-axis direction), and the character lines are divided by dividing at the projection breaks, then the projection is performed in the vertical direction (Y-axis direction) for each line, and the projection breaks are made. Characters are divided by dividing. In this way, for each character, the image can be cut out by the circumscribing rectangle, and the image can be divided for each character. The coordinates of the upper left point of the circumscribed rectangle of each character (X and Y coordinates when the upper left of the original document image is the origin is called the character position) are also obtained, and the cut character image and the character position are cut out data. D2 is set in the work RAM 11.

【0012】図8は前述の切り出された文字画像と文字
位置の関係を模式的に示す図である。図から明らかな様
に、元の文書画像の左上を原点として、文字位置をドッ
ト単位のデータとして(400,800)と表わされて
いる。尚、このデータはドット出力位置であるが、それ
に対応していれば良く、例えばその1/128の値で管
理されていても良い。この様にして、文字位置と文字画
像を切り出しデータD2としてワーク用RAM11に格
納しておくのである。又、後述するが、この切り出しデ
ータD2と認識データD3が、更に対応づけられて、ワ
ーク用RAM11に格納されている。
FIG. 8 is a diagram schematically showing the relationship between the cut-out character image and the character position. As is clear from the figure, the upper left of the original document image is set as the origin, and the character position is expressed as dot unit data (400, 800). It should be noted that this data is the dot output position, but it is sufficient if it corresponds to it, and it may be managed with a value of 1/128 thereof. In this way, the character position and the character image are stored in the work RAM 11 as the cut-out data D2. Further, as will be described later, the cutout data D2 and the recognition data D3 are further associated with each other and stored in the work RAM 11.

【0013】次にステップS103では、文字画像を認
識部へ送り込むことによってそれがどんな文字であるか
を認識して認識結果である文字コードを認識データD3
としてワーク用RAM11に入れる。認識のアルゴリズ
ムは方向指数ヒストグラム法など公知手法を用いるが、
これに限る必要はない。この際、切り出しデータD2と
認識データD3は1対1に文字ごとに対応づけておく。
次にステップS104では認識データをCRTのテキス
ト画面に図4のように表示する。この際も、テキスト画
面に表示されている文字の位置と対応する認識データの
アドレスと対応づける。この対応と前者の対応とを組み
合わせれば、テキスト画面上の文字の位置と元原像での
文字位置の対応づけが可能となる。(座標変換手段)。
CRTの画面は図4のように左半分と右半分に分かれ、
それぞれテキスト画面、イメージ画面になっている。イ
メージ画面にはイメージ読み込みがなされた時点で文書
の左上原点がイメージの左上にくるように文書イメージ
が表示されている。
Next, in step S103, the character image is sent to the recognition section to recognize what kind of character it is and the character code as the recognition result is recognized as the recognition data D3.
Is put in the work RAM 11. The recognition algorithm uses a known method such as the direction index histogram method,
It need not be limited to this. At this time, the cut-out data D2 and the recognition data D3 are associated with each other in a one-to-one correspondence.
Next, in step S104, the recognition data is displayed on the text screen of the CRT as shown in FIG. Also at this time, it is associated with the address of the recognition data corresponding to the position of the character displayed on the text screen. By combining this correspondence with the former correspondence, it becomes possible to associate the character position on the text screen with the character position in the original original image. (Coordinate conversion means).
The screen of the CRT is divided into left half and right half as shown in Fig. 4,
It has a text screen and an image screen, respectively. The document image is displayed on the image screen so that the upper left origin of the document is located at the upper left of the image when the image is read.

【0014】ステップS104が終わると本装置はWA
IT状態(ステップS201)となり座標入力待ちとな
る。そこで、たとえば図4の例のテキスト画面の「の」
の文字がポインティングデバイスで指定されたとする。
そうすると、ポインティングデバイス割込みが発生しW
AIT状態がおわる。ステップS202へいき、指定さ
れた座標が読みこまれ、もし座標が文字を指定していな
かったなら(ステップS203の判別)、ステップS2
01へ戻りWAIT状態となる。座標が文字を指定して
いたら、ステップS204へいく。ステップ204では
指定された文字が認識データD3のどれに対応するかを
逆のぼってもとめる。そして、さらに切り出しデータD
2のどれに対応するかをもとめる。切り出しデータには
その文字の元イメージでの座標(文字位置)が記憶され
ているので、この文字位置がイメージ表示基点座標とな
るべく設定する。ステップS205では新しいイメージ
表示基点座標をもとにイメージを再表示する。
When step S104 is completed, the apparatus is WA
It enters the IT state (step S201) and waits for coordinate input. Then, for example, "no" of the text screen of the example of FIG.
Character is specified by the pointing device.
Then, a pointing device interrupt occurs and W
AIT state is over. If the designated coordinates are read and the coordinates do not designate a character (determination in step S203), the process proceeds to step S202.
It returns to 01 and becomes a WAIT state. If the coordinates specify a character, the process proceeds to step S204. In step 204, which of the recognition data D3 the designated character corresponds to is reversed. And further cut data D
Find out which of the two corresponds. Since the cut-out data stores the coordinates (character position) of the character in the original image, the character position is set to be the image display base point coordinates. In step S205, the image is displayed again based on the new image display base point coordinates.

【0015】そうすると図4のように、テキスト画面の
「の」の文字に対応する元イメージが表示されていない
状態から「の」の元イメージがイメージ画面の左上にく
るような表示状態に変化する。
Then, as shown in FIG. 4, the state in which the original image corresponding to the character "NO" on the text screen is not displayed is changed to the display state in which the original image "NO" comes to the upper left of the image screen. ..

【0016】次にステップS206へいって指定された
テキスト画面の文字について挿入、削除、置換等の編集
処理を行う。
Next, in step S206, editing processing such as insertion, deletion, replacement, etc. is performed with respect to the designated character of the text screen.

【0017】尚、テキスト画面の文字についての編集処
理に応じて、対応するイメージ画面についても、イメー
ジデータのブロックとして移動等の処理を行い、テキス
ト画面の文字パターンイメージを用いて挿入等を行って
も良い。
Incidentally, in accordance with the editing process for the characters on the text screen, the corresponding image screen is also processed such as moving as a block of image data, and is inserted using the character pattern image on the text screen. Is also good.

【0018】又、本発明は装置或いはシステムにおい
て、達成されていても良いし、それらにプログラムを供
給することにより達成されていても良いことは言うまで
もない。
Further, it goes without saying that the present invention may be achieved in an apparatus or system, or may be achieved by supplying a program to them.

【0019】(他の実施例)第1の実施例では、文字が
指定されると文字に対応した元イメージがイメージ画面
の左上にくるようにイメージが再表示されるとしたが、
別に左上でなくとも画面の中央でもよく、その他任意の
所定の位置でもよい。
(Other Embodiments) In the first embodiment, when a character is designated, the image is redisplayed so that the original image corresponding to the character is at the upper left of the image screen.
Alternatively, it may be at the center of the screen instead of at the upper left, or at any other predetermined position.

【0020】また、第1の実施例は横書きの文字で説明
してきたが縦書きの場合も同様に可能である。
Further, although the first embodiment has been described with reference to horizontal writing, vertical writing is also possible.

【0021】また、元イメージから処理データを作成す
る過程は文字認識以外のどんな処理でもよい。
The process of creating the processed data from the original image may be any process other than character recognition.

【0022】以上の様に、 (1)本発明により元イメージとの対比による校正作業
を効率よく行うことができる。 (2)元イメージは必らずも全体がモニタに表示しきれ
なくともよく一部分の表示でよい。安価なモニタでよい
し、メモリの節約ができるメリットがある。 (3)元イメージは拡大した見やすい表示で処理データ
(テキスト)との対比ができるので元イメージを正しく
とらえられる。
As described above, (1) According to the present invention, it is possible to efficiently perform the calibration work by comparing with the original image. (2) The original image does not necessarily have to be completely displayed on the monitor, and a partial display is sufficient. You can use an inexpensive monitor, and you can save memory. (3) Since the original image is enlarged and easy to see and can be compared with the processed data (text), the original image can be correctly captured.

【0023】[0023]

【発明の効果】以上詳述した様に、本発明によれば、画
像データを処理データに変換し、前記画像データと処理
データを同時に又は切り替えて表示し、処理データの位
置と画像データの位置を対応づけるべく位置を管理し、
処理データの任意の位置を指定すると、対応する画像デ
ータの位置が表示画面上に識別可能に表示することが可
能となった。
As described above in detail, according to the present invention, the image data is converted into the processed data, and the image data and the processed data are displayed simultaneously or in a switching manner, and the position of the processed data and the position of the image data are displayed. To manage the position,
When an arbitrary position of the processed data is designated, the position of the corresponding image data can be displayed on the display screen in a distinguishable manner.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のブロック図。FIG. 1 is a block diagram of the present invention.

【図2】本発明のフローチャート。FIG. 2 is a flowchart of the present invention.

【図3】本発明のフローチャート。FIG. 3 is a flowchart of the present invention.

【図4】本発明の表示画面を示す図。FIG. 4 is a diagram showing a display screen of the present invention.

【図5】従来の実施例の表示画面を示す図。FIG. 5 is a diagram showing a display screen of a conventional example.

【図6】従来の実施例の表示画面を示す図。FIG. 6 is a diagram showing a display screen of a conventional example.

【図7】従来の実施例の表示画面を示す図。FIG. 7 is a diagram showing a display screen of a conventional example.

【図8】文字画像と文字位置の関係を示す図。FIG. 8 is a diagram showing a relationship between a character image and a character position.

【符号の説明】[Explanation of symbols]

1 CPU 2 バス 3 CRT 10 プログラムメモリ 11 ワーク用RAM 12 認識部 J1 CRT画面 J2 テキスト/イメージ画面 J3 認識結果の文字 J4 元文字画像 K1 テキスト画面 K2 イメージ画面 1 CPU 2 Bus 3 CRT 10 Program memory 11 Work RAM 12 Recognition section J1 CRT screen J2 Text / image screen J3 Characters of recognition result J4 Original character image K1 Text screen K2 Image screen

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 画像データを処理データに変換し、 前記画像データ或いは処理データを表示し、 前記処理データの位置と前記画像データの位置を対応づ
けるべく位置情報を管理し、 処理データの所望の位置を指定した場合に対応する画像
データの位置を表示画面上に識別可能に表示することを
特徴とする画像処理方法。
1. The image data is converted into processed data, the image data or the processed data is displayed, position information is managed so as to associate the position of the processed data with the position of the image data, and the desired position of the processed data is managed. An image processing method characterized in that a position of image data corresponding to a specified position is displayed on a display screen in a distinguishable manner.
【請求項2】 画像データを処理データに変換する変換
手段、 前記画像データ或いは処理データを表示する表示手段、 前記処理データの位置と前記画像データの位置を対応づ
けるべく位置情報を管理する管理手段、 前記管理手段によって管理される前記位置情報に基づい
て、前記表示手段は、処理データの所望の位置を指定し
た場合に、対応する画像データの位置を表示画面上に識
別可能に表示することを特徴とする画像処理装置。
2. A conversion means for converting image data into processed data, a display means for displaying the image data or the processed data, and a management means for managing position information so as to associate the position of the processed data with the position of the image data. Based on the position information managed by the management unit, the display unit displays the position of the corresponding image data on the display screen in a distinguishable manner when the desired position of the processed data is designated. Characteristic image processing device.
【請求項3】 前記管理される位置情報は出力ドット位
置に関連していることを特徴とする請求項第1項記載の
画像処理方法。
3. The image processing method according to claim 1, wherein the managed position information is related to an output dot position.
【請求項4】 前記処理データはパターン認識処理後の
データであることを特徴とする請求項第1項記載の画像
処理方法。
4. The image processing method according to claim 1, wherein the processed data is data after pattern recognition processing.
【請求項5】 前記管理される位置情報、出力ドット位
置に関連していることを特徴とする請求項第2項記載の
画像処理装置。
5. The image processing apparatus according to claim 2, wherein the managed positional information and the output dot position are related to each other.
【請求項6】 前記変換手段によって得られる処理デー
タはパターン認識処理後のデータであることを特徴とす
る請求項第2項記載の画像処理装置。
6. The image processing apparatus according to claim 2, wherein the processing data obtained by the conversion means is data after pattern recognition processing.
【請求項7】 前記処理データは、テキストデータであ
ることを特徴とする請求項第1項記載の画像処理装置。
7. The image processing apparatus according to claim 1, wherein the processed data is text data.
【請求項8】 前記処理データは、テキストデータであ
ることを特徴とする請求項第1項記載の画像処理方法。
8. The image processing method according to claim 1, wherein the processed data is text data.
JP3218571A 1991-08-29 1991-08-29 Method and device for image processing Pending JPH0581467A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP3218571A JPH0581467A (en) 1991-08-29 1991-08-29 Method and device for image processing
US07/934,313 US5703962A (en) 1991-08-29 1992-08-25 Image processing method and apparatus
EP92307847A EP0531060B1 (en) 1991-08-29 1992-08-28 Image processing method and apparatus
DE69230392T DE69230392T2 (en) 1991-08-29 1992-08-28 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3218571A JPH0581467A (en) 1991-08-29 1991-08-29 Method and device for image processing

Publications (1)

Publication Number Publication Date
JPH0581467A true JPH0581467A (en) 1993-04-02

Family

ID=16722036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3218571A Pending JPH0581467A (en) 1991-08-29 1991-08-29 Method and device for image processing

Country Status (1)

Country Link
JP (1) JPH0581467A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012516508A (en) * 2009-01-28 2012-07-19 グーグル インコーポレイテッド Display the OCR recognized text from the publication and the corresponding image for selection on the client device.
US8442813B1 (en) 2009-02-05 2013-05-14 Google Inc. Methods and systems for assessing the quality of automatically generated text

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012516508A (en) * 2009-01-28 2012-07-19 グーグル インコーポレイテッド Display the OCR recognized text from the publication and the corresponding image for selection on the client device.
US8482581B2 (en) 2009-01-28 2013-07-09 Google, Inc. Selective display of OCR'ed text and corresponding images from publications on a client device
US9280952B2 (en) 2009-01-28 2016-03-08 Google Inc. Selective display of OCR'ed text and corresponding images from publications on a client device
US8442813B1 (en) 2009-02-05 2013-05-14 Google Inc. Methods and systems for assessing the quality of automatically generated text

Similar Documents

Publication Publication Date Title
US5509092A (en) Method and apparatus for generating information on recognized characters
US5703962A (en) Image processing method and apparatus
JPH0554073A (en) Digital translation device
JPH03214378A (en) Character recognizing device
EP0519713B1 (en) Character input method and apparatus
JPH0581467A (en) Method and device for image processing
JPH05108868A (en) Picture processing method and device thereof
JPH0728801A (en) Image data processing method and device therefor
JPH0346081A (en) On-line hand-written character input method
JPH07249098A (en) Device and method for information processing
JP2578747B2 (en) Handwritten information processing method
JPH0388086A (en) Document reader
JP2595399B2 (en) Document processing method
JPS63115283A (en) Method for displaying corrected picture of recognition result in character recognition device
JPH01292586A (en) Back-up device for recognition of character
JPH09114824A (en) Document processor
JPH0973515A (en) Character recognition device
JPH08339417A (en) Device and method for recognition of european and american character
JPH08137865A (en) Character information processor with address book managing function
JPS61206087A (en) Document reading device
JPH09319537A (en) Information display device
JPH08137987A (en) Optical character reader
JP2858581B2 (en) Image processing method and apparatus
JPH01134584A (en) Device for recognizing character
JPH06325203A (en) Character recognizing device and method for displaying recognized character and method for proofreading recognized character thereof

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000711