JPH0581467A - Method and device for image processing - Google Patents
Method and device for image processingInfo
- Publication number
- JPH0581467A JPH0581467A JP3218571A JP21857191A JPH0581467A JP H0581467 A JPH0581467 A JP H0581467A JP 3218571 A JP3218571 A JP 3218571A JP 21857191 A JP21857191 A JP 21857191A JP H0581467 A JPH0581467 A JP H0581467A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- screen
- character
- processed data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Discrimination (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、イメージスキャナ等で
読みとった画像に認識などの処理を施し、処理データを
得、認識ミスの修正などのように元画像と処理データを
表示しながら、処理後の修正作業を伴う画像処理方法及
び装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention performs processing such as recognition on an image read by an image scanner or the like, obtains processing data, displays an original image and processing data such as correction of recognition error, and performs processing. The present invention relates to an image processing method and apparatus that involve subsequent correction work.
【0002】[0002]
【従来の技術】文字認識装置(OCR)を例にとって説
明する。OCRでは、イメージスキャナ等により文書を
読み取り文書イメージをパソコンなどのモータ画面に表
示する。文書イメージの認識させたい領域をポインティ
ングデバイスで指定し文字認識させ、結果の文字列をパ
ソコンがもっているフォントでモニタにテキストとして
表示する。その後認識結果には当然誤認識が含まれてい
るから校正処理を行うことになる。校正処理はモニタに
表示されるテキスト画面とイメージ画面を比較しながら
行う方が、元の文書の紙と比較するより手軽である。2. Description of the Related Art A character recognition device (OCR) will be described as an example. In OCR, a document is read by an image scanner or the like and the document image is displayed on a motor screen of a personal computer or the like. The area to be recognized in the document image is designated by the pointing device and characters are recognized, and the resulting character string is displayed as text on the monitor in the font that the personal computer has. After that, since the recognition result includes erroneous recognition, the calibration process is performed. It is easier to perform the proofreading process while comparing the text screen and the image screen displayed on the monitor than comparing with the paper of the original document.
【0003】図5は従来の技術の説明図であるが、J1
は640×400ドットのパソコンのモニタ画面、J2
はテキスト又はイメージを表示している画面、J3は認
識結果の文字をパソコンのフォントで表示したもので、
本例では模式的に□で表わしている。J4は元文書イメ
ージの文字画像を表示したビットイメージである。例で
は、テキスト画面とイメージ画面の切り替えをファンク
ションキーなどのスイッチにより行うようになってい
る。また、イメージ画面はA4文書を400dpiで読
み込んだ場合のイメージ(約3400×4800ドッ
ト)を全部表示しきれないのでその一部のみを表示して
いる。イメージの他の部分を表示させるには、不図示の
スクロールバーをポインティングデバイスで指示する
か、キーボードに割り当てられている画面スクロールキ
ーの押下によって行う。テキスト画面には、認識結果の
文字を16×16ドットのフォントで表示し、テキスト
を構成し、挿入、削除、置換などの編集操作が可能とな
っている。またテキスト画面もイメージ画面と同様にス
クロール操作ができる。そこで、オペレータが校正作業
を行っていきテキスト画面とイメージ画面を切り替えな
がら、テキストとイメージの比較を行いつつ誤認識の訂
正をしていくことになる。しかし、この方法だとテキス
トとイメージを同時に見ることができないので不便であ
る。また、校正作業が進んでいくとスクロール操作によ
りテキストの表示部分を変えていくことになるが、校正
対象の文字に対応した元イメージの箇所を表示させるた
めには、イメージ画面への切り替え後、さらにイメージ
のスクロールをやらなければならないという操作上の大
きな不便さがある。FIG. 5 is an explanatory view of the prior art. J1
Is a 640 x 400 dot personal computer monitor screen, J2
Is a screen displaying a text or an image, J3 is a character of the recognition result displayed in the font of the personal computer,
In this example, it is schematically represented by □. J4 is a bit image displaying a character image of the original document image. In the example, switching between the text screen and the image screen is performed by a switch such as a function key. Further, the image screen cannot display the entire image (about 3400 × 4800 dots) when the A4 document is read at 400 dpi, so only a part of the image is displayed. To display the other part of the image, a scroll bar (not shown) is designated by a pointing device, or a screen scroll key assigned to the keyboard is pressed. On the text screen, the characters of the recognition result are displayed in a 16 × 16 dot font to compose the text, and editing operations such as insertion, deletion and replacement are possible. Also, the text screen can be scrolled like the image screen. Therefore, the operator performs the proofreading work and corrects the misrecognition while comparing the text and the image while switching between the text screen and the image screen. However, this method is inconvenient because you cannot see text and images at the same time. Also, as the proofreading work progresses, the display part of the text will be changed by scrolling, but in order to display the part of the original image corresponding to the character to be proofread, after switching to the image screen, Further, there is a great inconvenience in operation that the image has to be scrolled.
【0004】そこで、それを改良したものとして、図6
にその例を示す。図6に示す従来例では、テキスト画面
とイメージ画面を同時に表示させる方法もあるが、これ
では単に画面の切替え操作のみがなくなるだけで、スク
ロール操作の不便さは残っている。Therefore, as an improved version thereof, FIG.
An example is shown in. In the conventional example shown in FIG. 6, there is also a method of simultaneously displaying a text screen and an image screen, but this only eliminates the screen switching operation, and the inconvenience of the scroll operation remains.
【0005】また、他の従来例として、図7のようにテ
キスト・イメージ画面とともに1行分を表示しテキスト
の対応する行のイメージをテキストの上に表示させる方
法もある。しかしこれでも横方向のスクロール操作の不
便さはまだ残っている。また、テキストの校正は通常そ
の部分の行だけでなく、文章全体を見て行う必要があ
る。たとえば、ほとんど同じような文字列が二ケ所以上
に現われた場合は、このようなところの校正は本実施例
では不便である。As another conventional example, there is also a method of displaying one line together with a text / image screen as shown in FIG. 7 and displaying an image of the corresponding line of the text on the text. However, the inconvenience of horizontal scrolling still remains. In addition, it is usually necessary to proofread the text by looking at the entire sentence, not just at that line. For example, when almost the same character string appears in two or more places, the proofreading at such places is inconvenient in the present embodiment.
【0006】[0006]
【発明が解決しようとしている課題】以上、説明した様
に、上記いずれの従来例でも、校正箇所に対応する元画
像の部分を表示させるためにオペレータがその部分を探
し出してスクロールを行わなければならなかった。従っ
て、元画像に対する認識等の処理を施し、処理後のデー
タを得て、その処理データに校正作業を元画像と処理デ
ータを比較しながら行う場合であって、元画像と処理デ
ータの比較操作をより一層やりやすくすることによって
校正作業の負担を軽減することが望まれている。As described above, in any of the conventional examples described above, in order to display the portion of the original image corresponding to the calibration portion, the operator must find the portion and scroll. There wasn't. Therefore, it is a case where processing such as recognition is performed on the original image, data after the processing is obtained, and calibration processing is performed on the processed data while comparing the original image and the processed data. It is desired to reduce the burden of calibration work by making it easier to perform.
【0007】[0007]
【課題を解決するための手段(及び作用)】本発明によ
れば画像データを処理データに変換し、前記画像データ
と処理データを同時に又は切り替えて表示し、処理デー
タの位置と画像データの位置を対応づけるべく位置を管
理し、処理データの任意の位置を指定すると、対応する
画像データの位置が表示画面上に識別可能に表示するよ
うにした。According to the present invention, image data is converted into processed data, and the image data and the processed data are displayed simultaneously or in a switching manner, and the position of the processed data and the position of the image data are displayed. The positions of the corresponding image data are identifiably displayed on the display screen when the positions are managed so as to correspond to each other and an arbitrary position of the processed data is designated.
【0008】[0008]
【実施例】図1〜図4は、本発明の第1の実施例を示
す。1 to 4 show a first embodiment of the present invention.
【0009】図1は、本発明のブロック図であり、1は
本発明の処理手順を実行するCPU、2はバス、3はテ
キストやイメージを表示するCRT、4はCPUとCR
Tのビデオインターフェース、5はCRTに表示するテ
キストやイメージを記憶するVRAM、6はイメージを
入力するイメージスキャナ、7はスキャナインターフェ
ース、8はCRT上の座標を指定するポインティングデ
バイス、9はポインティングデバイスのインターフェー
ス、10はCPUの処理手順を格納するプログラム用メ
モリ、11は処理手順のための作業領域と文書画像等を
記憶するワーク用RAM、12は文字を認識する認識部
である。FIG. 1 is a block diagram of the present invention. 1 is a CPU for executing the processing procedure of the present invention, 2 is a bus, 3 is a CRT for displaying texts and images, 4 is a CPU and a CR.
T video interface, 5 VRAM for storing texts and images to be displayed on CRT, 6 image scanner for inputting image, 7 scanner interface, 8 pointing device for designating coordinates on CRT, 9 for pointing device The interface 10 is a program memory for storing the processing procedure of the CPU, 11 is a work RAM for storing a work area for the processing procedure and a document image, and 12 is a recognition unit for recognizing characters.
【0010】図2は文字認識の過程を示すフローチャー
トであり、図3はイメージ連動の過程を示すフローチャ
ートである。これらの処理手順はプログラムメモリ10
に格納され、CPU1で実行される。以下順を追って説
明する。FIG. 2 is a flow chart showing the process of character recognition, and FIG. 3 is a flow chart showing the process of image interlocking. These processing steps are performed by the program memory 10
And is executed by the CPU 1. The steps will be described below in order.
【0011】ステップS101で、イメージスキャナ6
で文書を読み取り2値化された文書画像データD1(イ
メージ)をワーク用RAM11に格納する。S102で
は文書画像データD1を処理して文字の切出しを行う。
すなわち、まず横方向(X軸方向)に射影をとり、射影
の切れ目で分割することにより文字行の切り分けを行
い、次に各行について縦方向(Y軸方向)に射影をと
り、射影の切れ目で分割することにより文字の切り分け
を行う。こうして、各文字についてその外接矩形で画像
を切り取ることができ、1文字ずつ画像を分けることが
できる。また各文字の外接矩形の左上の点の座標(元文
書画像の左上を原点としたときのX,Y座標これを文字
位置とよぶ)も求まり、切り出された文字っ画像と文字
位置を切り出しデータD2としワーク用RAM11に入
れる。In step S101, the image scanner 6
The document is read in and the binarized document image data D1 (image) is stored in the work RAM 11. In step S102, the document image data D1 is processed to cut out characters.
That is, first, the projection is performed in the horizontal direction (X-axis direction), and the character lines are divided by dividing at the projection breaks, then the projection is performed in the vertical direction (Y-axis direction) for each line, and the projection breaks are made. Characters are divided by dividing. In this way, for each character, the image can be cut out by the circumscribing rectangle, and the image can be divided for each character. The coordinates of the upper left point of the circumscribed rectangle of each character (X and Y coordinates when the upper left of the original document image is the origin is called the character position) are also obtained, and the cut character image and the character position are cut out data. D2 is set in the work RAM 11.
【0012】図8は前述の切り出された文字画像と文字
位置の関係を模式的に示す図である。図から明らかな様
に、元の文書画像の左上を原点として、文字位置をドッ
ト単位のデータとして(400,800)と表わされて
いる。尚、このデータはドット出力位置であるが、それ
に対応していれば良く、例えばその1/128の値で管
理されていても良い。この様にして、文字位置と文字画
像を切り出しデータD2としてワーク用RAM11に格
納しておくのである。又、後述するが、この切り出しデ
ータD2と認識データD3が、更に対応づけられて、ワ
ーク用RAM11に格納されている。FIG. 8 is a diagram schematically showing the relationship between the cut-out character image and the character position. As is clear from the figure, the upper left of the original document image is set as the origin, and the character position is expressed as dot unit data (400, 800). It should be noted that this data is the dot output position, but it is sufficient if it corresponds to it, and it may be managed with a value of 1/128 thereof. In this way, the character position and the character image are stored in the work RAM 11 as the cut-out data D2. Further, as will be described later, the cutout data D2 and the recognition data D3 are further associated with each other and stored in the work RAM 11.
【0013】次にステップS103では、文字画像を認
識部へ送り込むことによってそれがどんな文字であるか
を認識して認識結果である文字コードを認識データD3
としてワーク用RAM11に入れる。認識のアルゴリズ
ムは方向指数ヒストグラム法など公知手法を用いるが、
これに限る必要はない。この際、切り出しデータD2と
認識データD3は1対1に文字ごとに対応づけておく。
次にステップS104では認識データをCRTのテキス
ト画面に図4のように表示する。この際も、テキスト画
面に表示されている文字の位置と対応する認識データの
アドレスと対応づける。この対応と前者の対応とを組み
合わせれば、テキスト画面上の文字の位置と元原像での
文字位置の対応づけが可能となる。(座標変換手段)。
CRTの画面は図4のように左半分と右半分に分かれ、
それぞれテキスト画面、イメージ画面になっている。イ
メージ画面にはイメージ読み込みがなされた時点で文書
の左上原点がイメージの左上にくるように文書イメージ
が表示されている。Next, in step S103, the character image is sent to the recognition section to recognize what kind of character it is and the character code as the recognition result is recognized as the recognition data D3.
Is put in the work RAM 11. The recognition algorithm uses a known method such as the direction index histogram method,
It need not be limited to this. At this time, the cut-out data D2 and the recognition data D3 are associated with each other in a one-to-one correspondence.
Next, in step S104, the recognition data is displayed on the text screen of the CRT as shown in FIG. Also at this time, it is associated with the address of the recognition data corresponding to the position of the character displayed on the text screen. By combining this correspondence with the former correspondence, it becomes possible to associate the character position on the text screen with the character position in the original original image. (Coordinate conversion means).
The screen of the CRT is divided into left half and right half as shown in Fig. 4,
It has a text screen and an image screen, respectively. The document image is displayed on the image screen so that the upper left origin of the document is located at the upper left of the image when the image is read.
【0014】ステップS104が終わると本装置はWA
IT状態(ステップS201)となり座標入力待ちとな
る。そこで、たとえば図4の例のテキスト画面の「の」
の文字がポインティングデバイスで指定されたとする。
そうすると、ポインティングデバイス割込みが発生しW
AIT状態がおわる。ステップS202へいき、指定さ
れた座標が読みこまれ、もし座標が文字を指定していな
かったなら(ステップS203の判別)、ステップS2
01へ戻りWAIT状態となる。座標が文字を指定して
いたら、ステップS204へいく。ステップ204では
指定された文字が認識データD3のどれに対応するかを
逆のぼってもとめる。そして、さらに切り出しデータD
2のどれに対応するかをもとめる。切り出しデータには
その文字の元イメージでの座標(文字位置)が記憶され
ているので、この文字位置がイメージ表示基点座標とな
るべく設定する。ステップS205では新しいイメージ
表示基点座標をもとにイメージを再表示する。When step S104 is completed, the apparatus is WA
It enters the IT state (step S201) and waits for coordinate input. Then, for example, "no" of the text screen of the example of FIG.
Character is specified by the pointing device.
Then, a pointing device interrupt occurs and W
AIT state is over. If the designated coordinates are read and the coordinates do not designate a character (determination in step S203), the process proceeds to step S202.
It returns to 01 and becomes a WAIT state. If the coordinates specify a character, the process proceeds to step S204. In step 204, which of the recognition data D3 the designated character corresponds to is reversed. And further cut data D
Find out which of the two corresponds. Since the cut-out data stores the coordinates (character position) of the character in the original image, the character position is set to be the image display base point coordinates. In step S205, the image is displayed again based on the new image display base point coordinates.
【0015】そうすると図4のように、テキスト画面の
「の」の文字に対応する元イメージが表示されていない
状態から「の」の元イメージがイメージ画面の左上にく
るような表示状態に変化する。Then, as shown in FIG. 4, the state in which the original image corresponding to the character "NO" on the text screen is not displayed is changed to the display state in which the original image "NO" comes to the upper left of the image screen. ..
【0016】次にステップS206へいって指定された
テキスト画面の文字について挿入、削除、置換等の編集
処理を行う。Next, in step S206, editing processing such as insertion, deletion, replacement, etc. is performed with respect to the designated character of the text screen.
【0017】尚、テキスト画面の文字についての編集処
理に応じて、対応するイメージ画面についても、イメー
ジデータのブロックとして移動等の処理を行い、テキス
ト画面の文字パターンイメージを用いて挿入等を行って
も良い。Incidentally, in accordance with the editing process for the characters on the text screen, the corresponding image screen is also processed such as moving as a block of image data, and is inserted using the character pattern image on the text screen. Is also good.
【0018】又、本発明は装置或いはシステムにおい
て、達成されていても良いし、それらにプログラムを供
給することにより達成されていても良いことは言うまで
もない。Further, it goes without saying that the present invention may be achieved in an apparatus or system, or may be achieved by supplying a program to them.
【0019】(他の実施例)第1の実施例では、文字が
指定されると文字に対応した元イメージがイメージ画面
の左上にくるようにイメージが再表示されるとしたが、
別に左上でなくとも画面の中央でもよく、その他任意の
所定の位置でもよい。(Other Embodiments) In the first embodiment, when a character is designated, the image is redisplayed so that the original image corresponding to the character is at the upper left of the image screen.
Alternatively, it may be at the center of the screen instead of at the upper left, or at any other predetermined position.
【0020】また、第1の実施例は横書きの文字で説明
してきたが縦書きの場合も同様に可能である。Further, although the first embodiment has been described with reference to horizontal writing, vertical writing is also possible.
【0021】また、元イメージから処理データを作成す
る過程は文字認識以外のどんな処理でもよい。The process of creating the processed data from the original image may be any process other than character recognition.
【0022】以上の様に、 (1)本発明により元イメージとの対比による校正作業
を効率よく行うことができる。 (2)元イメージは必らずも全体がモニタに表示しきれ
なくともよく一部分の表示でよい。安価なモニタでよい
し、メモリの節約ができるメリットがある。 (3)元イメージは拡大した見やすい表示で処理データ
(テキスト)との対比ができるので元イメージを正しく
とらえられる。As described above, (1) According to the present invention, it is possible to efficiently perform the calibration work by comparing with the original image. (2) The original image does not necessarily have to be completely displayed on the monitor, and a partial display is sufficient. You can use an inexpensive monitor, and you can save memory. (3) Since the original image is enlarged and easy to see and can be compared with the processed data (text), the original image can be correctly captured.
【0023】[0023]
【発明の効果】以上詳述した様に、本発明によれば、画
像データを処理データに変換し、前記画像データと処理
データを同時に又は切り替えて表示し、処理データの位
置と画像データの位置を対応づけるべく位置を管理し、
処理データの任意の位置を指定すると、対応する画像デ
ータの位置が表示画面上に識別可能に表示することが可
能となった。As described above in detail, according to the present invention, the image data is converted into the processed data, and the image data and the processed data are displayed simultaneously or in a switching manner, and the position of the processed data and the position of the image data are displayed. To manage the position,
When an arbitrary position of the processed data is designated, the position of the corresponding image data can be displayed on the display screen in a distinguishable manner.
【図1】本発明のブロック図。FIG. 1 is a block diagram of the present invention.
【図2】本発明のフローチャート。FIG. 2 is a flowchart of the present invention.
【図3】本発明のフローチャート。FIG. 3 is a flowchart of the present invention.
【図4】本発明の表示画面を示す図。FIG. 4 is a diagram showing a display screen of the present invention.
【図5】従来の実施例の表示画面を示す図。FIG. 5 is a diagram showing a display screen of a conventional example.
【図6】従来の実施例の表示画面を示す図。FIG. 6 is a diagram showing a display screen of a conventional example.
【図7】従来の実施例の表示画面を示す図。FIG. 7 is a diagram showing a display screen of a conventional example.
【図8】文字画像と文字位置の関係を示す図。FIG. 8 is a diagram showing a relationship between a character image and a character position.
1 CPU 2 バス 3 CRT 10 プログラムメモリ 11 ワーク用RAM 12 認識部 J1 CRT画面 J2 テキスト/イメージ画面 J3 認識結果の文字 J4 元文字画像 K1 テキスト画面 K2 イメージ画面 1 CPU 2 Bus 3 CRT 10 Program memory 11 Work RAM 12 Recognition section J1 CRT screen J2 Text / image screen J3 Characters of recognition result J4 Original character image K1 Text screen K2 Image screen
Claims (8)
けるべく位置情報を管理し、 処理データの所望の位置を指定した場合に対応する画像
データの位置を表示画面上に識別可能に表示することを
特徴とする画像処理方法。1. The image data is converted into processed data, the image data or the processed data is displayed, position information is managed so as to associate the position of the processed data with the position of the image data, and the desired position of the processed data is managed. An image processing method characterized in that a position of image data corresponding to a specified position is displayed on a display screen in a distinguishable manner.
手段、 前記画像データ或いは処理データを表示する表示手段、 前記処理データの位置と前記画像データの位置を対応づ
けるべく位置情報を管理する管理手段、 前記管理手段によって管理される前記位置情報に基づい
て、前記表示手段は、処理データの所望の位置を指定し
た場合に、対応する画像データの位置を表示画面上に識
別可能に表示することを特徴とする画像処理装置。2. A conversion means for converting image data into processed data, a display means for displaying the image data or the processed data, and a management means for managing position information so as to associate the position of the processed data with the position of the image data. Based on the position information managed by the management unit, the display unit displays the position of the corresponding image data on the display screen in a distinguishable manner when the desired position of the processed data is designated. Characteristic image processing device.
置に関連していることを特徴とする請求項第1項記載の
画像処理方法。3. The image processing method according to claim 1, wherein the managed position information is related to an output dot position.
データであることを特徴とする請求項第1項記載の画像
処理方法。4. The image processing method according to claim 1, wherein the processed data is data after pattern recognition processing.
置に関連していることを特徴とする請求項第2項記載の
画像処理装置。5. The image processing apparatus according to claim 2, wherein the managed positional information and the output dot position are related to each other.
タはパターン認識処理後のデータであることを特徴とす
る請求項第2項記載の画像処理装置。6. The image processing apparatus according to claim 2, wherein the processing data obtained by the conversion means is data after pattern recognition processing.
ることを特徴とする請求項第1項記載の画像処理装置。7. The image processing apparatus according to claim 1, wherein the processed data is text data.
ることを特徴とする請求項第1項記載の画像処理方法。8. The image processing method according to claim 1, wherein the processed data is text data.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3218571A JPH0581467A (en) | 1991-08-29 | 1991-08-29 | Method and device for image processing |
US07/934,313 US5703962A (en) | 1991-08-29 | 1992-08-25 | Image processing method and apparatus |
EP92307847A EP0531060B1 (en) | 1991-08-29 | 1992-08-28 | Image processing method and apparatus |
DE69230392T DE69230392T2 (en) | 1991-08-29 | 1992-08-28 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3218571A JPH0581467A (en) | 1991-08-29 | 1991-08-29 | Method and device for image processing |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0581467A true JPH0581467A (en) | 1993-04-02 |
Family
ID=16722036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3218571A Pending JPH0581467A (en) | 1991-08-29 | 1991-08-29 | Method and device for image processing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0581467A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012516508A (en) * | 2009-01-28 | 2012-07-19 | グーグル インコーポレイテッド | Display the OCR recognized text from the publication and the corresponding image for selection on the client device. |
US8442813B1 (en) | 2009-02-05 | 2013-05-14 | Google Inc. | Methods and systems for assessing the quality of automatically generated text |
-
1991
- 1991-08-29 JP JP3218571A patent/JPH0581467A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012516508A (en) * | 2009-01-28 | 2012-07-19 | グーグル インコーポレイテッド | Display the OCR recognized text from the publication and the corresponding image for selection on the client device. |
US8482581B2 (en) | 2009-01-28 | 2013-07-09 | Google, Inc. | Selective display of OCR'ed text and corresponding images from publications on a client device |
US9280952B2 (en) | 2009-01-28 | 2016-03-08 | Google Inc. | Selective display of OCR'ed text and corresponding images from publications on a client device |
US8442813B1 (en) | 2009-02-05 | 2013-05-14 | Google Inc. | Methods and systems for assessing the quality of automatically generated text |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5509092A (en) | Method and apparatus for generating information on recognized characters | |
US5703962A (en) | Image processing method and apparatus | |
JPH0554073A (en) | Digital translation device | |
JPH03214378A (en) | Character recognizing device | |
EP0519713B1 (en) | Character input method and apparatus | |
JPH0581467A (en) | Method and device for image processing | |
JPH05108868A (en) | Picture processing method and device thereof | |
JPH0728801A (en) | Image data processing method and device therefor | |
JPH0346081A (en) | On-line hand-written character input method | |
JPH07249098A (en) | Device and method for information processing | |
JP2578747B2 (en) | Handwritten information processing method | |
JPH0388086A (en) | Document reader | |
JP2595399B2 (en) | Document processing method | |
JPS63115283A (en) | Method for displaying corrected picture of recognition result in character recognition device | |
JPH01292586A (en) | Back-up device for recognition of character | |
JPH09114824A (en) | Document processor | |
JPH0973515A (en) | Character recognition device | |
JPH08339417A (en) | Device and method for recognition of european and american character | |
JPH08137865A (en) | Character information processor with address book managing function | |
JPS61206087A (en) | Document reading device | |
JPH09319537A (en) | Information display device | |
JPH08137987A (en) | Optical character reader | |
JP2858581B2 (en) | Image processing method and apparatus | |
JPH01134584A (en) | Device for recognizing character | |
JPH06325203A (en) | Character recognizing device and method for displaying recognized character and method for proofreading recognized character thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20000711 |