JPS6353586B2 - - Google Patents
Info
- Publication number
- JPS6353586B2 JPS6353586B2 JP56061880A JP6188081A JPS6353586B2 JP S6353586 B2 JPS6353586 B2 JP S6353586B2 JP 56061880 A JP56061880 A JP 56061880A JP 6188081 A JP6188081 A JP 6188081A JP S6353586 B2 JPS6353586 B2 JP S6353586B2
- Authority
- JP
- Japan
- Prior art keywords
- column
- bits
- bit
- mesh
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired
Links
- 238000000034 method Methods 0.000 claims description 17
- 239000000872 buffer Substances 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000012464 large buffer Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Facsimiles In General (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
【発明の詳細な説明】
本発明は、多値デイジタル化した文書などの中
間調画像領域を識別する方法に関する。DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a method for identifying halftone image regions such as multilevel digitized documents.
文書画像中には、中間調画像(写真など)、文
字画像、線画像(グラフなど)が混在する場合が
多い。このような文書画像の伝送、蓄積、その他
の処理を行なう際には、中間調画像の領域をそれ
以外の領域から予め識別できると一般に有益であ
る。 Document images often contain a mixture of halftone images (such as photographs), character images, and line images (such as graphs). When transmitting, storing, or otherwise processing such document images, it is generally beneficial to be able to identify areas of halftone images in advance from other areas.
文書画像などにおける中間調画像領域の識別に
関しては、「昭和54年度 情報処理学会 第20回
大会予稿集(第453頁、第454頁)」に記載の“フ
リーフオーマツト文書の並列フイールドセグメン
テーシヨン手法”と、特開昭55−100549号公開特
許公報に記載の“画像領域信号発生方法”が公知
である。 Regarding the identification of halftone image areas in document images, etc., refer to "Parallel field segmentation of free-format documents" described in "Proceedings of the 20th Annual Conference of the Information Processing Society of Japan (1978)" (pages 453 and 454). ``Method for generating image area signals'' described in Japanese Patent Application Laid-open No. 55-100549 are well known.
しかし前者は、1回処理する毎にその結果を人
間が確かめ、満足できる結果が得られるまで処理
を繰り返す必要があり、リアルタイム処理ではな
い。また、原画像を少なくとも2頁分記憶できる
バツフアメモリを必要とする。 However, the former method requires a human to check the results each time a process is performed and repeats the process until a satisfactory result is obtained, and is not real-time processing. Further, a buffer memory capable of storing at least two pages of original images is required.
一方、後者は画像をメツシユに分割して処理す
る方法でないため、1画素当りの処理時間が長
い。処理時間を短縮するにはバツフアに入れる走
査ライン数を減らすことになるが、そうするとマ
スクも小さくなり識別の精度が落ちる。逆に精度
を上げようとすれば、バツフアに入れる走査ライ
ン数を増加させねばならずマスクが大きくなり、
処理速度が低下し、かつ、マスクパターンの作成
と保持の負担が増大する。さらに、この方法は多
値デイジタル化画像に適用する場合、マスクパタ
ーンの作成、保持が非常な負担となる。 On the other hand, since the latter method does not process an image by dividing it into meshes, the processing time per pixel is long. In order to shorten processing time, the number of scan lines put into the buffer can be reduced, but this will also make the mask smaller and reduce the accuracy of identification. On the other hand, if you want to improve accuracy, you will have to increase the number of scan lines put into the buffer, making the mask larger.
Processing speed decreases and the burden of creating and maintaining mask patterns increases. Furthermore, when this method is applied to multivalued digitized images, creating and maintaining mask patterns becomes a significant burden.
本発明は叙上の諸問題点に鑑みなされたもの
で、その目的は、多値デイジタル化した画像、特
に文書画像の中間調画像の領域をリアルタイム処
理で識別するに適した方法を提供することにあ
る。 The present invention has been made in view of the above-mentioned problems, and its purpose is to provide a method suitable for identifying areas of halftone images of multivalued digitized images, particularly document images, in real time. It is in.
本発明のもう1つの目的は、大容量のバツフア
メモリや人間の介入を必要としない、中間調画像
識別方法を提供することにある。 Another object of the present invention is to provide a method for identifying halftone images that does not require large buffer memory or human intervention.
しかして本発明にあつては、多値デイジタル化
した文書などの画像を所定のサイズのメツシユに
分割し、各メツシユについて、画素の濃度レベル
または隣接画素間の濃度レベル差に関する中間調
画像としての必要条件を満足するか調べる。そし
て、この必要条件を満足しているときに“1”
(または“0”)にセツトされるメツシユ対応のビ
ツトを、画像上のメツシユ配置にしたがつて配列
したビツトパターン(標本空間と呼ぶ)を作成す
る。この標本空間の主走査方向の列のうち、注目
する任意の列(n)の1つ前の列(n−1)上の
“0”(または“1”)の各ビツト(x)に、所定
数以上の“1”(または“0”)のビツトが隣接す
るときはビツト(x)を“1”(または“0”)に
変更する。ついで、列(n−1)上の“1”(ま
たは“0”)のビツトのうち、主走査方向に所定
ビツト数以上連結しない各ビツトを“0”(また
は“1”)に変更する。ついで、注目列(n)上
の“1”(または“0”)のビツトのうち、副走査
方向に“1”(または“0”)の所定数以上のビツ
トが連結しない各ビツトを“0”(または“1”)
に変更する。しかして、列(n)上の“1”(ま
たは“0”)のビツトは対応メツシユが中間調画
像の領域であることを表示する。 Therefore, in the present invention, an image such as a multi-level digitized document is divided into meshes of a predetermined size, and each mesh is calculated as a halftone image regarding the density level of a pixel or the density level difference between adjacent pixels. Check whether the requirements are met. Then, when this requirement is satisfied, “1”
A bit pattern (referred to as a sample space) is created in which bits corresponding to the mesh set to (or "0") are arranged according to the mesh arrangement on the image. For each bit (x) of "0" (or "1") on the column (n-1) immediately before the arbitrary column (n) of interest among the columns in the main scanning direction of this sample space, When a predetermined number or more of "1" (or "0") bits are adjacent, the bit (x) is changed to "1" (or "0"). Then, among the "1" (or "0") bits on column (n-1), each bit that is not connected in the main scanning direction by a predetermined number or more is changed to "0" (or "1"). Next, among the "1" (or "0") bits on the column of interest (n), each bit that is not connected to a predetermined number of "1" (or "0") bits in the sub-scanning direction is set to "0". ” (or “1”)
Change to Thus, a "1" (or "0") bit on column (n) indicates that the corresponding mesh is a region of a halftone image.
注目列(n)の処理を終了すると、注目列を1
列ずつ順次シフトしながら同様の処理を繰り返し
実行することにより、画像全体の中間調画像領域
を識別する。 When the processing of the attention column (n) is finished, the attention column is set to 1.
By repeating similar processing while sequentially shifting columns, the halftone image area of the entire image is identified.
次に、本発明の一実施例を処理段階の順に説明
する。 Next, an embodiment of the present invention will be explained in order of processing steps.
〔1〕 処理しようとする原画像、例えば文書をス
キヤナで読み取り、多値デイジタル化する。こ
こでは、画素濃度レベルを0(白)〜16の17値
にデイジタル化するものとする。[1] The original image to be processed, such as a document, is read with a scanner and converted into a multi-level digital image. Here, it is assumed that the pixel density level is digitized into 17 values from 0 (white) to 16.
本発明では、画像の処理単位として画像をM
画素(副走査方向)×N画素(主副走査方向)
のサイズで分割したメツシユを用いる。ここで
は、画像読取り用のスキヤナの走査線密度を
主、副走査方向とも8本/mmとして、M=N=
16とするが、スキヤナの種類などに応じて適切
に決定すればよい。また、M≠Nも許される。 In the present invention, an image is M
Pixel (sub-scanning direction) x N pixels (main-subscanning direction)
Use meshes divided into sizes of . Here, the scanning line density of the image reading scanner is 8 lines/mm in both the main and sub-scanning directions, and M=N=
16, but it can be determined appropriately depending on the type of scanner. Furthermore, M≠N is also allowed.
〔2〕 17値デイジタル化画像を16走査ライン分読
み込みながら、各メツシユ毎に、画素濃度レベ
ルまたは隣接画素間の濃度レベル差に関する中
間調画像としての必要条件(それを満たさない
とメツシユが中間調画像の領域であり得ない条
件)を満足しているか調べる。本実施例では、
次の2つの条件について判定する。[2] While reading the 17-value digitized image for 16 scanning lines, check for each mesh the necessary conditions for a halftone image regarding the pixel density level or the density level difference between adjacent pixels (if these are not met, the mesh will be halftone). Check whether conditions (conditions that cannot occur in the image area) are satisfied. In this example,
The following two conditions are determined.
(イ) 濃度レベル0〜16の範囲を3つのレベル領
域に分割する。ここでは、0〜4を低レベル
領域、5〜12を中間レベル領域、13〜16を高
レベル領域とする。17値デイジタル化画像を
これら3つのレベル領域に3値化し、各メツ
シユについて、低レベル領域に属する画素の
数n1と、中間レベル領域に属する画素の数n2
をそれぞれカウントし、n2n1ならそのメツ
シユに対してフラグf1を“1”にセツトす
る。 (b) Divide the range of density levels 0 to 16 into three level regions. Here, 0 to 4 are low level regions, 5 to 12 are intermediate level regions, and 13 to 16 are high level regions. The 17-value digitized image is ternarized into these three level regions, and for each mesh, the number of pixels belonging to the low level region n 1 and the number of pixels belonging to the intermediate level region n 2
are counted, and if n 2 n 1 , the flag f 1 is set to "1" for that mesh.
(ロ) 上記の(イ)の判定と並行し、メツシユ毎に隣
接画素間の濃度レベル差(絶対値)の頻度分
布をとる。本実施例では、隣接画素の組とし
て主走査方向に隣接する画素の組についての
み考える(これは一般に妥当である)。メツ
シユが16×16サイズゆえ、標本数は15×16=
240となる。そして、最大頻度をとる標本が
0以外のとき、つまり濃度レベル差(絶対
値)が1以上の隣接画素の組が多い場合は、
そのメツシユに対してフラグf2を“1”にセ
ツトする。 (b) In parallel with the determination in (a) above, calculate the frequency distribution of density level differences (absolute values) between adjacent pixels for each mesh. In this embodiment, only a set of pixels adjacent in the main scanning direction is considered as a set of adjacent pixels (this is generally valid). Since the mesh size is 16×16, the number of samples is 15×16=
It becomes 240. When the sample with the highest frequency is other than 0, that is, when there are many pairs of adjacent pixels with a density level difference (absolute value) of 1 or more,
The flag f2 is set to "1" for that mesh.
(ハ) メツシユ毎に上記のフラグf1とフラグf2の
論理和f=f1∨f2をとり、バツフアのメツシ
ユ対応ビツトに書き込む。このビツトfはメ
ツシユに1対1に対応しており、“1”のと
きは対応メツシユが中間調画像としての必要
条件を満足していることを意味している。 (c) Take the logical sum f=f 1 ∨f 2 of the above flag f 1 and flag f 2 for each mesh, and write it to the bit corresponding to the mesh in the buffer. This bit f has a one-to-one correspondence with the mesh, and when it is "1", it means that the corresponding mesh satisfies the necessary conditions as a halftone image.
このようにして、原画像を主、副両走査方向
に1/16(M=N=16ゆえ)に縮小した2値のビ
ツト(f)のパターンがバツフア内に求まる。この
ビツトパターンを標本空間と呼ぶ。標本空間の
主走査方向のビツト列は原画像の16走査ライン
の組に1対1に対応しており、これを“列”と
呼ぶことにする。これ以降の処理は、標本空間
に対して行なわれる。 In this way, a pattern of binary bits (f) obtained by reducing the original image to 1/16 (because M=N=16) in both the main and sub-scanning directions is found in the buffer. This bit pattern is called the sample space. The bit string in the main scanning direction of the sample space corresponds one-to-one to a set of 16 scanning lines of the original image, and will be referred to as a "sequence". The subsequent processing is performed on the sample space.
〔3〕 第1図に示す標本空間上で、列nが中間調
画像を識別しようとしている注目列であるとす
る。列n上の任意の注目ビツトCと同位置にあ
る列n−1上のビツトX(原画像を上から下へ
ラスタ走査する場合、ビツトXは注目ビツトC
の対応メツシユの直上のメツシユに対応する)
の値を調べる。[3] Assume that on the sample space shown in FIG. 1, column n is a column of interest in which a halftone image is to be identified. A bit
corresponds to the mesh directly above the corresponding mesh)
Find out the value of .
ビツトXが“1”なら、ビツトXはそのまま
にして、注目ビツトCを1桁右へ(主走査方向
へ)移す。 If bit
ビツトXが“0”なら、その周囲の4つのビ
ツトA、B、Dおよび注目ビツトCの値を調
べ、そのうちの3ビツトが“1”なら(A+B
+C+D)3なら)、ビツトXを“1”に変
換し、そうでなければビツトXはそのままにし
て、注目ビツトCを1桁右へシフトする。 If bit
+C+D)3), convert bit X to "1"; otherwise, leave bit
この処理段階は、いわゆる融合処理を行なう
もので、注目ビツトCが最右端まで進むと、次
の処理段階へ移る。 This processing stage performs so-called fusion processing, and when the bit C of interest advances to the rightmost end, the process moves to the next processing stage.
〔4〕 注目列nの前の列n−1上の“1”のラン
(“1”ビツトの連続)の長さ(ランレングス)
lを予め決めた閾値Lと比較し、l<Lの
“1”ランのビツトは全て“0”に変換する。[4] Length of a run of “1” (a series of “1” bits) on the column n-1 before the column n of interest (run length)
l is compared with a predetermined threshold value L, and all bits in the "1" run where l<L are converted to "0".
この処理段階は、主走査方向にLメツシユ以
上の幅で拡がつた領域以外は、中間調画像領域
の対象から除去するための処理を行なう。横書
き文書で、スキヤナの走査線密度が8本/mmな
ら、L=4に設定すると一般に妥当である。つ
まり、8mm幅以上の主走査方向への拡がりを持
つ領域だけを、中間調画像領域としての評価の
対象とするわけである。換言すれば、処理しよ
うとする画像の種類やその後の処理目的などに
応じて、閾値Lは適当に選定すべきものであ
る。 In this processing step, a process is performed to remove from the target halftone image area an area other than an area extending in the main scanning direction with a width of L mesh or more. If the scanning line density of the scanner is 8 lines/mm for a horizontally written document, it is generally appropriate to set L=4. In other words, only areas that extend in the main scanning direction with a width of 8 mm or more are subject to evaluation as halftone image areas. In other words, the threshold value L should be appropriately selected depending on the type of image to be processed and the purpose of subsequent processing.
列n−1の全ビツトに対して上記の処理を終
了すると、次の処理段階に進む。 When the above processing is completed for all bits of column n-1, the process proceeds to the next stage.
〔5〕 注目列nの注目ビツトYが“0”ならその
ままにして、“1”なら第2図に示すように、
上下のビツトE、Yの値を調べ、両ビツトが共
に“0”の場合は注目ビツトYを“0”に変換
して、注目ビツトを右にシフトする。つまり、
注目列n上の“1”ビツトのうち、副走査方向
に“1”ビツトが2つ以上連結しないものは、
“0”に変換する。[5] If the noted bit Y of the noted column n is “0”, leave it as is; if it is “1”, as shown in Figure 2,
The values of the upper and lower bits E and Y are checked, and if both bits are "0", the noticed bit Y is converted to "0" and the noticed bit is shifted to the right. In other words,
Among the "1" bits on the column of interest n, two or more "1" bits are not connected in the sub-scanning direction.
Convert to “0”.
この処理段階は、副走査方向の拡がりの小さ
い領域を中間調画像領域の評価対象から除外す
る処理を行なつている。本実施例では、副走査
方向の拡がりが2メツシユ幅、つまり8本/mm
の走査線密度なら4mm幅に満たない領域は、中
間調画像領域の評価対象から除外している。 In this processing stage, a process is performed in which areas with a small spread in the sub-scanning direction are excluded from evaluation targets for halftone image areas. In this example, the spread in the sub-scanning direction is 2 mesh widths, that is, 8 lines/mm.
If the scanning line density is , areas with a width of less than 4 mm are excluded from evaluation of halftone image areas.
なお、評価対象領域の副走査方向の最小幅に
応じて、速結ビツト数の条件を増減してもよい
ことは勿論である。 It goes without saying that the condition for the number of quick connection bits may be increased or decreased depending on the minimum width of the evaluation target area in the sub-scanning direction.
さて、〔5〕の処理段階を終了した後の列n上
のビツトの値が、対応メツシユの判定結果を表示
している。つまり、“1”ビツトに対応するメツ
シユは、中間調画像の領域と識別されたわけであ
る。 Now, the value of the bit on column n after completing the processing step [5] indicates the determination result of the corresponding mesh. In other words, the mesh corresponding to the "1" bit is identified as a halftone image area.
注目列nの識別処理を終了すると、次の列n+
1を改めて注目列として、同様の処理を実行す
る。以下順次、注目列をシフトして画像全体の識
別を行なう。 After completing the identification process for the column n of interest, the next column n+
1 is set as the column of interest again and the same process is executed. Thereafter, the column of interest is sequentially shifted to identify the entire image.
なお、注目列(n)の次の列(n+1)を参照
するのは〔5〕の処理段階である。つまり、〔5〕
の処理段階までに注目列(n)の次の列(n+
1)に対する〔1〕、〔2〕の処理結果が間に合え
ば十分である。したがつて、本実施例をリアルタ
イム処理で実行する場合、標本空間バツフアとし
ては4列分の容量があれば間に合う。また判定結
果と原画像を同期して出力する場合、原画像を記
憶するためのバツフアとしては32(=2×M)走
査ライン分の容量のメモリで間に合うことも明ら
かである。 Note that the next column (n+1) of the column of interest (n) is referred to in the processing step [5]. In other words, [5]
The next column (n+
It is sufficient if the processing results of [1] and [2] for 1) are completed in time. Therefore, if this embodiment is to be executed in real time, the capacity of the sample space buffer for four columns will suffice. It is also clear that when the determination result and the original image are output in synchronization, a memory with a capacity of 32 (=2×M) scanning lines is sufficient as a buffer for storing the original image.
また付言すれば、本実施例における諸条件(前
記のサイズ条件)は、主走査方向を文字行と平行
な方向に選べば、横書き文書にも縦書き文書にも
適用可能である。 Additionally, the various conditions (the size conditions described above) in this embodiment can be applied to both horizontally written documents and vertically written documents if the main scanning direction is selected to be parallel to the character lines.
前記実施例を実現するための装置の一例を第3
図に示し、説明する。 An example of a device for realizing the above embodiment is shown in the third example.
It is shown and explained in the figure.
201はスキヤナで、原画を読み取り、17値デ
イジタル化して送り込む。この原画像データはコ
ントロール・インタフエース203を介してバツ
フア202に蓄積される。バツフア202は、
2M(M=16)走査ライン分の容量を持つメモリま
たはシフトレジスタで構成できる。原画像データ
はまた、演算回路204,205に順次入力され
る。演算回路204は、前記の〔2〕の(イ)の演算
を実行し、フラグf1を出力する。演算回路205
は、前記の〔2〕の(ロ)の演算を実行し、フラグf2
を出力する。フラグf1とf2はオア回路211で論
理和され、その結果fがコントロール・インタフ
エース207を通じて標本空間バツフア206に
書き込まれる。バツフア206は、4列分の標本
空間を格納できる容量があればよい。208は前
記の〔3〕〜〔5〕の処理を実行するためのマイ
クロプロセツサで、そのためのプログラムは制御
メモリ209に格納されている。 201 is a scanner that reads the original image, converts it into 17-level digital data, and sends it. This original image data is stored in buffer 202 via control interface 203. Batsuhua 202 is
It can be configured with a memory or shift register with a capacity for 2M (M=16) scanning lines. The original image data is also sequentially input to arithmetic circuits 204 and 205. The arithmetic circuit 204 executes the arithmetic operation in (a) of [2] above, and outputs the flag f1 . Arithmetic circuit 205
executes the operation (b) in [2] above, and sets the flag f 2
Output. The flags f 1 and f 2 are logically summed by the OR circuit 211 and the resultant f is written into the sample space buffer 206 through the control interface 207 . The buffer 206 only needs to have a capacity that can store four columns of sample space. 208 is a microprocessor for executing the processes [3] to [5] above, and a program therefor is stored in the control memory 209.
プロセツサ208は、共通バス212およびコ
ントロール・インタフエース207を介して、バ
ツフア206内の標本空間をアクセスし、所定の
処理を実行する。そして最終的な処理結果と、バ
ツフア202から出力される原画像データは、原
画像の走査と同期をとられて共通バス212を介
して出力インタフエース210より順次送出され
る。 Processor 208 accesses the sample space within buffer 206 via common bus 212 and control interface 207 to perform predetermined processing. The final processing result and the original image data output from the buffer 202 are sequentially sent out from the output interface 210 via the common bus 212 in synchronization with the scanning of the original image.
本発明は以上に詳述した如くであり、大容量の
バツフアを用いることなく、また人間の判断の介
入を要することなく、文書などの画像中の中間調
画像領域をリアルタイム処理で識別することが可
能であり、その効果は顕著である。 The present invention has been described in detail above, and it is possible to identify a halftone image area in an image such as a document by real-time processing without using a large capacity buffer or requiring the intervention of human judgment. It is possible, and the effects are significant.
第1図および第2図は本発明の一実施例におけ
る標本空間での処理の説明図、第3図は本発明を
実施するための装置の一例を示すブロツク図であ
る。
201……スキヤナ、202……原画像バツフ
ア、204,205……演算回路、206……標
本空間バツフア、208……マイクロプロセツ
サ、209……制御メモリ、203,207……
コントロール・インタフエース、210……出力
インタフエース、212……共通バス。
FIGS. 1 and 2 are explanatory diagrams of processing in a sample space in an embodiment of the present invention, and FIG. 3 is a block diagram showing an example of an apparatus for implementing the present invention. 201... Scanner, 202... Original image buffer, 204, 205... Arithmetic circuit, 206... Sample space buffer, 208... Microprocessor, 209... Control memory, 203, 207...
Control interface, 210...Output interface, 212...Common bus.
Claims (1)
ユに分割し、各メツシユについて、画素濃度レベ
ルまたは隣接画素間の濃度レベル差に関する中間
調画像としての必要条件を満足するか調べ、該必
要条件を満たすときに“1”(または“0”)にセ
ツトされるメツシユ対応のビツトを該画像上のメ
ツシユ配置にしたがつて配列した標本空間を作成
し、該標本空間内の主走査方向の列のうち、注目
する任意の列(n)の1つ前の列(n−1)上の
“0”(または“1”)の各ビツト(x)に所定数
以上の“1”(または“0”)のビツトが隣接する
ときは該各ビツト(x)を“1”(または“0”)
に変更したのち、該列(n−1)上の“1”(ま
たは“0”)のビツトのうち主走査方向に所定ビ
ツト数以上連結しない各ビツトを“0”(または
“1”)に変更し、つぎに該列(n)上の“1”
(または“0”)のビツトのうち副走査方向に
“1”(または“0”)のビツトが所定ビツト数以
上連結しない各ビツトを“0”(または“1”)に
変更した後における該列(n)上の“1”(また
は“0”)のビツトに対応するメツシユを中間調
画像の領域と判定することを特徴とする中間調画
像識別方法。1 Divide a multivalued digitized image into meshes of a predetermined size, check whether each mesh satisfies the requirements for a halftone image regarding pixel density levels or density level differences between adjacent pixels, and when the requirements are met. A sample space is created in which mesh-corresponding bits set to "1" (or "0") are arranged according to the mesh arrangement on the image, and among the columns in the main scanning direction in the sample space, A predetermined number or more of “1” (or “0”) in each bit (x) of “0” (or “1”) on the column (n-1) immediately before any column (n) of interest. When the bits are adjacent, each bit (x) is set to “1” (or “0”)
Then, among the "1" (or "0") bits on the column (n-1), each bit that is not connected in the main scanning direction for a predetermined number or more is changed to "0" (or "1"). and then “1” on the column (n)
(or "0") bits in which "1" (or "0") bits are not connected in the sub-scanning direction more than a predetermined number of bits are changed to "0" (or "1"). A halftone image identification method characterized in that a mesh corresponding to a "1" (or "0") bit on column (n) is determined to be a region of a halftone image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56061880A JPS57176481A (en) | 1981-04-22 | 1981-04-22 | Discriminating method for medium contrast picture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56061880A JPS57176481A (en) | 1981-04-22 | 1981-04-22 | Discriminating method for medium contrast picture |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS57176481A JPS57176481A (en) | 1982-10-29 |
JPS6353586B2 true JPS6353586B2 (en) | 1988-10-24 |
Family
ID=13183889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP56061880A Granted JPS57176481A (en) | 1981-04-22 | 1981-04-22 | Discriminating method for medium contrast picture |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS57176481A (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6066575A (en) * | 1983-09-22 | 1985-04-16 | Canon Inc | Picture processing device |
JPS6066576A (en) * | 1983-09-22 | 1985-04-16 | Canon Inc | Picture processing device |
JPS60136478A (en) * | 1983-12-26 | 1985-07-19 | Canon Inc | Picture processor |
JPS60136477A (en) * | 1983-12-26 | 1985-07-19 | Canon Inc | Picture processor |
JPS614368A (en) * | 1984-06-19 | 1986-01-10 | Canon Inc | Picture processor |
JPS6179372A (en) * | 1984-09-27 | 1986-04-22 | Canon Inc | Picture processor |
JPH0787528B2 (en) * | 1985-11-05 | 1995-09-20 | キヤノン株式会社 | Image-tone identification device |
-
1981
- 1981-04-22 JP JP56061880A patent/JPS57176481A/en active Granted
Also Published As
Publication number | Publication date |
---|---|
JPS57176481A (en) | 1982-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4566128A (en) | Method for data compression for two-value picture image | |
US5513282A (en) | Method and apparatus for controlling the processing of digital image signals | |
US4750209A (en) | System for processing an image having both letter and photographic information | |
EP0227848A1 (en) | Image preprocessing procedure for noise removal | |
US6393146B1 (en) | Defining non-axial line surfaces in border string sequences representing a raster image | |
JPS6353586B2 (en) | ||
JPH01288974A (en) | Picture processing method | |
JP2568172B2 (en) | Image information processing device | |
US5706102A (en) | Data managing device in image variable magnification processing apparatus | |
US5680529A (en) | Image reduction conversion method | |
JPH0550187B2 (en) | ||
JPS6353585B2 (en) | ||
JPS60136476A (en) | Picture processor | |
JP3162918B2 (en) | Image processing apparatus and method | |
JP2581049B2 (en) | Image area determination device | |
JPH0381345B2 (en) | ||
JPS60236362A (en) | Picture information processing method | |
JP2588758B2 (en) | Image reduction apparatus and method | |
JP2857260B2 (en) | Judgment method of rectangular area | |
JPH0140545B2 (en) | ||
JPS6143078A (en) | Processing system of original picture | |
JPH0419592B2 (en) | ||
JPH0225223B2 (en) | ||
JPH02288668A (en) | Picture element density conversion processor | |
JPH0522598A (en) | Picture input device |