[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH0317787A - Intra-frame area detecting device - Google Patents

Intra-frame area detecting device

Info

Publication number
JPH0317787A
JPH0317787A JP15054689A JP15054689A JPH0317787A JP H0317787 A JPH0317787 A JP H0317787A JP 15054689 A JP15054689 A JP 15054689A JP 15054689 A JP15054689 A JP 15054689A JP H0317787 A JPH0317787 A JP H0317787A
Authority
JP
Japan
Prior art keywords
frame
level
area
raster
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP15054689A
Other languages
Japanese (ja)
Other versions
JP2947566B2 (en
Inventor
Tadashi Yamamoto
直史 山本
Kazuhiko Higuchi
和彦 樋口
Yuzo Koike
小池 祐三
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP15054689A priority Critical patent/JP2947566B2/en
Publication of JPH0317787A publication Critical patent/JPH0317787A/en
Application granted granted Critical
Publication of JP2947566B2 publication Critical patent/JP2947566B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To detect a correct intra-frame area even in the case of a complicated frame line by providing a discriminating means between a frame and ground, a level storing means for a discrimination part, a level deciding means, and a means to decide the inside and the outside of the frame by referring to a level. CONSTITUTION:A picture input part 101 A/D-converts input, and corrects shading, and removes a color noise. A color discriminating part 102 discriminates between an achromatic color original picture component and a chromatic color frame line by using a look-up table. An omitting processing part 103 omits the picture element in a main scanning direction of a frame chrominance signal 113 of the part 102. An intra-frame area detecting part 104 discriminates the intra-frame area according to the reduced frame chrominance signal by prescribed algorithm. A picture editing processing part 105 executes editing processing designated by an operator for the inside of the frame in conformity to the intra-frame signal 115 of the part 104. Through this configuration, even in respect of the area surrounded by double or more frame lines or the frame line with a downward-recessed part, the downward-recessed part or the inside of the double frame can be discriminated from the outside of the frame.

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野) 本発明は画像上に操作者の指定した領域を抽出すること
により、画像の編集を容易にする処理に関する。
DETAILED DESCRIPTION OF THE INVENTION [Purpose of the Invention (Field of Industrial Application) The present invention relates to processing for facilitating image editing by extracting a region specified by an operator on an image.

(従来の技術) 近年、ディジタル技術の進歩に伴ってG3フTクシミリ
やドキュメントファイル、ディジタル複写機などのよう
に画像をディジタル信号で扱う機器が増えている。この
ような機器では、画像をディジタル信号として扱うこと
により、画質の向上および補正のための処理、画像の蓄
積並びに伝送などの処理とともに、操作者の意志に応じ
た濃度変換や領域移動などの編集処理が容易に行えると
いう利点がある。
(Prior Art) In recent years, with the advancement of digital technology, there has been an increase in the number of devices that handle images as digital signals, such as G3 printers, document files, and digital copying machines. By treating images as digital signals, such devices can process images to improve and correct image quality, store and transmit images, and perform editing such as density conversion and area movement according to the operator's wishes. It has the advantage of being easy to process.

画像編集処理は既存の画像の一部の領域または全部を移
動したり、大きさ、濃度、色などを変換して、操作者の
意志に従った新しい画像を作成するものである。こ・の
ような処理を行う装置には操作者の意志に応じて多様な
処理を行うために使い勝手のよいものが望まれる。
Image editing processing involves moving part or all of an existing image, or converting the size, density, color, etc., to create a new image according to the operator's intention. A device that performs such processing is desired to be easy to use so that it can perform a variety of processing according to the will of the operator.

画像編集を行う上で最も重要な要素として領域指定が挙
げられる。領域指定は、これと色置換やマスキング、ト
リミング、画像の2値化および移動などの単純な処理を
組合わせることにより、多様な編集処理を可能とし、非
常に汎用的な処理要素である。メモリ上に読み込まれた
画像に対して領域を指定する方法としては、操作者がカ
ーソルやマウスなどを用いて位置を指定し、コンソール
などを通して位置を確認しながらインタラクティブに領
域指定を行うことができる。
Area specification is the most important element in image editing. Area designation is a very versatile processing element that enables a variety of editing processes by combining this with simple processing such as color replacement, masking, trimming, image binarization, and movement. To specify an area for an image loaded into memory, the operator can specify the position using a cursor or mouse, and specify the area interactively while checking the position through a console etc. .

一方、画像メモリはコストが高いので通常のオフィスユ
ースなどの機器では画像をメモリに書き込まずに、実時
間で処理を行うものが望まれる。
On the other hand, since image memory is expensive, it is desirable for equipment for normal office use to process images in real time without writing them to memory.

このような機器においては画像の読み取り時に領域指定
を行うのがよい。この場合の領域指定の方法として画像
の読み取り前に、領域の端点の座標をタブレットによっ
て入力したり数値としてテンキーにより入力しておく方
法がある。しかし、この方法は指定領域の形状が矩形な
どの単純な図形に限られてしまったり、テンキーやタブ
レットで与える座標値と原稿上の位置との対応がわかり
にくく使い勝手が悪いなどの欠点がある。
In such devices, it is preferable to specify an area when reading an image. In this case, a method for specifying the area is to input the coordinates of the end points of the area using a tablet or numerical values using a numeric keypad before reading the image. However, this method has drawbacks such as the shape of the specified area being limited to simple figures such as rectangles, and the correspondence between coordinate values given using a numeric keypad or tablet and positions on the document being difficult to understand and making it difficult to use.

そこで、上記の方法の他に枠線による領域指定方法が知
られている。この方法は領域の境界を表す枠線を作成し
、この枠線の内部の領域を指定するものである。この方
法では、枠線と原稿情報とが区別されることが必要であ
る。そのためには、原稿上の原情報と色や濃度の異なる
線を枠線として原稿上に書き加える方法と、原稿とは別
個に透明なシートを用意し、この透明シートを原稿の上
に重ねて枠線を形成しておき、原稿画像を読み込む前に
この透明シートを読み取る方法とがある。
Therefore, in addition to the above method, a method of specifying an area using a frame line is known. This method creates a frame line that represents the boundary of an area, and specifies the area inside this frame line. This method requires that frame lines and document information be distinguished. To do this, there are two ways to add lines on the original document as a frame line, in a color and density that differs from the original information on the document.The other method is to prepare a transparent sheet separate from the original document, and to overlap this transparent sheet on top of the original to create a frame line. There is a method of forming a transparent sheet and reading this transparent sheet before reading the original image.

枠線による指定方法は、前者が枠線が原画像に使われて
いない色やめ度に制限され、後者がシート入力の手間が
増える、領域情報を記憶しておくためのメモリが必要で
ある、などの欠点をもつが、自山な形状の領域を指定で
きる、指定領域を原稿画像と同一面上で指定できるので
対応が分かりやすい等の大きな長所がある。
The former method is limited to colors that are not used in the original image, while the latter requires more work to enter the sheet and requires memory to store area information. However, it has great advantages such as being able to specify a uniquely shaped area and being able to specify the specified area on the same surface as the original image, making it easy to understand the correspondence.

枠線から枠内領域を検出する方法としては一度メモリに
枠線情報を書き込み、CPUなどにより.このメモリの
内容を参照しながら領域を決定していく方法が知られて
いる。この方法によれば複雑な枠などにも対応できるが
、枠線画像をそのまま記憶しておくメモリが必要であり
、また、実時間処理が不可能で処理の精度によっては処
理時間がかかるなどの欠点を有している。
The method of detecting the area inside the frame from the frame line is to write the frame line information into memory once, and then use the CPU or the like to detect the frame area. A method is known in which the area is determined while referring to the contents of this memory. This method can handle complex frames, but it requires memory to store the frame line image as is, and real-time processing is not possible and processing time may be required depending on the processing accuracy. It has its drawbacks.

そこで、読み取ったラスタスキャン信号から逐次実時間
で枠内領域を検山していく方法も知られている。その一
つの方法は当該ラスタまでの情報の範囲で最も外側の領
域から連結性を調べるものである。この方法では、まず
画像から枠部分と地部分とを識別し、最も外側の地部分
を枠外部分とする。そして、現ラスタの地部分のうち前
ラスタの枠外部分に隣接している部分および、この部分
に主走査方向に連結している部分を現ラスタの枠外部分
とする。ここで、枠外部分が枠外領域となり、枠外部分
以外の地部分が枠内領域となる。
Therefore, a method is also known in which the area within the frame is sequentially inspected in real time from the read raster scan signal. One method is to check connectivity from the outermost region within the range of information up to the raster. In this method, first, a frame portion and a ground portion are identified from the image, and the outermost ground portion is determined as the outside of the frame. Then, of the ground portion of the current raster, a portion adjacent to the out-of-frame portion of the previous raster and a portion connected to this portion in the main scanning direction are defined as out-of-frame portions of the current raster. Here, the part outside the frame becomes the outside area, and the ground part other than the part outside the frame becomes the inside area.

この方法によれば、ラスタスキャン信号から簡単な処理
により枠内領域を検出できる。しかし、検出できる枠線
は位相的にかなり単純な図形に限られ、例えば第24図
に示すように下側に凹部を有していたり、2重の枠など
の複雑な形状に対応できなかった。
According to this method, the in-frame area can be detected from the raster scan signal through simple processing. However, the frame lines that can be detected are limited to shapes that are topologically simple, and cannot handle complex shapes such as those with concave parts at the bottom or double frames, as shown in Figure 24. .

(発明が解決しようとする課題) このようにして、ラスタ信号から実時間的に枠内領域を
検出する従来の枠内領域検出方式では、位相的に極めて
単純な枠形状にしか適用できず、例えば2重枠や下側に
凹部を有する枠などでは一部検出誤りが生じるという欠
点があった。
(Problems to be Solved by the Invention) In this way, the conventional frame area detection method that detects the frame area from raster signals in real time can only be applied to frame shapes that are topologically extremely simple. For example, a double frame or a frame with a concave portion on the lower side has the disadvantage that some detection errors occur.

本発明はこのような問題点に鑑みてなされたものであっ
て、複雑な枠線についても常に正確に枠内領域を検出す
ることができる枠内領域検出装置を提供することを目的
とする。
The present invention has been made in view of these problems, and an object of the present invention is to provide a frame area detection device that can always accurately detect a frame area even with a complicated frame line.

[発明の摺成コ (課題を解決するための手段) 本発明に係る枠内領域検出装置は、ラスタスキャンの画
像信号をその濃度又は色度から枠部分と枠部分以外であ
る地部分に識別する手段と、この手段で識別された各ラ
スタの枠部分および地部分の少なくとも一方からなる識
別部分のレベルを記憶する手段と、この手段に記憶され
た前ラスタの前記識別部分のレベルを参照して現ラスタ
の各識別部分のレベルを判定する手段と、この手段で判
定された前記識別部分のレベルを参j(召シて、その部
分が枠の内であるか外であるかを判定する手段とを具備
したことを特徴とする。
[Means for Solving the Problem] A frame area detection device according to the present invention distinguishes a raster scan image signal into a frame portion and a ground portion other than the frame portion based on the density or chromaticity of the image signal. means for storing the level of an identification portion consisting of at least one of a frame portion and a ground portion of each raster identified by this means; and means for referencing the level of the identification portion of the previous raster stored in this means. a means for determining the level of each identified part of the current raster, and a means for determining whether the part is inside or outside the frame by referring to the level of the identified part determined by this means; It is characterized by comprising means.

即ち、本発明では、画像から検出した地部分または枠部
分と地部分の両方にレベルの属性を与える。そして、前
ラスタとの連結関係によりレベルを定め、このレベルに
したがって地または枠のネストの深さを検出する。
That is, in the present invention, level attributes are given to both the ground portion or frame portion and the ground portion detected from the image. Then, a level is determined based on the connection relationship with the previous raster, and the nesting depth of the ground or frame is detected according to this level.

なお、レベルの決定を行う前に枠部分を優先して信号の
間引きを行ったり、また、レベルの決定に際し、画像信
号をランを単位として扱うようにしても良い。
Note that before determining the level, the signal may be thinned out giving priority to the frame portion, or when determining the level, the image signal may be handled in units of runs.

(作用) 本発明によれば、枠および地のレベルを定めることによ
り、その枠のホストレベルすなわち最も外側に対して何
重目の枠であるかを検出でき、これにより2重枠や下向
き凹部などの枠に対しても、合理的な領域内の検出が行
えるとともに、手書きの枠を形成する際に生ずるひげな
どの影響も除くことができる。
(Function) According to the present invention, by determining the level of the frame and the ground, it is possible to detect the frame's host level, that is, how many layers the frame is in relation to the outermost side. For frames such as , it is possible to perform reasonable detection within the area, and it is also possible to eliminate the effects of whiskers and the like that occur when forming handwritten frames.

また、枠部分を優先して信号を間引くことにより、間引
きによる枠線の消失が起こることなく、信号量を減らす
ことができ、処理の簡素化を園ることができる。また、
レベルの決定を行う際に画像信号をランを単位として扱
うことにより、レベル決定の処理を簡素化できる。
Further, by thinning out the signals with priority given to the frame portion, the amount of signals can be reduced without the frame line disappearing due to thinning, and processing can be simplified. Also,
By treating the image signal in units of runs when determining the level, the level determination process can be simplified.

(実施例) 以下、添付の図面に基づいて本発明の実施例に係るカラ
ー画像編集装置について説明する。
(Embodiment) Hereinafter, a color image editing device according to an embodiment of the present invention will be described based on the accompanying drawings.

第1図は本発明の第1の実施例に係るカラー画像編集装
置の構成を示す図である。本装置は色付けやマスキング
●トリミングなどを行う領域を特定色の枠線によって指
定してなるモノクロの原稿画像を読み込み、指定された
領域に指定された処理を施した画像を出力するものであ
る。本装置は、第1図に示すように画像入力部301、
色判別部302、間引き処狸部309、枠内領域検出部
303、画像編集処理部304、および画像記録部30
5から構成されている。以下、各部分の機能について詳
細に説明する。
FIG. 1 is a diagram showing the configuration of a color image editing apparatus according to a first embodiment of the present invention. This device reads a monochrome original image in which areas to be colored, masked, cropped, etc. are designated by frame lines of a specific color, and outputs an image with specified processing applied to the designated area. As shown in FIG. 1, this device includes an image input section 301,
Color discrimination section 302, thinning section 309, frame area detection section 303, image editing processing section 304, and image recording section 30
It consists of 5. The functions of each part will be explained in detail below.

く画像入力部101> 画像入力部101は、原稿画像をRGBのディジタル画
像信号として読み取る。この画像入力部101は例えば
、ラインセンサの各受光面上にRGBのカラーフィルタ
を順に配置した点順次のカラーラインセンサからなるも
ので1ラインごとに画像情報を読み取りながら、センサ
の長手方向と乗直方向に読み取り走査を行う。これによ
り、原稿画像をラスタスキャン信号として読み取ること
ができる。以下、ライン方向を主走査方向、それと垂直
な方向を副走査方向と呼ぶ。画像入力部101はライン
センサで光電変換されたアナログ信号をA/D変換器で
ディジタル信号に変換したのち、シェーディング補正す
る。この処理はラインセンサの各素子のゲインおよびオ
フセットのバラツキの補正、並びにRGB信号の白バラ
ンスの補正を行うためのもので、黒および白の画素に対
して、画像信号がそれぞれOおよび1になるように規格
化される。この部分の具体的な構成や機構については例
えば特開昭Gl−71764号に詳しく記述されている
Image Input Unit 101> The image input unit 101 reads a document image as an RGB digital image signal. The image input unit 101 is, for example, a dot-sequential color line sensor in which RGB color filters are sequentially arranged on each light-receiving surface of the line sensor. Scanning is performed in the perpendicular direction. Thereby, the original image can be read as a raster scan signal. Hereinafter, the line direction will be referred to as the main scanning direction, and the direction perpendicular thereto will be referred to as the sub-scanning direction. The image input unit 101 converts an analog signal photoelectrically converted by a line sensor into a digital signal by an A/D converter, and then performs shading correction. This processing is to correct variations in the gain and offset of each element of the line sensor, and correct the white balance of RGB signals, so that the image signals become O and 1 for black and white pixels, respectively. It is standardized as follows. The specific structure and mechanism of this part are described in detail in, for example, Japanese Patent Application Laid-Open No. 71764/1983.

画像入力部101はシェーディング補正を行った信号に
さらに点順次補正処理を施す。点順次のカラーセンサに
おいてはわずかにずれた3つの点の色情報を色分解して
いるため、画像上のエッジ部分で色ノイズが生じる。そ
こで、画像入力部101は点順次補正処理により、点の
ずれに応じた補間処理を行うことにより、このノイズを
除去する。本処理の詳細は例えば特開昭fil−154
357号に記述されている。
The image input unit 101 further performs point-sequential correction processing on the shading-corrected signal. In a point-sequential color sensor, color information of three slightly shifted points is separated into colors, so color noise occurs at the edge portions of the image. Therefore, the image input unit 101 removes this noise by performing interpolation processing according to the point shift using point-sequential correction processing. The details of this process can be found in, for example, Japanese Patent Application Laid-open No. Sho fil-154.
It is described in No. 357.

く色判別部102〉 次に、色判別部102は、原稿上の無彩色の原画像成分
と有彩色の枠線との識別を行う。本実施例ではルックア
ップテーブル(LUT)を用いて識別を行う。周知のよ
うに、色をLab空間で表現すると、白、黒などの無彩
色はa=b=oの無彩色軸上の点となり、枠線として用
いられる赤や青などの純色は無彩色軸から離れた点とな
る。したがって、Lab空間上を第2図に示すように分
割することにより、色の識別を行うことができる。
Color Discriminating Unit 102 Next, the color discriminating unit 102 discriminates between achromatic original image components and chromatic frame lines on the document. In this embodiment, identification is performed using a look-up table (LUT). As is well known, when colors are expressed in Lab space, achromatic colors such as white and black become points on the achromatic color axis where a = b = o, and pure colors such as red and blue used as borders are on the achromatic color axis. It becomes a point far from . Therefore, by dividing the Lab space as shown in FIG. 2, colors can be identified.

本実施例では図に示すように赤、緑、青、黒および白の
6色に識別している。ここで、赤、緑、黄、青の4色の
信号が枠を表し、黒が本来の編集されるべき画像情報を
表している。そして、その当該画素が無彩色、赤、緑、
青、黄のいずれかであるかを示す枠信号と黒であるか否
かを示す黒信号とが色判別部102から出力される。こ
こで枠信号は色をコードで表し、例えば無彩色、赤、緑
、青、苦にそれぞれコード0,1.2.3.4を割当て
ている。
In this embodiment, as shown in the figure, six colors are identified: red, green, blue, black, and white. Here, four color signals of red, green, yellow, and blue represent the frame, and black represents the original image information to be edited. Then, the corresponding pixel is achromatic, red, green,
A frame signal indicating whether the color is blue or yellow and a black signal indicating whether the color is black are output from the color discrimination unit 102. Here, the frame signal represents the color by a code, and for example, codes 0, 1.2.3.4 are assigned to achromatic colors, red, green, blue, and dark, respectively.

ここでLUTはLab空間上での分割面をRGB空間上
に変換することによって構成できる。また、RGB信号
をLab信号などの信号系に変換してから、LUTを参
照してもよい。これによりLUTの量子化効率をあげる
ことができる。
Here, the LUT can be constructed by converting the division plane on the Lab space to the RGB space. Alternatively, the LUT may be referred to after converting the RGB signal into a signal system such as a Lab signal. This makes it possible to increase the quantization efficiency of the LUT.

色識別された信号にはノイズなどによる識別誤りが多く
含まれている。原稿上の色枠に色むらやノイズなどがあ
ると、枠線以外の部分に枠が生じたり、枠線の内部に穴
ができる場合ある。このようなノイズが生ずると、枠検
出において検出誤りを起こす可能性がある。このノイズ
は面積が小さいので、この色判別部102では色判別後
に孤立点除去などの処理を施すことにより、これらのノ
イズを抑制する。
Color-identified signals contain many identification errors due to noise and the like. If there is color unevenness or noise in the color frame on the document, a frame may appear in areas other than the frame line, or holes may appear inside the frame line. If such noise occurs, there is a possibility that a detection error will occur in frame detection. Since this noise has a small area, the color discrimination unit 102 suppresses these noises by performing processing such as isolated point removal after color discrimination.

く間引き処理部103〉 間引き処理部103は、色判別部102で識別された枠
色信号113に対し、主走査方向の画素の間引きを行う
。これは画像信号の情報量を少なくして後述する枠内領
域検出部104での計算量を減らすことを目的としてい
る。間引き率は例えば1/4が好適である。すなわち4
画素のうち3画素を間引いて1画素に減らす。また、4
画素のうち特定位置の1画素を選択して出力する単純な
間引きを行うのではなく、有彩色を優先して間引いて行
う、すなわち、いま、第3図中W,R,G.Bがそれぞ
れ無彩色、赤、緑、青のコードを表わすものとすると、
第3図中Aで示すように、4画素のうち1画素でも有彩
色(赤、緑、青または苦)の信号があればその各間引き
の出力とする。そして、第3図中Bで示すように、4画
素とも無彩色の場合にのみ、無彩色を出力する。また、
第3図中Cで示すように、4画素のうち2色以上の枠色
がある場合は、その中で最も前の色を間引き出力する。
Thinning Processing Unit 103> The thinning processing unit 103 thins out pixels in the main scanning direction for the frame color signal 113 identified by the color discrimination unit 102. The purpose of this is to reduce the amount of information in the image signal and reduce the amount of calculation in the frame area detection unit 104, which will be described later. A suitable thinning rate is, for example, 1/4. i.e. 4
Three of the pixels are thinned out and reduced to one pixel. Also, 4
Rather than simply thinning out one pixel at a specific position among the pixels and outputting it, the thinning is performed by giving priority to chromatic colors, that is, the W, R, G. Assuming that B represents the achromatic, red, green, and blue codes, respectively,
As shown by A in FIG. 3, if even one of the four pixels has a chromatic color (red, green, blue, or bitter) signal, that signal is output for each thinning process. Then, as shown by B in FIG. 3, an achromatic color is output only when all four pixels are achromatic. Also,
As shown by C in FIG. 3, if there are frame colors of two or more colors among the four pixels, the first color among them is thinned out and output.

但し、穴なる色の枠線を狭い部分に密集して猫くことは
まれなので、第3図中Cのような状態は通常は起こらな
い。後で述べるように、本実施例では枠内領域検出部1
04で1ラスタの信号を一度メモリに記憶させている。
However, it is rare for the colored holes to be tightly packed together in a narrow area, so a situation like C in Figure 3 does not normally occur. As described later, in this embodiment, the in-frame area detection unit 1
04, one raster signal is once stored in the memory.

このため、信号を間引くことによりこのメモリの容量を
小さくすることができる。また、信号の転送速度も遅く
なるため、時分割処理などが可能となり、処理回路の規
模も小さくできる。一方、枠色の線を白地より優先して
間引いて行っているので、間引きにより細い枠線がかす
れたり、消失することもなく、枠内領域検出精度の劣化
も非常に少ない。なお、上述したように、間引き処理部
103は、処理規模の縮小を目的としたものであり、場
合によっては、この処理を省略することも可能である。
Therefore, by thinning out the signals, the capacity of this memory can be reduced. In addition, since the signal transfer speed becomes slower, time-division processing becomes possible, and the scale of the processing circuit can be reduced. On the other hand, since the frame color lines are thinned out with priority given to the white background, thin frame lines do not fade or disappear due to thinning, and there is very little deterioration in frame area detection accuracy. Note that, as described above, the purpose of the thinning processing unit 103 is to reduce the processing scale, and in some cases, this processing may be omitted.

〈枠内領域検出部104> 枠内領域検出部104は間引き処理部103から出力さ
れた枠色信号より枠内領域を識別する。
<Frame Area Detection Unit 104> The frame area detection unit 104 identifies the frame area from the frame color signal output from the thinning processing unit 103.

まず、本実施例における枠内領域検出のアルゴリズムに
ついて説明する。本実施例では枠色の種類として4色を
独立に用いているが、ここでは便宜上1色の場合につい
て説明する。
First, an algorithm for detecting a frame area in this embodiment will be explained. In this embodiment, four colors are independently used as frame colors, but for convenience, a case of one color will be described here.

本処理のアルゴリズムを第4図に示す。本アルゴリズム
では各枠画素に枠レベルを地画素に地レベルという属性
を与え、前ラスタの枠信号、枠レベル、地レベルおよび
現ラスタの枠信号から現ラスタの枠レベルまたは地レベ
ルを判定し、地レベルにより枠の内外のいずれかを決定
する。そして、この処理を1ラスタごとに進めながら順
次繰り返していくことにより、画像全面の枠内領域を検
出する。ここで、画像の最初のラスタである第1ラスタ
の前にはラスタが存在しないので、仮想的に第Oラスタ
を考える。第0ラスタはすべて地でその地レベルは初期
値Oであるとする。第Oラスタは画像の端であると考え
られ、ここでの地レベルOは基準値となる。
The algorithm for this process is shown in FIG. In this algorithm, each frame pixel is given an attribute of frame level, and the ground pixel is given an attribute of ground level, and the frame level or ground level of the current raster is determined from the frame signal, frame level, ground level of the previous raster, and the frame signal of the current raster. Decide whether it is inside or outside the frame depending on the ground level. Then, by sequentially repeating this process for each raster, the frame area of the entire image is detected. Here, since there is no raster before the first raster, which is the first raster of the image, the O-th raster will be considered virtually. It is assumed that the 0th raster is all ground and its ground level is the initial value O. The O-th raster is considered to be the edge of the image, and the ground level O here is the reference value.

次に、各ラスタの枠レベルまたは地レベルの決定を行う
。この決定の手順を第5図に基づいて詳細に説明する。
Next, the frame level or ground level of each raster is determined. The procedure for this determination will be explained in detail based on FIG.

当該ラスタの枠信号をP (x)、その前ラスタ各画素
の枠信号、枠レベル、地レベルをそれぞれPO (x)
 、LF (x) 、LG (x)とする。ここで枠信
号は前述したように枠の部分で1、それ以外の部分で0
をとる2値信号であり、Xは主走査方向の位置を表す。
The frame signal of the relevant raster is P (x), and the frame signal, frame level, and ground level of each pixel of the previous raster are PO (x).
, LF (x) and LG (x). Here, the frame signal is 1 in the frame part and 0 in other parts as mentioned above.
It is a binary signal that takes the following values, and X represents the position in the main scanning direction.

まず、現ラスタの枠信号をラン表現に変換する。First, the frame signal of the current raster is converted into run representation.

すなわち、各ラスタ内で同じ枠信号値をとる連結領域を
ランと呼び、1ラスタをランごとに分割する。以下、n
番目のランをRnと表記する。これらのランは一つおき
にそれぞれ枠、地を表す。次に、地のランRnの地レベ
ルを次の規則■乃至■により決定する。
That is, a connected region having the same frame signal value within each raster is called a run, and one raster is divided into runs. Below, n
The th run is written as Rn. Every other run represents a frame and a ground, respectively. Next, the ground level of the ground run Rn is determined according to the following rules (1) to (3).

■ランRnに隣接する地のランが前ラスタに一つもない
場合は、前ラスタの隣接する枠のランの枠レベルに1を
加えたものをランRnの地レベルとする[第8図(a)
コ。
■If there is no run in the ground adjacent to run Rn in the previous raster, the ground level of run Rn is the frame level of the run in the adjacent frame in the previous raster plus 1 [Figure 8 (a) )
Ko.

■ランRnに隣接する地のランが前ラスタに一つだけあ
る場合は、そのランの地レベルをランRnの地レベルと
する[第6図(b)コ。
■If there is only one ground run adjacent to run Rn in the previous raster, the ground level of that run is set as the ground level of run Rn [Fig. 6 (b).

■ランRnに隣接する地のランが前ラスタに複数ある場
合は、その複数の地の地レベルのうち最小値をランRn
の地レベルとする[第6図(C)  コ 。
■If there are multiple runs of ground adjacent to run Rn in the previous raster, the minimum value of the ground levels of those multiple places is set to run Rn.
[Figure 6 (C)].

また、枠のランの枠レベルを次の規則■乃至■により決
定する。
Further, the frame level of the frame run is determined according to the following rules (1) to (2).

■ランRnに隣接する枠のランが前ラスタに一つもない
場合は、前ラスタの隣接する地のランの地レベルをラン
Rnの枠レベルとする[第6図(d)  コ 。
■If there is no run in the frame adjacent to run Rn in the previous raster, the ground level of the run in the adjacent ground in the previous raster is set as the frame level of run Rn [Fig. 6(d)].

■ランRnに隣接する枠のランが前ラスタに一つだけあ
る場合は、そのランの枠レベルをランRnの枠レベルと
する。[第6図(e)]。
(2) If there is only one run of a frame adjacent to run Rn in the previous raster, the frame level of that run is set as the frame level of run Rn. [Figure 6(e)].

■ランRnに隣接する枠のランが前ラスタに複数ある場
合は、その複数の枠の枠レベルのうち最大値をランRn
の枠レベルとする[第6図(f)  コ 。
■If there are multiple runs of frames adjacent to run Rn in the previous raster, the maximum value of the frame levels of the multiple frames is set to run Rn.
The frame level is set to [Figure 6 (f)].

なお、これらの規則■乃至■と第5図の条件a− * 
 b.+  C.l d.とは、a.が■、b.が■と
■、C−が■、d.が■と■にそれぞれ対応している。
In addition, these rules ■ to ■ and conditions a-* in Figure 5
b. + C. ld. means a. is ■, b. is ■ and ■, C- is ■, d. corresponds to ■ and ■, respectively.

第5図では■と■、■と■をそれぞれ区別していないが
、ここでは以下の説明の都合上、分類している。しかし
、本質的には同じ意味である。
In FIG. 5, ■ and ■, and ■ and ■ are not distinguished from each other, but they are classified here for the convenience of the following explanation. However, they essentially mean the same thing.

ここで、前ラスタのランが現ラスタのランに隣接すると
は現ラスタを構成する画素のいずれかが前ラスタの当該
ランの構成画素のいずれかに隣接している場合をいう。
Here, a run of the previous raster is adjacent to a run of the current raster when any of the pixels constituting the current raster is adjacent to any of the pixels constituting the run of the previous raster.

さらに、現ラスタの画素P(X)に隣接している画素と
は、本実施例では第7図(a)に示すように主走査位置
の同じ画素PO (x)のみを意味する。但し、この隣
接関係はこの定義に限るものではなく、例えば、現ラス
タの画素P (x)に対し、前ラスタの同じ主走査位置
の画素PO (x)と1画素前の画素PO(x一l)の
2画素を隣接画素と定義したり[第7図(b)コ、さら
に1画素後の画素PO(x+1)も加えた3画素を隣接
する画素と定義してもよい[第7図(C)]。特に、2
番目の定義では枠と地が前ラスタと現ラスタとの間で交
差する場合につねに枠、地のいずれか一方が連結し、他
方が連結しないので合理的である。しかし、通常はその
ような細かい枠線が形成されることはまれなので、本実
施例のように第7図(a)に示すように隣接する関係を
用いても実用上、問題となることは少ない。
Further, in this embodiment, the pixel adjacent to the pixel P(X) of the current raster means only the pixel PO(x) at the same main scanning position as shown in FIG. 7(a). However, this adjacency relationship is not limited to this definition; for example, for a pixel P (x) of the current raster, a pixel PO (x) at the same main scanning position of the previous raster and a pixel PO (x-1) one pixel before The two pixels of 1) may be defined as adjacent pixels [Fig. 7(b), and the 3 pixels including the pixel PO(x+1) one pixel later may be defined as adjacent pixels [Fig. (C)]. In particular, 2
The second definition is reasonable because when the frame and the ground intersect between the previous raster and the current raster, either the frame or the ground is always connected and the other is not. However, since such fine frame lines are rarely formed, there is no problem in practice even if the adjacent relationship is used as shown in FIG. 7(a) as in this embodiment. few.

前記の規則により決定した地レベルの値よりその地部分
が枠内領域か枠外領域かを判定できる。
Based on the value of the ground level determined according to the above-mentioned rules, it can be determined whether the ground portion is an area within the frame or an area outside the frame.

同一ランの画素のレベルは同じなので主走査方向に連結
する部分は同じレベルとなる。また、規則■および規則
■より副走査方向に連結した部分も同じレベルとなる。
Since the pixels in the same run have the same level, the parts connected in the main scanning direction have the same level. Further, according to the rule (2) and the rule (2), the connected portions in the sub-scanning direction are also at the same level.

したがって、主走査方向または副走査方向の下方向に連
結した地部分、枠部分は同じ地レベルまたは枠レベルを
継承する[第8図(a)]。また、地部分から新たに枠
が生じた場合[第8図(b)]は規則■より、その隣接
する地部分の地レベルが新たに生じた枠の枠レベルとな
る。また、枠部分から新たに地部分が生じた場合[第8
図(C)]は規則■により、その枠の枠レベルに1を加
えた値が新たに生じた地部分の地レベルとなる。したが
って、新たに上凸の枠線が発生した場合、その枠線によ
り囲まれる部分[第8図(d)]の地レベルはその外側
の地部分の地レベルに1を加えた値となる。すなわち、
多重にネストした枠線の内側の地レベルはネストが深く
なるにしたがって1ずつ増加していく。したがって、2
重以上の枠線の内部を交互に枠内、枠外とみなせば、地
レベルが偶数か奇数かで、枠内領域か枠外領域かを判定
できる。画像の最も外側の部分の地レベルはOとしてい
るので、地レベルが倫数の部分が枠外領域、奇数の部分
が枠内領域と判定する。 なお、本実施例では規則Oに
おいて、前ラスタの隣接する枠の枠レベルの最大値を当
該枠の枠レベルとしている。しかし、この規則は本質的
ではなく、変形例として規則■を下記の規則■′に書き
換えた方式も可能である。
Therefore, the ground portions and frame portions connected downward in the main scanning direction or the sub-scanning direction inherit the same ground level or frame level [FIG. 8(a)]. Further, when a new frame is generated from the ground part [FIG. 8(b)], according to rule (2), the ground level of the adjacent ground part becomes the frame level of the newly generated frame. In addition, if a new ground part arises from the frame part [8th
In Figure (C)], according to rule (2), the value obtained by adding 1 to the frame level of that frame becomes the ground level of the newly generated ground part. Therefore, when a new upwardly convex frame line is generated, the ground level of the area surrounded by the frame line [FIG. 8(d)] becomes the value obtained by adding 1 to the ground level of the ground area outside of it. That is,
The ground level inside the multiple nested frames increases by 1 as the nesting becomes deeper. Therefore, 2
If the inside of the frame lines that are more than 100% thick are considered to be inside the frame and outside the frame alternately, it is possible to determine whether the area is inside the frame or outside the frame based on whether the ground level is an even number or an odd number. Since the ground level of the outermost part of the image is set to O, the parts where the ground level is an odd number are determined to be outside the frame area, and the parts where the ground level is an odd number are determined to be inside the frame area. In this embodiment, in rule O, the maximum value of the frame levels of adjacent frames in the previous raster is set as the frame level of the frame. However, this rule is not essential, and as a modification, it is also possible to rewrite the rule (2) as the following rule (2).

■′ランRnに隣接する枠のランが前ラスタに複数ある
場合は、その複数の枠の枠レベルのうち最小値をランR
nの枠レベルとする。
■'If there are multiple runs of frames adjacent to run Rn in the previous raster, the minimum value of the frame levels of the multiple frames is set to run R.
The frame level is n.

この変形例のアルゴリズムでは枠線の位相関係が特殊な
場合に、本実施例と異なる領域判定結果が得られる。し
かし、本実施例による判定結果との得失は枠線の位相に
より、一長一短であり、また通常の枠線ではこのような
特殊な場合は極めて少ないので、どちらの方式を用いて
も実用上、大差はない。
In the algorithm of this modification, when the phase relationship of the frame lines is special, a region determination result different from that of the present embodiment can be obtained. However, the advantages and disadvantages of the judgment results obtained in this example depend on the phase of the frame lines, and such special cases are extremely rare with ordinary frame lines, so there is no significant difference in practical use either method. There isn't.

次に、上述した枠内領域検出アルゴリズムによる枠内検
出の具体例について説明する。
Next, a specific example of inside-frame detection using the above-mentioned inside-frame area detection algorithm will be described.

(1)円形の枠線の場合 まず、第9図(a)に示すような単純な円形の枠の場合
について説明する。以下の図はすべて副走査方向を図の
上から下向きとする。図のラスタ901まではすべてに
地なので地レベルは初期値0のままである。ラスタ90
1で初めて枠線にかかる。この部分をラスタレベルまで
拡大した模式図を第9図(b)に示す。図中ハッチング
した部分が枠!a1部分、それ以外の部分が地部分を表
している。ラスタ901で初めて枠線のラン902が生
じる。ラン902の前ラスタには枠部分がないので、前
記アルゴリズムの規則■に従い、ラン902の枠レベル
はOとなる。これに続くラスタの枠のラン903乃至9
04の枠レベルは規則■に従いそれぞれラン902の枠
レベルを継承して0となる。次に、初めて枠に囲まれた
地にかかるラスタ905で、枠のラン906,907の
間に地のラン908が生じる。ラン908の地レベルは
規則■により、ラン904の枠レベルに1を加えたもの
、すなわち1となり、枠の内部であることが検出される
。以下のラスタでは規則■により、このレベルが継承さ
れていく。これにより、枠線の内部の領域910はすべ
て地レベルがlすなわち枠内領域と判定され、枠線の外
部領域911は全て地レベルがOすなわち枠外領域と判
定され、正しく枠の内外が判定される。
(1) Case of a circular frame line First, the case of a simple circular frame as shown in FIG. 9(a) will be explained. In all the figures below, the sub-scanning direction is from the top to the bottom of the figure. Since all of the raster lines up to raster 901 in the figure are ground, the ground level remains at the initial value of 0. raster 90
1, it hits the frame line for the first time. A schematic diagram of this part enlarged to the raster level is shown in FIG. 9(b). The hatched part in the diagram is the frame! The a1 part and the other parts represent the ground part. For the first time in raster 901, frame line run 902 occurs. Since there is no frame portion in the previous raster of run 902, the frame level of run 902 is O according to the rule (2) of the algorithm. Subsequent raster frame runs 903 to 9
The frame level of 04 inherits the frame level of run 902 and becomes 0 according to rule (2). Next, in the raster 905 covering the ground surrounded by the frame for the first time, a ground run 908 occurs between the frame runs 906 and 907. According to rule (2), the ground level of run 908 is the frame level of run 904 plus 1, that is, 1, and it is detected that it is inside the frame. In the following rasters, this level will be inherited according to rule ■. As a result, the area 910 inside the frame line is all determined to have a ground level of l, that is, the area is within the frame, and the area 911 outside the frame line is all determined to have a ground level of O, that is, an area outside the frame, and it is correctly determined whether the area is inside or outside the frame. Ru.

(2)下向き凹部を有する枠線の場合 次に、第10図(a)に示すように下向き凹部を有する
形状の枠線の場合を説明する。前の例と同様に、初めて
枠線にかかるラスタ1001まではすべてレベルOの地
となり、初めて下向き凹部の枠にかかるラスタ1002
までは枠内の領域l012の地レベルはlとなる。ラス
タ1002で初めて下向き凹部の枠線のラン1003が
生じる[第10図(b)コ。このランは地レベル1の地
にしか隣接していないので、規則■により枠レベル1と
なる。そして、下向き四部の外部の地が初めて現れるラ
ン1004の地レベルは規則■により2となる。したが
って、ラスタ1005までは下向き凹部の領域1010
の地レベルは2となる。
(2) Case of a frame line having a downward concave portion Next, the case of a frame line having a downward concave portion as shown in FIG. 10(a) will be described. As in the previous example, all raster 1001 that spans the frame line for the first time are at level O, and raster 1002 that spans the downward concave frame for the first time.
Until then, the ground level of the area l012 within the frame is l. For the first time in the raster 1002, a run 1003 of the frame line of the downward concave portion occurs [FIG. 10(b)]. Since this run is only adjacent to a ground level 1 ground, it becomes a frame level 1 according to rule (■). The ground level of run 1004 where the external ground of the downward quadrant appears for the first time is 2 according to rule (■). Therefore, up to the raster 1005, the downward concave area 1010
The ground level will be 2.

ラスタ1005で下向き凹部の領域1010と外の地領
域101lが結合するが、規則■によりこのラスタ以降
の地レベルはOとなる。これにより、枠線の内部の領域
は全て地レベルがOまたは2となり、正しく枠の内外が
判定される。
In the raster 1005, the downward concave region 1010 and the outer ground region 101l are combined, but the ground level after this raster is O according to the rule (2). As a result, the ground level of all areas inside the frame line becomes O or 2, and it is correctly determined whether the area is inside or outside the frame.

(3)n重枠の場合 第11図の斜線部に示すドーナツ状の領域や、さらにド
ーナツの穴の中にさらに孤立した島をもつ領域などを枠
線により指定するには第12図に示す2重または3重の
枠線により指定するのが幾何学的な意味からも常識的な
意味からも合理的である。本アルゴリズムではつぎに示
すように、このような2重以上の枠線に対しても領域の
内外を上記の意味で正しく判定できる。すなわち、第1
3図に示すような3重の枠の場合、最も外側の枠130
1の枠レベルは0となり、その内側の地部分1302の
地レベルは1となる。同様に外から2番目の枠1303
の枠レベルは1、その内部の池部分1304の地レベル
は2となる。このように、枠のネストが増えるにつれて
枠および地のレベルは1つずつ大きくなる。これにより
、最も内側、すなわち外から3番目の枠1305の内部
1306、外部から2番目の枠1303と外から2番目
の枠1305の間の部分1304、最も外側の枠130
lと外から2番目の枠1303の間の部分1302の地
レベルはそれぞれ、3,2.1となり、それぞれ枠内領
域、枠外領域、枠内領域と判定される。これは3重の枠
線の場合に限らず、枠線のネストが4以上に増えても同
様に判定される。
(3) In the case of an n-fold frame, the donut-shaped area shown in the shaded area in Figure 11 or the area with isolated islands inside the donut hole can be specified using frame lines as shown in Figure 12. It is reasonable from both a geometrical and common sense point of view to specify using double or triple frame lines. As shown below, this algorithm can correctly determine whether the area is inside or outside the area even for such double or more frame lines in the above sense. That is, the first
In the case of a triple frame as shown in Figure 3, the outermost frame 130
The frame level of 1 is 0, and the ground level of the ground portion 1302 inside it is 1. Similarly, the second frame 1303 from the outside
The frame level of is 1, and the ground level of the pond portion 1304 inside it is 2. In this way, as the nesting of frames increases, the levels of the frame and the ground increase by one. As a result, the innermost frame 1306 of the third frame 1305 from the outside, the portion 1304 between the second frame 1303 from the outside and the second frame 1305 from the outside, the outermost frame 130
The ground level of the portion 1302 between l and the second frame 1303 from the outside is 3 and 2.1, respectively, and is determined to be an in-frame area, an out-frame area, and an in-frame area, respectively. This is not limited to the case of triple frame lines, and the same determination is made even when the nest of frame lines increases to four or more.

(4)ひげがある場合 ところで、以上の各例では枠線はすべて円と位相が同じ
である1木の閉萌線であったが、手で枠線を描く場合に
は、枠線の始点と終点が一致せず、第14図に示すよう
に枠線が開聞線になったり、第15図(a)、(b)に
示すように内側または外側にひげの分岐した閉聞線とな
る場合がある。
(4) When there is a beard By the way, in each of the examples above, all the frame lines were closed lines of one tree with the same phase as the circle, but when drawing the frame lines by hand, the starting point of the frame line The end points do not match, and the frame line becomes a Kaimon line as shown in Figure 14, or a Kaimon line with branches branching inwards or outwards as shown in Figures 15 (a) and (b). There are cases.

このいずれの状態にもならないように、閉+ll+線を
描くのは困難であり、使い勝手を著しく損なう。
It is difficult to draw a closed +ll+ line so as to avoid either of these situations, which significantly impairs usability.

本アルゴリズムでは副走査の方向性により、第14図(
a)のように、下側の開いた枠線に対しては枠内領域を
検出できるが、第14図(b)のように上側の開いた枠
線などでは枠内領域を検出できない。すなわち、開曲線
に対しては必ずしも常識にあった枠内領域検出が行えな
い。
In this algorithm, due to the directionality of sub-scanning,
As shown in a), the area within the frame can be detected for the lower open frame line, but the area within the frame cannot be detected for the upper open frame line as shown in FIG. 14(b). That is, for open curves, it is not necessarily possible to perform common sense in-frame area detection.

しかし、第15図(a),(b)のように閉■線になっ
ていればひげがあっても、正しい枠線の内外を判別する
。すなわち、第15図(a)のように閉曲線に内側にひ
げがある場合は、枠レベルはどの部分のOとなり、閉+
11+線の内側の地レベルはすべて1、すなわち枠内領
域となる。また、第15図(b)に示すように閉■線に
外側にひげのある場合は枠線の枠レベルはすべてOとな
る。そして、閉曲線の内側部分1501およびひげと閉
■線にはさまれた部分1502の地レベルは1となる。
However, if it is a closed black line as shown in FIGS. 15(a) and 15(b), even if there are whiskers, it is possible to determine whether it is inside or outside the correct frame line. In other words, if the closed curve has whiskers on the inside as shown in Figure 15(a), the frame level is O at which part, and the closed +
All the ground levels inside the 11+ line are 1, that is, the area within the frame. Further, as shown in FIG. 15(b), if the closed ■ line has whiskers on the outside, the frame levels of all the frame lines are O. The ground level of the inner part 1501 of the closed curve and the part 1502 sandwiched between the whiskers and the closed ■ line is 1.

しかし、閉1111線にはさまれた部分はひげの終点で
あるラスタ1503で外側の地レベルがOである地部分
と連結する。前記アルゴリズムの規則■よりラスタ15
03以降は地レベルの小さい方がOとなる。このため、
閉1出線の内部1501および、ひげと閉■線の間には
さまれた領域1502が枠内領域と判定される。領域1
502の枠外領域と考えるのが常識的であるが、ひげは
小さいので領域1502は十分小さい領域となり、この
ような判定結果での実用上は問題はないと考えられる。
However, the part sandwiched between the closed lines 1111 is connected to the ground part whose outer ground level is O at raster 1503, which is the end point of the whiskers. Raster 15 from the rule ■ of the above algorithm
After 03, the lower ground level becomes O. For this reason,
The inside 1501 of the closed 1-outer line and the area 1502 sandwiched between the whiskers and the closed ■ line are determined to be the in-frame area. Area 1
It is common sense to consider the area outside the frame 502, but since the whiskers are small, the area 1502 is a sufficiently small area, and it is considered that there is no problem in practical use with such a determination result.

枠線が閉萌線になるように留意して枠線を描けばよく、
枠線を描く上での制約条件が少なく、使い勝手のよいも
のとなる。
Just draw the frame line keeping in mind that the frame line is a closed line,
There are fewer restrictions on drawing frame lines, making it easier to use.

次に、前記アルゴリズムを実現する枠内領域検出部10
4の具体的な構成を説明する。枠内領域検出部104の
構成の一例を第l6図に示す。間引き処理部103から
出力された枠色信号114をデコーダ1641でデコー
ドし、それぞれ赤、緑、青、黄の有無を示す4色の枠信
号1651乃至1654を作成する。これらの枠信号1
651乃至1654は各色ごとに設けられたレベル判定
部1601乃至1604およびメモリ部1605乃至1
608に入力される。これら4つのレベル判定部160
1乃至1604およびメモリ部1605乃至1608は
、すべて同じ措成となっている。したがって、ここでは
赤の枠信号1651に対応したレベル判定部1601と
メモリ部1605について説明する。
Next, the in-frame area detection unit 10 that implements the above algorithm
The specific configuration of No. 4 will be explained. An example of the configuration of the in-frame area detection section 104 is shown in FIG. The frame color signal 114 output from the thinning processing unit 103 is decoded by a decoder 1641 to create four color frame signals 1651 to 1654 indicating the presence or absence of red, green, blue, and yellow, respectively. These frame signals 1
651 to 1654 are level determination units 1601 to 1604 and memory units 1605 to 1 provided for each color.
608. These four level determination units 160
1 to 1604 and memory sections 1605 to 1608 all have the same configuration. Therefore, the level determination section 1601 and memory section 1605 corresponding to the red frame signal 1651 will be explained here.

(I)レベル判定部1601 レベル判定部■601は現ラスタの枠信号工651、前
ラスタの忰信号1655および前ラスタのレベル4g号
1656から現ラスタのレベルを゛il+定する。判定
は現ラスタのラン、すなわち連結する枠部分および連結
する地部分を単位として行う。
(I) Level Judgment Unit 1601 The level judgment unit 601 determines the level of the current raster from the frame signal 651 of the current raster, the signal 1655 of the previous raster, and the level 4g signal 1656 of the previous raster. The determination is made in units of runs of the current raster, that is, connected frame parts and connected ground parts.

この判定部160tは判定論理回路1609、6ビット
の内部状態レジスタ1610および出力レジスタ161
1よりなる.判定論理回路1609は現ラスタの枠信号
165L前ラスタの枠信号1655、前ラスタのレベル
信号1656およびレジスタ1611の出力信号l66
0を入力し2ビットの連結状態と4ビットのレベル状態
よりなる内部状態信号1657およびlビットのラン終
了信号1858を生成する。内部状態レジスタ1611
は上記の内部状態信号1657を画素単位に同期して記
憶する。これにより、連結状態2ビットによる4つの状
態SO,Sl,S2,S3および4ビットのレベル状態
LSをもつ状態遷移回路を構成する。
This judgment section 160t includes a judgment logic circuit 1609, a 6-bit internal state register 1610, and an output register 161.
Consists of 1. The determination logic circuit 1609 uses the frame signal 165 of the current raster, the frame signal 1655 of the previous raster, the level signal 1656 of the previous raster, and the output signal l66 of the register 1611.
0 is input, and an internal state signal 1657 consisting of a 2-bit concatenation state and a 4-bit level state and an l-bit run end signal 1858 are generated. Internal status register 1611
stores the above internal state signal 1657 in synchronization with each pixel. As a result, a state transition circuit having four states SO, Sl, S2, S3 of connected states of 2 bits and a level state LS of 4 bits is constructed.

判定論理回路1609の入出力関係を第17図に示す。The input/output relationship of the determination logic circuit 1609 is shown in FIG.

これはレベル判定部状態遷移を表す。ここで、ラン終了
信号がlとなる画素、すなわち現ラスタが枠から地また
は地から枠に変化する画素での内部状態LSが出力レジ
スタ1611に記憶され、これがとのランレベルなどの
情報を表す。
This represents the level judgment section state transition. Here, the internal state LS at the pixel where the run end signal becomes l, that is, the pixel where the current raster changes from frame to ground or from ground to frame, is stored in the output register 1611, and this represents information such as the run level. .

このレベル信号がこのランの地レベルまた枠レベルとな
る。
This level signal becomes the ground level or frame level of this run.

ここで内部状態STのSo,Sl,S2,S3はそれぞ
れ、■現ラスタが地で前ラスタに地の画素がある、■現
ラスタが枠で前ラスタすべて地、■現ラスタが地で前ラ
スタがすべて枠、■現ラスタが枠で前ラスタに枠の画素
があるという構造に対応している。これらの内部状態は
ラン終了時点で確定し、第17図に示すような状態遷移
にすることにより、各ランの終了時の状態So,Sl,
82,S3がそれぞれ規則■と■、規則■、規則■、規
則■と規則■のランの条件に対応し、前記のffl f
llJに応じたレベル判定のアルゴリズムを実行する。
Here, So, Sl, S2, and S3 of the internal state ST are respectively: ■ Current raster is ground and previous raster has ground pixels, ■ Current raster is a frame and previous raster is all ground, ■ Current raster is ground and previous raster is ground. corresponds to a structure in which all pixels are frames, and the current raster is a frame and the previous raster has frame pixels. These internal states are determined at the end of the run, and by making the state transitions as shown in FIG. 17, the states So, Sl,
82 and S3 correspond to the run conditions of rules ■ and ■, rule ■, rule ■, rule ■ and rule ■, respectively, and the above ffl f
A level determination algorithm according to llJ is executed.

このように、前記のレベル決定のアルゴリズムは而易な
構成で実現できる。
In this way, the level determination algorithm described above can be realized with a simple configuration.

(n)メモリ部1605 レベル判定部1601で判定されたレベル信号はランを
9i位に定義されてわり、ランの最終画素でそのレベル
値が確定する。このため、次段のメモリ部1605にお
いてレベル゛Fll定部1601で判定した1ラスタ分
のレベル信号を記憶し、次のラスタでランの最初の画素
からレベルの確定する画素単位の信号として読み出す。
(n) Memory unit 1605 The level signal determined by the level determination unit 1601 is defined at the 9i position of the run, and its level value is determined at the last pixel of the run. For this reason, the next stage memory unit 1605 stores one raster's worth of level signals determined by the level-FULL determining unit 1601, and reads them out as pixel-by-pixel signals whose levels are determined from the first pixel of the run in the next raster.

メモリ部1605は2個のメモリ1612.16l3、
読み出し用のアドレスカウンタ1614、書き込み用の
アドレスカウンタ1 61 5、読み出しレジスタ16
16、比較器1617、画素位置カウンタ1618、切
替え器1619および論理回路1620から構成されて
いる。
The memory unit 1605 includes two memories 1612.16l3,
Address counter 1614 for reading, address counter 1 61 5 for writing, read register 16
16, a comparator 1617, a pixel position counter 1618, a switch 1619, and a logic circuit 1620.

書き込み動作は次のように行う。まず、各ラスタの最初
の書き込み用のアドレスカウンタ1615を初期値Oに
クリアする。そして、ランの最終画素になるごとに、一
方のメモリ1612または1613にそのランの枠信号
、レベル信号およびランの最終画素の位置座標を1ワー
ドとして書き込み、書き込み用アドレスカウンタ161
5を1つカウントアップする。ここで、画素位置カウン
タ1618はラスタの最初にクリアし、主走査方向の画
素ごとにカウントアップしておくことにより、主走査方
向の画素位置を表す信号を出力する。
The write operation is performed as follows. First, the address counter 1615 for the first write of each raster is cleared to the initial value O. Then, each time the final pixel of a run is reached, the frame signal, level signal, and position coordinates of the final pixel of the run are written into one memory 1612 or 1613 as one word, and the write address counter 161
Count up 5 by one. Here, the pixel position counter 1618 is cleared at the beginning of the raster and counted up for each pixel in the main scanning direction, thereby outputting a signal representing the pixel position in the main scanning direction.

ランの最終画素位置としてこのカウンタ1618の内容
を書き込めばよい。そして、これらの操作を1つのラン
が終了するごとに、このラスタの終わりまで繰り返し、
ラスタの最終画素で最後の書き込みを行う。この一連の
操作によりメモリ1612または1613上には1ラス
タ上のすべてのランの枠信号、並びにレベル信号および
最終画素位置の情報がランの位置の若い順に書き込まれ
る。
The contents of this counter 1618 may be written as the final pixel position of the run. Then, each time one run ends, these operations are repeated until the end of this raster,
Perform the last write at the last pixel of the raster. Through this series of operations, frame signals of all runs on one raster, as well as information on level signals and final pixel positions are written into the memory 1612 or 1613 in descending order of run position.

そして、次のラスタでこの情報を読み取りながら、画素
単位の信号として出力する。まず、各ラスタノ最初に、
読み出し用のアドレスカウンタ1614を初期値Oにク
リアし、メモリ16l2または1613の内容を読み出
しレジスタl616に書き込む。読み出しレジスタ16
16には1番目のランの枠信号、レベルおよびそのラン
の最終画素位置が書き込まれる。そして、主走査方向の
画素位置を示す画素位置カウンタ1618の内容と読み
出しレジスタエ616のラン最終画素位置とを比較器1
617で比較する。この比較結果が等しくなっ時に、読
み出し用アドレスカウンタt614の内容をカウントア
ップし、メモリの内容を読み出しレジスタに書き込み、
この操作をラスタの終わりまで繰り返す。この一連の処
理により、読み出しレジスタ1616から画素11位に
同期して枠信号およびレベル信号が出力される。
Then, while reading this information in the next raster, it is output as a pixel-by-pixel signal. First, each lastano first,
The read address counter 1614 is cleared to the initial value O, and the contents of the memory 16l2 or 1613 are written to the read register l616. Read register 16
16, the frame signal, level, and final pixel position of the first run are written. Then, the comparator 1 compares the contents of the pixel position counter 1618 indicating the pixel position in the main scanning direction with the run final pixel position of the read register 616.
Compare with 617. When the comparison results are equal, the contents of the read address counter t614 are counted up, the contents of the memory are written to the read register,
Repeat this operation until the end of the raster. Through this series of processing, a frame signal and a level signal are output from the read register 1616 in synchronization with the 11th pixel.

ここで、lラスタの信号の書き込みと読み出しに2ラス
タ分の時間がかかるため、メモリを2個用い、一方を書
き込み用、他方を読み出し用として用い、1ラスタごと
に切替え器16l9により読み出し操作と書き込み操作
を交互に切り替えることにより、全ラスタの信号を間断
なく処理することができる。
Here, since it takes time for 2 rasters to write and read the signal of 1 raster, two memories are used, one for writing and the other for reading, and the read operation is performed by the switch 16l9 for each raster. By alternating the write operations, the signals of all rasters can be processed without interruption.

また、本実施例では2個のメモリを用いているが、例え
ば1個のメモリを時分割で川いることも可能である。
Further, although two memories are used in this embodiment, it is also possible to use one memory in a time-sharing manner, for example.

前述したように地レベルが奇数の部分が枠内領域となる
ので、論理回路1620により、読み出しレジスタ18
18から出力されるレベル信号1661の最下位1ビッ
トと枠信号1662の否定すなわち地信号との論理積を
とり、この出力が枠内信号1671であるとする。ただ
し、本実施例では枠部分は領域外とみなしているが、枠
部分を領域内とみなす考え方なども可能である。この場
合はレベル信号最下位1ビットと枠信号の論理和を枠内
領域信号とすればよい。また、読み出しレジスタ161
6から出力される枠信号およびレベル信号はレベル判別
部工601で前ラスタの参照信号として用いる。
As mentioned above, since the area where the ground level is an odd number is the area within the frame, the logic circuit 1620 causes the reading register 18 to
The least significant bit of the level signal 1661 outputted from 18 is ANDed with the negation of the frame signal 1662, that is, the ground signal, and this output is assumed to be the frame signal 1671. However, in this embodiment, the frame portion is considered to be outside the area, but it is also possible to consider the frame portion to be inside the area. In this case, the logical sum of the lowest 1 bit of the level signal and the frame signal may be used as the frame area signal. In addition, the read register 161
The frame signal and level signal outputted from 601 are used as reference signals for the previous raster by a level determination section 601.

このように、ランを車位にレベルの決定を行うことによ
り、ランの終端で確定する判定結果をラン全体の画素に
反映できる。これは、主走査方向と反対の方向に任意の
画素数だけ情報を先読みすることに相当し、これにより
、主走査方向に連結した領域内ではどちらの方向にもレ
ベルを継承することができる。通常のラスタスキャン信
号に対する画素単位の処理では信号の先読みの画素数を
大きくしようとすると、回路規模が膨大となるので先読
みの画素数は数画素に限られる。また、1ラスタの信号
をメモリに記憶してCPUなどを用いて一括してレベル
決定を行うと、メモリのアクセスやレベル決定のための
計算に高速性が要求される。
In this way, by determining the level with the run at the vehicle level, the determination result determined at the end of the run can be reflected in the pixels of the entire run. This corresponds to pre-reading information by an arbitrary number of pixels in the direction opposite to the main scanning direction, so that levels can be inherited in either direction within an area connected in the main scanning direction. In normal pixel-by-pixel processing for raster scan signals, increasing the number of pixels for pre-reading of the signal would result in an enormous circuit scale, so the number of pixels for pre-reading is limited to several pixels. Furthermore, if one raster signal is stored in a memory and the level is determined all at once using a CPU or the like, high-speed memory access and calculation for level determination are required.

しかし、本実施例のようにラン表現に変換してレベル決
定を行うことにより、ラスタスキャン信号に対し、主走
査方向の方向依存性のないレベル決定を簡易な構成で行
うことができる。
However, by converting to run representation and determining the level as in this embodiment, it is possible to determine the level of the raster scan signal without direction dependence in the main scanning direction with a simple configuration.

また、このように決定されたレベルflをラン表現のま
ま、全画面分記憶しておくことにより、全画面をスキャ
ンした後も枠領域情報を保存しておくことができる。ラ
ン表現で記憶することにより、小さいメモリ容量で枠領
域を保存できる。
Further, by storing the level fl determined in this manner as a run representation for the entire screen, it is possible to preserve the frame area information even after the entire screen has been scanned. By storing in run representation, the frame area can be stored with a small memory capacity.

この情報を用いることにより、1枚の画像の枠内部分に
、その後でスキャンした2枚目の画像をはめこむ、いわ
ゆるはめこみ合成処理等が実現できる。
By using this information, it is possible to implement so-called embedding and compositing processing, which embeds a second scanned image into the frame of one image.

(III)エンコーダ163l 上記の処理を4色の枠色についてそれぞれ独立して行う
ことにより、4色の枠内信号l671乃至1674が得
られる。エンコーダ163lはこれらの信号から領域の
色を決定し、これを領域色信号115として出力する。
(III) Encoder 163l By performing the above processing independently for each of the four frame colors, four-color frame signals l671 to 1674 are obtained. The encoder 163l determines the color of the area from these signals and outputs this as the area color signal 115.

前記枠内信号167l乃至l674は複数の色枠につい
て独立して枠内領域を検出しているため、複数の色枠の
内部である領域が発生する可能性がある。そこで、領域
色決定部であるエンコーダ1631でこの複数の色から
1つの色を決定する。本実施例では、色粋に優先順位を
設け、次のようなアルゴリズムで領域色を決定する。す
なわち、まず4色の枠内信号のうちすべてがOの領域は
どの色の枠内にも入らない領域とし、この領域色を便宜
上黒と定義する。
Since the in-frame signals 167l to 1674 detect in-frame areas independently for a plurality of color frames, there is a possibility that an area may occur inside a plurality of color frames. Therefore, the encoder 1631, which is a region color determining unit, determines one color from the plurality of colors. In this embodiment, priority is given to colors, and area colors are determined using the following algorithm. That is, first, an area in which all of the in-frame signals of four colors are O is an area that does not fall within any color frame, and the color of this area is defined as black for convenience.

また、4色の枠内信号のうち1色のみが1の場合は1で
ある枠色を領域色とする。そして、同時に2色以上の枠
信号が1となった場合には1となる枠色のうち優先順位
の高い枠色を領域色とする。
Furthermore, if only one color among the four color in-frame signals is 1, the frame color that is 1 is set as the area color. If the frame signals of two or more colors become 1 at the same time, the frame color with the higher priority among the frame colors that become 1 is set as the area color.

本実施例では枠色の優先順位を赤、緑、青、シテの順と
して工冫コーダl631に入出力関係を第18図に示す
ように設定し、領域色信号115に変換している。
In this embodiment, the input/output relationship of the engineering coder 1631 is set as shown in FIG. 18, with the frame colors prioritized in the order of red, green, blue, and shite, and converted into the area color signal 115.

本実施例では複数の枠内領域が重複した場合に色の優先
関係でその色を決めているが、これは本発明により限定
されるものではなく、例えば異なる色枠間の包含関係に
より優先順位を定めるなどの方法をとってもなんら支障
はない。
In this embodiment, when multiple frame areas overlap, the color is determined based on the color priority relationship, but this is not limited to the present invention; for example, the priority is determined based on the inclusion relationship between different color frames. There is no problem in taking measures such as determining the

く画像編集処理部105及び画像記録部106〉次に、
画像編集処理部105は枠内領域検出部104で検出さ
れた枠内信号にしたがって、枠内領域に操作者の指定し
た編集処理を施す。本実施例では、編集処理として色の
置き換え処理およびマスキング処理を行う場合について
説明する。色の置き換え処理は枠内領域の黒部分を指定
した色に置き換えるもので、また、マスキング処理は枠
内領域の黒部分を消去する(白色に置き換える)もので
ある。この処理は例えば黒信号352と領域色信号35
5とを入力とし、記録信号を出力とする書き替え可能な
色置換テーブルにより実現することができる。
Image editing processing unit 105 and image recording unit 106> Next,
The image editing processing unit 105 performs editing processing specified by the operator on the in-frame area according to the in-frame signal detected by the in-frame area detection unit 104. In this embodiment, a case will be described in which color replacement processing and masking processing are performed as editing processing. The color replacement process replaces the black part of the frame area with a specified color, and the masking process erases the black part of the frame area (replaces it with white). This process includes, for example, the black signal 352 and the area color signal 35.
This can be realized by a rewritable color replacement table that takes 5 as an input and a recording signal as an output.

枠色と処理との関係は操作者がコントロールパネルから
指定することができ、この指定内容にしたがって色置換
テーブルの内容を書き替える。例えば、赤、緑、青の枠
色の枠内領域に対してはその枠色と同じ色への置換を行
い、黄色の枠色の枠内領域に対してマスキング処理を行
う場合には、テーブルの入出力関係を例えば第19図の
ように設定する。すなわち、黒信号がOの場合には記録
信号として白を出力し、黒信号が1でかつ領域色信号が
赤、緑、青の場合はそれぞれ赤、緑、青を表す記録信号
を出力し、黒色信号が1でかつ領域色信号が黄色の場合
は白を表す記録信号を出力する。また、黒色信号が1で
かつ領域色信号が黒の場合は黒を表す記録信号を出力す
る。最後に、この記録信号にしたがって、画像記録部3
05で記録紙面上に画像を記録する。これにより、例え
ば第20図(a)に示すようなモノクロ画像に色枠を書
き加えた画像[第20図(b)]を入力して、第20図
(C)に示すような編集画像を記録することができる。
The operator can specify the relationship between the frame color and the process from the control panel, and the contents of the color replacement table are rewritten according to the specified contents. For example, if you want to replace the areas within frames with red, green, and blue frame colors with the same color as the frame colors, and perform masking processing on the areas within frames with yellow frame colors, The input/output relationship is set as shown in FIG. 19, for example. That is, when the black signal is O, white is output as a recording signal, and when the black signal is 1 and the area color signals are red, green, and blue, recording signals representing red, green, and blue are output, respectively. When the black signal is 1 and the area color signal is yellow, a recording signal representing white is output. Further, when the black signal is 1 and the area color signal is black, a recording signal representing black is output. Finally, according to this recording signal, the image recording section 3
In step 05, an image is recorded on the recording paper surface. As a result, for example, by inputting an image [Fig. 20 (b)] in which a color frame has been added to a monochrome image as shown in Fig. 20 (a), an edited image as shown in Fig. 20 (C) can be created. Can be recorded.

すなわち、操作者が各枠色に対応させて指定した色置換
処理やマスキング処理などを実現することができる。
That is, it is possible to implement color replacement processing, masking processing, etc. specified by the operator in association with each frame color.

なお、本実施例では編集処理として指定枠内の色置換処
理としてマスキング処理のみを行っているが、このよう
な処理に限るものではなく、枠内領域すべてに色付けす
る色付け処理や、枠内領域に他の部分の画像を移動する
はめ込み合成処理などにも応用できる。
In addition, in this embodiment, only masking processing is performed as color replacement processing within the specified frame as editing processing, but it is not limited to such processing, and coloring processing that colors the entire area within the frame, or It can also be applied to inlay compositing processing that moves other parts of the image into the image.

以上のような構成によりモノクロ原稿上に書き加えた色
枠に応じて、色置換などの編集処理を行うカラー画像編
集装置を実現できる。特に、本発明を用いて枠、他にレ
ベルを定義することにより、2重以上の枠線や下向き凹
部の枠線に囲まれた領域も正しく検出でき、操作者にと
って使いやすい画像編集装置が実現できる。
With the above configuration, it is possible to realize a color image editing device that performs editing processing such as color replacement according to a color frame added on a monochrome original. In particular, by defining frames and other levels using the present invention, it is possible to correctly detect areas surrounded by double or more frame lines and downward concave frame lines, realizing an image editing device that is easy to use for the operator. can.

なお、本実施例では画像メモリを用いずにラスタスキャ
ンの画像信号に対してパイプライン処理を行っている。
Note that in this embodiment, pipeline processing is performed on raster scan image signals without using an image memory.

しかし、本発明はこのようなパイプライン処理への適用
に限るものではなく、例えば、画像メモリに記憶された
画像を順次1ラスタずつ読み取りながら、本実施例に示
す枠内領域検出処理を行い、検出した枠内領域情報を再
び画像メモリに書き込むような装置にも適用できる。ま
た、CPUなどを用いて、本実施例のアルゴリズムにし
たがって、ソフトウェアにより枠内領域検出処理を行う
方法も可能である。この場合、画像をランダムスキャン
して枠内領域を検出するアルゴリズムに比して、領域検
出能力は劣る場合もあるが処理速度は極めて速い。
However, the present invention is not limited to application to such pipeline processing; for example, while sequentially reading images stored in an image memory one raster at a time, the in-frame area detection processing shown in this embodiment is performed. The present invention can also be applied to a device that writes detected frame area information back into the image memory. It is also possible to perform the in-frame area detection processing by software using a CPU or the like according to the algorithm of this embodiment. In this case, compared to an algorithm that randomly scans an image to detect a frame area, the area detection ability may be inferior, but the processing speed is extremely fast.

次に、本発明の第2の実施例に係るカラー画像編集装置
について説明する。本実施例が第1の実施例と異なって
いる点は、枠内領域検出処理である。したがって、ここ
では本実施例における枠内領域検出処理について説明す
る。第21図に枠内領域検出処理のアルゴリズムを示す
。このアルゴリズムでは地の画素に地レベルという属性
を与え、前ラスタの枠信号、地レベル、現ラスタの枠信
号および既に決定した現ラスタの地レベルにより現ラス
タの地部分の地レベルを決定する。そして、地レベルに
より枠の内外を判定する。この処理を1ラスタごと進め
ながら順次繰り返すことにより、画像全面について枠内
領域を検出する。
Next, a color image editing device according to a second embodiment of the present invention will be described. The difference between this embodiment and the first embodiment is the in-frame area detection processing. Therefore, the in-frame area detection process in this embodiment will be described here. FIG. 21 shows an algorithm for in-frame area detection processing. In this algorithm, an attribute called ground level is given to the ground pixel, and the ground level of the ground portion of the current raster is determined based on the frame signal of the previous raster, the ground level, the frame signal of the current raster, and the already determined ground level of the current raster. Then, the inside and outside of the frame is determined based on the ground level. By sequentially repeating this process while proceeding one raster at a time, the area within the frame is detected over the entire image.

現ラスタの地部分の地レベルの決定手順を第22図に示
す。まず、第1の実施例と同様に第Oラスタを仮想的に
考える。第Oラスタはすべての画素が地でかつその地レ
ベルはOとする。次に、第1ラスタ以降の各ラスタの地
レベルを以下の手順で判定していく。
FIG. 22 shows the procedure for determining the ground level of the ground portion of the current raster. First, similarly to the first embodiment, the O-th raster is virtually considered. In the O-th raster, all pixels are ground and the ground level is O. Next, the ground level of each raster after the first raster is determined by the following procedure.

まず、当該ラスタの枠信号P (x)をラン表現に変換
する。そして、地のランについて次の規則にしたがって
地レベルを決定していく。
First, the frame signal P (x) of the raster is converted into run representation. Then, the ground level of the ground run is determined according to the following rules.

■ランRnに隣接する地のランが前ラスタにlつだけあ
る場合は、そのランの地レベルをランRnの地レベルと
する[第23図(a)]。
(2) If there is only one ground run adjacent to run Rn in the previous raster, the ground level of that run is set as the ground level of run Rn [Fig. 23(a)].

■ランRnに隣接する地のランが前ラスタに複数ある場
合は、その複数のランの地レベルのうち最小値をランR
nの地レベルとする[第23図(b)]。
■If there are multiple ground runs adjacent to run Rn in the previous raster, set the minimum value of the ground levels of the multiple runs to run R.
The ground level is set to n [Fig. 23(b)].

そして、これらの条件を満たさないラン、すなわち、R
nに隣接する地のランが前ラスタに1つもない場合[第
23図(C)]は、前記の■または■に規則によりレベ
ルが確定したランのうちランRnを挟んでかつランRn
に最も近い2つのランレベルをLl,L2とし、Ll,
L2の関係により次の規則によってランRnのレベルL
n’c決定する。ただし、ランRnの両側もしくはその
いずれかにレベルの確定したランのない場合は確定した
ランのない側のレベルをOとして決定する。
Then, a run that does not satisfy these conditions, that is, R
If there is no run adjacent to n in the previous raster [Fig. 23 (C)], run Rn on both sides of run Rn among the runs whose level has been determined according to the rules in ■ or ■ above.
Let Ll and L2 be the two run levels closest to Ll,
Based on the relationship of L2, the level L of run Rn is determined by the following rule.
n'c decide. However, if there is no run with a determined level on either or both sides of the run Rn, the level on the side where there is no determined run is determined as O.

■Ll−L2が奇数ならば Ln:=max (LL L2) ■Ll−L2が偶数ならば Ln=max (LL+ L2)+1 規則■により、主走査方向および副走査方向に下方向に
連結した地部分はその地レベルを継承する。また、地部
分から上凸の枠線により隔てられた新たな地部分が生じ
る場合[第23図(a)]は規則■により、外側の地部
分のレベルに1を加えた値が新たに生じた地部分の地レ
ベルとなり、枠の内側は外側より地レベルが1だけ大き
くなる。
■If Ll-L2 is an odd number, Ln:=max (LL L2) ■If Ll-L2 is an even number, Ln=max (LL+L2)+1 According to the rule Parts inherit their local level. In addition, when a new ground part separated from the ground part by an upwardly convex frame line is created [Figure 23 (a)], according to rule ■, a new value is created that is the level of the outer ground part plus 1. The ground level is the ground level of the ground part, and the ground level inside the frame is 1 larger than the outside.

したがって、このように決定された地レベルは第lの実
施例と同様に、偶数ならば枠外領域、奇数ならば枠内領
域を表す。また、規則■,■により枠線にひげのある場
合にもひげの部分以外は正しく判定される。したがって
、以下第1の実施例と同様の処理を行づことにより、2
重以上の枠や下向き凹部の枠線に対しても正しく枠内領
域を検出することができる。
Therefore, as in the first embodiment, the ground level determined in this way represents an area outside the frame if it is an even number, and an area within the frame if it is an odd number. Furthermore, according to rules (1) and (2), even if there is a beard on the frame line, the parts other than the beard are correctly determined. Therefore, by performing the same processing as in the first embodiment, 2
It is possible to correctly detect the area within the frame even for frames that are overlapping or for frame lines that are downwardly recessed.

[発明の効果コ 以上洋述したように、本発明を用いて枠内検出を行うこ
とにより、二重以上の枠線や下方に凹部が形成された枠
線に囲まれた領域においても下側の四部や二重枠の内部
を枠の外であると検出することができ、位相的かつ常識
的に合理的な枠内検出を行うことができる。また、手書
きに起因して生じる枠線上のひげなどにも安定な検出を
行うことができる。また、レベル決定の前に枠部分を優
先した間引きを行うことにより、枠線を消失することな
く信号量を減らすことができる。また、レベル決定の際
にランを単位に処理を行うことにより、1回の走査でレ
ベル決定を行うことができる。
[Effects of the Invention] As described above, by performing frame detection using the present invention, it is possible to detect the lower side even in an area surrounded by double or more frame lines or a frame line with a recess formed below. It is possible to detect the four parts of the frame and the inside of a double frame as being outside the frame, and it is possible to perform topological and common-sense rational inside-frame detection. Furthermore, it is possible to stably detect whiskers on frame lines caused by handwriting. Further, by thinning out the frame portion with priority before determining the level, it is possible to reduce the signal amount without eliminating the frame line. Further, by performing processing in units of runs when determining the level, it is possible to determine the level in one scan.

これらの処理を併用することにより、枠内検出の処理の
規模を簡素化でき、本発明を効率的に実現することがで
きる。
By using these processes together, the scale of the frame detection process can be simplified and the present invention can be efficiently implemented.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図乃至第20図は本発明の第1の実施例に係るカラ
ー画像編集装置を説明するための図で、第1図は装置の
全体構成を示ナブロック図、第2図は色判定部における
色判定方法を説明するための図、第3図は間引きの処理
部の動作を説明するための図、第4図および第5図は枠
内領域検出部のアルゴリズムを示す流れ図、第6図は隣
接する2ラスタの連接関係を説明するための図、第7図
は画素の隣接関係を説明するための図、第8図は枠線内
のレベル決定を説明するための図、第9図は円形の枠線
の枠内領域の検出例を説明するための図、第10図は下
側四部を有する枠線の枠内領域の検出例を説明するため
の図、第1l図はドーナツ状領域を示す図、第12図は
ドーナツ状領域を指定するための枠線を示す図、第13
図は3重の枠線の枠内領域の検出例を説明するための図
、第14図は開いた枠線を示す図、第15図はひげのあ
る枠線を示す図、第16図は枠内領域検出部の具体的な
構成を示す図、第17図は枠内領域検出部におけるレベ
ル判定論理回路の入出力関係を示す図、第18図は枠内
領域検出部におけるエンコーダ回路の入出力関係を示す
図、第19図は色置換テーブルの入出力関係を示す図、
第20図は画像編集処理例を示す図、第21図乃至第2
3図は第2の実施例に係るカラー画像編集装置を説明す
るための図で、第21図および第22図は枠内領域検出
のアルゴリズムを示す流れ図、第23図は隣接する2ラ
スタ連接関係を説明するための図、第24図は従来の枠
内領域検出の問題点を説明するための図である。 101・・・画像入力部、102・・・色判定部、10
3・・・間引き処理部、104・・・枠内領域検出部、
105・・・画像編集処理部、106・・・画像記録部
、1601乃至1604・・・レベル判定部、1605
乃至ieos・・・メモリ部、1609・・・判定論理
回路、1610・・・内部状態レジスタ、1611・・
・出力レジスタ、1612.1613・・・メモリ、1
 6 1 4,1615・・・アドレスカウンタ、18
N3・・・読み出しレジスタ、1617・・・比較器、
181g・・・画素位置カウンタ、1819・・・切替
え器、1B20・・・論理回路、1631・・・エンコ
ーダ、1641・・・デコーダ。
1 to 20 are diagrams for explaining a color image editing device according to a first embodiment of the present invention. FIG. 1 is a block diagram showing the overall configuration of the device, and FIG. 2 is a color image editing device. FIG. 3 is a diagram for explaining the operation of the thinning processing section; FIGS. 4 and 5 are flowcharts showing the algorithm of the frame area detection section; FIG. The figures are diagrams for explaining the connection relationship between two adjacent rasters, Figure 7 is a diagram for explaining the adjacency relationship of pixels, Figure 8 is a diagram for explaining level determination within the frame line, and Figure 9 The figures are diagrams for explaining an example of detecting an area within a circular frame line, Figure 10 is a diagram for explaining an example of detecting an area within a frame line having four lower parts, and Figure 1l is a donut. Figure 12 is a diagram showing a donut-shaped area; Figure 12 is a diagram showing a frame line for specifying a donut-shaped area;
The figures are diagrams for explaining an example of detecting an area within a triple frame line, Figure 14 is a diagram showing an open frame line, Figure 15 is a diagram showing a frame line with whiskers, and Figure 16 is a diagram showing an open frame line. 17 is a diagram showing the input/output relationship of the level determination logic circuit in the frame area detection section, and FIG. 18 is a diagram showing the input/output relationship of the encoder circuit in the frame area detection section. A diagram showing the output relationship, FIG. 19 is a diagram showing the input/output relationship of the color replacement table,
FIG. 20 is a diagram showing an example of image editing processing, and FIGS. 21 to 2
3 is a diagram for explaining the color image editing device according to the second embodiment, FIGS. 21 and 22 are flowcharts showing an algorithm for detecting a frame area, and FIG. 23 is a diagram showing the connection relationship between two adjacent rasters. FIG. 24 is a diagram for explaining problems in conventional frame area detection. 101... Image input unit, 102... Color determination unit, 10
3... Thinning processing unit, 104... Frame area detection unit,
105... Image editing processing unit, 106... Image recording unit, 1601 to 1604... Level determining unit, 1605
to ieos...memory section, 1609...judgment logic circuit, 1610...internal state register, 1611...
・Output register, 1612.1613...Memory, 1
6 1 4,1615...address counter, 18
N3...Read register, 1617...Comparator,
181g...Pixel position counter, 1819...Switcher, 1B20...Logic circuit, 1631...Encoder, 1641...Decoder.

Claims (3)

【特許請求の範囲】[Claims] (1)ラスタスキャンの画像信号をその濃度又は色度か
ら枠部分と枠部分以外である地部分に識別する手段と、 この手段で識別された各ラスタの枠部分および地部分の
少なくとも一方からなる識別部分のレベルを記憶する手
段と、 この手段に記憶された前ラスタの前記識別部分のレベル
を参照して現ラスタの各識別部分のレベルを判定する手
段と、 この手段で判定された前記識別部分のレベルを参照して
、その部分が枠の内であるか外であるかを判定する手段
とを具備したことを特徴とする枠内領域検出装置。
(1) A means for identifying a raster scan image signal into a frame portion and a ground portion other than the frame portion based on its density or chromaticity, and at least one of the frame portion and the ground portion of each raster identified by this means. means for storing the level of the identification part; means for determining the level of each identification part of the current raster by referring to the level of the identification part of the previous raster stored in the means; and the identification determined by the means. 1. A frame area detection device comprising: means for determining whether a portion is inside or outside the frame by referring to the level of the portion.
(2)画像信号から各画素ごとに枠色か地色かを判別す
る手段と、 ある画素数を単位に前記画像信号をグループ分けし、そ
のグループ内の全ての画素が地色の場合に地色を出力し
、そのグループ内に1画素以上の枠色がある場合にその
枠色のうちいずれかの枠色を間引いて出力する手段と、 この手段から出力された枠色の情報から枠内領域を検出
する手段とを具備したことを特徴とする枠内領域検出装
置。
(2) means for determining whether each pixel is a frame color or a background color from an image signal; A means for outputting a color and, when there is a frame color of one or more pixels in the group, thinning out one of the frame colors and outputting the frame color, What is claimed is: 1. An in-frame area detection device comprising: means for detecting an area.
(3)前記現ラスタの各識別部分のレベルを判定する手
段が、 識別部分をランコードに変換してから判定を行う手段で
あることを特徴とする請求項1記載の枠内領域検出装置
(3) The in-frame area detection device according to claim 1, wherein the means for determining the level of each identified portion of the current raster is a means for converting the identified portion into a run code and then making the determination.
JP15054689A 1989-06-15 1989-06-15 In-frame area detection device Expired - Fee Related JP2947566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15054689A JP2947566B2 (en) 1989-06-15 1989-06-15 In-frame area detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15054689A JP2947566B2 (en) 1989-06-15 1989-06-15 In-frame area detection device

Publications (2)

Publication Number Publication Date
JPH0317787A true JPH0317787A (en) 1991-01-25
JP2947566B2 JP2947566B2 (en) 1999-09-13

Family

ID=15499241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15054689A Expired - Fee Related JP2947566B2 (en) 1989-06-15 1989-06-15 In-frame area detection device

Country Status (1)

Country Link
JP (1) JP2947566B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608544A (en) * 1994-06-28 1997-03-04 Kabushiki Kaisha Toshiba Framed-area defining rectangle forming device
US5629777A (en) * 1993-03-24 1997-05-13 Kabushiki Kaisha Toshiba Image forming apparatus for forming image to exclude extra-original area
US8277137B2 (en) 2008-05-28 2012-10-02 Tokiwa Corporation Coating material extruding container

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5629777A (en) * 1993-03-24 1997-05-13 Kabushiki Kaisha Toshiba Image forming apparatus for forming image to exclude extra-original area
US5608544A (en) * 1994-06-28 1997-03-04 Kabushiki Kaisha Toshiba Framed-area defining rectangle forming device
US8277137B2 (en) 2008-05-28 2012-10-02 Tokiwa Corporation Coating material extruding container

Also Published As

Publication number Publication date
JP2947566B2 (en) 1999-09-13

Similar Documents

Publication Publication Date Title
US5028991A (en) Image signal processing apparatus for use in color image reproduction
US5754710A (en) Image resolution conversion method and appratus thereof
JP4016342B2 (en) Apparatus and method for code recognition
US5995665A (en) Image processing apparatus and method
JP4271804B2 (en) Method for selecting colors assigned to pixels, and method for encoding and storing images
US5136401A (en) Image layout apparatus for performing pattern modification such as coloring of an original image
JPH0317787A (en) Intra-frame area detecting device
US20020136456A1 (en) Image process apparatus, image process method and storage medium
JPH0342969A (en) Color picture information encoding system
JP2000022943A (en) Device and method for discriminating image area, and recording medium recorded with image area discriminating program
JP4453979B2 (en) Image reproducing apparatus, image reproducing method, program, and recording medium
JP2921860B2 (en) Frame attribute determination device
JPS6359272A (en) Picture processor
JPS589469B2 (en) Character reading method
JPH1132205A (en) Device and method for processing color image and recording medium recording image-processing program
JP2557480B2 (en) Color image processor
JP2004320447A (en) Image processing apparatus, image processing method, and program for execution by computer
JP3557099B2 (en) Two-color image reduction conversion method and apparatus, and recording medium recording this method
JPH0481979A (en) Method and device for processing document image
JPH0496575A (en) Picture coding method
JP3070174B2 (en) Image forming device
JPH11127353A (en) Image processor and image processing method
JPH03191677A (en) Color image processor
JP2557481B2 (en) Color image processor
JP2647455B2 (en) Halftone dot area separation device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees