JP2003179739A - Image processor and image processing method - Google Patents
Image processor and image processing methodInfo
- Publication number
- JP2003179739A JP2003179739A JP2001377852A JP2001377852A JP2003179739A JP 2003179739 A JP2003179739 A JP 2003179739A JP 2001377852 A JP2001377852 A JP 2001377852A JP 2001377852 A JP2001377852 A JP 2001377852A JP 2003179739 A JP2003179739 A JP 2003179739A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- extraction
- image processing
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は画像処理装置に関
し、特に、文書原稿を読み取って得られた画像データか
ら文字、図形および写真領域をそれぞれ抽出して画像処
理を施した後、再合成して文書画像ファイルを作成する
画像処理装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to extracting characters, figures and photographic regions from image data obtained by reading a document original, performing image processing, and recomposing them. The present invention relates to an image processing device that creates a document image file.
【0002】[0002]
【従来の技術】スキャナ等で読み取った画像データは容
量が大きく、そのままでの保存や送受信には適さないた
め、画像の種類に応じて適切な圧縮等の画像処理が施さ
れる。ところが、文書原稿を読み取って得られた画像デ
ータの場合、文字画像からなる文字領域、図形画像から
なる図形領域および写真画像からなる写真領域が混在す
るため、写真領域に適した不可逆圧縮を行うと容量は小
さくなるが文字が読みにくくなり、文字領域に適した圧
縮を行うと圧縮率が低くなるという問題がある。そこ
で、文書原稿にかかる画像データから文字、図形および
写真領域をそれぞれ分離して抽出し、各領域に適した圧
縮を施した後再度合成して文書画像ファイル作成する画
像処理装置が知られており、かかる画像処理装置によれ
ば画像品質を保持したまま画像ファイルの容量を小さく
することができる。2. Description of the Related Art Since image data read by a scanner or the like has a large capacity and is not suitable for storage or transmission / reception as it is, image processing such as appropriate compression is performed according to the type of image. However, in the case of image data obtained by reading a document original, since a character area composed of a character image, a graphic area composed of a graphic image, and a photo area composed of a photographic image are mixed, lossy compression suitable for the photographic area is performed. Although the capacity is small, it is difficult to read the characters, and there is a problem that the compression rate becomes low when the compression suitable for the character area is performed. Therefore, there is known an image processing device that separates and extracts a character, a figure, and a photo region from image data of a document original, compresses each region appropriately, and then synthesizes them again to create a document image file. According to such an image processing apparatus, the capacity of the image file can be reduced while maintaining the image quality.
【0003】しかし、上記画像処理装置における領域の
抽出は、処理の複雑化を回避する等の目的から通常は各
領域の外接矩形を単位として行われるため、領域の位置
関係によっては抽出領域が重なって画像が欠損し、合成
した画像ファイルが原稿どおりに再現されないという問
題があった。However, the extraction of areas in the image processing apparatus is usually performed in units of the circumscribed rectangle of each area for the purpose of avoiding complication of processing, so that the extraction areas overlap depending on the positional relationship of the areas. There is a problem that the image is lost and the combined image file is not reproduced as the original.
【0004】[0004]
【発明が解決しようとする課題】本発明は上記従来技術
の有する問題点に鑑みなされたものであり、その目的と
するところは、文書原稿を読み取って得られた画像デー
タの文字、図形および写真領域をそれぞれ抽出して画像
処理を施した後再合成して文書画像ファイルを作成する
画像処理装置において、抽出領域の重なりによる画像の
欠損が生じることなく再現性の高い合成画像ファイルを
取得し得る画像処理装置を提供することにある。SUMMARY OF THE INVENTION The present invention has been made in view of the above problems of the prior art, and an object of the present invention is to provide characters, figures and photographs of image data obtained by reading a document original. An image processing apparatus that creates a document image file by extracting each area and performing image processing and then recombining it can acquire a highly reproducible composite image file without image loss due to overlapping of extraction areas. An object is to provide an image processing device.
【0005】[0005]
【課題を解決するための手段】本発明の上記目的は、下
記の手段によって達成される。The above objects of the present invention can be achieved by the following means.
【0006】(a) 画像データの有効画像領域の外接
矩形領域を抽出する領域抽出手段と、前記領域抽出手段
により抽出する抽出領域が他の抽出領域と重なるか否か
を判別する領域重複判別手段とを有し、前記領域抽出手
段は、前記抽出領域が他の抽出領域と重ならない場合は
前記有効画像領域を構成する画素以外の画素を所定の補
完画素で補完して抽出し、前記抽出領域が他の抽出領域
と重なる場合は全ての画素をそのまま抽出することを特
徴とする、画像処理装置。(A) Area extraction means for extracting a circumscribed rectangular area of an effective image area of image data, and area overlap determination means for determining whether or not the extraction area extracted by the area extraction means overlaps another extraction area. And the area extracting means complements and extracts pixels other than the pixels forming the effective image area with a predetermined complementary pixel when the extracted area does not overlap with other extracted areas, and the extracted area The image processing apparatus is characterized in that all pixels are extracted as they are when the pixel overlaps another extraction area.
【0007】(b) 前記有効画像領域を構成する画素
を所定条件下にラベリング処理するラベリング手段をさ
らに有し、前記領域抽出手段は、同一ラベルでラベリン
グ処理された画素群の外接矩形領域を抽出するものであ
る、(a)に記載の画像処理装置。(B) The image forming apparatus further comprises labeling means for performing a labeling process on the pixels forming the effective image area under a predetermined condition, and the area extracting means extracts the circumscribed rectangular area of the pixel group labeled by the same label. The image processing apparatus according to (a).
【0008】(c) 前記抽出領域の領域種別を判別す
る領域種別判別手段をさらに有する(a)または(b)
に記載の画像処理装置。(C) An area type discriminating means for discriminating the area type of the extraction area is further provided (a) or (b).
The image processing device according to item 1.
【0009】(d) 前記抽出領域に領域種別に応じた
画像処理を施す画像処理手段と、前記抽出領域を合成し
て画像ファイルを作成する画像ファイル作成手段と、を
さらに有する(c)に記載の画像処理装置。(D) The image processing means for performing image processing on the extraction area according to the area type, and the image file creating means for synthesizing the extraction area to create an image file are further included in (c). Image processing device.
【0010】(e) 画像データの有効画像領域の外接
矩形領域を抽出する段階(1)と、段階(1)で抽出す
る抽出領域が他の抽出領域と重なるか否かを判別する段
階(2)とを有し、段階(1)は、前記抽出領域が他の
抽出領域と重ならない場合は前記有効画像領域を構成す
る画素以外の画素を所定の補完画素で補完して抽出し、
前記抽出領域が他の抽出領域と重なる場合は全ての画素
をそのまま抽出することを特徴とする、画像処理方法。(E) A step (1) of extracting a circumscribed rectangular area of the effective image area of the image data and a step (2) of determining whether or not the extraction area extracted in the step (1) overlaps another extraction area. ) And step (1), when the extraction region does not overlap with other extraction regions, the pixels other than the pixels forming the effective image region are complemented and extracted with a predetermined complementary pixel,
An image processing method, wherein all pixels are extracted as they are when the extraction region overlaps with another extraction region.
【0011】[0011]
【発明の実施の形態】以下、本発明の実施の形態を、図
面を参照して詳細に説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.
【0012】図1は、本発明の実施形態にかかる画像処
理装置を含む画像処理システムの全体構成を示すブロッ
ク図である。本画像処理システムは、画像処理装置1
と、画像入力元装置としてのスキャナ2と、画像出力先
装置としてのファイルサーバ3とを備え、これらはコン
ピュータネットワーク4を介して相互に通信可能に接続
されている。なお、コンピュータネットワークに接続さ
れる機器の種類および台数は、図1に示す例に限定され
ない。FIG. 1 is a block diagram showing the overall configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention. The image processing system includes an image processing device 1
A scanner 2 as an image input source device and a file server 3 as an image output destination device, which are communicably connected to each other via a computer network 4. The types and the number of devices connected to the computer network are not limited to the example shown in FIG.
【0013】図2は、本実施形態にかかる画像処理装置
1の構成を示すブロック図である。図2において、画像
処理装置1は、制御部101、記憶部102、操作部1
03、入力インタフェース部104、出力インタフェー
ス部105、領域抽出部106、画像処理部107、領
域合成部108およびファイル形式変換部109を備え
ており、これらは信号をやり取りするためのバス110
を介して相互に接続されている。FIG. 2 is a block diagram showing the arrangement of the image processing apparatus 1 according to this embodiment. In FIG. 2, the image processing apparatus 1 includes a control unit 101, a storage unit 102, and an operation unit 1.
03, an input interface unit 104, an output interface unit 105, a region extracting unit 106, an image processing unit 107, a region synthesizing unit 108, and a file format converting unit 109, which are buses 110 for exchanging signals.
Are connected to each other via.
【0014】制御部101はCPUであり、プログラム
にしたがって上記各部の制御や各種の演算処理等を行
う。記憶部102は、予め各種プログラムやパラメータ
を格納しておくROM、作業領域として一時的にプログ
ラムやデータを記憶するRAM、各種プログラムやパラ
メータを格納し、または画像処理により得られた画像デ
ータ等を一時的に保存するために使用されるハードディ
スク等からなる。The control unit 101 is a CPU, and controls various parts described above and executes various arithmetic processes according to a program. The storage unit 102 stores a ROM that stores various programs and parameters in advance, a RAM that temporarily stores programs and data as a work area, stores various programs and parameters, or stores image data obtained by image processing. It consists of a hard disk used for temporary storage.
【0015】操作部103は、出力領域、画像処理の種
別、カラーモード、出力ファイル形式、送信先等の設定
を行ったり、動作開始の指示を行うためのキーや操作パ
ネル等から構成される。ここで、出力領域の設定は、抽
出した文字、図形または写真領域のいずれをまたはすべ
てを出力するかを選択することにより行う。画像処理の
種別の設定は、抽出領域に対する画像処理の種別とし
て、2値化、減色、解像度変換、スムージング、圧縮処
理等の有無を選択する。カラーモードの設定は、出力フ
ァイルのカラー、モノクロ、グレースケールの別を選択
する。出力ファイル形式の設定は、出力ファイルのファ
イル形式を選択することにより行う。なお、出力ファイ
ル形式としては、各種文書作成ソフトの文書形式や、ポ
ストスクリプト(登録商標)、PDF、JPEG、TI
FF等の汎用フォーマットが挙げられる。送信先の設定
は、画像出力先装置のIPアドレス、ホスト名、メール
アドレス等を入力して行う。The operation unit 103 is composed of keys for setting an output area, image processing type, color mode, output file format, destination, etc., and an operation panel for giving an operation start instruction. Here, the setting of the output area is performed by selecting whether to output all or all of the extracted character, graphic, or photograph area. In the setting of the type of image processing, the presence or absence of binarization, color reduction, resolution conversion, smoothing, compression processing, etc. is selected as the type of image processing for the extraction area. The color mode setting selects color, monochrome, or grayscale of the output file. The output file format is set by selecting the file format of the output file. The output file format includes various document creation software document formats, PostScript (registered trademark), PDF, JPEG, and TI.
A general-purpose format such as FF is given. The destination is set by inputting the IP address, host name, mail address, etc. of the image output destination device.
【0016】入力インタフェース部104は、外部の画
像入力元装置から画像データの入力を受けるためのイン
タフェースであり、出力インタフェース105は、外部
の画像出力先装置に出力ファイルを送信するためのイン
タフェースである。The input interface unit 104 is an interface for receiving image data input from an external image input source device, and the output interface 105 is an interface for transmitting an output file to an external image output destination device. .
【0017】領域抽出部106は、入力画像データから
文字領域、図形領域および写真領域を分離抽出する処理
を行う。画像処理部107は、文字領域処理部107
a、図形領域処理部107bおよび写真領域処理部10
7cからなり、それぞれ抽出された文字、図形および写
真領域にかかる画像データに適切な画像処理を施す。領
域合成部108は、前記画像処理後の文字、図形および
写真領域を合成して内部ファイル形式により文書画像フ
ァイルを作成する。ファイル形式変換部109は、内部
ファイル形式により作成した文書画像ファイルを設定さ
れた出力ファイル形式に変換する。The area extracting unit 106 performs a process of separating and extracting a character area, a graphic area and a photograph area from the input image data. The image processing unit 107 is a character area processing unit 107.
a, graphic area processing unit 107b and photograph area processing unit 10
7c, and performs appropriate image processing on the extracted image data of the character, graphic, and photographic areas. The area synthesizing unit 108 synthesizes the image-processed character, graphic, and photo areas to create a document image file in the internal file format. The file format conversion unit 109 converts the document image file created in the internal file format into the set output file format.
【0018】スキャナ2は、文書原稿を読み取って画像
データを取得し、得られた画像データを画像処理装置に
送信する。The scanner 2 reads a document original, acquires image data, and transmits the obtained image data to the image processing apparatus.
【0019】ファイルサーバ3はコンピュータであり、
コンピュータネットワークを介して受信したファイルを
格納し、また転送要求に応じて格納したファイルをコン
ピュータネットワーク上の他の機器に転送する。The file server 3 is a computer,
A file received via a computer network is stored, and the stored file is transferred to another device on the computer network in response to a transfer request.
【0020】コンピュータネットワーク4は、イーサネ
ット(登録商標)、トークンリング、FDDI等の規格
によりコンピュータや周辺機器、ネットワーク機器等を
接続したLANや、LAN同士を専用線で接続したWA
N等からなる。The computer network 4 is a LAN connecting computers, peripheral devices, network devices, etc. according to standards such as Ethernet (registered trademark), token ring, and FDDI, or a WA connecting LANs by dedicated lines.
It consists of N etc.
【0021】つぎに、本実施形態にかかる画像処理装置
1が行う画像処理の概要について説明する。図3は、画
像処理装置1による画像処理の一例を示した概念図であ
る。図3(a)に示すように、スキャナ2から文書原稿
を読み込んで得られた画像データには、文字画像からな
る文字領域、図形画像からなる図形領域、写真画像から
なる写真領域および背景画像からなる背景領域が含まれ
ている(以下、本明細書において、画像データの背景領
域以外の画像データ、すなわち、文書画像データにあっ
ては文字領域、図形領域および写真領域を「有効画像領
域」という)。このような高容量の画像データを圧縮し
て低容量化しファイルサーバ3に保存しようとする場
合、画像データ全体にそのまま一律に圧縮処理等の画像
処理を施したのでは、写真領域に適した不可逆圧縮を行
うと容量は小さくなるが画像の劣化により文字が読みに
くくなり、文字領域に適した圧縮を行うと圧縮率が低く
なってしまう。そこで、画像処理装置1は、スキャナ2
から受信した入力画像データから、文字領域、図形領域
および写真領域を分離・抽出し(図3(b))、抽出し
た領域データに領域種別に応じた適切な画像処理を施し
た後再度合成して合成画像データを作成し(図3
(c))、所定のファイル形式に変換してファイルサー
バ3に送信するものである。Next, an outline of image processing performed by the image processing apparatus 1 according to this embodiment will be described. FIG. 3 is a conceptual diagram showing an example of image processing by the image processing apparatus 1. As shown in FIG. 3A, the image data obtained by reading the document original from the scanner 2 includes a character area formed of a character image, a figure area formed of a graphic image, a photograph area formed of a photographic image, and a background image. (Hereinafter, in the present specification, image data other than the background area of image data, that is, in the case of document image data, a character area, a graphic area, and a photographic area are referred to as “effective image area”). ). When such high-capacity image data is compressed to reduce the capacity and is to be stored in the file server 3, if the entire image data is subjected to uniform image processing such as compression processing, it is irreversible suitable for a photographic area. If the compression is performed, the capacity is reduced, but it becomes difficult to read the characters due to the deterioration of the image. Therefore, the image processing apparatus 1 includes the scanner 2
A character area, a graphic area, and a photograph area are separated and extracted from the input image data received from (FIG. 3B), and the extracted area data is subjected to appropriate image processing according to the area type and then combined again. To create composite image data (Fig. 3
(C)) It is converted into a predetermined file format and transmitted to the file server 3.
【0022】ここで、上述の入力画像データからの領域
抽出方法の一つに、入力画像データの有効画像領域を構
成する画素を所定条件のもとにラベリング処理し、同一
ラベルでラベリング処理された画素群を抽出することに
より領域抽出を行う方法がある。すなわち、入力画像デ
ータの同一の有効画像領域(例えば同一の図形領域)を
構成する画素群に同一のラベル番号でラベリングを施
し、同時に当該画素群の外接矩形の位置情報も検出す
る。そして、得られた外接矩形の位置情報とラベル番号
をもとに入力画像データから有効画像領域の外接矩形領
域の抽出を行う。この際、入力画像データから外接矩形
内のラベル番号と一致する画素のみを抽出し、外接矩形
内のその他の画素は所定の補完画素(例えば、最も一般
的な背景画素である白画素)で補完することにより、有
効画像領域の外接矩形同士が重なり合ったレイアウトの
画像データであってもそれぞれを完全に分離して抽出す
ることができるものである。なお、有効画像領域を外接
矩形領域として抽出するのは、処理の複雑化を回避して
処理負担を軽減し処理時間の短縮化を図るためであり、
外接矩形内の抽出画素群以外の画素を白画素等の補完画
素で補完するのは、再度同じ画像を抽出してしまうのを
防ぐためである。しかし、上述のような有効画像領域の
外接矩形同士が重なり合ったレイアウトの画像データに
あっては、ラベリング処理により得られた抽出領域デー
タを画像処理後再度合成しようとすると、抽出領域同士
が重なってしまうため画像の欠損が生じてしまうという
問題がある。Here, as one of the area extraction methods from the input image data described above, the pixels forming the effective image area of the input image data are labeled under a predetermined condition, and labeled with the same label. There is a method of extracting a region by extracting a pixel group. That is, the pixel groups forming the same effective image area (for example, the same graphic area) of the input image data are labeled with the same label number, and at the same time, the position information of the circumscribed rectangle of the pixel group is also detected. Then, the circumscribed rectangular area of the effective image area is extracted from the input image data based on the obtained position information of the circumscribed rectangle and the label number. At this time, only pixels that match the label number in the circumscribed rectangle are extracted from the input image data, and the other pixels in the circumscribed rectangle are complemented with predetermined complementary pixels (for example, white pixels that are the most common background pixels). By doing so, even image data having a layout in which the circumscribed rectangles of the effective image area overlap each other can be completely separated and extracted. Note that the effective image area is extracted as a circumscribed rectangular area in order to avoid complication of processing, reduce the processing load, and shorten the processing time.
Pixels other than the extracted pixel group in the circumscribed rectangle are complemented with complementary pixels such as white pixels in order to prevent the same image from being extracted again. However, in the image data of the layout in which the circumscribed rectangles of the effective image areas are overlapped with each other, when the extraction area data obtained by the labeling processing is re-combined after the image processing, the extraction areas overlap each other. Therefore, there is a problem that an image is lost.
【0023】図4は、従来のラベリングによる領域抽出
および再合成処理の一例を示した概念図である。図4
(a)において、入力画像データの有効画像領域である
領域1と領域2に対し、領域1を構成する画素にラベル
番号1、領域2を構成する画素にラベル番号2をそれぞ
れラベルする。ついで、図4(b)において、領域1の
外接矩形領域の抽出処理として、領域1の外接矩形内の
ラベル番号1の画素を抽出し、外接矩形内のその他の画
素は白画素で補完して抽出領域データを得る。同様に、
領域2の外接矩形領域の抽出処理として、領域2の外接
矩形内のラベル番号2の画素を抽出し、外接矩形内のそ
の他の画素は白画素で補完して抽出領域データを得る。
そして、領域1および領域2の抽出データにそれぞれ適
切な画像処理を施した後、図4(c)において、抽出領
域をそれぞれの位置情報をもとに再度合成して合成画像
データを得ようとすると、領域1と領域2の外接矩形が
重なっているため、両者の抽出領域をいずれの順番で重
ね合わせても一方の抽出領域の有効画像領域の一部が他
方の抽出領域の白画素で隠れてしまい、画像の欠損が生
じてしまう。本実施形態においては、画像処理装置1
は、画像データから有効画像領域を抽出する際に有効画
像領域の外接矩形の重なりを判別して、外接矩形が重な
る場合には抽出領域内の全ての画素をそのまま抽出する
ことによりかかる問題を解決し、画像の劣化を抑えて高
圧縮を達成しつつ、画像の欠損がなく再現性の高い合成
画像データを得ることを可能にしたものである。FIG. 4 is a conceptual diagram showing an example of conventional area extraction and recomposition processing by labeling. Figure 4
In (a), with respect to regions 1 and 2 which are effective image regions of the input image data, pixels forming region 1 are labeled with label number 1 and pixels forming region 2 are labeled with label number 2. Next, in FIG. 4B, as the extraction processing of the circumscribed rectangular area of the area 1, the pixel of label number 1 in the circumscribed rectangle of the area 1 is extracted, and the other pixels in the circumscribed rectangle are complemented with white pixels. Obtain the extraction area data. Similarly,
As the extraction processing of the circumscribed rectangular area of the area 2, the pixel of the label number 2 in the circumscribed rectangle of the area 2 is extracted, and the other pixels in the circumscribed rectangle are complemented with white pixels to obtain extraction area data.
Then, after subjecting the extracted data of the region 1 and the region 2 to appropriate image processing, in FIG. 4C, the extracted regions are recombined based on the respective positional information to obtain composite image data. Then, since the circumscribed rectangles of the area 1 and the area 2 overlap, a part of the effective image area of one extraction area is hidden by the white pixels of the other extraction area even if the extraction areas of both areas are overlapped in any order. Image loss occurs. In the present embodiment, the image processing device 1
Solves this problem by determining the overlap of the circumscribed rectangles of the effective image area when extracting the effective image area from the image data, and if the circumscribed rectangles overlap, extract all the pixels in the extraction area as they are. However, it is possible to obtain synthetic image data with high reproducibility without loss of the image while achieving high compression while suppressing deterioration of the image.
【0024】つぎに、本実施形態における画像処理シス
テム全体の動作の概要を説明する。図5は、本実施形態
における画像処理装置1の画像処理の手順を示すフロー
チャートである。図5において、画像処理装置1は画像
処理の開始命令があるまで待機する(S101のN
O)。ユーザから操作部103を介して開始命令の入力
を受け付けると(S101のYES)、入力インタフェ
ース部104を介してスキャナ2に原稿読み取り命令を
送信し(S102)、スキャナ2から画像データを受信
するまで待機する(S103のNO)。スキャナ2は、
画像処理装置1から原稿読み取り命令を受信すると、所
定の位置にセットされた文書原稿を読み取って画像デー
タを取得し、得られた画像データを画像処理装置1に送
信する。なお、画像処理の開始命令は通信ネットワーク
4上の他の機器から、またはスキャナ2から直接入力さ
れてもよく、この場合上記ステップS101およびS1
02は省略される。Next, an outline of the operation of the entire image processing system in this embodiment will be described. FIG. 5 is a flowchart showing a procedure of image processing of the image processing apparatus 1 according to this embodiment. In FIG. 5, the image processing apparatus 1 waits until there is an image processing start command (N in S101).
O). When an input of a start command is received from the user via the operation unit 103 (YES in S101), an original reading command is transmitted to the scanner 2 via the input interface unit 104 (S102) until image data is received from the scanner 2. Stand by (NO in S103). Scanner 2
When a document reading command is received from the image processing apparatus 1, the document original set at a predetermined position is read to obtain image data, and the obtained image data is transmitted to the image processing apparatus 1. The image processing start command may be directly input from another device on the communication network 4 or directly from the scanner 2. In this case, steps S101 and S1 described above are performed.
02 is omitted.
【0025】画像処理装置1は、入力インタフェース部
104を介してスキャナ2から画像データを受信すると
(S103のYES)、受信した画像データを記憶部1
02に保存し、ついで、領域抽出部106により、入力
画像データからの領域抽出処理を行う(S104)。When the image processing apparatus 1 receives image data from the scanner 2 via the input interface unit 104 (YES in S103), the received image data is stored in the storage unit 1.
02, and then the area extraction unit 106 performs area extraction processing from the input image data (S104).
【0026】図6は、本実施形態における画像処理装置
1の領域抽出処理の手順を示すフローチャートである。
図6において、画像処理装置1は、有効画像領域を構成
する画素群に所定条件下でラベリングを施し、同時に当
該画素群の外接矩形の位置情報も検出して、得られたラ
ベリング画像データを記憶部102に保存する(S20
1およびS202)。ラベリング処理の具体的方法は特
に限定されるものではなく、既知の方法を用いることが
できるが、一例を挙げれば次のとおりである。すなわ
ち、入力画像データ(RGB画像データ)から明度画像
データを作成し、下地とばしおよびフィルタスムージン
グ処理を行った後、下地レベルによる単純2値化処理を
行い下地以外の領域を統合した2値画像データを作成す
る。ついで、得られた2値画像データに対してLapl
acianフィルタ処理を行ってエッジを検出し、さら
にエッジ補完の為にClosing処理を行ってエッジ
画像データを得る。得られたエッジ画像は有効画像領域
の輪郭線に該当するものであり、当該エッジ画像で分割
された一つの領域内の画素群に対して同一のラベル番号
を付すようにラベリングを施してラベリング画像データ
を作成する。FIG. 6 is a flowchart showing the procedure of the area extraction processing of the image processing apparatus 1 in this embodiment.
In FIG. 6, the image processing apparatus 1 labels the pixel group forming the effective image area under a predetermined condition, and at the same time detects the position information of the circumscribed rectangle of the pixel group, and stores the obtained labeling image data. Save in the unit 102 (S20
1 and S202). The specific method of the labeling process is not particularly limited, and a known method can be used, but one example is as follows. In other words, binary image data in which lightness image data is created from input image data (RGB image data), background removal and filter smoothing processing is performed, and then simple binarization processing based on the background level is performed to integrate areas other than the background. To create. Then, the Lapl is applied to the obtained binary image data.
Aian filter processing is performed to detect edges, and further closing processing is performed to complement edges to obtain edge image data. The obtained edge image corresponds to the outline of the effective image area, and the labeling image is obtained by labeling the pixel groups in one area divided by the edge image with the same label number. Create the data.
【0027】つぎに、ラベリング画像データにおける外
接矩形およびラベル画素の位置情報ならびにラベル番号
をもとに、入力画像データから有効画像領域の外接矩形
領域の抽出を行う(S203〜S206)。その際、有
効画像領域の外接矩形の位置情報を比較して外接矩形同
士の重なりを判別し(S203)、前記外接矩形が他の
外接矩形と重ならない場合には(S204のNO)、入
力画像データから当該外接矩形領域内のラベル番号と一
致する画素のみを抽出するとともに、当該外接矩形内の
その他の画素は白画素で補完して抽出領域データを取得
し、記憶部102に保存する(S205)。一方、前記
外接矩形が他の外接矩形と重なる場合には(S204の
YES)、入力画像データから当該外接矩形領域内の全
ての画素を抽出して抽出領域データを取得し、記憶部1
02に保存する(S206)。Next, the circumscribed rectangular area of the effective image area is extracted from the input image data based on the position information of the circumscribed rectangle and the label pixel in the labeling image data and the label number (S203 to S206). At that time, the position information of the circumscribed rectangles in the effective image area is compared to determine the overlap between the circumscribed rectangles (S203). Only pixels that match the label number in the circumscribing rectangle area are extracted from the data, and other pixels in the circumscribing rectangle are complemented with white pixels to obtain extraction area data, which is stored in the storage unit 102 (S205). ). On the other hand, when the circumscribed rectangle overlaps another circumscribed rectangle (YES in S204), all the pixels in the circumscribed rectangular area are extracted from the input image data to acquire the extraction area data, and the storage unit 1
02 (S206).
【0028】そして、得られた抽出領域データの特徴量
を算出して、抽出領域の領域種別、すなわち抽出領域が
文字、図形または写真領域のいずれであるかを判別し、
抽出領域の属性情報として記録する(S207)。領域
種別の判別方法は特に限定されるものではなく、既知の
方法を用いることができるが、一例を挙げれば次のとお
りである。すなわち、まず、図形領域と写真領域につい
ては、図形領域の明度分布はある程度均一であり、写真
領域の明度分布は分散しているという特徴に基づいて、
明度画像データを用いて、抽出領域内の全画素に対し、
主走査、副走査2方向でラインごとに明度ヒストグラム
を作成して明度分散度を特徴量として算出し、図形領域
と写真領域の別を判別する。さらに、文字領域について
は、文字領域は小エリア内に斜め方向エッジ成分を多く
含んでいるという特徴に基づいて、入力画像データを用
いて、抽出領域内に含まれる周波数成分のうち斜め方向
エッジ成分を特徴量として算出し、斜め方向エッジ成分
の含有率により判断する。Then, the characteristic amount of the obtained extraction region data is calculated to determine the region type of the extraction region, that is, whether the extraction region is a character, a figure or a photographic region,
It is recorded as attribute information of the extraction area (S207). The method of discriminating the area type is not particularly limited, and a known method can be used, but an example is as follows. That is, first, regarding the graphic area and the photographic area, based on the feature that the brightness distribution of the graphic area is somewhat uniform and the brightness distribution of the photographic area is dispersed,
Using the brightness image data, for all pixels in the extraction area,
A brightness histogram is created for each line in the two directions of main scanning and sub-scanning, and the lightness dispersion is calculated as a feature amount to discriminate between a graphic area and a photographic area. Further, regarding the character region, based on the feature that the character region contains many diagonal direction edge components in the small area, the diagonal direction edge component among the frequency components included in the extraction region is used by using the input image data. Is calculated as a feature amount, and it is determined based on the content rate of the diagonal edge component.
【0029】つぎに、図5において、画像処理装置2
は、画像処理部107により、ステップS104で得ら
れた抽出領域データに対し領域種別に応じた画像処理を
行う(S105)。すなわち、文字領域処理部107a
により、得られた文字領域データを二値化し、1ビット
データの可逆圧縮処理、例えば、MH圧縮、MR圧縮、
MMR圧縮、JBIG圧縮、Flate圧縮等を施し
て、色情報、位置情報とともに記憶部102に保存す
る。また、図形領域処理部107bにより、得られた図
形領域データにスムージング処理、減色処理、解像度変
換等を施した後、可逆圧縮処理の場合はFlate圧縮
等、不可逆圧縮の場合はJPEG圧縮等を行い、位置情
報とともに記憶部102に保存する。さらに、写真領域
処理部107cにより、得られた写真領域データの解像
度変換、スムージング処理等を行った後、JPEG等の
非可逆圧縮処理を行い、位置情報とともに記憶部102
に保存する。Next, referring to FIG. 5, the image processing device 2
The image processing unit 107 performs image processing on the extracted area data obtained in step S104 according to the area type (S105). That is, the character area processing unit 107a
The obtained character area data is binarized, and lossless compression processing of 1-bit data, for example, MH compression, MR compression,
It is subjected to MMR compression, JBIG compression, Flate compression, etc., and is stored in the storage unit 102 together with color information and position information. Further, after performing smoothing processing, color reduction processing, resolution conversion, etc. on the obtained graphic area data by the graphic area processing unit 107b, it performs Flate compression or the like for lossless compression processing and JPEG compression or the like for lossy compression processing. , And the location information together with the location information. Further, the photograph area processing unit 107c performs resolution conversion, smoothing processing, and the like on the obtained photograph area data, then performs lossy compression processing such as JPEG, and stores the position information together with the storage unit 102.
Save to.
【0030】そして、各抽出領域をそれぞれの位置情報
をもとに合成して文書画像データを作成する(S10
6)。さらに、ファイル形式変換部109により、得ら
れた文書画像データを設定された出力ファイル形式に変
換し(S107)、得られた出力ファイル(文書画像フ
ァイル)を出力インタフェース部105およびコンピュ
ータネットワーク4を介してファイルサーバ3に送信す
る(S108)。Then, the respective extraction areas are combined based on the respective position information to create the document image data (S10).
6). Further, the file format conversion unit 109 converts the obtained document image data into the set output file format (S107), and the obtained output file (document image file) is output via the output interface unit 105 and the computer network 4. And transmits it to the file server 3 (S108).
【0031】ファイルサーバ3は、コンピュータネット
ワーク4を介して画像処理装置1から出力ファイルを受
信すると、受信したファイルから文字画像データおよび
図形画像データを展開し、文字画像データは文字認識処
理を施して文字コードデータに変換し、図形画像データ
はベクタ変換処理を施してベクタデータに変換し、変換
後の各データを写真画像データとともに再度合成して、
所定のファイル形式に変換して得られた文書ファイルを
ハードディスク等の記憶装置の所定のディレクトリに格
納する。そして、コンピュータネットワーク4上の他の
機器から当該ファイルの転送要求があると、格納した前
記ファイルをコンピュータネットワーク4を介して前記
他の機器に転送する。When the file server 3 receives the output file from the image processing apparatus 1 via the computer network 4, it develops character image data and graphic image data from the received file, and character image data is subjected to character recognition processing. Converted to character code data, the graphic image data is subjected to vector conversion processing to be converted to vector data, and each converted data is re-synthesized with the photographic image data,
The document file obtained by converting it into a predetermined file format is stored in a predetermined directory of a storage device such as a hard disk. Then, when there is a transfer request for the file from another device on the computer network 4, the stored file is transferred to the other device via the computer network 4.
【0032】図7は、画像処理装置1による領域抽出お
よび再合成処理の一例を示した概念図である。図7
(a)において、画像処理装置1は、入力画像データの
有効画像領域である領域1と領域2に対し、領域1を構
成する画素にラベル番号1、領域2を構成する画素にラ
ベル番号2をそれぞれラベルする。そして、図7(b)
において、他の領域と重ならない有効画像領域について
は、外接矩形にかかるラベル番号の画素を抽出し、外接
矩形内のその他の画素は白画素で補完して外接矩形領域
を抽出するのに対し、領域1と領域2は外接矩形同士が
重なるので、それぞれ外接矩形内の全ての画素を抽出す
ることにより領域1および領域2の外接矩形領域を抽出
する。ついで、図7(c)において、抽出領域をそれぞ
れの位置情報をもとに再度合成して合成画像データを得
る。この際、領域1の抽出データの白画素(背景画素)
部分には領域2を構成する画素の一部が含まれており、
領域2の抽出データの白画素(背景画素)部分には領域
1を構成する画素の一部が含まれているので、領域1お
よび領域2にかかる抽出領域をいずれの順番で重ね合わ
せて合成しても両者の有効画像領域が隠れることがな
く、画像の欠損を生ぜずに再現性の高い合成画像データ
を得ることができる。FIG. 7 is a conceptual diagram showing an example of area extraction and recomposition processing by the image processing apparatus 1. Figure 7
In (a), the image processing apparatus 1 assigns a label number 1 to a pixel forming the area 1 and a label number 2 to a pixel forming the area 2 with respect to the areas 1 and 2 which are the effective image areas of the input image data. Label each. And FIG. 7 (b)
In, in regard to the effective image area that does not overlap with other areas, the pixel of the label number related to the circumscribed rectangle is extracted, while the other pixels in the circumscribed rectangle are complemented with white pixels to extract the circumscribed rectangular area, Since the circumscribed rectangles of region 1 and region 2 overlap each other, the circumscribed rectangular regions of region 1 and region 2 are extracted by extracting all the pixels in the circumscribed rectangle. Next, in FIG. 7C, the extracted areas are re-combined based on the respective position information to obtain composite image data. At this time, the white pixels (background pixels) of the extracted data of the area 1
The part includes a part of the pixels forming the region 2,
Since the white pixels (background pixels) of the extracted data in the area 2 include some of the pixels forming the area 1, the extracted areas of the area 1 and the area 2 are superimposed and combined in any order. However, the effective image areas of both are not hidden, and synthetic image data with high reproducibility can be obtained without causing image loss.
【0033】図8は、画像処理装置1による画像処理の
他の例を示した概念図である。本実施形態の画像処理装
置1によれば、例えば図形画像上に文字画像が存在する
場合のように有効画像領域同士が重なるレイアウトの画
像データであっても(図8(a))、かかる入力画像デ
ータから文字画像および図形画像を分離して抽出し(図
8(b))、得られた抽出領域データに適切な画像処理
を施した後再度重ね合わせて合成しても、外接矩形内の
全ての画素を抽出しているので文字画像または図形画像
の部分的欠損が生ずることがなく極めて再現性に優れた
合成画像データを得ることができる(図8(c))。FIG. 8 is a conceptual diagram showing another example of image processing by the image processing apparatus 1. According to the image processing apparatus 1 of the present embodiment, even if the image data has a layout in which effective image areas overlap each other as in the case where a character image exists on a graphic image (FIG. 8A), such input is performed. Even if the character image and the graphic image are separated and extracted from the image data (FIG. 8B), the obtained extracted area data is subjected to appropriate image processing and then overlapped and synthesized again, Since all the pixels are extracted, it is possible to obtain synthetic image data having extremely excellent reproducibility without causing partial loss of the character image or the graphic image (FIG. 8C).
【0034】上記実施形態では、有効画像領域の外接矩
形領域の抽出の際、補完画素として一般的な背景色であ
る「白」画素を用いるものであったが、本発明はこれに
限定されるものではなく、例えば、実際の背景色の画素
を補完画素として用いるものであってもよい。In the above embodiment, when extracting the circumscribed rectangular area of the effective image area, the "white" pixel which is a general background color is used as the complementary pixel, but the present invention is not limited to this. Instead of this, for example, a pixel of an actual background color may be used as a complementary pixel.
【0035】また、上記実施形態では、外接矩形同士が
重なる抽出領域はいずれも外接矩形内の全ての画素をそ
のまま抽出するものでであったが、予め合成時の抽出領
域の重ね合わせの順番を決めておいて、外接矩形同士が
重なる抽出領域のうち、最後に合成する(一番上にな
る)抽出領域のみ外接矩形内の全ての画素をそのまま抽
出し、その他の抽出領域は外接矩形内の有効画像を構成
する画素以外の画素を白画素で補完して抽出する構成と
しても構わない。Further, in the above embodiment, all the extraction areas in which the circumscribed rectangles overlap each other are all the pixels in the circumscribed rectangle extracted as they are. Of the extraction areas where the circumscribing rectangles overlap with each other, only the extraction area to be combined last (at the top) is extracted as it is from all the pixels in the circumscribing rectangle, and the other extraction areas are extracted in the circumscribing rectangle. Pixels other than the pixels forming the effective image may be complemented with white pixels and extracted.
【0036】上記実施形態では、本発明の画像処理シス
テムにかかる画像入力元装置をスキャナ、および画像出
力先装置をファイルサーバとして説明したが、画像入力
元装置は、本発明の画像処理装置が画像データを取得で
きる機器であれば特に限定されるものではなく、デジタ
ルカメラ、ファクシミリ装置、デジタル複写機等の画像
読取手段、画像データ受信手段等を有する多機能周辺機
器(MFP)、パソコン、ワークステーション、サーバ
等の画像読取手段、画像データ作成手段、画像データ受
信手段、画像処理手段、画像データ記憶手段等を有する
機器等であってもよい。また、画像出力先装置は、本発
明の画像処理装置から取得した画像データを利用する装
置であれば特に限定されるものではなく、ファクシミリ
装置、デジタル複写機、パソコン、ワークステーショ
ン、サーバ等の画像形成手段、画像データ送信手段、画
像処理手段、画像データ記憶手段等を有する機器等であ
ってもよい。さらに、本発明の画像処理装置は、上記各
手段を有する専用装置の他、画像読取手段、画像データ
作成手段、画像データ受信手段、画像データ送信手段、
画像形成手段、画像データ記憶手段と組み合わせて、ス
キャナ、デジタル複写機、ファクシミリ装置等の多機能
周辺機器(MFP)、パソコン、ワークステーション、
サーバ等のコンピュータ等として構成されてもよい。In the above embodiment, the image input source device according to the image processing system of the present invention was described as a scanner, and the image output destination device as a file server. However, the image input source device is an image processing device of the present invention. The device is not particularly limited as long as it can acquire data, and a multifunction peripheral device (MFP) having an image reading unit such as a digital camera, a facsimile device, a digital copying machine, an image data receiving unit, a personal computer, a workstation, etc. A device having an image reading unit such as a server, an image data creating unit, an image data receiving unit, an image processing unit, an image data storing unit, or the like may be used. The image output destination device is not particularly limited as long as it is a device that uses image data acquired from the image processing device of the present invention, and an image of a facsimile device, a digital copying machine, a personal computer, a workstation, a server, or the like. It may be a device having a forming means, an image data transmitting means, an image processing means, an image data storing means, or the like. Further, the image processing apparatus of the present invention includes an image reading unit, an image data creating unit, an image data receiving unit, an image data transmitting unit, in addition to the dedicated device having the above-described units.
In combination with the image forming means and the image data storage means, a multifunction peripheral device (MFP) such as a scanner, a digital copying machine, a facsimile machine, a personal computer, a workstation,
It may be configured as a computer such as a server.
【0037】本発明による画像処理装置は、上記各手順
を実行するための専用のハードウエア回路によっても、
また、上記各手順を記述した所定のプログラムをCPU
が実行することによっても実現することができる。後者
により本発明を実現する場合、画像処理装置を動作させ
る上記所定のプログラムは、フレキシブルディスクやC
D−ROM等のコンピュータ読取可能な記録媒体によっ
て提供されてもよいし、インターネット等のネットワー
クを介してオンラインで提供されてもよい。この場合、
コンピュータ読取可能な記録媒体に記録されたプログラ
ムは、通常、ROMやハードディスク等に転送され記憶
される。また、このプログラムは、たとえば、単独のア
プリケーションソフトとして提供されてもよいし、画像
処理装置の一機能としてその装置のソフトウエアに組み
込んでもよい。The image processing apparatus according to the present invention also includes a dedicated hardware circuit for executing each of the above procedures.
In addition, a predetermined program that describes each of the above procedures is executed by the CPU.
Can also be implemented by executing. When the present invention is realized by the latter, the predetermined program for operating the image processing apparatus is a flexible disk or a C
It may be provided by a computer-readable recording medium such as a D-ROM, or may be provided online via a network such as the Internet. in this case,
The program recorded on a computer-readable recording medium is usually transferred to and stored in a ROM, a hard disk, or the like. Further, this program may be provided as, for example, independent application software, or may be incorporated into the software of the image processing apparatus as one function.
【0038】上述した本発明の実施形態には、特許請求
の範囲の請求項1〜5に記載した発明以外にも、以下の
付記1〜9に示すような発明が含まれる。The embodiments of the present invention described above include the inventions as shown in the following supplementary notes 1 to 9 in addition to the inventions described in claims 1 to 5 of the claims.
【0039】[付記1] 前記有効画像領域を構成する
画素を所定条件下にラベリング処理する段階(3)をさ
らに有し、段階(1)は、同一ラベルでラベリング処理
された画素群の外接矩形領域を抽出するものである、請
求項1に記載の画像処理方法。[Supplementary Note 1] The method further includes a step (3) of performing a labeling process on pixels forming the effective image area under a predetermined condition, and the step (1) is a circumscribed rectangle of a group of pixels labeled with the same label. The image processing method according to claim 1, wherein the area is extracted.
【0040】[付記2] 前記抽出領域の領域種別を判
別する段階(4)をさらに有する請求項1または付記1
に記載の画像処理方法。[Supplementary Note 2] The method according to Claim 1 or Supplementary Note 1, further comprising a step (4) of determining a region type of the extraction region.
The image processing method described in.
【0041】[付記3] 前記抽出領域に領域種別に応
じた画像処理を施す段階(5)と、前記抽出領域を合成
して画像ファイルを作成する段階(6)と、をさらに有
する付記2に記載の画像処理方法。[Supplementary Note 3] In Supplementary Note 2, further comprising a step (5) of performing image processing according to the area type on the extraction area and a step (6) of synthesizing the extraction area to create an image file. The described image processing method.
【0042】[付記4] 画像データの有効画像領域の
外接矩形領域を抽出する手順(1)と、手順(1)で抽
出する抽出領域が他の抽出領域と重なるか否かを判別す
る手順(2)とを画像処理装置に実行させるものであ
り、手順(1)は、前記抽出領域が他の抽出領域と重な
らない場合は前記有効画像領域を構成する画素以外の画
素を所定の補完画素で補完して抽出し、前記抽出領域が
他の抽出領域と重なる場合は全ての画素をそのまま抽出
することを特徴とする、画像処理プログラム。[Supplementary Note 4] The procedure (1) for extracting the circumscribed rectangular area of the effective image area of the image data and the procedure for determining whether or not the extraction area extracted in the procedure (1) overlaps other extraction areas ( 2) is executed by the image processing apparatus, and the procedure (1) is that when the extraction area does not overlap with other extraction areas, pixels other than the pixels forming the effective image area are replaced with predetermined complementary pixels. An image processing program, characterized in that it is complemented and extracted, and when the extraction region overlaps with another extraction region, all pixels are extracted as they are.
【0043】[付記5] 前記有効画像領域を構成する
画素を所定条件下にラベリング処理する手順(3)をさ
らに画像処理装置に実行させるものであり、手順(1)
は、同一ラベルでラベリング処理された画素群の外接矩
形領域を抽出することを特徴とする、付記4に記載の画
像処理プログラム。[Supplementary Note 5] The image processing apparatus is caused to further execute the procedure (3) of performing the labeling process on the pixels constituting the effective image area under a predetermined condition. The procedure (1)
The image processing program according to appendix 4, wherein the circumscribing rectangular area of the pixel group subjected to the labeling processing with the same label is extracted.
【0044】[付記6] 前記抽出領域の領域種別を判
別する手順(4)をさらに画像処理装置に実行させるこ
とを特徴とする付記4または5に記載の画像処理プログ
ラム。[Supplementary Note 6] The image processing program according to Supplementary Note 4 or 5, further causing the image processing apparatus to execute the procedure (4) for determining the area type of the extraction area.
【0045】[付記7] 前記抽出領域に領域種別に応
じた画像処理を施す手順(5)と、前記抽出領域を合成
して画像ファイルを作成する手順(6)と、をさらに画
像処理装置に実行させることを特徴とする付記6に記載
の画像処理プログラム。[Supplementary Note 7] The image processing apparatus further includes a step (5) of performing image processing on the extraction area according to the area type and a step (6) of combining the extraction areas to create an image file. 7. The image processing program according to attachment 6, which is executed.
【0046】[付記8] 付記4〜7のいずれか1つに
記載の画像処理プログラムを記録したコンピュータ読み
取り可能な記録媒体。[Supplementary Note 8] A computer-readable recording medium recording the image processing program according to any one of Supplementary Notes 4 to 7.
【0047】[付記9] 原稿を読み取って画像データ
を取得する画像読取手段をさらに有する請求項1〜4の
いずれか1つに記載の画像処理装置。[Supplementary Note 9] The image processing apparatus according to any one of claims 1 to 4, further comprising image reading means for reading a document to obtain image data.
【0048】[0048]
【発明の効果】上述したように、本発明の画像処理装置
によれば、文書原稿を読み取って得られた画像データの
文字、図形および写真領域をそれぞれ抽出して画像処理
を施した後再合成して文書画像ファイルを作成する画像
処理装置において、画像品質を保って高圧縮率等を実現
しつつ、抽出領域の重なりによる画像の欠損が生じるこ
となく再現性の高い合成画像ファイルを取得することが
できる。As described above, according to the image processing apparatus of the present invention, the characters, figures, and photographic areas of the image data obtained by reading the document original are extracted, subjected to image processing, and then recombined. In an image processing apparatus that creates a document image file by performing a high-reproducibility composite image file without causing image loss due to overlap of extraction areas while achieving high compression rate while maintaining image quality You can
【図1】 本発明の実施形態にかかる画像処理装置を含
む画像処理システムの全体構成を示すブロック図であ
る。FIG. 1 is a block diagram showing an overall configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention.
【図2】 図1における画像処理装置1の構成を示すブ
ロック図である。FIG. 2 is a block diagram showing a configuration of an image processing apparatus 1 in FIG.
【図3】 画像処理装置1による画像処理の一例を示し
た概念図である。FIG. 3 is a conceptual diagram showing an example of image processing by the image processing apparatus 1.
【図4】 従来のラベリングによる領域抽出および再合
成処理の一例を示した概念図である。FIG. 4 is a conceptual diagram showing an example of conventional area extraction and recomposition processing by labeling.
【図5】 画像処理装置1の画像処理の手順を示すフロ
ーチャートである。FIG. 5 is a flowchart showing a procedure of image processing of the image processing apparatus 1.
【図6】 画像処理装置1の領域抽出処理の手順を示す
フローチャートである。FIG. 6 is a flowchart showing a procedure of area extraction processing of the image processing apparatus 1.
【図7】 画像処理装置1による領域抽出および再合成
処理の一例を示した概念図である。FIG. 7 is a conceptual diagram showing an example of area extraction and recomposition processing by the image processing apparatus 1.
【図8】 画像処理装置1による画像処理の他の例を示
した概念図である。FIG. 8 is a conceptual diagram showing another example of image processing by the image processing apparatus 1.
1…画像処理装置、 101…制御部、 102…記憶部、 103…操作部、 104…入力インタフェース部、 105…出力インタフェース部、 106…領域抽出部、 107…画像処理部、 107a…文字領域処理部、 107b…図形領域処理部、 107c…写真領域処理部、 108…領域合成部、 109…ファイル形式変換部、 110…バス、 2…スキャナ、 3…ファイルサーバ、 4…コンピュータネットワーク。 1 ... Image processing device, 101 ... control unit, 102 ... storage unit, 103 ... operation unit, 104 ... Input interface unit, 105 ... Output interface unit, 106 ... region extraction unit, 107 ... an image processing unit, 107a ... Character area processing unit, 107b ... Graphic area processing unit, 107c ... Photographic region processing unit, 108 ... area synthesis section, 109 ... File format conversion unit, 110 ... bus, 2 ... Scanner, 3 ... file server, 4 ... Computer network.
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA06 BA15 BA16 BA18 DA02 DA04 DA06 EA03 EA09 EA19 5C076 AA02 AA11 AA27 BA06 CA10 5C077 LL19 MP06 PP02 PP21 PP23 PP27 PP28 PP43 PP58 PP65 PQ08 PQ19 PQ22 RR19 RR21 TT06 ─────────────────────────────────────────────────── ─── Continued front page F-term (reference) 5B050 BA06 BA15 BA16 BA18 DA02 DA04 DA06 EA03 EA09 EA19 5C076 AA02 AA11 AA27 BA06 CA10 5C077 LL19 MP06 PP02 PP21 PP23 PP27 PP28 PP43 PP58 PP65 PQ08 PQ19 PQ22 RR19 RR21 TT06
Claims (5)
域を抽出する領域抽出手段と、 前記領域抽出手段により抽出する抽出領域が他の抽出領
域と重なるか否かを判別する領域重複判別手段とを有
し、 前記領域抽出手段は、前記抽出領域が他の抽出領域と重
ならない場合は前記有効画像領域を構成する画素以外の
画素を所定の補完画素で補完して抽出し、前記抽出領域
が他の抽出領域と重なる場合は全ての画素をそのまま抽
出することを特徴とする、画像処理装置。1. An area extraction means for extracting a circumscribed rectangular area of an effective image area of image data, and an area overlap determination means for determining whether or not an extraction area extracted by the area extraction means overlaps with another extraction area. The area extracting means, when the extraction area does not overlap with other extraction areas, complements and extracts pixels other than the pixels forming the effective image area with predetermined complementary pixels, and the extraction area is An image processing apparatus, wherein all pixels are extracted as they are when they overlap with another extraction area.
条件下にラベリング処理するラベリング手段をさらに有
し、 前記領域抽出手段は、同一ラベルでラベリング処理され
た画素群の外接矩形領域を抽出するものである、請求項
1に記載の画像処理装置。2. The image forming apparatus further comprises labeling means for performing a labeling process on pixels forming the effective image area under a predetermined condition, and the area extracting means extracts a circumscribed rectangular area of a pixel group labeled by the same label. The image processing apparatus according to claim 1, which is a thing.
種別判別手段をさらに有する請求項1または2に記載の
画像処理装置。3. The image processing apparatus according to claim 1, further comprising an area type determination unit that determines an area type of the extraction area.
理を施す画像処理手段と、 前記抽出領域を合成して画像ファイルを作成する画像フ
ァイル作成手段と、をさらに有する請求項3に記載の画
像処理装置。4. The image processing device according to claim 3, further comprising image processing means for performing image processing on the extraction area according to area type, and image file creation means for synthesizing the extraction area to create an image file. Image processing device.
域を抽出する段階(1)と、 段階(1)で抽出する抽出領域が他の抽出領域と重なる
か否かを判別する段階(2)とを有し、 段階(1)は、前記抽出領域が他の抽出領域と重ならな
い場合は前記有効画像領域を構成する画素以外の画素を
所定の補完画素で補完して抽出し、前記抽出領域が他の
抽出領域と重なる場合は全ての画素をそのまま抽出する
ことを特徴とする、画像処理方法。5. A step (1) of extracting a circumscribed rectangular area of an effective image area of image data, and a step (2) of determining whether or not the extraction area extracted in step (1) overlaps another extraction area. In the step (1), when the extraction region does not overlap with other extraction regions, the pixels other than the pixels forming the effective image region are complemented and extracted by a predetermined complementary pixel, and the extraction region When all pixels overlap with another extraction area, all pixels are extracted as they are, and the image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001377852A JP3882603B2 (en) | 2001-12-11 | 2001-12-11 | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001377852A JP3882603B2 (en) | 2001-12-11 | 2001-12-11 | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003179739A true JP2003179739A (en) | 2003-06-27 |
JP2003179739A5 JP2003179739A5 (en) | 2005-06-23 |
JP3882603B2 JP3882603B2 (en) | 2007-02-21 |
Family
ID=19185722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001377852A Expired - Fee Related JP3882603B2 (en) | 2001-12-11 | 2001-12-11 | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3882603B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017152957A (en) * | 2016-02-25 | 2017-08-31 | ブラザー工業株式会社 | Image processing apparatus, computer program, and system |
WO2018144213A1 (en) | 2017-01-31 | 2018-08-09 | 3M Innovative Properties Company | Image area extracting method, image area extracting program, image area extracting system, and image area extracting device |
-
2001
- 2001-12-11 JP JP2001377852A patent/JP3882603B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017152957A (en) * | 2016-02-25 | 2017-08-31 | ブラザー工業株式会社 | Image processing apparatus, computer program, and system |
WO2018144213A1 (en) | 2017-01-31 | 2018-08-09 | 3M Innovative Properties Company | Image area extracting method, image area extracting program, image area extracting system, and image area extracting device |
US10996048B2 (en) | 2017-01-31 | 2021-05-04 | 3M Innovative Properties Company | Image area extracting method, image area extracting program, image area extracting system, and image area extracting device |
Also Published As
Publication number | Publication date |
---|---|
JP3882603B2 (en) | 2007-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7970225B2 (en) | Image processing device, image processing method, image processing program and computer-readable recording medium on which the program is recorded | |
JP2003179738A (en) | Image processor | |
US7133559B2 (en) | Image processing device, image processing method, image processing program, and computer readable recording medium on which image processing program is recorded | |
US8565534B2 (en) | Image processing apparatus and image processing method | |
US8620081B2 (en) | Image processing apparatus, method, and storage medium for determining attributes | |
JP3931651B2 (en) | Image processing device | |
JP2003244447A (en) | Image processor and image processing method | |
JP6607490B2 (en) | CONVERSION PROCESSING DEVICE, INFORMATION PROCESSING DEVICE EQUIPPED WITH THE SAME, PROGRAM, AND RECORDING MEDIUM | |
US7609881B2 (en) | Device and method for image processing as well as image processing computer program | |
JP6892625B2 (en) | Data processing equipment and computer programs | |
JP3899872B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the same | |
US8284459B2 (en) | Image processing apparatus and image processing method | |
JP3960210B2 (en) | Image processing device | |
JP3882603B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded | |
JP2002369011A (en) | Image processing apparatus, image processing method and image processing program | |
JP3298965B2 (en) | Image processing apparatus and method | |
JP3882657B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded | |
JP4375106B2 (en) | Image processing device | |
JP3906723B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded | |
JP4411244B2 (en) | Image processing apparatus, image processing method, and program | |
JP2005316813A (en) | Image processing method, image processing program, and image processor | |
JP4032735B2 (en) | Image processing apparatus and image processing method | |
JP4165599B2 (en) | Image processing device | |
JP2000307867A (en) | Device and method for image processing and computer- readable recording medium with image processing program recorded thereon | |
JP4032734B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040423 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041006 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20041006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041006 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20041006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060704 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061106 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091124 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101124 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101124 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111124 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111124 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121124 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121124 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131124 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |