[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009038580A - Unit and method for processing image - Google Patents

Unit and method for processing image Download PDF

Info

Publication number
JP2009038580A
JP2009038580A JP2007200914A JP2007200914A JP2009038580A JP 2009038580 A JP2009038580 A JP 2009038580A JP 2007200914 A JP2007200914 A JP 2007200914A JP 2007200914 A JP2007200914 A JP 2007200914A JP 2009038580 A JP2009038580 A JP 2009038580A
Authority
JP
Japan
Prior art keywords
image
correction
extraction
processing
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007200914A
Other languages
Japanese (ja)
Inventor
Tetsuya Suwa
徹哉 諏訪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007200914A priority Critical patent/JP2009038580A/en
Publication of JP2009038580A publication Critical patent/JP2009038580A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform correction processing appropriately to the copy of an image, where characters, graphs, photographs, and the like are mixed to an original. <P>SOLUTION: The image is read by a scanner (1). A character region is discriminated from a non-character region by image region separation processing (2). The read image is divided into block units (3). Extraction processing is executed only to a block, where the result of image region separation is the non-character region (4). Image correction is executed based on the extracted block (5). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、特定部分を抽出し、それに基づいて画像処理を施す画像処理装置および画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method for extracting a specific portion and performing image processing based on the specific portion.

ここ数年におけるパーソナルコンピュータの性能向上により、大容量のファイルでさえも容易にかつ高速に扱えるようになった。一般に容量の大きいとされる写真調の自然画像もより多くの人が取り扱うようになってきている。それに加えデジタルカメラやスキャナに代表される入力機器も普及してきたため、さまざまな画像のデジタル化が行われるようになった。   The performance of personal computers over the last few years has made it easier and faster to handle even large files. More and more people are handling photographic-like natural images, which are generally considered to have a large capacity. In addition, input devices represented by digital cameras and scanners have become widespread, and various images have been digitized.

一口に写真画像といってもその中にはプロの撮影した高画質の画像から、あまり品位の良くない画像まで様々である。ここで言う品位の良くない画像とは露出のオーバーしているものやアンダーしているもの、適切なホワイトバランスが行えず画像全体に色味のつく色かぶりを起こしている画像等である。一般に悪い画像がつくられる原因として考えられるのは、撮影時の光量が適正でないことや蛍光燈下での撮影といった撮影条件によるものと、デジタルカメラのノイズや特性といったデジタル化処理の際に起こる画像の劣化等が挙げられる。これら品位の悪い画像はデジタル上での処理をしてパーソナルコンピュータ等に取り込んだ後、補正を施すことによって画像品位を上げることが可能である。   There are various types of photographic images, from high-quality images taken by professionals to images with poor quality. The image with poor quality referred to here is an image that is overexposed or underexposed, an image in which an appropriate white balance cannot be performed, and a color cast with a tint on the entire image is generated. In general, the possible causes of bad images are due to inadequate light intensity during shooting, shooting conditions such as shooting under fluorescent light, and images generated during digitization such as noise and characteristics of digital cameras. Deterioration, etc. These poor quality images can be digitally processed and captured in a personal computer or the like, and then corrected to improve the image quality.

画像補正については、様々な提案がされているが、一般的にこれら補正処理では、補正を施すための補正量を算出する補正量決定部と、求められた補正量に基づいて補正を実行する補正実行部に分けられる。   Various proposals have been made for image correction. In general, in these correction processes, a correction amount determination unit that calculates a correction amount for performing correction, and correction is executed based on the obtained correction amount. It is divided into correction execution units.

そのうちの補正量決定部では、処理内容により大きく2つに分類できる。画像の累積データを生成し、それを基に補正量を決定する方法と、画像内の特定部分の特徴量を抽出し、その特定部分から補正量を求めるものである。   Among them, the correction amount determination unit can be roughly classified into two types according to the processing contents. A method of generating accumulated data of an image and determining a correction amount based on the data, and extracting a feature amount of a specific portion in the image and obtaining a correction amount from the specific portion.

前者の累積データを使用する補正方法として、特開2000−1362号公報4、特開2000−13616号公報が挙げられる。この処理では、ホワイトバランスの設定が不十分であったり露出が最適でなかったりする画像に対して色かぶりおよびレベル補正が実行されている。補正量を求める累積処理としては、画素毎の輝度値を累積しヒストグラムを作成し、それに基づいて補正の必要有無を判定および補正量の決定を行う。図1(a)に示すような生成された輝度ヒストグラムを図1(b)のように修正するような輝度変換処理を実行することにより補正を実行する。図1(a)のHL、SD点に相当する輝度値の平均色相を算出し、それらが無彩色になるような変換係数を求め、それを施すことにより、適切なグレーバランスを実現している。   As a correction method using the former accumulated data, there are JP-A No. 2000-1362 and JP-A No. 2000-13616. In this process, color cast and level correction are performed on an image for which white balance setting is insufficient or exposure is not optimal. As the accumulation process for obtaining the correction amount, the luminance value for each pixel is accumulated to create a histogram, and based on this, the necessity of correction is determined and the correction amount is determined. Correction is executed by executing a luminance conversion process for correcting the generated luminance histogram as shown in FIG. 1A as shown in FIG. Appropriate gray balance is realized by calculating an average hue of luminance values corresponding to the HL and SD points in FIG. 1A, obtaining conversion coefficients so that they become achromatic colors, and applying them. .

また、さらに画像をより好適にするコントラスト補正、彩度補正も可能である。取得した輝度ヒストグラムの分布から、S字カーブなどの輝度変換量を決定し、コントラスト補正を行ったり、画像の平均彩度から補正係数量を算出し、画像の色差成分に補正係数を乗じたりすることにより、各補正が行われる。   Further, contrast correction and saturation correction that make the image more suitable are also possible. From the acquired luminance histogram distribution, a luminance conversion amount such as an S-shaped curve is determined and contrast correction is performed, or a correction coefficient amount is calculated from the average saturation of the image, and the color difference component of the image is multiplied by the correction coefficient. Thus, each correction is performed.

後者の特定部分の抽出を行う処理としては、主に人肌など画像の主要部分となる検出処理が一般的である。特登録3203946号公報は、テレビのような映像信号の補正であるが、色差信号と輝度信号から肌色平均輝度レベルを検出し、全画像の輝度レベルの関連でガンマ補正回路に制御信号を加えるものである。これにより、逆光などで暗くなった顔などを適切に明るくすることが可能となっている。   As a process for extracting the latter specific part, a detection process that is mainly a main part of an image such as human skin is generally used. Japanese Patent No. 3203946 is a correction of a video signal such as a television, but detects a skin color average luminance level from a color difference signal and a luminance signal, and adds a control signal to a gamma correction circuit in relation to the luminance level of all images. It is. This makes it possible to appropriately brighten a face that has become dark due to backlight or the like.

このように、画像内の特定部分の特徴量を抽出する画像補正においては、特定部分の検出に成功する確率、つまり検出率が非常に重要と言える。検出率が悪いと、補正や加工処理が適用されないばかりか、誤った係数や場所を設定してしまい、かえって画像を悪化させる場合も発生してしまう。   Thus, it can be said that the probability of successful detection of a specific portion, that is, the detection rate is very important in image correction for extracting the feature amount of a specific portion in an image. If the detection rate is low, not only correction or processing is not applied, but an incorrect coefficient or location is set, which may deteriorate the image.

このような画像補正などを実現することにより、さまざまデバイス機器で高画質化を実現している。ここで、デバイス面に注目すると、デジカメ、スキャナに代表される入力機器、プリンタ、モニタなどの出力機器、それぞれが飛躍的な発展をしてきた。こうした一方で、近年、プリンタ機能とスキャナ機能が一体となった複合機の普及が進んでいる。複合機においては、単機能のプリント機能とスキャナ機能のほかに、スキャナで読取った画像をプリンタですぐに出力するいわゆる複写機の機能が実現されている。   By realizing such image correction and the like, high image quality is realized in various device devices. Here, paying attention to the device aspect, digital cameras, input devices represented by scanners, output devices such as printers, monitors, and the like, have made dramatic developments. On the other hand, in recent years, multifunction peripherals in which a printer function and a scanner function are integrated have been spreading. In the multi function device, in addition to a single function print function and a scanner function, a so-called copier function for immediately outputting an image read by a scanner with a printer is realized.

複写機そのものは、歴史が長く、モノクロコピーに始まり、最近ではカラーコピーも一般的になってきている。画像処理的な観点からみても、様々な高画質化、処理スピードの高速化が図られて来た。その代表的な処理の一つに像域分離による高画質化がある。コピーの使用される状況を考えたとき、文字やグラフといったテキスト文書の出力が重要である。よりきれいで高画質な文字、グラフを出力するという目的で、像域分離を利用した画像処理が様々な形で行われてきた。像域分離としては、特開平03−057083号公報や特開平09−204525号公報に挙げられるような方法が提案され、像域分離の結果に応じて、処理を切り換える方法としては、特開平10−257329号公報でのフィルタ切り換えや、特開2002−94798号公報でのMTF補正が挙げられる。これらの処理により、文字部はよりシャープで読みやすく、その他文字以外の領域にも大きな影響は及ぼさないという処理が実現されている。
特開平03−057083号公報 特開平09−204525号公報 特開平10−257329号公報 特開2002−94798号公報 特開2000−1362号公報 特開2000−13616号公報 特登録3203946号公報
The copying machine itself has a long history, starting with monochrome copying, and recently color copying has become common. From the viewpoint of image processing, various high image quality and high processing speed have been achieved. One of the typical processes is image quality improvement by image area separation. When considering the situation where copying is used, it is important to output text documents such as characters and graphs. Image processing using image area separation has been performed in various forms for the purpose of outputting clearer and higher quality characters and graphs. As image area separation, methods such as those disclosed in Japanese Patent Application Laid-Open Nos. 03-057083 and 09-204525 have been proposed. Examples include filter switching in JP-A-257329 and MTF correction in JP-A No. 2002-94798. With these processes, the character part is sharper and easier to read, and other areas other than the character are not greatly affected.
JP 03-070883 A JP 09-204525 A Japanese Patent Laid-Open No. 10-257329 JP 2002-94798 A JP 2000-1362 A JP 2000-13616 A Special Registration No. 3203946

上述したように、写真をより高画質で入出力出来るようになった単機能のプリンタ、スキャナと、それらを組み合わせた複合機の普及を考えた場合、複合機における写真の使用頻度が増加することは明らかである。また、その中で高画質の要求も高まることは明白で、単機能で行っていた画像補正などの処理も必要不可欠になってくる。   As described above, when considering the spread of single-function printers and scanners that can input and output photos with higher image quality and multifunction devices that combine them, the frequency of use of photographs in multifunction devices increases. Is clear. In addition, it is clear that the demand for high image quality will increase, and processing such as image correction that has been performed by a single function will become indispensable.

その一方で、複写機としてよく使われるテキスト文書や、インターネットのWeb上で多く見られる写真とテキスト文書の混在画像などについても、高画質化を行っていかなくてはならない。従来技術で説明した特定部分を検出し、それに基づいて補正を行う処理の場合、今までの想定以外の文字やグラフ領域が対象になるため、そのまま混在画像などで適用しようとすると文字部を肌や顔を誤検出してしまうケースが発生してしまう。   On the other hand, it is necessary to improve the image quality of text documents that are often used as copiers and mixed images of text and text documents that are often found on the Internet. In the case of processing that detects specific parts described in the prior art and performs correction based on them, characters and graph areas other than those assumed so far are targeted. And a case where a face is erroneously detected occurs.

本発明では、上記課題を解決するためになされたものであり、画像中の特定部分の抽出を行い、それに基づいて画像処理を行う画像処理装置において、画像を取得する画像取得手段と、前記画像取得手段により取得した画像に対し像域分離をする手段と、該画像をあるブロックに分割する分割手段と、前記像域分離の結果に応じ、ブロック毎に抽出処理の実行の有無を決定する手段と、前記決定手段により、実行有りと判定されたブロックについてのみ抽出処理を実行する抽出手段と、前記抽出手段により、抽出された特定部分に基づいて、画像補正係数を決定する画像補正係数決定手段と、前記画像補正係数決定手段により決定された補正係数によって補正を行うことを特徴とする。   The present invention has been made to solve the above-described problem. In an image processing apparatus that extracts a specific portion in an image and performs image processing based on the extraction, an image acquisition unit that acquires an image, and the image Means for separating the image area of the image obtained by the obtaining means; dividing means for dividing the image into certain blocks; and means for determining whether or not to perform extraction processing for each block according to the result of the image area separation. Extraction means for executing extraction processing only for blocks determined to be executed by the determination means, and image correction coefficient determination means for determining image correction coefficients based on the specific portion extracted by the extraction means The correction is performed using the correction coefficient determined by the image correction coefficient determination means.

以上、説明と実施例を挙げたとおり、本発明によれば文字やグラフ、写真が混在している画像のうち、写真部分から人肌を適切に抽出し、それに基づいて補正処理を行うことによって、失敗の少ない効果的な補正処理を実現することが出来る。   As described above, according to the present invention, according to the present invention, the human skin is appropriately extracted from the photo portion of the image in which characters, graphs, and photographs are mixed, and correction processing is performed based on the extracted human skin. Thus, it is possible to realize an effective correction process with few failures.

以下、図面を参照して本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[実施形態1]
図2は、本発明の実施の形態に係る複合機(マルチファンクションプリンタ装置:以下、MFP装置)1の概観斜視図である。このMFP装置1は、ホストコンピュータ(PC)からデータを受信して印刷する通常のPCプリンタとしての機能、スキャナとしての機能を有し、さらにはMFP装置単体で動作する機能として、スキャナで読取った画像をプリンタで印刷するコピー機能、メモリカードなどの記憶媒体に記憶されている画像データを直接読取って印刷する機能、或いはデジタルカメラからの画像データを受信して印刷する機能を備えている。
[Embodiment 1]
FIG. 2 is a schematic perspective view of a multifunction peripheral (multifunction printer apparatus: hereinafter, MFP apparatus) 1 according to the embodiment of the present invention. The MFP apparatus 1 has a function as a normal PC printer that receives data from a host computer (PC) and prints it, and a function as a scanner. It has a copy function for printing an image with a printer, a function for directly reading and printing image data stored in a storage medium such as a memory card, or a function for receiving and printing image data from a digital camera.

図2において、MFP装置1はフラットベットスキャナなどの読取装置34、インクジェットプリンタなどの印刷装置31、および表示パネル39や各種キースイッチ等を備える操作パネル35により構成されている。また、MFP装置1の背面にはPCと通信するためのUSBポート(不図示)が設けられ、PCとの通信が行われる。上記の構成に加え各種メモリカードからデータを読み出すためのカードスロット42やデジタルカメラとデータ通信を行うためのカメラポート43、自動で原稿を原稿台にセットするためのオートドキュメントフィーダー(以下ADF)31などからMFP装置1は構成されている。   In FIG. 2, the MFP apparatus 1 includes a reading device 34 such as a flat bed scanner, a printing device 31 such as an ink jet printer, and an operation panel 35 including a display panel 39 and various key switches. In addition, a USB port (not shown) for communicating with the PC is provided on the rear surface of the MFP apparatus 1, and communication with the PC is performed. In addition to the above configuration, a card slot 42 for reading data from various memory cards, a camera port 43 for data communication with a digital camera, and an auto document feeder (hereinafter referred to as ADF) 31 for automatically setting a document on a document table Thus, the MFP apparatus 1 is configured.

図3において、CPU11は、画像処理装置が備える様々な機能を制御し、操作部15の所定の操作に従い、ROM16に記憶された画像処理のプログラムを実行する。   In FIG. 3, the CPU 11 controls various functions provided in the image processing apparatus, and executes an image processing program stored in the ROM 16 in accordance with a predetermined operation of the operation unit 15.

CCDを備える読取部14は、図2の読取装置34に対応し、原稿画像を読取り、赤(R)、緑(G)および青(B)色のアナログ輝度データを出力する。なお、読取部14は、CCDの代わりに密着型イメージセンサ(CIS)を備えてもよい。また、図2のようなADF31を備えれば、連続でオーダーシートを読取る事が出来更に簡便である。   The reading unit 14 having a CCD corresponds to the reading device 34 in FIG. 2, reads a document image, and outputs analog luminance data of red (R), green (G), and blue (B) colors. Note that the reading unit 14 may include a contact image sensor (CIS) instead of the CCD. Further, if the ADF 31 as shown in FIG. 2 is provided, the order sheets can be read continuously, which is more convenient.

また、カードインターフェイス22も図2のカードスロット42に対応し、例えばディジタルスチルカメラ(Digital Still Camere 以下DSC)で撮影され、メモリカードなどに記録された画像データを、操作部15の所定の操作に従い読み込む。なお、カードインターフェイス22を介して読み込まれた画像データの色空間は、画像処理部12により、DSCの色空間(例えばYCbCr)から標準的なRGB色空間(例えばNTSC−RGBやsRGB)に変換される。従来技術で記載した画像補正は、この標準的な色空間内で、処理を行えばよい。読み込まれた画像データは、有効な画素数への解像度変換など、アプリケーションに必要な様々な処理が必要に応じて施される。   The card interface 22 also corresponds to the card slot 42 of FIG. 2, and for example, image data shot with a digital still camera (Digital Still Camera, hereinafter referred to as DSC) and recorded on a memory card or the like is transferred in accordance with a predetermined operation of the operation unit 15. Read. Note that the color space of the image data read via the card interface 22 is converted from the DSC color space (for example, YCbCr) into the standard RGB color space (for example, NTSC-RGB or sRGB) by the image processing unit 12. The The image correction described in the prior art may be processed within this standard color space. The read image data is subjected to various processes necessary for the application such as resolution conversion to the effective number of pixels as necessary.

また、カメラインターフェイス23も図2のカメラポート43に対応し、DSCに直接接続して画像データを読み込むためのものである。   The camera interface 23 also corresponds to the camera port 43 of FIG. 2 and is used for reading image data by directly connecting to the DSC.

画像処理部12においては、後述する画像解析、変換特性の算出、輝度信号(RGB)から濃度信号(CMYK)への変換、スケーリング、ガンマ変換、誤差拡散等の画像処理等の画像処理が行われ、それによって得られるデータは、RAM17に格納される。そして、RAM17に格納された補正データが、図2の印刷装置33に対応する記録部13で記録するのに必要な所定量に達すると、記録部13による記録動作が実行される。   The image processing unit 12 performs image processing such as image analysis, calculation of conversion characteristics, conversion from luminance signals (RGB) to density signals (CMYK), image processing such as scaling, gamma conversion, and error diffusion, which will be described later. The data obtained thereby is stored in the RAM 17. When the correction data stored in the RAM 17 reaches a predetermined amount necessary for recording by the recording unit 13 corresponding to the printing apparatus 33 of FIG. 2, the recording operation by the recording unit 13 is executed.

また、不揮発性RAM18は、バッテリバックアップされたSRAMなどで、画像処理装置に固有のデータなどを記憶する。また、操作部15は、図2の操作パネル35に相当し、記憶媒体に記憶された画像データを選択し、記録をスタートするためにフォトダイレクトプリントスタートキー、オーダーシートをプリントさせるキー、オーダーシートを読み込ますキー、モノクロコピー時やカラーコピー時におけるコピースタートキー、コピー解像度や画質などのモードを指定するモードキー、コピー動作などを停止するためのストップキー、並びに、コピー数を入力するテンキーや登録キーなどから構成される。CPU11は、これらキーの押下状態を検出し、その状態に応じて各部を制御する。   The nonvolatile RAM 18 is a battery-backed SRAM or the like, and stores data unique to the image processing apparatus. The operation unit 15 corresponds to the operation panel 35 of FIG. 2, selects image data stored in the storage medium, and starts a photo direct print start key, a key for printing an order sheet, and an order sheet. , A copy start key for monochrome copy or color copy, a mode key for specifying a mode such as copy resolution and image quality, a stop key for stopping copy operation, and a numeric keypad for inputting the number of copies It consists of a registration key. The CPU 11 detects the pressed state of these keys and controls each part according to the state.

表示部19は図2の表示パネル39に対応し、ドットマトリクスタイプの液晶表示部(LCD)およびLCDドライバを備え、CPU11の制御に基づき各種表示を行う。記録部13は図2の印刷装置33に対応し、インクジェット方式のインクジェットヘッド、汎用ICなどによって構成され、CPU11の制御により、RAM17に格納されている記録データを読み出し、ハードコピーとしてプリント出力する。   The display unit 19 corresponds to the display panel 39 of FIG. 2 and includes a dot matrix type liquid crystal display unit (LCD) and an LCD driver, and performs various displays based on the control of the CPU 11. The recording unit 13 corresponds to the printing apparatus 33 of FIG. 2 and is configured by an inkjet type inkjet head, a general-purpose IC, and the like, and reads out the recording data stored in the RAM 17 under the control of the CPU 11 and prints it out as a hard copy.

駆動部21は、上述した読取部14および記録部13それぞれの動作における、給排紙ローラを駆動するためのステッピングモータ、ステッピングモータの駆動力を伝達するギヤ、および、ステッピングモータを制御するドライバ回路などから構成される。   The drive unit 21 includes a stepping motor for driving the paper supply / discharge roller, a gear for transmitting the driving force of the stepping motor, and a driver circuit for controlling the stepping motor in the operations of the reading unit 14 and the recording unit 13 described above. Etc.

センサ部20は、記録紙幅センサ、記録紙有無センサ、原稿幅センサ、原稿有無センサおよび記録媒体検知センサなどから構成される。CPU11は、これらセンサから得られる情報に基づき、原稿および記録紙の状態を検知する。   The sensor unit 20 includes a recording sheet width sensor, a recording sheet presence sensor, a document width sensor, a document presence sensor, a recording medium detection sensor, and the like. The CPU 11 detects the state of the original and the recording paper based on information obtained from these sensors.

PCインターフェイス24はPCとMFP装置1とのインターフェイスであり、MFP装置はPCインターフェイス24を介してPCからのプリント、スキャンなどの動作を行う。   The PC interface 24 is an interface between the PC and the MFP apparatus 1, and the MFP apparatus performs operations such as printing and scanning from the PC via the PC interface 24.

以上の構成の中で、コピー時においては、読取装置34で読取った画像データをMFP装置内部でデータ処理し、印刷装置33で印刷する。操作部15により、コピー動作が指示されると、読取部14は原稿台に置かれた原稿を読取る。読取られたデータは画像処理部12に送られ、下地除去、黒文字加工などの加工処理、RGB信号からYMCK信号への変換、誤差拡散等が実行される。その後、変換されたデータは記録部13に送られ印刷が行われる。   In the above configuration, at the time of copying, the image data read by the reading device 34 is processed in the MFP device and printed by the printing device 33. When a copy operation is instructed by the operation unit 15, the reading unit 14 reads a document placed on the document table. The read data is sent to the image processing unit 12, where processing such as background removal and black character processing, conversion from RGB signals to YMCK signals, error diffusion, and the like are executed. Thereafter, the converted data is sent to the recording unit 13 for printing.

図4に、コピー時の画像処理のブロック図を示す。以下、各ブロックについて説明する。尚、本実施形態では、パネルにより設定される画像補正として、原稿内写真部をより好適にする逆光補正を例に挙げる。   FIG. 4 shows a block diagram of image processing during copying. Hereinafter, each block will be described. In the present embodiment, as the image correction set by the panel, backlight correction that makes the in-document photograph portion more suitable is taken as an example.

(入力データ変換部)
スキャナの読取部から得られたRGB値を、定義された標準的な色空間、例えばsRGB上へと変換を行う。変換には、予め用意された変換係数が利用される。変換方法の一例として、下記式で示されるマトリクス演算を挙げる。
(Input data converter)
The RGB value obtained from the reading unit of the scanner is converted into a defined standard color space, for example, sRGB. For the conversion, a conversion coefficient prepared in advance is used. As an example of the conversion method, a matrix operation represented by the following formula is given.

Figure 2009038580
上記3×3のマトリクス演算で、所定の色空間上へと精度良く変換できない場合は、マトリクスを高次のものにするか、後述する四面体補間を利用する。
Figure 2009038580
If the above 3 × 3 matrix calculation cannot be accurately converted into a predetermined color space, the matrix is made higher-order or tetrahedral interpolation described later is used.

(像域分離処理部)
本実施例の像域分離処理としては、主に文字やグラフなどの領域と、それ以外の写真領域を含む非文字領域とを分離することを目的とした処理を行う。図5に処理フローを示す。STEP501では、エッジの抽出を行う。エッジ抽出には例えば図6に示すエッジ検出(Sobel)フィルタを利用する。これを画像全体に適用することにより、エッジ部分だけが抽出できる。STEP502では、STEP501で求めたエッジ部に囲まれた閉ループ箇所を探索する。STEP503で、検出された閉ループ内の分散値を求める。これはRGBの各信号について求めてもよいし、輝度信号に変換して行ってもよい。求めた分散値をSTEP504で、予め設定された値と比較し、分散が小さいと判定された場合は、その領域は文字部もしくはグラフ部と判定される。
(Image area separation processing unit)
As the image area separation process of this embodiment, a process mainly for separating an area such as a character or a graph and a non-character area including a photographic area other than that is performed. FIG. 5 shows a processing flow. In STEP 501, edge extraction is performed. For edge extraction, for example, an edge detection (Sobel) filter shown in FIG. 6 is used. By applying this to the entire image, only the edge portion can be extracted. In STEP 502, a closed loop portion surrounded by the edge portion obtained in STEP 501 is searched. In step 503, the detected dispersion value in the closed loop is obtained. This may be obtained for each RGB signal, or may be performed by converting to a luminance signal. In step 504, the obtained variance value is compared with a preset value. If it is determined that the variance is small, the area is determined to be a character portion or a graph portion.

また、上記の自動の像域分離処理のほか、画像を表示することの出来る液晶モニタや外部の表示装置などがあれば、スキャンした画像をそこに表示し、ユーザーに写真領域を指定させ判別する方法も考えられる。   In addition to the above-mentioned automatic image area separation processing, if there is a liquid crystal monitor or an external display device that can display an image, the scanned image is displayed there, and the user designates the photo area and determines A method is also conceivable.

(文字加工部)
文字加工部では、文字をより高品位にするために行われる。一般的にはエッジを強調したり、文字部の濃度を上げたりすることでそれが実現される。エッジ強調を行うためには、ラプラシアンに代表される鮮鋭化フィルタを施せばよい。濃度については、像域分離で文字と判定された箇所について、濃度を上げるよう処理を施せばよい。
(Text processing part)
In the character processing section, it is performed to make the character higher quality. Generally, this is realized by enhancing the edge or increasing the density of the character portion. In order to perform edge enhancement, a sharpening filter represented by Laplacian may be applied. With regard to the density, processing may be performed so as to increase the density of the portion determined as the character by the image area separation.

(画像補正部)
この画像補正部で行われる逆光補正処理では、画像中の肌色を検出し、その部分を適切な明るさにすることにより、補正が実現される。よって処理としては、第一段階として、画像中の人肌検出処理、第二段階としてその結果に基づいた補正係数の決定、第三段階で補正の実行処理と分けられる。
(Image correction unit)
In the backlight correction processing performed in this image correction unit, correction is realized by detecting the skin color in the image and setting the appropriate brightness. Therefore, the processing is divided into human skin detection processing in the image as the first stage, determination of a correction coefficient based on the result as the second stage, and correction execution processing at the third stage.

最初に第一段階の人肌検出処理について説明する。処理としては、スキャナで読取った画像について、上述した像域分離による結果のほか、色味による判定、周波数による判定を用い、人肌部分の抽出を行う。   First, the human skin detection process in the first stage will be described. As processing, in addition to the result of the above-described image area separation, an image read by the scanner is used to extract a human skin portion using determination by color and determination by frequency.

図7にフロー図を示す。本処理では、8×8を一つの単位ブロックとして、処理を実行する。   FIG. 7 shows a flowchart. In this process, the process is executed with 8 × 8 as one unit block.

STEP701では、スキャナで読取られRAMに保存されている画像を8×8画素のブロックに分割し、ターゲットとなるブロックをセットする。   In STEP701, the image read by the scanner and stored in the RAM is divided into 8 × 8 pixel blocks, and a target block is set.

STEP702では、ブロック内の64画素全てが、上述の像域分離処理部において、文字部もしくはグラフ部の領域でないと判定されたか否かをみる。いずれかの画素が、文字部もしくはグラフ部と認定されていた場合は、STEP708に進み、人肌でないブロックと認定される。全ての画素が文字部もしくはグラフ部でない非文字領域の場合は、STEP703へと進み、色判定用のデータが生成される。これは、ターゲットブロックの色の代表値を求めることが目的で、RGBの各信号値の平均を取ってもよいし、ブロックの四隅の画素を代表値としてもよい。   In STEP 702, it is determined whether or not all the 64 pixels in the block are determined not to be character areas or graph areas in the image area separation processing section. If any pixel is recognized as a character part or a graph part, the process proceeds to STEP 708, where it is recognized as a block that is not human skin. If all the pixels are non-character areas that are not character parts or graph parts, the process proceeds to STEP 703 and data for color determination is generated. This is for the purpose of obtaining a representative value of the color of the target block, and the average of each RGB signal value may be taken, or pixels at the four corners of the block may be used as representative values.

STEP704では、STEP703で求めた色判定用のデータと予め設定された値との比較により、人肌の条件を満たしているか否かの判定を行う。設定する値としては、色相が肌色の範囲であり、極端に明度が高いものや低いもの、彩度が著しく低いものが除外されるような設定が適当である。この判定により、条件を満足していない場合は、STEP708に進み、人肌でないブロックと認定される。   In STEP 704, it is determined whether or not the condition of the human skin is satisfied by comparing the color determination data obtained in STEP 703 with a preset value. As a value to be set, a setting in which the hue is in the range of the skin color and extremely high or low brightness or extremely low saturation is excluded is appropriate. If it is determined that the condition is not satisfied, the process proceeds to STEP 708, where it is recognized as a block that is not human skin.

条件を満たしている場合は、STEP705へと進み、周波数判定用のデータが生成される。ここでは、8×8のブロックに対し、離散コサイン変換(DCT)を実行する。2次のDCTは下記式で示される。   If the condition is satisfied, the process proceeds to STEP 705, where data for frequency determination is generated. Here, discrete cosine transform (DCT) is performed on the 8 × 8 block. The secondary DCT is represented by the following formula.

Figure 2009038580
但し、
Figure 2009038580
However,

Figure 2009038580
である。今回のケースでは、N=8と設定される。
Figure 2009038580
It is. In this case, N = 8 is set.

STEP706では、STEP705で求められた交流成分(AC係数)、F[k, l] (k>0, l>0)について、予め設定された値との比較により、人肌の条件を満たしているか否かの判定を行う。設定する値としては、高周波成分が少なく、主に低周波成分を検出するように設定するのが適当である。この判定により、条件を満足していない場合は、STEP708に進み、人肌でないブロックと認定される。   In STEP 706, whether the AC component (AC coefficient) and F [k, l] (k> 0, l> 0) obtained in STEP 705 are satisfied with the conditions of the human skin by comparison with preset values. Determine whether or not. As a value to be set, it is appropriate to set so that there are few high frequency components and mainly low frequency components are detected. If it is determined that the condition is not satisfied, the process proceeds to STEP 708, where it is recognized as a block that is not human skin.

条件を満たしている場合は、STEP707へと進み、ターゲットとなるブロックが人肌であると認定される。   If the condition is satisfied, the process proceeds to STEP 707 where the target block is recognized as human skin.

STEP707およびSTEP708の後、STEP709へと進み、全てのブロックについて終了したかの判定を行い、もしそうでない場合はSTEP701へと戻り、終了した場合は人肌ブロックの検出は完了となる。   After STEP 707 and STEP 708, the process proceeds to STEP 709, where it is determined whether or not all blocks have been completed. If not, the process returns to STEP 701. If completed, detection of human skin blocks is completed.

次に、第二段階としてその結果に基づいた補正係数の決定について説明する。上述の第一段階で検出した人肌部分から、輝度を算出し、補正係数を決定する。   Next, determination of a correction coefficient based on the result as a second stage will be described. Luminance is calculated from the human skin portion detected in the first stage and a correction coefficient is determined.

尚、RGB信号値と、Y(輝度)CbCr(色差)信号値は、下記式により変換が行われる。
R = Y + 1.402 ( Cr − 128 )
G = Y − 0.34414 ( Cb − 128 ) − 0.71414 ( Cr − 128 )
B = Y + 1.772 ( Cb − 128 )
Y = 0.900×R + 0.587×G + 0.114×B
Cb = (−0.299×R − 0.587×G + 0.886×B) × 0.564 +128
Cr = (0.701×R − 0.587×G − 0.114×B) × 0.713 +128
本実施例では、補正係数として輝度変換テーブルを作成する。これは例えば、輝度Y成分に対し、どのような値にすればよいかを示した対応が格納されたテーブルである。入力が8ビットであればエントリが256のテーブルとなる。出力結果は0〜255の8ビットでも構わないが、階調損失を考慮すると、8ビットよりも多い出力の方が望ましい。
The RGB signal value and the Y (luminance) CbCr (color difference) signal value are converted by the following formula.
R = Y + 1.402 (Cr-128)
G = Y−0.34414 (Cb−128) −0.71414 (Cr−128)
B = Y + 1.772 (Cb-128)
Y = 0.900 x R + 0.587 x G + 0.114 x B
Cb = (− 0.299 × R−0.587 × G + 0.886 × B) × 0.564 + 128
Cr = (0.701 × R−0.587 × G−0.114 × B) × 0.713 + 128
In this embodiment, a brightness conversion table is created as a correction coefficient. This is, for example, a table storing correspondence indicating what value should be set for the luminance Y component. If the input is 8 bits, the entry is a table of 256. The output result may be 8 bits from 0 to 255, but in consideration of gradation loss, an output with more than 8 bits is desirable.

決定方法は、人肌と判定されたブロックの輝度値を利用する。人肌ブロックの輝度平均Y人肌を算出することにより、画像中の人肌部分の明るさの指標を取得出来る。その値を予め設定されたあるターゲット輝度YTARGET、例えば輝度を10%アップする
TARGET = Y人肌 × k ( k = 1.1)
となるような、テーブルを生成することにより、人肌部分を明るくする係数が求められる。より適切な係数を求めるために、人肌の輝度値に応じてターゲット輝度へのアップ率を変化させたり、画像全体の輝度値Y全体輝度を考慮し、それによりターゲット輝度を変化させたりすることも可能である。
TARGET = Y人肌 × k(Y全体輝度
求められたターゲット輝度から図8に示すような変換テーブルLUTY(逆光)を作成する。作成方法としては、直線で繋ぐ方法、またはそれにスムージング処理を行う方法、近似曲線を求める方法など、階調の急激な飛びがない作成方法が挙げられる。これによって、輝度を補正するYNEWが求められる。
The determination method uses the luminance value of the block determined to be human skin. By calculating the luminance average Y human skin of the human skin block, the brightness index of the human skin portion in the image can be acquired. The target brightness Y TARGET whose value is set in advance, for example, Y TARGET = Y human skin x k (k = 1.1) to increase the brightness by 10%
A coefficient that brightens the human skin portion is obtained by generating a table such that In order to obtain a more appropriate coefficient, the increase rate to the target luminance is changed according to the luminance value of the human skin, or the target luminance is changed by considering the luminance value Y overall luminance of the entire image. Is also possible.
Y TARGET = Y human skin x k (Y overall brightness )
A conversion table LUT Y (backlight) as shown in FIG. 8 is created from the obtained target luminance. Examples of the creation method include a creation method that does not cause a sharp jump in gradation, such as a method of connecting with a straight line, a method of performing smoothing thereto, or a method of obtaining an approximate curve. Thus, Y NEW for correcting the luminance is obtained.

また、輝度アップに伴い、彩度低下が発生するので、それを補正する必要がある。これは、輝度の増加率により変化し、
(逆光) = f(YNEW − YORG
により、算出される。f(Y)は、輝度の差が大きい程、彩度を補正するような関数が望ましい。
Further, as the luminance increases, the saturation decreases, and it is necessary to correct it. This varies with the rate of increase in brightness,
S (backlight) = f (Y NEW -Y ORG )
Is calculated by f (Y) is desirably a function that corrects the saturation as the difference in luminance increases.

最後の第三段階、補正実行処理では、上記で求められた逆光補正に関する補正係数LUTY(逆光)、S(逆光)を画像に適用する。元々の色差成分CbORG、CrORGに対して、下記式のように適用され、YNEW、CbNEW、CrNEWが、求められる。 In the final third stage, the correction execution process, the correction coefficients LUT Y (backlight) and S (backlight ) relating to the backlight correction obtained above are applied to the image. The original color-difference components Cb ORG and Cr ORG are applied as shown in the following equation, and Y NEW , Cb NEW , and Cr NEW are obtained.

NEW = LUTY(逆光)[YORG
CbNEW = CbORG × S(逆光)
CrNEW = CrORG × S(逆光)
以上述べた段階を経て、人肌部分を検出し、それに基づいて逆光補正が適用される。
Y NEW = LUT Y (backlight) [Y ORG ]
Cb NEW = Cb ORG × S (backlight)
Cr NEW = Cr ORG × S (backlight)
Through the above-described steps, the human skin portion is detected, and the backlight correction is applied based on the detected human skin portion.

(スケーリング部)
パネルにより設定された出力サイズ、変倍率、などから拡大・縮小の変倍率が決定される。変倍方法については、単純拡大・縮小やバイリニア法、バイキュービック法など幾つか方法が挙げられる。そのどれを選択するかは、そのシステム環境および求められる処理速度により、決定される。上述の各変倍手段については、本提案の本質とはならないので割愛する。
(Scaling part)
The enlargement / reduction scaling factor is determined from the output size and scaling factor set by the panel. As the scaling method, there are several methods such as simple enlargement / reduction, bilinear method, and bicubic method. Which one to select is determined by the system environment and the required processing speed. The above-described scaling means will be omitted because they are not the essence of this proposal.

(出力用データ変換部)
出力用データ変換部では、入力された信号YCbCr乃至RGBのデータに対し、プリンタのデバイス色への色変換を行う。例えば、6種類のインクを積載したプリンタであれば、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)、淡いシアン(LC)、淡いマゼンタ(LM)の信号に変換する。入力をRGB信号値とすると、(R,G,B)→(C,M,Y,K,LC,LM)の変換となる。
(Data converter for output)
The output data converter converts the input signals YCbCr to RGB data into printer device colors. For example, in the case of a printer loaded with six types of ink, the signals are converted into cyan (C), magenta (M), yellow (Y), black (K), light cyan (LC), and light magenta (LM) signals. . If the input is an RGB signal value, the conversion is (R, G, B) → (C, M, Y, K, LC, LM).

変換方法としては、いくつかの方法があるが、ここではルックアップテーブル(以下、LUT)と補間処理を用いた方法を一例として挙げる。   There are several conversion methods, but here, a method using a look-up table (hereinafter referred to as LUT) and interpolation processing is taken as an example.

事前に用意しておくLUTは、図9に示すようなRGB値をそれぞれ16レベルずつに16分割した4913点に対応するC,M,Y,K,LC,LM信号値が記述されており、入力R,G,Bの値に応じたC,M,Y,K,LC,LM値が参照される。R,G,Bの値が16分割した間にある場合は、補間処理によって求める。   The LUT prepared in advance describes C, M, Y, K, LC, and LM signal values corresponding to 4913 points obtained by dividing the RGB values as shown in FIG. 9 into 16 levels each. The C, M, Y, K, LC, and LM values corresponding to the values of the inputs R, G, and B are referred to. When the values of R, G, and B are between 16 divisions, they are obtained by interpolation processing.

補間方法の例として、四面体補間法を挙げる。四面体補間法とは、3次元空間の分割単位を四面体として、4つの格子点を用いる線形補間である。その手順として、まず図10(a)に示すように四面体への分割を行う。そして、ターゲットとなる点pが分割されたどの四面体に属するかを決定する。その四面体の4頂点をp0、p1、p2、p3とし、図10(b)に示すようにさらに細かい小四面体に分割される。また、拡張点の変換値をそれぞれf(p0)、f(p1)、f(p2)、f(p3)とすると、   An example of the interpolation method is a tetrahedral interpolation method. The tetrahedral interpolation method is linear interpolation using four grid points with a unit of three-dimensional space as a tetrahedron. As the procedure, first, as shown in FIG. 10A, division into tetrahedrons is performed. Then, the tetrahedron to which the target point p belongs is determined. The four vertices of the tetrahedron are defined as p0, p1, p2, and p3, and the tetrahedron is further divided into smaller tetrahedrons as shown in FIG. Also, if the conversion values of the extension points are f (p0), f (p1), f (p2), and f (p3), respectively,

Figure 2009038580
より求まる。ここで、w0、w1、w2、w3は、各頂点piと反対向位置の小四面体の体積比である。これにより、インク色C,M,Y,K,LC,LMへの変換が行われる。
Figure 2009038580
More. Here, w0, w1, w2, and w3 are volume ratios of the small tetrahedrons at positions opposite to each vertex pi. Thereby, conversion to ink colors C, M, Y, K, LC, and LM is performed.

(量子化部)
インク色に変換されたデータは、量子化処理が施される。これは、多ビットのデータを記録装置で記録可能なビット数に変換するものである。本実施例では、記録(1)/非記録(0)の1ビット2値であるプリンタの場合を考える。ここで、量子化方法としては、写真画像の量子化に最適となる誤差拡散法とする。また、入力信号は8ビットの0〜255とする。
(Quantization part)
The data converted into the ink color is subjected to quantization processing. This converts multi-bit data into the number of bits that can be recorded by a recording apparatus. In the present embodiment, a case of a printer having a 1-bit binary value of recording (1) / non-recording (0) is considered. Here, the quantization method is an error diffusion method that is optimal for the quantization of photographic images. The input signal is 8 bits from 0 to 255.

図11は誤差拡散法における、誤差分配方法を示す図である。ターゲットピクセルの信号値をL(0≦L≦255)とした時、しきい値THと比較を行う。その大小により、
L>TH ・・・・・・ 1(記録)
L≦TH ・・・・・・ 0(非記録)
と判定される。その時に発生する誤差E(=L−TH)は、図11の分配係数に従い周囲のピクセルに分配される。この処理をすべてのピクセル、すべてのインク色色C,M,Y,K,LC,LMに対して行うことで、1ビットの画像データ色C',M',Y',K',LC',LM'に量子化される。
FIG. 11 is a diagram showing an error distribution method in the error diffusion method. When the signal value of the target pixel is L (0 ≦ L ≦ 255), it is compared with the threshold value TH. Depending on its size,
L> TH ・ ・ ・ ・ ・ ・ 1 (Recording)
L ≦ TH ・ ・ ・ ・ ・ ・ 0 (not recorded)
It is determined. The error E (= L-TH) generated at that time is distributed to surrounding pixels according to the distribution coefficient shown in FIG. By performing this processing for all pixels and all ink color colors C, M, Y, K, LC, and LM, 1-bit image data colors C ′, M ′, Y ′, K ′, LC ′, Quantized to LM ′.

次に、上述の画像処理ブロックにおける、画像処理のフローを図12で説明する。STEP1201では、スキャナデータを読取りが行われる。STEP1202においては、入力データの変換処理が行われ、sRGB空間上の信号値になった後、STEP1203で像域分離処理が実行される。STEP1204ではその結果を受けて、文字部が加工処理される。STEP1205で、ユーザーがパネルにより逆光補正を設定したかを判断し、もし設定されていれば、STEP1206で、逆光補正が実行され、設定されていなければ、そのままSTEP1207へと進む。STEP1207では、拡大・縮小処理が必要かの判定を行い、もし必要であれば、STEP1208へと進み、スケーリング処理が実行される。必要なければ、そのままSTEP1209へと進み、出力用データ変換部により、プリンタのインク色へと変換される。STEP1210では、量子化処理が実行され、プリンタの記録可能なデータへと変換される。   Next, the flow of image processing in the above-described image processing block will be described with reference to FIG. In STEP 1201, the scanner data is read. In STEP 1202, input data conversion processing is performed to obtain signal values in the sRGB space, and then image region separation processing is executed in STEP 1203. In STEP 1204, the character portion is processed in response to the result. In step 1205, it is determined whether or not the user has set the backlight correction by the panel. If it is set, the backlight correction is executed in STEP 1206. If not set, the process proceeds to STEP 1207 as it is. In STEP 1207, it is determined whether the enlargement / reduction process is necessary. If necessary, the process proceeds to STEP 1208 and the scaling process is executed. If not necessary, the process proceeds to STEP 1209 as it is, and is converted into the ink color of the printer by the output data conversion unit. In STEP 1210, quantization processing is executed and converted into data that can be recorded by the printer.

以上、具体的な例を挙げて説明したように、本発明の実施形態1によれば、文字やグラフ、写真が混在しているドキュメントのコピーにおいて、そのうち写真部分から人肌を適切に抽出し、それに基づいて補正処理を行うことによって、失敗の少ない効果的な補正処理を実現することが出来る。   As described above, as described with specific examples, according to the first embodiment of the present invention, in a copy of a document including characters, graphs, and photographs, human skin is appropriately extracted from the photograph portion. By performing the correction process based on this, an effective correction process with few failures can be realized.

[他の実施形態]
上述での実施形態においては、複合機を例に挙げたが、さらに本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
[Other Embodiments]
In the above-described embodiment, a multi-function device has been described as an example. However, a further object of the present invention is to provide a storage medium (or recording medium) that records a program code of software that realizes the functions of the above-described embodiment as a system. Alternatively, it goes without saying that this can also be achieved by supplying the data to the apparatus and reading and executing the program code stored in the storage medium by the computer (or CPU or MPU) of the system or apparatus. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

露出が適性でない、色かぶりをおこしている画像の輝度ヒストグラムの一例を示す図である。It is a figure which shows an example of the brightness | luminance histogram of the image which is performing the color cast which exposure is not appropriate. 本発明の実施の形態に係る複合機(MFP)の概観斜視図である。1 is an overview perspective view of a multifunction peripheral (MFP) according to an embodiment of the present invention. 本実施の形態に係るMFP装置の制御に係る主要部の構成を示すブロック図である。3 is a block diagram showing a configuration of a main part related to control of the MFP apparatus according to the present embodiment. FIG. 本発明の実施形態に係る画像処理ブロックを示す図である。It is a figure which shows the image processing block which concerns on embodiment of this invention. 本発明の実施形態に係る像域分離処理のフローを示す図である。It is a figure which shows the flow of the image area separation process which concerns on embodiment of this invention. エッジ検出に使用されるSobelフィルタを示す図である。It is a figure which shows the Sobel filter used for edge detection. 本発明の実施形態に係る人肌検出処理のフローを示す図である。It is a figure which shows the flow of the human skin detection process which concerns on embodiment of this invention. 本発明の実施の形態に係る逆光補正用の輝度変換テーブルを示す図である。It is a figure which shows the luminance conversion table for backlight correction which concerns on embodiment of this invention. 本実施の形態に係る色変換処理に用いられるルックアップテーブルの一例を示す図である。It is a figure which shows an example of the look-up table used for the color conversion process which concerns on this Embodiment. 本実施の形態に係る四面体補間処理を示す図である。It is a figure which shows the tetrahedral interpolation process which concerns on this Embodiment. 本実施の形態に係る誤差拡散法における分配方法を表す図である。It is a figure showing the distribution method in the error diffusion method which concerns on this Embodiment. 本発明の実施形態に係る画像処理のフローを示す図である。It is a figure which shows the flow of the image processing which concerns on embodiment of this invention.

Claims (4)

画像中の特定部分の抽出を行い、それに基づいて画像処理を行う画像処理装置において、
画像を取得する画像取得手段と、
前記画像取得手段により取得した画像に対し像域分離をする手段と、
該画像をあるブロックに分割する分割手段と、
前記像域分離の結果に応じ、ブロック毎に抽出処理の実行の有無を決定する手段と、
前記決定手段により、実行有りと判定されたブロックについてのみ抽出処理を実行する抽出手段と、
前記抽出手段により、抽出された特定部分に基づいて、画像補正係数を決定する画像補正係数決定手段と、
前記画像補正係数決定手段により決定された補正係数によって補正を行う画像補正手段とを有することを特徴とする画像処理装置。
In an image processing apparatus that extracts a specific part in an image and performs image processing based on the extraction,
Image acquisition means for acquiring images;
Means for separating an image area from the image obtained by the image obtaining means;
Dividing means for dividing the image into certain blocks;
Means for determining whether to perform extraction processing for each block according to the result of the image area separation;
Extraction means for executing extraction processing only for blocks determined to be executed by the determining means;
An image correction coefficient determination means for determining an image correction coefficient based on the specific portion extracted by the extraction means;
An image processing apparatus comprising: an image correction unit that performs correction using the correction coefficient determined by the image correction coefficient determination unit.
前記抽出手段とは、色による判定と周波数解析による判定により実行されることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the extraction unit is executed by determination based on color and determination based on frequency analysis. 画像中の特定部分の抽出を行い、それに基づいて画像処理を行う画像処理方法において、
画像を取得する画像取得ステップと、
前記画像取得ステップにより取得した画像に対し像域分離をするステップと、
該画像をあるブロックに分割する分割ステップと、
前記像域分離の結果に応じ、ブロック毎に抽出処理の実行の有無を決定するステップと、
前記決定ステップにより、実行有りと判定されたブロックについてのみ抽出処理を実行する抽出ステップと、
前記抽出ステップにより、抽出された特定部分に基づいて、画像補正係数を決定する画像補正係数決定ステップと、
前記画像補正係数決定ステップにより決定された補正係数によって補正を行う画像補正ステップとを有することを特徴とする画像処理方法。
In an image processing method for extracting a specific portion in an image and performing image processing based on the extraction,
An image acquisition step of acquiring an image;
Separating the image area from the image obtained by the image obtaining step;
A dividing step of dividing the image into certain blocks;
Determining whether to perform extraction processing for each block according to the result of the image area separation; and
An extraction step for performing the extraction process only for the blocks determined to be executed by the determination step;
An image correction coefficient determination step for determining an image correction coefficient based on the specific portion extracted by the extraction step;
And an image correction step of performing correction using the correction coefficient determined in the image correction coefficient determination step.
前記抽出ステップとは、色による判定と周波数解析による判定により実行されることを特徴とする請求項3に記載の画像処理方法。   The image processing method according to claim 3, wherein the extracting step is executed by determination by color and determination by frequency analysis.
JP2007200914A 2007-08-01 2007-08-01 Unit and method for processing image Pending JP2009038580A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007200914A JP2009038580A (en) 2007-08-01 2007-08-01 Unit and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007200914A JP2009038580A (en) 2007-08-01 2007-08-01 Unit and method for processing image

Publications (1)

Publication Number Publication Date
JP2009038580A true JP2009038580A (en) 2009-02-19

Family

ID=40440115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007200914A Pending JP2009038580A (en) 2007-08-01 2007-08-01 Unit and method for processing image

Country Status (1)

Country Link
JP (1) JP2009038580A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413337A (en) * 2013-04-02 2013-11-27 大连理工大学 Color fog generation method based on human-machine interaction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413337A (en) * 2013-04-02 2013-11-27 大连理工大学 Color fog generation method based on human-machine interaction

Similar Documents

Publication Publication Date Title
JP5594382B2 (en) Output image adjustment for image files
JP4632452B2 (en) Image correction processing apparatus, image correction processing method, program, and storage medium
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
EP2670125B1 (en) Image processing device correcting color of border region between object and background in image
US20110150360A1 (en) Adjustment for output image of image data
US8139269B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP2008236759A (en) Output image adjustment of image data
KR101309369B1 (en) Image processing apparatus and control method
US20100182620A1 (en) Image processing device and image processing method
JP2004023401A (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and record medium with the program recorded thereon
US7253923B2 (en) Image processing apparatus
JP4010306B2 (en) Output image adjustment for image files
JP4748796B2 (en) Image processing apparatus and image processing method.
US11240401B2 (en) Image processing apparatus and image processing method
JP4295465B2 (en) Image processing device
JP2009071695A (en) Image processor, image processing method, program, and storage medium
JP2009038580A (en) Unit and method for processing image
JP3666439B2 (en) Output image adjustment for image files
JP2006011754A (en) Image processing device and image processing method
JP2006203528A (en) Image processor, image processing program, and recording medium
JP2007043423A (en) Image processing method and apparatus thereof
JP2009177426A (en) Image processor and image processing method
JP4595965B2 (en) Output image adjustment for image files
JP4636001B2 (en) Output image adjustment for image files
JP2009038582A (en) Unit and method for processing image

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630