JP2009038580A - Unit and method for processing image - Google Patents
Unit and method for processing image Download PDFInfo
- Publication number
- JP2009038580A JP2009038580A JP2007200914A JP2007200914A JP2009038580A JP 2009038580 A JP2009038580 A JP 2009038580A JP 2007200914 A JP2007200914 A JP 2007200914A JP 2007200914 A JP2007200914 A JP 2007200914A JP 2009038580 A JP2009038580 A JP 2009038580A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- extraction
- processing
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、特定部分を抽出し、それに基づいて画像処理を施す画像処理装置および画像処理方法に関するものである。 The present invention relates to an image processing apparatus and an image processing method for extracting a specific portion and performing image processing based on the specific portion.
ここ数年におけるパーソナルコンピュータの性能向上により、大容量のファイルでさえも容易にかつ高速に扱えるようになった。一般に容量の大きいとされる写真調の自然画像もより多くの人が取り扱うようになってきている。それに加えデジタルカメラやスキャナに代表される入力機器も普及してきたため、さまざまな画像のデジタル化が行われるようになった。 The performance of personal computers over the last few years has made it easier and faster to handle even large files. More and more people are handling photographic-like natural images, which are generally considered to have a large capacity. In addition, input devices represented by digital cameras and scanners have become widespread, and various images have been digitized.
一口に写真画像といってもその中にはプロの撮影した高画質の画像から、あまり品位の良くない画像まで様々である。ここで言う品位の良くない画像とは露出のオーバーしているものやアンダーしているもの、適切なホワイトバランスが行えず画像全体に色味のつく色かぶりを起こしている画像等である。一般に悪い画像がつくられる原因として考えられるのは、撮影時の光量が適正でないことや蛍光燈下での撮影といった撮影条件によるものと、デジタルカメラのノイズや特性といったデジタル化処理の際に起こる画像の劣化等が挙げられる。これら品位の悪い画像はデジタル上での処理をしてパーソナルコンピュータ等に取り込んだ後、補正を施すことによって画像品位を上げることが可能である。 There are various types of photographic images, from high-quality images taken by professionals to images with poor quality. The image with poor quality referred to here is an image that is overexposed or underexposed, an image in which an appropriate white balance cannot be performed, and a color cast with a tint on the entire image is generated. In general, the possible causes of bad images are due to inadequate light intensity during shooting, shooting conditions such as shooting under fluorescent light, and images generated during digitization such as noise and characteristics of digital cameras. Deterioration, etc. These poor quality images can be digitally processed and captured in a personal computer or the like, and then corrected to improve the image quality.
画像補正については、様々な提案がされているが、一般的にこれら補正処理では、補正を施すための補正量を算出する補正量決定部と、求められた補正量に基づいて補正を実行する補正実行部に分けられる。 Various proposals have been made for image correction. In general, in these correction processes, a correction amount determination unit that calculates a correction amount for performing correction, and correction is executed based on the obtained correction amount. It is divided into correction execution units.
そのうちの補正量決定部では、処理内容により大きく2つに分類できる。画像の累積データを生成し、それを基に補正量を決定する方法と、画像内の特定部分の特徴量を抽出し、その特定部分から補正量を求めるものである。 Among them, the correction amount determination unit can be roughly classified into two types according to the processing contents. A method of generating accumulated data of an image and determining a correction amount based on the data, and extracting a feature amount of a specific portion in the image and obtaining a correction amount from the specific portion.
前者の累積データを使用する補正方法として、特開2000−1362号公報4、特開2000−13616号公報が挙げられる。この処理では、ホワイトバランスの設定が不十分であったり露出が最適でなかったりする画像に対して色かぶりおよびレベル補正が実行されている。補正量を求める累積処理としては、画素毎の輝度値を累積しヒストグラムを作成し、それに基づいて補正の必要有無を判定および補正量の決定を行う。図1(a)に示すような生成された輝度ヒストグラムを図1(b)のように修正するような輝度変換処理を実行することにより補正を実行する。図1(a)のHL、SD点に相当する輝度値の平均色相を算出し、それらが無彩色になるような変換係数を求め、それを施すことにより、適切なグレーバランスを実現している。 As a correction method using the former accumulated data, there are JP-A No. 2000-1362 and JP-A No. 2000-13616. In this process, color cast and level correction are performed on an image for which white balance setting is insufficient or exposure is not optimal. As the accumulation process for obtaining the correction amount, the luminance value for each pixel is accumulated to create a histogram, and based on this, the necessity of correction is determined and the correction amount is determined. Correction is executed by executing a luminance conversion process for correcting the generated luminance histogram as shown in FIG. 1A as shown in FIG. Appropriate gray balance is realized by calculating an average hue of luminance values corresponding to the HL and SD points in FIG. 1A, obtaining conversion coefficients so that they become achromatic colors, and applying them. .
また、さらに画像をより好適にするコントラスト補正、彩度補正も可能である。取得した輝度ヒストグラムの分布から、S字カーブなどの輝度変換量を決定し、コントラスト補正を行ったり、画像の平均彩度から補正係数量を算出し、画像の色差成分に補正係数を乗じたりすることにより、各補正が行われる。 Further, contrast correction and saturation correction that make the image more suitable are also possible. From the acquired luminance histogram distribution, a luminance conversion amount such as an S-shaped curve is determined and contrast correction is performed, or a correction coefficient amount is calculated from the average saturation of the image, and the color difference component of the image is multiplied by the correction coefficient. Thus, each correction is performed.
後者の特定部分の抽出を行う処理としては、主に人肌など画像の主要部分となる検出処理が一般的である。特登録3203946号公報は、テレビのような映像信号の補正であるが、色差信号と輝度信号から肌色平均輝度レベルを検出し、全画像の輝度レベルの関連でガンマ補正回路に制御信号を加えるものである。これにより、逆光などで暗くなった顔などを適切に明るくすることが可能となっている。 As a process for extracting the latter specific part, a detection process that is mainly a main part of an image such as human skin is generally used. Japanese Patent No. 3203946 is a correction of a video signal such as a television, but detects a skin color average luminance level from a color difference signal and a luminance signal, and adds a control signal to a gamma correction circuit in relation to the luminance level of all images. It is. This makes it possible to appropriately brighten a face that has become dark due to backlight or the like.
このように、画像内の特定部分の特徴量を抽出する画像補正においては、特定部分の検出に成功する確率、つまり検出率が非常に重要と言える。検出率が悪いと、補正や加工処理が適用されないばかりか、誤った係数や場所を設定してしまい、かえって画像を悪化させる場合も発生してしまう。 Thus, it can be said that the probability of successful detection of a specific portion, that is, the detection rate is very important in image correction for extracting the feature amount of a specific portion in an image. If the detection rate is low, not only correction or processing is not applied, but an incorrect coefficient or location is set, which may deteriorate the image.
このような画像補正などを実現することにより、さまざまデバイス機器で高画質化を実現している。ここで、デバイス面に注目すると、デジカメ、スキャナに代表される入力機器、プリンタ、モニタなどの出力機器、それぞれが飛躍的な発展をしてきた。こうした一方で、近年、プリンタ機能とスキャナ機能が一体となった複合機の普及が進んでいる。複合機においては、単機能のプリント機能とスキャナ機能のほかに、スキャナで読取った画像をプリンタですぐに出力するいわゆる複写機の機能が実現されている。 By realizing such image correction and the like, high image quality is realized in various device devices. Here, paying attention to the device aspect, digital cameras, input devices represented by scanners, output devices such as printers, monitors, and the like, have made dramatic developments. On the other hand, in recent years, multifunction peripherals in which a printer function and a scanner function are integrated have been spreading. In the multi function device, in addition to a single function print function and a scanner function, a so-called copier function for immediately outputting an image read by a scanner with a printer is realized.
複写機そのものは、歴史が長く、モノクロコピーに始まり、最近ではカラーコピーも一般的になってきている。画像処理的な観点からみても、様々な高画質化、処理スピードの高速化が図られて来た。その代表的な処理の一つに像域分離による高画質化がある。コピーの使用される状況を考えたとき、文字やグラフといったテキスト文書の出力が重要である。よりきれいで高画質な文字、グラフを出力するという目的で、像域分離を利用した画像処理が様々な形で行われてきた。像域分離としては、特開平03−057083号公報や特開平09−204525号公報に挙げられるような方法が提案され、像域分離の結果に応じて、処理を切り換える方法としては、特開平10−257329号公報でのフィルタ切り換えや、特開2002−94798号公報でのMTF補正が挙げられる。これらの処理により、文字部はよりシャープで読みやすく、その他文字以外の領域にも大きな影響は及ぼさないという処理が実現されている。
上述したように、写真をより高画質で入出力出来るようになった単機能のプリンタ、スキャナと、それらを組み合わせた複合機の普及を考えた場合、複合機における写真の使用頻度が増加することは明らかである。また、その中で高画質の要求も高まることは明白で、単機能で行っていた画像補正などの処理も必要不可欠になってくる。 As described above, when considering the spread of single-function printers and scanners that can input and output photos with higher image quality and multifunction devices that combine them, the frequency of use of photographs in multifunction devices increases. Is clear. In addition, it is clear that the demand for high image quality will increase, and processing such as image correction that has been performed by a single function will become indispensable.
その一方で、複写機としてよく使われるテキスト文書や、インターネットのWeb上で多く見られる写真とテキスト文書の混在画像などについても、高画質化を行っていかなくてはならない。従来技術で説明した特定部分を検出し、それに基づいて補正を行う処理の場合、今までの想定以外の文字やグラフ領域が対象になるため、そのまま混在画像などで適用しようとすると文字部を肌や顔を誤検出してしまうケースが発生してしまう。 On the other hand, it is necessary to improve the image quality of text documents that are often used as copiers and mixed images of text and text documents that are often found on the Internet. In the case of processing that detects specific parts described in the prior art and performs correction based on them, characters and graph areas other than those assumed so far are targeted. And a case where a face is erroneously detected occurs.
本発明では、上記課題を解決するためになされたものであり、画像中の特定部分の抽出を行い、それに基づいて画像処理を行う画像処理装置において、画像を取得する画像取得手段と、前記画像取得手段により取得した画像に対し像域分離をする手段と、該画像をあるブロックに分割する分割手段と、前記像域分離の結果に応じ、ブロック毎に抽出処理の実行の有無を決定する手段と、前記決定手段により、実行有りと判定されたブロックについてのみ抽出処理を実行する抽出手段と、前記抽出手段により、抽出された特定部分に基づいて、画像補正係数を決定する画像補正係数決定手段と、前記画像補正係数決定手段により決定された補正係数によって補正を行うことを特徴とする。 The present invention has been made to solve the above-described problem. In an image processing apparatus that extracts a specific portion in an image and performs image processing based on the extraction, an image acquisition unit that acquires an image, and the image Means for separating the image area of the image obtained by the obtaining means; dividing means for dividing the image into certain blocks; and means for determining whether or not to perform extraction processing for each block according to the result of the image area separation. Extraction means for executing extraction processing only for blocks determined to be executed by the determination means, and image correction coefficient determination means for determining image correction coefficients based on the specific portion extracted by the extraction means The correction is performed using the correction coefficient determined by the image correction coefficient determination means.
以上、説明と実施例を挙げたとおり、本発明によれば文字やグラフ、写真が混在している画像のうち、写真部分から人肌を適切に抽出し、それに基づいて補正処理を行うことによって、失敗の少ない効果的な補正処理を実現することが出来る。 As described above, according to the present invention, according to the present invention, the human skin is appropriately extracted from the photo portion of the image in which characters, graphs, and photographs are mixed, and correction processing is performed based on the extracted human skin. Thus, it is possible to realize an effective correction process with few failures.
以下、図面を参照して本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[実施形態1]
図2は、本発明の実施の形態に係る複合機(マルチファンクションプリンタ装置:以下、MFP装置)1の概観斜視図である。このMFP装置1は、ホストコンピュータ(PC)からデータを受信して印刷する通常のPCプリンタとしての機能、スキャナとしての機能を有し、さらにはMFP装置単体で動作する機能として、スキャナで読取った画像をプリンタで印刷するコピー機能、メモリカードなどの記憶媒体に記憶されている画像データを直接読取って印刷する機能、或いはデジタルカメラからの画像データを受信して印刷する機能を備えている。
[Embodiment 1]
FIG. 2 is a schematic perspective view of a multifunction peripheral (multifunction printer apparatus: hereinafter, MFP apparatus) 1 according to the embodiment of the present invention. The
図2において、MFP装置1はフラットベットスキャナなどの読取装置34、インクジェットプリンタなどの印刷装置31、および表示パネル39や各種キースイッチ等を備える操作パネル35により構成されている。また、MFP装置1の背面にはPCと通信するためのUSBポート(不図示)が設けられ、PCとの通信が行われる。上記の構成に加え各種メモリカードからデータを読み出すためのカードスロット42やデジタルカメラとデータ通信を行うためのカメラポート43、自動で原稿を原稿台にセットするためのオートドキュメントフィーダー(以下ADF)31などからMFP装置1は構成されている。
In FIG. 2, the
図3において、CPU11は、画像処理装置が備える様々な機能を制御し、操作部15の所定の操作に従い、ROM16に記憶された画像処理のプログラムを実行する。
In FIG. 3, the
CCDを備える読取部14は、図2の読取装置34に対応し、原稿画像を読取り、赤(R)、緑(G)および青(B)色のアナログ輝度データを出力する。なお、読取部14は、CCDの代わりに密着型イメージセンサ(CIS)を備えてもよい。また、図2のようなADF31を備えれば、連続でオーダーシートを読取る事が出来更に簡便である。
The
また、カードインターフェイス22も図2のカードスロット42に対応し、例えばディジタルスチルカメラ(Digital Still Camere 以下DSC)で撮影され、メモリカードなどに記録された画像データを、操作部15の所定の操作に従い読み込む。なお、カードインターフェイス22を介して読み込まれた画像データの色空間は、画像処理部12により、DSCの色空間(例えばYCbCr)から標準的なRGB色空間(例えばNTSC−RGBやsRGB)に変換される。従来技術で記載した画像補正は、この標準的な色空間内で、処理を行えばよい。読み込まれた画像データは、有効な画素数への解像度変換など、アプリケーションに必要な様々な処理が必要に応じて施される。
The
また、カメラインターフェイス23も図2のカメラポート43に対応し、DSCに直接接続して画像データを読み込むためのものである。
The
画像処理部12においては、後述する画像解析、変換特性の算出、輝度信号(RGB)から濃度信号(CMYK)への変換、スケーリング、ガンマ変換、誤差拡散等の画像処理等の画像処理が行われ、それによって得られるデータは、RAM17に格納される。そして、RAM17に格納された補正データが、図2の印刷装置33に対応する記録部13で記録するのに必要な所定量に達すると、記録部13による記録動作が実行される。
The
また、不揮発性RAM18は、バッテリバックアップされたSRAMなどで、画像処理装置に固有のデータなどを記憶する。また、操作部15は、図2の操作パネル35に相当し、記憶媒体に記憶された画像データを選択し、記録をスタートするためにフォトダイレクトプリントスタートキー、オーダーシートをプリントさせるキー、オーダーシートを読み込ますキー、モノクロコピー時やカラーコピー時におけるコピースタートキー、コピー解像度や画質などのモードを指定するモードキー、コピー動作などを停止するためのストップキー、並びに、コピー数を入力するテンキーや登録キーなどから構成される。CPU11は、これらキーの押下状態を検出し、その状態に応じて各部を制御する。
The
表示部19は図2の表示パネル39に対応し、ドットマトリクスタイプの液晶表示部(LCD)およびLCDドライバを備え、CPU11の制御に基づき各種表示を行う。記録部13は図2の印刷装置33に対応し、インクジェット方式のインクジェットヘッド、汎用ICなどによって構成され、CPU11の制御により、RAM17に格納されている記録データを読み出し、ハードコピーとしてプリント出力する。
The
駆動部21は、上述した読取部14および記録部13それぞれの動作における、給排紙ローラを駆動するためのステッピングモータ、ステッピングモータの駆動力を伝達するギヤ、および、ステッピングモータを制御するドライバ回路などから構成される。
The drive unit 21 includes a stepping motor for driving the paper supply / discharge roller, a gear for transmitting the driving force of the stepping motor, and a driver circuit for controlling the stepping motor in the operations of the
センサ部20は、記録紙幅センサ、記録紙有無センサ、原稿幅センサ、原稿有無センサおよび記録媒体検知センサなどから構成される。CPU11は、これらセンサから得られる情報に基づき、原稿および記録紙の状態を検知する。
The
PCインターフェイス24はPCとMFP装置1とのインターフェイスであり、MFP装置はPCインターフェイス24を介してPCからのプリント、スキャンなどの動作を行う。
The
以上の構成の中で、コピー時においては、読取装置34で読取った画像データをMFP装置内部でデータ処理し、印刷装置33で印刷する。操作部15により、コピー動作が指示されると、読取部14は原稿台に置かれた原稿を読取る。読取られたデータは画像処理部12に送られ、下地除去、黒文字加工などの加工処理、RGB信号からYMCK信号への変換、誤差拡散等が実行される。その後、変換されたデータは記録部13に送られ印刷が行われる。
In the above configuration, at the time of copying, the image data read by the
図4に、コピー時の画像処理のブロック図を示す。以下、各ブロックについて説明する。尚、本実施形態では、パネルにより設定される画像補正として、原稿内写真部をより好適にする逆光補正を例に挙げる。 FIG. 4 shows a block diagram of image processing during copying. Hereinafter, each block will be described. In the present embodiment, as the image correction set by the panel, backlight correction that makes the in-document photograph portion more suitable is taken as an example.
(入力データ変換部)
スキャナの読取部から得られたRGB値を、定義された標準的な色空間、例えばsRGB上へと変換を行う。変換には、予め用意された変換係数が利用される。変換方法の一例として、下記式で示されるマトリクス演算を挙げる。
(Input data converter)
The RGB value obtained from the reading unit of the scanner is converted into a defined standard color space, for example, sRGB. For the conversion, a conversion coefficient prepared in advance is used. As an example of the conversion method, a matrix operation represented by the following formula is given.
(像域分離処理部)
本実施例の像域分離処理としては、主に文字やグラフなどの領域と、それ以外の写真領域を含む非文字領域とを分離することを目的とした処理を行う。図5に処理フローを示す。STEP501では、エッジの抽出を行う。エッジ抽出には例えば図6に示すエッジ検出(Sobel)フィルタを利用する。これを画像全体に適用することにより、エッジ部分だけが抽出できる。STEP502では、STEP501で求めたエッジ部に囲まれた閉ループ箇所を探索する。STEP503で、検出された閉ループ内の分散値を求める。これはRGBの各信号について求めてもよいし、輝度信号に変換して行ってもよい。求めた分散値をSTEP504で、予め設定された値と比較し、分散が小さいと判定された場合は、その領域は文字部もしくはグラフ部と判定される。
(Image area separation processing unit)
As the image area separation process of this embodiment, a process mainly for separating an area such as a character or a graph and a non-character area including a photographic area other than that is performed. FIG. 5 shows a processing flow. In
また、上記の自動の像域分離処理のほか、画像を表示することの出来る液晶モニタや外部の表示装置などがあれば、スキャンした画像をそこに表示し、ユーザーに写真領域を指定させ判別する方法も考えられる。 In addition to the above-mentioned automatic image area separation processing, if there is a liquid crystal monitor or an external display device that can display an image, the scanned image is displayed there, and the user designates the photo area and determines A method is also conceivable.
(文字加工部)
文字加工部では、文字をより高品位にするために行われる。一般的にはエッジを強調したり、文字部の濃度を上げたりすることでそれが実現される。エッジ強調を行うためには、ラプラシアンに代表される鮮鋭化フィルタを施せばよい。濃度については、像域分離で文字と判定された箇所について、濃度を上げるよう処理を施せばよい。
(Text processing part)
In the character processing section, it is performed to make the character higher quality. Generally, this is realized by enhancing the edge or increasing the density of the character portion. In order to perform edge enhancement, a sharpening filter represented by Laplacian may be applied. With regard to the density, processing may be performed so as to increase the density of the portion determined as the character by the image area separation.
(画像補正部)
この画像補正部で行われる逆光補正処理では、画像中の肌色を検出し、その部分を適切な明るさにすることにより、補正が実現される。よって処理としては、第一段階として、画像中の人肌検出処理、第二段階としてその結果に基づいた補正係数の決定、第三段階で補正の実行処理と分けられる。
(Image correction unit)
In the backlight correction processing performed in this image correction unit, correction is realized by detecting the skin color in the image and setting the appropriate brightness. Therefore, the processing is divided into human skin detection processing in the image as the first stage, determination of a correction coefficient based on the result as the second stage, and correction execution processing at the third stage.
最初に第一段階の人肌検出処理について説明する。処理としては、スキャナで読取った画像について、上述した像域分離による結果のほか、色味による判定、周波数による判定を用い、人肌部分の抽出を行う。 First, the human skin detection process in the first stage will be described. As processing, in addition to the result of the above-described image area separation, an image read by the scanner is used to extract a human skin portion using determination by color and determination by frequency.
図7にフロー図を示す。本処理では、8×8を一つの単位ブロックとして、処理を実行する。 FIG. 7 shows a flowchart. In this process, the process is executed with 8 × 8 as one unit block.
STEP701では、スキャナで読取られRAMに保存されている画像を8×8画素のブロックに分割し、ターゲットとなるブロックをセットする。 In STEP701, the image read by the scanner and stored in the RAM is divided into 8 × 8 pixel blocks, and a target block is set.
STEP702では、ブロック内の64画素全てが、上述の像域分離処理部において、文字部もしくはグラフ部の領域でないと判定されたか否かをみる。いずれかの画素が、文字部もしくはグラフ部と認定されていた場合は、STEP708に進み、人肌でないブロックと認定される。全ての画素が文字部もしくはグラフ部でない非文字領域の場合は、STEP703へと進み、色判定用のデータが生成される。これは、ターゲットブロックの色の代表値を求めることが目的で、RGBの各信号値の平均を取ってもよいし、ブロックの四隅の画素を代表値としてもよい。
In
STEP704では、STEP703で求めた色判定用のデータと予め設定された値との比較により、人肌の条件を満たしているか否かの判定を行う。設定する値としては、色相が肌色の範囲であり、極端に明度が高いものや低いもの、彩度が著しく低いものが除外されるような設定が適当である。この判定により、条件を満足していない場合は、STEP708に進み、人肌でないブロックと認定される。
In
条件を満たしている場合は、STEP705へと進み、周波数判定用のデータが生成される。ここでは、8×8のブロックに対し、離散コサイン変換(DCT)を実行する。2次のDCTは下記式で示される。 If the condition is satisfied, the process proceeds to STEP 705, where data for frequency determination is generated. Here, discrete cosine transform (DCT) is performed on the 8 × 8 block. The secondary DCT is represented by the following formula.
STEP706では、STEP705で求められた交流成分(AC係数)、F[k, l] (k>0, l>0)について、予め設定された値との比較により、人肌の条件を満たしているか否かの判定を行う。設定する値としては、高周波成分が少なく、主に低周波成分を検出するように設定するのが適当である。この判定により、条件を満足していない場合は、STEP708に進み、人肌でないブロックと認定される。
In
条件を満たしている場合は、STEP707へと進み、ターゲットとなるブロックが人肌であると認定される。 If the condition is satisfied, the process proceeds to STEP 707 where the target block is recognized as human skin.
STEP707およびSTEP708の後、STEP709へと進み、全てのブロックについて終了したかの判定を行い、もしそうでない場合はSTEP701へと戻り、終了した場合は人肌ブロックの検出は完了となる。
After STEP 707 and
次に、第二段階としてその結果に基づいた補正係数の決定について説明する。上述の第一段階で検出した人肌部分から、輝度を算出し、補正係数を決定する。 Next, determination of a correction coefficient based on the result as a second stage will be described. Luminance is calculated from the human skin portion detected in the first stage and a correction coefficient is determined.
尚、RGB信号値と、Y(輝度)CbCr(色差)信号値は、下記式により変換が行われる。
R = Y + 1.402 ( Cr − 128 )
G = Y − 0.34414 ( Cb − 128 ) − 0.71414 ( Cr − 128 )
B = Y + 1.772 ( Cb − 128 )
Y = 0.900×R + 0.587×G + 0.114×B
Cb = (−0.299×R − 0.587×G + 0.886×B) × 0.564 +128
Cr = (0.701×R − 0.587×G − 0.114×B) × 0.713 +128
本実施例では、補正係数として輝度変換テーブルを作成する。これは例えば、輝度Y成分に対し、どのような値にすればよいかを示した対応が格納されたテーブルである。入力が8ビットであればエントリが256のテーブルとなる。出力結果は0〜255の8ビットでも構わないが、階調損失を考慮すると、8ビットよりも多い出力の方が望ましい。
The RGB signal value and the Y (luminance) CbCr (color difference) signal value are converted by the following formula.
R = Y + 1.402 (Cr-128)
G = Y−0.34414 (Cb−128) −0.71414 (Cr−128)
B = Y + 1.772 (Cb-128)
Y = 0.900 x R + 0.587 x G + 0.114 x B
Cb = (− 0.299 × R−0.587 × G + 0.886 × B) × 0.564 + 128
Cr = (0.701 × R−0.587 × G−0.114 × B) × 0.713 + 128
In this embodiment, a brightness conversion table is created as a correction coefficient. This is, for example, a table storing correspondence indicating what value should be set for the luminance Y component. If the input is 8 bits, the entry is a table of 256. The output result may be 8 bits from 0 to 255, but in consideration of gradation loss, an output with more than 8 bits is desirable.
決定方法は、人肌と判定されたブロックの輝度値を利用する。人肌ブロックの輝度平均Y人肌を算出することにより、画像中の人肌部分の明るさの指標を取得出来る。その値を予め設定されたあるターゲット輝度YTARGET、例えば輝度を10%アップする
YTARGET = Y人肌 × k ( k = 1.1)
となるような、テーブルを生成することにより、人肌部分を明るくする係数が求められる。より適切な係数を求めるために、人肌の輝度値に応じてターゲット輝度へのアップ率を変化させたり、画像全体の輝度値Y全体輝度を考慮し、それによりターゲット輝度を変化させたりすることも可能である。
YTARGET = Y人肌 × k(Y全体輝度)
求められたターゲット輝度から図8に示すような変換テーブルLUTY(逆光)を作成する。作成方法としては、直線で繋ぐ方法、またはそれにスムージング処理を行う方法、近似曲線を求める方法など、階調の急激な飛びがない作成方法が挙げられる。これによって、輝度を補正するYNEWが求められる。
The determination method uses the luminance value of the block determined to be human skin. By calculating the luminance average Y human skin of the human skin block, the brightness index of the human skin portion in the image can be acquired. The target brightness Y TARGET whose value is set in advance, for example, Y TARGET = Y human skin x k (k = 1.1) to increase the brightness by 10%
A coefficient that brightens the human skin portion is obtained by generating a table such that In order to obtain a more appropriate coefficient, the increase rate to the target luminance is changed according to the luminance value of the human skin, or the target luminance is changed by considering the luminance value Y overall luminance of the entire image. Is also possible.
Y TARGET = Y human skin x k (Y overall brightness )
A conversion table LUT Y (backlight) as shown in FIG. 8 is created from the obtained target luminance. Examples of the creation method include a creation method that does not cause a sharp jump in gradation, such as a method of connecting with a straight line, a method of performing smoothing thereto, or a method of obtaining an approximate curve. Thus, Y NEW for correcting the luminance is obtained.
また、輝度アップに伴い、彩度低下が発生するので、それを補正する必要がある。これは、輝度の増加率により変化し、
S(逆光) = f(YNEW − YORG)
により、算出される。f(Y)は、輝度の差が大きい程、彩度を補正するような関数が望ましい。
Further, as the luminance increases, the saturation decreases, and it is necessary to correct it. This varies with the rate of increase in brightness,
S (backlight) = f (Y NEW -Y ORG )
Is calculated by f (Y) is desirably a function that corrects the saturation as the difference in luminance increases.
最後の第三段階、補正実行処理では、上記で求められた逆光補正に関する補正係数LUTY(逆光)、S(逆光)を画像に適用する。元々の色差成分CbORG、CrORGに対して、下記式のように適用され、YNEW、CbNEW、CrNEWが、求められる。 In the final third stage, the correction execution process, the correction coefficients LUT Y (backlight) and S (backlight ) relating to the backlight correction obtained above are applied to the image. The original color-difference components Cb ORG and Cr ORG are applied as shown in the following equation, and Y NEW , Cb NEW , and Cr NEW are obtained.
YNEW = LUTY(逆光)[YORG]
CbNEW = CbORG × S(逆光)
CrNEW = CrORG × S(逆光)
以上述べた段階を経て、人肌部分を検出し、それに基づいて逆光補正が適用される。
Y NEW = LUT Y (backlight) [Y ORG ]
Cb NEW = Cb ORG × S (backlight)
Cr NEW = Cr ORG × S (backlight)
Through the above-described steps, the human skin portion is detected, and the backlight correction is applied based on the detected human skin portion.
(スケーリング部)
パネルにより設定された出力サイズ、変倍率、などから拡大・縮小の変倍率が決定される。変倍方法については、単純拡大・縮小やバイリニア法、バイキュービック法など幾つか方法が挙げられる。そのどれを選択するかは、そのシステム環境および求められる処理速度により、決定される。上述の各変倍手段については、本提案の本質とはならないので割愛する。
(Scaling part)
The enlargement / reduction scaling factor is determined from the output size and scaling factor set by the panel. As the scaling method, there are several methods such as simple enlargement / reduction, bilinear method, and bicubic method. Which one to select is determined by the system environment and the required processing speed. The above-described scaling means will be omitted because they are not the essence of this proposal.
(出力用データ変換部)
出力用データ変換部では、入力された信号YCbCr乃至RGBのデータに対し、プリンタのデバイス色への色変換を行う。例えば、6種類のインクを積載したプリンタであれば、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)、淡いシアン(LC)、淡いマゼンタ(LM)の信号に変換する。入力をRGB信号値とすると、(R,G,B)→(C,M,Y,K,LC,LM)の変換となる。
(Data converter for output)
The output data converter converts the input signals YCbCr to RGB data into printer device colors. For example, in the case of a printer loaded with six types of ink, the signals are converted into cyan (C), magenta (M), yellow (Y), black (K), light cyan (LC), and light magenta (LM) signals. . If the input is an RGB signal value, the conversion is (R, G, B) → (C, M, Y, K, LC, LM).
変換方法としては、いくつかの方法があるが、ここではルックアップテーブル(以下、LUT)と補間処理を用いた方法を一例として挙げる。 There are several conversion methods, but here, a method using a look-up table (hereinafter referred to as LUT) and interpolation processing is taken as an example.
事前に用意しておくLUTは、図9に示すようなRGB値をそれぞれ16レベルずつに16分割した4913点に対応するC,M,Y,K,LC,LM信号値が記述されており、入力R,G,Bの値に応じたC,M,Y,K,LC,LM値が参照される。R,G,Bの値が16分割した間にある場合は、補間処理によって求める。 The LUT prepared in advance describes C, M, Y, K, LC, and LM signal values corresponding to 4913 points obtained by dividing the RGB values as shown in FIG. 9 into 16 levels each. The C, M, Y, K, LC, and LM values corresponding to the values of the inputs R, G, and B are referred to. When the values of R, G, and B are between 16 divisions, they are obtained by interpolation processing.
補間方法の例として、四面体補間法を挙げる。四面体補間法とは、3次元空間の分割単位を四面体として、4つの格子点を用いる線形補間である。その手順として、まず図10(a)に示すように四面体への分割を行う。そして、ターゲットとなる点pが分割されたどの四面体に属するかを決定する。その四面体の4頂点をp0、p1、p2、p3とし、図10(b)に示すようにさらに細かい小四面体に分割される。また、拡張点の変換値をそれぞれf(p0)、f(p1)、f(p2)、f(p3)とすると、 An example of the interpolation method is a tetrahedral interpolation method. The tetrahedral interpolation method is linear interpolation using four grid points with a unit of three-dimensional space as a tetrahedron. As the procedure, first, as shown in FIG. 10A, division into tetrahedrons is performed. Then, the tetrahedron to which the target point p belongs is determined. The four vertices of the tetrahedron are defined as p0, p1, p2, and p3, and the tetrahedron is further divided into smaller tetrahedrons as shown in FIG. Also, if the conversion values of the extension points are f (p0), f (p1), f (p2), and f (p3), respectively,
(量子化部)
インク色に変換されたデータは、量子化処理が施される。これは、多ビットのデータを記録装置で記録可能なビット数に変換するものである。本実施例では、記録(1)/非記録(0)の1ビット2値であるプリンタの場合を考える。ここで、量子化方法としては、写真画像の量子化に最適となる誤差拡散法とする。また、入力信号は8ビットの0〜255とする。
(Quantization part)
The data converted into the ink color is subjected to quantization processing. This converts multi-bit data into the number of bits that can be recorded by a recording apparatus. In the present embodiment, a case of a printer having a 1-bit binary value of recording (1) / non-recording (0) is considered. Here, the quantization method is an error diffusion method that is optimal for the quantization of photographic images. The input signal is 8 bits from 0 to 255.
図11は誤差拡散法における、誤差分配方法を示す図である。ターゲットピクセルの信号値をL(0≦L≦255)とした時、しきい値THと比較を行う。その大小により、
L>TH ・・・・・・ 1(記録)
L≦TH ・・・・・・ 0(非記録)
と判定される。その時に発生する誤差E(=L−TH)は、図11の分配係数に従い周囲のピクセルに分配される。この処理をすべてのピクセル、すべてのインク色色C,M,Y,K,LC,LMに対して行うことで、1ビットの画像データ色C',M',Y',K',LC',LM'に量子化される。
FIG. 11 is a diagram showing an error distribution method in the error diffusion method. When the signal value of the target pixel is L (0 ≦ L ≦ 255), it is compared with the threshold value TH. Depending on its size,
L> TH ・ ・ ・ ・ ・ ・ 1 (Recording)
L ≦ TH ・ ・ ・ ・ ・ ・ 0 (not recorded)
It is determined. The error E (= L-TH) generated at that time is distributed to surrounding pixels according to the distribution coefficient shown in FIG. By performing this processing for all pixels and all ink color colors C, M, Y, K, LC, and LM, 1-bit image data colors C ′, M ′, Y ′, K ′, LC ′, Quantized to LM ′.
次に、上述の画像処理ブロックにおける、画像処理のフローを図12で説明する。STEP1201では、スキャナデータを読取りが行われる。STEP1202においては、入力データの変換処理が行われ、sRGB空間上の信号値になった後、STEP1203で像域分離処理が実行される。STEP1204ではその結果を受けて、文字部が加工処理される。STEP1205で、ユーザーがパネルにより逆光補正を設定したかを判断し、もし設定されていれば、STEP1206で、逆光補正が実行され、設定されていなければ、そのままSTEP1207へと進む。STEP1207では、拡大・縮小処理が必要かの判定を行い、もし必要であれば、STEP1208へと進み、スケーリング処理が実行される。必要なければ、そのままSTEP1209へと進み、出力用データ変換部により、プリンタのインク色へと変換される。STEP1210では、量子化処理が実行され、プリンタの記録可能なデータへと変換される。
Next, the flow of image processing in the above-described image processing block will be described with reference to FIG. In
以上、具体的な例を挙げて説明したように、本発明の実施形態1によれば、文字やグラフ、写真が混在しているドキュメントのコピーにおいて、そのうち写真部分から人肌を適切に抽出し、それに基づいて補正処理を行うことによって、失敗の少ない効果的な補正処理を実現することが出来る。 As described above, as described with specific examples, according to the first embodiment of the present invention, in a copy of a document including characters, graphs, and photographs, human skin is appropriately extracted from the photograph portion. By performing the correction process based on this, an effective correction process with few failures can be realized.
[他の実施形態]
上述での実施形態においては、複合機を例に挙げたが、さらに本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
[Other Embodiments]
In the above-described embodiment, a multi-function device has been described as an example. However, a further object of the present invention is to provide a storage medium (or recording medium) that records a program code of software that realizes the functions of the above-described embodiment as a system. Alternatively, it goes without saying that this can also be achieved by supplying the data to the apparatus and reading and executing the program code stored in the storage medium by the computer (or CPU or MPU) of the system or apparatus. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
Claims (4)
画像を取得する画像取得手段と、
前記画像取得手段により取得した画像に対し像域分離をする手段と、
該画像をあるブロックに分割する分割手段と、
前記像域分離の結果に応じ、ブロック毎に抽出処理の実行の有無を決定する手段と、
前記決定手段により、実行有りと判定されたブロックについてのみ抽出処理を実行する抽出手段と、
前記抽出手段により、抽出された特定部分に基づいて、画像補正係数を決定する画像補正係数決定手段と、
前記画像補正係数決定手段により決定された補正係数によって補正を行う画像補正手段とを有することを特徴とする画像処理装置。 In an image processing apparatus that extracts a specific part in an image and performs image processing based on the extraction,
Image acquisition means for acquiring images;
Means for separating an image area from the image obtained by the image obtaining means;
Dividing means for dividing the image into certain blocks;
Means for determining whether to perform extraction processing for each block according to the result of the image area separation;
Extraction means for executing extraction processing only for blocks determined to be executed by the determining means;
An image correction coefficient determination means for determining an image correction coefficient based on the specific portion extracted by the extraction means;
An image processing apparatus comprising: an image correction unit that performs correction using the correction coefficient determined by the image correction coefficient determination unit.
画像を取得する画像取得ステップと、
前記画像取得ステップにより取得した画像に対し像域分離をするステップと、
該画像をあるブロックに分割する分割ステップと、
前記像域分離の結果に応じ、ブロック毎に抽出処理の実行の有無を決定するステップと、
前記決定ステップにより、実行有りと判定されたブロックについてのみ抽出処理を実行する抽出ステップと、
前記抽出ステップにより、抽出された特定部分に基づいて、画像補正係数を決定する画像補正係数決定ステップと、
前記画像補正係数決定ステップにより決定された補正係数によって補正を行う画像補正ステップとを有することを特徴とする画像処理方法。 In an image processing method for extracting a specific portion in an image and performing image processing based on the extraction,
An image acquisition step of acquiring an image;
Separating the image area from the image obtained by the image obtaining step;
A dividing step of dividing the image into certain blocks;
Determining whether to perform extraction processing for each block according to the result of the image area separation; and
An extraction step for performing the extraction process only for the blocks determined to be executed by the determination step;
An image correction coefficient determination step for determining an image correction coefficient based on the specific portion extracted by the extraction step;
And an image correction step of performing correction using the correction coefficient determined in the image correction coefficient determination step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007200914A JP2009038580A (en) | 2007-08-01 | 2007-08-01 | Unit and method for processing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007200914A JP2009038580A (en) | 2007-08-01 | 2007-08-01 | Unit and method for processing image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009038580A true JP2009038580A (en) | 2009-02-19 |
Family
ID=40440115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007200914A Pending JP2009038580A (en) | 2007-08-01 | 2007-08-01 | Unit and method for processing image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009038580A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413337A (en) * | 2013-04-02 | 2013-11-27 | 大连理工大学 | Color fog generation method based on human-machine interaction |
-
2007
- 2007-08-01 JP JP2007200914A patent/JP2009038580A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413337A (en) * | 2013-04-02 | 2013-11-27 | 大连理工大学 | Color fog generation method based on human-machine interaction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5594382B2 (en) | Output image adjustment for image files | |
JP4632452B2 (en) | Image correction processing apparatus, image correction processing method, program, and storage medium | |
US7903872B2 (en) | Image-processing apparatus and method, computer program, and storage medium | |
EP2670125B1 (en) | Image processing device correcting color of border region between object and background in image | |
US20110150360A1 (en) | Adjustment for output image of image data | |
US8139269B2 (en) | Image processing apparatus, image processing method, image processing program, and storage medium | |
JP2008236759A (en) | Output image adjustment of image data | |
KR101309369B1 (en) | Image processing apparatus and control method | |
US20100182620A1 (en) | Image processing device and image processing method | |
JP2004023401A (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and record medium with the program recorded thereon | |
US7253923B2 (en) | Image processing apparatus | |
JP4010306B2 (en) | Output image adjustment for image files | |
JP4748796B2 (en) | Image processing apparatus and image processing method. | |
US11240401B2 (en) | Image processing apparatus and image processing method | |
JP4295465B2 (en) | Image processing device | |
JP2009071695A (en) | Image processor, image processing method, program, and storage medium | |
JP2009038580A (en) | Unit and method for processing image | |
JP3666439B2 (en) | Output image adjustment for image files | |
JP2006011754A (en) | Image processing device and image processing method | |
JP2006203528A (en) | Image processor, image processing program, and recording medium | |
JP2007043423A (en) | Image processing method and apparatus thereof | |
JP2009177426A (en) | Image processor and image processing method | |
JP4595965B2 (en) | Output image adjustment for image files | |
JP4636001B2 (en) | Output image adjustment for image files | |
JP2009038582A (en) | Unit and method for processing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100630 |