JP2004120092A - Image processing apparatus, image processing system, image processing method, storage medium, and program - Google Patents
Image processing apparatus, image processing system, image processing method, storage medium, and program Download PDFInfo
- Publication number
- JP2004120092A JP2004120092A JP2002277550A JP2002277550A JP2004120092A JP 2004120092 A JP2004120092 A JP 2004120092A JP 2002277550 A JP2002277550 A JP 2002277550A JP 2002277550 A JP2002277550 A JP 2002277550A JP 2004120092 A JP2004120092 A JP 2004120092A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target image
- area
- processing
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、例えば、画像を領域分割し、領域毎に、或いは必要な領域に対して、色調整又は色修正等の色処理を施す装置或いはシステムに用いられる、画像処理装置、画像処理システム、画像処理方法、それを実施するためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体、及び当該プログラムに関するものである。
【0002】
【従来の技術】
従来より例えば、画像を領域に分割し、領域毎に或いは必要な領域に対して、色調整又は色修正等の色処理を行うという画像処理は、印刷製版工程におけるカタログやチラシ等の作成や、DTP(Desk Top Publishing )等のディザイナー側において、画像レタッチソフトウェアを用いての画像調整等で頻繁に行われる処理である。
【0003】
ところで、画像を分割して類似色が同一領域となるようにし、その後、各領域に対して色処理するという画像処理では、処理対象の画像が、背景に当該背景色と区別ができる文字が描かれている画像のように、領域分割しやすい画像であるならば問題ない場合が多い。しかしながら、処理対象の画像が、自然画等のような画像である場合、具体的には、色の変化がなだらかな画像である場合、画像を領域分割して色処理しようとしても、領域分割した結果が人間の感覚と一致しない等のために、分割領域に対して実施した色処理に不具合を生じる場合がある。
【0004】
上記の不具合の代表的なものとしては、例えば、分割領域毎に色処理を行った結果、領域を分割している分割線が目立ってしまい、原画像には存在しなかった境界線である所謂擬似輪郭が発生し、原画像と比較しても、不自然な処理後画像が得られてしまう、という不具合が挙げられる。
【0005】
そこで、上記の問題点を解決するために、領域分割の精度を上げ、人間の感覚に近いような領域分割を行えることを目的とした画像処理方法として、例えば、特開平6−237372号公報等では、クラスタリングを行う空間を工夫して、領域分割の結果が、人間の感覚に近くなるようにする方法が提案されている。
【0006】
また、例えば、特開平11−306334号公報等では、対象画像を色及び座標空間上でクラスタリングして領域分割し、当該領域分割されたクラスタ間の色変化の小さい領域を曖昧領域として設定し、当該曖昧領域については、画像処理のパラメータを調整する方法が提案されている。
【0007】
【発明が解決しようとする課題】
しかしながら、特開平6−237372号公報等に記載の従来の画像処理方法では、領域分割処理をどのように工夫したとしても、人間の感覚に近い領域分割を行うことはかなり困難であると思われる。
また、特開平11−306334号公報等に記載の従来の画像処理方法では、領域分割処理を精度良く行うために、色処理の対象を原画像全体とする必要があり、この結果、領域分割に必要なメモリ容量及び演算量共に膨大なものとなってしまう。例えば、画像を領域分割して、前記分割された領域毎に異なる画像処理を行う場合、画像の実解像度でのプレスキャン及び領域分割と、画像領域毎の画像処理(実解像度)の2回の、実解像度でのスキャンが必要となる。
【0008】
そこで、本発明は、上記の欠点を除去するために成されたもので、処理対象の画像が如何なる画像であっても、良好な色処理後の画像を容易且つ効率的に提供できる、画像処理装置、画像処理システム、画像処理方法、それを実施するためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体、及び当該プログラムを提供することを目的とする。
【0009】
具体的には例えば、処理対象の画像を領域分割し、その後、各領域毎の色処理を行っても、領域の切り替わり部に擬似輪郭が生じないようにする。また、領域分割を行う際、これに要するメモリ量や演算量を少なくし、簡易的な領域分割を行えるようにする。
【0010】
【課題を解決するための手段】
斯かる目的下において、本発明は、対象画像を領域分割し、当該分割領域に対して色処理を施す画像処理装置であって、対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割する分割手段を備えることを特徴とする。
【0011】
また、本発明は、対象画像をプレスキャンすることで検出した対象画像の特徴に基づいて、対象画像への補正処理を行なう画像処理装置であって、上記プレスキャンの際に入力された対象画像の領域分割を行い、当該領域分割で確定しなかった領域については、上記補正処理の際に再度領域分割を行なう分割手段と、上記分割手段により得られた分割領域毎に、対象領域に応じた上記補正処理を施す処理手段とを備えることを特徴とする。
【0012】
また、本発明は、対象画像において、類似した色が同一領域となるよう領域分割を行うための画像処理方法であって、対象画像を入力する入力ステップと、上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とする。
【0013】
また、本発明は、対象画像をプレスキャンして対象画像の特徴を検出し、当該検出結果に基づき対象画像の補正処理を行なうための画像処理方法であって、上記プレスキャンの際に入力画像の領域分割を行い、上記プレスキャンの際の領域分割により確定しなかった領域については上記補正処理の際に再度領域分割を行ない、当該分割領域に応じた上記補正処理を行なう処理ステップを含むことを特徴とする。
【0014】
また、本発明は、コンピュータを所定の手段として機能させるためのプログラムであって、上記所定の手段は、対象画像を領域分割し、当該分割領域に対して色処理を施す装置或いはシステムが有する手段として、対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割する手段を備えることを特徴とする。
【0015】
また、本発明は、コンピュータを所定の手段として機能させるためのプログラムであって、上記所定の手段は、対象画像をプレスキャンすることで検出した対象画像の特徴に基づいて、対象画像への補正処理を行なう装置或いはシステムが備える手段として、上記プレスキャンの際に入力された対象画像の領域分割を行い、当該領域分割で確定しなかった領域については、上記補正処理の際に再度領域分割を行なう分割手段と、上記分割手段により得られた分割領域毎に、対象領域に応じた上記補正処理を施す処理手段とを備えることを特徴とする。
【0016】
また、本発明は、コンピュータに所定のステップを実行させるためのプログラムであって、上記所定のステップは、対象画像を類似した色が同一となるよう領域分割を行うための処理ステップとして、対象画像を入力する入力ステップと、上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とする。
【0017】
また、本発明は、コンピュータに所定のステップを実行させるためのプログラムであって、上記所定のステップは、対象画像をプレスキャンして対象画像の特徴を検出し、当該検出結果に基づき対象画像の補正処理を行なうための処理ステップとして、上記プレスキャンの際に入力画像の領域分割を行い、上記プレスキャンの際の領域分割により確定しなかった領域については上記補正処理の際に再度領域分割を行ない、当該分割領域に応じた上記補正処理を行なう処理ステップを含むことを特徴とする。
【0018】
また、本発明は、請求項14〜17の何れかに記載のプログラムをコンピュータ読み取り可能な記憶媒体に記録したことを特徴とする。
【0019】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて説明する。
【0020】
本発明は、例えば、図1に示すようなホストコンピュータ100に適用される。
本実施の形態のホストコンピュータ100は、画像を類似した色が同一となるよう分割した領域に対して色調整や色修正等の色処理を行う、或いは画像を分割した領域毎に色調整や色修正等の色処理を行う機能を有し、特に、画像を領域分割した後に領域毎に色処理を行っても、領域の切り替わり部に擬似輪郭が生じることがなく、また、領域分割に要するメモリ量及び演算量が少ない簡易的な領域分割を実施するように構成されている。
以下、本実施の形態のホストコンピュータ100の構成及び動作について具体的に説明する。
【0021】
<ホストコンピュータ100の構成>
ホストコンピュータ100には、上記図1に示すように、例えば、インクジェットプリンタ等のプリンタ106とモニタ105が接続されている。
【0022】
また、ホストコンピュータ100は、ワープロや、表計算、或いはインターネットブラウザ等のアプリケーションソフトウエア101と、OS(Operating System)102と、アプリケーションソフトウエア101によりOS102に対して発行される出力画像を示す各種描画命令群(イメージ描画命令、テキスト描画命令、及びグラフィックス描画命令等)を処理して印刷データを作成するプリンタドライバ103と、アプリケーションソフトウエア101により発行される各種描画命令群を処理してモニタ106で画面表示を行うモニタドライバ104とをソフトウエアとして有する構成としている。
【0023】
また、ホストコンピュータ100は、ソフトウエア101〜104が動作可能なハードウエアとして、中央演算処理装置(CPU)108、ハードディスクドライバ(HD)107、ランダムアクセスメモリ(RAM)109、及びリードオンリーメモリ(ROM)110等を備えている。
【0024】
上記図1に示される本実施の形態としては、例えば、ホストコンピュータ100として、一般的に普及しているIBM社のATコンパチのパーソナルコンピュータを使用し、このパーソナルコンピュータに対して、Microsoft社のWindows(R)98をOS102として使用し、任意の印刷可能なアプリケーション101をインストールし、そして、モニタ105とプリンタ106を接続した形態が挙げられる。
【0025】
<ホストコンピュータ100の一連の動作>
ホストコンピュータ100において、例えば、CPU108は、ユーザからの指示(モニタ105に表示された画像に基づいた指示)により、アプリケーション101を起動する。これにより、アプリケーション101は、文字等のテキストに分類されるテキストデータや、図形等のグラフィックスに分類されるグラフィックスデータ、或いは自然画等に分類されるイメージ画像データ等を用いた出力画像データを生成する。
【0026】
出力画像データを印刷出力する場合、アプリケーション101は、OS102に対して印刷出力要求を発行する。
具体的には例えば、アプリケーション101は、出力画像データについて、グラフィックスデータ部分はグラフィックス描画命令、イメージ画像データ部分はイメージ描画命令で構成される出力画像を示す描画命令群を、OS102に対して発行する。
【0027】
OS102は、アプリケーション101からの描画命令群を受け取り、当該描画命令群を印刷要求として、プリンタ106に対応するプリンタドライバ103に対して発行する。
【0028】
プリンタドライバ103は、OS102からの印刷要求(描画命令群)を処理することで、プリンタ105で印刷可能な印刷データを生成し、これをプリンタ106に対して転送する。
具体的には例えば、プリンタ106がラスタープリンタである場合、プリンタドライバ103は、OS102からの描画命令群に対して、順次画像補正処理を行い、順次RGB24ビットページメモリにラスタライズし、全ての描画命令をラスタライズした後に、RGB24ビットページメモリの内容を、プリンタ106が印刷可能なデータ形式、例えば、CMYKデータに変換し、これをプリンタ106に対して転送する。
【0029】
<プリンタドライバ103の構成>
プリンタドライバ103は、例えば、図22に示されるような色処理を実行するものであり、図2に示すように、画像補正処理部201及びプリンタ用補正処理部202を含んでいる。
【0030】
画像補正処理部201は、OS102からの描画命令群に含まれる色情報に対して、画像補正処理を行う。
具体的には例えば、画像補正処理部201は、描画命令群により示される画像全体を、そのRGB色情報に基づき領域分割し、分割領域毎に異なる色変換を行なう。
【0031】
プリンタ用補正処理部202は、先ず、画像補正処理部201で画像補正処理された色情報に基づき、描画命令群をラスタライズすることで、RGB24ビットページメモリ上にラスター画像を生成する。そして、プリンタ用補正処理部202は、当該ラスター画像を構成する各画素に対して、プリンタ106の色再現性に依存したCMYKデータを生成し、これをプリンタ106に対して転送する。
【0032】
<画像補正処理部201の全体動作>
図3は、画像補正処理部201の全体動作をフローチャートにより示したものである。
【0033】
ステップS301:
画像補正処理部201は、OS102からの描画命令群により示される画像全体(以下、「原画像」とも言う)をプレスキャンすることで、領域テーブルを生成する。
【0034】
具体的には例えば、画像補正処理部201は、原画像(図5)をプレスキャンすることで、原画像全面の情報を収集し、この情報に基づいて、原画像を領域分割し、領域テーブルを生成する。ここで、領域テーブルとは、原画像(図5)に対応して、例えば、「緑の領域」、「空の領域」、「肌の領域」などをあらわすフラグを記した「2次元の座標値−領域フラグ」の形式のテーブル(図8)のことである。
【0035】
尚、プレスキャン処理時では、画像補正処理部201は、原画像を構成する全画素について処理するのではなく、例えば、原画像全面について640画素×480画素分をサンプリングし、このサンプリング後の画像(図6)について処理を行う。
このように処理対象画素数を減らすことにより、領域分割処理時のメモリ使用量軽減及び処理の高速化を図ることができる。
【0036】
ステップS302:
画像補正処理部201は、ステップS301で生成した領域テーブル(図8)を参照し、これに基づいて、原画像を分割した領域毎(ラスタ毎)に、当該分割領域に応じた画像変換(当該分割領域毎に異なる画像処理)を行う。
【0037】
<画像補正処理部201における領域テーブル設定処理(ステップS301)>図4は、画像補正処理部201において、上記図3に示したステップS301の処理を実施するための構成を示したものである。
画像補正処理部201は、上記図4に示すように、画像入力部401、画像サンプル部402、画像信号変換部403、画像再サンプル部404、エッジ抽出部405,406、領域フラグ設定部407、境界領域選択部408、及び境界領域フラグ設定部409を備えている。
【0038】
特に、本実施の形態では、上記図4に示す構成において、画像サンプル部402及び画像再サンプル部404でサンプリングを行った入力画像データ(原画像データ)について、エッジ抽出部405,406でエッジ抽出を行い、領域フラグ設定部407において、エッジ抽出により取得した空間周波数情報、及び入力画像の色情報に基づき領域分割を行なう。このとき、サンプリング後の画像データからは正確に領域分割できない領域については、詳細は後述するが、画像補正時に実解像度での領域分割を行い、当該分割領域に応じた画像補正処理を行なう。
【0039】
具体的には、先ず、画像入力部401は、OS102からの描画命令群により構成される画像、例えば、図5に示すような、RGB形式の画像データ500を入力画像データとして、画像サンプル部402に対して入力する。ここで図5の入力画像の画像サイズは、例えば、2560画素×1920画素のデータである。
【0040】
画像サンプル部402は、画像入力部401からの入力画像データ500をサンプリングし、例えば、図6に示すような、640画素×480画素のサイズのサムネイル程度の画素数にまで間引いた画像データ501を生成する。
なお、図6では、原画像(図5)にサンプリング間隔を記した模式的な描き方をしているが、実際には、図6の1マスの画素値は、原画像(図5)の対応する領域の画素値の平均値となっている。
画像信号変換部403は、画像サンプル部402で得られた画像データ501を、YCrCb形式の画像データに変換する。
【0041】
画像再サンプル部404は、画像サンプル部402と同様にして、画像信号変換部403による変換後の画像データをサンプリングし、例えば、図7に示すような画像データ502を生成する。ここで、図7は、320画素×240画素となっている。
エッジ抽出部405は、画像再サンプル部404で得られた画像データ502から、低周波数領域を抽出することで、低周波エッジ画像を生成する。
【0042】
エッジ抽出部406は、画像信号変換部403による変換後の画像データから、中周波数領域を抽出することで、中周波エッジ画像を生成する。
【0043】
領域フラグ設定部407に対しては、エッジ抽出部405で得られた低周波エッジ画像、エッジ抽出部406で得られた中周波エッジ画像、及び画像信号変換部403による変換後の画像(無変換の640画素×480画素のYCrCb形式の間引き画像)が入力される。
【0044】
領域フラグ設定部407は、詳細は後述するが、図6の入力画像に基づいて、例えば、図8に示されるような、緑領域、肌領域、及び空領域等の特定色領域(上記図8では、これらの特定色色領域を異なるタイプの斜線で示す)に対応したフラグを割り当て、当該境界フラグからなる境界なしフラグテーブルを生成する。
【0045】
ところで、画像を粗く間引いた間引き画像上で領域分割を行っても、上記図8に示される間引き画像上での境界領域は、上記図5に示した原画像(実解像度画像)500の境界領域には厳密に対応しない。すなわち、図8の領域テーブルの解像度は、図5の原画像よりも解像度が粗く設定されているため、図8の領域テーブルの解像度では表現し得ない、原画像(図5)における細かな構造物については、誤判定されてしまったり、原画像(図5)の解像度では2つに分割されるべき領域が、図8の領域テーブルの解像度では,どちらか一方の領域として認識されてしまう場合がある。
【0046】
そこで、本実施の形態では、本処理(上記図3に示したステップS301の処理)において、上記図8に示すように粗い領域分割を行い、その境界部分については、本スキャン時に、原画像(実解像度画像)500の解像度で再領域分割を行うようにしている。
【0047】
具体的には、境界領域選択部408は、領域フラグ設定部407で設定された境界なし領域テーブルに基づいて、例えば、図9に示すように、「○(白丸)」で示す領域を選択する。
ここでの境界領域の選択では、例えば、図10に示すように、8近傍領域について、当該8近傍画素中の3画素以上、注目点と異なる領域が含まれている場合に、境界領域と見なすようにする。
【0048】
境界領域選択部408で選択された領域、例えば、図11に示すような、斜線で塗りつぶされていない領域については、境界領域フラグ設定部409により、図12に示すように境界領域フラグを設定する。
【0049】
したがって、上記図3に示したステップ301の領域テーブルの設定では、例えば、緑領域、肌領域、及び空領域等の特定色領域と、境界領域と、これらを除いた非特定色領域とに分割された、サムネイル程度の間引き画像サイズの画像についての領域テーブルが生成されることになる。
【0050】
領域フラグ設定部407は、例えば、図13に示すような構成により、境界なし領域テーブルを設定する。
【0051】
具体的には、まず、領域フラグ設定部407には、上述したように、エッジ抽出部405で得られた低周波エッジ画像、エッジ抽出部406で得られた中周波エッジ画像、及び画像信号変換部403による変換後の画像(無変換の640画素×480画素のYCrCb形式の間引き画像)が入力され、領域フラグ設定部407は、これらの入力画像に基づいて、領域識別のためのフラグを設定することで領域テーブルを生成し、これを出力する。
【0052】
このため領域フラグ設定部407は、上記図13に示すように、低周波域判別部611及び中周波域判別部612を含む周波数判定部610と、色相判定部621、明度判定部622、及び彩度判定部623を含む色度判定部620と、領域決定部630と、領域フラグ設定部640とを備えている。
【0053】
ここでは説明の簡単のため、例えば、間引き画像を、640画素×480画素サイズのYCrCbデータの画像とし、低周波領域のエッジ画像(低周波エッジ画像)を、320画素×240画素サイズのYデータをLaplacianフィルタで処理したグレースケール画像とし、中周波領域のエッジ画像(中周波エッジ画像)を、640画素×480画素サイズのYデータをLaplacianフィルタで処理したグレースケール画像としている。
【0054】
領域フラグ設定部407において、先ず、低周波エッジ画像は、低周波域判定部611に対して入力され、中周波エッジ画像は、中低周波域判定部612に対して入力され、間引き画像は、色度判定部620に対して入力される。
【0055】
低周波域判定部611、中低周波域判定部612、色度判定部620に含まれる色相判定部621、明度判定部622、及び彩度判定部623はそれぞれ、例えば、図14に示されるような分割手法(定量的な分割条件)に従って、入力画像の領域分割を行う。
領域決定部630は、低周波域判定部611、中低周波域判定部612、色相判定部621、明度判定部622、及び彩度判定部623による領域分割結果に基づいて、該当する領域を特定する。
【0056】
尚、どの領域にも該当しない領域については、「その他の領域」として分類される。
【0057】
領域フラグ設定部640は、領域決定部630により特定された領域に基づいて、領域テーブル上の対応する箇所に該当する領域のフラグを設定し、これを境界なし領域テーブルとして出力する。
【0058】
尚、定量的な分割条件としては、上記図14に示したものに限られることはなく、例えば、図15に示すような条件をも適用可能である。
上記図15に示す分割条件において、「Laplacian320×240」は、320画素×240画素に再サンプルされたY画像をLaplacianフィルタで処理したものを示し、「Laplacian640×480」は、640画素×480画素にサンプルされたY画像を処理したものを示す。
また、上記図15に示す分割条件では、全ての特徴量についての閾値に従って処理が実行されることになるが、例えば、図16に示されるような確率的な判定結果に従って処理を実行するように構成してもよい。この場合、当該判定結果を、それぞれの領域である確率を用いて、重み付けベクトルに反映させるようにすればよい。
【0059】
上述のように本実施の形態では、従来の色度を用いた領域分割の構成に加えて、周波数領域での条件を分割の条件とするように構成しているので、領域分割の精度を高めることができる。また、周波数領域での条件に従って、入力画像のプレスキャン時に収集する間引き画像を用いて処理することで、実空間領域でのフィルタ処理を高速に行うことが可能となる。
【0060】
<画像補正処理部201における領域別画像変換処理(ステップS302)>
図17は、画像補正処理部201において、上記図3に示したステップS302の処理を実施するための構成を示したものである。
画像補正処理部201は、上記図17に示すように、上記図4に示した画像入力部401及び画像信号変換部403と共に、セレクタ410、局所領域フラグ設定部411、局所領域画像処理決定部412、領域毎画像処理決定部413、境界領域フラグ選択部414、セレクタ415、画像変換部416、画像信号変換部417、及び画像出力部418を備えている。
【0061】
上記図17に示す構成では、原画像のプレスキャン時に、上記図4に示した構成(上記図3に示したステップS301の領域テーブル設定処理を実施するための構成)により得られた領域テーブルデータに基づき、対応する画像領域毎に異なる画像変換を行う。
【0062】
本発明は、領域分割の精度を上げるために、色味による分割及び周波数領域での分割において、
1.低解像度のサムネイル画像を使用しての粗い領域分割
2.原画像と同じ(または近い)解像度での領域再分割(1で決定しきれない部分のみ)
というように、2段構えの領域分割をおこなうことで、処理が軽く、必要となるメモリ容量の少ない領域分割を行うことができる。
【0063】
尚、ここで使用する領域テーブルデータは、処理対象の入力画像(図5)のサイズが2560画素×1920画素であるのに対し、入力画像をサンプリングした640画素×480画素となっており、相対的に小さな(解像度が粗い)サイズとなっている。
【0064】
したがって、2560画素×1920画素の画像サイズでは表現可能だが、640画素×480画素でサンプリングすると、その形状が崩れてしまうような細かな構造物(エッジ等)がある場合には、原画像では細かな構造物(エッジ等)の左右で色味が変化していたとしても、粗い解像度での領域分割が行なわれた結果、上記構造物(エッジ等)の左右とも同じ色領域として変換されてしまい、細かな構造物を表現できなくなってしまう場合がある。
【0065】
そこで、本発明では、原画像よりも低い解像度で大まかに領域分割を行い、低解像度の領域分割での分割領域の境界部分については、画像変換の直前でより高い解像度で再分割を行なうことで、解像度の高い原画像の変換において、高解像度な原画像に対して、不自然な変換が行なわれないようにしている。
【0066】
具体的には、先ず、画像入力部401は、上記図5に示したような画像データ(RGB形式の画像データ)500を入力する。
画像入力部401により入力された画像データは、以下に説明するような「境界領域でない場合」と「境界領域である場合」に分けて処理される。
【0067】
境界領域でない場合:
画像信号変換部403は、画像入力部401により入力されたRGB形式の画像データを、YCrCb形式の画像データに変換する。
【0068】
画像処理決定部413は、画像信号変換部403による変換後の画像データについて、ステップS301の領域テーブル設定処理で得られた領域テーブルを参照し、現在の変換対象の画素が境界領域であるか否かを調べ、この結果、境界領域でない場合、領域テーブルに設定されたフラグ(領域識別番号)に基づいて、例えば、緑領域用色処理、肌領域用色処理、空領域用色処理、及び非特定色領域用色処理の重み付けベクトルWunitを決定する。
【0069】
具体的には例えば、上記図5に示す画像上の領域G0について、領域テーブルでは、上記図12の“G0”部分に示すように、緑領域のフラグ(領域識別番号)が設定されている。
【0070】
したがって、画像処理決定部413は、上記の設定に基づいて、
Wunit={1(緑領域),0(肌領域),0(空領域),0(非特定領域)}
なる色処理の重み付けベクトルWunitを設定する。
【0071】
セレクタ415は、境界領域でない場合に境界領域フラグ選択部414から供給される非境界領域を示す信号に基づいて、画像処理決定部413で設定された重み付けベクトルWunitを選択して画像変換部416に供給する。
画像変換部416は、画像信号変換部403による変換後の画像データを、セレクタ415からの重み付けベクトルWunitで重み付けした処理により画像変換する。
【0072】
画像変換部416による変換後の画像データ(YCrCb形式の画像データ)は、画像信号変換部417によりRGB形式の画像データに変換され、画像出力部418を介して出力される。
【0073】
境界領域である場合:
画像信号変換部403は、画像入力部401により入力されたRGB形式の画像データを、YCrCb形式の画像データに変換する。
【0074】
画像処理決定部412は、画像信号変換部403による変換後の画像データについて、ステップS301の領域テーブル設定処理で得られた領域テーブルを参照し、現在の変換対象の画素が境界領域であるか否かを調べ、この結果、境界領域であることを認識すると(上記図12参照)、画素毎に順次、画像処理を決定する。
【0075】
具体的には例えば、本実施の形態では、原画像(図5)よりも粗い解像度の領域テーブル(図8)によって定められた画像の境界領域において、境界前後で画像処理が変化することによって生じる階調の不連続を防ぐために、局所領域画像処理決定部412は、間引き画像での近傍領域での画像処理、及び局所領域フラグ設定部411で設定された領域での画像処理のそれぞれについて、荷重平均を取得し、これに基づいて、色処理の重み付けベクトルWlocalを生成して出力する。
【0076】
セレクタ415は、境界領域である場合に境界領域フラグ選択部414から供給される境界領域を示す信号に基づいて、画像処理決定部412で設定された重み付けベクトルWlocalを選択して画像変換部416に供給する。
画像変換部416は、画像信号変換部403による変換後の画像データを、セレクタ415からの重み付けベクトルWlocalで重み付けした処理により画像変換する。
【0077】
画像変換部416による変換後の画像データ(YCrCb形式の画像データ)は、画像信号変換部417によりRGB形式の画像データに変換され、画像出力部418を介して出力される。
【0078】
図18は、上記図17に示した局所領域フラグ設定部411の構成を具体的に示したものである。
局所領域フラグ設定部411は、上記図18に示すように、色相判定部701、明度判定部702、彩度判定部703、局所領域決定部704、及び局所領域フラグ設定部705を備えている。
【0079】
局所領域フラグ設定部411に対しては、処理対象の領域が境界領域である場合に、セレクタ410を介したYCrCb形式の画像データが入力される。局所領域フラグ設定部411は、上記図18に示した構成により、入力画像データにおいて、処理対象の領域が局所的にどの領域に属しているかを判定する。
【0080】
すなわち、局所領域フラグ設定部411において、上記図4及び図13に示した領域フラグ設定部407と同様に、色相判定部701、明度判定部702、及び彩度判定部703は、入力画像データについて、該当する領域を判定する。
【0081】
局所領域決定部704は、色相判定部701、明度判定部702、及び彩度判定部703による判定結果に基づいて、該当する領域を決定する。なお、ここでの判定は図15の周波数領域以外の項目に基づいて判定を行う。
局所領域フラグ設定部705は、局所領域決定部704により決定された領域に基づいて、該当する領域の識別フラグ(領域識別フラグ)を出力する。
【0082】
尚、ここでは一例として、フィルタ処理を用いた空間周波数領域での判定は、実解像度画像に対して行うと演算量が多くなることから、色度のみを用いて判定を行うようにしているが、例えば、演算量の増加に対応できるような装置或いはシステムで本実施の形態の構成を実現する場合、勿論実解像度画像に対する空間周波数領域での判定を併用してもよい。
また、ここでは一例として、上記図4及び図13に示した領域フラグ設定部407と同様に、閾値による処理を実行し、スカラーのフラグ(領域識別フラグ)を出力する構成としているが、例えば、上記図16に示したような確率的な判定を行ない、ベクトル形式のフラグを出力し、これを重み付けベクトルWlocalに反映させるようにしてもよい。
【0083】
図19は、上記図17に示した画像変換部416の構成を具体的に示したものである。
画像変換部416は、入力画像データ(原画像データ)を、色処理の重み付けベクトルWlocalで重み付けした処理により画像変換するものであり、上記図19に示すように、LUT演算部801〜803,809、重み付け処理部804〜807、及び加算器808を備えている。
【0084】
画像変換部416には、セレクタ415(上記図17参照)により選択された各色処理の重み付けベクトルWと、画像信号変換部403(上記図17参照)によりYCrCb形式に変換された画像データが入力される。
【0085】
LUT演算部801〜803,809はそれぞれ、該当する色領域用の色処理テーブルが格納されたデータベース(不図示)を有し、当該色処理テーブルにより、入力画像データを変換する。
重み付け処理部804〜807はそれぞれ、LUT演算部801〜803,809の中の対応する演算部から供給された画像データを、該当する色処理の重み付けベクトルWに従って重み付けして出力する。
加算器808は、重み付け処理部804〜807の各出力を加算し、この加算結果を、YCrCb形式の変換後画像データとして出力する。
【0086】
尚、LUT演算部801〜803,809がそれぞれ有するデータベース(DB)には、例えば、緑色領域用に最適化された色変換テーブル、空色領域用に最適化された色変換テーブル、肌色領域用に最適化された色変換テーブル、及びそれ以外の領域用の汎用の色変換テーブルが格納されている。これらの色変換テーブル(LUT)の形式としては、例えば、R,G,B={0,32,64,96,128,160,192,224,255}なる格子点について変換後のRGB値が記録された「3D LUT」の形式を用いている。したがって、LUT演算部801〜803,809は、「3D LUT」の色変換テーブルを用いて、入力画像データを、例えば、四面体補間等の公知の補間技術を用いた補間演算で処理することで、入力画像データのRGB値を変換する。
【0087】
図20は、上記図17に示した局所領域画像処理決定部412の構成を具体的に示したものである。
局所領域画像処理決定部412は、領域テーブルからのデータ、及び局所領域フラグ設定部411で設定された局所領域に対応する領域識別フラグに基づき、色処理の重み付けベクトルWlocalを生成して出力するものであり、上記図20に示すように、近傍領域フラグ検知部901及び領域フラグ合成部902を備えている。
【0088】
近傍領域フラグ検知部901は、実画像解像度よりも低い640画素×480画素の低解像度でみた場合の近傍領域の領域識別フラグを調べ、各領域別に計数する。
領域フラグ合成部902は、境界前後での不連続階調の発生を抑えるために、局所領域フラグ設定部411で得られた領域識別フラグと、近傍領域フラグ検知部901により得られた近傍領域の領域識別フラグとを、各領域識別フラグのカウント値(計数)に従って重み付けして合成することで、各領域の重み付けベクトルWlocalを生成して出力する。
【0089】
図21は、上記図20に示した局所領域画像処理決定部412の構成を、より詳細に示したものである。
【0090】
局所領域画像処理決定部412は、上記図21に示すように、肌領域係数部911、空領域係数部912、緑領域係数部913、その他領域係数部914、加算器915、カウンタ916、除算器917、及びベクトル化部918を備えている。
【0091】
局所領域画像処理決定部412は、上記図21に示す構成により、領域テーブル上で境界領域となっている領域について、局所的な画像情報を元に判定された領域情報と、周囲との整合性をとることで、精密な領域分割を行いつつ、階調の不連続が生じないようにする。
【0092】
局所領域画像処理決定部412は、局所領域フラグ設定部411で設定された局所的なフラグと、領域テーブルの処理対象の注目画素の近傍領域とに基づいて、領域重み付けベクトルWlocalを出力する。
【0093】
重み付けベクトルWlocalは、領域テーブルの処理対象の注目画素の近傍領域での肌、空、緑、その他の色領域、それぞれの計数結果(計数部911〜914の計数結果)と、局所領域フラグ設定部411で設定された局所的なフラグとの総和が“1”となるように、除算器917により正規化し、これをベクトル化部918により単位ベクトル(Wlocal)として出力する。
【0094】
尚、本実施の形態では、領域分割された領域毎に異なる色処理を行うようにしたが、これに限られることはなく、例えば、分割領域毎に異なるフィルタ処理を行うことで、銀塩カメラで背景のぼかしに用いられるソフトフォーカスフィルタのような効果を出すことも可能である。
【0095】
また、本発明の目的は、本実施の形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読みだして実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読み出されたプログラムコード自体が本実施の形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体及び当該プログラムコードは本発明を構成することとなる。
プログラムコードを供給するための記憶媒体としては、ROM、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード等を用いることができる。
また、コンピュータが読みだしたプログラムコードを実行することにより、本実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等が実際の処理の一部又は全部を行い、その処理によって本実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって本実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0096】
【発明の効果】
以上説明したように本発明では、対象画像を領域分割し、当該分割領域に対して色処理(補正処理)を施すにあたり、対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割するように構成した。
これにより、領域分割された後に各領域毎の色処理を行っても、領域の切り替わり部に擬似輪郭等が生じることはなく、良好な色処理後の画像を提供することができる。
【0097】
また、対象画像をサンプリングした低解像度の画像を領域分割の対象とするように構成すれば、領域分割に要するメモリ量や演算量の少ない簡易的な領域分割を行うことができる。
【図面の簡単な説明】
【図1】本発明を適用したホストコンピュータの構成を示すブロック図である。
【図2】プリンタドライバの構成を示すブロック図である。
【図3】画像情報収集及び画像変換の処理を説明するためのフローチャートである。
【図4】画像変換部の構成を示すブロック図である。
【図5】処理対象となる画像(原画像)の一例を説明するための図である。
【図6】原画像のプレスキャンにおいて、画像情報を収集する対象となる640画素×480画素のサイズの間引き画像の一例を説明するための図である。
【図7】640画素×480画素のサイズの間引き画像を再度サンプルした低解像度画像の一例を説明するための図である。
【図8】特定色領域に対応したフラグのみが割り当てられた、境界フラグからなる境界なしフラグテーブルの一例を説明するための図である。
【図9】境界なしフラグテーブルにおいて、で境界領域として選択される領域を説明するための図である。
【図10】注目画素の8近傍を説明するための図である。
【図11】境界領域と原画像の対応を説明するための図である。
【図12】境界領域フラグの設定された領域テーブルを説明するための図である。
【図13】領域フラグ設定部の構成を示すブロック図である。
【図14】定性的な領域分割の基準を説明するための図である。
【図15】定量的な領域分割の基準を説明するための図である。
【図16】特徴量について閾値による処理方法のバリエーションを説明するための図である。
【図17】画像補正処理部の構成を示すブロック図である。
【図18】局所領域フラグ設定部の構成を示すブロック図である。
【図19】画像変換部の構成を示すブロック図である。
【図20】局所領域画像処理決定部の構成を示すブロック図である。
【図21】局所領域画像処理決定部の構成を詳細に示すブロック図である。
【図22】プリンタドライバで行われる色処理を説明するための図である。
【符号の説明】
100 ホストコンピュータ
101 アプリケーション
102 OS
103 プリンタドライバ
104 モニタドライバ
105 モニタ
106 プリンタ
107 HD
108 CPU
109 RAM
110 ROM
201 画像補正処理部
401 画像入力部
402 画像サンプル部
403 画像信号変換部
404 画像再サンプル部
405 エッジ抽出部(低周波)
406 エッジ抽出部(中周波)
407 領域フラグ設定部
408 境界領域選択部
409 境界領域フラグ設定部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is, for example, an image processing apparatus, an image processing system, which is used for an apparatus or a system that divides an image and performs color processing such as color adjustment or color correction for each area or a necessary area. The present invention relates to an image processing method, a computer-readable storage medium storing a program for performing the image processing method, and the program.
[0002]
[Prior art]
Conventionally, for example, image processing of dividing an image into regions, and performing color processing such as color adjustment or color correction for each region or a necessary region is performed by creating a catalog or a flyer in a printing plate making process, This process is frequently performed on a designer side such as DTP (Desk Top Publishing) by image adjustment using image retouching software.
[0003]
By the way, in image processing in which an image is divided so that similar colors become the same area, and then color processing is performed on each area, an image to be processed is drawn on the background with characters that can be distinguished from the background color. In many cases, there is no problem if the image is easy to be divided into regions, such as a divided image. However, if the image to be processed is an image such as a natural image, specifically, if the image has a gradual color change, even if the image is divided into regions and color processing is performed, the region is divided. In some cases, the color processing performed on the divided area may cause a problem because the result does not match the human sense.
[0004]
As a typical example of the above-mentioned inconvenience, for example, as a result of performing color processing for each divided region, a dividing line dividing the region is conspicuous, and is a so-called boundary line that did not exist in the original image. There is a problem that a pseudo contour occurs and an unnatural processed image is obtained even when compared with the original image.
[0005]
Therefore, in order to solve the above-mentioned problems, as an image processing method aiming to increase the accuracy of region division and perform region division close to human sensation, for example, JP-A-6-237372 and the like A method has been proposed in which a space for performing clustering is devised so that the result of region division is closer to human senses.
[0006]
In addition, for example, in Japanese Patent Application Laid-Open No. H11-306334, a target image is clustered on a color and coordinate space to divide an area, and an area where a color change between the divided areas is small is set as an ambiguous area. Regarding the ambiguous area, a method of adjusting image processing parameters has been proposed.
[0007]
[Problems to be solved by the invention]
However, in the conventional image processing method described in Japanese Patent Application Laid-Open No. 6-237372 and the like, it seems that it is quite difficult to perform a region division close to a human sense, no matter how the region division process is devised. .
Further, in the conventional image processing method described in Japanese Patent Application Laid-Open No. H11-306334, it is necessary to perform color processing on the entire original image in order to perform region division processing with high accuracy. Both the required memory capacity and the amount of calculation are enormous. For example, in a case where an image is divided into regions and different image processing is performed for each of the divided regions, pre-scanning and region division at an actual resolution of the image and image processing (real resolution) for each image region are performed twice. Scanning at the actual resolution is required.
[0008]
Therefore, the present invention has been made to eliminate the above-mentioned drawbacks, and is capable of easily and efficiently providing a good color-processed image regardless of the image to be processed. It is an object to provide an apparatus, an image processing system, an image processing method, a computer-readable storage medium storing a program for executing the image processing method, and the program.
[0009]
Specifically, for example, even if an image to be processed is divided into regions, and then color processing is performed for each region, a pseudo contour is not generated at a region switching portion. In addition, when performing area division, the amount of memory and the amount of calculation required for this are reduced, so that simple area division can be performed.
[0010]
[Means for Solving the Problems]
For this purpose, the present invention relates to an image processing apparatus that divides a target image into regions and performs color processing on the divided regions, and performs color processing on the target image based on color information and spatial frequency information obtained from the target image. It is characterized by comprising a dividing means for dividing an image into regions.
[0011]
The present invention is also an image processing apparatus for performing a correction process on a target image based on characteristics of the target image detected by pre-scanning the target image, wherein the target image input at the time of the pre-scan is provided. For the areas that are not determined by the area division, a dividing unit that performs the area division again at the time of the above-described correction processing, and a division area obtained by the above-described division unit, according to the target area. Processing means for performing the correction processing.
[0012]
Further, the present invention is an image processing method for performing area division so that similar colors become the same area in a target image, comprising: an input step of inputting a target image; and a target image input by the input step. A color information recognizing step of recognizing the color information of the target image; a spatial frequency information recognizing step of recognizing the spatial frequency information of the target image input by the inputting step; a color information recognized by the color information recognizing step; An image area recognizing step of recognizing a target image area based on the spatial frequency information recognized in the information recognizing step.
[0013]
Further, the present invention is an image processing method for pre-scanning a target image to detect characteristics of the target image, and performing a correction process on the target image based on the detection result. And performing a region division again on the region not determined by the region division at the time of the pre-scan in the correction process, and performing the correction process according to the divided region. It is characterized by.
[0014]
Further, the present invention is a program for causing a computer to function as predetermined means, wherein the predetermined means divides a target image into regions and performs color processing on the divided regions. The present invention is characterized in that a means is provided for dividing a target image into regions based on color information and spatial frequency information obtained from the target image.
[0015]
Further, the present invention is a program for causing a computer to function as predetermined means, wherein the predetermined means corrects a target image based on characteristics of the target image detected by pre-scanning the target image. As means provided in the apparatus or system that performs the processing, the target image input at the time of the pre-scan is divided into regions, and the region not determined by the region division is divided again during the correction process. And a processing unit that performs the correction process according to the target area for each of the divided areas obtained by the dividing means.
[0016]
The present invention is also a program for causing a computer to execute a predetermined step, wherein the predetermined step is a processing step for dividing a target image into regions having similar colors. An input step of inputting, a color information recognition step of recognizing color information of the target image input by the input step, and a spatial frequency information recognition step of recognizing spatial frequency information of the target image input by the input step. And an image area recognition step of recognizing a target image area based on the color information recognized in the color information recognition step and the spatial frequency information recognized in the spatial frequency information recognition step.
[0017]
Further, the present invention is a program for causing a computer to execute a predetermined step, wherein the predetermined step detects a characteristic of the target image by pre-scanning the target image, and detects the characteristic of the target image based on the detection result. As a processing step for performing the correction processing, the area division of the input image is performed at the time of the pre-scan, and the area not determined by the area division at the time of the pre-scan is divided again at the time of the correction processing. And a processing step of performing the correction process according to the divided area.
[0018]
Further, the present invention is characterized in that the program according to any one of claims 14 to 17 is recorded on a computer-readable storage medium.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0020]
The present invention is applied to, for example, a
The
Hereinafter, the configuration and operation of the
[0021]
<Configuration of
As shown in FIG. 1, for example, a
[0022]
Further, the
[0023]
The
[0024]
In the present embodiment shown in FIG. 1, for example, a commonly used IBM compatible AT compatible personal computer is used as the
[0025]
<A series of operations of the
In the
[0026]
When printing output image data, the
Specifically, for example, regarding the output image data, the
[0027]
The
[0028]
The
More specifically, for example, when the
[0029]
<Configuration of
The
[0030]
The image
Specifically, for example, the image
[0031]
First, the printer
[0032]
<Overall Operation of Image
FIG. 3 is a flowchart showing the overall operation of the image
[0033]
Step S301:
The image
[0034]
Specifically, for example, the image
[0035]
At the time of the pre-scan processing, the image
By reducing the number of pixels to be processed in this way, it is possible to reduce the amount of memory used during the area division processing and to speed up the processing.
[0036]
Step S302:
The image
[0037]
<Area Table Setting Process in Image Correction Processing Unit 201 (Step S301)> FIG. 4 shows a configuration for performing the process of step S301 shown in FIG. 3 in the image
As shown in FIG. 4, the image
[0038]
Particularly, in the present embodiment, in the configuration shown in FIG. 4 described above, the
[0039]
More specifically, first, the
[0040]
The
In FIG. 6, the original image (FIG. 5) is schematically drawn in which sampling intervals are described. However, in actuality, the pixel values of one cell in FIG. 6 are the same as those of the original image (FIG. 5). It is the average value of the pixel values in the corresponding area.
The image
[0041]
The
The
[0042]
The
[0043]
For the area
[0044]
The area
[0045]
By the way, even if the area is divided on the thinned image obtained by roughly thinning the image, the boundary area on the thinned image shown in FIG. 8 is the boundary area of the original image (real resolution image) 500 shown in FIG. Does not correspond exactly. That is, since the resolution of the area table of FIG. 8 is set to be lower than that of the original image of FIG. 5, a fine structure in the original image (FIG. 5) cannot be expressed by the resolution of the area table of FIG. When an object is erroneously determined or an area to be divided into two at the resolution of the original image (FIG. 5) is recognized as one of the areas at the resolution of the area table in FIG. There is.
[0046]
Therefore, in the present embodiment, in this processing (the processing of step S301 shown in FIG. 3), coarse area division is performed as shown in FIG. Re-area division is performed at a resolution of (actual resolution image) 500.
[0047]
Specifically, the boundary
In the selection of the boundary region here, for example, as shown in FIG. 10, when eight or more neighboring regions include a region different from the attention point by three or more of the eight neighboring pixels, the region is regarded as a boundary region. To do.
[0048]
For a region selected by the boundary
[0049]
Therefore, in the setting of the area table in step 301 shown in FIG. 3, for example, a specific color area such as a green area, a skin area, and a sky area, a boundary area, and a non-specific color area excluding these are divided. Thus, an area table is generated for an image having a reduced image size of about a thumbnail.
[0050]
The area
[0051]
Specifically, first, as described above, the area
[0052]
Therefore, as shown in FIG. 13, the area
[0053]
Here, for simplicity of explanation, for example, the thinned image is an image of YCrCb data having a size of 640 pixels × 480 pixels, and an edge image in a low frequency region (low frequency edge image) is converted to a Y image having a size of 320 pixels × 240 pixels. Is a grayscale image processed by a Laplacian filter, and an edge image in a medium frequency region (middle frequency edge image) is a grayscale image obtained by processing Y data of 640 pixels × 480 pixels by a Laplacian filter.
[0054]
In the area
[0055]
The low frequency range determining unit 611, the middle and low frequency range determining unit 612, the
The
[0056]
Note that areas that do not correspond to any area are classified as “other areas”.
[0057]
The area
[0058]
The quantitative division conditions are not limited to those shown in FIG. 14, but may be, for example, the conditions shown in FIG.
In the division conditions shown in FIG. 15, “Laplacian 320 × 240” indicates a result of processing a Y image resampled to 320 pixels × 240 pixels by a Laplacian filter, and “Laplacian 640 × 480” indicates 640 pixels × 480 pixels. Shows the processed Y image.
Further, in the division condition shown in FIG. 15, the processing is performed according to the threshold values for all the feature amounts. For example, the processing is performed according to a stochastic determination result as shown in FIG. You may comprise. In this case, the determination result may be reflected in the weighting vector using the probability of each area.
[0059]
As described above, in the present embodiment, in addition to the conventional configuration of region division using chromaticity, a condition in the frequency domain is used as the condition of division, so that the accuracy of region division is improved. be able to. In addition, by performing processing using a thinned image collected at the time of pre-scanning an input image in accordance with a condition in the frequency domain, it is possible to perform filtering processing in the real space domain at high speed.
[0060]
<Image conversion processing for each area in the image correction processing unit 201 (step S302)>
FIG. 17 shows a configuration for performing the process of step S302 shown in FIG. 3 in the image
As shown in FIG. 17, the image
[0061]
In the configuration shown in FIG. 17, the area table data obtained by the configuration shown in FIG. 4 (the configuration for performing the area table setting process in step S301 shown in FIG. 3) at the time of pre-scanning the original image , A different image conversion is performed for each corresponding image area.
[0062]
The present invention, in order to increase the accuracy of the region division, in the division by color and in the frequency domain,
1. Coarse region segmentation using low resolution thumbnail images
2. Region re-segmentation at the same (or close) resolution as the original image (only the part that cannot be determined by 1)
As described above, by performing the two-stage region division, it is possible to perform the region division that is light in processing and requires a small memory capacity.
[0063]
The area table data used here is 640 pixels × 480 pixels obtained by sampling the input image while the size of the input image to be processed (FIG. 5) is 2560 pixels × 1920 pixels. The size is relatively small (coarse in resolution).
[0064]
Therefore, although it can be expressed with an image size of 2560 pixels × 1920 pixels, if there is a fine structure (edge or the like) whose shape is destroyed when sampling is performed at 640 pixels × 480 pixels, the original image will be fine. Even if the color changes between the right and left sides of a simple structure (edge, etc.), as a result of the area division with coarse resolution, the left and right sides of the above structure (edge, etc.) are converted as the same color area. In some cases, it becomes impossible to express a detailed structure.
[0065]
Therefore, in the present invention, the region is roughly divided at a lower resolution than the original image, and the boundary of the divided region in the low-resolution region division is re-divided at a higher resolution immediately before the image conversion. In the conversion of the high-resolution original image, unnatural conversion is not performed on the high-resolution original image.
[0066]
Specifically, first, the
The image data input by the
[0067]
If it is not a boundary area:
The image
[0068]
The image
[0069]
Specifically, for example, as for the area G0 on the image shown in FIG. 5, a flag (area identification number) of a green area is set in the area table as shown in the “G0” part of FIG.
[0070]
Therefore, the image
Wunit = {1 (green area), 0 (skin area), 0 (empty area), 0 (non-specific area)}
A color processing weight vector Wunit is set.
[0071]
The
The
[0072]
The image data (YCrCb format image data) converted by the
[0073]
If it is a boundary area:
The image
[0074]
The image
[0075]
Specifically, for example, in the present embodiment, in the boundary region of the image defined by the region table (FIG. 8) having a resolution lower than that of the original image (FIG. 5), the image processing changes before and after the boundary. In order to prevent the discontinuity of the gradation, the local area image
[0076]
The
The
[0077]
The image data (YCrCb format image data) converted by the
[0078]
FIG. 18 specifically shows the configuration of the local area
As shown in FIG. 18, the local area
[0079]
When the region to be processed is a boundary region, image data in YCrCb format is input to the local region
[0080]
That is, in the local area
[0081]
The local
The local area
[0082]
Here, as an example, the determination in the spatial frequency domain using the filter processing is performed using only the chromaticity because the calculation amount increases when the determination is performed on the real resolution image. For example, when the configuration of the present embodiment is realized by an apparatus or system capable of coping with an increase in the amount of calculation, it is needless to say that the determination in the spatial frequency domain for the real resolution image may be used together.
Further, as an example, similar to the area
[0083]
FIG. 19 specifically shows the configuration of the
The
[0084]
The weighting vector W of each color process selected by the selector 415 (see FIG. 17) and the image data converted into the YCrCb format by the image signal converting unit 403 (see FIG. 17) are input to the
[0085]
Each of the
Each of the
The adder 808 adds the outputs of the
[0086]
The database (DB) of each of the
[0087]
FIG. 20 specifically shows the configuration of the local area image
The local area image
[0088]
The neighborhood area
The area
[0089]
FIG. 21 shows the configuration of the local area image
[0090]
As shown in FIG. 21, the local area image
[0091]
With the configuration shown in FIG. 21 described above, the local area image
[0092]
The local area image
[0093]
The weighting vector Wlocal is obtained by calculating the skin, sky, green, and other color regions in the region near the target pixel to be processed in the region table, the respective counting results (the counting results of the counting
[0094]
In the present embodiment, different color processing is performed for each divided region. However, the present invention is not limited to this. For example, by performing different filtering for each divided region, It is also possible to produce an effect like a soft focus filter used for blurring the background.
[0095]
Further, an object of the present invention is to provide a storage medium storing program codes of software for realizing the functions of the present embodiment to a system or an apparatus, and a computer (or CPU or MPU) of the system or the apparatus to execute the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in the.
In this case, the program code itself read from the storage medium realizes the function of the present embodiment, and the storage medium storing the program code and the program code constitute the present invention.
As a storage medium for supplying the program code, a ROM, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, or the like can be used.
The functions of the present embodiment are realized not only by executing the program code read by the computer, but also by the operating system running on the computer based on the instruction of the program code. It goes without saying that a part or all of the above is performed and the function of the present embodiment is realized by the processing.
Further, after the program code read from the storage medium is written into a memory provided in an extension function board inserted into the computer or a function extension unit connected to the computer, the function extension is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the present embodiment.
[0096]
【The invention's effect】
As described above, in the present invention, when a target image is divided into regions and color processing (correction processing) is performed on the divided regions, the target image is divided based on color information and spatial frequency information obtained from the target image. It was configured to divide the area.
As a result, even if the color processing is performed for each area after the area is divided, a pseudo contour or the like does not occur at the area switching portion, and a good image after the color processing can be provided.
[0097]
In addition, if a low-resolution image obtained by sampling the target image is configured to be a target of region division, simple region division requiring a small amount of memory and a small amount of calculation can be performed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a host computer to which the present invention has been applied.
FIG. 2 is a block diagram illustrating a configuration of a printer driver.
FIG. 3 is a flowchart for explaining processing of image information collection and image conversion.
FIG. 4 is a block diagram illustrating a configuration of an image conversion unit.
FIG. 5 is a diagram for explaining an example of an image (original image) to be processed.
FIG. 6 is a diagram illustrating an example of a thinned-out image having a size of 640 pixels × 480 pixels from which image information is collected in pre-scanning of an original image.
FIG. 7 is a diagram for explaining an example of a low-resolution image obtained by re-sampling a thinned image having a size of 640 pixels × 480 pixels.
FIG. 8 is a diagram for explaining an example of a borderless flag table including border flags to which only flags corresponding to specific color areas are assigned.
FIG. 9 is a diagram for explaining an area selected as a boundary area in the no-boundary flag table.
FIG. 10 is a diagram for explaining eight neighborhoods of a target pixel.
FIG. 11 is a diagram for explaining a correspondence between a boundary region and an original image.
FIG. 12 is a diagram illustrating an area table in which a boundary area flag is set.
FIG. 13 is a block diagram illustrating a configuration of an area flag setting unit.
FIG. 14 is a diagram for describing a qualitative area division criterion.
FIG. 15 is a diagram for describing a criterion for quantitative area division.
FIG. 16 is a diagram illustrating a variation of a processing method based on a threshold value for a feature amount.
FIG. 17 is a block diagram illustrating a configuration of an image correction processing unit.
FIG. 18 is a block diagram illustrating a configuration of a local area flag setting unit.
FIG. 19 is a block diagram illustrating a configuration of an image conversion unit.
FIG. 20 is a block diagram illustrating a configuration of a local area image processing determination unit.
FIG. 21 is a block diagram illustrating a configuration of a local area image processing determination unit in detail.
FIG. 22 is a diagram illustrating color processing performed by a printer driver.
[Explanation of symbols]
100 Host computer
101 Application
102 OS
103 Printer Driver
104 monitor driver
105 monitor
106 Printer
107 HD
108 CPU
109 RAM
110 ROM
201 Image correction processing unit
401 Image input unit
402 Image sample part
403 Image signal converter
404 Image resampling unit
405 Edge extraction unit (low frequency)
406 Edge extractor (medium frequency)
407 area flag setting unit
408 Boundary area selector
409 Boundary area flag setting unit
Claims (18)
対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割する分割手段を備えることを特徴とする画像処理装置。An image processing apparatus that divides a target image into regions and performs color processing on the divided regions,
An image processing apparatus comprising: a dividing unit that divides a target image into regions based on color information and spatial frequency information obtained from the target image.
上記プレスキャンの際に入力された対象画像の領域分割を行い、当該領域分割で確定しなかった領域については、上記補正処理の際に再度領域分割を行なう分割手段と、
上記分割手段により得られた分割領域毎に、対象領域に応じた上記補正処理を施す処理手段とを備えることを特徴とする画像処理装置。An image processing apparatus that performs a correction process on a target image based on characteristics of the target image detected by pre-scanning the target image,
Dividing means for performing area division of the target image input at the time of the prescan, and for an area not determined by the area division, performing area division again at the time of the correction processing;
An image processing apparatus comprising: a processing unit that performs the correction process according to a target region for each of the divided regions obtained by the dividing unit.
上記複数の機器のうち少なくとも1つの機器は、請求項1〜7の何れかに記載の画像処理装置の機能を有することを特徴とする画像処理システム。An image processing system in which a plurality of devices are communicably connected to each other,
An image processing system, wherein at least one of the plurality of devices has a function of the image processing apparatus according to claim 1.
対象画像を入力する入力ステップと、
上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、
上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、
上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とする画像処理方法。An image processing method for dividing a target image into regions so that similar colors are the same,
An input step of inputting a target image;
A color information recognition step of recognizing color information of the target image input in the input step;
A spatial frequency information recognition step of recognizing spatial frequency information of the target image input by the input step,
An image region recognition step of recognizing a target image region based on the color information recognized in the color information recognition step and the spatial frequency information recognized in the spatial frequency information recognition step.
対象画像を入力する入力ステップと、
上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、
上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、
上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とする請求項11記載の画像処理方法。The above processing steps are steps for performing region division so that similar colors of the target image are the same.
An input step of inputting a target image;
A color information recognition step of recognizing color information of the target image input in the input step;
A spatial frequency information recognition step of recognizing spatial frequency information of the target image input by the input step,
The image processing apparatus according to claim 11, further comprising: an image area recognition step of recognizing a target image area based on the color information recognized in the color information recognition step and the spatial frequency information recognized in the spatial frequency information recognition step. Image processing method.
上記所定の手段は、対象画像を領域分割し、当該分割領域に対して色処理を施す装置或いはシステムが有する手段として、
対象画像から得られる色情報及び空間周波数情報に基づいて、対象画像を領域分割する手段を備えることを特徴とするプログラム。A program for causing a computer to function as predetermined means,
The above-mentioned predetermined means is a device or system that divides the target image into regions and performs color processing on the divided regions,
A program comprising means for dividing a target image into regions based on color information and spatial frequency information obtained from the target image.
上記所定の手段は、対象画像をプレスキャンすることで検出した対象画像の特徴に基づいて、対象画像への補正処理を行なう装置或いはシステムが備える手段として、
上記プレスキャンの際に入力された対象画像の領域分割を行い、当該領域分割で確定しなかった領域については、上記補正処理の際に再度領域分割を行なう分割手段と、
上記分割手段により得られた分割領域毎に、対象領域に応じた上記補正処理を施す処理手段とを備えることを特徴とするプログラム。A program for causing a computer to function as predetermined means,
The predetermined means is a means provided in an apparatus or a system for performing a correction process on the target image based on characteristics of the target image detected by pre-scanning the target image,
Dividing means for performing area division of the target image input at the time of the prescan, and for an area not determined by the area division, performing area division again at the time of the correction processing;
A program, comprising: processing means for performing the correction processing according to a target area for each divided area obtained by the dividing means.
上記所定のステップは、対象画像を類似した色が同一となるよう領域分割を行うための処理ステップとして、
対象画像を入力する入力ステップと、
上記入力ステップにより入力された対象画像の色情報を認識する色情報認識ステップと、
上記入力ステップにより入力された対象画像の空間周波数情報を認識する空間周波数情報認識ステップと、
上記色情報認識ステップにより認識された色情報、及び空間周波数情報認識ステップにより認識された空間周波数情報により、対象画像領域を認識する画像領域認識ステップとを含むことを特徴とするプログラム。A program for causing a computer to execute predetermined steps,
The predetermined step is a processing step for performing area division such that similar colors of the target image are the same,
An input step of inputting a target image;
A color information recognition step of recognizing color information of the target image input in the input step;
A spatial frequency information recognition step of recognizing spatial frequency information of the target image input by the input step,
A program for recognizing a target image region based on the color information recognized in the color information recognition step and the spatial frequency information recognized in the spatial frequency information recognition step.
上記所定のステップは、対象画像をプレスキャンして対象画像の特徴を検出し、当該検出結果に基づき対象画像の補正処理を行なうための処理ステップとして、
上記プレスキャンの際に入力画像の領域分割を行い、上記プレスキャンの際の領域分割により確定しなかった領域については上記補正処理の際に再度領域分割を行ない、当該分割領域に応じた上記補正処理を行なう処理ステップを含むことを特徴とするプログラム。A program for causing a computer to execute predetermined steps,
The predetermined step is a processing step for pre-scanning the target image to detect a feature of the target image, and performing a correction process on the target image based on the detection result.
The input image is divided into regions at the time of the pre-scan, and the region not determined by the region division at the time of the pre-scan is subjected to the region division again at the time of the correction processing, and the correction according to the divided region is performed. A program comprising processing steps for performing processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002277550A JP2004120092A (en) | 2002-09-24 | 2002-09-24 | Image processing apparatus, image processing system, image processing method, storage medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002277550A JP2004120092A (en) | 2002-09-24 | 2002-09-24 | Image processing apparatus, image processing system, image processing method, storage medium, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004120092A true JP2004120092A (en) | 2004-04-15 |
Family
ID=32273114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002277550A Pending JP2004120092A (en) | 2002-09-24 | 2002-09-24 | Image processing apparatus, image processing system, image processing method, storage medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004120092A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006309613A (en) * | 2005-04-28 | 2006-11-09 | Toppan Printing Co Ltd | Image adjustment method and device |
JP2008048308A (en) * | 2006-08-21 | 2008-02-28 | Kyocera Mita Corp | Image processing apparatus and image processing program |
JP2008182633A (en) * | 2007-01-26 | 2008-08-07 | Konica Minolta Business Technologies Inc | Image processing apparatus |
WO2008151270A1 (en) * | 2007-06-05 | 2008-12-11 | Microsoft Corporation | Learning object cutout from a single example |
JP2009231921A (en) * | 2008-03-19 | 2009-10-08 | Toshiba Corp | Image processing apparatus, image processing method, and image processing system |
JP2010034964A (en) * | 2008-07-30 | 2010-02-12 | Sharp Corp | Image composition apparatus, image composition method and image composition program |
JP2011028742A (en) * | 2009-07-03 | 2011-02-10 | Canon Inc | Image processing apparatus |
JP2013232750A (en) * | 2012-04-27 | 2013-11-14 | Ricoh Co Ltd | Image processing apparatus, image processing system and program |
CN103927715A (en) * | 2014-03-14 | 2014-07-16 | 中瑞科技(常州)有限公司 | Ultrasound image speckle noise suppression method |
US8976411B2 (en) | 2009-07-01 | 2015-03-10 | Canon Kabushiki Kaisha | Image processing in correspondence with each pixel of an image |
US9013750B2 (en) | 2009-06-25 | 2015-04-21 | Canon Kabushiki Kaisha | Image processing for processing image data in correspondence with each pixel of an image |
-
2002
- 2002-09-24 JP JP2002277550A patent/JP2004120092A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006309613A (en) * | 2005-04-28 | 2006-11-09 | Toppan Printing Co Ltd | Image adjustment method and device |
JP4696669B2 (en) * | 2005-04-28 | 2011-06-08 | 凸版印刷株式会社 | Image adjustment method and image adjustment apparatus |
JP2008048308A (en) * | 2006-08-21 | 2008-02-28 | Kyocera Mita Corp | Image processing apparatus and image processing program |
JP2008182633A (en) * | 2007-01-26 | 2008-08-07 | Konica Minolta Business Technologies Inc | Image processing apparatus |
US8644600B2 (en) | 2007-06-05 | 2014-02-04 | Microsoft Corporation | Learning object cutout from a single example |
WO2008151270A1 (en) * | 2007-06-05 | 2008-12-11 | Microsoft Corporation | Learning object cutout from a single example |
JP2009231921A (en) * | 2008-03-19 | 2009-10-08 | Toshiba Corp | Image processing apparatus, image processing method, and image processing system |
JP2010034964A (en) * | 2008-07-30 | 2010-02-12 | Sharp Corp | Image composition apparatus, image composition method and image composition program |
US9013750B2 (en) | 2009-06-25 | 2015-04-21 | Canon Kabushiki Kaisha | Image processing for processing image data in correspondence with each pixel of an image |
US8976411B2 (en) | 2009-07-01 | 2015-03-10 | Canon Kabushiki Kaisha | Image processing in correspondence with each pixel of an image |
US9466017B2 (en) | 2009-07-01 | 2016-10-11 | Canon Kabushiki Kaisha | Image processing device and image processing apparatus which process image data in correspondence with one or more image pixels of an image |
US9661182B2 (en) | 2009-07-01 | 2017-05-23 | Canon Kabushiki Kaisha | Image processing device and image processing apparatus |
US9888150B2 (en) | 2009-07-01 | 2018-02-06 | Canon Kabushiki Kaisha | Image processing apparatus, and image processing device which processes image data in correspondence with one or more pixels of an image |
JP2011028742A (en) * | 2009-07-03 | 2011-02-10 | Canon Inc | Image processing apparatus |
US9635218B2 (en) | 2009-07-03 | 2017-04-25 | Canon Kabushiki Kaisha | Image processing based on a pixel value in image data |
US10063748B2 (en) | 2009-07-03 | 2018-08-28 | Canon Kabushiki Kaisha | Image processing apparatus having a determination unit that determines an attribute value which specifies processing content of one or more pixels |
JP2013232750A (en) * | 2012-04-27 | 2013-11-14 | Ricoh Co Ltd | Image processing apparatus, image processing system and program |
CN103927715A (en) * | 2014-03-14 | 2014-07-16 | 中瑞科技(常州)有限公司 | Ultrasound image speckle noise suppression method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5875637B2 (en) | Image processing apparatus and image processing method | |
JP4491129B2 (en) | Color gamut mapping method and apparatus using local area information | |
WO2018223994A1 (en) | Method and device for synthesizing chinese printed character image | |
US8634659B2 (en) | Image processing apparatus, computer readable medium storing program, and image processing method | |
US20110113323A1 (en) | Systems and methods to resize document content | |
JPH10178541A (en) | Image processing method, document display method and computer execution operation selecting method | |
JP2007507802A (en) | Text-like edge enhancement in digital images | |
JP2003132358A (en) | Image processing method, device and system | |
JP2001297303A (en) | Method and device for recognizing document image and computer readable recording medium | |
JP5042917B2 (en) | Image processing apparatus and program | |
JP6743092B2 (en) | Image processing apparatus, image processing control method, and program | |
JP4582204B2 (en) | Image processing apparatus, image conversion method, and computer program | |
KR20020064350A (en) | Image data compressing method and restoring method | |
JP2004166007A (en) | Device, method and program for image processing, and storage medium | |
RU2469400C1 (en) | Method to convert bitmapped image into metafile | |
JP2004120092A (en) | Image processing apparatus, image processing system, image processing method, storage medium, and program | |
EP2782065A1 (en) | Image-processing device removing encircling lines for identifying sub-regions of image | |
JP4386216B2 (en) | Color printing system and control method thereof | |
JP4441300B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium storing the program | |
JP5335581B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010074342A (en) | Image processing apparatus, image forming apparatus, and program | |
JP2004199622A (en) | Apparatus and method for image processing, recording media, and program | |
JP2001307109A (en) | Method and device for processing image and recording medium | |
JP4164215B2 (en) | Image processing method, apparatus, and recording medium | |
US20060119897A1 (en) | Output apparatus and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070508 |