JP2008244996A - 画像処理システム - Google Patents
画像処理システム Download PDFInfo
- Publication number
- JP2008244996A JP2008244996A JP2007084132A JP2007084132A JP2008244996A JP 2008244996 A JP2008244996 A JP 2008244996A JP 2007084132 A JP2007084132 A JP 2007084132A JP 2007084132 A JP2007084132 A JP 2007084132A JP 2008244996 A JP2008244996 A JP 2008244996A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target image
- target
- color
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】異なる機種(例えば、デジタルカメラやスキャナ等)によって取得された画像データ中の被写体人物の所定部分(例えば、顔)の色の違いを簡便な方法で軽減可能な画像処理システムを提供すること。
【解決手段】 本発明の一実施形態は、複数の画像データにおける同一人物の色の違いを補正する画像処理システム100である。画像処理システム100は、複数の画像データから目標画像を選択して(ステップS100)、目標画像に含まれる対象被写体の顔領域を検出する(ステップS101)。次いで、目標画像以外の画像データから対象画像を特定して、対象画像に含まれる被写体の顔領域を検出する(ステップS103)。対象目標の人物が対象被写体かを判断し(ステップS105)、そうである場合は、対象画像の顔領域の色を、目標画像の顔領域の色に近づけるように色補正を行う(ステップS106〜S108)。
【選択図】図3
【解決手段】 本発明の一実施形態は、複数の画像データにおける同一人物の色の違いを補正する画像処理システム100である。画像処理システム100は、複数の画像データから目標画像を選択して(ステップS100)、目標画像に含まれる対象被写体の顔領域を検出する(ステップS101)。次いで、目標画像以外の画像データから対象画像を特定して、対象画像に含まれる被写体の顔領域を検出する(ステップS103)。対象目標の人物が対象被写体かを判断し(ステップS105)、そうである場合は、対象画像の顔領域の色を、目標画像の顔領域の色に近づけるように色補正を行う(ステップS106〜S108)。
【選択図】図3
Description
本発明は、画像処理システムに関し、より詳細には、機種間によって色処理の特性の異なる画像入力装置により記録された複数の画像データ間や、撮影条件が異なる画像データ間で、その入力色を限りなく近づけるための画像処理システムに関する。
近年では、安価で高性能なイメージスキャナやデジタルスチルカメラの普及により写真画像のデジタル化が手軽になり、特にパーソナルコンピュータ(以下、PC)上において、写真調の画像をデジタル画像データとして手軽に扱う機会が増えてきた。具体的には、コンピュータ上で各種のアプリケーションソフトウェアを使用することで、写真調のデジタル画像データに好みの加工及び編集処理を容易に行うことができるようになった。こうした手軽さと高画質化により、益々、デジタル画像データを取り扱う機会が増えている。
一方、フルカラーハードコピー技術に関しても急速に発展しており、特に、インクジェット方式による印刷技術では、インクドットによる粒状感を低減する技術の向上により、その印刷出力結果の画質が銀塩写真での画質と同等以上のものとなりつつある。また、比較的簡易な印刷技術であることにより、インクジェット方式は広く普及している。
上記の背景の下、最近ではデジタルスチルカメラの機種数の増加に伴い、複数のユーザによって夫々異なる機種で記録された画像データを編集する機会が増えている。さらに、これら編集した画像データをインクジェットプリンタなどの画像出力装置によって、例えばデジタルアルバムや組写真形式で印刷出力する機会が増えてきている。
しかしながら、デジタルスチルカメラの色作りは、機種間で異なっている場合が多い。また撮影者によって異なる機種で撮影されることがある。更には、紙焼き写真またはフィルム等に記録された画像をイメージスキャナによって光学的に取り込んだデジタル画像データは、デジタルスチルカメラで記録される色と異なる。
そのため、収集される画像は類似の撮影環境下、シーンにて記録されているにも関わらず、撮影機種間による色の違いが表れることにより、出力物の閲覧者からすると不快な印象を持つことがあった。例えば、異なる機種のデジタルスチルカメラで同一人物を撮影した場合、上記機種同士で色作りが異なると、上記異なる機種のそれぞれにて作成されるデジタル画像データにおいて、上記人物の色が異なる場合があった。
そこで、この問題を改善するために、例えば同一ページあるいはフォルダ内の複数画像を印刷する際に、複雑な作業を要せずに機種(例えば、デジタルカメラ、スキャナ等)間の色の違いを吸収するように色合わせをする仕組みが求められていた。
また、同一機種にて同一人物を撮影した場合であっても、撮影環境によっては、白飛びや黒つぶれが生じる場合があり、この白飛びや黒つぶれの影響により、作成されるデジタル画像データにおいて、上記人物の顔の色が異なる場合がある。
そこで、撮影環境の影響により、意図せずに劣化してしまったデジタル画像データに含まれる所定の領域(例えば、人物の顔)の色を、所望の色に近づけて、上記劣化を抑えることが望まれている。また、上記撮影環境の影響により偶然作成された、デジタル画像データ中の被写体人物の所定部分の色を、他の画像に反映したい場合もある。
本発明は、このような問題を鑑みてなされたものである。その目的とするところは、異なる機種(例えば、デジタルカメラやスキャナ等)によって取得された画像データ中の被写体人物の所定部分(例えば、顔)の色の違いを簡便な方法で軽減可能な画像処理システムを提供することにある。
また、別の目的は、複数のデジタル画像データのうちの1つに含まれる、被写体人物の所定部分(例えば、顔)の色を、他のデジタル画像データの上記所定部分に反映可能な画像処理システムを提供することである。
このような目的を達成するために、本発明は、複数の画像データにおける同一人物の色の違いを補正する画像処理システムであって、前記複数の画像データから、基準とすべき人物を含む目標画像を選択する手段と、前記複数の画像データのうち、前記目標画像以外の画像データから、前記人物を含む対象画像を特定する手段と、前記選択された目標画像に含まれる人物の一部分を検出する手段と、前記特定された対象画像に含まれる人物の一部分を検出する手段と、前記目標画像における一部分と、前記対象画像における一部分とに基づいて、前記目標画像に含まれる人物と、前記対象画像に含まれる人物とが同一人物か否かを判断する判断手段と、前記判断手段により同一人物であると判断される場合、前記対象画像における一部分の色を、前記目標画像における一部分の色に近づけるように、前記対象画像における一部分の色を色補正する色補正手段とを備えることを特徴とする。
また、本発明は、複数の画像データにおける同一人物の色の違いを補正する画像処理システムであって、前記複数の画像データの入力元となる複数の機種から、基準とすべき目標機種を特定する手段と、前記特定された目標機種により入力された画像データから、基準とすべき目標画像を選択する手段と、前記複数の画像データのうち、前記目標画像以外の画像データから、前記人物を含む対象画像を特定する手段と、前記選択された目標画像に含まれる人物の一部分を検出する手段と、前記特定された対象画像に含まれる人物の一部分を検出する手段と、前記目標画像における一部分と、前記対象画像における一部分とに基づいて、前記目標画像に含まれる人物と、前記対象画像に含まれる人物とが同一人物か否かを判断する判断手段と、前記判断手段により同一人物であると判断される場合、前記対象画像における一部分の色を、前記目標画像における一部分の色に近づけるように、前記対象画像における一部分の色を色補正する色補正手段とを備えることを特徴とする。
また、本発明は、複数の画像データにおける同一人物の色の違いを補正する画像処理装置であって、前記複数の画像データから、基準とすべき人物を含む目標画像を選択する手段と、前記複数の画像データのうち、前記目標画像以外の画像データから、前記人物を含む対象画像を特定する手段と、前記選択された目標画像に含まれる人物の一部分を検出する手段と、前記特定された対象画像に含まれる人物の一部分を検出する手段と、前記目標画像における一部分と、前記対象画像における一部分とに基づいて、前記目標画像に含まれる人物と、前記対象画像に含まれる人物とが同一人物か否かを判断する判断手段と、前記判断手段により同一人物であると判断される場合、前記対象画像における一部分の色を、前記目標画像における一部分の色に近づけるように、前記対象画像における一部分の色を色補正する色補正手段とを備えることを特徴とする。
また、本発明は、複数の画像データにおける同一人物の色の違いを補正する画像処理装置であって、前記複数の画像データの入力元となる複数の機種から、基準とすべき目標機種を特定する手段と、前記特定された目標機種により入力された画像データから、基準とすべき目標画像を選択する手段と、前記複数の画像データのうち、前記目標画像以外の画像データから、前記人物を含む対象画像を特定する手段と、前記選択された目標画像に含まれる人物の一部分を検出する手段と、前記特定された対象画像に含まれる人物の一部分を検出する手段と、前記目標画像における一部分と、前記対象画像における一部分とに基づいて、前記目標画像に含まれる人物と、前記対象画像に含まれる人物とが同一人物か否かを判断する判断手段と、前記判断手段により同一人物であると判断される場合、前記対象画像における一部分の色を、前記目標画像における一部分の色に近づけるように、前記対象画像における一部分の色を色補正する色補正手段とを備えることを特徴とする。
本発明によれば、複数の画像データの中から選択した目標画像に色を合わせたい対象画像中の人物の色を、目標画像中の人物の色に近づける色補正を行う。よって、例えば同一人物を同じ撮影条件、撮影環境下で、かつ異なる機種で撮影された画像が混在することにより、画像データ毎に人物の色が異なる場合であっても、対象画像の人物の色を目標画像の人物の色に近づけることができる。よって、同一ページ内の複数の写真を閲覧する際に違和感を抱くことなく、あるいは違和感を低減して出力再現することが可能になる。
以下、図面を参照して本発明の実施形態を詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
(第1の実施形態)
図1は、本実施形態に係る画像処理システム100の概略構成を示すブロック図である。
101は、CCD撮像素子等により撮影によって取得された画像をデジタル画像データに変換する画像入力部を示す。当該画像入力部101の画像入力装置として、デジタルスチルカメラが所定インターフェース(I/F)を介して接続されている。画像入力部101は、ケーブル接続、赤外線通信又は無線通信によりシステム100に接続する。画像入力部101によりデジタル化した画像データは、後述するROM105及びハードディスク(HD)109に記憶可能である。
(第1の実施形態)
図1は、本実施形態に係る画像処理システム100の概略構成を示すブロック図である。
101は、CCD撮像素子等により撮影によって取得された画像をデジタル画像データに変換する画像入力部を示す。当該画像入力部101の画像入力装置として、デジタルスチルカメラが所定インターフェース(I/F)を介して接続されている。画像入力部101は、ケーブル接続、赤外線通信又は無線通信によりシステム100に接続する。画像入力部101によりデジタル化した画像データは、後述するROM105及びハードディスク(HD)109に記憶可能である。
なお、本実施形態において、画像入力部101には、複数の画像入力装置を接続することができる。すなわち、画像入力部101には、少なくとも1つの画像入力装置が接続されることになる。また、画像入力部101に接続される画像入力装置は、デジタルカメラに限定されるものではない。本実施形態では、画像処理システム100が入力画像データとしてデジタル画像データを取得することが重要であって、該デジタル画像データの作成方法はいずれであっても良い。例えば、スキャナにより写真や画像を読み込んでデジタル画像データを作成し、スキャナの画像入力部101を接続することにより該デジタル画像データを画像処理システム100に入力するようにしても良い。このように、本実施形態において画像入力装置とは、例えば、デジタルカメラやスキャナ等、その装置で画像を取り込み、色変換等の画像処理を行ってデジタル画像データを取得できる手段であればいずれを用いても良い。
102は、各種処理動作を指示する指令あるいはデータ等を入力するための各種キーを備えるキーボード、及び、指示カーソルを操作するマウス等からなる操作部である。
103は、ROM105及び/又はHD109に記憶される各種プログラムに従って本システム100の全体を制御し、目的の画像データ処理を行うCPUである。すなわち、CPU103が、格納するROM105及び/又はHD109に記憶された本実施形態に係る処理などの制御プログラムに従って、種々の演算、制御、判別などの処理動作を実行する。
104は、ROM105及び/またはHD109に記憶される各種プログラムのワークエリア及びエラー処理時の一時退避エリアとして用いられるRAMである。
ROM105及びHD109には、本システム100を動作させるための各種プログラム等が格納されている。ROM105及びHD109には、プログラム以外にも、本実施形態で利用する画像ファイル及び作成した画像ファイルを格納することもできる。
103は、ROM105及び/又はHD109に記憶される各種プログラムに従って本システム100の全体を制御し、目的の画像データ処理を行うCPUである。すなわち、CPU103が、格納するROM105及び/又はHD109に記憶された本実施形態に係る処理などの制御プログラムに従って、種々の演算、制御、判別などの処理動作を実行する。
104は、ROM105及び/またはHD109に記憶される各種プログラムのワークエリア及びエラー処理時の一時退避エリアとして用いられるRAMである。
ROM105及びHD109には、本システム100を動作させるための各種プログラム等が格納されている。ROM105及びHD109には、プログラム以外にも、本実施形態で利用する画像ファイル及び作成した画像ファイルを格納することもできる。
リーダ106には、フロッピー(登録商標)ディスクドライブ、MOドライブ、CDドライブ、及びメモリーカードリーダ等の、種々の記録媒体から記録データを読み取る装置がI/Fを介して接続する。システム100に接続されていないスキャナまたはデジタルカメラによってデジタル画像データを記録された記録媒体をリーダ106に接続することにより、そのデジタル画像データをシステム100に取り込むことが出来る。
107はCRT又は液晶ディスプレイ等からなる表示部である。表示部107は、各種プログラムの進行状況、デジタル画像データの画像、及び各種操作に必要なユーザインターフェースを表示するのに使用される。この表示部は、画像処理システム100が備えるPC等のコンピュータのディスプレイとすることもできるし、プリンタ110のディスプレイとすることもできる。
画像データ処理部108は、被写体検出部108a、被写体判定処理部108b、ヒストグラム作成部108c、ヒストグラム情報保持部108d、トーンカーブ作成部(カラーテーブル作成部)108e、色変換処理部108fを有する。画像データ処理部108は、説明の便宜上、システムのハードウェア構成の一部のように記述しているが、RAM105又はHD109中に格納されたプログラムによって動作するソフトウェアであってもよい。
110は、印刷のために画像信号処理を施した画像信号にもとづいてドット画像を形成するプリンタである。プリンタ110としては、例えば、シリアルスキャン形式、ライン形式のインクジェット方式のプリンタ、電子写真方式のプリンタ、サーマルヘッド方式のプリンタ等を適用可能である。
111は、本システム100内のアドレス信号、データ及び制御信号等を伝送するバスラインである。
111は、本システム100内のアドレス信号、データ及び制御信号等を伝送するバスラインである。
尚、本実施形態の画像処理システム100は、パーソナルコンピュータ上で動作する各種ソフトウェアの起動により実現するものとしても良いし、これに限られることはなく、その一部又は全部をハードウェアにより実現してもよい。画像データ処理部108を画像入力部101やプリンタ110に設けるように構成してもよい。このように、画像データ処理部108を単一の装置に組み込むことにより、例えば図3に示す本発明に特徴的な処理を画像処理装置内で行うことができる。
本実施形態では、画像入力部101にて入力されたり、リーダ106から読み込まれたり、ROM105やHD109から読み出したりして、取得した複数のデジタル画像データ(以下、単に“画像データ”とも言う)における同一人物の色の違いを補正する。すなわち、本実施形態では、画像処理システム100が取得した複数の画像データにおいて、予め基準とすべき人物を含む目標画像を選択し、残りの画像データの中から上記人物と同一人物を含む画像(対象画像)を特定する。次いで、対象画像に含まれる同一人物の色を、目標画像に含まれる同一人物の色に近づける、あるいはほぼ同一にする補正を行う。
このように、複数の画像データの中から、目標画像を決定し、かつ対象画像を特定し、対象画像に含まれる同一人物の色を目標画像に含まれる同一人物の色に近づけるように色補正を対象画像のそれぞれに行う。よって、画像データが異なる機種から入力されても、データ上で色補正を行うことができ、印刷前段階(プリンタ110に送信される前)のデータにおいて、入力元の機種が異なることにより生じる可能性のある所望の人物の色の違いを軽減することができる。また、入力元の機種が同一であっても、撮影条件によっては白飛びや黒つぶれが生じることがあり、人物の色が画像データにおいて異なる場合がある。しかしながら、本実施形態によれば、上述のように色補正を行うので、撮影条件による色の変化を緩和することができる。
なお、本明細書において、「目標画像」とは、本実施形態に係る色補正の対象となる人物(以下、「対象人物」とも呼ぶ)を含む画像であって、上記色補正の目標とすべき(色補正の基準となる)画像を指す。例えば、1つのフォルダ内に複数の画像データがあり、それらの画像データから所定の人物(対象人物)を含む画像データを印刷する場合、他の画像データに含まれる対象人物の色を近づける基準(目標)となる色の対象人物を含む画像が目標画像となる。
また、本明細書において、「対象画像」とは、目標画像に含まれる対象人物を含む画像であって、本実施形態に係る色補正の対象となる画像を指す。例えば、上述のように、1つのフォルダ内に複数の画像データがあり、それらの画像データから所定の人物(対象人物)を含む画像データを印刷する場合、上記フォルダ内の画像データのうち、対象人物を含み、目標画像以外の画像が対象画像となる。
また、本明細書において、「人物」とは、ある特定の人を指すものではない。よって、「少なくとも1人以上の人物」とは、別個の人が少なくとも1人以上存在することを指す。
なお、画像処理システム100に入力された画像データには、複数の人物が存在することがある。よって、各画像データにおいて、複数人の人物がいる場合は、目標画像を選択して、該目標画像の中から、対象となる対象人物を選択すれば良い。この対象人物は一人でも良いし、2人以上でも良い。すなわち、目標画像には、所望に応じて、1人、または2人以上の対象人物が含まれることになり、少なくとも1人以上の対象人物を特定すれば良い。目標画像に対象人物が2人以上含まれる場合は、対象画像にも、対応する2人以上の対象人物が含まれることになる。
図2、図3は、画像データ処理部108の処理動作を示すフローチャートである。また、図4は本実施形態を実現するためのアプリケーションのユーザインターフェースの一例を示す。尚、読み取る(入力された)画像データは、画像入力部101によりアナログ画像からデジタル画像へ変換しながら、直接、読み込んだものでも、リーダ106で読み取ったものでも良い。もちろん、ROM105又はHD109に格納される画像ファイルから読み取った画像データでもよい。すなわち、画像処理システム100が画像データを取得できればいずれの方法であっても良い。
以下では、デジタルカメラにて作成された画像データを画像入力部101から画像処理システム100に入力し、上記入力された画像データに対して色補正を行う形態について説明する。よって、入力された画像データには、被写体を含む画像データが含まれている。
なお、本明細書において、「被写体」とは、デジタルカメラなどによって撮影された対象のうち、人物を指す。よって、画像データによっては被写体が複数人存在するものもある。それら少なくとも1人以上の被写体のうち、色補正の対象となる被写体が、対象被写体(対象人物)となる。
ステップS100では、画像データ処理部108は、本実施形態の画像処理の目標にするべき画像(目標画像)の画像データを指定する。具体的には、ユーザが所定ユーザインターフェース(UI)1000を介して表示部107に表示された画像1001を選択する。選択された画像1001は、画像1001´のように、プレビュー表示される。画像1001には、被写体が1人存在しており、この被写体が、ユーザが色補正の目標としたい対象被写体である。このように、ユーザにより目標画像として画像1001を選択することにより、画像処理システム100は、取得された複数の画像データの中から、基準とすべき目標画像を選択する。
ステップS101では、ステップS100で指定された目標画像データに対して、被写体検出部108aが被写体の人物領域部分を検出する処理をする。本実施形態では、上記人物領域部分を顔領域とする。被写体の顔領域を検出する処理方法に関しては、特許文献1に開示されており、当業者によく知られた技術である。
すなわち、被写体検出部108aは、目標画像に含まれる対象被写体の顔領域を抽出し、目標画像データから顔領域に関する顔領域データを取得し、取得された顔領域データをRAM104に記憶する。
なお、画像1001には、被写体が1人だったので該被写体を対象被写体として顔領域を検出しているが、被写体が複数存在する場合は、複数人いる被写体の中から対象被写体を選択すれば良い。このとき選択する対象被写体の数は1人でも良いし、複数人でも良い。
また、目標画像の中から対象被写体を決定する方法としては、目標画像を指定し、目標画像から顔領域を取得する際に、表示部107に少なくとも1人以上の対象被写体を選択させるウィンドウ等を表示し、ユーザに選択させても良い。この形態では、ユーザによって対象被写体が選択されると、被写体検出部108aは、上記選択された対象被写体に基づいて顔領域データを取得する。
また、目標画像が指定されると自動的に1人分の顔領域データを取得するアルゴリズムを用いるようにしても良い。この形態では、目標画像に被写体が1人存在する場合は、自動的に顔領域データが取得される。目標画像に被写体が複数存在する場合は、ユーザに対象被写体を選択させれば良い。すなわち、被写体検出部108aは、目標画像から顔領域を検出する際に画像データ中に複数の被写体が存在すると判断すると、表示部107に少なくとも1人以上の対象被写体を選択させるウィンドウ等を表示し、ユーザに選択させる。ユーザによって対象被写体が選択されると、被写体検出部108aは、上記選択された対象被写体に基づいて、上記選択された対象被写体の各々に対する顔領域データを取得する。
本発明で重要なことは、色補正の基準となる対象被写体(対象人物)を特定し、該対象被写体の一部分(例えば、顔領域)を検出することであり、この検出の方法が本質ではない。よって、上記検出が行えれば、いずれの方法を用いても良い。
ステップS102では、ステップS101で検出された顔領域に関してヒストグラム作成部108cがヒストグラムを作成し、ヒストグラム情報保持部108dが当該ヒストグラム情報をRAM104に記憶する。
すなわち、ヒストグラム作成部108cは、検出された顔領域に基づいて、R、G、B各色成分毎に顔領域のヒストグラムを作成する。次いで、ヒストグラム作成部108cは、上記作成された各色成分毎のヒストグラムから、顔領域のR成分に関するR成分ヒストグラム情報、顔領域のG成分に関するG成分ヒストグラム情報、および顔領域のB成分に関するB成分ヒストグラム情報を取得する。次いで、ヒストグラム情報保持部108dは、取得された、R成分ヒストグラム情報、G成分ヒストグラム情報、およびB成分ヒストグラム情報をRAM104に記憶する。
次に、上記ユーザインターフェース1000を介して表示部107に表示されている上記目標画像以外の画像データに対して、本実施形態に係る図3の処理を行う。ユーザがFittingボタン1005を選択することにより、図3に従って処理が開始される。
ステップS103では、被写体検出部108aは、ステップS101と同様にユーザインターフェース1000に表示された画像データの1つ(例えば、画像1002)に対して被写体の人物領域部分(顔領域)を検出する処理を行う。画像データにおいて、複数人の被写体が存在する場合は、該複数人それぞれの顔領域を抽出し、それぞれの顔領域データを取得する。この取得された顔領域データは、RAM104に記憶される。
以下では、ステップS103にて画像1002が選択された場合について説明する。
ステップS104では、画像データ処理部108は、ステップS103にて処理される画像102の被写体の顔領域の検出が終了したか否か、すなわち、顔領域データが取得されたか否かを判断する。画像処理データ部108は、顔領域データが取得されなかったと判断する場合は、画像1002には被写体が存在していないと判断し、ステップS109に進む。顔領域データが取得されたと判断する場合は、ステップS105に進む。
ステップS104では、画像データ処理部108は、ステップS103にて処理される画像102の被写体の顔領域の検出が終了したか否か、すなわち、顔領域データが取得されたか否かを判断する。画像処理データ部108は、顔領域データが取得されなかったと判断する場合は、画像1002には被写体が存在していないと判断し、ステップS109に進む。顔領域データが取得されたと判断する場合は、ステップS105に進む。
ステップS105では、被写体判定部108bは、ステップS103にて処理した画像1002に含まれる被写体が、ステップS101で検出された目標画像の被写体と同一人物であるかを判定する。当該技術に関しては、画像中の被写体のカテゴリ判別、例えば被写体が顔である場合に、それが誰のものであるかの判定や、この顔の表情の判別を簡便に行う方法として、特許文献2に開示されており、当業者によく知られた技術である。
具体的には、被写体判定部108bは、ステップS101にて取得された目標画像である画像1001´の顔領域データがステップS103にて取得された画像1002の顔領域データと一致するか否かを判断する。すなわち、被写体判定部108bは、画像1001´の顔領域データとステップS103にて取得された画像1002の顔領域データとに基づいて、目標画像に含まれる対象被写体と、画像1002に含まれる被写体とが同一人物か否かを判断する。
なお、画像1002に複数の被写体が含まれており、複数の顔領域データが取得されている場合は、それら顔領域データそれぞれと、目標画像の顔領域データとを比較して、上述の同一人物であるか否かの判断を行えば良い。また、目標画像の顔領域データが複数ある場合は、ステップS103にて処理される画像データから取得された顔領域データが、複数の目標画像の顔領域データそれぞれを含んでいるか否かを判断すれば良い。
すなわち、被写体判定部108bは、目標画像から取得された少なくとも1つ以上の顔領域データと、ステップS103にて取得された少なくとも1つ以上の顔領域データとに基づいて、上述の同一人物であるか否かの判断を行っている。
同一人物ではないと判断されると、画像データ処理部108は、ステップS109に進む。同一人物であると判断すると、画像データ処理部108は、ステップS106に進む。このとき、ステップS103にて処理された画像データである画像1002には、対象被写体が含まれていることになるので、画像1002は対象画像となる。すなわち、画像データ処理部108は、ユーザインターフェース1000に表示された複数の画像データのうち、目標画像以外の画像データから、対象被写体を含む対象画像を取得する。このようにして、画像データ処理部108は、複数の画像データの目標画像以外の画像データのうち、対象被写体を含まない画像データを省き、対象被写体を含む画像データを抽出することになる。よって、画像データ処理部108は、複数の画像データの目標画像以外の画像データから対象画像を特定することになる。
ステップS106では、ステップS102と同様にして、ステップS103で検出された、画像1002に関する顔領域に関してヒストグラム作成部108cがヒストグラムを作成する。次いで、ヒストグラム情報保持部108dが当該ヒストグラム情報をRAM104に記憶する。
すなわち、ヒストグラム作成部108cは、検出された画像1002に関する顔領域に基づいて、R、G、B各色成分毎に顔領域のヒストグラムを作成する。次いで、ヒストグラム作成部108cは、上記作成された各色成分毎のヒストグラムから、顔領域のR成分に関する対象画像R成分ヒストグラム情報を取得する。同様に、顔領域のG成分に関する対象画像G成分ヒストグラム情報、および顔領域のB成分に関する対象画像B成分ヒストグラム情報も取得される。次いで、ヒストグラム情報保持部108dは、取得された、対象画像R成分ヒストグラム情報、対象画像G成分ヒストグラム情報、および対象画像B成分ヒストグラム情報をRAM104に記憶する。
ステップS107では、カラーテーブル作成部108eは、ステップS102とステップS106で得られた夫々のヒストグラム情報を基に、目標画像の対象被写体の色(例えば、肌色)に、対象画像の対象被写体の色を近づけるテーブルを作成する。このテーブルの一例は、トーンカーブである。このステップS107の処理の詳細は後述する。
ステップS108では、色変換処理部108fは、ステップS107において作成されたトーンカーブに基づいて、対象画像の対象被写体の顔領域の色を目標画像の対象被写体の顔領域の色に近づけるように色変換処理(色補正)を実行する。
ステップS109では、画像データ処理部108は、対象画像の画像解析が終了しているか否かを調べる。すなわち、画像データ処理部108は、ユーザインターフェース1000に表示された画像データのうち、目標画像以外の画像の全てについて対象画像の特定を行い、対象画像に対して色補正を行う処理が終了したか否かを判定する。
終了していないと判断される場合、画像データ処理部108は、ステップS103へ戻ってステップS103からステップS108の処理を繰り返す。このとき、例えばステップS103において、画像1003が選択され、該画像1003に対してステップS103〜ステップS108の処理が行われる。終了したと判断される場合には、画像データ処理部108は、一連の動作を終了する。
このような処理によって、本実施形態では、対象被写体を含む画像データ、すなわち対象画像として、画像1002〜1004が特定され、該画像1002〜1004についてステップS104で被写体検出部108aにより対象被写体の顔領域が検出される。
上述のように本実施形態では、複数の画像からなる所定の画像データセットの中から目標画像を設定し、上記画像データセットのうちの目標画像以外の画像データの各々に対してステップS103〜ステップS108を行う。よって、例えば上記画像データセットが図4に示した9個の画像データからなる場合、目標画像に含まれる対象被写体を含む画像1002〜1004を自動的に対象画像として特定することができる。さらに、色変換の目標(基準)となる対象被写体を含む画像を目標画像として指定するという簡単な方法により、自動的に対象画像を抽出して色補正を行うことができる。
ステップS107において、目標画像に含まれる対象被写体の顔領域の色に対象画像に含まれる対象被写体の顔領域の色を近づける、あるいはほぼ一致させるためのテーブル(トーンカーブ)を作成する方法について説明する。
ヒストグラム作成部108cは、ステップS102、S106において、検出された、目標画像、対象画像の顔領域のR、G、Bそれぞれの信号成分に関してヒストグラム(度数分布)を作成する。図5(a)、(b)、(c)は、R、G、B成分についての対象画像の対象被写体における顔領域のヒストグラムを示す。図5(a′)、(b′)、(c′)は、R、G、B成分についての目標画像の対象被写体における顔領域のヒストグラムを示す。
ヒストグラム作成部108cは、ステップS102、ステップS106において、作成されたR、G、B色成分のヒストグラムの所定のパラメータを色成分毎に求める。次いで、カラーテーブル作成部108eは、ステップS106にて求められた対象画像に関するパラメータをステップS102にて求められた目標画像に関するパラメータに合わせるようなトーンカーブを作成する。これを各色成分毎に行い、各色成分毎にトーンカーブを作成して、各色成分毎のトーンカーブ情報を取得し、RAM104に記憶する。
上記パラメータの一例は、ヒストグラムの累積度数が全画素数の半分の割合を示す成分値、すなわち累積度数の全画素数に占める割合が半分(50%)の信号値である中間値である。以下では、上記パラメータとして中間値を用いる例について説明する。ヒストグラム作成部108cは、ステップS102において、作成された、目標画像に関する、R、G、B成分毎のヒストグラムから、中間値Xdstをそれぞれ算出する。同様に、ヒストグラム作成部108cは、ステップS106において、作成された、対象画像に関する、R、G、B成分毎のヒストグラムから、中間値Xsrcをそれぞれ算出する。対象画像の顔領域のヒストグラムの中間値を目標画像の顔領域のヒストグラムの中間値に近づけることにより、対象画像の顔領域の色(例えば、肌色)を目標画像の顔領域の色に全体的に近づけることができる、あるいはほぼ一致させることができる。
具体的には、カラーテーブル作成部108eは、例えば、対象画像の顔領域の肌色を目標画像の顔領域の肌色に近づけるために、R、G、B成分夫々において、対象画像のヒストグラムの中間値Xsrcを目標画像のヒストグラムの中間値Xdstに合わせる。
図6(a)、(b)、(c)では、それぞれR、G、B成分についてのXsrcをXdstに合わせるためのトーンカーブ曲線を示す。
各色成分のうち、R成分に対するトーンカーブの作成について図5(a)、図6(a)に沿って説明する。R成分においてXsrc=173、Xdst=215であり、XsrcをXdstに変換するためのトーンカーブを作成する。手順として、点(173、215)を通るように(0、0)、(255、255)を結び、トーンカーブ曲線を設定する。例えば、スプライン補間法によって、非線形的に滑らかに曲線を作成する。
各色成分のうち、R成分に対するトーンカーブの作成について図5(a)、図6(a)に沿って説明する。R成分においてXsrc=173、Xdst=215であり、XsrcをXdstに変換するためのトーンカーブを作成する。手順として、点(173、215)を通るように(0、0)、(255、255)を結び、トーンカーブ曲線を設定する。例えば、スプライン補間法によって、非線形的に滑らかに曲線を作成する。
本実施形態では、対象画像、目標画像のヒストグラムの中間値に着目してトーンカーブを作成したが、特に中間値に限らないことは言うまでもない。例えば、ヒストグラムの平均を示す成分値、すなわちヒストグラムの平均値に着目して、トーンカーブ曲線を作成しても良い。
以上の処理結果、対象画像1002〜1004はそれぞれ該当するトーンカーブを充てられることにより、対象画像1002〜1004中の対象被写体の肌色はそれぞれ目標画像1001中の対象被写体の肌色に近づく、あるいはほぼ一致するように変換される。
本実施形態では、画像処理システムが有する複数の画像からなる所定の画像データセットから、ユーザが所望の目標画像を選択し、該目標画像に含まれる対象人物を含む対象画像を自動的に特定する。次いで、目標画像に含まれる対象人物の所定部分(例えば、顔領域)の色(例えば、肌色)に、対象画像に含まれる対象人物の所定部分の色を近づける、あるいはほぼ一致させるような色補正を行う。従って、画像データの取得先となる画像入力装置(デジタルカメラやスキャナ等)が異なる機種であっても、上述の補正を、プリンタ等の画像形成装置に送信する前のデータ上で行うことができる。よって、入力された画像データの入力元が異なる場合であっても、印刷される画像においては、上記機種間の違いによる色のずれを抑えることができる。
また、入力元の機種が同じであり、同一人物を撮影した場合であっても、太陽光の量の違いなど撮影条件が異なると、白飛びや黒つぶれが生じることがあり、印刷される画像毎において、所定の色(例えば、肌色)にずれが生じることがある。しかしながら、本実施形態によれば、目標画像を選択した後に、画像データに基づいて(画像ベースで)対象画像が選択されるので、機種に関係無く、対象画像の人物の所定部分の色を、目標画像の人物の所定部分の色に近づけることができる。よって、撮影条件によって生じる可能性のある色のずれを抑制することができる。
また、場合によっては、上記撮影条件によって偶然生じた色のずれを、意図的にユーザが他の画像データに含まれる同一人物に反映させたい場合がある。このような場合であっても、上記偶然生じた色のずれを含む画像データを目標画像に選択することにより、上記反映を簡単に行うことができる。
また、上記色補正を、ヒストグラムとトーンカーブとを用いて行うので、目標画像の対象人物のサイズ(画素数)と、対象画像の対象人物のサイズ(画素数)とが異なる場合であっても、簡単にかつ良好に色補正を行うことができる。本実施形態では、同一人物か否かの判断をし、同一人物である場合に、対象画像の色を目標画像の色に近づける補正を行う。このとき、画素毎に色変換を行う場合、対象画像と目標画像とに含まれる対象人物のサイズが異なると、正確な色補正は複雑な工程を要してしまう。しかしながら、本実施形態によれば、対象画像と目標画像との間で画素ベースにより色を変換するのではなく、ヒストグラムにより色の分布ベースで色の変換を行う。従って、対象画像と目標画像のそれぞれのサイズを気にすることなく、簡単な方法でより良好に色補正を行うことができる。
そして、この方法の簡便化のために、自動的に対象画像を特定しているが、本実施形態では、目標画像を選択して該目標画像の対象人物の所定部分(例えば、顔領域)の照合を、他の画像データに対して行っているので、自動的に対象画像を選択することができる。つまり、目標画像以外の画像データに含まれる人物が、目標画像に含まれる対象人物か否かの判断を、画像データ処理部に行わせているので、自動的に対象画像を選択することができる。すなわち、対象画像の対象人物と目標画像の対象人物とのサイズが異なる場合であっても、簡単に上記色補正を行うことができるのである。
(第2の実施形態)
第1の実施形態では、RGB成分夫々のトーンカーブを作成する方法を示したが、当該方法は簡単な構成であり、さらに一次元テーブルのため処理速度が速い。
しかし、第1の実施形態では、各信号成分のトーンカーブに基づいて変換することにより、例えば、(R、G、B)=(210,170,170)の肌色に対し、R成分のトーンカーブによりR0=210をR1=230に変換する場合、以下のようになる。すなわち、青空など肌色以外の色のR成分がR0であれば、その色もR成分のトーンカーブに基づいてR0からR1に、意図しない変換をしてしまうことが考えられる。
第1の実施形態では、RGB成分夫々のトーンカーブを作成する方法を示したが、当該方法は簡単な構成であり、さらに一次元テーブルのため処理速度が速い。
しかし、第1の実施形態では、各信号成分のトーンカーブに基づいて変換することにより、例えば、(R、G、B)=(210,170,170)の肌色に対し、R成分のトーンカーブによりR0=210をR1=230に変換する場合、以下のようになる。すなわち、青空など肌色以外の色のR成分がR0であれば、その色もR成分のトーンカーブに基づいてR0からR1に、意図しない変換をしてしまうことが考えられる。
第1の実施形態により、十分高品位に色変換を行うことができるが、本実施形態では、より高品位な色変換を行うために、対象人物の一部分について局所的に色を変換する。そのため、局所的に色(例えば、肌色)を近づける一例として、ヒストグラムの中間値のRGB値(第1のパラメータ)を作業色空間に従って中間の色空間(第2のパラメータ)に変換する。中間の色空間としては、例えば、CIE(国際照明委員会)で定められているXYZ(CIE/XYZ)やL*a*b*(CIE/Lab)、L*u*v*(CIE/Luv)などのうちいずれか1つを利用できる。本実施形態では、目標画像および対象画像のそれぞれに対して第2のパラメータ(中間の色空間)を取得し、対象画像に関する第2のパラメータを目標画像の第2のパラメータに合わせるように色相、彩度、明度を変換する。すなわち、色相、彩度、明度に関する変換定義を作成し、該変換定義に基づいて色合わせ処理を行う。
なお、本明細書において、「変換定義」とは、対象画像に関する第2のパラメータを目標画像に関する第2のパラメータに近づける、あるいはほぼ一致させるのに要する色相、彩度、明度の変化量を定義するものである。すなわち、対象画像に関する第2のパラメータが目標画像に関する第2のパラメータに合うように、色相、彩度、明度に関する成分の値を独立に変化させるための定義である。
なお、RGB値は画像入力装置の作業色空間によって定義されるものとする。例えば、デジタルスチルカメラであれば、sRGBを作業色空間としていることが多い。本実施形態では、Lab色空間に変換して以下の処理を行うものとする。Luv色空間に変換する場合も以下と同様の処理を行えることは言うまでも無い。Labに変換して本発明の処理を行うことにより、第1の実施形態よりも局所的に対象画像の肌色を目標画像の肌色に近づけることができる。また、本実施形態では、上記中間値のLab値周辺の色も、中間値のLab値と同様に変換する。
図7に、本実施形態に係る、画像データ処理部108の動作処理のフローチャートを示す。図7では、局所的に変換させたい色を肌色としている。
まずは、画像データ処理部108は、図3にて説明したステップS100〜S106までを行い、目標画像および対象画像を選択し、それぞれについて、R、G、B色成分のヒストグラムを求める。
まずは、画像データ処理部108は、図3にて説明したステップS100〜S106までを行い、目標画像および対象画像を選択し、それぞれについて、R、G、B色成分のヒストグラムを求める。
ステップS200では、画像データ処理部108は、図3にて説明したステップS100〜S106と同様の処理を行い、目標画像および対象画像を選択し、それぞれについて、R、G、B色成分のヒストグラムを作成する。
ステップS201では、画像データ処理部108は、ステップS200にて作成された各ヒストグラムに基づいて、目標画像、対象画像のそれぞれに対して、R、G、B成分毎にヒストグラムの中間値を算出する。
ステップS202では、画像データ処理部108は、ステップS201にて算出された各中間値(中間値RGBとも呼ぶ)を、Lab値に変換する。
ステップS201では、画像データ処理部108は、ステップS200にて作成された各ヒストグラムに基づいて、目標画像、対象画像のそれぞれに対して、R、G、B成分毎にヒストグラムの中間値を算出する。
ステップS202では、画像データ処理部108は、ステップS201にて算出された各中間値(中間値RGBとも呼ぶ)を、Lab値に変換する。
ステップS203では、画像データ処理部108は、対象画像の対象人物に含まれる、Lab値を含む肌色領域を、目標画像の対象人物に含まれる、Lab値を含む肌色領域に合わせるように、色相、彩度、明度に関する変換定義を作成する。この作成された変換定義に関する変換定義情報はRAM104に記憶される。上述の色相、彩度、明度に関する変換定義に従って、各要素を独立に変換する方法としては、特許文献3に開示されており、当業者に周知の技術である。
ステップS204では、画像データ処理部108は、ステップS203にて作成された変換定義に基づいて、対象画像データの色変換を行う。
ステップS204では、画像データ処理部108は、ステップS203にて作成された変換定義に基づいて、対象画像データの色変換を行う。
ステップS204における対象画像データの色変換処理について、詳細に説明する。
図8に、当該色変換処理の構成図を示す。対象画像データのRGB値は、作業色空間に従って中間の色空間のLab値に変換される(B200)。B200により出力されたLab値をステップS203で作成した変換定義に基づいて、色変換(色合わせ)処理をする(B201)。B201により出力されたLab値(L´a´b´)を作業色空間のRGB値に変換し(B202)、出力デバイスとしての画像形成装置(プリンタなど)の色処理フローへ送る。
図8に、当該色変換処理の構成図を示す。対象画像データのRGB値は、作業色空間に従って中間の色空間のLab値に変換される(B200)。B200により出力されたLab値をステップS203で作成した変換定義に基づいて、色変換(色合わせ)処理をする(B201)。B201により出力されたLab値(L´a´b´)を作業色空間のRGB値に変換し(B202)、出力デバイスとしての画像形成装置(プリンタなど)の色処理フローへ送る。
または、この方法に限らず、例えば、一般的なCMS(カラーマネジメントシステム)を利用してもよい。例えば、Windows(登録商標)はICM、MacではColorSyncがOS標準のCMSとして提供されている。入力プロファイルは、作業色空間に基づいてLabに変換する。ステップS202より算出された中間値RGBを、当該入力プロファイルによって変換し、出力されたLab値をステップS203において作成された変換定義に基づいて色変換する。当該色変換後のLabに画像形成装置(出力デバイス)の出力プロファイルを利用することにより、画像形成装置の色再現範囲内であれば、作業色空間の色再現範囲を超える色を欠落することなく出力することができる。
以上のステップにより、対象画像に含まれる対象人物の肌色を目標画像に含まれる対象人物の肌色に近づけるカラーテーブルを作成する。
なお、対象画像、目標画像夫々のヒストグラムから抽出するRGB値は中間値に限らず、平均値を用いてもよいことは言うまでも無い。
なお、対象画像、目標画像夫々のヒストグラムから抽出するRGB値は中間値に限らず、平均値を用いてもよいことは言うまでも無い。
(第3の実施形態)
上述の実施形態では、検出した顔領域のヒストグラムを取得するため、作成されるヒストグラムには、目や口など肌色以外の部位も含む顔領域の画素値を含んでいる。
本実施形態では、検出された顔領域から特定の色(例えば、肌色)のみを抽出し、ヒストグラムを作成して色合わせ処理を行うことによって、一層精度の高い処理を行うことができる。特許文献4では、被写体の顔領域を検出し、検出された顔領域の中から肌色領域を抽出する方法が開示されている。
上述の実施形態では、検出した顔領域のヒストグラムを取得するため、作成されるヒストグラムには、目や口など肌色以外の部位も含む顔領域の画素値を含んでいる。
本実施形態では、検出された顔領域から特定の色(例えば、肌色)のみを抽出し、ヒストグラムを作成して色合わせ処理を行うことによって、一層精度の高い処理を行うことができる。特許文献4では、被写体の顔領域を検出し、検出された顔領域の中から肌色領域を抽出する方法が開示されている。
具体的には、画像データ処理部108は、検出された顔領域の中から肌色領域を抽出し、抽出した肌色の画素値から、RGBそれぞれのヒストグラムを作成する。次いで、画像データ処理部108は、第1の実施形態と同様に、ヒストグラムの中間値を合わせるように、RGB信号夫々のトーンカーブを作成する。
あるいは、画像データ処理部108は、第2の実施形態と同様に、ヒストグラムの中間値のLab値を合わせるように、変換定義を作成し、当該変換定義に基づいて、対象画像の色変換を行ってもよい。
以上の処理によって、第1および第2の実施形態よりも高い精度で被写体の肌色を合わせることができる。なお、対象画像、目標画像夫々のヒストグラムから抽出するRGB値は中間値に限らず、平均値を用いてもよい。
(第4の実施形態)
本発明の一実施形態では、目標画像、対象画像がどの画像かをユーザに種々の形態で告知することができる。目標画像、対象画像がどの画像であるかを明示することにより、ユーザは目標画像、対象画像の確認を一目で行うことができる。
本発明の一実施形態では、目標画像、対象画像がどの画像かをユーザに種々の形態で告知することができる。目標画像、対象画像がどの画像であるかを明示することにより、ユーザは目標画像、対象画像の確認を一目で行うことができる。
第1の実施形態では、図4に示すように選択された目標画像は別の領域にプレビュー表示されるが、特に上記の表示形式に限定しなくてもよい。本実施形態では、目標画像として選択された画像データと、検出される人物が目標画像から検出された対象人物と同一人物であると判定された対象画像データ夫々のサムネイル表示画像との背景に所定の背景色が配色される。かつ、配色される背景色は、目標画像と対象画像において異なる。すなわち、本実施形態では、選択された目標画像のサムネイル表示画像周辺の背景色を変更し、特定された対象画像のサムネイル表示画像周辺の背景色を目標画像のサムネイル表示画像周辺の背景色とは異なる色の背景色に変更する。
図9に、本実施形態を実現するためのアプリケーションUIを示す。
ステップS100にて、画像データ処理部108は、目標画像1102を選択すると、サムネイル表示画像の周辺の背景色を配色する。次に、対象画像検出ボタン1101をユーザによりクリックされることによって、第1の実施形態のステップS103以降の被写体検出、同一人物判定処理が行われる。同一人物判定結果(ステップS105)、Yesの場合は対象画像として認識され、対象画像1103〜1105には、目標画像1102と異なる背景色が配色される。ここで、1106は、目標画像、対象画像夫々の背景色の凡例を示す。
ステップS100にて、画像データ処理部108は、目標画像1102を選択すると、サムネイル表示画像の周辺の背景色を配色する。次に、対象画像検出ボタン1101をユーザによりクリックされることによって、第1の実施形態のステップS103以降の被写体検出、同一人物判定処理が行われる。同一人物判定結果(ステップS105)、Yesの場合は対象画像として認識され、対象画像1103〜1105には、目標画像1102と異なる背景色が配色される。ここで、1106は、目標画像、対象画像夫々の背景色の凡例を示す。
(第5の実施形態)
目標画像、対象画像がどの画像かをユーザに告知する方法は、目標画像と対象画像に背景色を配色する第4の実施形態の手順に限らないことは、言うまでもない。他の一例としては、サムネイル表示画像の外枠に、枠線を表示させてもよい。本実施形態では、目標画像と対象画像とにおいて、夫々異なる種類の枠線が夫々表示される。図10(a)に、本実施形態を実現するためのアプリケーションUIを示す。
目標画像、対象画像がどの画像かをユーザに告知する方法は、目標画像と対象画像に背景色を配色する第4の実施形態の手順に限らないことは、言うまでもない。他の一例としては、サムネイル表示画像の外枠に、枠線を表示させてもよい。本実施形態では、目標画像と対象画像とにおいて、夫々異なる種類の枠線が夫々表示される。図10(a)に、本実施形態を実現するためのアプリケーションUIを示す。
ステップS100にて、画像データ処理部108は、目標画像1202を選択すると、サムネイル表示画像1202の周辺に枠線を表示する。次に、対象画像検出ボタン1201をユーザによりクリックされることによって、第1の実施形態のステップS103以降の被写体検出、同一人物判定処理が行われる。同一人物判定結果(ステップS105)、Yesの場合は対象画像として認識され、対象画像1203〜1205には、目標画像1202と異なる種類の枠線が表示される。凡例1206は、目標画像、対象画像夫々の枠線の種類を示す。
また、目標画像、対象画像がどの画像かをユーザに告知する方法は、目標画像と対象画像夫々の外枠に表示される枠線の種類で分別する以外にも、例えば枠線の色で分別しても良い。図10(b)に、本実施形態の別の形態を実現するためのアプリケーションUIを示す。
ステップS100にて、画像データ処理部108は、目標画像1302を選択すると、サムネイル表示画像1302の周辺に枠線を表示する。次に、対象画像検出ボタン1301をユーザによりクリックされることによって、第1の実施形態のステップS103以降の被写体検出、同一人物判定処理が行われる。同一人物判定結果(ステップS105)、Yesの場合は対象画像として認識され、対象画像1303〜1305には、目標画像1302と異なる色の枠線が表示される。凡例1306は、目標画像、対象画像夫々の枠線の色を示す。
(第6の実施形態)
目標画像、対象画像がどの画像かをユーザに告知する方法は、第4、5の実施形態の他にも、以下に示す形態によって実行してもよい。
本実施形態では、目標画像、対象画像夫々のサムネイル表示画像に、ポインティングデバイスの操作によって表示部107の画面上の表示位置が移動するポインタを近づけた時に、目標画像、対象画像である旨を促すメッセージをポップアップ表示する。すなわち、特定された対象画像のサムネイル表示画像領域に、上記ポインタを近づけた時に、上記近づける対象となる画像が対象画像であることを告知するためのメッセージをポップアップ表示する。
なお、目標画像、対象画像ともにポップアップ表示する形態に限定されるものではなく、第3〜5の実施形態の表示方法を組み合わせて本実施形態の方法を実行してもよい。
目標画像、対象画像がどの画像かをユーザに告知する方法は、第4、5の実施形態の他にも、以下に示す形態によって実行してもよい。
本実施形態では、目標画像、対象画像夫々のサムネイル表示画像に、ポインティングデバイスの操作によって表示部107の画面上の表示位置が移動するポインタを近づけた時に、目標画像、対象画像である旨を促すメッセージをポップアップ表示する。すなわち、特定された対象画像のサムネイル表示画像領域に、上記ポインタを近づけた時に、上記近づける対象となる画像が対象画像であることを告知するためのメッセージをポップアップ表示する。
なお、目標画像、対象画像ともにポップアップ表示する形態に限定されるものではなく、第3〜5の実施形態の表示方法を組み合わせて本実施形態の方法を実行してもよい。
図11に、本実施形態に係る動作処理を実行するアプリケーション1400を示す。目標画像1402は、第5の実施形態の表示方法に従って、サムネイル表示画像に周辺に枠線が表示される。対象画像検出ボタン1401をユーザによりクリックされることによって、第1の実施形態のステップS103以降の被写体検出、同一人物判定処理が行われる。同一人物判定結果(ステップS105)、Yesの場合は対象画像として認識され、例えばポインタ1404を対象画像1403に近づけると、ポップアップ表示1405が表示される。
なお、凡例1406は、目標画像の枠線を示す。
以上の方法により、ポインタをサムネイル表示画像に近づけた時のみ情報が表示されるので、通常のUI画面表示時は全体的にすっきりする。
なお、凡例1406は、目標画像の枠線を示す。
以上の方法により、ポインタをサムネイル表示画像に近づけた時のみ情報が表示されるので、通常のUI画面表示時は全体的にすっきりする。
(第7の実施形態)
目標画像、対象画像がどの画像かをユーザに告知する方法は、第4〜第6の実施形態の他にも、例えば、サムネイル表示画像の下部に目標画像、対象画像であるという変換目的情報をテキスト表示してもよい。すなわち、特定された対象画像のサムネイル表示画像領域の周辺に、該サムネイル表示画像が対象画像であることを告知するためのメッセージをテキスト表示する。第4〜第6の実施形態のような告知方法よりも、本実施形態のようにテキストを表示する方が、目標画像、対象画像の確認を一層簡単にできる。
目標画像、対象画像がどの画像かをユーザに告知する方法は、第4〜第6の実施形態の他にも、例えば、サムネイル表示画像の下部に目標画像、対象画像であるという変換目的情報をテキスト表示してもよい。すなわち、特定された対象画像のサムネイル表示画像領域の周辺に、該サムネイル表示画像が対象画像であることを告知するためのメッセージをテキスト表示する。第4〜第6の実施形態のような告知方法よりも、本実施形態のようにテキストを表示する方が、目標画像、対象画像の確認を一層簡単にできる。
本実施形態においても、なお、目標画像、対象画像ともに当該変換目的情報をテキスト表示する形態に限定されるものではなく、第4〜第6の実施形態の表示方法を組み合わせて本実施形態の方法を実行してもよい。
図12に、本実施形態に係る動作処理を実行するアプリケーション1500を示す。
目標画像1402は、第5の実施形態の表示方法に従って、サムネイル表示画像に周辺に枠線が表示される。対象画像検出ボタン1501をユーザによりクリックされることによって、第1の実施形態のステップS103以降の被写体検出、同一人物判定処理が行われる。同一人物判定結果(ステップS105)、Yesの場合は対象画像として認識され、対象画像1503〜1505のサムネイル表示画像の下部に、変換目的情報をテキスト表示する。
なお、凡例1506は、目標画像の枠線の色を示す。
目標画像1402は、第5の実施形態の表示方法に従って、サムネイル表示画像に周辺に枠線が表示される。対象画像検出ボタン1501をユーザによりクリックされることによって、第1の実施形態のステップS103以降の被写体検出、同一人物判定処理が行われる。同一人物判定結果(ステップS105)、Yesの場合は対象画像として認識され、対象画像1503〜1505のサムネイル表示画像の下部に、変換目的情報をテキスト表示する。
なお、凡例1506は、目標画像の枠線の色を示す。
(第8の実施形態)
本実施形態では、第1の実施形態において、色変換処理部108fが対象画像の被写体部分の色を目標画像の被写体の色に近づけるように色変換処理(色補正)を実行した後に、目標画像、対象画像のサムネイル表示画像をグレーアウトまたは消去してもよい。目標画像、対象画像のサムネイル表示画像をグレーアウトまたは消去することにより、次に目標画像の選択などアプリケーションの操作をする際に、閲覧すべき画像が少なくて済むため、操作を効率的に行うことが出来る。
本実施形態では、第1の実施形態において、色変換処理部108fが対象画像の被写体部分の色を目標画像の被写体の色に近づけるように色変換処理(色補正)を実行した後に、目標画像、対象画像のサムネイル表示画像をグレーアウトまたは消去してもよい。目標画像、対象画像のサムネイル表示画像をグレーアウトまたは消去することにより、次に目標画像の選択などアプリケーションの操作をする際に、閲覧すべき画像が少なくて済むため、操作を効率的に行うことが出来る。
図13(a)〜(c)に、本実施形態に係る動作処理を実行するアプリケーション1600を示す。始めに、図13(a)について説明する。
本実施形態では、第5の実施形態と同様に、目標画像と対象画像とのサムネイル表示画像の外枠に、夫々異なる色の枠線を夫々表示する。本実施形態では、アプリケーション1600は、対象画像検出ボタン1601、当該色変換処理を実行するFittingボタン1608を有する。画像データ処理部108は、目標画像1602を選択し、対象画像検出ボタン1601をユーザによってクリックされると、対象画像1603〜1605を認識する。なお、右下の画像データ1606は、選択される目標画像1602から検出される対象被写体と同一人物ではないため、対象画像として認識されない。ゆえに、画像データ1606には外枠は表示されない。
また、画像データ1609〜1612は被写体が検出されない画像を示す。
本実施形態では、第5の実施形態と同様に、目標画像と対象画像とのサムネイル表示画像の外枠に、夫々異なる色の枠線を夫々表示する。本実施形態では、アプリケーション1600は、対象画像検出ボタン1601、当該色変換処理を実行するFittingボタン1608を有する。画像データ処理部108は、目標画像1602を選択し、対象画像検出ボタン1601をユーザによってクリックされると、対象画像1603〜1605を認識する。なお、右下の画像データ1606は、選択される目標画像1602から検出される対象被写体と同一人物ではないため、対象画像として認識されない。ゆえに、画像データ1606には外枠は表示されない。
また、画像データ1609〜1612は被写体が検出されない画像を示す。
図13(b)は、アプリケーション1600上で目標画像、対象画像のサムネイル表示画像をグレーアウトするUIを示す。Fittingボタン1608をユーザによりクリックされることにより、本発明に係る色変換処理を行った後、目標画像1602、対象画像1603〜1605のサムネイル表示画像をグレーアウトする。
ただし、色変換処理を行った後に目標画像、対象画像のサムネイル表示画像をグレーアウトする形態に限定されるものではなく、他の方法としては、本発明に係る色変換処理を行った後、目標画像、対象画像のサムネイル表示画像を消去する形態であっても良い。
図13(c)は、図13(a)にて目標画像、対象画像のサムネイル表示画像を消去した後のアプリケーションUIを示す。
Fittingボタン1608をユーザによりクリックされることにより、本発明に係る色変換処理を行った後、目標画像1602、対象画像1603〜1605のサムネイル表示画像を消去することにより、空白になった箇所が発生する。当該空白箇所を埋めるために、画像データ1608〜1611、1606が図に示すようにシフトされる。
Fittingボタン1608をユーザによりクリックされることにより、本発明に係る色変換処理を行った後、目標画像1602、対象画像1603〜1605のサムネイル表示画像を消去することにより、空白になった箇所が発生する。当該空白箇所を埋めるために、画像データ1608〜1611、1606が図に示すようにシフトされる。
なお、画像データ1609は、画像データ1606の被写体と同一人物の画像である。上記消去処理によってできた空白を埋めるために新たに表示される。
次の処理として、例えば、画像データ1606を目標画像に設定して対象画像検出を行うと、画像データ1609は対象画像として認識される。
次の処理として、例えば、画像データ1606を目標画像に設定して対象画像検出を行うと、画像データ1609は対象画像として認識される。
本実施形態に係る処理により、処理された画像データのサムネイル表示画像は消去されるため、次に目標画像を選択する時には、閲覧すべき画像が少なくて済む。そのため、ユーザはアプリケーションの操作を効率的に行うことが出来る。
(第9の実施形態)
第1の実施形態では、サムネイル表示画像を選択することによって目標画像を選択するが、サムネイル画像の代わりに目標にしたい機種(目標機種とも呼ぶ)を選択してもよい。目標にしたい機種を選択することによって、例えば、全ての入力画像を最新の機種やハイエンドモデルの機種によって入力される色で合わせたいという希望を持つユーザが、その思想に従ってアプリケーションを操作しやすいという利点がある。
第1の実施形態では、サムネイル表示画像を選択することによって目標画像を選択するが、サムネイル画像の代わりに目標にしたい機種(目標機種とも呼ぶ)を選択してもよい。目標にしたい機種を選択することによって、例えば、全ての入力画像を最新の機種やハイエンドモデルの機種によって入力される色で合わせたいという希望を持つユーザが、その思想に従ってアプリケーションを操作しやすいという利点がある。
なお、本明細書において、「目標機種」とは、画像処理システム100に接続される複数の画像入力装置(機種)の機種うち、他の画像入力装置の機種にて取得された画像データの色を近づける目標となる色を含む画像データを作成する画像入力装置の機種を指す。
入力された画像データの各々について、それらの入力元である画像入力装置の機種と上記各々の画像データとが関連付けられた機種リストから、上記目標機種を選択すると、目標機種から入力された画像データを特定する。この特定された画像データは目標画像となる。次いで、目標画像から対象人物を特定し、第1の実施形態と同様にして、対象人物の一部分(例えば、顔領域)に対する各色成分毎のヒストグラムを作成する。また、対象画像を特定し、本発明に係る色補正処理を行う。
具体的には、以下のような処理を行えば良い。図14に、本実施形態に係る動作処理を実行するアプリケーション1700を示す。
目標機種選択ボックス1701をユーザによりクリックされると選択すると、機種リストが表示される。この機種リストには、アプリケーション1700にて表示された画像データの入力元となる画像入力装置の機種が全て列挙されている。なお、各画像入力装置は、撮影した画像または取り込んだ画像に基づいて作成された画像データに、画像入力装置の機種を示す情報、すなわち各画像データの入力元の機種を識別するための機種情報を含むタグ情報を付加する。各画像入力装置は、上記タグ情報をそれぞれの画像データに添付するので、画像処理システム100に入力される複数の画像データの各々には、機種情報が添付されることになる。
目標機種選択ボックス1701をユーザによりクリックされると選択すると、機種リストが表示される。この機種リストには、アプリケーション1700にて表示された画像データの入力元となる画像入力装置の機種が全て列挙されている。なお、各画像入力装置は、撮影した画像または取り込んだ画像に基づいて作成された画像データに、画像入力装置の機種を示す情報、すなわち各画像データの入力元の機種を識別するための機種情報を含むタグ情報を付加する。各画像入力装置は、上記タグ情報をそれぞれの画像データに添付するので、画像処理システム100に入力される複数の画像データの各々には、機種情報が添付されることになる。
よって、画像処理システム100が、上記画像データを取得する(入力する)と、各画像データとその入力元の機種とが関連付けられることになる。後述するように、画像データ処理部108は、上記各タグ情報に含まれる機種情報に基づいて、機種リストを作成する。
次いで、ユーザにより当該機種リストの中から目標機種としたい機種がクリックされると、画像データ処理部108は、機種リストから、選択された機種を抽出して、該抽出した機種を目標機種として特定する。画像データ処理部108は、上記特定された目標機種に対応する画像データを抽出して、目標画像を特定する。すなわち、上記抽出した画像データに基づいて目標画像を決定する。ここで、抽出された画像データが1つの場合は、その画像データがそのまま目標画像になる。一方、抽出された画像データが複数の場合は、その旨を表示するウィンドウを表示部107に表示し、複数の画像データの中から目標画像をユーザに選択させれば良い。この場合は、ユーザによって選択された画像が目標画像として特定される。
目標画像が決まったら、画像データ処理部108は、ステップS101〜ステップS109を行い、本発明に係る色補正を行う。
このように、本実施形態にて重要なことは、対象人物が含まれる他の画像データ(対象画像)の所定部分(例えば、顔領域)の色を近づける基準を、画像ベースで決定するのではなく、機種ベースで決めることである。しかしながら、機種ベースで上記基準を決定したとしても、本実施形態の本質は、第1の実施形態と同様に、対象画像に含まれる対象人物の顔領域の色を、所望の画像に含まれる対象人物の顔領域の色に近づける、またはほぼ一致させることである。本実施形態では、上記所望の画像を機種ベースで決定しているのである。よって、機種リストから選択された目標機種により入力された画像の1つが所望の画像となり、目標画像となるのである。すなわち、本実施形態では、目標機種から入力された画像データから目標画像を決定する。
なお、目標機種選択ボックス1701は本実施形態のようなコンボボックス形式に限らず、ラジオボタンから選択するようにしてもよいし、テキストボックスに手入力するようにしてもよい。
また、当該機種リストは、予め本実施形態のアプリケーションに付随の機種リストであるか、あるいは、取得された機種情報を基に機種名リストを新規作成しても良い。
また、当該機種リストは、予め本実施形態のアプリケーションに付随の機種リストであるか、あるいは、取得された機種情報を基に機種名リストを新規作成しても良い。
図15に、当該機種リストの作成処理についてのフローチャートを示す。
ステップS200では、画像データ処理部108は、画像入力部101から入力された、各機種に対する画像データから1つの画像データを選択する。
ステップS201では、画像データ処理部108は、ステップS200にて選択された画像データに対し、被写体の検出処理を行う。
ステップS202では、画像データ処理部108は、ステップS201にて被写体が検出されたか否かの判断を行う。被写体人物が検出された場合は、ステップS203に進み、検出されなかった場合は、機種情報を取得/保持を行わずにステップS205に進む。
ステップS200では、画像データ処理部108は、画像入力部101から入力された、各機種に対する画像データから1つの画像データを選択する。
ステップS201では、画像データ処理部108は、ステップS200にて選択された画像データに対し、被写体の検出処理を行う。
ステップS202では、画像データ処理部108は、ステップS201にて被写体が検出されたか否かの判断を行う。被写体人物が検出された場合は、ステップS203に進み、検出されなかった場合は、機種情報を取得/保持を行わずにステップS205に進む。
ステップS203では、画像データ処理部108は、上記画像データに添付されたタブ情報(撮影情報)を解析することによって、機種情報を取得する。
ステップS204では、画像データ処理部108は、取得した機種情報をRAM104に記憶して保持する。
ステップS205では、処理すべき次の画像データが存在するか否かの判断を行い、存在する場合は、ステップS200に戻り、処理すべき画像データが存在しなくなるまで、ステップS200〜S205を繰り返す。処理すべき次の画像データが存在しない場合は、ステップS206に進む。
ステップS204では、画像データ処理部108は、取得した機種情報をRAM104に記憶して保持する。
ステップS205では、処理すべき次の画像データが存在するか否かの判断を行い、存在する場合は、ステップS200に戻り、処理すべき画像データが存在しなくなるまで、ステップS200〜S205を繰り返す。処理すべき次の画像データが存在しない場合は、ステップS206に進む。
ステップS205において、新たに画像データが存在しない場合は、画像データ処理部108は、ステップS204において保持された機種情報に基づいて、機種名リストを作成する。
本方法に基づいて作成された機種リストは、入力画像データを撮影した機種のリストであるため、例えば、当該機種リストから選択された目標機種によって撮影された画像データが存在しないというエラーを防ぐことができる。
なお、本実施形態では、目標機種を特定するために、機種リストを表示部107に表示し、ユーザに選択させているが、これに限らない。例えば、アプリケーション1700に入力バーを設け、上記作成された機種リストをRAM104に保持しておき、ユーザに上記入力バーに目標機種とした機種を入力させても良い。この場合は、画像データ処理部108は、機種リストを参照して、入力された機種情報に対応する機種を抽出し、該抽出した機種を目標機種とする。本実施形態では、目標機種を特定できれば、いずれの方法を用いても良い。
(本発明の他の実施形態)
上述の実施形態では、複数の機器を備える画像処理システムに、本発明に特徴的な処理を適用しているが、1つの機器(例えば、PC、MFP、プリンタなど)に適用しても良い。
上述の実施形態では、複数の機器を備える画像処理システムに、本発明に特徴的な処理を適用しているが、1つの機器(例えば、PC、MFP、プリンタなど)に適用しても良い。
前述した実施形態の機能を実現するように前述した実施形態の構成を動作させるプログラムを記憶媒体に記憶させ、該記憶媒体に記憶されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も上述の実施形態の範疇に含まれる。また、前述のプログラムが記憶された記憶媒体はもちろんそのプログラム自体も上述の実施形態に含まれる。
かかる記憶媒体としてはたとえばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD―ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。
また前述の記憶媒体に記憶されたプログラム単体で処理を実行しているものに限らず、他のソフトウエア、拡張ボードの機能と共同して、OS上で動作し前述の実施形態の動作を実行するものも前述した実施形態の範疇に含まれる。
100 画像処理システム
101 画像入力部
102 操作部
103 CPU
104 RAM
105 ROM
106 リーダ部
107 表示部
108 画像データ処理部
109 HD
110 プリンタ
111 バスライン
101 画像入力部
102 操作部
103 CPU
104 RAM
105 ROM
106 リーダ部
107 表示部
108 画像データ処理部
109 HD
110 プリンタ
111 バスライン
Claims (20)
- 複数の画像データにおける同一人物の色の違いを補正する画像処理システムであって、
前記複数の画像データから、基準とすべき人物を含む目標画像を選択する手段と、
前記複数の画像データのうち、前記目標画像以外の画像データから、前記人物を含む対象画像を特定する手段と、
前記選択された目標画像に含まれる人物の一部分を検出する手段と、
前記特定された対象画像に含まれる人物の一部分を検出する手段と、
前記目標画像における一部分と、前記対象画像における一部分とに基づいて、前記目標画像に含まれる人物と、前記対象画像に含まれる人物とが同一人物か否かを判断する判断手段と、
前記判断手段により同一人物であると判断される場合、前記対象画像における一部分の色を、前記目標画像における一部分の色に近づけるように、前記対象画像における一部分の色を色補正する色補正手段と
を備えることを特徴とする画像処理システム。 - 前記目標画像における一部分の、R、G、B色成分の各々に対するヒストグラムをそれぞれ作成する第1のヒストグラム作成手段と、
前記対象画像における一部分の、R、G、B色成分の各々に対するヒストグラムをそれぞれ作成する第2のヒストグラム作成手段と、
前記第1のヒストグラム作成手段にて作成されたヒストグラムの各々に基づいて、該ヒストグラムの各々のパラメータを算出する第1のパラメータを算出する手段と、
前記第2のヒストグラム作成手段にて作成されたヒストグラムの各々に基づいて、該ヒストグラムの各々のパラメータを算出する第2のパラメータを算出する手段とをさらに備え、
前記色補正手段は、前記R、G、B色成分の各々について、前記第2のパラメータを算出する手段にて算出されたパラメータを、前記第1のパラメータを算出する手段にて算出されたパラメータに合わせるようにトーンカーブを作成し、該トーンカーブに基づいて、前記対象画像における一部分の色を色補正することを特徴とする請求項1記載の画像処理システム。 - 前記パラメータは、前記ヒストグラムの累積度数が全画素数の半分の割合を示す成分値あるいは前記ヒストグラムの平均を示す成分値であることを特徴とする請求項2記載の画像処理システム。
- 前記パラメータを示すRGB値から、CIEで定義されたLab色空間、あるいはLuv色空間のうちいずれか一つの色空間に色変換し、前記対象画像のパラメータを前記目標画像のパラメータに合わせるように色相、彩度、明度に関する変換定義を作成することを特徴とする請求項2または3記載の画像処理システム。
- 前記複数の画像データは、異なる機種の画像入力装置から入力されることを特徴とする請求項1乃至4のいずれかに記載の画像処理システム。
- 前記一部分は、前記人物の顔領域であることを特徴とする請求項1乃至5のいずれかに記載の画像処理システム。
- 前記目標画像および前記対象画像には、前記基準とすべき人物が2人以上含まれることを特徴とする請求項1乃至6のいずれかに記載の画像処理システム。
- 前記複数の画像データを表示する表示部をさらに備え、
前記表示部において、前記選択された目標画像、および前記特定された対象画像それぞれのサムネイル表示画像周辺の背景色を変更することを特徴とする請求項1乃至7のいずれかに記載の画像処理システム。 - 前記特定された対象画像のサムネイル表示画像周辺の背景色を、前記選択された目標画像のサムネイル表示画像周辺の背景色とは異なる色に変更することを特徴とする請求項8記載の画像処理システム。
- 前記複数の画像データを表示する表示部をさらに備え、
前記表示部において、前記選択された目標画像、および前記特定された対象画像それぞれのサムネイル表示画像の外枠に、枠線を表示することを特徴とする請求項1乃至7のいずれかに記載の画像処理システム。 - 前記特定された対象画像のサムネイル表示画像の外枠に表示される枠線は、前記選択された目標画像のサムネイル表示画像の外枠に表示される枠線とは異なる種類の枠線であることを特徴とする請求項10記載の画像処理システム。
- 前記特定された対象画像のサムネイル表示画像の外枠に表示される枠線の色は、前記選択された目標画像のサムネイル表示画像の外枠に表示される枠線の色とは異なることを特徴とする請求項10記載の画像処理システム。
- 前記複数の画像データを表示する表示部をさらに備え、
前記表示部において、前記特定された対象画像のサムネイル表示画像領域に、ポインティングデバイスの操作によって前記表示部の画面上の表示位置が移動するポインタを近づけた時に、前記サムネイル表示画像が対象画像であることを告知するためのメッセージをポップアップ表示することを特徴とする請求項1乃至7のいずれかに記載の画像処理システム。 - 前記複数の画像データを表示する表示部をさらに備え、
前記表示部において、前記特定された対象画像のサムネイル表示画像領域の周辺に、該サムネイル表示画像が対象画像であることを告知するためのメッセージをテキスト表示することを特徴とする請求項1乃至7のいずれかに記載の画像処理システム。 - 前記複数の画像データを表示する表示部をさらに備え、
前記表示部において、前記対象画像を補正した後に、前記目標画像と前記対象画像夫々のサムネイル表示画像をグレーアウトすることを特徴とする請求項1乃至7のいずれかにに記載の画像処理システム。 - 前記複数の画像データを表示する表示部をさらに備え、
前記対象画像を補正した後に、前記目標画像と前記対象画像夫々のサムネイル表示画像を消去することを特徴とする請求項1乃至7のいずれかに記載の画像処理システム。 - 複数の画像データにおける同一人物の色の違いを補正する画像処理システムであって、
前記複数の画像データの入力元となる複数の機種から、基準とすべき目標機種を特定する手段と、
前記特定された目標機種により入力された画像データから、基準とすべき目標画像を選択する手段と、
前記複数の画像データのうち、前記目標画像以外の画像データから、前記人物を含む対象画像を特定する手段と、
前記選択された目標画像に含まれる人物の一部分を検出する手段と、
前記特定された対象画像に含まれる人物の一部分を検出する手段と、
前記目標画像における一部分と、前記対象画像における一部分とに基づいて、前記目標画像に含まれる人物と、前記対象画像に含まれる人物とが同一人物か否かを判断する判断手段と、
前記判断手段により同一人物であると判断される場合、前記対象画像における一部分の色を、前記目標画像における一部分の色に近づけるように、前記対象画像における一部分の色を色補正する色補正手段と
を備えることを特徴とする画像処理システム。 - 前記複数の画像データの各々には、それぞれの入力元の機種を識別するための機種情報が添付されており、
前記機種情報に基づいて、前記複数の画像データの各々の入力元となる機種を列挙する機種リストを作成する手段をさらに備え、
前記目標機種を特定する手段は、前記機種リストに基づいて、前記目標機種を特定することを特徴とする請求項17記載の画像処理システム。 - 複数の画像データにおける同一人物の色の違いを補正する画像処理装置であって、
前記複数の画像データから、基準とすべき人物を含む目標画像を選択する手段と、
前記複数の画像データのうち、前記目標画像以外の画像データから、前記人物を含む対象画像を特定する手段と、
前記選択された目標画像に含まれる人物の一部分を検出する手段と、
前記特定された対象画像に含まれる人物の一部分を検出する手段と、
前記目標画像における一部分と、前記対象画像における一部分とに基づいて、前記目標画像に含まれる人物と、前記対象画像に含まれる人物とが同一人物か否かを判断する判断手段と、
前記判断手段により同一人物であると判断される場合、前記対象画像における一部分の色を、前記目標画像における一部分の色に近づけるように、前記対象画像における一部分の色を色補正する色補正手段と
を備えることを特徴とする画像処理装置。 - 複数の画像データにおける同一人物の色の違いを補正する画像処理装置であって、
前記複数の画像データの入力元となる複数の機種から、基準とすべき目標機種を特定する手段と、
前記特定された目標機種により入力された画像データから、基準とすべき目標画像を選択する手段と、
前記複数の画像データのうち、前記目標画像以外の画像データから、前記人物を含む対象画像を特定する手段と、
前記選択された目標画像に含まれる人物の一部分を検出する手段と、
前記特定された対象画像に含まれる人物の一部分を検出する手段と、
前記目標画像における一部分と、前記対象画像における一部分とに基づいて、前記目標画像に含まれる人物と、前記対象画像に含まれる人物とが同一人物か否かを判断する判断手段と、
前記判断手段により同一人物であると判断される場合、前記対象画像における一部分の色を、前記目標画像における一部分の色に近づけるように、前記対象画像における一部分の色を色補正する色補正手段と
を備えることを特徴とする画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007084132A JP2008244996A (ja) | 2007-03-28 | 2007-03-28 | 画像処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007084132A JP2008244996A (ja) | 2007-03-28 | 2007-03-28 | 画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008244996A true JP2008244996A (ja) | 2008-10-09 |
Family
ID=39915756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007084132A Pending JP2008244996A (ja) | 2007-03-28 | 2007-03-28 | 画像処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008244996A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010016803A (ja) * | 2008-06-04 | 2010-01-21 | Toa Corp | 複数のカラーカメラ間の色調整装置および方法 |
JP2010166113A (ja) * | 2009-01-13 | 2010-07-29 | Seiko Epson Corp | 色変換プログラムおよび色変換方法 |
US20120218391A1 (en) * | 2011-02-24 | 2012-08-30 | Tektronix, Inc | Stereoscopic image registration and color balance evaluation display |
WO2012153604A1 (ja) * | 2011-05-09 | 2012-11-15 | コニカミノルタホールディングス株式会社 | 画像処理装置、そのプログラム、および画像処理方法 |
JP2015011585A (ja) * | 2013-06-28 | 2015-01-19 | 株式会社リコー | 画像処理装置、画像形成装置、画像形成システム、画像処理方法およびプログラム |
JP2017028559A (ja) * | 2015-07-24 | 2017-02-02 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
-
2007
- 2007-03-28 JP JP2007084132A patent/JP2008244996A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010016803A (ja) * | 2008-06-04 | 2010-01-21 | Toa Corp | 複数のカラーカメラ間の色調整装置および方法 |
JP2010166113A (ja) * | 2009-01-13 | 2010-07-29 | Seiko Epson Corp | 色変換プログラムおよび色変換方法 |
US20120218391A1 (en) * | 2011-02-24 | 2012-08-30 | Tektronix, Inc | Stereoscopic image registration and color balance evaluation display |
US9307227B2 (en) * | 2011-02-24 | 2016-04-05 | Tektronix, Inc. | Stereoscopic image registration and color balance evaluation display |
WO2012153604A1 (ja) * | 2011-05-09 | 2012-11-15 | コニカミノルタホールディングス株式会社 | 画像処理装置、そのプログラム、および画像処理方法 |
JP5696783B2 (ja) * | 2011-05-09 | 2015-04-08 | コニカミノルタ株式会社 | 画像処理装置 |
JP2015011585A (ja) * | 2013-06-28 | 2015-01-19 | 株式会社リコー | 画像処理装置、画像形成装置、画像形成システム、画像処理方法およびプログラム |
JP2017028559A (ja) * | 2015-07-24 | 2017-02-02 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
US9749503B2 (en) | 2015-07-24 | 2017-08-29 | Fujifilm Corporation | Image processing device, image processing method and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6839064B2 (en) | Image file generation | |
JP5058887B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2003153016A (ja) | 色補正マトリクスを用いて入力媒体の形式を決定する方法およびシステム | |
JP2005176230A (ja) | 画像処理装置およびプリントシステム | |
JP2005190435A (ja) | 画像処理方法、画像処理装置及び画像記録装置 | |
US20020018224A1 (en) | Method, apparatus and recording medium for image processing | |
JP2010074405A (ja) | 画像処理装置および画像処理方法 | |
US7433079B2 (en) | Image processing apparatus and method | |
JP2008244996A (ja) | 画像処理システム | |
JP2008244997A (ja) | 画像処理システム | |
KR20050054456A (ko) | 인쇄 시스템 및 인쇄 방법 | |
JP2009037625A (ja) | 被写体情報を用いた画像処理 | |
JP4873696B2 (ja) | プリンタ間のマッチング精度を確認するための情報処理装置、方法及びプログラム | |
JP2006227698A (ja) | Rawデータ処理方法、プログラム及び装置 | |
JP2004240829A (ja) | 顔写真画像調整システム | |
US20030161608A1 (en) | Image reproducing apparatus and image reproducing method | |
JP4766644B2 (ja) | 画像処理方法および画像処理装置 | |
JP2005102154A (ja) | 画像処理装置および方法並びにプログラム | |
JP2006350936A (ja) | 画像作成装置、及び画像作成用プログラム | |
JP2005096301A (ja) | 画像出力装置、画像補正方法、画像調整方法、プログラム、記録媒体 | |
US7609425B2 (en) | Image data processing apparatus, method, storage medium and program | |
JP2004297438A (ja) | 画像補正方法、装置及びプログラム | |
JP3840141B2 (ja) | 画像処理装置および情報入力装置、並びに、それらの方法 | |
JP2004096508A (ja) | 画像処理方法、画像処理装置、画像記録装置、プログラム及び記録媒体 | |
JP5212451B2 (ja) | 領域特定方法、領域特定装置、プログラム、サーバ及びシステム |