JP2006350769A - 画像処理装置および方法並びにプログラム - Google Patents
画像処理装置および方法並びにプログラム Download PDFInfo
- Publication number
- JP2006350769A JP2006350769A JP2005177370A JP2005177370A JP2006350769A JP 2006350769 A JP2006350769 A JP 2006350769A JP 2005177370 A JP2005177370 A JP 2005177370A JP 2005177370 A JP2005177370 A JP 2005177370A JP 2006350769 A JP2006350769 A JP 2006350769A
- Authority
- JP
- Japan
- Prior art keywords
- face
- color
- density
- image
- face area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像中の顔領域の濃度および/または色に基づいた、より精度の高い画質の調整を可能にする。
【解決手段】 パラメータ取得部32が、顔検出部31が検出した画像P0中の顔領域F0を、人間の顔が表された複数のサンプル画像に基づいてAAMの手法によって生成された数学モデルMに適応させることによって、顔領域F0の濃度および/または色を表すパラメータCd0,Ch0を取得する。濃度・色補正部33がパラメータCd0,Ch0に基づいて顔領域F0の色および/または濃度を推定し、推定した色および/または濃度に基づいて顔領域F0の濃度および/または色を補正する。
【選択図】 図4
【解決手段】 パラメータ取得部32が、顔検出部31が検出した画像P0中の顔領域F0を、人間の顔が表された複数のサンプル画像に基づいてAAMの手法によって生成された数学モデルMに適応させることによって、顔領域F0の濃度および/または色を表すパラメータCd0,Ch0を取得する。濃度・色補正部33がパラメータCd0,Ch0に基づいて顔領域F0の色および/または濃度を推定し、推定した色および/または濃度に基づいて顔領域F0の濃度および/または色を補正する。
【選択図】 図4
Description
本発明は、入力画像の濃度および/または色を補正する画像処理を行う装置および方法、並びに画像処理プログラムに関するものである。
写真画像に含まれる人間の顔を理想的な濃度および/または色で再現するために、その写真画像から顔を抽出し、顔のコントラストを補正する画像処理が行われている。
例えば、画像の各画素の画素値をYUV色空間の画素値に変換し、YUV色空間において予め定められた肌色を表す肌色空間に含まれる画素値を有する画素を肌色の画素と見なすことにより画像から肌色領域を検出し、さらに輝度平均値等の肌色領域の特徴量を用いて顔領域を決定し、顔領域における濃度および色の情報に基づいて、露光の状況を判定して階調を補正する手法が提案されている(特許文献1参照)。
特開2000−188768号公報
しかしながら、特許文献1における顔領域の検出の手法においては、例えば肌色領域に影がかかっていたり、背景領域が肌色に近似していたりすると、肌色領域と背景領域の境界が検出できないため、顔領域の濃度および色を正確に検出できなかった。例えば、肌色領域に影がかかっている場合、影がかかっていない部分のみを肌色領域として検出してしまうため、影がかかっていない部分にのみ基づいて階調を補正することとなり、その結果、補正された画像のコントラストが強くなりすぎる傾向があった。
本発明は上記事情に鑑みなされたものであり、顔領域の濃度および/または色に基づいた、より精度の高い画質の調整を可能にすることを目的とする。
本発明による画像処理装置は、人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた統計的特徴量によって前記顔を表現するモデルに、入力画像中の顔領域を適応させることによって、該入力画像中の顔領域における前記統計的特徴量に対する重みづけパラメータを取得するパラメータ取得手段と、
取得された前記重みづけパラメータの値に基づいて、前記顔領域の濃度および/または色を推定し、推定した濃度および/または色に基づいて、前記顔領域の濃度および/または色を補正する補正手段とを備えたことを特徴とするものである。
取得された前記重みづけパラメータの値に基づいて、前記顔領域の濃度および/または色を推定し、推定した濃度および/または色に基づいて、前記顔領域の濃度および/または色を補正する補正手段とを備えたことを特徴とするものである。
本発明による画像処理方法は、人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた統計的特徴量によって前記顔を表現するモデルに、入力画像中の顔領域を適応させることによって、該入力画像中の顔領域における前記統計的特徴量に対する重みづけパラメータを取得し、
取得された前記重みづけパラメータの値に基づいて、前記顔領域の濃度および/または色を推定し、
推定した濃度および/または色に基づいて、前記顔領域の濃度および/または色を補正することを特徴とするものである。
取得された前記重みづけパラメータの値に基づいて、前記顔領域の濃度および/または色を推定し、
推定した濃度および/または色に基づいて、前記顔領域の濃度および/または色を補正することを特徴とするものである。
さらに、本発明による画像処理プログラムは、コンピュータに上記の画像処理方法を実行させる(上記各手段として機能させる)ものである。
次に、本発明による画像処理装置、方法、およびプログラムの詳細について説明する。
本発明による「顔を表現するモデル」の具体的実現手法としては、AAM(Active Appearance Models)の手法を利用することが考えられる。AAMは、モデルに基づいて画像の内容の解釈を試みるアプローチの1つであり、例えば、顔を解釈の対象とする場合、学習対象となる複数の画像中の顔部分の形状や、形状を正規化した後の輝度および/または色の情報に対して主成分分析を行うことによって顔の数学モデルを生成し、新たな入力画像中の顔部分を、数学モデルにおける各主成分と各主成分に対する重みづけパラメータで表現し、顔画像を再構成する手法である(T.F.クーツ(Cootes), G.J.エドワーズ(Edwards), C.J.テイラー(Taylor)、「動的見えモデル(Active Appearance Models)」、第5回計算機視覚欧州会議報(In Proc. 5th European Conference on Computer Vision)、ドイツ、シュプリンガー(Springer)、1998年、vol.2、p.p.484-498;以下、参考文献1とする)。
「複数の画像」は、実際に人間の顔を撮影することにより取得された画像であってもよく、シミュレーションにより生成された画像であってもよい。
「所定の統計処理」としては、顔領域を、顔領域を表す画素の数よりも少ない次元数の統計的特徴量に圧縮して表すことができる次元圧縮処理が好ましい。具体例としては主成分分析等の多変量解析手法が考えられる。また、「所定の統計処理」として主成分分析を行った場合、「統計的特徴量」とは、主成分分析によって得られる複数の主成分を意味する。
「統計的特徴量」には、少なくとも顔の形状と、輝度および色の少なくとも一方とが表現されている必要がある。顔の濃度および/または色を高精度に推定するためである。
また、顔の形状、輝度および色を表す統計的特徴量は、それぞれ1つの統計的特徴量であってもよいし、複数の統計的特徴量であってもよい。
「入力画像中の顔領域」は、自動的に検出するようにしてもよいし、手動で検出するようにしてもよい。また、本発明は、入力画像中の前記顔領域を検出する処理(手段)をさらに有していてもよいし、入力画像から前記顔領域の部分を予め検出しておいてもよい。
また、本発明におけるモデルを人間の顔の属性毎に複数準備しておき、入力画像中の顔領域の属性を表す情報を取得し、取得された属性に応じてモデルを選択する処理(手段)を付加し、選択されたモデルに入力画像中の顔領域を適応させることによって、顔領域を検出するようにしてもよい。
ここで、「属性」とは、例えば、性別や年齢、人種等が考えられる。また、個人を特定する情報であってもよい。この場合には、属性毎のモデルは個人毎のモデルを意味する。
この「属性」の具体的取得方法としては、画像に対する公知の認識処理(例えば、特開平11−175724号公報記載)や、GPS情報等の画像の付帯情報からの推定・取得が考えられる。
「顔を表現するモデルに、入力画像中の顔領域を適応させる」とは、入力画像中の顔領域をモデルによって表現するための演算処理等を意味する。具体的には、上記のAAMの手法を用いた場合を例にすると、数学モデルにおける各主成分に対する重みづけパラメータの値を求めることを意味する。
「濃度を補正する」とは、画像の各画素の値を変更することを意味し、具体的には顔領域の濃度を全体的に変更すること、顔領域の階調を補正すること、および顔領域の露出(アンダー、オーバー、逆光、ハイコントラスト等)を補正すること等を意味する。具体的には、顔領域の濃度に基づく公知の手法を用いることができる。
「色を補正する」とは、画像の各画素の色を変更することを意味し、具体的には顔領域の色を全体的に変更することを意味する。具体的には、顔領域の色に基づく公知の手法を用いることができる。
濃度および/または色を補正する処理は、入力画像全体に対して行うようにしてもよい。
また、濃度および/または色を補正する処理は、入力画像中の顔領域だけでなく、顔領域に隣接する肌色の領域に対しても行ってもよい。ここで、「顔領域に隣接する肌の領域」には、例えば、首の領域が該当する。
また、濃度および/または色を補正する処理を入力画像中の一部の領域に対して行う場合には、処理を行わない領域に近づくにつれて濃度および/または色の補正量が小さくなるように、濃度および/または色を補正する処理を行うようにしてもよい。
また、顔領域とそれ以外の領域とにおいて濃度および/または色の補正量を変更してもよい。
本発明の画像処理方法および装置並びにプログラムによれば、人間の顔を表す統計的特徴量を含む1以上の統計的特徴量によって顔を表現するモデルに、入力画像中の顔領域を適応させることによって、入力画像中の顔領域における統計的特徴量に対する重みづけパラメータを取得し、取得した重みづけパラメータの値に基づいて、顔領域の濃度および/または色を推定し、推定した濃度および/または色に基づいて、顔領域の濃度および/または色を補正するようにしたものである。
このため、顔領域に影がかかっていたり、背景領域が肌色に近似していても、入力画像から正確に顔領域の濃度および/または色を推定することができる。したがって、顔以外の背景領域の影響が少ない、入力画像中の顔領域内の濃度および/または色を高精度に反映した濃度および/または色の補正が可能になり、より高精度に画質を調整することができるようになる。
また、濃度および/または色の補正を入力画像全体に対して行うようにした場合には、画像全体の高品質な色再現が可能になる。
また、濃度および/または色の補正を、顔領域に隣接する肌色の領域に対しても行うようにした場合には、顔領域とその隣接領域との間での色再現上の違和感をなくすことができ、より好ましい画像の再生が可能になる。
また、濃度および/または色の補正を行わない領域に近づくにつれて補正量が小さくなるように、濃度および/または色の補正を行うようにすれば、濃度および/または色の補正を行う領域と行わない領域との間での色再現上の違和感がなくなり、さらに好ましい画像の再生が可能になる。
また、顔領域とそれ以外の領域とで濃度および/または色の補正量を変更することにより、例えば、白いウェディングドレスを着た被写体の顔を明るくする補正を画像全体に適用することによって、顔より明るいウェディングドレスの模様がつぶれてしまうというような問題を回避できる。
また、入力画像中の顔領域を検出する処理(手段)を付加した場合には、顔領域の自動検出が可能になり、操作性が向上する。また、モデルに入力画像中の顔領域のみを適応することとなるため、計算量が少なくなり、その結果、高速に処理を行うことができる。
また、本発明におけるモデルを顔の属性毎に複数備えるとともに、入力画像中の顔領域の属性を取得し、取得された属性に応じたモデルを選択する処理(手段)を付加し、選択されたモデルに入力画像中の顔領域を適応させることによって重みづけパラメータを取得するようにした場合、入力画像中の顔領域を、より適切なモデルに適応させることが可能になるため、処理精度が向上し、より高品質の画像が得られる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。
図1は、本発明の実施形態となるデジタル写真プリンタのハードウェア構成を模式的に表したものである。図に示したように、このデジタル写真プリンタは、フィルムスキャナ51、フラットヘッドスキャナ52、メディアドライブ53、ネットワークアダプタ54、ディスプレイ55、キーボード56、マウス57、ハードディスク58、および写真プリント出力機59が演算・制御装置50に接続された構成となっている。
演算・制御装置50は、CD−ROM等の記憶媒体からインストールされたプログラムの実行により、この装置内のCPUや主記憶装置、各種入出力インターフェースと連携して、画像の入力、補正、加工、出力のフローを制御したり、画像の補正や加工のための画像処理の演算を行ったりするものである。本発明による濃度補正処理および色補正処理はこの装置で行われる。
フィルムスキャナ51は、現像機(図示なし)によって現像済みのAPSネガフィルムや135ネガフィルムを光電的に読み取って、これらのネガフィルムに記録されている写真画像を表すデジタル画像データP0を取得するものである。
フラットヘッドスキャナ52は、Lサイズ写真プリント等のハードコピーに表された写真画像を光電的に読み取って、デジタル画像データP0を取得するものである。
メディアドライブ53は、メモリカードやCD、DVD等の記録媒体に記録された写真画像を表す画像データP0を取得するものである。また、これらの記録媒体に、出力対象の画像データP2を書き込むことも可能である。なお、このメモリカードには、例えば、デジタルカメラによって、撮影された画像の画像データが書き込まれている。また、CDやDVD等には、例えば、前回のプリント注文時に、フィルムスキャナによって読み取られた画像の画像データが書き込まれている。
ネットワークアダプタ54は、公知のネットワークフォトサービスシステムにおける注文受付機(図示なし)から画像データP0を取得するものである。この画像データP0は、ユーザからの写真プリントの注文に基づく画像データであり、ユーザのパソコンからインターネット経由で送信してきたものである。また、ラボ店の店頭に設置された写真注文受付機から送信されてきたものであってもよい。
ディスプレイ55は、このデジタル写真プリンタにおける画像の入力、補正、加工、出力のための操作画面を表示するものであり、操作内容を選択するためのメニューや処理対象の画像等が表示される。また、キーボード56やマウス57は、処理内容を指示するものである。
ハードディスク58には、このデジタル写真プリンタを制御するプログラムが記憶されている他、フィルムスキャナ51、フラットヘッドスキャナ52、メディアドライブ53、ネットワークアダプタ54において取得された画像データP0や、画像補正後の画像データP1、画像加工後の画像データ(出力対象の画像データ)P2も一時的に記憶される。
写真プリント出力機59は、出力対象の画像を表す画像データP2に基づいたレーザーによる印画紙への走査露光、現像、および乾燥を行うとともに、プリント情報等の裏印字、および印画紙のプリント単位での切断や注文単位でのソート等を行うものである。なお、写真プリントの方式は、レーザー露光熱現像転写方式等であってもよい。
図2は、このデジタル写真プリンタの機能と処理の流れを示すブロック図である。図に示したように、機能の観点からは、このデジタル写真プリンタは、写真プリント対象の画像の画像データP0を入力する画像入力手段1と、画像データP0を入力として、所定の画像処理条件に基づく画像処理を行って、画像データP0による画像(以下、画像データとその画像データによる画像を同じ符号で表す)の画質の自動補正を行う画像補正手段2と、補正後の画像データP1を入力として、操作者からの指示に基づいた画像処理を行う画像加工手段3と、加工済みの画像データP2を入力として、写真プリントの出力や記録メディアへの出力を行う画像出力手段4とから構成されている。
画像補正手段2では、ホワイトバランス調整処理、シャープネス補正、およびノイズ軽減・除去等の処理が行われる他、本発明による濃度補正処理および色補正処理も行われる。なお、濃度補正処理には、階調補正処理および露出補正処理も含まれる。また、画像加工手段3では、画像補正手段2による処理結果の手作業による修正や、トリミング、拡大・縮小、セピア化、白黒化、および装飾フレームとの合成等の画像の加工が行われる。
このデジタル写真プリンタの操作とこのプリンタで行われる処理の流れは以下のようになる。
まず、画像入力手段1による画像データP0の入力が行われる。操作者は、現像済みのフィルムに記録された画像からのプリント等の出力を行う場合には、そのフィルムをフィルムスキャナ51にセットしておき、メモリカード等の記録メディアに記録された画像データからのプリント等の出力を行う場合には、その記録メディアをメディアドライブ53にセットしておく。一方、ディスプレイ55には、画像データの入力元を選択する画面が表示され、操作者はキーボード56やマウス57の操作によって、入力元の選択を行う。入力元としてフィルムが選択された場合には、フィルムスキャナ51は、セットされたフィルムを光電的に読み取り、デジタル変換することによって、生成された画像データP0を演算・制御装置50に送信する。写真プリント等のハードコピー原稿が選択された場合には、フラットヘッドスキャナ52は、セットされた写真プリント等のハードコピー原稿を光電的に読み取り、デジタル変換することによって、生成された画像データP0を演算・制御装置50に送信する。メモリカード等の記録メディアが選択された場合には、演算・制御装置50は、メディアドライブ53にセットされたメモリカード等の記録メディアに記憶されている画像データP0を読み込む。また、ネットワークフォトサービスシステムや店頭での写真受付注文機による注文の場合には、演算・制御装置50が、ネットワークアダプタ54経由で画像データP0を受信する。このようにして取得された画像データP0は、ハードディスク58に一時的に記憶される。
次に、画像補正手段2が、画像データP0による画像に対する自動画質補正処理を行う。具体的には、演算・制御装置50で実行される画像処理プログラムにより、予め、このデジタル写真プリンタに設定されているセットアップ条件に基づいて、公知のホワイトバランス調整処理、シャープネス補正、ノイズ軽減・除去等の処理の他、本発明の濃度・色補正処理が行われ、補正後の画像データP1が出力される。出力された画像データP1は演算・制御装置50のメモリに格納される。なお、ハードディスク58に一時的に記憶するようにしてもよい。
その後、画像加工手段3は、補正後の画像P1のサムネイル画像を生成し、ディスプレイ55に表示させる。図3(a)は、ディスプレイ55に表示される画面の一例である。操作者が、表示されたサムネイル画像を確認し、画質の手動補正が必要なものや、画像の加工の注文があるものを、マウス57やキーボード56の操作によって選択すると(図3(a)では左上の画像DSCF0001を選択)、図3(b)に一例を示すように、選択されたサムネイル画像が拡大されてディスプレイ55に表示されるとともに、その画像に対する手動補正や加工の処理内容を選択するボタンが表示される。操作者は、表示されたボタンの中から所望のものをマウス57やキーボード56の操作によって選択し、必要に応じて、選択された処理内容のさらに詳細な設定等を行う。画像加工手段3は、選択された処理内容に応じた画像処理を行い、加工済みの画像データP2を出力する。出力された画像データP2は演算・制御装置50のメモリに格納される。なお、ハードディスク58に一時的に記憶するようにしてもよい。また、以上の画像加工手段3による、ディスプレイ55への画面表示、マウス57やキーボード56による入力の受付、手動補正や加工の画像処理等は、演算・制御装置50で実行されているプログラムによって制御される。
最後に、画像出力手段4が、画像P2の出力を行う。ここでは、演算・制御装置50が、ディスプレイ55に出力先を選択する画面を表示させ、操作者は、マウス57やキーボード56の操作によって、所望の出力先を選択する。演算・制御装置50は、選択された出力先に対して画像データP2を送信する。写真プリント出力を行う場合には、画像データP2は写真プリント出力機59に送信され、画像P2が写真プリントとして出力される。CD等の記録メディアに出力を行う場合には、メディアドライブ53にセットされたCD等に画像データP2の書込みが行われる。
ここで、画像補正手段2によって行われる本発明による濃度・色補正処理の詳細について以下に説明する。図4は、濃度・色補正処理の詳細を表すブロック図である。図に示したように、画像P0中の顔領域F0を検出する顔検出部31と、人間の顔が表された複数のサンプル画像に基づいてAAM(前記の参考文献1参照)の手法によって生成された数学モデルMに、検出された顔領域F0を適応させることによって、顔領域F0の濃度を表す主成分に対する重みづけパラメータCd0、および色を表す主成分に対する重みづけパラメータCh0を取得するパラメータ取得部32と、重みづけパラメータCd0,Ch0に基づいて顔領域F0の濃度および色を推定し、推定した色および濃度に基づいて顔領域F0の濃度および色を補正して、濃度および色が補正された画像P1′を取得する濃度・色補正部33とによって、濃度・色補正処理が実現される。ここで、画像P1′は濃度・色補正処理のみが施された画像であり、画像P1は上述したホワイトバランス調整処理、シャープネス処理およびノイズ軽減処理等のすべての処理が施された後の画像である。なお、これらの処理の制御は演算・制御装置50にインストールされたプログラムによって行われる。
この数学モデルMは、図5のフローチャートに基づいて生成されたものであり、上記のプログラムとともに予めインストールされている。以下では、この数学モデルMの生成過程について説明する。
まず、人間の顔が表された、顔の形状、輝度および色が異なる複数の顔画像(サンプル画像)の各々に対して、図6に示すように、顔形状を表す特徴点を設定する(ステップ#1)。顔形状とは顔の輪郭形状および顔を構成する目、鼻および口等の部品の形状を含む。ここでは、特徴点の数は122箇所とする(ただし、図6では簡潔に表現するため60箇所しか表していない)。各特徴点は、例えば、1番目の特徴点は左目の左端、38番目の特徴点は眉の間の中央というように、顔のどの部位を示すものであるかが予め定められている。また、各特徴点は、手作業によって設定してもよいし、認識処理によって自動的に設定するようにしてもよいし、自動的に設定後、必要に応じて手作業で修正するようにしてもよい。
次に、各サンプル画像中に設定された特徴点に基づいて、顔の平均形状を算出する(ステップ#2)。具体的には、各サンプル画像における、同じ部位を示す特徴点毎の位置座標の平均を求める。
ここで、Sは顔形状の各特徴点の位置座標を並べて表現される形状ベクトル(x1,y1,・・・,x122,y122)であり、S0は平均顔形状における各特徴点の位置座標を並べて表現される平均顔形状ベクトル、piは主成分分析によって得られた顔形状についての第i主成分を表す固有ベクトル、biは各固有ベクトルpiに対する重みづけ係数を表す。図7は、主成分分析によって得られた上位2つの主成分の固有ベクトルp1、p2に対する重みづけ係数b1、b2の値を変化させた場合の顔形状の変化の様子を模式的に表したものである。変化の幅は、サンプル画像の各々の顔形状を上式(1)で表した場合における重みづけ係数b1、b2の値の標準偏差sdに基づいて、−3sdから+3sdまでの間であり、各主成分についての3つの顔形状の真ん中のものは平均値の場合である。この例では、主成分分析の結果、第1主成分としては顔の形状に寄与する成分が抽出されており、重みづけ係数b1を変化させることによって、細長い顔(−3sd)から丸顔(+3sd)まで顔形状が変化することがわかる。同様に、第2主成分としては口の開閉状態と顎の長さに寄与する成分が抽出されており、重みづけ係数b2を変化させることによって、口が開いた状態で顎の長い顔(−3sd)から口が閉じられた状態で顎が短い顔(+3sd)まで顔の形状が変化することがわかる。なお、iの値が小さいほど、形状に対する説明力が高い、すなわち、顔形状への寄与が大きいことを意味する。
次に、各サンプル画像をステップ#2で得られた平均顔形状に変換(ワーピング)する(ステップ#4)。具体的には、各特徴点について、各サンプル画像と平均顔形状との間でのシフト量を算出し、そのシフト量に基づいて、式(2)から(5)の2次元5次多項式により各サンプル画像の画素毎の平均顔形状へのシフト量を算出し、各サンプル画像を画素毎に平均顔形状へワーピングする。
ここで、x,yは各サンプル画像中の各特徴点の座標、x′,y′はワーピングされる平均顔形状上の座標、Δx,Δyは平均形状へのシフト量、nは次数、aij,bijは係数である。なお、多項式近似の係数は最小自乗法を用いて求める。このとき、ワーピング後の座標が整数ではなく小数点以下を含む位置に移動する画素については、4近傍から1次近似で画素値を求める。つまり、ワーピング後の座標を囲む4つの画素に対して、ワーピング後の座標から各画素の座標までの距離に比例して画素値をそれぞれ分配するようにする。図8は、3つのサンプル画像について、各々の画像中の顔形状を平均顔形状に変換した状態を表したものである。
さらに、平均顔形状に変換後のサンプル画像毎の各画素のR,G,B三原色の画素値を変数として主成分分析を行う(ステップ#5)。その結果、任意の顔画像の平均顔形状下でのR,G,B三原色の画素値は次式(6)によって近似することができる。
ここで、Aは平均顔形状下での各画素のR,G,B三原色の各々の画素値を並べて表現されるベクトル(r1, g1, b1, r2, g2, b2,・・・,rm, gm, bm)(r、g、bは各々R,G,Bの三原色の画素値、1からmは各画素を識別する添え字、mは平均顔形状での総画素数)であるが、ベクトルの成分の並び順は上記の順に限定されず、例えば、(r1,r2,・・・,rm,g1,g2,・・・,gm,b1,b2,・・・,bm)のような順であってもよい。また、A0は平均顔形状における各サンプル画像の画素毎のR,G,B三原色の各々の画素値の平均値を並べて表現される平均ベクトル、qiは主成分分析によって得られた顔のR,G,B三原色の画素値についての第i主成分を表す固有ベクトル、λiは各固有ベクトルqiに対する重みづけ係数を表す。なお、主成分の順位iの値が小さいほど、R,G,B三原色の画素値に対する説明力が高い、すなわち、R,G,B三原色の画素値への寄与が大きいことを意味する。
図9は、主成分分析によって得られた主成分のうち第i1、第i2の主成分を表す固有ベクトルqi1、qi2に対する重みづけ係数λi1、λi2の値を変化させた場合の顔の画素値の変化の様子を模式的に表したものである。変化の幅は、サンプル画像の各々の顔の画素値を上式(6)で表した場合における重みづけ係数λi1、λi2の値の標準偏差sdに基づいて、−3sdから+3sdまでの間であり、各主成分についての3つの顔画像の中央のものは平均値の場合である。この例では、主成分分析の結果、第i1主成分としてはヒゲの有無に寄与する成分が抽出されており、重みづけ係数λi1を変化させることによって、ヒゲの濃い顔(−3sd)からヒゲのない顔(+3sd)まで変化することがわかる。同様に、第i2主成分としては顔にかかる影の状態に寄与する成分が抽出されており、重みづけ係数λi2を変化させることによって、顔の右側に影がかかった顔(−3sd)から左側に影がかかった顔(+3sd)まで変化することがわかる。なお、各主成分がどのような要素に寄与しているかは人間の解釈によって決定される。
本実施形態では、サンプル画像として、人間の顔が表された複数の顔画像を用いているので、顔の形状の相違に寄与する成分が第1主成分として抽出されるものとすると、第1主成分の固有ベクトルq1に対する重みづけ係数λ1の値を変化させた場合、例えば、画像P0中の顔領域F0の形状が、細長い顔から丸顔まで顔形状が変化する。なお、顔の形状の相違に寄与する主成分が必ずしも第1主成分として抽出されている必要はない。顔の形状の相違に寄与する成分が第K主成分(K≠1)として抽出されている場合には、以下の説明の「第1」を「第K」に置き換えて考えることができる。また、顔の形状の相違が1つの主成分のみによって表現される必要はなく、複数の主成分が顔の形状の相違を説明することもありうる。
また、顔の濃度の相違に寄与する成分が第1主成分として抽出されるものとすると、第1主成分の固有ベクトルq1に対する重みづけ係数λ1の値を変化させた場合、例えば、画像P0中の顔領域F0の濃淡が変化する。
さらに、顔の色の相違に寄与する成分が第1主成分として抽出されるものとすると、第1主成分の固有ベクトルq1に対する重みづけ係数λ1の値を変化させた場合、例えば、画像P0中の顔領域F0の色が例えば青っぽい色から赤っぽい色に変化する。
以上のステップ#1から#5までの処理によって、顔の数学モデルMが生成される。すなわち、この数学モデルMは、顔形状を表す複数の固有ベクトルpiと、平均顔形状下での顔の画素値を表す固有ベクトルqiによって表現されるものであり、各固有ベクトルの合計数が、顔画像を形成する画素数よりも大幅に少ない、次元圧縮されたものとなっている。なお、上記参考文献1記載の実施例では、約10,000画素により形成される顔画像に対して122の特徴点を設定して上記の処理を行うことによって、顔形状についての23の固有ベクトルと顔の画素値についての114の固有ベクトルで表される顔画像の数学モデルが生成され、各固有ベクトルに対する重みづけ係数を変化させることによって、約98%の顔形状や画素値のバリエーションを表現できることが示されている。
次に、この数学モデルMを利用したAAMの手法に基づく濃度・色補正処理の流れについて、図4を参照しながら説明する。
まず、顔検出部31が、画像データP0を読み込み、画像P0中の顔領域F0を検出する。具体的には、特表2004−527863号公報(参考文献2)に記載されているような固有顔表現と画像自体との相関スコアを用いる方法の他、知識ベース、特徴抽出、肌色検出,テンプレートマッチング、グラフマッチング、統計的手法(ニューラルネットワーク、SVM、HMM)等の様々な公知の手法を用いることができる。なお、画像P0がディスプレイ55に表示された際に、マウス57やキーボード56の操作により、手作業で顔領域F0を指定するようにしてもよいし、自動検出の結果を手作業で修正するようにしてもよい。
次に、パラメータ取得部32は、顔領域F0を数学モデルMに適応させる処理を行う。具体的には、上記式(1)、(6)の上位の主成分の固有ベクトルpi、qiに対する重みづけ係数bi、λiから順に係数の値を変化させながら、上記式(1)、(6)に基づいて画像を再構成し、再構成された画像と顔領域F0との差異が最小となるときの重みづけ係数bi、λiを求める(詳細は、参考文献2参照)。このときの重みづけ係数λiのうち、顔の濃度および色を表す重みづけ係数λiがそれぞれパラメータCd0,Ch0である。なお、重みづけ係数bi、λiの値は、モデル生成時のサンプル画像を上記(1)、(6)で表したときのbi、λiの分布の標準偏差sdに基づき、例えば−3sdから+3sdまでの範囲の値のみを許容し、その範囲を超える場合には、上記の分布における平均値を設定することが好ましい。これにより、モデルの誤適応を回避することができる。
濃度・色補正部33は、まず、求められたパラメータCd0,Ch0に基づいて参照テーブルT0,T1を参照して濃度の補正量Dおよび色の補正量Hを取得する。ここで、参照テーブルT0,T1について説明する。図10は、参照テーブルT0,T1の構成と値の例を示したものである。参照テーブルT0,T1は、予め実験的、統計的に求めておいたパラメータCd0,Ch0の値と濃度および色の補正量との関係を対応づけたものである。図に示すように、参照テーブルT0においては、濃度を表すパラメータCd0と濃度の補正量Di(i=1〜5)とが対応づけられており、参照テーブルT1においては、色を表すパラメータCh0と色の補正量Hi(i=1〜5)とが対応づけられている。
ここで、濃度の補正量Dは、顔領域F0が予め定められた所望とする濃度となるように変更する値に定めることが考えられる。また、色の補正量Hは、顔領域F0が予め定められた所望とする色となるように変更する値に定めることが考えられる。
上記の説明では、顔の濃度および色を表す主成分がそれぞれ1つだけであることを前提としたが、濃度および色を表す主成分がそれぞれ複数ある場合には、それら複数の主成分に対する重みづけ係数(例えば、λ1,λ2,・・・,λJ)の値の組合せに基づいて、濃度および色の補正量D,Hを決定すればよい。すなわち、パラメータCd0,Ch0を次式(7)のように、各重みづけ係数の線形結合として求めるようにしてもよい(αiは、重みづけ係数λiに対応する主成分の濃度および色に対する寄与度を表す係数)。
また、各重みづけ係数の値の組合せとパラメータCd0,Ch0の値を対応づける高次元の参照テーブルによって求めるようにしてもよい。また、図10の参照テーブルT0,T1のパラメータCd0,Ch0の項目を重みづけ係数λ1,λ2,…,λJというように複数の項目に分割し、各重みづけ係数の値の組合せに対して濃度および色の補正量D,Hを対応づけるように参照テーブルT0,T1を構成してもよい。
さらに、参照テーブルT0,T1を用いずに、パラメータCd0,Ch0を入力として、濃度および色の補正量D,Hを出力する関数を定義し、その関数に基づいて濃度および色の補正量D,Hを求めるようにしてもよい。
ここで、R′、G′、B′は濃度補正後の顔領域F0の各画素のRGB値、R、G、Bは濃度補正前の顔領域F0の各画素のRGB値、Dr,Dg,DbはRGB各色の濃度補正量、Hr,Hg,HbはRGB各色の色補正量である。
なお、この濃度・色補正処理を顔領域F0だけでなく、画像P0全体に適用してもよい。また、顔領域F0の周辺の肌色領域(例えば首部分等)を公知の手法(例えば上記特許文献1に記載の手法)によって検出し、検出された肌色領域に対しても同様の濃度・色補正処理を行ってもよい。さらに、画像P0の一部の領域に対してのみ濃度・色補正処理を行う場合には、濃度・色補正処理を行わない領域に近づくにつれて、濃度および色の補正量が小さくなるように、補正量を変化させながら、濃度・色補正処理を行うようにしてもよい。
また、顔領域とそれ以外の領域とにおいて、補正量を変更するようにしてもよい。これにより、例えば、白いウェディングドレスを着た被写体の顔を明るくする補正を画像全体に適用することによって、顔より明るいウェディングドレスの模様がつぶれてしまうというような問題を回避できる。
以上のように、本発明の実施形態となる濃度・色補正処理は、顔検出部31が検出した画像P0中の顔領域F0を、人間の顔が表された複数のサンプル画像に基づいてAAMの手法によって生成された数学モデルMに適応させることによって、顔領域F0の濃度および色を表す主成分に対する重みづけパラメータCd0,Ch0Cを取得し、濃度・色補正部33が、取得されたパラメータCd0,Ch0に基づいて顔領域F0の濃度および色を推定し、推定した濃度および色に基づいて顔領域F0の濃度および色を補正するようにしたものである。
このため、顔以外の背景領域の影響が少ない、画像P0中の顔領域F0内の濃度および色を高精度に反映した濃度および色の補正が可能になり、より高精度に画質を調整することができるようになる。
なお、上記の実施形態では、数学モデルMが1つだけ存在するようにしていたが、人種別、年齢別、性別等の属性別に複数の数学モデルMi(i=1,2,・・・)を生成しておいてもよい。図11は、この場合の濃度・色補正処理の詳細を表すブロック図である。図に示したように、画像P0に基づいて、画像中の被写体の属性情報AKを取得する属性取得部34と、取得した属性情報AKに基づいて、その属性を有する被写体を表すサンプル画像のみから生成された数学モデルMKを選択するモデル選択部35とを有している点で、上記の実施形態(図4)とは異なる。
ここで、複数の数学モデルMiは、例えば、同じ人種、年代、性別等を有する被写体を表すサンプル画像のみから前述の方法(図5参照)に基づいて各々生成されたものであり、サンプル画像における共通の属性を表す属性情報Aiと関連づけられて記憶されている。
属性取得部34は、画像P0に対する公知の認識処理(例えば、特開平11−175724号公報記載)を行うことによって、被写体の属性を判定し、属性情報AKを取得してもよいし、撮影時に被写体の属性を画像データP0の付帯情報としてヘッダ等に記録しておき、記録された情報を取得するようにしてもよい。また、付帯情報に基づいて被写体の属性を推定するようにしてもよい。例えば、撮影場所のGPS情報があれば、そのGPS情報に対応する国や地域を特定することができるので、撮影された被写体の人種をある程度推定することができることに着目し、GPS情報と人種情報を関連づける参照テーブルを予め用意しておき、撮影時にGPS情報を取得して画像データP0のヘッダ領域に記録するデジタルカメラ(例えば、特開2004−153428号公報記載)で得られた画像データP0を入力として、画像データP0のヘッダ領域に記録されているGPS情報を取得し、取得したGPS情報に基づいて前記の参照テーブルを参照し、そのGPS情報に関連づけられた人種情報を被写体の人種として推定することが考えられる。
モデル選択部35は、属性取得部34によって得られた属性情報AKと関連づけられた数学モデルMKを取得し、パラメータ取得部32は、顔領域F0を数学モデルMKに適応させる。
このように、複数の属性に応じた数学モデルMiを予め用意しておき、モデル選択部35が、属性取得部34で取得した属性AKと関連づけられた数学モデルMKを選択し、パラメータ取得部32が、選択された数学モデルMKに顔領域F0を適応させるようにした場合には、数学モデルMKには属性AKの違いに起因する顔形状や輝度および色のバリエーションを説明する固有ベクトルは存在しないので、顔形状や輝度および色を決定する他の要因を表す固有ベクトルにのみ基づいて顔領域F0を表現することが可能になり、処理精度が向上し、より高品質の画像が得られる。
なお、処理精度の向上の観点からは、属性別の数学モデルをさらに特化させ、被写体の個人別の数学モデルを構築しておくことが好ましい。この場合には、画像P0と個人を特定する情報とを関連づけておく必要がある。
また、上記の実施形態では、数学モデルは予めデジタル写真プリンタにインストールされているものとしているが、人種別の数学モデルを予め準備しておき、そのプリンタの出荷先の国や地域によって、インストールする数学モデルを変えることも処理精度の向上の観点からは好ましい。
さらに、この数学モデルを生成する機能をデジタル写真プリンタに実装するようにしてもよい。具体的には、図5のフローチャートに基づいて説明した処理を行わせるプログラムを演算・制御装置50にインストールしておけばよい。また、出荷時にはデフォルトの数学モデルをインストールしておき、そのデジタル写真プリンタへの入力画像を用いて、その数学モデルをカスタマイズ(変更)できるようにしたり、デフォルトの数学モデルとは異なる新たなモデルを生成するようにしたりすることも考えられる。これは、前記のように個人別のモデルを生成する場合に特に有効である。
また、上記の実施形態では、顔形状とR,G,B三原色の画素値についての別個の重みづけ係数bi、λiによって、個別の顔画像を表現していたが、顔形状とR,G,B三原色の画素値のバリエーションには相関性があることから、重みづけ係数bi、λiを結合して得られるベクトル(b1,b2,・・・,bi,・・・,λ1,λ2,・・・,λi,・・・)に対してさらに主成分分析を行うことにより、次式(9),(10)に示したように、顔形状とR,G,B三原色の画素値の両方を制御する新しいアピアランスパラメータcを得ることができる。
ここで、アピアランスパラメータcとベクトルQSによって平均顔形状からの形状の変動分が表現され、アピアランスパラメータcとベクトルQAによって顔の画素値の平均からの画素値の変動分要素が表現される。
このモデルを用いた場合には、パラメータ取得部32は、アピアランスパラメータcの値を変化させながら、上記式(10)に基づいて平均顔形状下での顔の画素値を求め、さらに、上記式(9)に基づいて平均顔形状からの変換を行うことによって、顔画像を再構成し、再構成された画像と顔領域F0との差異が最小となるときのアピアランスパラメータcを求めることになる。
本発明の他の実施形態としては、上記の濃度・色補正処理をデジタルカメラに実装することが考えられる。すなわち、デジタルカメラの濃度・色補正機能として実装した場合である。図12は、このようなデジタルカメラの構成を模式的に表したものである。図に示すように、このデジタルカメラは、レンズ、絞り、シャッター、CCD等からなり、被写体の撮像を行う撮像部71、撮像部71のCCDに蓄積された電荷によるアナログ信号をデジタル化して、デジタル画像データP0を得るA/D変換部72、画像データP0等に対して各種画像処理を行う画像処理部73、メモリカードに記録する画像データの圧縮処理やメモリカードから読み込んだ圧縮形式の画像データに対する伸長処理を行う圧縮/伸長部74、ストロボ等からなり、ストロボ発光を行うストロボ部75、各種操作ボタン等からなり、撮影条件や画像処理条件等の設定を行う操作部76、画像データが記録されるメモリカードとのインターフェースとなるメディア記録部77、液晶ディスプレイ等からなり、スルー画や撮影された画像、各種設定メニュー等を表示する表示部78、前記各部による処理の制御を行う制御部70、および制御プログラムや画像データ等を記憶する内部メモリ79を有している。
ここで、図2の画像入力手段1は撮像部71とA/D変換部72、画像補正手段2は画像処理部73、画像加工手段3は画像処理部73と操作部76と表示部78、画像出力手段4はメディア記録部77によって、制御部70による制御の下で内部メモリ79も使用しつつ、各々の機能が実現される。
次に、このデジタルカメラの操作と処理の流れについて説明する。
まず、撮影者によるシャッターの全押し操作によって、撮像部71がレンズに入射した被写体光をCCDの光電面に結像させ、光電変換の後、アナログ画像信号を出力し、A/D変換部72が、出力されたアナログ画像信号をデジタル画像信号に変換し、デジタル画像データP0として出力することによって、画像入力手段1として機能する。
次に、画像処理部73が、シャープネス処理およびホワイトバランス調整処理等を行うとともに、本発明の濃度・色補正処理も行い、補正後の画像データP1を出力することによって、画像補正手段2として機能する。ここで、濃度・色補正処理は、制御部70が、内部メモリ79に記憶されている濃度・色補正用プログラムを起動し、内部メモリ79に予め記憶されている数学モデルMを用いた前述の濃度・色補正処理(図4等参照)を画像処理部73に行わせることによって実現される。
ここで、画像P1が表示部78により液晶ディスプレイに表示される。表示レイアウトとしては、図3(a)に示したサムネイル形式による複数の画像の表示が考えられる。撮影者は、操作部76の操作ボタンの操作により、加工対象の画像を選択して拡大表示し、メニュー選択によりさらなる画像の手動補正や加工を行い、加工済みの画像データP2を出力する。以上のようにして、画像加工手段3の機能が実現される。
そして、圧縮/伸長部74が画像データP2をJPEG等の圧縮形式に基づく圧縮処理を行い、メディア記録部77経由でこのデジタルカメラに装填されたメモリカードに圧縮後の画像データを書き込むことによって、画像出力手段4の機能が実現される。
このように、本発明の濃度・色補正処理をデジタルカメラの画像処理機能として実装することによって、上記のデジタル写真プリンタの場合と同様の効果を得ることができる。
なお、手動補正や加工処理は、メモリカードに一旦記録された画像に対しても行えるようにしてもよい。具体的には、メモリカードに記憶されている画像データを圧縮/伸長部74が伸長(解凍)した後、伸長済みの画像データによる画像を表示部78の液晶ディスプレイに表示し、撮影者が、前記と同様の操作によって所望の画像処理を選択し、画像処理部73が、選択された画像処理を行う。
また、図11等で説明した被写体の属性別の数学モデルをデジタルカメラに実装してもよいし、図5で示した数学モデルの生成処理を実装してもよい。ここで、個々のデジタルカメラによる撮影の被写体となる人物はある程度限定されることが多いことから、そのデジタルカメラで主に被写体となる人物の顔についての個人別の数学モデルを生成するようにすれば、顔の個人差による変動のないモデルを生成できるため、その人物の顔に対する濃度・色補正処理をきわめて高い精度で行うことが可能になる。
なお、上記実施形態においては、顔領域F0の濃度および色の双方を補正しているが、画像補正手段2を濃度の補正および色の補正のそれぞれに特化させることも可能である。図13は濃度のみの補正処理の詳細を表すブロック図である。図13に示すように、濃度補正処理は、上述した顔検出部31と、濃度を表す主成分に対する重みづけパラメータCd0のみを取得するパラメータ取得部32と、参照テーブルT0のみを参照して顔領域F0の濃度を補正して濃度が補正された画像P1′を取得する濃度補正部37により実現される。
図14は、色のみの補正処理の詳細を表すブロック図である。図14に示すように、色補正処理は、上述した顔検出部31と、色を表す主成分に対する重みづけパラメータCh0のみを取得するパラメータ取得部32と、参照テーブルT1のみを参照して顔領域F0の色を補正して色が補正された画像P1′を取得する色補正部38により実現される。
上記の実施形態のほか、本発明の濃度・色補正処理、濃度補正処理および色補正処理をパソコン等に行わせるプログラムを、画像編集ソフトウェアに組み込むことも考えられる。これにより、ユーザは、このソフトウェアが記憶されているCD−ROM等の記憶媒体からパソコン等にインストールしたり、インターネット上の所定のサイトからこのソフトウェアをダウンロードしてインストールしたりすることによって、自分のパソコンでの画像の編集加工の1パターンとして、本発明の濃度・色補正処理、濃度補正処理および色補正処理を利用することが可能になる。
1 画像入力手段
2 画像補正手段
3 画像加工手段
4 画像出力手段
31 顔検出部
32 パラメータ取得部
33 濃度・色補正部
34 属性取得部
35 モデル選択部
37 濃度補正部
38 色補正部
51 フィルムスキャナ
52 フラットヘッドスキャナ
53 メディアドライブ
54 ネットワークアダプタ
55 ディスプレイ
56 キーボード
57 マウス
58 ハードディスク
59 写真プリント出力機
70 制御部
71 撮像部
72 A/D変換部
73 画像処理部
74 圧縮/伸長部
75 ストロボ部
76 操作部
77 メディア記録部
78 表示部
79 内部メモリ
2 画像補正手段
3 画像加工手段
4 画像出力手段
31 顔検出部
32 パラメータ取得部
33 濃度・色補正部
34 属性取得部
35 モデル選択部
37 濃度補正部
38 色補正部
51 フィルムスキャナ
52 フラットヘッドスキャナ
53 メディアドライブ
54 ネットワークアダプタ
55 ディスプレイ
56 キーボード
57 マウス
58 ハードディスク
59 写真プリント出力機
70 制御部
71 撮像部
72 A/D変換部
73 画像処理部
74 圧縮/伸長部
75 ストロボ部
76 操作部
77 メディア記録部
78 表示部
79 内部メモリ
Claims (9)
- 人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた統計的特徴量によって前記顔を表現するモデルに、入力画像中の顔領域を適応させることによって、該入力画像中の顔領域における前記統計的特徴量に対する重みづけパラメータを取得するパラメータ取得手段と、
取得された前記重みづけパラメータの値に基づいて、前記顔領域の濃度および/または色を推定し、推定した濃度および/または色に基づいて、前記顔領域の濃度および/または色を補正する補正手段とを備えたことを特徴とする画像処理装置。 - 前記補正手段が、前記入力画像の全体に対して前記濃度および/または色の補正を行うものであることを特徴とする請求項1記載の画像処理装置。
- 前記補正手段が、前記顔領域に隣接する肌色の領域に対しても前記濃度および/または色の補正を行うものであることを特徴とする請求項1記載の画像処理装置。
- 前記補正手段が、前記濃度および/または色の補正を行わない領域に近づくにつれて前記濃度および/または色の補正量が小さくなるように、前記補正を行うものであることを特徴とする請求項1から3のいずれか1項記載の画像処理装置。
- 前記補正手段が、前記顔領域とそれ以外の領域とにおいて前記濃度および/または色の補正量を変更するものであることを特徴とする請求項1から4のいずれか1項記載の画像処理装置。
- 前記入力画像から前記顔領域を検出する顔検出手段をさらに備えたことを特徴とする請求項1から5のいずれか1項記載の画像処理装置。
- 前記入力画像中の前記顔領域の属性を取得し、前記顔の属性毎に該顔が表現された複数の前記モデルから、取得された属性に応じた前記モデルを選択する選択手段をさらに備え、
前記パラメータ取得手段が、前記選択されたモデルに前記顔領域を適応させることによって、前記重みづけパラメータを取得するものであることを特徴とする請求項1から6のいずれか1項記載の画像処理装置。 - 人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた統計的特徴量によって前記顔を表現するモデルに、入力画像中の顔領域を適応させることによって、該入力画像中の顔領域における前記統計的特徴量に対する重みづけパラメータを取得し、
取得された前記重みづけパラメータの値に基づいて、前記顔領域の濃度および/または色を推定し、
推定した濃度および/または色に基づいて、前記顔領域の濃度および/または色を補正することを特徴とする画像処理方法。 - コンピュータを、
人間の顔が表された複数の画像に対して所定の統計処理を行うことによって得られた統計的特徴量によって前記顔を表現するモデルに、入力画像中の顔領域を適応させることによって、該入力画像中の顔領域における前記統計的特徴量に対する重みづけパラメータを取得するパラメータ取得手段と、
取得された前記重みづけパラメータの値に基づいて、前記顔領域の濃度および/または色を推定し、推定した濃度および/または色に基づいて、前記顔領域の濃度および/または色を補正する補正手段として機能させることを特徴とする画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005177370A JP2006350769A (ja) | 2005-06-17 | 2005-06-17 | 画像処理装置および方法並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005177370A JP2006350769A (ja) | 2005-06-17 | 2005-06-17 | 画像処理装置および方法並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006350769A true JP2006350769A (ja) | 2006-12-28 |
Family
ID=37646529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005177370A Withdrawn JP2006350769A (ja) | 2005-06-17 | 2005-06-17 | 画像処理装置および方法並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006350769A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008193386A (ja) * | 2007-02-05 | 2008-08-21 | Naltec Inc | 画像を出力するための方法およびシステム |
WO2009125578A1 (ja) * | 2008-04-07 | 2009-10-15 | 富士フイルム株式会社 | 画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体 |
JP2009253764A (ja) * | 2008-04-08 | 2009-10-29 | Fujifilm Corp | 画像処理システム、画像処理方法、およびプログラム |
JP2009253765A (ja) * | 2008-04-08 | 2009-10-29 | Fujifilm Corp | 画像処理システム、画像処理方法、およびプログラム |
JP2009273117A (ja) * | 2008-04-07 | 2009-11-19 | Fujifilm Corp | 画像処理システム、画像処理方法、およびプログラム |
US8447128B2 (en) | 2008-04-07 | 2013-05-21 | Fujifilm Corporation | Image processing system |
-
2005
- 2005-06-17 JP JP2005177370A patent/JP2006350769A/ja not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008193386A (ja) * | 2007-02-05 | 2008-08-21 | Naltec Inc | 画像を出力するための方法およびシステム |
WO2009125578A1 (ja) * | 2008-04-07 | 2009-10-15 | 富士フイルム株式会社 | 画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体 |
JP2009273117A (ja) * | 2008-04-07 | 2009-11-19 | Fujifilm Corp | 画像処理システム、画像処理方法、およびプログラム |
US8447128B2 (en) | 2008-04-07 | 2013-05-21 | Fujifilm Corporation | Image processing system |
JP2009253764A (ja) * | 2008-04-08 | 2009-10-29 | Fujifilm Corp | 画像処理システム、画像処理方法、およびプログラム |
JP2009253765A (ja) * | 2008-04-08 | 2009-10-29 | Fujifilm Corp | 画像処理システム、画像処理方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4799101B2 (ja) | 画像処理方法および装置ならびにプログラム | |
JP4767718B2 (ja) | 画像処理方法および装置ならびにプログラム | |
US8107764B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US7751640B2 (en) | Image processing method, image processing apparatus, and computer-readable recording medium storing image processing program | |
US8068645B2 (en) | Apparatus, method, and program for image processing | |
JP2006350498A (ja) | 画像処理装置および方法並びにプログラム | |
JP2007006182A (ja) | 画像処理装置および方法並びにプログラム | |
JP4906034B2 (ja) | 撮影装置および方法並びにプログラム | |
US7848588B2 (en) | Method and apparatus for judging direction of blur and computer-readable recording medium storing a program therefor | |
JP4519708B2 (ja) | 撮影装置および方法並びにプログラム | |
US20070014483A1 (en) | Apparatus, method and program for image processing | |
US20040263887A1 (en) | Image processing apparatus and method | |
JP4739256B2 (ja) | 画像処理装置および方法並びにプログラム | |
JP2006295303A (ja) | 画像処理方法および装置ならびにプログラム | |
JP4043708B2 (ja) | 画像処理方法および装置 | |
JP2006350769A (ja) | 画像処理装置および方法並びにプログラム | |
US6850341B1 (en) | Method, system and recording medium for image processing | |
JP4766644B2 (ja) | 画像処理方法および画像処理装置 | |
JP2005006213A (ja) | 画像処理装置およびその方法 | |
JP2007124112A (ja) | 画像処理方法および装置ならびにプログラム | |
JP2005228138A (ja) | 画像処理方法、画像処理装置及び画像処理プログラム | |
JP2004094680A (ja) | 画像処理方法、画像処理装置、画像記録装置及び記録媒体 | |
JP2007159029A (ja) | 画像処理装置及び画像処理方法 | |
JP2003244622A (ja) | 画像形成方法、画像処理装置、プリント作成装置及び記憶媒体 | |
JP2007166307A (ja) | 画像処理装置及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061209 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080902 |