JP2015041901A - 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置 - Google Patents
画像処理装置、その制御方法、および制御プログラム、並びに撮像装置 Download PDFInfo
- Publication number
- JP2015041901A JP2015041901A JP2013172259A JP2013172259A JP2015041901A JP 2015041901 A JP2015041901 A JP 2015041901A JP 2013172259 A JP2013172259 A JP 2013172259A JP 2013172259 A JP2013172259 A JP 2013172259A JP 2015041901 A JP2015041901 A JP 2015041901A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- image processing
- setting range
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】画面の周辺における距離情報の精度低下(合焦位置精度の低下)に応じた画像処理を行う。【解決手段】CPU115は画像を表示する画面に複数のAF枠を有するAF設定範囲を設定してAF枠の各々について合焦位置を求め、当該合焦位置に応じてAF設定範囲を複数の距離領域に分割し、さらに、AF設定範囲よりも広い拡張範囲を所定の複数のブロックに分割してブロックの各々について色相を示す色情報を得て当該色情報に応じて画面を複数の色領域に分割する。CPUは距離領域とAF設定範囲における色領域とを対応付けて第1の統合領域分割結果を生成して、画像において特定の被写体が検出された際に特定の被写体がAF設定範囲に収まっていると第1の統合領域分割結果を参照して特定の被写体を規定する第1の選択領域を選択する。そして、CPUは画像処理部110によって第1の選択領域に応じて画像に対して所定の第1の画像処理を行う。【選択図】図5
Description
本発明は、画像処理装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、撮影の結果得られた画像について、カメラなどの撮像装置からの距離に応じて複数の領域に分割して画像処理を行う技術に関する。
一般に、画像処理装置の1つとして、デジタルスチルカメラなどの撮像装置があり、当該撮像装置で得られた画像(以下撮影画像と呼ぶ)に対して画像処理を行って、画像における表現を多彩にすることが行われている。例えば、撮影画像において被写体が存在する領域(以下被写体領域という)を特定して、当該被写体領域を含む範囲を切り出した画像を生成することが行われている。さらに、被写体領域以外の背景領域においてぼかし処理を施すことがある。
ところが、被写体領域を特定する際の検出精度が悪いと、かえって望ましくない画像が生成されることもある。例えば、被写体領域の特定精度が悪いと、切り出し処理の際に被写体領域について適切な構図で切り出すことができないことがあり、これによって、望ましくない画像が生成されてしまうことがある。
さらに、被写体領域を特定する際の検出精度が悪いと、ぼかし処理の際には、被写体領域においてぼかし処理が行われてしまうことがあるばかりでなく、背景領域について所謂ぼかし残しが発生してしまうなどの不自然なぼかし処理が行われることになる。
このように、被写体領域を切り出して画像処理を行う際、又は背景領域にぼかし処理を行う際には、撮影画像における被写体領域を特定するための検出精度を向上させる必要がある。
被写体領域の特定精度を向上させるため、例えば、撮影画像をカメラからの距離を示す距離情報に応じて所定の段数に分割して、輝度および/または色情報に基づいて被写体領域を判定するようにしたものがある。そして、ここでは、距離情報と領域判定情報とに対応づけてぼかし処理を施すようにしている(特許文献1参照)。
ところで、特許文献1においては、撮影画像の全体、つまり、画面全体を距離情報の取得対象としているものの、画面の周辺においては像面湾曲又は周辺光量落ちに起因してオートフォーカス(AF)精度が低下する。このため、画面の周辺において被写体領域の抽出を誤ってしまい、望ましくないぼかし処理が施された、つまり、被写体領域の一部がぼかされてしまった画像が生成されることがある。
そこで、本発明の目的は、画面の周辺における距離情報の精度低下(合焦位置精度の低下)に応じた画像処理を行うことのできる画像処理装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。
上記の目的を達成するため、本発明による画像処理装置は、画像における特定の被写体を検出して、当該特定の被写体の検出結果に応じて前記画像に対して画像処理を行う画像処理装置であって、前記画像を表示する画面に複数のAF枠を有するAF設定範囲を設定して、前記AF枠の各々について合焦位置を求めて、当該合焦位置に応じて前記AF設定範囲を複数の距離領域に分割する第1の分割手段と、前記AF設定範囲よりも広い拡張範囲を所定の複数のブロックに分割して前記ブロックの各々について少なくとも輝度値および色相の1つを示す色情報を得て当該色情報に応じて前記画面を複数の色領域に分割する第2の分割手段と、前記距離領域と前記AF設定範囲における色領域とを対応付けて第1の統合領域分割結果を生成する領域生成手段と、前記画像において前記特定の被写体が検出された際、前記特定の被写体が前記AF設定範囲に収まっていると、前記第1の統合領域分割結果を参照して前記特定の被写体を規定する第1の選択領域を選択する選択手段と、前記第1の選択領域に応じて前記画像に対して所定の第1の画像処理を行う第1の画像処理手段と、を有することを特徴とする。
本発明による撮像装置は、前記特定の被写体を撮像して前記画像を得る撮像手段と、上記の画像処理装置と、を有することを特徴とする。
本発明による制御方法は、画像における特定の被写体を検出して、当該特定の被写体の検出結果に応じて前記画像に対して画像処理を行う画像処理装置の制御方法であって、前記画像を表示する画面に複数のAF枠を有するAF設定範囲を設定して、前記AF枠の各々について合焦位置を求めて、当該合焦位置に応じて前記AF設定範囲を複数の距離領域に分割する第1の分割ステップと、前記AF設定範囲よりも広い拡張範囲を所定の複数のブロックに分割して前記ブロックの各々について少なくとも輝度値および色相の1つを示す色情報を得て当該色情報に応じて前記画面を複数の色領域に分割する第2の分割ステップと、前記距離領域と前記AF設定範囲における色領域とを対応付けて第1の統合領域分割結果を生成する領域生成ステップと、前記画像において前記特定の被写体が検出された際、前記特定の被写体が前記AF設定範囲に収まっていると、前記第1の統合領域分割結果を参照して前記特定の被写体を規定する第1の選択領域を選択する選択ステップと、前記第1の選択領域に応じて前記画像に対して所定の第1の画像処理を行う第1の画像処理ステップと、を有することを特徴とする。
本発明による制御プログラムは、画像における特定の被写体を検出して、当該特定の被写体の検出結果に応じて前記画像に対して画像処理を行う画像処理装置で用いられる制御プログラムであって、前記画像処理装置が備えるコンピュータに、前記画像を表示する画面に複数のAF枠を有するAF設定範囲を設定して、前記AF枠の各々について合焦位置を求めて、当該合焦位置に応じて前記AF設定範囲を複数の距離領域に分割する第1の分割ステップと、前記AF設定範囲よりも広い拡張範囲を所定の複数のブロックに分割して前記ブロックの各々について少なくとも輝度値および色相の1つを示す色情報を得て当該色情報に応じて前記画面を複数の色領域に分割する第2の分割ステップと、前記距離領域と前記AF設定範囲における色領域とを対応付けて第1の統合領域分割結果を生成する領域生成ステップと、前記画像において前記特定の被写体が検出された際、前記特定の被写体が前記AF設定範囲に収まっていると、前記第1の統合領域分割結果を参照して前記特定の被写体を規定する第1の選択領域を選択する選択ステップと、前記第1の選択領域に応じて前記画像に対して所定の第1の画像処理を行う第1の画像処理ステップと、を実行させることを特徴とする。
本発明によれば、画像において特定の被写体が検出された際、特定の被写体がAF設定範囲に収まっていると、第1の統合領域分割結果を参照して特定の被写体を規定する第1の選択領域を選択して、第1の選択領域に応じて画像に対して所定の第1の画像処理を行うようにした。これによって、画面周辺における合焦位置精度の悪化によって特定の被写体を検出する精度が低下しても、その検出精度に応じた画像処理を行うことができる。つまり、画面周辺における合焦位置の精度低下に応じた画像処理を行うことができる。
以下、本発明の実施の形態による画像処理装置の一例について図面を参照して説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。
図1は、本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。
図示の撮像装置は、所謂電子カメラ(以下単にカメラと呼ぶ)であり、ズーム機構を備える撮影レンズユニット(以下単に撮影レンズと呼ぶ)101を有している。撮影レンズ101の後段には絞り102およびフォーカスレンズ104が配置され、フォーカスレンズ104の後段には、CCD又はCMOSセンサなどの撮像素子108が配置されている。
絞り102は、撮影レンズ101を介して入射した光学像における光量を調整するとともに被写界深度の調節を行う。フォーカスレンズ104は焦点合わせを行って光学像を撮像素子108に結像するためのレンズである。
フォーカスレンズ104はAF処理部105によって光軸に沿って駆動制御される。そして、AF処理部105は、フォーカスレンズ104の位置(駆動位置)に応じて、後述する距離分布(つまり、距離情報)を取得してシステム制御部115に与える。
撮像素子108は、光学像に応じた電気信号(アナログ信号)を生成してA/D変換部109に出力する。A/D変換部109は、CDS回路および非線形増幅回路を備えており、CDS回路は撮像素子108の出力であるアナログ信号に含まれる出力ノイズを除去する。そして、非線形増幅回路によってアナログ信号を増幅した後、A/D変換部109は当該アナログ信号をA/D変換してデジタル信号(画像データ)とする。
画像処理部110は、A/D変換部109の出力であるデジタル信号に対して各種の画像処理を行う。図示の例では、画像処理部110は、デジタル信号(つまり、画像データ)が示す画像(一画面毎)における色分布を取得する処理を行う。そして、システム制御部(以下CPUという)115は、画像処理部110で得られた色分布(つまり、色情報)に基づいて、AF処理部105で得られた距離分布と被写体検出モジュール123で得られた被写体検出情報とを参照して被写体(つまり、被写体領域)を特定する。
画像処理部110は、CPU115の制御下で特定された被写体領域に基づいて画像の一部について切り出しを行う処理又はぼかしを付加するぼかし処理などの画像処理を行う。そして、画像処理部110は画像処理後の画像データを画像記録部114に送る。
画像記録部114はメモリーカードなどの記録媒体およびインターフェースを有し、画像処理後の画像データを記録媒体に記録する。
CPU115はカメラ全体の制御を司り、例えば、撮影シーケンスなどに応じてカメラを制御する。第1のスイッチ(SW1)121が操作されると、CPU115はオートフォーカス制御(AF)および自動露出制御などの撮影スタンバイ動作を開始する。
第1のスイッチ121の操作の後、第2のスイッチ(SW2)122が操作されると、CPU115はカメラを制御して撮影を実行する。撮影の実行によって、前述したようにして、処理後の画像データが記録媒体に記録される。
画像処理部110で画像処理された画像データは被写体検出モジュール123に与えられる。被写体検出モジュール123は画像データにおいて被写体領域(例えば、顔領域)を検出して、その検出結果である被写体の位置、大きさ、およびその信頼度をCPU115に送る。
図2は、図1に示すカメラにおける撮影処理を説明するためのフローチャートである。なお、図2に示すフローチャートに係る処理はCPU115の制御下で行われる。
撮影処理を開始すると、CPU115は第1のスイッチ(SW1)121がONであるか否かを判定する(ステップS201)。第1のスイッチ121がOFFであると(ステップS201において、NO)、CPU115は待機する。
第1のスイッチ122がONであると(ステップS201において、YES)、CPU115は、画像を表示する画面において所定の範囲であるAF設定範囲に複数のAF枠を設定する(ステップS202)。
図3は、図2で説明したAF設定範囲の一例を示す図である。
ここでは、CPU115は、画面301に横方向にN個、そして、縦方向にM個の合計N×M個の矩形状のAF枠302を備えるAF設定範囲303を設定する(NおよびMは2以上の整数である)。図示の例においては、N=7、M=9である。なお、一般に、画面301の周辺に近づくにつれて、像面湾曲および周辺光量低下に起因してAFの精度は低下する。つまり、AF精度が保証できない状態となる。
さらに、像面湾曲および周辺光量低下は、撮影レンズ101のズーム倍率および絞り102の絞り値にも起因し、これらズーム倍率および絞り値が変化すると、AF精度が保証可能な範囲が変化する。
従って、ズーム倍率および絞りの設定値に応じて、AF精度が保障可能な範囲内にAF設定範囲303を設定するため、ズーム倍率および絞りの設定値に応じてAF設定範囲303を設定する範囲を切り替えるようにしてもよい。前述のように、AF枠302を設定した範囲をAF設定範囲と呼ぶ。
再び図2を参照して、CPU115は、AF処理部105を制御して、予め定められたAFスキャンを行う距離範囲でフォーカスレンズ104を駆動する。そして、CPU115は、フォーカスレンズ104を駆動しつつ、AF枠302毎にフォーカスレンズ104の合焦位置を求める(ステップS203)。
続いて、PU115は第2のスイッチ(SW2)122がONとされたか否かを判定する(ステップS204)。第2のスイッチ122がOFFであると(ステップS204において、NO)、CPU115は待機する。一方、第2のスイッチ122がONとされると(ステップS204において、YES)、CPU115は、後述するようにして撮影画像について行う画像処理を決定する(ステップS205)。
次に、CPU115は、画像処理部110によって、ステップS205で決定した画像処理を行う(ステップS206)。そして、CPU115の制御下で、画像処理部110は、処理後の画像データを画像記録部114によって記録媒体に保存して(ステップS207)、撮影処理を終了する。
図4は、図2に示す画像処理の決定処理を説明するためのフローチャートである。
画像処理を決定するための処理を開始すると、CPU115は距離情報、色情報、および被写体検出情報を取得する(ステップS401)。ここで、距離情報とは、前述のステップS203で行われたAFスキャンで得られたAF枠302毎の合焦位置をいう。
色情報とは画面301を複数のブロックに分割した際のブロック毎の平均色相値をいう。平均色相値を求める際には、たとえば、画像処理部110は、A/D変換部109からの出力である画像データをYUV信号に変換してブロック毎の平均色相値を求める。なお、平均色相値の代わりにブロック毎の平均輝度値を用いるようにしてもよい。
被写体検出情報とは、画面301における被写体の位置および大きさ(サイズ)を示す情報であり、この被写体検出情報は被写体検出モジュール123によって検出される。
続いて、CPU101は、後述するようにして、距離情報、色情報、および被写体検出情報に基づいて、AF設定範囲303および当該AF設定範囲よりも広い拡張範囲を複数の領域に分割する(ステップS402)。そして、CPU115はこれら領域の各々について画像処理の対象として選択された被写体領域が存在するか否かを判定する(ステップS403)。
画像処理の対象として選択された被写体領域が存在すると(ステップS403において、YES)、CPU115は、画像処理部110によって当該画像処理の対象として選択された被写体領域に対して所定の画像処理(例えば、ぼかし処理又は切り出し処理)を行う旨を決定する(ステップS404)。そして、CPU115は画像処理を決定するための処理を終了する。
画像処理の対象として選択された被写体領域が存在しないと(ステップS403において、NO)、CPU115は、ステップS402による領域分割に応じた画像処理を行わない旨を決定する(ステップS405)。そして、CPU115は画像処理を決定するための処理を終了する。
なお、所定の画像処理とは、例えば、画像処理の対象として選択された被写体領域以外の領域に対して画像処理部108によってぼかし処理を行う処理、又は画像処理の対象として選択された被写体領域を含む範囲を切り出す処理をいう。
図5は、図4に示す領域分割処理を説明するためのフローチャートである。
領域分割処理を開始すると、CPU115は距離情報を参照して、互いに合焦位置が近いAF枠同士で画面301を分割する(距離分割:ステップS501)。
図6は、図5に示す領域分割処理による画面分割の一例を説明するための図である。そして、図6(a)は距離情報に応じた画面分割を示す図であり、図6(b)は色情報に応じた画面分割を示す図である。
図6(a)に示す例では、カメラの手前(前方)に位置する花と後方に位置する花と、そして、背景が山である撮影画像(つまり、画面301)において、AF枠302毎のピーク位置(つまり、合焦位置)が示されている。前方の花については、ピーク位置は”199”〜”202”の範囲に分布しており、後方の花については、ピーク位置は”149”〜”151”の範囲に分布している。一方、背景の山については、ピーク位置は”99”〜”103”の範囲に分布している。
CPU115は、前述のように、互いにピーク位置が近いAF枠同士について画面301を分割する。つまり、CPU115は、ピーク位置が所定の範囲にあるAF枠302を統合することになる。
ここでは、CPU115は、距離情報に応じてAF枠302の統合を行って前方の花領域を規定する距離領域601、後方の花領域を規定する距離領域602、および山領域を規定する距離領域603を得る。なお、図6(a)において、バツ印はピーク値が得られなかったAF枠302を示す。
再び図5を参照して、CPU115は色情報を参照して、前述のブロックにおいて平均色相値が近いブロック同士で画面301を分割する(色領域分割:ステップS502)。
図6(b)に示す例では、画面301を横30ブロック、縦20ブロックの合計30×20=600ブロックに分割した際の色領域分割の結果が示されている。図示の例では、四角で示すブロックは空の色領域607、アスタリスクで示す領域は山の色領域606、白抜きの星印で示す領域は花の色領域604、そして、黒い星印で示す領域は花の茎と葉の色領域605である。つまり、ここでは、画面301は色領域604〜607に分割されている。
続いて、CPU115は、距離分割結果および色領域分割結果に応じて、分解能が高く距離情報を反映した領域分割結果を求める。つまり、CPU115は距離領域と色領域とを統合して統合領域分割結果を生成することになる(ステップS503)。
距離(つまり、合焦位置)に応じた領域分割結果のみでは画面全体の領域に対する分解能が低く、一方、色情報(つまり、平均色相値)に応じた領域分割結果のみでは同一の距離にある複数の色の被写体領域が異なる被写体領域として分割されてしまう。このため、距離情報および色情報を統合して領域分割が行われることになる。
図7は、図5に示す領域分割処理による画面分割結果の一例を説明するための図である。そして、図7(a)は図6(a)および図6(b)に示す画面分割を重ね合わせた状態を示す図であり、図7(b)は最終の分割結果を示す図である。
図7(a)に示すように、CPU115は、図6(a)に示す距離領域分割結果および図6(b)に示す色領域分割結果を重ね合わせて色領域毎に代表距離を求める。代表距離を求める際には、例えば、距離領域分割結果と色領域分割結果とを重ね合わせ、色領域604〜607毎に重なった距離領域601〜603を得る。
CPu115は色領域604〜607毎に対応する距離領域601〜603の数を得る。そして、CPU115は、当該数が最も大きく、さらにこの最も大きい数の距離領域の割合が所定の閾値以上であると、当該最も数の大きい距離領域における距離を色領域の代表距離とする。
この結果、図7(b)に示すように、前方の花は距離領域601(図中”1”で示す)に対応付けられ、後方の花は距離領域602(図中”2”で示す)に対応付けられ、山は距離領域603(図中”3”で示す)に対応付けられる。これによって、色領域毎に距離領域を対応付けた領域分割結果が得られる。
なお、ここでは、花については、花弁部分と茎および葉の部分とでは色が異なり、色領域においては別の被写体としてされてしまうが、色領域と距離領域と対応付けた結果、同一の距離領域として、花弁部分と茎および葉の部分とが統合されることになる。
また、図7(b)に示す例では、空領域はローコントラストであるので、AF非合焦とされて距離分割結果が取得できない。このため、空領域については距離領域が割り当てられず、この場合には、図示のように、空領域を示す色領域607には”99”が挿入される。
ステップS503の処理では、CPU115は、距離領域601〜603とAF設定範囲303における色領域604〜607とを対応付けた結果を第1の統合領域分割結果として生成する。さらに、CPU115は、距離領域601〜603と拡張範囲(ここでは、画面全体)における色領域604〜607とを対応付けた結果を第2の統合領域分割結果として生成する。
次に、CPU115は、被写体検出モジュール123によって少なくとも1つの人物の顔領域が検出されているか否かを判定する(ステップS504)。なお、被写体検出モジュール123において複数の顔領域が検出された際には、CPU115は顔領域毎のサイズ、位置、およびその信頼度に応じて、複数の顔領域の1つを主顔領域とする。検出された顔領域が1つである場合には、当該顔領域が主顔領域とされる。
人物の顔領域が検出されると(ステップS504において、YES)、CPU115は主顔領域がAF設定範囲303に収まっているか否かを判定する(ステップS505)。
図8は、図1に示すカメラで設定されるAF設定範囲と主顔領域との関係を説明するための図である。そして、図8(a)はAF設定範囲に主顔領域が収まっている状態を示す図であり、図8(b)はAF設定範囲から主顔領域がはみ出している状態を示す図である。
主顔領域がAF設定範囲303に収まっていると(ステップS505において、YES)、つまり、図8(a)に示すように、被写体801の顔領域がAF設定範囲303に収まっていると、CPU115は前述の第1の統合領域分割結果を参照して、主顔領域と重なる第1の統合領域分割結果の領域を第1の選択領域として選択する(ステップS506)。
一方、主顔領域がAF設定範囲303からはみ出していると(ステップS505において、NO)、つまり、図8(b)に示すように、被写体802の顔領域がAF設定範囲303からはみ出していると、CPU115は前述の第2の統合領域分割結果を参照して、主顔領域と重なる第2の統合領域分割結果の領域を第2の選択領域として選択する(ステップS507)。
図9は、図1に示すカメラで行われる領域選択を説明するための図である。そして、図9(a)は第1の統合領域分割結果を用いた領域選択を示す図であり、図9(b)は第2の統合領域分割結果を用いた領域選択を示す図である。
図9(a)に示すように、被写体801の顔領域がAF設定範囲303に収まっていると、CPU115は第1の統合領域分割結果(つまり、AF設定範囲303)において、人物801の顔領域と重なる領域(ここでは領域”1”)を第1の選択領域として選択することになる。
一方、図9(b)に示すように、被写体802の顔領域がAF設定範囲303からはみ出すと、CPU115は第2の統合領域分割結果(つまり、画面301)において、人物802の顔領域と重なる領域(ここでは領域”1”)を第2の選択領域として選択することになる。
なお、ステップS506又はS507において、第1又は第2の選択領域を選択する際、主顔領域の一部が含まれるのみの領域(例えば、被写体802について第1の統合領域分割結果)を選択すると、当該主顔領域の近傍に存在する他の顔領域を誤って選択する可能性がある。このため、主顔領域の中心位置を含み、かつ主顔領域と重なる割合が所定の割合以上である統合領域分割結果を用いる。
ステップS506又はS507の処理に続いて、CPU115は主顔領域に基づいて人物の胴体を示す胴体領域を推定して、当該胴体領域がAF設定範囲303に収まっているか否かを判定する(ステップS508)。ここでは、CPU1115は主顔領域のサイズに応じて、当該主顔領域の下側に位置する所定サイズの領域を胴体領域として推定する。なお、図8(a)に示す例では、胴体領域803はAF設定範囲303に胴体領域が収まっているものの、図8(b)に示す例では胴体領域804の一部がAF設定範囲303からはみ出している。
胴体領域がAF設定範囲303に収まっていると(ステップS508において、YES)、CPU115は第1の統合領域分割結果を参照して、胴体領域803と重なる第1の統合領域分割結果の領域(例えば、図9(a)において領域”4”)を追加して選択領域として選択する(ステップS509)。そして、CPU115は領域分割処理を終了する。
一方、胴体領域がAF設定範囲303からはみ出していると(ステップS508において、NO)、CPU115は第2の統合領域分割結果を参照して、胴体領域804と重なる第2の統合領域分割結果の領域(例えば、図9(b)において領域”4”)を追加して第2の選択領域として選択する(ステップS510)。そして、CPU115は領域分割処理を終了する。
なお、ステップS509又はS510において第1又は第2の選択領域を選択する際、主顔領域における距離から遠い領域又は胴体領域に一部が含まれるのみの領域を選択すると、当該胴体領域と重なる他の被写体を誤って選択する可能性がある。このため、主顔領域と重なる領域における代表距離が所定範囲内にあって、かつ胴体領域と重なる割合が所定の割合以上である領域が選択される。
人物の顔領域が検出されないと(ステップS504において、NO)、CPU115は第1の統合領域分割結果を参照して、領域のサイズ、代表距離、および中心度合い(画面の中心に近いか否かを示す度合い)に応じて、主となる被写体の可能性が最も高い領域を第1の選択領域として選択する(ステップS511)。そして、CPU115は領域分割処理を終了する。
なお、ここでは、領域のサイズがより大きく、距離がより至近側で、かつ画面内の中心近くに存在する程、CPU115は主となる被写体の可能性が高い領域であると判定することになる。
このように、本発明の第1の実施形態では、画面における距離(つまり、ピント位置)の分布が取得できるAF設定範囲と当該AF設定範囲よりも広い拡張範囲に対応付けてそれぞれ第1の統合領域分割結果および第2の統合領域分割結果を設定するようにしたので、画像における領域分割の精度を保証することができるばかりでなく、領域分割結果に基づいて精度よく画像処理を行うことができる。
[第2の実施形態]
続いて、本発明の第2の実施形態による画像処理装置を備えるカメラについて説明する。
続いて、本発明の第2の実施形態による画像処理装置を備えるカメラについて説明する。
なお、第2の実施形態に係るカメラの構成は図1に示すカメラと同様である。さらに、第2の実施形態に係るカメラにおける撮影処理は図2に示すフローチャートで説明した処理と同様であるが、ステップS205に示す画像処理を決定するための処理が異なる。
図10は、本発明の第2の実施形態に係るカメラで行われる画像処理の決定について説明するためのフローチャートである。
なお、図10において、図4に示すフローチャートにおけるステップと同一のステップについては同一の参照符号を付して説明を省略する。また、図10に示すフローチャートに係る処理は、図1に示すCPU115の制御下で行われる。
画像処理を決定するための処理を開始すると、CPU115は、前述のステップS401において距離情報、色情報、および被写体検出情報を取得する。そして、CPU115は、後述するようにして、距離情報、色情報、および被写体検出情報に基づいてAF設定範囲および当該AF設定範囲よりも広い拡張範囲を複数の領域に分割する領域分割を行う(ステップS802)。
続いて、CPU115はAF設定範囲および拡張範囲の領域(ここでは画面全体)において画像処理の対象となる被写体領域が存在するか否かを判定する(ステップS803)。画像処理の対象となる被写体領域が存在すると(ステップS803において、YES)、CPU115は所定の第1の画像処理を行う旨を決定する(ステップS804)。そして、CPU115は画像処理の決定に係る処理を終了する。
なお、第1の画像処理は、例えば、選択された領域以外の領域についてぼかし処理を行うなどの被写体領域の分割精度を高くする必要のある処理である。
一方、画像処理の対象となる被写体領域が存在しないと(ステップS803において、NO)、CPU115は画像全体、つまり、画面全体の領域において画像処理の対象となる被写体領域が存在するか否かを判定する(ステップS805)。画像処理の対象となる被写体領域が存在しないと(ステップS805において、NO)、CPU115は画像処理の決定に係る処理を終了する。
画像処理の対象となる被写体領域が存在すると(ステップS805において、YES)、CPU115は、所定の第2の画像処理を行う旨を決定する(ステップS806)。そして、CPU115は画像処理の決定に係る処理を終了する。
第2の画像処理は、例えば、選択された領域以外の領域について切り出し処理を行うなどの被写体領域について高い分割精度が要求されない処理である。
図11は、図10に示す領域分割処理を説明するためのフローチャートである。なお、図11において、図5に示すフローチャートにおけるステップと同一のステップについては同一の参照符号を付して説明を省略する。
領域分割処理を開始すると、図5で説明したステップS501〜S503において、CPU115は距離分割および色分割を行って、第1の統合領域分割結果および第2の統合領域分割結果を生成する。
図12は、本発明の第2の実施形態に係るカメラで行われる領域選択を説明するための図である。そして、図12(a)はAF設定範囲と主顔領域との関係を示す図であり、図12(b)は第1の統合領域分割結果を用いた領域選択を示す図である。また、図12(c)は第2の統合領域分割結果を用いた領域選択を示す図である。
図12(a)に示す例では、カメラの前方(手前側)に位置する人物、そして、後方の花および背景の山を撮影した際に得られた画像(つまり、画面301)に設定されたAF設定範囲303におけるAF枠302毎のピーク位置(合焦位置)が示されている。前方の人物については、ピーク位置は”199”〜”202”の範囲に分布している。また、後方の花については、ピーク位置は”149”〜”151”の範囲に分布しており、背景の山については、ピーク位置は”99”〜”103”の範囲に分布している。
さらに、画面右下には看板1201が存在し、この看板1201は人物よりもカメラに近い距離に位置しているものの、看板1201の存在範囲はAF設定範囲303から外れた位置にある。このため、看板1201のみを含むAF枠302は存在しない。一方、看板1201を一部含むAF枠302のピーク位置は人物の胴体領域803および山に影響されており、看板1201の一部については距離の分布が正しく取得できない。
図12(b)に示す例では、前述の第1の統合領域分割結果(つまり、AF設定範囲303)を参照して領域選択(つまり、領域分割)を行っているので、互いに異なる距離に存在する主顔領域(領域”1”)、胴体領域(領域”4”)、花領域(領域”2”)、および山(領域”3”)について精度よく領域分割を行うことができる。
一方、図12(c)に示す例では、前述の第2の統合領域分割結果(つまり、ここでは、画面301)を参照して領域分割を行っているので、図12(b)に比べて分割精度が低下し、その結果、胴体領域803に看板1201の領域が含まれてしまう(領域”4”)。
次に、CPU115は、ステップS504において画像に少なくとも1つの人物の顔領域(主顔領域)が検出されているか否かを判定する。主顔領域が検出されていると(ステップS504において、YES)、CPU115は第1の統合領域分割結果を参照して、主顔領域801を検出した領域と重なる領域(図12(b)に示す領域”1”)を第1の選択領域として選択する(ステップS905)。
続いて、CPU115は、第1の統合領域分割結果を参照して、主顔領域801の範囲から推定した胴体領域803と重なる領域(図12(b)に示す領域”4”)を第1の選択領域に追加する(ステップS906)。そして、CPU115は第2の統合領域分割結果を参照して、主顔領域801を検出した領域と重なる領域(図12(c)に示す領域”1”)を第2の選択領域として選択する(ステップS907)。
次に、CPU115は、第2の統合領域分割結果を参照して、主顔領域801の範囲から推定した胴体領域803と重なる領域(図12(c)に示す領域”4”)を第2の選択領域に追加する(ステップS908)。そして、CPU115は領域分割処理を終了する。
人物の顔領域が検出されないと(ステップS504において、NO)、CPU115は第1の統合領域分割結果を参照して、領域のサイズ、代表距離、および中心度合いに応じて、主となる被写体の可能性が最も高い領域を第1の選択領域として選択する(ステップS909)。そして、CPU115は、第2の統合領域分割結果を参照して、領域のサイズ、代表距離、および中心度合いに応じて、主となる被写体の可能性が最も高い領域を第2の選択領域として選択して(ステップS910)、領域分割処理を終了する。
このようにして、第1の選択領域として選択された領域以外の範囲にぼかし処理を行う場合には、人物などの領域についてその分割精度が高いので、人物以外の領域をぼかし処理すれば、違和感のない仕上がりとすることができる。
第2の選択領域として選択された領域以外の範囲にぼかし処理を行う場合、人物とその距離が異なる看板がぼかし処理されることなく残って違和感のある仕上がりとなる。このため。第2の統合領域分割結果を参照して得られた第2の選択領域を用いてぼかし処理のような高い分割精度が要求される処理は行わないようにする。
一方、第2の選択領域を対象とする切り出し処理を行う場合には、人物の周辺が切り出されても、あまり違和感のある仕上がりとはならず、第2の選択領域では画面全体を対象とするので、切り出す処理を行う範囲が広がって、AF設定範囲に限定した切り出し処理よりも表現の幅が広がることになる。
このように、本発明の第2の実施形態では、画像における領域の分割の際に、高い精度を要求する画像処理を行う場合には、AF設定範囲で領域分割を行い、高い精度を必要としなくてよい場合には、AF設定範囲よりも広い拡張範囲(例えば、画面全体)を対象として領域分割を行う。これによって、画像処理に応じて適切な領域分割を行うことができる。
上述の説明から明らかなように、図1に示す例においては、AF処理部105、画像処理部110、およびCPU115が第1の分割手段として機能する。また、画像処理部110およびCPU115が第2の分割手段として機能する。
さらに、CPU115は領域生成手段、選択手段、および変更手段として機能し、CPU115および画像処理部110は第1の画像処理手段および第2の画像処理手段として機能する。加えて、撮影レンズ101、絞り102、フォーカスレンズ104、撮像素子108、およびA/D変換部109は撮像手段を構成する。
なお、図1に示す例では、少なくともAF処理部105、画像処理部110、CPU115、および被写体検出モジュール123が画像処理装置を構成する。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
上記の制御方法および制御プログラムの各々は、少なくとも第1の分割ステップ、第2の分割ステップ、領域生成ステップ、選択ステップ、および第1の画像処理ステップを有している。
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。
101 撮影レンズ
102 絞り
104 フォーカスレンズ
105 AF処理部
108 撮像素子
109 A/D変換部
110 画像処理部
114 画像記録部
115 システム制御部(CPU)
123 被写体検出モジュール
102 絞り
104 フォーカスレンズ
105 AF処理部
108 撮像素子
109 A/D変換部
110 画像処理部
114 画像記録部
115 システム制御部(CPU)
123 被写体検出モジュール
Claims (9)
- 画像における特定の被写体を検出して、当該特定の被写体の検出結果に応じて前記画像に対して画像処理を行う画像処理装置であって、
前記画像を表示する画面に複数のAF枠を有するAF設定範囲を設定して、前記AF枠の各々について合焦位置を求めて、当該合焦位置に応じて前記AF設定範囲を複数の距離領域に分割する第1の分割手段と、
前記AF設定範囲よりも広い拡張範囲を所定の複数のブロックに分割して前記ブロックの各々について少なくとも輝度値および色相の1つを示す色情報を得て、当該色情報に応じて前記画面を複数の色領域に分割する第2の分割手段と、
前記距離領域と前記AF設定範囲における色領域とを対応付けて第1の統合領域分割結果を生成する領域生成手段と、
前記画像において前記特定の被写体が検出された際、前記特定の被写体が前記AF設定範囲に収まっていると、前記第1の統合領域分割結果を参照して前記特定の被写体を規定する第1の選択領域を選択する選択手段と、
前記第1の選択領域に応じて前記画像に対して所定の第1の画像処理を行う第1の画像処理手段と、
を有することを特徴とする画像処理装置。 - 前記領域生成手段は、前記距離領域と前記拡張範囲における色領域とを対応付けて第2の統合領域分割結果を生成し、
前記選択手段は、前記画像において前記特定の被写体が検出された際、前記特定の被写体の少なくとも一部が前記AF設定範囲から外れていると、前記第2の統合領域分割結果を参照して前記特定の被写体を規定する第2の選択領域を選択しており、
前記第2の選択領域に応じて前記画像に対して所定の第2の画像処理を行う第2の画像処理手段を有することを特徴とする請求項1に記載の画像処理装置。 - 前記第1の画像処理手段は前記第1の画像処理として前記画像において前記第1の選択領域を除く領域についてぼかし処理を行うことを特徴とする請求項1又は2に記載の画像処理装置。
- 前記第2の画像処理手段は前記第2の画像処理として前記画像において前記第2の選択領域を切り出す切り出し処理を行うことを特徴とする請求項2に記載の画像処理装置。
- 前記拡張範囲は前記画面の全体に設定されることを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
- 前記特定の被写体を撮像して前記画像を得る撮像手段と、
請求項1〜5のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。 - 前記撮像手段には、少なくともズーム機構および絞りが備えられており、
前記ズーム機構におけるズーム倍率および前記絞りにおける絞り設定値に応じて前記AF設定範囲を変更する変更手段を有することを特徴とする請求項6に記載の撮像装置。 - 画像における特定の被写体を検出して、当該特定の被写体の検出結果に応じて前記画像に対して画像処理を行う画像処理装置の制御方法であって、
前記画像を表示する画面に複数のAF枠を有するAF設定範囲を設定して、前記AF枠の各々について合焦位置を求めて、当該合焦位置に応じて前記AF設定範囲を複数の距離領域に分割する第1の分割ステップと、
前記AF設定範囲よりも広い拡張範囲を所定の複数のブロックに分割して前記ブロックの各々について少なくとも輝度値および色相の1つを示す色情報を得て、当該色情報に応じて前記画面を複数の色領域に分割する第2の分割ステップと、
前記距離領域と前記AF設定範囲における色領域とを対応付けて第1の統合領域分割結果を生成する領域生成ステップと、
前記画像において前記特定の被写体が検出された際、前記特定の被写体が前記AF設定範囲に収まっていると、前記第1の統合領域分割結果を参照して前記特定の被写体を規定する第1の選択領域を選択する選択ステップと、
前記第1の選択領域に応じて前記画像に対して所定の第1の画像処理を行う第1の画像処理ステップと、
を有することを特徴とする制御方法。 - 画像における特定の被写体を検出して、当該特定の被写体の検出結果に応じて前記画像に対して画像処理を行う画像処理装置で用いられる制御プログラムであって、
前記画像処理装置が備えるコンピュータに、
前記画像を表示する画面に複数のAF枠を有するAF設定範囲を設定して、前記AF枠の各々について合焦位置を求めて、当該合焦位置に応じて前記AF設定範囲を複数の距離領域に分割する第1の分割ステップと、
前記AF設定範囲よりも広い拡張範囲を所定の複数のブロックに分割して前記ブロックの各々について少なくとも輝度値および色相の1つを示す色情報を得て、当該色情報に応じて前記画面を複数の色領域に分割する第2の分割ステップと、
前記距離領域と前記AF設定範囲における色領域とを対応付けて第1の統合領域分割結果を生成する領域生成ステップと、
前記画像において前記特定の被写体が検出された際、前記特定の被写体が前記AF設定範囲に収まっていると、前記第1の統合領域分割結果を参照して前記特定の被写体を規定する第1の選択領域を選択する選択ステップと、
前記第1の選択領域に応じて前記画像に対して所定の第1の画像処理を行う第1の画像処理ステップと、
を実行させることを特徴とする制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013172259A JP2015041901A (ja) | 2013-08-22 | 2013-08-22 | 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013172259A JP2015041901A (ja) | 2013-08-22 | 2013-08-22 | 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015041901A true JP2015041901A (ja) | 2015-03-02 |
Family
ID=52695817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013172259A Withdrawn JP2015041901A (ja) | 2013-08-22 | 2013-08-22 | 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015041901A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019181560A1 (ja) * | 2018-03-22 | 2019-09-26 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム |
DE102021109762A1 (de) | 2020-04-21 | 2021-10-21 | Canon Kabushiki Kaisha | Bildaufnahmevorrichtung, steuerverfahren dafür, programm, undspeichermedium |
US11716536B2 (en) | 2020-04-22 | 2023-08-01 | Canon Kabushiki Kaisha | Control device, image capturing apparatus, and control method for detecting obstacle |
US12025852B2 (en) | 2020-01-30 | 2024-07-02 | Canon Kabushiki Kaisha | Image pickup apparatus, lens apparatus, control method, and non-transitory computer-readable storage medium |
JP7581309B2 (ja) | 2020-01-30 | 2024-11-12 | キヤノン株式会社 | 制御装置、レンズ装置、および、撮像装置 |
-
2013
- 2013-08-22 JP JP2013172259A patent/JP2015041901A/ja not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019181560A1 (ja) * | 2018-03-22 | 2019-09-26 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム |
JP2019169769A (ja) * | 2018-03-22 | 2019-10-03 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム |
JP7080688B2 (ja) | 2018-03-22 | 2022-06-06 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム |
US11663710B2 (en) | 2018-03-22 | 2023-05-30 | Canon Kabushiki Kaisha | Image processing device, imaging device, image processing method, and recording medium |
US12025852B2 (en) | 2020-01-30 | 2024-07-02 | Canon Kabushiki Kaisha | Image pickup apparatus, lens apparatus, control method, and non-transitory computer-readable storage medium |
JP7581309B2 (ja) | 2020-01-30 | 2024-11-12 | キヤノン株式会社 | 制御装置、レンズ装置、および、撮像装置 |
DE102021109762A1 (de) | 2020-04-21 | 2021-10-21 | Canon Kabushiki Kaisha | Bildaufnahmevorrichtung, steuerverfahren dafür, programm, undspeichermedium |
US11412129B2 (en) | 2020-04-21 | 2022-08-09 | Canon Kabushiki Kaisha | Image capturing apparatus, control method therefor, and storage medium |
US11716536B2 (en) | 2020-04-22 | 2023-08-01 | Canon Kabushiki Kaisha | Control device, image capturing apparatus, and control method for detecting obstacle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10825146B2 (en) | Method and device for image processing | |
KR102266649B1 (ko) | 이미지 처리 방법 및 장치 | |
JP6720881B2 (ja) | 画像処理装置及び画像処理方法 | |
US20180182075A1 (en) | Image processing apparatus, image capturing apparatus, method of image processing, and storage medium | |
US10992854B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium | |
JP2020533883A (ja) | ダブルカメラベースの撮像のための方法および装置 | |
JP2011010194A (ja) | ボカシ画像形成装置及びそれを備えたカメラ | |
JP5272699B2 (ja) | 画像処理装置、撮像装置、プログラムおよび画像処理方法 | |
JPWO2013032008A1 (ja) | 画像処理装置、プログラム | |
US10979620B2 (en) | Image processing apparatus for providing information for focus adjustment, control method of the same, and storage medium | |
JP2015041901A (ja) | 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置 | |
WO2019124289A1 (ja) | 装置、制御方法および記憶媒体 | |
JP2007311962A (ja) | 電子カメラおよび画像表示プログラム | |
US11367229B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US11032463B2 (en) | Image capture apparatus and control method thereof | |
US9692983B2 (en) | Apparatus, method, and medium for correcting pixel switching pattern | |
JP2015041865A (ja) | 画像処理装置及び画像処理方法 | |
JP2014131187A (ja) | 撮像装置、その制御方法、および制御プログラム | |
JP2013198109A (ja) | 撮像装置 | |
JP2013058823A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20200162660A1 (en) | Image processing apparatus for providing information for confirming depth range of image, control method of the same, and storage medium | |
JP6547742B2 (ja) | 撮像制御装置、撮像装置および撮像制御方法 | |
JP6003974B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2014138378A (ja) | 撮像装置、その制御方法、および制御プログラム | |
US20240187727A1 (en) | Image processing apparatus, image capturing apparatus, control method of image processing apparatus, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160805 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20161109 |