[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5300133B2 - 画像表示装置及び撮像装置 - Google Patents

画像表示装置及び撮像装置 Download PDF

Info

Publication number
JP5300133B2
JP5300133B2 JP2008322221A JP2008322221A JP5300133B2 JP 5300133 B2 JP5300133 B2 JP 5300133B2 JP 2008322221 A JP2008322221 A JP 2008322221A JP 2008322221 A JP2008322221 A JP 2008322221A JP 5300133 B2 JP5300133 B2 JP 5300133B2
Authority
JP
Japan
Prior art keywords
image
subject
subject distance
depth
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008322221A
Other languages
English (en)
Other versions
JP2010145693A (ja
Inventor
渉 ▲高▼柳
智岐 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2008322221A priority Critical patent/JP5300133B2/ja
Priority to US12/638,774 priority patent/US20100157127A1/en
Priority to CN200910260604A priority patent/CN101753844A/zh
Publication of JP2010145693A publication Critical patent/JP2010145693A/ja
Application granted granted Critical
Publication of JP5300133B2 publication Critical patent/JP5300133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Color Television Image Signal Generators (AREA)
  • Focusing (AREA)

Description

本発明は、撮影画像に基づく画像を表示する画像表示装置及び該画像表示装置を含む撮像装置に関する。
オートフォーカス機能を備えたデジタルカメラ等の撮像装置では、通常、AFエリア内の被写体にピントが合うように光学的にオートフォーカス制御が実行され、その後に実際の撮影処理が行われる。オートフォーカス制御の結果は、撮像装置に設けられた表示画面上で確認できることが多い。しかしながら、この方法では、撮像装置に設けられた表示画面が小さいこともあって、AFエリア内のどの部分にピントが合っているのかが分かりにくく、実際にピントが合っている(換言すれば、合焦している)領域をユーザが誤認識する場合もある。
これに鑑み、実際にピントの合っている領域を容易に確認できるようにすることを目的として、下記特許文献1に記載の撮像装置では、以下のような、コントラスト検出方式に基づく制御を行っている。
撮影画像の画像領域を複数のブロックに区分けして、フォーカスレンズを移動させながら各ブロックのAF評価値を求め、フォーカスレンズのレンズ位置毎に、AFエリア内の全ブロックのAF評価値を合計である合計AF評価値を算出する。そして、合計AF評価値が最も大きくなるレンズ位置を合焦レンズ位置として導出する。一方で、ブロックごとに、当該ブロックのAF評価値を最大化するためのレンズ位置をブロック合焦レンズ位置として検出し、合焦レンズ位置と対応するブロック合焦レンズ位置との差が小さいブロックがピントの合っている領域(合焦領域)であると判断して、該領域を識別表示する。
特開2008−4996号公報
しかしながら、特許文献1の方法では、フォーカスレンズの多段階移動が必須となるため、その移動の分、撮影に必要な時間が増大する。また、レンズ移動を伴わない撮影に対して適用することができない。
そこで本発明は、レンズ移動を必要とすることなく合焦領域を視認可能ならしめる画像表示装置及び撮像装置を提供することを目的とする。
本発明に係る画像表示装置は、撮像手段によって撮影される各被写体の被写体距離を検出する被写体距離検出手段と、前記撮像手段による撮影によって得られた入力画像から、特定距離範囲内に位置する被写体にピントが合っている画像を出力画像として生成する出力画像生成手段と、前記被写体距離検出手段の検出結果に基づき、前記出力画像中の画像領域であって前記特定距離範囲内に位置する被写体が現れている画像領域を合焦領域として抽出し、前記合焦領域が視認可能となるように前記出力画像に基づく表示画像を表示手段に表示させる表示制御手段と、を備えたことを特徴とする。
被写体距離の検出結果を用いて合焦領域を特定するため、フォーカスレンズの移動は必要ではなくなる。よって、本発明に係る画像表示装置は、レンズ移動を伴わずに撮影を行う撮像装置に対しても有益に機能する。
具体的には例えば、前記被写体距離検出手段は、前記入力画像の画像データと前記撮像手段の光学系の特性とに基づいて、前記入力画像上の各位置における被写体の被写体距離を検出し、前記出力画像生成手段は、前記特定距離範囲の指定を受け、前記被写体距離検出手段による検出被写体距離と指定された前記特定距離範囲と前記撮像手段の光学系の特性とに応じた画像処理を前記入力画像に施すことによって、前記出力画像を生成する。
これにより、入力画像の撮影後に、所望の合焦状態を有する出力画像を生成することが可能となる。つまり、撮影後のフォーカス制御が可能となるため、ピント合わせミスによる撮影の失敗をなくすことができる。
表示手段の表示画面が比較的小さい場合、何れの被写体が合焦状態にあるのかが分かりずらいことも多いが、上記構成によれば、ピントの合っている合焦領域が視認可能となるように表示制御がなされるため、ユーザは、何れの被写体が合焦状態にあるのかを容易に認識できるようになり、所望の被写体に合焦した画像を確実且つ容易に得ることができるようになる。
より具体的には例えば、前記入力画像の画像データには、前記入力画像上の各位置における被写体の被写体距離に基づく情報が含まれており、前記被写体距離検出手段は、前記情報を前記入力画像の画像データから抽出し、抽出結果と前記光学系の特性に基づいて前記入力画像上の各位置における被写体の被写体距離を検出する。
或いは具体的には例えば、前記被写体距離検出手段は、前記入力画像を表す複数色の色信号に含まれる所定の高域周波数成分を色信号ごとに抽出し、抽出結果と前記光学系の軸上色収差の特性に基づいて前記入力画像上の各位置における被写体の被写体距離を検出する。
本発明に係る撮像装置は、撮像手段と上記画像表示装置を備えている。
また例えば、本発明に係る撮像装置では、前記撮像手段を用いた撮影により得られた画像データが前記入力画像の画像データとして前記画像表示装置に供給され、前記入力画像の撮影後において、前記特定距離範囲を指定する操作に従って前記入力画像から前記出力画像が生成されて該出力画像に基づく前記表示画像が前記表示手段に表示される。
本発明によれば、レンズ移動を必要とすることなく合焦領域を視認可能ならしめる画像表示装置及び撮像装置を提供することが可能となる。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。
<<第1実施形態>>
まず、本発明の第1実施形態について説明する。図1は、第1実施形態に係る撮像装置100の概略全体ブロック図である。撮像装置100(及び後述する他の実施形態における撮像装置)は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。撮像装置100は、符号101〜106によって参照される各部位を備える。尚、撮影と撮像は同義である。
撮像部101は、光学系及びCCD(Charge Coupled Device)等の撮像素子を備え、撮像素子を用いた撮影によって被写体の像を表す電気信号を出力する。原画像生成部102は、撮像部101の出力信号に所定の映像信号処理を施すことによって画像データを生成する。原画像生成部102の生成画像データによって表される1枚の静止画像を原画像と呼ぶ。原画像は、撮像部101の撮像素子上に結像した被写体像を表している。尚、画像データとは、画像の色及び明るさを表すデータである。
原画像の画像データには、原画像の各画素位置における被写体の被写体距離に依存する情報が含まれている。例えば、撮像部101の光学系が有する軸上色収差に由来して、原画像の画像データには、そのような情報が含まれることになる(この情報に関しては、他の実施形態にて詳説される)。被写体距離検出部103は、その情報を原画像の画像データから抽出し、抽出結果に基づいて原画像の各画素位置における被写体の被写体距離を検出する(推定する)。原画像の各画素位置における被写体の被写体距離を表す情報を、被写体距離情報と呼ぶ。尚、或る被写体の被写体距離とは、その被写体と撮像装置(本実施形態において撮像装置100)との間における実空間上の距離を指す。
目標合焦画像生成部104は、原画像の画像データ、被写体距離情報及び被写界深度設定情報に基づいて目標合焦画像の画像データを生成する。被写界深度設定情報は、目標合焦画像生成部104にて生成されるべき目標合焦画像の被写界深度を指定する情報であり、被写界深度設定情報によって、目標合焦画像の被写界深度内に位置する最短の被写体距離及び最長の被写体距離が指定される。被写界深度設定情報によって指定される被写界深度を、以下、単に指定被写界深度とも呼ぶ。被写界深度設定情報は、例えばユーザの操作によって設定される。
目標合焦画像は、指定被写界深度内に位置する被写体にピントが合い且つ該指定被写界深度外に位置する被写体にピントがあっていない画像である。目標合焦画像生成部104は、被写界深度設定情報に従って原画像に被写体距離情報に応じた画像処理を施すことにより、指定被写界深度を有する目標合焦画像を生成する。原画像から目標合焦画像を生成する方法は、他の実施形態にて例示される。尚、ピントが合っていることと「合焦」は同義である。
表示制御部105は、目標合焦画像の画像データ、被写体距離情報及び被写界深度設定情報に基づいて特殊な表示画像の画像データを生成する。この特殊の表示画像を、便宜上、強調表示画像と呼ぶ。具体的には、被写体距離情報及び被写界深度設定情報に基づき、目標合焦画像の全体画像領域の内、ピントが合っている画像領域を合焦領域として特定し、合焦領域が表示部106の表示画面上で他の画像領域と区別して視認可能となるように目標合焦画像に対して所定の加工処理を施す。加工処理後の目標合焦画像は、強調表示画像として表示部106(液晶ディスプレイなど)の表示画面上に表示される。尚、目標合焦画像の全体画像領域の内、ピントが合っていない画像領域を非合焦領域と呼ぶ。
指定被写界深度内の被写体距離に位置する被写体を合焦被写体と呼び、指定被写界深度外の被写体距離に位置する被写体を非合焦被写体と呼ぶ。目標合焦画像及び強調表示画像の合焦領域には合焦被写体の画像データが存在しており、目標合焦画像及び強調表示画像の非合焦領域には非合焦被写体の画像データが存在している。
原画像、目標補正画像及び強調表示画像の例を説明する。図2(a)の画像200は、原画像の例を表している。原画像200には、人物である被写体SUBA及びSUBBを含む実空間領域を撮影することによって得た原画像である。被写体SUBAの被写体距離は被写体SUBBのそれよりも小さい。また、図2(a)の原画像200は、撮像部101の光学系が比較的大きな軸上色収差を有していることを想定した原画像である。この軸上色収差に由来して、原画像200上では被写体SUBA及びSUBBがぼけて現われている。
図2(b)の画像201は、原画像200に基づく目標合焦画像の例である。目標合焦画像201の生成に際して、被写体SUBAの被写体距離が指定被写界深度内に位置する一方で被写体SUBBの被写体距離が指定被写界深度外に位置するように被写界深度設定情報が作成されたとする。このため、目標合焦画像201上では、被写体SUBAが鮮明に描写されている一方で被写体SUBBの像はぼけている。
上述したように、表示制御部105は、合焦領域が表示部106の表示画面上で視認可能となるように目標合焦画像を加工して強調表示画像を得る。図3(a)〜(d)の画像210〜213の夫々は、目標合焦画像201に基づく強調表示画像の例である。目標合焦画像201における被写体SUBAの画像データが存在する画像領域は、合焦領域に含まれる。実際には、被写体SUBAの周辺被写体(例えば、被写体SUBAの足元の地面)の画像データが存在する画像領域も合焦領域に含まれることになるが、今、図示の煩雑化防止及び説明の簡略化上、強調表示画像210〜213において、被写体SUBA以外の全被写体の画像領域は非合焦領域に含まれると想定する。
例えば、図3(a)に示す如く、合焦領域内の画像のエッジを強調する加工処理を目標合焦画像201に施すことで、合焦領域を視認可能とすることができる。この場合に得られる強調表示画像210では、被写体SUBAのエッジが強調表示される。エッジの強調は、周知のエッジ強調フィルタを用いたフィルタリング処理で実現できる。図3(a)では、被写体SUBAのエッジが強調されている様子を、被写体SUBAの輪郭を太くすることによって示している。
或いは例えば、図3(b)の強調表示画像211の如く、合焦領域内の画像の輝度(又は明度)を増加させる加工処理を目標合焦画像201に施すことで、合焦領域を視認可能とすることができる。この場合に得られる強調表示画像211では、被写体SUBAが他と比べて明るく表示される。
或いは例えば、図3(c)の強調表示画像212の如く、非合焦領域内の画像の輝度(又は明度)を低下させる加工処理を目標合焦画像201に施すことで、合焦領域を視認可能とすることもできる。この場合に得られる強調表示画像212では、被写体SUBA以外の被写体が暗く表示される。尚、合焦領域内の画像の輝度(又は明度)を増加させる一方で非合焦領域内の画像の輝度(又は明度)を低下させる加工処理を目標合焦画像201に施すようにしてもよい。
或いは例えば、図3(d)の強調表示画像213の如く、非合焦領域内の画像の彩度を低下させる加工処理を目標合焦画像201に施すことで、合焦領域を視認可能とすることができる。この際、合焦領域内の画像の彩度を変化させないようにする。但し、合焦領域内の画像の彩度を増加させることも可能である。
尚、非合焦領域内の画像の輝度を低下させる場合、非合焦領域内の画像の輝度を一律に同程度だけ低下させるようにしても良いが、図4に示す如く、輝度が低下させられる画像領域の被写体距離が指定被写界深度の中心から離れるに従って、輝度の低下度合いを徐々に増大させるようにしてもよい。明度又は彩度を低下させる場合も同様である。エッジ強調においてもエッジ強調の度合いは一律でなくとも良い。例えば、エッジ強調のなされる画像領域の被写体距離が指定被写界深度の中心から離れるに従って、エッジ強調の度合いを徐々に低下させるようにしてもよい。
また、上述の加工処理例の内、複数の加工処理を組み合わせて実施することも可能である。例えば、非合焦領域内の画像の輝度(又は明度)を低下させつつ合焦領域内の画像のエッジを強調する、といった加工処理を採用することも可能である。合焦領域を視認可能とするための方法例を幾つか挙げたが、これらはあくまで例示であり、合焦領域が表示部16上で視認可能となるなら、他の如何なる方法をも採用可能である。
図5に、撮像装置100の動作の流れを説明する。まず、ステップS11において、原画像を取得し、続くステップS12において、原画像の画像データから被写体距離情報を生成する。その後、ステップS13において、撮像装置100は、ユーザによる被写界深度を指定する操作を受け付け、指定された被写界深度に従って被写界深度設定情報を作成する。続くステップS14では、被写体距離情報及び被写界深度設定情報を用いて原画像の画像データから目標合焦画像の画像データを生成し、更にステップS15において、目標合焦画像に基づく強調表示画像を生成して表示する。
この強調表示画像を表示している状態において、ステップS16の分離処理が実行される。具体的には、ステップS16において、撮像装置100は、ユーザによる確定操作又は調整操作を受け付ける。調整操作は、指定被写界深度を変更する操作である。
ステップS16において、ユーザにより調整操作がなされた場合は、その調整操作により変更された指定被写界深度に従って被写界深度設定情報を変更した後、ステップS14及びS15の処理を再度行う。つまり、変更後の被写界深度設定情報に従って原画像の画像データから目標合焦画像の画像データを再度生成し、新たな目標合焦画像に基づく強調表示画像を生成及び表示する。この後、再びユーザの確定操作又は調整操作を受け付ける。
一方、ステップS16において、ユーザにより確定操作がなされた場合は、現在表示している強調表示画像の元となった目標合焦画像の画像データを圧縮処理を介して記録媒体(不図示)に記録する(ステップS17)。
撮像装置100(及び後述の他の実施形態における撮像装置)によれば、原画像の撮影後に、任意の被写体にピントが合った、任意の被写界深度を有する目標合焦画像を生成することができる。つまり、撮影後のフォーカス制御が可能となるため、ピント合わせミスによる撮影の失敗をなくすことができる。
このような撮影後のフォーカス制御によって、ユーザは、所望の被写体に合焦した画像を作成しようとするが、撮像装置に設けられる表示画面が比較的小さいこともあって、何れの被写体が合焦状態にあるのかが分かりずらいことも多い。これを考慮し、本実施形態では、合焦状態にある画像領域(合焦被写体)を視認可能なように強調表示画像を生成する。これにより、ユーザは、何れの被写体が合焦状態にあるのかを容易に認識できるようになり、所望の被写体に合焦した画像を確実且つ容易に得ることができるようになる。また、距離情報を用いて合焦領域を特定するため、正確な合焦領域をユーザに知らせることができる。
<<第2実施形態>>
本発明の第2実施形態を説明する。第2実施形態では、原画像から目標合焦画像を生成する方法の詳細説明を交えながら、本発明に係る撮像装置の詳細構成及び動作例を説明する。
図6、図7(a)〜(c)及び図8を参照して、第2実施形態の撮像装置にて利用されるレンズ10Lの特性を説明する。レンズ10Lは、比較的大きな所定の軸上色収差を有している。従って、図6に示す如く、点光源300からレンズ10Lに向かう光301は、レンズ10Lによって青色光301B、緑色光301G及び赤色光301Rに分離され、青色光301B、緑色光301G及び赤色光301Rは、互いに異なる結像点302B、302G及び302R上に結像する。青色光301B、緑色光301G及び赤色光301Rは、夫々、光301の青、緑及び赤成分である。
図7(a)等において、符号11は、撮像装置にて利用される撮像素子を表している。撮像素子11は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子である。撮像素子11は、いわゆる単板方式のイメージセンサであり、撮像素子11としての1枚のイメージセンサにおける各受光画素の前面には、光の赤成分のみを透過させる赤フィルタ、光の緑成分のみを透過させる緑フィルタ、及び、光の青成分のみを透過させる青フィルタの何れかが配置されている。赤フィルタ、緑フィルタ及び青フィルタの配列は、ベイヤ配列である。
レンズ10Lの中心から結像点302B、302G及び302Rまでの距離を、図8に示す如く、それぞれXB、XG及びXRにて表す。そうすると、レンズ10Lが有する軸上色収差により、不等式「XB<XG<XR」が成立する。また、レンズ10Lの中心から撮像素子11までの距離をXISにて表す。図8では、「XB<XG<XR<XIS」が成立しているが、光源300とレンズ10Lの中心までの距離310(図6参照)が変化することによって、距離XB、XG及びXRと距離XISとの大小関係は変化する。点光源300が注目した被写体であると考えれば、距離310は、注目した被写体にとっての被写体距離である。
図7(a)〜(c)は、距離310が変化することによって結像点302B、302G及び302Rの位置が変化する様子を示した図である。図7(a)は、距離310が比較的小さな距離であって「XB=XIS」が成立する時の、結像点302B、302G及び302Rと撮像素子11の位置関係を示している。図7(b)は、距離310が図7(a)の状態から増大することによって「XG=XIS」が成立する時の、結像点302B、302G及び302Rと撮像素子11の位置関係を示している。図7(c)は、距離310が図7(b)の状態から更に増大することによって「XR=XIS」が成立する時の、結像点302B、302G及び302Rと撮像素子11の位置関係を示している。
距離XISが距離XB、XG、XBと一致する時におけるレンズ10Lの位置は、青色光301B、緑色光301G、赤色光301Rに対するレンズ10Lの合焦位置である。従って、「XB=XIS」、「XG=XIS」、「XR=XIS」が成立する場合においては、夫々、青色光301B、緑色光301G、赤色光301Rに対して完全にピントが合った状態の画像が撮像素子11から得られる。但し、青色光301Bに対して完全にピントが合った状態の画像においては、緑色光301G及び赤色光301Rの像がぼける。緑色光301G及び赤色光301Rに対して完全にピントが合った状態の画像についても同様である。図8のYB、YG及びYRは、夫々、撮像素子11の撮像面上に形成される青色光301B、緑色光301G及び赤色光301Rの画像の半径を表している。
軸上色収差の特性を含むレンズ10Lの特性は撮像装置の設計段階で予め分かっているともに撮像装置は距離XISをも当然に認識可能である。よって、撮像装置は、距離310が分かれば、レンズ10Lの特性と距離XISを用いて青色光301B、緑色光301G及び赤色光301Rの画像のぼけの状態を推定可能である。また、距離310が分かれば、青色光301B、緑色光301G及び赤色光301Rの画像の点広がり関数(Point Spread Function)が決まるので、点広がり関数の逆関数を用いて、それらの画像のぼけを除去することも可能である。尚、距離XISを変化させることも可能ではあるが、以下の説明では、説明の簡略化上、特に記述なき限り距離XISは一定距離に固定されているものとする。
図9に、被写体距離と撮像素子11から得られた原画像のB、G及びR信号の解像度との関係を示す。ここにおける原画像とは、撮像素子11から得られたRAWデータに対してデモザイキング処理を施して得られる画像を指し、後述のデモザイキング処理部14にて生成される原画像に相当する(図11等参照)。B、G及びR信号とは、夫々、青色光301Bに対応する画像上の青色成分を表す信号、緑色光301Gに対応する画像上の緑色成分を表す信号及び赤色光301Rに対応する画像上の赤色成分を表す信号を指す。
尚、本明細書における解像度とは、画像の画素数を表すものではなく、画像上で表現可能な最大の空間周波数を指す。換言すれば、本明細書における解像度とは、画像上にどの程度まで細かなものを再現できるかを表す尺度であり、解像力とも呼ばれる。
図9において、曲線320B、320G及び320Rは、夫々、原画像のB、G及びR信号における解像度の被写体距離依存性を表している。図9(及び後述の図10等)の、解像度と被写体距離との関係を表すグラフにおいて、横軸及び縦軸は夫々被写体距離及び解像度を表し、横軸上を左から右に向かうにつれて対応する被写体距離は増大すると共に縦軸上を下から上に向かうにつれて対応する解像度は増大する。
被写体距離DDB、DDG及びDDRは、夫々、図7(a)に対応する「XB=XIS」、図7(b)に対応する「XG=XIS」及び図7(c)に対応する「XR=XIS」が成立する場合における被写体距離である。従って、「DDB<DDG<DDR」が成立する。
曲線320Bに示す如く、原画像のB信号の解像度は、被写体距離が距離DDBである時に最大となり、被写体距離が距離DDBを起点として減少又は増大するにつれて減少する。同様に、曲線320Gに示す如く、原画像のG信号の解像度は、被写体距離が距離DDGである時に最大となり、被写体距離が距離DDGを起点として減少又は増大するにつれて減少する。同様に、曲線320Rに示す如く、原画像のR信号の解像度は、被写体距離が距離DDRである時に最大となり、被写体距離が距離DDRを起点として減少又は増大するにつれて減少する。
上述した解像度の定義から分かるように、原画像のB信号の解像度は、原画像上のB信号の最大空間周波数を表す(G及びR信号についても同様)。或る信号の解像度が比較的高ければ、その信号には高域周波数成分が比較的多く含まれる。従って、被写体距離が比較的近い被写体(例えば、被写体距離がDDBの被写体)に対しては、原信号のB信号に高域周波数成分が含まれ、被写体距離が比較的遠い被写体(例えば、被写体距離がDDRの被写体)に対しては、原信号のR信号に高域周波数成分が含まれ、被写体距離が中程度の被写体(例えば、被写体距離がDDGの被写体)に対しては、原信号のG信号に高域周波数成分が含まれる。尚、或る信号に含まれる周波数成分の内、所定の周波数以上の周波数成分を高域周波数成分(以下、高域成分と略記する)と呼び、所定の周波数未満の周波数成分を低域周波数成分(以下、低域成分と略記する)と呼ぶ。
これらの高域成分を補完しあえば、合焦範囲の広い、即ち被写界深度の深い画像を生成可能である。図10は、原信号のB、G及びR信号の高域成分を補完しあうことで生成されるY信号(即ち、輝度信号)の解像度を表す曲線320Yを、図9に付加した図である。このような補完を行った後、合焦を望む被写体(例えば主要被写体としての人物)との間で被写体距離が異なる被写体(例えば背景)をぼかすようにすれば、合焦を望む被写体にピントが合った、合焦範囲の狭い画像(即ち、被写界深度の浅い画像)を生成することができる。
注目した或る画像に関し、Y信号(又はB、G及びR信号の全て)の有する解像度が或る一定の基準解像度RSO以上になる被写体距離の範囲が、第1実施形態でも述べた被写界深度である。本実施形態では、被写界深度を合焦範囲と呼ぶこともある。
図11は、本実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、符号10〜24によって参照される各部位を備えている。撮像装置1の構成を第1実施形態に係る撮像装置100(図1参照)に適用することができる。図11の撮像装置1の構成を撮像装置100に適用する場合、撮像部101は光学系10及び撮像素子11を含み、原画像生成部102はAFE12及びデモザイキング処理部14を含み被写体距離検出部103は高域成分抽出/距離検出部15を含み、目標合焦画像生成部104は被写界深度拡大処理部16及び被写界深度制御部17を含み、表示制御部105は表示制御部25を含み、表示部106はLCD19及びタッチパネル制御部20を含む、と考えることができる。
光学系10は、光学ズームを行うためのズームレンズ及び焦点位置を調整するためのフォーカスレンズを含むレンズ群と、撮像素子11への入射光量を調節するための絞りによって形成され、所望の画角を有し且つ所望の明るさを有する画像を撮像素子11の撮像面に結像させる。光学系10を単体のレンズとして捉えたものが上述のレンズ10Lである。従って、光学系10は、レンズ10Lが有する軸上色収差と同じ軸上色収差を有する。
撮像素子11は、光学系10を介して入射した被写体を表す光学像(被写体像)を光電変換し、該光電変換によって得られたアナログの電気信号をAFE12に出力する。AFE(Analog Front End)12は、撮像素子11から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから出力する。AFE12の信号増幅における増幅度は、AFE12の出力信号レベルが最適化されるように、光学系10の絞り値に対する調整と連動して調整される。尚、AFE12の出力信号をRAWデータとも呼ぶ。RAWデータを、DRAM(Dynamic Random Access Memory)13に一時記憶させることができる。また、DRAM13は、RAWデータだけではなく、撮像装置1内で生成される各種データを一時的に記憶することができる。
上述したように、撮像素子11はベイヤ配列を採用した単板方式のイメージセンサであるため、RAWデータによって表される二次元画像においては、赤、緑及び青の色信号の夫々がベイヤ配列に従ってモザイク状に配置される。
デモザイキング処理部14は、RAWデータに対して周知のデモザイキング処理を実行することにより、RGB形式の画像データを生成する。デモザイキング処理部14が生成した画像データによって表される二次元画像を、原画像と呼ぶ。原画像を形成する1つ1つの画素にはR、G及びB信号の全てが割り当てられる。或る画素についてのR、G及びB信号は、夫々、その画素の赤、緑及び青の強度を表す色信号である。原画像のR、G及びB信号を、夫々、R0、G0及びB0にて表す。
高域成分抽出/距離検出部15(以下、抽出/検出部15と略記する)は、色信号R0、G0及びB0の夫々の高域成分を抽出すると共に、その抽出を介して原画像の各位置における被写体距離を推定し、推定被写体距離を表す被写体距離情報DISTを生成する。また、高域成分の抽出結果に応じた情報が被写界深度拡大処理部16に出力される。
被写界深度拡大処理部16(以下、拡大処理部16と略記する)は、抽出/検出部15からの情報に基づき、色信号R0、G0及びB0によって表される原画像の被写界深度を拡大する(即ち、被写界深度の深さを増大する)ことにより中間生成画像を生成する。中間生成画像のR、G及びB信号を、夫々、R1、G1及びB1にて表す。
被写界深度制御部17は、被写体距離情報DISTと目標合焦画像に対する被写界深度を指定する被写界深度設定情報に基づいて中間生成画像の被写界深度を調整することにより、被写界深度の浅い目標合焦画像を生成する。被写界深度設定情報によって、目標合焦画像に対する被写界深度の深さと何れの被写体を合焦被写体とするのかが定められる。被写界深度設定情報は、ユーザの指示等に基づき、CPU23によって作成される。目標合焦画像のR、G及びB信号を、夫々、R2、G2及びB2にて表す。
目標合焦画像のR、G及びB信号はカメラ信号処理部18に与えられる。原画像又は中間生成画像のR、G及びB信号をカメラ信号処理部18に与えることも可能である。
カメラ信号処理部18は、原画像、中間生成画像又は目標合焦画像のR、G及びB信号を輝度信号Y並びに色差信号U及びVから成るYUV形式の映像信号に変換して出力する。この映像信号を液晶ディスプレイであるLCD19又は撮像装置1の外部に設けられた外部表示装置(不図示)に供給することによって、LCD19の表示画面上または外部表示装置の表示画面上に、原画像、中間生成画像又は目標合焦画像を表示することができる。
撮像装置1において、いわゆるタッチパネル操作が可能となっている。ユーザは、LCD19の表示画面に触れることによって撮像装置1に対する操作(即ち、タッチパネル操作)を行うことができる。タッチパネル制御部20が、LCD19の表示画面上に加えられた圧力を検出することなどによって、タッチパネル操作を受け付ける。
圧縮/伸張処理部21は、カメラ信号処理部18から出力される映像信号を所定の圧縮方式を用いて圧縮することにより圧縮映像信号を生成する。また、その圧縮映像信号を伸張することにより、圧縮前の映像信号を復元することもできる。圧縮映像信号を、SD(Secure Digital)メモリカード等の不揮発性メモリである記録媒体22に記録することができる。また、記録媒体22に、RAWデータを記録することもできる。CPU(Central Processing Unit)23は、撮像装置1を形成する各部位の動作を統括的に制御する。操作部24は、撮像装置1に対する様々な操作を受け付ける。操作部24に対する操作内容は、CPU23に伝達される。
カメラ信号処理部18に内在する表示制御部25は、第1実施形態で述べた表示制御部105(図1参照)と同等の機能を有している。即ち、被写体距離情報DIST及び被写界深度設定情報に基づき、目標合焦画像に対して第1実施形態で述べた加工処理を施すことで、LCD19の表示画面上で表示されるべき強調表示画像を生成する。この加工処理は、得られた強調表示画像の合焦領域がLCD19の表示画面上で視認可能となるように行われる。
第1実施形態における図5の動作手順は第2実施形態にも適用可能である。即ち、一旦生成した目標合焦画像及びそれに基づく強調表示画像に対してユーザが調整操作を行った場合は、その調整操作により変更された指定被写界深度に従って被写界深度設定情報を変更し、変更後の被写界深度設定情報に従って中間生成画像(又は原画像)の画像データから目標合焦画像の画像データを再度生成して、新たな目標合焦画像に基づく強調表示画像を生成及び表示する。この後、再びユーザの確定操作又は調整操作を受け付ける。ユーザにより確定操作がなされた場合は、現在表示している強調表示画像の元となった目標合焦画像の画像データが圧縮処理を介して記録媒体22に記録される。
[目標合焦画像の生成原理:被写界深度の制御原理]
図12(a)〜(d)を参照して、原画像から目標合焦画像を生成する方法の原理を説明する。図12(a)において、曲線400B、400G及び400Rは、夫々、原画像のB、G及びR信号における解像度の被写体距離依存性、即ち、色信号B0、G0及びR0における解像度の被写体距離依存性を表している。曲線400B、400G及び400Rは、夫々、図9の曲線320B、320G及び320Rと同じものである。図12(a)及び(b)の距離DDB、DDG及びDDRは、図9に示したそれらと同じものである。
軸上色収差により、色信号B0、G0及びR0の解像度が高まる被写体距離は互いに異なる。上述したように、被写体距離が比較的近い被写体に対しては色信号B0に高域成分が含まれ、被写体距離が比較的遠い被写体に対しては色信号R0に高域成分が含まれ、被写体距離が中程度の被写体に対しては色信号G0に高域成分が含まれる。
このような色信号B0、G0及びR0を得た後、色信号B0、G0及びR0の内、最も大きな高域成分を有する信号を特定し、特定した色信号の高域成分を他の2つの色信号に付加することにより中間生成画像の色信号B1、G1及びR1を生成することができる。各色信号の高域成分の大きさは被写体距離の変化に伴って変化するため、この生成処理は、互いに異なる第1、第2、第3・・・の被写体距離に対して別個に実行される。原画像の全体画像領域内には様々な被写体距離を有する被写体が表れるが、各被写体の被写体距離は、図11の抽出/検出部15によって推定される。
図12(b)において、曲線410は、中間生成画像のB、G及びR信号における解像度の被写体距離依存性、即ち、色信号B1、G1及びR1における解像度の被写体距離依存性を表している。曲線410は、第1の被写体距離における色信号B0、G0及びR0の解像度の最大値、第2の被写体距離における色信号B0、G0及びR0の解像度の最大値、第3の被写体距離における色信号B0、G0及びR0の解像度の最大値、・・・を繋ぎ合わせたような曲線となる。中間生成画像の合焦範囲(被写界深度)は、原画像のそれよりも大きく、中間生成画像の合焦範囲(被写界深度)内に距離DDB、DDG及びDDRが包含される。
中間生成画像を生成する一方で、ユーザの指示などに基づき、図12(c)に示すような被写界深度曲線420を設定する。図11の被写界深度制御部17は、目標合焦画像のB、G及びR信号における解像度の被写体距離依存性を表す曲線が被写界深度曲線420と概ね同じとなるように、中間生成画像のB、G及びR信号を補正する。図12(d)の実線曲線430は、この補正により得られた目標合焦画像のB、G及びR信号における解像度の被写体距離依存性、即ち、色信号B2、G2及びR2における解像度の被写体距離依存性を表している。被写界深度曲線420を適切に設定すれば、合焦範囲の狭い目標合焦画像(被写界深度の浅い目標合焦画像)を生成することができる。即ち、所望の被写体距離の被写体にのみピントが合い、他の被写体距離の被写体がぼけたような目標合焦画像を生成することができる。
色信号B0、G0及びR0から色信号B1、G1及びR1を生成する方法の原理について補足説明を行う。色信号B0、G0、R0、B1、G1及びR1を被写体距離Dの関数とみなし、それらを夫々、B0(D)、G0(D)、R0(D)、B1(D)、G1(D)及びR1(D)と表記する。色信号G0(D)は、高域成分Gh(D)と低域成分GL(D)に分離することができる。同様に、色信号B0(D)は高域成分Bh(D)と低域成分BL(D)に分離することができ、色信号R0(D)は高域成分Rh(D)と低域成分RL(D)に分離することができる。即ち、
G0(D)=Gh(D)+GL(D)、
B0(D)=Bh(D)+BL(D)、
R0(D)=Rh(D)+RL(D)、
が成り立つ。
光学系10に軸上色収差がなかったと仮定したならば、局所的には色の変化が少ないという画像の性質から、通常、下記式(1)が成り立つと共に下記式(2)も成り立つ。これは、任意の被写体距離に対して成り立つ。実空間上における被写体は様々な色成分を有しているが、被写体が有する色成分を局所的に見た場合、微小領域内では輝度は変化するものの色は殆ど変化しないことが多い。例えば、緑の葉の色成分を或る方向に走査した時、葉の模様によって輝度は変化するものの色(色相など)は殆ど変化しない。故に、光学系10に軸上色収差がなかったと仮定したならば、式(1)及び(2)が成り立つことが多い。
Gh(D)/Bh(D)=GL(D)/BL(D) …(1)
Gh(D)/GL(D)=Bh(D)/BL(D)=Rh(D)/RL(D) …(2)
一方、実際には光学系10に軸上色収差が存在するため、任意の被写体距離に対して、色信号B0(D)、G0(D)及びR0(D)の高域成分は互いに異なる。逆に考えれば、或る被写体距離に対して大きな高域成分を有する1つの色信号を用いて、他の2つの色信号の高域成分を補うことができる。例えば、今、図13に示す如く、被写体距離D1において色信号G0(D)の解像度が色信号B0(D)及びR0(D)のそれらよりも大きく、且つ、D1よりも大きな或る被写体距離をD2とする。また、図14に示す如く、被写体距離D1の被写体SUB1の画像データが存在する、原画像中の一部の画像領域を符号441によって表し、被写体距離D2の被写体SUB2の画像データが存在する、原画像中の一部の画像領域を符号442によって表す。画像領域441及び442には、夫々、被写体SUB1及びSUB2の画像が現れる。
画像領域441におけるG信号、即ちG0(D1)(=Gh(D1)+GL(D1))には高域成分が多く含まれることになるが、軸上色収差に由来して、画像領域441におけるB信号及びR信号、即ちB0(D1)(=Bh(D1)+BL(D1))及びR0(D1)(=Rh(D1)+RL(D1))に含まれる高域成分は少ない。この画像領域441におけるB及びR信号の高域成分を、画像領域441におけるG信号の高域成分を用いて生成する。生成された画像領域441におけるB及びR信号の高域成分を夫々Bh’(D1)及びRh’(D1)にて表すとすると、Bh’(D1)及びRh’(D1)は下記式(3)及び(4)によって求められる。
Bh’(D1)=BL(D1)×Gh(D1)/GL(D1) …(3)
Rh’(D1)=RL(D1)×Gh(D1)/GL(D1) …(4)
光学系10に軸上色収差がなかったならば上記式(1)及び(2)より「Bh(D1)=BL(D1)×Gh(D1)/GL(D1)」及び「Rh(D1)=RL(D1)×Gh(D1)/GL(D1)」が成立すると考えられるが、実在する光学系10の軸上色収差により、被写体距離D1に関しては原画像のB及びR信号から高域成分Bh(D1)及びRh(D1)が欠落している。この欠落分を、上記式(3)及び(4)によって生成する。
尚、実際には、B0(D1)の高域成分Bh(D1)及びR0(D1)の高域成分Rh(D1)は少ないため、B0(D1)≒BL(D1)且つR0(D1)≒RL(D1)とみなすことができる。故に、被写体距離D1に関しては、式(5)及び(6)に従い、B0(D1)、R0(D1)及びGh(D1)/GL(D1)を用いてB1(D1)及びR1(D1)を求めることで高域成分を含む信号B1及びR1を生成する。G1(D1)は、式(7)に示す如く、G0(D1)そのものとされる。
B1(D1)=BL(D1)+Bh’(D1
≒B0(D1)+B0(D1)×Gh(D1)/GL(D1) …(5)
R1(D1)=RL(D1)+Rh’(D1
≒R0(D1)+R0(D1)×Gh(D1)/GL(D1) …(6)
G1(D1)=G0(D1) …(7)
G信号が多くの高域成分を含むこととなる画像領域441に注目して信号B1、G1及びR1の生成方法を説明したが、B又はR信号が多くの高域成分を含む画像領域に対しても同様の生成処理がなされる。
[高域成分抽出、距離推定、被写界深度拡大]
上述の原理に基づく処理を担う部位の詳細構成例を説明する。図15は、図11に示される抽出/検出部15及び拡大処理部16の内部ブロック図である。原画像の色信号G0、R0及びB0が、抽出/検出部15及び拡大処理部16に入力される。抽出/検出部15は、HPF(ハイパスフィルタ)51G、51R及び51B、LPF(ローパスフィルタ)52G、52R及び52B、最大値検出部53、距離推定演算部54、選択部55並びに演算部56を備える。拡大処理部16は、選択部61G、61R及び61B並びに演算部62を備える。
原画像、中間生成画像又は目標合焦画像などの、任意の二次元画像は、水平及び垂直方向に複数の画素がマトリクス状に配列されて形成されており、図16(a)〜(c)に示す如く、その二次元画像上の注目画素の位置を(x,y)にて表す。x及びyは、夫々、注目画素の水平及び垂直方向の座標値を表す。そして、原画像の画素位置(x,y)における色信号G0、R0及びB0を夫々G0(x,y)、R0(x,y)及びB0(x,y)にて表し、中間生成画像の画素位置(x,y)における色信号G1、R1及びB1を夫々G1(x,y)、R1(x,y)及びB1(x,y)にて表し、目標合焦画像の画素位置(x,y)における色信号G2、R2及びB2を夫々G2(x,y)、R2(x,y)及びB2(x,y)にて表す。
HPF51G、51R及び51Gは、同一構成及び同一特性を有する、二次元の空間フィルタである。HPF51G、51R及び51Gは、入力信号G0、R0及びB0をフィルタリングすることによって、信号G0、R0及びB0に含まれる所定の高域成分Gh、Rh及びBhを抽出する。画素位置(x,y)に対して抽出された高域成分Gh、Rh及びBhを、夫々、Gh(x,y)、Rh(x,y)及びBh(x,y)にて表す。
空間フィルタは、空間フィルタに対する入力信号をフィルタリングすることにより得た信号を出力する。空間フィルタによるフィルタリングとは、注目画素位置(x,y)における入力信号と注目画素位置(x,y)の周辺位置における入力信号とを用いて空間フィルタの出力信号を得る操作を指す。注目画素位置(x,y)における入力信号の値をIIN(x,y)にて表し、注目画素位置(x,y)に対する空間フィルタの出力信号をIO(x,y)にて表した場合、両者は下記式(8)の関係を満たす。h(u,v)は、空間フィルタの位置(u,v)におけるフィルタ係数を表す。式(8)に従う空間フィルタのフィルタサイズは(2w+1)×(2w+1)である。wは自然数である。
HPF51Gは、ラプラシアンフィルタなどの、入力信号の高域成分を抽出して出力する空間フィルタであり、注目画素位置(x,y)における入力信号G0(x,y)と注目画素位置(x,y)の周辺位置における入力信号(G0(x+1,y+1)などを含む)を用いて、注目画素位置(x,y)に対する出力信号Gh(x,y)を得る。HPF51R及び51Bについても同様である。
LPF52G、52R及び52Gは、同一構成及び同一特性を有する、二次元の空間フィルタである。LPF52G、52R及び52Gは、入力信号G0、R0及びB0をフィルタリングすることによって、信号G0、R0及びB0に含まれる所定の低域成分GL、RL及びBLを抽出する。画素位置(x,y)に対して抽出された低域成分GL、RL及びBLを、夫々、GL(x,y)、RL(x,y)及びBL(x,y)にて表す。「GL(x,y)=G0(x,y)−Gh(x,y)、RL(x,y)=R0(x,y)−Rh(x,y)及びBL(x,y)=B0(x,y)−Bh(x,y)」に従って、低域成分GL(x,y)、RL(x,y)及びBL(x,y)を求めるようにしてもよい。
演算部56は、色信号ごとに且つ画素位置ごとに、上述のようにして得られた高域成分を低域成分にて正規化することにより、値Gh(x,y)/GL(x,y)、Rh(x,y)/RL(x,y)及びBh(x,y)/BL(x,y)を求める。更に、色信号ごとに且つ画素位置ごとに、それらの絶対値Ghh(x,y)=|Gh(x,y)/GL(x,y)|、Rhh(x,y)=|Rh(x,y)/RL(x,y)|、及び、Bhh(x,y)=|Bh(x,y)/BL(x,y)|も求める。
演算部56にて得られる信号Ghh、Rhh及びBhhと被写体距離との関係を図17に示す。絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)は、夫々信号Ghh、Rhh及びBhhの位置(x,y)における値である。曲線450G、450R及び450Bは、夫々、被写体距離の変化に対して信号Ghh、Rhh及びBhhがどのように変化していくかをプロットしたものである。図12(a)の曲線400Gと図17の曲線450Gとの比較から分かるように、信号Ghhの被写体距離依存性は、信号G0の解像度の被写体距離依存性と同一又は類似している(信号Rhh及びBhhについても同様)。信号G0の解像度の増減に連動して、信号G0の高域成分Gh及びそれの絶対値に比例する信号Ghhも増減するからである。
最大値検出部53は、画素位置ごとに、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内の最大値を特定し、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内、何れが最大であるかを表す信号SEL_GRB(x,y)を出力する。絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内、Bhh(x,y)が最大である場合をケース1と呼び、Ghh(x,y)が最大である場合をケース2と呼び、Rhh(x,y)が最大である場合をケース3と呼ぶ。
距離推定演算部54は、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)に基づいて、画素位置(x,y)における被写体の被写体距離DIST(x,y)を推定する。この推定方法を、図18を参照して説明する。距離推定演算部54では、まず、0<DA<DBを満たす、2つの被写体距離DA及びDBが予め定義される。距離推定演算部54は、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内、何れが最大であるかに応じて被写体距離の推定方法を変更する。
ケース1においては、画素位置(x,y)における被写体の被写体距離は比較的小さいと判断して、0<DIST(x,y)<DAが満たされる範囲内で、Rhh(x,y)/Ghh(x,y)から推定被写体距離DIST(x,y)を求める。図18の線分461は、ケース1における、Rhh(x,y)/Ghh(x,y)と推定被写体距離DIST(x,y)の関係を示している。Bhh(x,y)が最大となるケース1においては、図17に示す如く、画素(x,y)に対応する被写体距離が増大するにつれてGhh(x,y)及びRhh(x,y)が共に増大するが、被写体距離の増大に対するGhh(x,y)及びRhh(x,y)の増大の程度は、Ghh(x,y)の方が高いと考えられる。従って、ケース1においては、Rhh(x,y)/Ghh(x,y)が減少につれてDIST(x,y)が増大するように推定被写体距離DIST(x,y)を求める。
ケース2においては、画素位置(x,y)における被写体の被写体距離は中程度であると判断して、DA≦DIST(x,y)<DBが満たされる範囲内で、Bhh(x,y)/Rhh(x,y)から推定被写体距離DIST(x,y)を求める。図18の線分462は、ケース2における、Bhh(x,y)/Rhh(x,y)と推定被写体距離DIST(x,y)の関係を示している。Ghh(x,y)が最大となるケース2においては、図17に示す如く、画素(x,y)に対応する被写体距離が増大するにつれてBhh(x,y)が減少する一方でRhh(x,y)が増大する。従って、ケース2においては、Rhh(x,y)/Ghh(x,y)が減少につれてDIST(x,y)が増大するように推定被写体距離DIST(x,y)を求める。
ケース3においては、画素位置(x,y)における被写体の被写体距離は比較的大きいと判断して、DB<DIST(x,y)が満たされる範囲内で、Bhh(x,y)/Ghh(x,y)から推定被写体距離DIST(x,y)を求める。図18の線分463は、ケース3における、Bhh(x,y)/Ghh(x,y)と推定被写体距離DIST(x,y)の関係を示している。Rhh(x,y)が最大となるケース3においては、図17に示す如く、画素(x,y)に対応する被写体距離が増大するにつれてGhh(x,y)及びBhh(x,y)が共に減少するが、被写体距離の増大に対するGhh(x,y)及びBhh(x,y)の減少の程度は、Ghh(x,y)の方が高いと考えられる。従って、ケース3においては、Bhh(x,y)/Ghh(x,y)が増大につれてDIST(x,y)が増大するように推定被写体距離DIST(x,y)を求める。
図9の曲線320G、320R及び320Bによって表される色信号の解像度の被写体距離依存性並びにそれに応じた信号Ghh、Rhh及びBhhの被写体距離依存性(図17参照)は、光学系10の有する軸上色収差の特性によって定まり、その軸上色収差の特性は撮像装置1の設計段階にて定まる。また、信号Ghh、Rhh及びBhhの被写体距離依存性を表す曲線450G、450R及び450Bの形状から、図18の線分461〜463を定めることができる。故に、光学系10の有する軸上色収差の特性から、Ghh(x,y)、Rhh(x,y)及びBhh(x,y)とDIST(x,y)との関係を予め定めておくことができる。実際には例えば、その関係を格納したLUT(ルックアップテーブル)を距離推定演算部54に設けておき、Ghh(x,y)、Rhh(x,y)及びBhh(x,y)を該LUTに与えることでDIST(x,y)を得ればよい。全ての画素位置に対する推定被写体距離DIST(x,y)を包含する情報を被写体距離情報DISTと呼ぶ。
このように、軸上色収差の存在に由来して、原画像の画像データには被写体の被写体距離に依存する情報が含まれることとなる。抽出/検出部15では、その情報を信号Ghh、Rhh及びBhhとして抽出し、抽出結果と既知の軸上色収差の特性を用いてDIST(x,y)を求めている。
選択部55は、演算部56にて算出される値Gh(x,y)/GL(x,y)、Rh(x,y)/RL(x,y)及びBh(x,y)/BL(x,y)の内の1つを信号SEL_GRB(x,y)に基づいて選択し、選択値をH(x,y)/L(x,y)として出力する。具体的には、
Bhh(x,y)が最大となるケース1においては、Bh(x,y)/BL(x,y)をH(x,y)/L(x,y)として出力し、
Ghh(x,y)が最大となるケース2においては、Gh(x,y)/GL(x,y)をH(x,y)/L(x,y)として出力し、
Rhh(x,y)が最大となるケース3においては、Rh(x,y)/RL(x,y)をH(x,y)/L(x,y)として出力する。
拡大処理部16には、原画像の色信号G0(x,y)、R0(x,y)及びB0(x,y)と信号H(x,y)/L(x,y)とが与えられる。選択部61G、61R及び61Bは、第1及び第2入力信号の内の一方を信号SEL_GRB(x,y)に基づいて選択し、選択した信号をG1(x,y)、R1(x,y)及びB1(x,y)として出力する。選択部61G、61R及び61Bの第1入力信号は、夫々、G0(x,y)、R0(x,y)及びB0(x,y)であり、選択部61G、61R及び61Bの第2入力信号は、夫々、演算部62にて求められる「G0(x,y)+G0(x,y)×H(x,y)/L(x,y)」、「R0(x,y)+R0(x,y)×H(x,y)/L(x,y)」及び「B0(x,y)+B0(x,y)×H(x,y)/L(x,y)」である。
Bhh(x,y)が最大となるケース1においては、
G1(x,y)=G0(x,y)+G0(x,y)×H(x,y)/L(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×H(x,y)/L(x,y)且つ
B1(x,y)=B0(x,y)、
となるように選択部61G、61R及び61Bの選択処理がなされ、
Ghh(x,y)が最大となるケース2においては、
G1(x,y)=G0(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×H(x,y)/L(x,y)且つ
B1(x,y)=B0(x,y)+B0(x,y)×H(x,y)/L(x,y)
となるように選択部61G、61R及び61Bの選択処理がなされ、
Rhh(x,y)が最大となるケース3においては、
G1(x,y)=G0(x,y)+G0(x,y)×H(x,y)/L(x,y)、
R1(x,y)=R0(x,y)且つ
B1(x,y)=B0(x,y)+B0(x,y)×H(x,y)/L(x,y)
となるように選択部61G、61R及び61Bの選択処理がなされる。
例えば、注目した画素位置(x,y)が図14の画像領域441内の画素位置である場合(図13も参照)、絶対値Ghh(x,y)、Rhh(x,y)及びBhh(x,y)の内、Ghh(x,y)が最大となる。故にこの場合は、H(x,y)/L(x,y)=Gh(x,y)/GL(x,y)となるため、被写体距離D1に対応する画素位置(x,y)に対しては、
G1(x,y)=G0(x,y)、
R1(x,y)=R0(x,y)+R0(x,y)×Gh(x,y)/GL(x,y)、且つ
B1(x,y)=B0(x,y)+B0(x,y)×Gh(x,y)/GL(x,y)、となる。この3つの式は、上記式(5)〜(7)における“(D1)”を“(x,y)”に置き換えたものに等しい。
[目標合焦画像の具体的生成方法]
図19は、図11に示される被写界深度制御部17の内部ブロック図である。図19の被写界深度制御部17は、可変LPF部71と、カットオフ周波数制御部72と、を備える。可変LPF部71には、カットオフ周波数を可変設定することが可能に形成された3つの可変LPF(ローパスフィルタ)71G、71R及び71Bが備えられており、カットオフ周波数制御部72が、被写体距離情報DIST及び被写界深度設定情報に基づいて可変LPF71G、71R及び71Bのカットオフ周波数を制御する。信号G1、R1及びB1を、可変LPF71G、71R及び71Bに入力することにより、可変LPF71G、71R及び71Bから、目標合焦画像を表す色信号G2、R2及びB2が得られる。
被写界深度設定情報は、色信号G2、R2及びB2の生成に先立って、ユーザの指示等に基づき生成される。被写界深度設定情報から、図12(c)に示すものと同じ、図20の被写界深度曲線420が設定される。被写界深度設定情報によって表される指定被写界深度の内、最短の被写体距離をDMINにて表し、最長の被写体距離をDMAXにて表す(図20参照)。当然、0<DMIN<DMAXである。
被写界深度設定情報によって、何れの被写体を合焦被写体とするのかが定められると共に目標合焦画像の被写界深度内に属すべき被写体距離DMIN、DCN及びDMAXが定められる。被写体距離DCNは、目標合焦画像の被写界深度における中心距離であり、DCN=(DMIN+DMAX)/2が成立する。ユーザは、DCNの値を直接指定することができる。また、ユーザは、指定被写界深度の深さを表す距離差(DMAX−DMIN)を直接指定することもできる。但し、距離差(DMAX−DMIN)に予め設定された固定値を用いるようにしてもよい。
また、ユーザは、合焦被写体となるべき特定被写体を指定することによってDCNの値を決定することもできる。例えば、原画像若しくは中間生成画像又は暫定的に生成された目標合焦画像をLCD19の表示画面に表示させた状態で、ユーザが、特定被写体が表示されている表示部分を、タッチパネル機能を利用して指定する。その指定結果と被写体距離情報DISTからDCNを設定することができる。より具体的には例えば、ユーザにとっての特定被写体が図14の被写体SUB1である時、ユーザは、タッチパネル機能を利用して画像領域441を指定する操作を行う。そうすると、画像領域441に対して推定された被写体距離DIST(x,y)がDCNとして設定される(推定が理想的に成された場合は、DCN=D1となる)。
被写界深度曲線420は、被写体距離と解像度の関係を定める曲線であり、被写界深度曲線420上の解像度は、被写体距離DCNにて最大値をとり、被写体距離がDCNから離れるに従って徐々に減少していく(図20参照)。被写体距離DCNにおける被写界深度曲線420上の解像度は基準解像度RSOよりも大きく、被写体距離DMIN及びDMAXにおける被写界深度曲線420上の解像度は基準解像度RSOと一致する。
カットオフ周波数制御部72では、あらゆる被写体距離に対して解像度が被写界深度曲線420上の最大解像度と一致する仮想信号が想定される。図20における破線421は、仮想信号における解像度の被写体距離依存性を表している。カットオフ周波数制御部72では、破線421をローパルフィルタ処理によって被写界深度曲線420に変換するために必要な、ローパスフィルタのカットオフ周波数が求められる。つまり、仮想信号が可変LPF71G、71R及び71Bへの入力信号であると仮定した時における可変LPF71G、71R及び71Bの出力信号を仮想出力信号と呼んだ場合、カットオフ周波数制御部72は、仮想出力信号の解像度の被写体距離依存性を表す曲線が被写界深度曲線420と一致するように、可変LPF71G、71R及び71Bのカットオフ周波数を設定する。図20において、上下方向の実線矢印群は、破線421に対応する仮想信号の解像度が被写界深度曲線420の解像度まで低下せしめられる様子を表している。
被写体距離情報DISTより、カットオフ周波数制御部72は、どの画像領域に対して、どのようなカットオフ周波数を設定すべきかを決める。例えば(図14参照)、被写体距離D1の被写体SUB1の画像データが存在する画像領域441内に画素位置(x1,y1)が存在すると共に、被写体距離D2の被写体SUB2の画像データが存在する画像領域442内に画素位置(x2,y2)が存在する場合を考える。この場合、被写体距離の推定誤差を無視すれば、画素位置(x1,y1)に対する推定被写体距離DIST(x1,y1)及びその周辺画素位置に対する推定被写体距離はD1となり、画素位置(x2,y2)に対する推定被写体距離DIST(x2,y2)及びその周辺画素位置に対する推定被写体距離はD2となる。また、図21に示す如く、被写体距離D1及びD2に対応する、被写界深度曲線420上の解像度が、それぞれRS1及びRS2であったとする。
この場合、カットオフ周波数制御部72は、破線421に対応する仮想信号の解像度を解像度RS1まで低下させるために必要なローパスフィルタのカットオフ周波数CUT1を決定し、カットオフ周波数CUT1を画像領域441内の信号G1、R1及びB1に適用させる。これにより、可変LPF71G、71R及び71Bでは、画像領域441内の信号G1、R1及びB1に対してカットオフ周波数CUT1のローパスフィルタ処理が施される。このローパスフィルタ処理後の信号は、目標合焦画像の画像領域441内の信号G2、R2及びB2として出力される。
同様に、カットオフ周波数制御部72は、破線421に対応する仮想信号の解像度を解像度RS2まで低下させるために必要なローパスフィルタのカットオフ周波数CUT2を決定し、カットオフ周波数CUT2を画像領域442内の信号G1、R1及びB1に適用する。これにより、可変LPF71G、71R及び71Bでは、画像領域442内の信号G1、R1及びB1に対してカットオフ周波数CUT2のローパスフィルタ処理が施される。このローパスフィルタ処理後の信号は、目標合焦画像の画像領域442内の信号G2、R2及びB2として出力される。
ローパスフィルタ処理後に得られる解像度とローパスフィルタのカットオフ周波数との関係を規定するテーブルデータ又は演算式を事前に用意しておき、該テーブルデータ又は演算式を用いて、可変LPF部71に設定されるべきカットオフ周波数を決定することができる。このテーブルデータ又は演算式によって、解像度RS1及びRS2に対応するカットオフ周波数が夫々CUT1及びCUT2であることが規定される。
図21に示す如く、被写体距離D1が目標合焦画像の被写界深度内に属し且つ被写体距離D2が目標合焦画像の被写界深度に含まれないなら、CUT1>CUT2が成立するようにカットオフ周波数CUT1及びCUT2が設定され、可変LPF部71により画像領域442内の画像は画像領域441内の画像に比べてぼかされ、結果、目標合焦画像において画像領域442内の画像の解像度は画像領域441のそれよりも低くなる。また、図21に示す状況とは異なり、DMAX<D1<D2である場合も、CUT1>CUT2が成立するようにカットオフ周波数CUT1及びCUT2が設定されるが、指定された被写界深度内に被写体距離D1及びD2が属しないために、可変LPF部71により中間生成画像中における画像領域441及び442内の画像は共にぼかされる。但し、そのぼかしの程度は画像領域441よりも画像領域442の方が大きく、結果、目標合焦画像において画像領域442内の画像の解像度は画像領域441のそれよりも低くなる。
このようなローパスフィルタ処理が、中間生成画像の全体画像領域に対して行われることで、目標合焦画像の各画素位置における色信号G2、R2及びB2が可変LPF部71から出力される。上述したように、この色信号G2、R2及びB2の解像度の被写体距離依存性は、図12(d)の曲線430にて示される。カットオフ周波数制御部72にて定められるカットオフ周波数は、仮想信号(421)の解像度特性を被写界深度曲線420の解像度特性に変換するためのものであるのに対して、実際の色信号G1、R1及びB1の解像度特性は仮想信号のそれとは異なる。故に、曲線430と被写界深度曲線420とは若干異なる。
[第1変形例]
上述の方法では、原画像から目標合焦画像を生成する処理を、高域成分の補完処理とローパスフィルタ処理によって実現しているが、軸上色収差による画像のぼけを画像劣化と見立てたときの点広がり関数(Point Spread Function;以下、PSFという)を用いて原画像から中間生成画像を生成し、その後、目標合焦画像を生成するようにしてもよい。この方法を、第1変形例として説明する。
原画像は、軸上色収差によって劣化した画像であると考えることができる。ここにおける劣化は、軸上色収差に由来する画像のぼけである。この劣化過程を表す関数又は空間フィルタは、PSFと呼ばれる。被写体距離が定まれば色信号ごとのPSFが求まるため、被写体距離情報DISTに含まれる原画像上の各位置における推定被写体距離に基づけば、原画像上の各位置における、色信号ごとのPSFが定まる。このようなPSFの逆関数を用いた畳み込み演算を色信号G0、R0及びB0に行えば、軸上色収差に由来する原画像の劣化(ぼけ)は除去される。劣化を除去する画像処理は画像復元処理とも呼ばれる。この除去によって得られる画像が第1変形例における中間生成画像である。
図22は、第1変形例に係る被写界深度調整部26の内部ブロック図である。図11の拡大処理部16及び被写界深度制御部17を被写界深度調整部26にて置き換えることができる。被写界深度調整部26にて生成される中間生成画像のG、R及びB信号を、夫々、G1’、R1’及びB1’にて表し、被写界深度調整部26にて生成される目標合焦画像のG、R及びB信号を、夫々、G2’、R2’及びB2’にて表す。第1変形例では、この色信号G2’、R2’及びB2’が、目標合焦画像の色信号G2、R2及びB2として表示制御部25に供給される。
図22の画像復元フィルタ81は、上記の逆関数を信号G0、R0及びB0に作用させるための二次元の空間フィルタである。画像復元フィルタ81は、軸上色収差に由来する原画像の劣化過程を表すPSFの逆フィルタに相当する。フィルタ係数演算部83は、被写体距離情報DISTから、原画像上の各位置における、色信号G0、R0及びB0に対するPSFの逆関数を求め、その求めた逆関数を信号G0、R0及びB0に作用させるべく、画像復元フィルタ81のフィルタ係数を算出する。画像復元フィルタ81は、フィルタ係数演算部83によって算出されたフィルタ係数を用いて、色信号G0、R0及びB0に対して個別にフィルタリングを行うことで、色信号G1’、R1’及びB1’を生成する。
図23の破線500は、色信号G1’、R1’及びB1’における解像度の被写体距離依存性を表している。曲線400G、400R及び400Bは、上述したように、色信号G0、R0及びB0における解像度の被写体距離依存性を表している。色信号ごとの画像復元処理によって、G、R及びB信号の全てにおいて解像度の高い中間生成画像が得られる。
被写界深度調整フィルタ82も、二次元の空間フィルタである。被写界深度調整フィルタ82は、色信号G1’、R1’及びB1’を色信号ごとにフィルタリングすることにより、目標合焦画像を表す色信号G2’、R2’及びB2’を生成する。被写界深度調整フィルタ82としての空間フィルタのフィルタ係数は、フィルタ係数演算部84によって算出される。
被写界深度設定情報によって、図20又は図21に示すような被写界深度曲線420が設定される。図23の破線500に対応する色信号G1’、R1’及びB1’は、図20又は図21の破線421に対応する、上述の仮想信号に相当する。被写界深度調整フィルタ82は、色信号G2’、R2’及びB2’の解像度の被写体距離依存性を表す曲線が被写界深度曲線420と一致するように、色信号G1’、R1’及びB1’に対してフィルタリングを行う。
このようなフィルタリングを実現するための、被写界深度調整フィルタ82のフィルタ係数が、被写界深度設定情報と被写体距離情報DISTに基づいてフィルタ係数演算部84により算出される。
尚、図22の被写界深度調整部26内における被写界深度調整フィルタ82及びフィルタ係数演算部84を図19の可変LPF71部及びカットオフ周波数制御部72に置き換え、これらの可変LPF71部及びカットオフ周波数制御部72を用いて色信号G1’、R1’及びB1’にローパスフィルタ処理を施すことにより色信号G2’、R2’及びB2’を生成するようにしてもよい。この場合も、上述したように、被写界深度設定情報及び被写体距離情報DISTに基づいて、可変LPF71部のカットオフ周波数を定めればよい(図19参照)。
[第2変形例]
また、図22の構成では、中間生成画像を得るためのフィルタリングを行ってから目標合焦画像を得るためのフィルタリングを行っているが、両者のフィルタリングを一度に行うようにしてもよい。即ち、被写界深度調整部26を、図24の被写界深度調整部26aのように構成してもよい。図24は、被写界深度調整部26aの内部ブロック図である。被写界深度調整部26aを用いる方法を第2変形例と呼ぶ。第2変形例では、被写界深度調整部26aが被写界深度調整部26として用いられる。被写界深度調整部26aは、被写界深度調整フィルタ91とフィルタ係数演算部92を備える。
被写界深度調整フィルタ91は、図22の画像復元フィルタ81によるフィルタリングと被写界深度調整フィルタ82によるフィルタリングを統合したフィルタリングを行う、二次元の空間フィルタである。原画像の色信号G0’、R0’及びB0’に対して色信号ごとに被写界深度調整フィルタ91によるフィルタリングを行うことで、直接、色信号G2’、R2’及びB2’が生成される。第2変形例では、被写界深度調整部26aにて生成された色信号G2’、R2’及びB2’が、目標合焦画像の色信号G2、R2及びB2として表示制御部25に供給される。
フィルタ係数演算部92は、図22のフィルタ係数演算部83及び84を統合したフィルタ係数演算部であり、被写体距離情報DISTと被写界深度設定情報から色信号ごとに被写界深度調整フィルタ91のフィルタ係数を算出する。
<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈3を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
第1実施形態において、図1の被写体距離検出部103は、画像データに基づいて被写体距離の検出を行っているが、画像データ以外の他のデータに基づいて被写体距離の検出を行うようにしても良い。
例えば、ステレオカメラを用いて被写体距離の検出を行うこともできる。即ち、撮像部101を第1カメラ部として用いて第1カメラ部と同等の第2カメラ部(不図示)を撮像装置100に設け、第1及び第2カメラ部の撮影によって得られた一対の原画像に基づいて被写体距離の検出を行うようにしても良い。周知の如く、ステレオカメラを形成する第1カメラ部と第2カメラ部は互いに異なる位置に配置され、第1カメラ部から得られる原画像と第2カメラ部から得られる原画像との間における画像情報の誤差(即ち、視差(disparity))に基づいて、各画素位置(x,y)の被写体距離を検出することができる。
また例えば、被写体距離を計測する距離センサ(不図示)を撮像装置100に設け、該距離センサの計測結果によって各画素位置(x,y)の被写体距離を検出するようにしてもよい。距離センサは、例えば、撮像装置100の撮影方向に向かって光を放射し、放射した光が被写体に反射して返ってくるまでの時間を計測する。計測した時間に基づいて被写体距離を検出することができ、光の放射方向を変更することで各画素位置(x,y)における被写体距離を検出することができる。
[注釈2]
原画像から目標合焦画像及び強調表示画像を生成して該強調表示画像の表示制御を行う機能を撮像装置(1又は100)内で実現する実施形態を上述したが、その機能を撮像装置の外部の画像表示装置(不図示)にて実現するようにしてもよい。
例えば、この外部の画像表示装置に、図1の符号103〜106によって参照される各部位を設ける。或いは例えば、この外部の画像表示装置に、図11の符号15〜25によって参照される各部位を設ける。更に或いは、この外部の画像表示装置に、図11の符号15及び18〜25によって参照される各部位と、図22又は図24の被写界深度調整部26又は26aと、を設ける。そして、外部の画像表示装置に対して撮像装置(1又は100)の撮影によって得られた原画像の画像データ(例えば、色信号G0、R0及びB0)を供給することにより、該画像表示装置内において目標合焦画像及び強調表示画像の生成並びに強調表示画像の表示が行われる。
[注釈3]
撮像装置(1又は100)は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、原画像から目標合焦画像及び強調表示画像を生成する機能の全部又は一部は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて撮像装置(1又は100)を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。
本発明の第1実施形態に係る撮像装置の概略全体ブロック図である 図1の撮像装置において得られる原画像及び目標合焦画像の例を示す図である。 図1の撮像装置において得られる強調表示画像の例を示す図である。 本発明の第1実施形態に係り、強調表示画像を生成する際の輝度調整例を示す図である。 図1の撮像装置の動作の流れを示すフローチャートである。 本発明の第2実施形態に係り、レンズが有する軸上色収差の特性を説明するための図である。 本発明の第2実施形態に係り、点光源、軸上色収差を有するレンズ、各色光の結像点及び撮像素子の位置関係を示す図であって、(a)は点光源及びレンズ間距離が比較的小さい場合のそれを、(b)は点光源及びレンズ間距離が中程度である場合のそれを、(c)は点光源及びレンズ間距離が比較的大きい場合のそれを表す。 本発明の第2実施形態に係り、点光源、軸上色収差を有するレンズ及び撮像素子の位置関係と、撮像素子上における各色光の像の広がりを示す図である。 本発明の第2実施形態に係り、軸上色収差を有するレンズを介して得られた原画像における色信号の解像度特性を示す図である。 本発明の第2実施形態に係り、軸上色収差を有するレンズを介して得られた原画像における色信号の解像度特性を示す図である。 本発明の第2実施形態に係る撮像装置の全体ブロック図である。 本発明の第2実施形態に係り、原画像から中間生成画像の生成を介して目標合焦画像が生成される原理を説明するための図である。 本発明の第2実施形態の具体例に係る2つの被写体距離(D1及びD2)を説明するための図である。 2つの被写体距離(D1及びD2)における2つの被写体と、原画像上における該2つの被写体の像を示す図である。 図11に示される高域成分抽出/距離検出部及び被写界深度拡大処理部の内部ブロック図である。 原画像、中間生成画像及び目標合焦画像上における画素位置の意義を説明するための図である。 図15の高域成分抽出/距離検出部にて生成される値の特性を示す図である。 図15の高域成分抽出/距離検出部による被写体距離推定方法を説明するための図である。 図11に示される被写界深度制御部の内部ブロック図である。 図19の被写界深度制御部にて実行される処理の内容を説明するための図である。 図19の被写界深度制御部にて実行される処理の内容を説明するための図である。 図11の被写界深度拡大処理部及び被写界深度制御部の代わりに用いることのできる被写界深度調整部の内部ブロック図である。 図22の被写界深度調整部にて実行される処理の内容を説明するための図である。 図22に示される被写界深度調整部の変形内部ブロック図である。
符号の説明
1、100 撮像装置
101 撮像部
102 原画像生成部
103 被写体距離検出部
104 目標合焦画像生成部
105 表示制御部
106 表示部

Claims (6)

  1. 撮像手段によって撮影される各被写体の被写体距離を検出する被写体距離検出手段と、
    前記撮像手段による撮影によって得られた入力画像から、特定距離範囲内に位置する被写体にピントが合っている画像を出力画像として生成する出力画像生成手段と、
    前記被写体距離検出手段の検出結果に基づき、前記出力画像中の画像領域であって前記特定距離範囲内に位置する被写体が現れている画像領域を合焦領域として抽出し、前記合焦領域が視認可能となるように前記出力画像に基づく表示画像を表示手段に表示させる表示制御手段と、を備え
    前記被写体距離検出手段は、前記入力画像の画像データと前記撮像手段の光学系の特性とに基づいて、前記入力画像上の各位置における被写体の被写体距離を検出し、
    前記出力画像生成手段は、前記特定距離範囲の指定を受け、前記被写体距離検出手段による検出被写体距離と指定された前記特定距離範囲と前記撮像手段の光学系の特性とに応じた画像処理を前記入力画像に施すことによって、前記出力画像を生成する
    ことを特徴とする画像表示装置。
  2. 前記入力画像の画像データには、前記入力画像上の各位置における被写体の被写体距離に基づく情報が含まれており、
    前記被写体距離検出手段は、前記情報を前記入力画像の画像データから抽出し、抽出結果と前記光学系の特性に基づいて前記入力画像上の各位置における被写体の被写体距離を検出する
    ことを特徴とする請求項1に記載の画像表示装置。
  3. 前記被写体距離検出手段は、前記入力画像を表す複数色の色信号に含まれる所定の高域周波数成分を色信号ごとに抽出し、抽出結果と前記光学系の軸上色収差の特性に基づいて前記入力画像上の各位置における被写体の被写体距離を検出する
    ことを特徴とする請求項1に記載の画像表示装置。
  4. 前記出力画像生成手段は、前記画像処理において前記入力画像の被写界深度の変更を介し、前記出力画像を生成する
    ことを特徴とする請求項1〜請求項3の何れかに記載の画像表示装置。
  5. 撮像手段と、
    請求項1〜請求項4の何れかに記載の画像表示装置と、を備えた
    ことを特徴とする撮像装置。
  6. 撮像手段と、
    請求項1〜請求項4の何れかに記載の画像表示装置と、を備えた撮像装置であって、
    前記撮像手段を用いた撮影により得られた画像データが前記入力画像の画像データとして前記画像表示装置に供給され、
    前記入力画像の撮影後において、前記特定距離範囲を指定する操作に従って前記入力画像から前記出力画像が生成されて該出力画像に基づく前記表示画像が前記表示手段に表示される
    ことを特徴とする撮像装置。
JP2008322221A 2008-12-18 2008-12-18 画像表示装置及び撮像装置 Active JP5300133B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008322221A JP5300133B2 (ja) 2008-12-18 2008-12-18 画像表示装置及び撮像装置
US12/638,774 US20100157127A1 (en) 2008-12-18 2009-12-15 Image Display Apparatus and Image Sensing Apparatus
CN200910260604A CN101753844A (zh) 2008-12-18 2009-12-17 图像显示装置及摄像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008322221A JP5300133B2 (ja) 2008-12-18 2008-12-18 画像表示装置及び撮像装置

Publications (2)

Publication Number Publication Date
JP2010145693A JP2010145693A (ja) 2010-07-01
JP5300133B2 true JP5300133B2 (ja) 2013-09-25

Family

ID=42265491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008322221A Active JP5300133B2 (ja) 2008-12-18 2008-12-18 画像表示装置及び撮像装置

Country Status (3)

Country Link
US (1) US20100157127A1 (ja)
JP (1) JP5300133B2 (ja)
CN (1) CN101753844A (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130169A (ja) * 2009-12-17 2011-06-30 Sanyo Electric Co Ltd 画像処理装置及び撮影装置
JP5330291B2 (ja) 2010-02-23 2013-10-30 株式会社東芝 信号処理装置及び撮像装置
JP2011215707A (ja) * 2010-03-31 2011-10-27 Canon Inc 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5660711B2 (ja) * 2010-09-16 2015-01-28 富士フイルム株式会社 復元ゲインデータ生成方法
JP2012235180A (ja) * 2011-04-28 2012-11-29 Nikon Corp デジタルカメラ
WO2013005602A1 (ja) * 2011-07-04 2013-01-10 オリンパス株式会社 撮像装置、画像処理装置
JP5857567B2 (ja) * 2011-09-15 2016-02-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR101797040B1 (ko) 2011-11-28 2017-11-13 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US9432642B2 (en) * 2011-12-12 2016-08-30 Omnivision Technologies, Inc. Imaging system and method having extended depth of field
JP6007600B2 (ja) * 2012-06-07 2016-10-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CN104081755B (zh) * 2012-11-30 2018-02-02 松下知识产权经营株式会社 图像处理装置以及图像处理方法
US8983176B2 (en) * 2013-01-02 2015-03-17 International Business Machines Corporation Image selection and masking using imported depth information
JP6094359B2 (ja) * 2013-04-23 2017-03-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム
CN105453534B (zh) * 2013-05-13 2018-07-06 富士胶片株式会社 图像处理装置及方法
JP6429444B2 (ja) * 2013-10-02 2018-11-28 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
JP6320075B2 (ja) * 2014-02-19 2018-05-09 キヤノン株式会社 画像処理装置およびその制御方法
US9449234B2 (en) 2014-03-31 2016-09-20 International Business Machines Corporation Displaying relative motion of objects in an image
US9196027B2 (en) 2014-03-31 2015-11-24 International Business Machines Corporation Automatic focus stacking of captured images
US9300857B2 (en) 2014-04-09 2016-03-29 International Business Machines Corporation Real-time sharpening of raw digital images
JP2016072965A (ja) * 2014-09-29 2016-05-09 パナソニックIpマネジメント株式会社 撮像装置
US9635242B2 (en) * 2014-09-29 2017-04-25 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
JP5927265B2 (ja) * 2014-10-28 2016-06-01 シャープ株式会社 画像処理装置及びプログラム
US10761294B2 (en) * 2015-06-18 2020-09-01 Sony Corporation Display control device and display control method
CN105357444B (zh) * 2015-11-27 2018-11-02 努比亚技术有限公司 对焦方法和装置
US9762790B2 (en) * 2016-02-09 2017-09-12 Panasonic Intellectual Property Management Co., Ltd. Image pickup apparatus using edge detection and distance for focus assist
WO2017154367A1 (ja) * 2016-03-09 2017-09-14 ソニー株式会社 画像処理装置、および画像処理方法、撮像装置ならびにプログラム
JP2019114821A (ja) * 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
KR102442594B1 (ko) * 2016-06-23 2022-09-13 한국전자통신연구원 조명기를 구비한 스테레오 매칭 시스템에서의 코스트 볼륨 연산장치 및 그 방법
CN109314749B (zh) * 2016-06-28 2022-04-05 索尼公司 成像设备、成像方法和程序
CN106484116B (zh) * 2016-10-19 2019-01-08 腾讯科技(深圳)有限公司 媒体文件的处理方法和装置
JP2018098613A (ja) * 2016-12-12 2018-06-21 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および、撮像装置の制御方法
JP6806572B2 (ja) 2017-01-16 2021-01-06 キヤノン株式会社 撮像制御装置、撮像装置、制御方法、プログラム、及び記憶媒体
KR102379898B1 (ko) 2017-03-24 2022-03-31 삼성전자주식회사 포커스에 대한 그래픽 인디케이터를 제공하는 전자 장치와 이의 동작 방법
US10634559B2 (en) * 2018-04-18 2020-04-28 Raytheon Company Spectrally-scanned hyperspectral electro-optical sensor for instantaneous situational awareness
EP3780587A4 (en) * 2018-05-28 2021-06-02 Sony Corporation IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
JP7289626B2 (ja) * 2018-10-30 2023-06-12 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
US11061145B2 (en) 2018-11-19 2021-07-13 The Boeing Company Systems and methods of adjusting position information
CN111243331B (zh) * 2019-04-23 2020-11-13 福州专志信息技术有限公司 现场信息识别反馈方法
JP7170609B2 (ja) * 2019-09-12 2022-11-14 株式会社東芝 画像処理装置、測距装置、方法及びプログラム
JP7451120B2 (ja) * 2019-09-20 2024-03-18 キヤノン株式会社 画像処理装置および画像処理方法、撮像装置、プログラム
JP2021180449A (ja) 2020-05-15 2021-11-18 キヤノン株式会社 画像処理装置、画像処理方法及び撮像装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2835047C (fr) * 2005-03-07 2017-04-18 Dxo Labs Procede pour commander une action, notamment une modification de nettete, a partir d'une image numerique en couleurs
JP4700993B2 (ja) * 2005-04-11 2011-06-15 キヤノン株式会社 撮像装置
JP2007017401A (ja) * 2005-07-11 2007-01-25 Central Res Inst Of Electric Power Ind 立体画像情報取得方法並びに装置
JP2008294785A (ja) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd 画像処理装置、撮像装置、画像ファイル及び画像処理方法

Also Published As

Publication number Publication date
US20100157127A1 (en) 2010-06-24
CN101753844A (zh) 2010-06-23
JP2010145693A (ja) 2010-07-01

Similar Documents

Publication Publication Date Title
JP5300133B2 (ja) 画像表示装置及び撮像装置
JP2010081002A (ja) 撮像装置
JP6327922B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
KR101265358B1 (ko) 컬러 디지털 이미지를 사용하여 선명도 변경과 같은 액션을제어하는 방법
JP6525718B2 (ja) 画像処理装置、その制御方法、および制御プログラム
US8659672B2 (en) Image processing apparatus and image pickup apparatus using same
JP6173156B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP5837463B2 (ja) 画像処理装置および画像処理システム
US8018520B2 (en) Imaging device, imaging method, display control device, display control method, and program
JP2011211669A (ja) 画像処理装置、撮像装置および画像処理プログラム
US20180182075A1 (en) Image processing apparatus, image capturing apparatus, method of image processing, and storage medium
JP2018107654A (ja) 画像処理装置および画像処理方法、プログラム、記憶媒体
JP2013044806A (ja) 撮像装置
JP5047055B2 (ja) 画像処理装置、撮像装置及び画像処理方法
US20230196530A1 (en) Image processing apparatus, image processing method, and image capture apparatus
KR101635101B1 (ko) 렌즈 왜곡과 색수차를 보정하는 장치 및 방법
JP2016134661A (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP2017050662A (ja) 画像処理装置、撮像装置および画像処理プログラム
US11108944B2 (en) Image processing apparatus for providing information for confirming depth range of image, control method of the same, and storage medium
JP6436840B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6585890B2 (ja) 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
JP6238673B2 (ja) 画像処理装置、撮像装置、撮像システム、画像処理方法、画像処理プログラム、および、記憶媒体
JP2020086216A (ja) 撮像制御装置、撮像装置及び撮像制御プログラム
JP2019176302A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121106

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

R150 Certificate of patent or registration of utility model

Ref document number: 5300133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250