JP2015031743A - 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置 - Google Patents
露出制御装置、その制御方法、および制御プログラム、並びに撮像装置 Download PDFInfo
- Publication number
- JP2015031743A JP2015031743A JP2013159384A JP2013159384A JP2015031743A JP 2015031743 A JP2015031743 A JP 2015031743A JP 2013159384 A JP2013159384 A JP 2013159384A JP 2013159384 A JP2013159384 A JP 2013159384A JP 2015031743 A JP2015031743 A JP 2015031743A
- Authority
- JP
- Japan
- Prior art keywords
- exposure control
- photographer
- main subject
- image
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000003384 imaging method Methods 0.000 title claims description 48
- 238000001514 detection method Methods 0.000 claims description 37
- 230000003287 optical effect Effects 0.000 claims description 16
- 239000002131 composite material Substances 0.000 claims description 13
- 238000005375 photometry Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 45
- 238000012937 correction Methods 0.000 description 60
- 238000011156 evaluation Methods 0.000 description 25
- 238000005259 measurement Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000003321 amplification Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000003199 nucleic acid amplification method Methods 0.000 description 6
- 238000009825 accumulation Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000006837 decompression Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000008685 targeting Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/72—Combination of two or more compensation controls
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
Abstract
【課題】常に正確に逆光判定を行って、その結果に応じて露出制御を行う。【解決手段】AE処理回路13は主被写体からの光に応じて得られた第1の画像データにおいて主被写体を示す主被写体像の輝度を測定して第1の輝度情報を得るとともに、撮影者からの光に応じて得られた第2の画像データにおいて撮影者を示す撮影者像の輝度を測定して第2の輝度情報を得る。CPU15は第1および第2の輝度情報に応じて主被写体像が逆光状態にあるか否かを判定し、逆光状態であると判定すると、その判定結果に基づいて主被写体像に係る露出制御を行う。【選択図】図1
Description
本発明は、露出制御装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、被写体像を光電変換する撮像素子の出力である画像信号を用いて露出制御を行う露出制御装置に関する。
一般に、デジタルカメラなどの撮像装置において、露出制御を行う際に所謂逆光を判定して露出制御を行うようにしたものがある。例えば、外部から与えた第1の輝度レベルと第2の輝度レベルとの間の中間輝度領域の面積および当該中輝度領域の平均輝度レベルを検出して、その面積および平均輝度レベルに基づいて逆光度を判定して逆光状態を検出するものがある(特許文献1参照)。
さらに、露出制御を含む撮像制御を行うため、他の撮像装置(カメラ)で撮影した映像情報の検知結果と連携して撮影シーンに適応した撮像制御などを行うようにしたものがある。ここでは、撮影を行いたいエリアに自カメラと他カメラとを設置した場合に、撮影シーンの明るさおよび色温度などの検知情報を安定して得られる方のカメラの検知情報に重みをおいて撮像制御を行うようにしている(例えば、特許文献2参照)。
ところで、上述の特許文献1に記載の撮像装置においては、外部から与えた2つのレベル間の輝度に応じて被写体領域と背景領域とを区別している関係上、正確に逆光状態を検出することが難しい。なぜなら、被写体の反射率および背景の色などに起因して、外部から与えた2つのレベルが適当な値にならない場合においては、被写体領域を適切に設定することができないからである。
さらに、特許文献2においては、撮影を行いたいエリアに自カメラと他カメラとを設置した場合に、安定性の高い方のカメラの検知情報に重みを付けて撮像制御を行うが、複数のカメラは同様の方向を観察しているので検知情報の安定性も同様になる可能性が高い。そのため、例えば、逆光判定を行う場合、一方のカメラの検知情報のみに基づいて判定を行っても両方のカメラの検知情報に基づいて判定を行っても判定精度は大きく変わらない。
そこで、本発明の目的は、主被写体の画像データと撮影者の画像データを用いて正確に逆光判定を行って、その結果に応じて露出制御を行うことのできる露出制御装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。
上記の目的を達成するため、本発明による露出制御装置は、撮影の際に逆光の判定を行って露出制御を行う露出制御装置であって、主被写体からの光に応じて得られた第1の画像データにおいて前記主被写体を示す主被写体像の輝度を測定して第1の輝度情報を得る第1の測光手段と、撮影者からの光に応じて得られた第2の画像データにおいて前記撮影者を示す撮影者像の輝度を測定して第2の輝度情報を得る第2の測光手段と、前記第1の輝度情報および前記第2の輝度情報に応じて前記主被写体像が逆光状態にあるか否かを判定する判定手段と、前記判定手段の判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御手段と、を有することを特徴とする。
本発明による制御方法は、撮影の際に逆光の判定を行って露出制御を行う露出制御装置の制御方法であって、主被写体からの光に応じて得られた第1の画像データにおいて前記主被写体を示す主被写体像の輝度を測定して第1の輝度情報を得る第1の測光ステップと、撮影者からの光に応じて得られた第2の画像データにおいて前記撮影者を示す撮影者像の輝度を測定して第2の輝度情報を得る第2の測光ステップと、前記第1の輝度情報および前記第2の輝度情報に応じて前記主被写体像が逆光状態にあるか否かを判定する判定ステップと、前記判定ステップの判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御ステップと、を有することを特徴とする。
本発明による制御プログラムは、撮影の際に逆光の判定を行って露出制御を行う露出制御装置で用いられる制御プログラムであって、前記露出制御装置が備えるコンピュータに、主被写体からの光に応じて得られた第1の画像データにおいて前記主被写体を示す主被写体像の輝度を測定して第1の輝度情報を得る第1の測光ステップと、撮影者からの光に応じて得られた第2の画像データにおいて前記撮影者を示す撮影者像の輝度を測定して第2の輝度情報を得る第2の測光ステップと、前記第1の輝度情報および前記第2の輝度情報に応じて前記主被写体像が逆光状態にあるか否かを判定する判定ステップと、前記判定ステップの判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御ステップと、を実行させることを特徴とする。
本発明による撮像装置は、上記の露出制御装置と、前記主被写体からの光に応じて得られた画像データを画像として表示部に表示する表示制御手段とを有することを特徴とする。
本発明によれば、主被写体の画像データと撮影者の画像データを用いて正確に逆光判定を行うことができ、当該判定結果に応じて露出制御を行うことができる。
以下、本発明の実施の形態による露出制御装置の一例について図面を参照して説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態による露出制御装置を備える撮像装置の一例を示すブロック図である。
図1は、本発明の第1の実施形態による露出制御装置を備える撮像装置の一例を示すブロック図である。
図示の撮像装置1は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、第1の撮影光学系である第1の撮影レンズ鏡筒31を備えている。この第1の撮影レンズ鏡筒31はズームレンズ群2およびフォーカスレンズ群3を備えるとともに絞り4を有している。絞り4はズームレンズ群2およびフォーカスレンズ群3を透過した光量を調整する。なお、第1の撮影レンズ鏡筒31は主被写体を撮像対象とするものである。
第1の撮影レンズ鏡筒31の後段には第1の固体撮像素子(以下第1のセンサーと呼ぶ)5が配置されている。そして、第1の撮影レンズ鏡筒31を通過した光学像(主被写体像又は被写体像)が第1のセンサー5に結像して、第1のセンサー5は光電変換によって光学像に応じた電気信号(以下第1のアナログ信号と呼ぶ)を出力する。
この第1のアナログ信号は第1の撮像回路6に与えられ、第1の撮像回路6は第1のアナログ信号に対して各種の画像処理を施して第1の画像信号(アナログ画像信号)を得る。第1の画像信号は第1のA/D変換回路7によってA/D変換されて第1のデジタル画像信号(第1の画像データ)となる。
一方、図示のカメラ1は、第2の撮影光学系である第2の撮影レンズ鏡筒50を備えている。この第2の撮影レンズ鏡筒50はフォーカスレンズ群43および絞り44を有し、絞り44はフォーカスレンズ群43を透過した光量を調整する。なお、第2の撮影レンズ鏡筒50は撮影者(ユーザ)を撮像対象とするものである。
第2の撮影レンズ鏡筒50の後段には第2の固体撮像素子(以下第2のセンサーと呼ぶ)45が配置されている。そして、第2の撮影レンズ鏡筒50を通過した光学像(撮影者像)が第2のセンサー45に結像して、第1のセンサー45は光電変換によって光学像に応じた電気信号(以下第2のアナログ信号と呼ぶ)を出力する。
この第2のアナログ信号は第2の撮像回路46に与えられ、第2の撮像回路46は第2のアナログ信号に対して各種の画像処理を施して第2の画像信号(アナログ画像信号)を得る。第2の画像信号は第2のA/D変換回路47によってA/D変換されて第2のデジタル画像信号(第2の画像データ)となる。
第1および第2の画像データは合成回路48に与えられ、合成回路48は第1および第2の画像データを合成処理して合成画像データとする。そして、この合成画像データは一時的にメモリ(VRAM)8に記録される。
なお、前述の第1の画像データは、第1のA/D変換回路7によってVRAM8に一時的に記録される。
D/A変換回路9はVRAM8に記録された画像データを読み出してアナログ信号に変換し、さらに、再生出力に適した信号である表示用画像信号に変換する。そして、この表示用画像信号は液晶表示装置(LCD)10に画像として表示される。
圧縮/伸長回路11はVRAM8に記録された画像データを読み出して、当該画像データに対して圧縮処理および符号化処理を施して符号化画像データとする。そして、圧縮/伸長回路11は当該符号化画像データを半導体メモリなどの記憶用メモリ12に記憶する。
また、圧縮/伸長回路11は記憶用メモリ12に記憶された符号化画像データを読み出して、当該符号化画像データに対して復号化処理および伸長処理を施し、画像データとする。そして、圧縮/伸長回路11はこの画像データをVRAMに一時的に記録する。
自動露出(AE)処理回路13は第1および第2の画像データを受け、当該第1および第2の画像データに応じてAE処理を行う。例えば、AE処理回路13は、少なくとも第1および第2の画像データのいずれか一方を受けて、受信した画像データに関して一画面分の画像の輝度値について累積加算などの演算処理を行う。そして、被写体又はユーザの明るさに応じたAE評価値(つまり、第1の輝度情報および第2の輝度情報)を求め、AE評価値をCPU15に送る。
具体的には、AE処理回路13は画像データが示す画像(一画面分)を複数のブロックに分割する。そして、AE処理回路13はこれらブロックの各々についてその位置および基準となるブロック(基準ブロック)との輝度値の差に応じた重みづけを行った後、輝度値の加算処理を行う。なお、AE処理回路13における分割手法は、後述する顔検出回路36によって顔領域が検出された場合と検出されない場合とで異なる。
以上のようにして、AE処理回路13は、重みづけ加算された輝度値に応じた露光値であるAE評価値を求める。さらに、AE処理回路13は、CPU15の制御下で第1の画像データについて、基準ブロックの輝度値と重みづけ加算した輝度値との差に応じてストロボ28を発光するか否かを判定する。
スキャン自動焦点調節(AF)処理回路14は第1および第2の画像データを受け、当該第1および第2の画像データに応じてAF処理を行うためのAF評価値を生成する。例えば、スキャンAF処理回路14は少なくとも第1および第2の画像データのいずれか一方を受けて、受信した画像データについてハイパスフィルター(HPF)処理を行って、その高周波成分を抽出する。そして、スキャンAF処理回路14は高周波成分について累積加算などの演算処理を行って、高域側の輪郭成分量などにAF評価値を得る。なお、AF評価値の生成方法については上記の方法に限定されず、例えば、位相差を検出する方法でもよい。
CPU15には、各種のスイッチ群からなる操作スイッチ(SW)24が接続されるとともに、専用メモリ(EEPROM)25が接続されている。EEPROM25は電気的に書き換え可能なメモリであり、EEPROM25には各種制御などを行うためのプログラムおよび各種動作を行わせる際に用いるデータなどが予め記憶されている。
タイミングジェネレータ(TG)16は所定のタイミング信号をCPU15、第1の撮像回路6、センサードライバー17、および第2の撮像回路46に出力する。CPU15はタイミング信号に同期してカメラ1全体の制御を行う。また、センサードライバー17はタイミング信号に同期して第1および第2のセンサー5および45を駆動する。そして、第1および第2の撮像回路6および46はタイミング信号に同期して色信号の分離などの各種画像処理を行う。
第1のモータ駆動回路18はCPU15の制御下で第1の絞り駆動モータ21を駆動制御して、絞り駆動モータ21によって絞り4の開口を調整する。第2のモータ駆動回路19はCPU15の制御下で第1のフォーカス駆動モータ22を駆動制御して、フォーカス駆動モータ22によってフォーカスレンズ群3を光軸に沿って移動する。第3のモータ駆動回路20はCPU15の制御下でズーム駆動モータ23を駆動制御して、ズームレンズ群2を光軸に沿って移動する。
つまり、CPU15は、第1のセンサー5の出力に応じて得られるAE評価値に基づいて第1のモータ駆動回路18を制御し、絞り駆動モータ21を駆動する。これによって、CPU15は絞り4の絞り量を適正に調整する(AE制御)。さらに、CPU15は第1のセンサー5の出力に応じて得られるAF評価値に基づいて第2のモータ駆動回路19を制御してフォーカス駆動モータ22を駆動する。これによって、CPU15はフォーカスレンズ群3を合焦位置に移動させる(AF制御)。
同様に、CPU15は、第2のセンサー45の出力に応じて得られるAE評価値およびAF評価値に基づいて、モータ駆動回路(図示せず)によって絞り駆動モータ41およびフォーカス駆動モータ42を制御して絞り44およびフォーカスレンズ群43を駆動する。なお、図1には制御のための信号線は示されていない。
また、ユーザによって操作スイッチ24に備えられたズームスイッチが操作されると、CPU15は第3のモータ駆動回路20を制御してズームモータ23を駆動制御する。これによって、CPU15はズームレンズ群2を光軸に沿って移動させて変倍動作(ズーム動作)を行う。
さらに、CPU15には電池26が接続されるとともに、スイッチング回路27が接続されている。スイッチング回路27はCPU15の制御下でストロボ発光部28による閃光発光を制御する。さらに、CPU15にはAF補助光駆動回路32が接続され、AF補助光駆動回路32はCPU15の制御下でAF補助光部33を駆動する。このAF補助光部33は、例えば、LEDで構成されており、CPU15はAF評価値を取得する際に被写体の全部又は一部を照明するためAF補助光部33を発光させる。
また、CPU15には警告表示などを行う表示素子(LED)が接続されるとともに、スピーカー30が接続されている。そして、CPU15はスピーカー30によって音声によるガイダンス又は警告などを行う。
振れ検出センサー35は手振れなどのブレを検出して手ぶれ検出信号を振れ検出回路34に与える。振れ検出回路34は手ぶれ検出信号を処理してCPU15に与える。
顔検出回路36は第1および第2の画像データを受け、これら第1および第2の画像データにおいてそれぞれ被写体およびユーザの顔位置および顔の大きさなどを検出して、顔検出信号をCPU15に送る。例えば、顔検出回路36は、少なくとも第1および第2の画像データのいずれか一方を受けて、受信した画像データについて目および眉などの顔を特徴付ける部位を探索して、画像における人物の顔の位置を求める。さらに、顔検出回路36は顔の大きさおよび傾きなどを、顔を特徴付ける部位間隔などの位置関係に応じて求める。
ところで、上述の記憶用メモリ12として、例えば、フラッシュメモリなどの半導体メモリ、カード状又はスティック状に成形されてカメラに着脱自在なカード型フラッシュメモリなどの半導体メモリが用いられる。さらには、記憶用メモリ12として、ハードディスク又はフレキシブルディスクなどの磁気記憶媒体などを用いるようにしてもよい。
また、操作スイッチ24には、カメラ1を起動させるための主電源スイッチ、撮影動作(記憶動作)などを開始するためのレリーズスイッチ、再生動作を開始するための再生スイッチ、ズームレンズ群2によるズームを行うためのズームスイッチなどが含まれている。
レリーズスイッチは、第1のストローク(以下SW1と呼ぶ)によって撮影動作の前に行われるAE処理を開始する第1の指示信号を発生する。そして、レリーズスイッチは第2のストローク(以下SW2と呼ぶ)によって露光動作を開始する第2の指示信号を発生する。
前述のように、VRAM8には、第1の画像データおよび合成画像データが一時的に記録される。このため、LCD10(表示部)には、第1の画像データに応じた画像(つまり、被写体を対象とする画像)が表示される場合と合成画像データに応じた画像(つまり、被写体とユーザとを対象とする画像)が表示される場合とがある。言い換えると、LCD10には第1の画像データに応じた画像と合成画像データに応じた画像とが選択的に表示される。
同様に、記憶用メモリ12には、被写体を対象とする画像が記憶される場合と被写体およびユーザを対象とする画像が記憶される場合とがある。
図2は、図1に示すカメラ1で行われる撮影動作を説明するためのフローチャートである。
なお、図2に示すフローチャートに係る処理はCPU15の制御下で行われる。また、以下の説明では、フォーカスレンズ群3を所定の位置に駆動しつつAF評価値を取得する動作をスキャンと呼び、AF評価値を取得する際のフォーカスレンズの位置間隔をスキャン間隔と呼ぶ。
さらに、AF評価値を取得するフォーカスレンズの位置をスキャンポイントと呼び、AF評価値を取得する数をスキャンポイント数と呼ぶ。また、AF評価値を取得する範囲をスキャン範囲と呼び、合焦位置を検出する際に画像信号を取得する領域をAF枠と呼ぶ。
いま、ユーザによって、主電源スイッチがオン状態とされ、かつ動作モードが撮影(録画)モードにあると、CPU15は撮影処理シーケンスを実行して、第1の撮影レンズ鏡筒31を通過して第1のセンサー5に結像した被写体像に応じた画像をLCD10に表示する(ステップS1)。つまり、前述したように、第1のセンサー5に結像した被写体像が光電変換処理によって第1のアナログ信号に変換される。そして、この第1のアナログ信号は第1の撮像回路6によって信号処理が施された後、第1のA/D変換回路7によって第1の画像データとされてVRAM8に一時的に格納される。そして、VRAM8に格納された第1の画像データはD/A変換回路9によって表示用画像信号としてLCD10に出力され、LCD10に画像が表示される。
続いて、CPU15の制御下で、合成回路48は撮影レンズ鏡筒50を通過して第2のセンサー45に結像した被写体像に応じて得られた第2の画像データと第1の画像データとを合成して合成画像データを得て、この合成画像データをVRAM8に記録する。CPU15は合成データをVRAM8からD/A変換回路9に送って、表示用画像信号として、合成画像データに応じた画像(合成画像)をLCD10に表示する(ステップS2)。
ここでは、合成回路48は第2の画像データに係る画像を縮小処理して、第1の画像データに係る画像に重畳する。これによって、LCD10には、例えば、画面の右上に第2の画像データに係る画像がスーパーインポーズ表示されることになる。
その後、CPU15はSW1がオンされたか否かを判定する(ステップS3)。SW1がオンされないと、つまり、SW1がオフ状態であると(ステップS3において、NO)、CPU15はステップS2の処理に戻って、LCD10に合成画像データに応じた画像を表示して画像の更新を行う。一方、SW1がオンとなると、CPU15は、後述するようにしてAE処理を行う(ステップS4)。
ステップS4で行われるAE処理においては、例えば、逆光シーンにおける露出制御又は空に起因する露出算出の誤差補正が行われる。ここでは、CPU15は画像(つまり、画面)を複数のエリアに分割して、各エリアにおける平均輝度Yijを求める。さらに、CPU15は主被写体領域となる中心エリアの輝度Ycを求める。そして、CPU15はエリア毎の重み付け係数Wijおよび補正係数Hijに応じて撮影シーンに応じたエリア毎の重みWEIGHTijを求める。
続いて、CPU15は画面の上部における輝度値Yupper、画面の下部における輝度値Yunderを求めて、輝度値Yupperが輝度値Yunderの所定倍以上であると、撮影シーンに応じたエリア毎の重みWEIGHTijをさらに補正する。そして、CPU15は平均輝度Yijおよびエリア毎の重みWEIGHTijに応じて露出制御補正値Deltaを求める。さらに、CPU15はAE処理において、画像を取得する際の露出値および露出制御補正値Deltaに応じて本露光における絞り値Av,シャッタースピード値Tv、およびセンサー感度値Svを決定する。
本発明においては、逆光シーンにおける露出制御又は空に起因する露出算出の誤差補正を行う際に、後述するようにユーザを撮影対象する第2の撮影レンズ鏡筒50から得られるユーザの画像を用いる。
続いて、CPU15はAF評価値に応じてフォーカスレンズ群の合焦位置を得るためのスキャンAF処理を行う(ステップS5)。スキャンAF処理を行う際には、CPU15は第1および第2の画像データに応じて高周波成分が最も多いフォーカスレンズ群3および43の位置を求めて、当該位置にフォーカスレンズ群3および43を駆動制御する。
つまり、CPU15はフォーカスレンズ群3および43を無限遠に相当する位置から撮影モードにおいて設定される至近距離に相当する位置まで駆動制御する。CPU15はフォーカスレンズ群3および43を駆動制御しつつスキャンAF処理回路からAF評価値を取得する。フォーカスレンズ群3および43の駆動が終了した時点で、CPU15はフォーカスレンズ群3および43毎にAF評価値のうちの最大のAF評価値を検出して、当該最大のAF評価値に対応するフォーカスレンズ群3および43の位置を求める。そして、CPU15はAF評価値が最大とする位置にフォーカスレンズ群3および43を移動させる。
その後、CPU15はSW2がオンとなったか否かを判定する(ステップS6)。SW2がオンとなっていないと(ステップS6において、NO)、CPU15は待機する。一方、SW2がオンとなると(ステップS6において、YES)、CPU15は露光処理(つまり、撮影を行う(ステップS7)。そして、CPU15は撮影処理を終了する。
図3は、図2に示すAE処理を説明するためのフローチャートである。
AE処理を開始すると、CPU15は逆光判定の際に用いる中心エリアに対する周辺エリアの重み付けパラメータ(逆光パラメータともいう)を設定する(ステップS401)。
図4は、図3に示す逆光パラメータの設定を説明するためのフローチャートである。
逆光パラメータの設定を開始すると、まずCPU15は逆光の度合いを表わすパラメータ(逆光度aL)を零に初期化する(ステップS401)。
次に、CPU15は第1の撮影レンズ鏡筒31に備えられた絞り4の絞り値、第1のセンサー5における蓄積時間、第1の撮像回路6で行われる信号処理に係る信号増幅度、およびAE評価値に基づいて被写体側の輝度を求める(ステップS402:被写体側輝度測定)。
図5は、図4に示す被写体側輝度測定を説明するためのフローチャートである。
ここでは、画像(つまり、画面)は上下左右にそれぞれ8分割、全体で64個のエリアに分割されているものとする。まず、CPU15は各エリアの平均輝度値Yij(i=0〜7、j=0〜7)を求める(ステップS501)。さらに、CPU15は画像の中心部における輝度値Ycを、式(1)を用いて求める(ステップS502)。
Yc=(Y33+Y34+Y43+Y44)/4 (1)
続いて、CPU15は各エリアの輝度値が中心部の輝度値のa倍以上であるか否かを判定する。つまり、CPU15はYij≧Yc×aであるか否かを判定する(ステップS503)。ここでは、aは、例えば、2〜4程度の値に設定される。Yij<Yc×a倍であると(ステップS503において、NO)、CPU15は各エリアの輝度値が中心部の輝度値の1/a以下であるか否かを判定する。つまり、CPU15はYij≦Yc/aであるか否かを判定する(ステップS504)。
続いて、CPU15は各エリアの輝度値が中心部の輝度値のa倍以上であるか否かを判定する。つまり、CPU15はYij≧Yc×aであるか否かを判定する(ステップS503)。ここでは、aは、例えば、2〜4程度の値に設定される。Yij<Yc×a倍であると(ステップS503において、NO)、CPU15は各エリアの輝度値が中心部の輝度値の1/a以下であるか否かを判定する。つまり、CPU15はYij≦Yc/aであるか否かを判定する(ステップS504)。
Yij≧Yc×a倍であると(ステップS503において、YES)、CPU15は予め定めた重み係数Wijに所定の補正係数H1ij(第1の補正係数)を乗算して、露出制御補正値を求める際に用いられる重み係数WEIGHTij(第1の重み係数)とする。つまり、CPU15は、WEIGHTij=Wij×H1ijとする(ステップS505)。
Yij≦Yc/aであると(ステップS504において、YES)、CPU15は、WEIGHTij=Wij×H1ijとする(ステップS506)。一方、Yij>Yc/aであると(ステップS504において、NO)、CPU15は重み係数WEIGHTij=重み係数にWijに設定する(ステップS507)。
図6は、図5に示す重み係数WEIGHTijの設定で用いられる予め定められた重み係数Wijの一例例を示す図である。
図6において、重み係数Wijは画像の各エリア毎に予め定められており、図示の例では画像の中心部において重み係数Wijが大きく、周辺部に向うに伴って重み係数Wijは小さくなる。
図7は、図5に示す重み係数WEIGHTijの設定で用いられる所定の補正係数H1ijの一例を示す図である。
図7において、補正係数H1ijは画像の各エリア毎に予め定められており、図示の例では画像の中心部において補正係数H1ijが大きく、周辺部に向うに伴って補正係数H1ijは小さくなる。
再び図5を参照して、ステップS505、S506、又はS507の処理の後、CPU15は画像上部の平均輝度値Yupperおよび画像下部の輝度値Yunderをそれぞれ式(2)および式(3)を用いて算出する(ステップS508)。
Yupper=(Y00+Y01+Y02+Y03+Y04+Y05+Y06+Y07)/4 (2)
Yunder=(Y70+Y71+Y72+Y73+Y74+Y75+Y76+Y77))/4 (3)
続いて、CPU15は平均輝度値Yupperが輝度値Yunderのb倍を超えるか否かを判定する。つまり、CPU15は、Yupper>Yunder×bであるか否かを判定する(ステップS509)。Yupper>Yunder×bであると(ステップS509において、YES)、CPU15は重み係数WEIGHTijに所定の補正係数H2ij(第2の補正係数)を乗算して、重み係数WEIGHTijを補正して第2の重み係数を得る(ステップS510)。なお、係数bは、例えば、2〜4程度の値に設定される。
Yunder=(Y70+Y71+Y72+Y73+Y74+Y75+Y76+Y77))/4 (3)
続いて、CPU15は平均輝度値Yupperが輝度値Yunderのb倍を超えるか否かを判定する。つまり、CPU15は、Yupper>Yunder×bであるか否かを判定する(ステップS509)。Yupper>Yunder×bであると(ステップS509において、YES)、CPU15は重み係数WEIGHTijに所定の補正係数H2ij(第2の補正係数)を乗算して、重み係数WEIGHTijを補正して第2の重み係数を得る(ステップS510)。なお、係数bは、例えば、2〜4程度の値に設定される。
図8は、図5に示す第2の重み係数の算出に用いられる第2の補正係数の一例を示す図である。
図8において、第2の補正係数(補正係数H2ij)は画像の下部ではその値が大きく、下部から中央部まではその値は”1.0”である。そして、画像の上部に行くにつれて、第2の補正係数は小さくなり、その値は”0.6”、”0.3”となる。
次に、CPU15は下記の式(4)を用いて露出制御補正値DeltaAllを算出する(ステップS511)。
DeltaAll=Log2(Σ(Yij×WEIGHTij)/
(ΣWEIGHTij)/Yref (4)
但し、Yrefは画像の目標輝度である。また、式(4)では第1の重み係数および第2の重み係数ともにWEIGHTijで示されている。
(ΣWEIGHTij)/Yref (4)
但し、Yrefは画像の目標輝度である。また、式(4)では第1の重み係数および第2の重み係数ともにWEIGHTijで示されている。
その後、CPU15は露出制御補正値DeltaAllと露出制御補正値DeltaAllを得た画像を生成した際の絞り値、第1のセンサーの蓄積時間、および第1の撮像回路で行われた信号増幅度とに応じて被写体輝度を求める(ステップS512)。そして、CPU15は被写体側輝度測定を終了する。
Yupper≦Yunder×bであると(ステップS509において、NO)、CPU15はステップS511の処理に進んで、重み係数WEIGHTijを補正することなく、つまり、第1の重み係数を用いて上記の式(4)によって露出制御補正値DeltaAllを求める。
このようにして、被写体側輝度測定を行うと、中心部分を重視して背景の輝度に影響されずに被写体の輝度を測定することができる。
再び、図4を参照して、上述のようにして被写体側輝度測定を行った後、CPU15は絞り44の絞り値、第2のセンサー45における蓄積時間、第2の撮像回路46で行われた信号処理における信号増幅度、およびAE処理回路13で得られたAE評価値に基づいて撮影者側の輝度を求める(ステップS403:撮影者側輝度測定)。
ステップS403に係る処理はステップS402の処理と同様であるが、ここでは、撮影者が測定対象であるので、極端な低照度又はマスクなどで顔を覆うなどの特別な場合を除いて顔検出が可能である。よって、ステップS403の処理では画像の中心部ではなく、画像において顔領域が存在するエリアを重視して撮影者側輝度を求める。なお、顔検出ができなかった際にはステップS401と同様の手順で処理が行われる。
ここで、ステップS403の処理について具体的に説明する。なお、ここでは、撮影者の顔が検出されたものとして説明を行う。
図9は、図4に示す撮影者側輝度測定を行う際の画像の分割の一例を示す図である。
ここでは、CPU15は撮影者(ユーザ)を被写体として撮影した結果得られた画像を7つのエリアに分割する。CPU15は顔領域が検出されたエリアをエリア”F”とし、エリア”F”とは別にエリア”0”〜”5”を設定する。例えば、CPU15は画像を水平方向に8つの領域に分割し、垂直方向に10つ領域に分割して、画像の最上部において水平方向に8領域、垂直方向に1領域のサイズの部分をエリア”0”とする。
同様に、CPU15は画像の最下部において水平方向に8領域、垂直方向に1領域のサイズの部分をエリア”5”とする。そして、CPU15は残りの部分において最外周の部分をエリア”1”、エリア”1”の内側をエリア”2”、エリア”2”の内側をエリア”3”、中心部分をエリア”4”とする。但し、顔のエリア”F”と重複する部分は除かれる。
図10は、図4に示す撮影者側輝度測定における処理を説明するためのフローチャートである。
まず、CPU15は各エリアの平均輝度値Yk(k=1〜4)を求める(ステップS901)。さらに、CPU15は顔エリアにおける平均輝度値YFを求める(ステップS902)。
続いて、CPU15は各エリアの輝度値が顔エリアの輝度値のa倍以上であるか否かを判定する。つまり、CPU15はYk≧YF×aであるか否かを判定する(ステップS903)。Yk<YF×a倍であると(ステップS903において、NO)、CPU15は各エリアの輝度値が顔エリアの輝度値の1/a以下であるか否かを判定する。つまり、CPU15はYk≦YF/aであるか否かを判定する(ステップS904)。
Yk≧YF×a倍であると(ステップS903において、YES)、CPU15は予め定めた重み係数Wkに所定の補正係数H1k(第3の補正係数)を乗算して、露出制御補正値を求める際に用いられる重み係数WEIGHTk(第3の重み係数)とする。つまり、CPU15は、WEIGHTk=Wk×H1kとする(ステップS905)。
Yk≦YF/aであると(ステップS904において、YES)、CPU15は、WEIGHTk=Wk×H1kとする(ステップS906)。一方、Yk>YF/aであると(ステップS904において、NO)、CPU15は重み係数WEIGHTk=重み係数Wkに設定する(ステップS907)。
図11は、図10に示す重み係数WEIGHTkの設定で用いられる予め定められた重み係数Wkの一例を示す図である。
図11において、重み係数Wkは画像の各エリア毎に予め定められており、図示の例では顔エリアにおける重み係数Wkが最も大きく、周辺部に向うに伴って重み係数Wkは小さくなる。
図12は、図10に示す重み係数WEIGHTijの設定で用いられる所定の補正係数H1kの一例を示す図である。
図12において、補正係数H1kは画像の各エリア毎に予め定められており、図示の例では顔エリアにおける補正係数H1kが最も大きく、周辺部に向うに伴って補正係数H1kは小さくなる。
再び図10を参照して、ステップS905、S906、又はS907の処理の後、CPU15は画像上部(エリア”0”)の平均輝度値Y0および画像下部(エリア”5”)の輝度値Y5を求める(ステップS908)。
続いて、CPU15は平均輝度値Y0が輝度値Y5のb倍を超えるか否かを判定する。つまり、CPU15は、Y0>Y5×bであるか否かを判定する(ステップS909)。Y0>Y5×bであると(ステップS909において、YES)、CPU15は重み係数WEIGHTkに所定の補正係数H2k(第4の補正係数)を乗算して、重み係数WEIGHTkを補正して第4の重み係数を得る(ステップS910)。
図13は、図10に示す第4の重み係数の算出に用いられる第4の補正係数の一例を示す図である。
図13において、第4の補正係数(補正係数H2k)は画像の最上部(エリア”0”)でその値が最も小さく、中心部に向かうにつれてその値が大きくなる。そして、顔エリア”F”ではその値が”1.0”となる。
次に、CPU15は下記の式(5)を用いて露出制御補正値DeltaAllを算出する(ステップS911)。
DeltaAll=Log2(Σ(Yk×WEIGHTk)/
(ΣWEIGHTk)/Yref (5)
但し、k=0〜5、Fであり、Yrefは画像の目標輝度である。また、式(5)では第3の重み係数および第4の重み係数ともにWEIGHTkで示されている。
(ΣWEIGHTk)/Yref (5)
但し、k=0〜5、Fであり、Yrefは画像の目標輝度である。また、式(5)では第3の重み係数および第4の重み係数ともにWEIGHTkで示されている。
その後、CPU15は露出制御補正値DeltaAllと露出制御補正値DeltaAllを得た画像を生成した際の絞り値、第2のセンサーの蓄積時間、および第2の撮像回路で行われた信号増幅度とに応じて撮影者輝度を求める(ステップS912)。そして、CPU15は撮影者側輝度測定を終了する。
Y0≦Y5×bであると(ステップS909において、NO)、CPU15はステップS911の処理に進んで、重み係数WEIGHTkを補正することなく、つまり、第3の重み係数を用いて上記の式(5)によって露出制御補正値DeltaAllを求める。
このようにして、撮影者側輝度測定を行うと、顔領域を重視して背景の輝度に影響されずに撮影者の輝度を測定することができる。
なお、撮影者側輝度測定の際に、カメラ1などによって撮影者の顔に影ができる所謂顔影と呼ばれる状態が生じることがある。この場合には、正しく撮影者の顔部分の輝度を測定することが困難となるので、所定の閾値を用いて顔領域を明るい部分と暗い部分に分けて、明るい部分を顔領域として、上述のステップS901〜S911の処理を行う。つまり、CPU15は、顔領域において所定の輝度値以上の輝度値を第1の選択輝度値として選択して、当該第1の選択輝度値の平均値を第1の平均輝度値として求め、この値を顔エリアにおける平均輝度値YFとする。
カメラ1と撮影者との距離が近い場合に上記のように撮影者の顔に影が生じることがある。このため、スキャンAF回路14の出力を用いたAF結果および顔検出回路36による顔検出結果で得られる撮影者の顔の大きさに応じて、カメラ1と撮影者との距離を推定して、当該距離が所定の距離よりも近い場合にのみ(所定の距離以内である場合に)顔領域を明るい部分に限定する。再び図4を参照して、CPU15は被写体側輝度値と撮影者側輝度値とを比較して、撮影者側輝度値が被写体側輝度値よりも所定の値以上明るいか否かを判定する(ステップS404)。撮影者側輝度値が被写体側輝度値よりも所定の値以上明るいと(ステップS404において、YES)、CPU15は逆光度aLを+1インクリメントする(ステップS405)。ここでは、被写体に関して逆光である場合には、被写体に比べて光源の当たる撮影者側が明るくなるため、逆光度aLを+1インクリメントする。そして、CPU15は顔影領域の測定を行う(ステップS406)。
なお、撮影者側輝度値が被写体側輝度値よりも所定の値以上明るくないと(ステップS404において、NO)、CPU15はステップS406の処理に進んで、顔領域の測定を行う。
顔領域の測定の際には、CPU15は顔検出回路36による顔検出結果に応じて画像における顔領域の平均輝度値を求める。そして、CPU15はこの平均輝度値を閾値として、当該閾値以上(平均輝度値以上、つまり、所定の輝度値以上)の輝度値(第1の選択輝度値)を有する顔領域における画素数(明画素数、つまり、第1の画素数)と閾値未満(つまり、所定の輝度値未満)の輝度値(第2の選択輝度値)を有する画素数(暗画素数、つまり、第2の画素数)を求める。
そして、CPU15は閾値より明るい部分(つまり、明画素の部分)を顔、暗い部分(つまり、暗画素の部分)を顔影として、明画素数と暗画素数との比率Rfsを求める。
Rfs=閾値未満の画素数(暗画素数)/閾値以上の画素数(明画素数)として、CPU15は比率Rfsが所定の値(例えば0.75)未満であるか否かを判定する(ステップS407)。比率Rfsが所定の値未満であると(ステップS407において、YES)、CPU15は逆光度aLを+1インクリメントする(ステップS408)。
例えば、朝又は夕方などにおいて斜光の状態である場合に、太陽と直角の方向を撮影しようとすると顔の半分が陰になることがある。また、撮影者自身が逆光である場合には、顔全体に影がかかる。つまり、顔影が少なければ撮影者に直接光源が当たり、被写体が逆光である可能性が高いことになる。このため、顔影の比率を所定の値と比較すれば、逆光か否かを推定して判定結果を得ることができる。
但し、前述のように、カメラ1と撮影者との距離が近い場合には上記のような影が生じることがあるので、ここでは、カメラ1と撮影者との距離を推定して、この距離が所定の距離より近い場合にはステップS408の処理を行わない。
続いて、CPU15は顔検出結果から撮影者の目に関する目情報を取得する(ステップS409)。撮影者を対象とする画像データ(第2の画像データ)を顔検出回路36に入力すると、顔検出回路36は極端な悪条件の場合を除いて顔検出を行い、顔検出結果において撮影者の目領域を特定する。
なお、比率Rfsが所定の値以上であると(ステップS407において、NO)、CPU15はステップS409の処理に進んで目情報を取得する。
次に、CPU15は撮影者が目を細めているか否かを判定する(ステップS410)。ここでは、CPU15は顔検出結果に含まれる目情報に応じて、撮影者が目を細めているか否かを判定する。目情報によって目領域として特定された部分の大きさが小さければ、撮影者は眩しい状態にある。よって、目領域の大きさが所定のサイズ未満である場合には、CPU15は撮影者が目を細めていると判定する。
撮影者が目を細めていると判定すると(ステップS410において、YES)、CPU15は逆光度aLを+1インクリメントする(ステップS411)。
なお、撮影者が目を細めているか否かを判定する際には、判定を正確とするため、所定の時間以上連続して目の大きさが所定のサイズ未満であると、CPU15は撮影者が目を細めていると判定する。これによって不随意の瞬きなどによる誤判定を防止することができる。
続いて、CPU15は、第1の画像データに係る画像上のいずれの位置に光源が存在するかについて推定する(ステップS414)。ここでは、CPU15は画像の上方にあって画像内の他の部分より所定の値以上明るい部分を光源と推定して、当該光源の中心座標を求める。
前述のように、画像は上下左右にそれぞれ8分割されて、全体で64のブロック又はエリアに分割されている。そして、各ブロックについて平均輝度値Yijが求められる。CPU15は平均輝度値Yijが最大であるブロックを検索して、当該ブロックの位置が画像上部側の2段に存在すれば、当該最大のブロックに光源が存在すると推定する。
CPU15は、光源が存在すると推定したブロックに隣接するブロックの平均輝度値Yijを調べて、光源が存在すると推定されたブロックに隣接するブロックの平均輝度値Yijとの差が所定の差分値未満であれば、当該隣接するブロックにも光源が存在すると判定する。
隣接するブロックとして、画像の上下左右に加えて斜め上および斜め下の8方向のブロックを対象とする。そして、光源が存在すると判定したブロックが複数ある場合には、CPU15は各ブロックの中心座標の平均座標を求めて、当該中心座標を光源の座標とする。
上述のようにして、光源の座標が求めた後、CPU15はズームスイッチによって設定された第1の撮影レンズ鏡筒31のズーム位置に応じた焦点距離に基づいて、光源のカメラ1に対する水平方向の角度と垂直方向の角度(第1の角度情報)とを求める。第1の撮影レンズ鏡筒31の焦点距離から画像の四隅の角度を知ることができるので、光源の位置(座標)に対する関係に基づいて、光源のカメラ1に対する水平方向の角度と垂直方向の角度とを求めることができる。
次に、CPU15は、光源、カメラ(撮像装置)1、および撮影者の位置関係を求める(ステップS415)。ここでは、CPU15は撮影者の顔情報(顔検出結果)に応じてカメラ1と撮影者との位置関係を求める。ここでは、CPU15は、ステップS414の処理と同様にして顔検出結果における顔の位置(顔中心座標)を得ると、第2の撮影レンズ鏡筒50の焦点距離に応じて撮影者の顔のカメラ1に対する水平方向の角度と垂直方向の角度(第2の角度情報)とを求める。
続いて、CPU15は光源、カメラ1、および撮影者の位置関係が略一直線上にあるか否かを判定する(ステップS416)。上記の2つの角度が略等しく、かつ方向が逆(反対方向)であれば、光源、カメラ1、および撮影者が略一直線上にあると看做すことができる。
光源、カメラ1、および撮影者の位置関係が略一直線上にあると(ステップS416において、YES)、CPU15は逆光度aLを+1インクリメントする(ステップS417)。
次に、CPU15は各エリアの平均輝度値と中心部の平均輝度値とを比較する際に用いられる定数αを、逆光度aLに応じて式(6)によって設定する(ステップS418)。なお、光源、カメラ1、および撮影者の位置関係が略一直線上にないと(ステップS416において、NO)、CPU15はステップS418の処理に進む。
α=a−0.4×aL (6)
さらに、CPU15は画像の上部における平均輝度値と画像の下部における平均輝度値とを比較する際に用いられる定数βを、逆光度aLに応じて式(7)によって設定する(ステップS419)。
さらに、CPU15は画像の上部における平均輝度値と画像の下部における平均輝度値とを比較する際に用いられる定数βを、逆光度aLに応じて式(7)によって設定する(ステップS419)。
β=b−0.2×aL (7)
続いて、CPU15はエリア毎の重み付け係数の補正係数H3ij(逆光パラメータ)を逆光度aLに応じて式(8)によって設定する(ステップS420)。そして、CPU15は逆光パラメータの設定処理を終了する。
続いて、CPU15はエリア毎の重み付け係数の補正係数H3ij(逆光パラメータ)を逆光度aLに応じて式(8)によって設定する(ステップS420)。そして、CPU15は逆光パラメータの設定処理を終了する。
H3ij=H1ij(aL+1) (8)
再び図3を参照して、逆光パラメータの設定が終了すると、CPU15は撮影を行う際の露出値を求める(ステップS302)。
再び図3を参照して、逆光パラメータの設定が終了すると、CPU15は撮影を行う際の露出値を求める(ステップS302)。
図14は、図3に示す露出値の算出を説明するためのフローチャートである。なお、図14において、図5に示すフローチャートに係るステップと同一のステップについては同一の参照符号を付して説明を省略する。
ステップS502において中心部の平均輝度値Ycを求めた後、CPU15は平均輝度値Uijが平均輝度値Ycのα倍以上であるか否かを判定する。Yij<Yc×αであると(ステップS1403において、NO)、CPU15は平均輝度値Yijが平均輝度値Ycの1/α以下であるか否かを判定する(ステップS1404)。
Yij≧Yc×αであると(ステップS1403において、YES)、CPU15は予め定めた重み係数Wijに所定の補正係数H3ij(逆光パラメータ)を乗算して、露出制御補正値を求める際に用いられる重み係数WEIGHTijとする。つまり、CPU15は、WEIGHTij=Wij×H3ijとする(ステップS1405)。
Yij≦Yc/αであると(ステップS1404において、YES)、CPU15は、WEIGHTij=Wij×H3ijとする(ステップS1406)。一方、Yij>Yc/αであると(ステップS1404において、NO)、CPU15は、ステップS507の処理に進んで、重み係数WEIGHTij=重み係数にWijに設定する。
その後、CPU15はステップS508において平均輝度値Yupperおよび平均輝度値Yunderを算出し、平均輝度値Yupperが平均輝度値Yunderのβ倍を超えるか否かを判定する(ステップS1409)。Yupper>Yunder×βであると(ステップS1409において、YES)、CPU15は重み係数WEIGHTijに所定の補正係数H4ij(第5の補正係数)を乗算して、重み係数WEIGHTijを補正して第5の重み係数を得る(ステップS1410)。
続いて、CPU15はステップS511において露出制御補正値DeltaAllを算出する。さらに、露出制御補正値DeltaAllと露出制御補正値DeltaAllを求める際に用いた画像を得た際の絞り値、第1のセンサーにおける蓄積時間、および第1の撮像回路における信号増幅度とに応じて撮影の際の露出値を求める(ステップS1412)。そして、CPU15は露出値の算出処理を終了する。
Yupper≦Yunder×βであると(ステップS1409において、NO)、CPU15はステップS511の処理に進んで、重み係数WEIGHTijを補正することなく露出制御補正値DeltaAllを求める。
このようにして、露出値の算出を行うと、中心部分を重視して背景の輝度に影響されずに撮影の際の露出値を求めることができる。
再度、図3を参照して、撮影の際の露出値を算出した後、CPU15は撮影を行う際の絞り値(Av値)、シャッター速度(Tv値)、およびセンサー感度(Sv値)を求める(ステップS303)。CPU15は撮影者によって設定されたズームポジションに応じて手振れが生じない程度にTv値を設定する。さらに、CPU15はSv値がISO100〜400相当程度の範囲でステップS302にて求めた露出値になるようにAv値を設定する。
そして、CPU15はTv値およびAv値に応じてSv値を決定する。Av値が設定可能範囲に入らない場合には、CPU15はAv値およびSv値を変更せずにTv値を調整する。
例えば、明るい状態であるので、最小絞りおよび最低感度としても設定を行うことができない場合には、CPU15はTv値をさらに高速側として調整を行う。暗い場合には、CPU15はAv値を開放のままとしてISO400程度にして、Tv値を低速側に変化させる。これによっても設定が行えない場合には、CPU15は感度が高くなるようにSv値を、ISO400を超えて設定する。
感度が高過ぎると画像にノイズが目立つようになる。TV値が低速の場合には手振れ又は被写体振れによって画像が劣化する。Av値が開放の場合には、被写界深度が浅くなって奥行のある場合には被写体の全てにピントが合わないことがある。
一方、Av値を絞り込むと回折現象によって画像が劣化することがある。よって、Sv値、TV値、およびAv値のバランスを考慮して、CPU15はステップS302で求めた露出値になるようにSv値、TV値、およびAv値を設定する。
但し、Tv優先モード、Av優先モード、又はISO固定に応じて撮影者によってSv値、TV値、およびAv値のいずれか1つが決められた場合には、CPU15は他の2つの値のみを設定する。Sv値、TV値、およびAv値のいずれか2つが撮影者によって決められた場合には、CPU15は残りの1つの値を設定する。
なお、この設定手法については既に種々提案されており、上記の設定は一例に過ぎない。また、Sv値、TV値、およびAv値の各々にはカメラ1の性能上および制御上の上限値および下限値が存在する。
続いて、CPU15は逆光時におけるストロボ発光判定パラメータの設定を行う(ステップS304)。ここでは、CPU15はストロボ発光を行う際における輝度差の閾値FlashOnThを設定する。CPU15はステップS301で求めた逆光度aLに応じて、次の式(9)によって閾値FlashOnThを設定する。なお、単位は露光段数である。
FlashOnTh=FlashOnTh0−0.25×aL (9)
但し、FlashOnTh0は初期値である。
但し、FlashOnTh0は初期値である。
次に、CPU15はAF結果(つまり、AF評価値)に応じてカメラ1と被写体との距離を示す距離情報Distを取得する(ステップS305)。そして、CPU15は中心部分の露出値とステップS302で求めた露出値との差DeltaCenterを求める(ステップS306)。ここで、中心部分の露出値は、64分割された画像の中心部分ブロック(例えば、図7に示す補正係数が1.0である中心の8つのブロック)の輝度値Yijの平均値AveYijである。差DeltaCenterは、次の式(10)によって求められる。
DeltaCenter=Log2(AveYij/Yref) (10)
但し、Yrefは画像目標輝度である。
但し、Yrefは画像目標輝度である。
次に、CPU15はDeltaCenter<0であるか否かを判定する(ステップS307)。DeltaCenter<0であると(ステップS307において、YES)、CPU15は(DeltaAll−DeltaCenter)を求めて、この差分が閾値FlashOnTh以上であるか否かを判定する(ステップS308)。
上記の差分が閾値FlashOnTh以上であると(ステップS308において、YES)、CPU15はステップS305で取得した距離情報Distで示す距離が過焦点距離よりも近いか否かを判定する(ステップS309)。過焦点距離とは、無限遠にピントを合わせた際に被写界深度の範囲に入る近側の距離のことである。
Dist<過焦点距離であると(ステップS309において、YES)、CPU15は撮影の際にストロボ発光を行う設定をする(ステップS310)。そして、CPU15はAE処理を終了する。
一方、Dist≧過焦点距離であると(ステップS309において、NO)、CPU15はストロボ光が到達しないとして、CPU15はストロボ発光を行わない設定をする(ステップS311)。そして、CPU15はAE処理を終了する。
(DeltaAll−DeltaCenter)<FlashOnThであると(ステップS308において、NO)、CPU15は撮影の際の露光値に比べて中心部分の適正露光値が明るいか又はその差が小さいので、中心部分が画像全体より明るいとしてストロボを発光しなくとも、中心部分が極端な露光不足になることはないと判断して、ステップS311の処理に進む。
また、差DeltaCenterが零以上であると(ステップS307において、NO)、つまり、中心部分が画像全体に比べて明るいと、CPU15はストロボ発光を行う必要はないとして、ステップS311の処理に進む。
なお、ここでは、逆光判定に関するストロボ発光判定について説明したが、低照度におけるストロボ発光判定については測定された被写体の照度に応じて別の手法で行われることになる。この手法については本発明とは直接関係ないので説明を省略する。
このように、本発明の第1の実施形態では、撮影者を撮像対象とする第2の撮影レンズ鏡筒を用いて得られる画像を用いて逆光シーンにおける露出制御を行うとともに、空などの背景に起因する露出算出の誤差を補正するようにしたので、正確に逆光判定を行うことができるばかりでなく、背景の影響の排除を行うことができる結果、主被写体を適正な露光で撮影することができる。
なお、上記の実施形態では、撮影者を撮像対象とする第2の撮影レンズ鏡筒を用いて得られる画像を用いて様々な判定を行い逆光度の調整を行っているが、全ての判定を行う必要はない。ステップS404、407、410、416の全ての判定を行い、逆光度を調整することでより正確な逆光判定を行うことができるが、ステップS404、407、410、416の少なくとも1つの判定を行うだけでも従来より正確に逆光判定を行うことができる。
[第2の実施形態]
続いて、本発明の第2の実施形態によるカメラについて説明する。なお、第2の実施形態によるカメラの構成は図1に示すカメラと同様である。また、第2の実施形態によるカメラで行われる撮影に係る処理は図2〜図5および図14で説明した処理と同様である。そして、第2の実施形態によるカメラは撮影者側輝度測定処理が図10で説明した撮影者側輝度測定処理と異なる。
続いて、本発明の第2の実施形態によるカメラについて説明する。なお、第2の実施形態によるカメラの構成は図1に示すカメラと同様である。また、第2の実施形態によるカメラで行われる撮影に係る処理は図2〜図5および図14で説明した処理と同様である。そして、第2の実施形態によるカメラは撮影者側輝度測定処理が図10で説明した撮影者側輝度測定処理と異なる。
図15は、本発明の第2の実施形態によるカメラで行われる撮影者側輝度測定を説明するためのフローチャートである。なお、図示のフローチャートにおいて、図10に示すフローチャートのステップと同一のステップについては同一の参照符号を付して説明を省略する。
図15に示す例では、第2の画像データ(撮影者画像)に応じて露出値の算出が行われる。そして、撮影者画像は図9で説明したようにして分割されているものとする。
まず、CPU15はステップS901およびS902の処理を行って、各エリアの平均輝度値Ykを求めるとともに、顔エリアにおける平均輝度値YFを求める。
続いて、CPU15は各エリアの輝度値Ykが顔エリアの輝度値YFのα倍以上であるか否かを判定する(ステップS1503)。Yk<YF×αであると(ステップS1503において、NO)、CPU15は各エリアの輝度値Ykが顔エリアの輝度値YFの1/α以下であるか否かを判定する(ステップS1504)。
Yk≧YF×αであると(ステップS1503において、YES)、CPU15は予め定めた重み係数Wkに所定の補正係数H3k(第6の補正係数)を乗算して、露出制御補正値を求める際に用いられる重み係数WEIGHTkとする。つまり、CPU15は、WEIGHTk=Wk×H3kとする(ステップS1505)。
Yk≦YF/aであると(ステップS1504において、YES)、CPU15は、WEIGHTk=Wk×H3kとする(ステップS1506)。一方、Yk>YF/aであると(ステップS1504において、NO)、CPU15はステップS907の処理に進んで重み係数WEIGHTk=重み係数Wkに設定する。
ステップS1505、S1506、又はS907の処理の後、CPU15は、ステップS908の処理に進んで、前述の平均輝度値Y0および平均輝度値Y5を求める。そして、CPU15は平均輝度値Y0が平均輝度値Y5のβ倍を超えるか否かを判定する。つまり、CPU15は、Y0>Y5×βであるか否かを判定する(ステップS1509)。
Y0>Y5×βであると(ステップS1509において、YES)、CPU15は、ステップS910の処理に進んで重み係数WEIGHTkに所定の補正係数H2kを乗算して、重み係数WEIGHTkを補正して第4の重み係数を得る。そして、CPU15はステップS911において前述の式(5)を用いて露出制御補正値DeltaAllを算出する。
その後、CPU15は、算出した露出制御補正値DeltaAllと露出制御補正値DeltaAllを得た画像を生成した際の絞り値、第2のセンサーの蓄積時間、および第2の撮像回路で行われた信号増幅度とに応じて撮影者輝度を求める。そして、撮影者側輝度測定を終了する。
Y0≦Y5×βであると(ステップS1509において、NO)、CPU15はステップS911の処理に進んで、重み係数WEIGHTkを補正することなく、つまり、第3の重み係数を用いて式(5)によって露出制御補正値DeltaAllを求める。
このようにして、本発明の第2の実施形態においても、撮影者を撮像対象とする第2の撮影レンズ鏡筒を用いて得られる画像を用いて逆光シーンにおける露出制御を行うとともに、空などの背景に起因する露出算出の誤差を補正するようにしたので、正確に逆光判定を行うことができるばかりでなく、背景の影響の排除を行うことができる結果、主被写体を適正な露光で撮影することができる。
以上のように、本発明の実施の形態では、主被写体の反射率が低い場合又は背景が明るい場合などの逆光判定を誤り易いシーンにおいても正確に逆光状態であるか否かを判定することができ、その結果に応じて露出制御を精度よく行うことができる。
なお、本発明の実施の形態では、撮像装置としてデジタルカメラを例に挙げて説明したが、デジタルビデオカメラ、デジタル一眼レフカメラ、カメラ付き携帯電話などにも適用することができる。また、撮像素子として、CMOSセンサー又はCCDなどが用いられる。
上述の説明から明らかなように、図1に示す例においては、少なくともAE処理回路13、スキャンAF処理回路14、CPU15、および顔検出回路36が露出制御装置を構成する。そして、AE処理回路13およびCPU15は第1の測光手段および第2の第2の測光手段として機能する。
さらに、CPU15は判定手段として機能し、CPU15、第1のモータ駆動回路18、および第1のモータ21は露出制御手段として機能する。また、CPU15および顔検出回路36は検出手段として機能する。加えて、CPU15は、第1の平均輝度算出手段又は第1の画素数算出手段および第2の画素数算出手段として機能する。そして、CPU15は推定手段および位置取得手段として機能する。
さらに、第1の撮影レンズ鏡筒31および第2の撮影レンズ鏡筒50はそれぞれ第1の撮影光学系および第2の撮影光学系として機能し、第1のセンサー5、第1の撮像回路6、および第1のA/D変換回路7は第1の撮像手段として機能する。そして、第2のセンサー45、第2の撮像回路46、および第2のA/D変換回路47は第2の撮像手段として機能する。
また、CPU15は第1の角度算出手段および第2の角度算出手段として機能し、CPU15、VRAM8、およびD/A変換回路9は表示制御手段として機能する。そして、CPU15および合成回路48は合成手段として機能する。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば、上記の実施の形態の機能を制御方法として、この制御方法を露出制御装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを露出制御装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
上記の制御方法および制御プログラムの各々は、少なくとも第1の測光ステップ、第2の測光ステップ、判定ステップ、および露出制御ステップを有している。
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。
5,45 固体撮像素子
6,46 撮像回路
10 画像表示装置
11 圧縮伸長回路
13 AE処理回路
14 スキャンAF処理回路
15 CPU
31,50 撮影レンズ鏡筒
36 顔検出回路
48 合成回路
6,46 撮像回路
10 画像表示装置
11 圧縮伸長回路
13 AE処理回路
14 スキャンAF処理回路
15 CPU
31,50 撮影レンズ鏡筒
36 顔検出回路
48 合成回路
Claims (13)
- 撮影の際に逆光の判定を行って露出制御を行う露出制御装置であって、
主被写体からの光に応じて得られた第1の画像データにおいて前記主被写体を示す主被写体像の輝度を測定して第1の輝度情報を得る第1の測光手段と、
撮影者からの光に応じて得られた第2の画像データにおいて前記撮影者を示す撮影者像の輝度を測定して第2の輝度情報を得る第2の測光手段と、
前記第1の輝度情報および前記第2の輝度情報に応じて前記主被写体像が逆光状態にあるか否かを判定する判定手段と、
前記判定手段の判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御手段と、
を有することを特徴とする露出制御装置。 - 前記第2の画像データに応じて前記撮影者像における顔領域を検出する検出手段を有し、
前記第2の測光手段は顔領域の輝度を測定して前記第2の輝度情報を得ることを特徴とする請求項1に記載の露出制御装置。 - 前記第2の輝度情報が示す輝度値のうち所定の輝度値以上の輝度値を第1の選択輝度値として選択して、当該第1の選択輝度値の平均値を第1の平均輝度値として求める第1の平均輝度算出手段を有し、
前記判定手段は、前記第2の輝度情報の代わりに前記第1の平均輝度値を用いることを特徴とする請求項2に記載の露出制御装置。 - 前記主被写体からの光を受ける第1の撮影光学系と前記撮影者との距離が所定の距離以内であると、前記判定手段は前記第1の輝度情報と前記第1の平均輝度値とに応じて前記逆光状態であるか否かを判定することを特徴とする請求項3に記載の露出制御装置。
- 主被写体を撮影する際に逆光の判定を行って露出制御を行う露出制御装置であって、
撮影者からの光に応じて得られた画像データにおいて前記撮影者を示す撮影者像における顔領域を検出する検出手段と、
前記顔領域の輝度を測定して輝度情報を得る測光手段と、
前記輝度情報が示す輝度値のうち所定の輝度値以上の輝度値を第1の選択輝度値として選択して、当該第1の選択輝度値となる第1の画素数を算出する第1の画素数算出手段と、
前記輝度情報が示す輝度値のうち所定の輝度値未満の輝度値を第2の選択輝度値として選択して、当該第2の選択輝度値となる第2の画素数を算出する第2の画素数算出手段と、
前記第1の画素数と前記第2の画素数との比に応じて前記主被写体からの光に応じて得られた画像データにおいて前記主被写体を示す主被写体像が逆光状態にあるか否かを判定する判定手段と、
前記判定手段の判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御手段と、
を有することを特徴とする露出制御装置。 - 主被写体を撮影する際に逆光の判定を行って露出制御を行う露出制御装置であって、
撮影者からの光に応じて得られた画像データにおいて前記撮影者を示す撮影者像における顔領域を検出して当該顔領域において目の開き度合いを検出する検出手段と、
前記目の開き度合いに応じて前記主被写体からの光に応じて得られた画像データにおいて前記主被写体を示す主被写体像が逆光状態にあるか否かを判定する判定手段と、
前記判定手段の判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御手段と、
を有することを特徴とする露出制御装置。 - 撮影の際に逆光の判定を行って露出制御を行う露出制御装置であって、
主被写体からの光に応じて得られた第1の画像データが示す画像において予め定められた輝度値以上の輝度値を有する部分を光源と推定する推定手段と、
前記撮影者からの光に応じて得られた第2の画像データが示す画像において撮影者の顔領域を検出して顔検出結果を得る検出手段と、
前記顔検出結果に応じて撮像装置と前記撮影者との位置関係を得るとともに、前記光源と撮像装置との位置関係を得る位置取得手段と、
前記撮像装置、前記光源、および前記撮影者の位置関係に応じて前記主被写体像が逆光状態にあるか否かを判定する判定手段と、
前記判定手段の判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御手段と、
を有することを特徴とする露出制御装置。 - 前記撮像装置は、前記主被写体からの光が第1の撮影光学系を介して結像されて主被写体像に応じて前記第1の画像データを生成する第1の撮像手段と、
前記撮影者からの光が第2の撮影光学系を介して結像されて撮影者像に応じて前記第2の画像データを生成する第2の撮像手段とを有しており、
前記位置取得手段は、前記第1の撮影光学系の焦点距離に基づいて、前記光源の前記撮像装置に対する水平方向の角度と垂直方向の角度とを第1の角度情報として求めて、当該第1の角度情報を前記光源と前記撮像装置との位置関係とする第1の角度算出手段と、
前記第2の撮影光学系の焦点距離に応じて前記顔検出結果が示す前記撮影者の顔領域の前記撮像装置に対する水平方向の角度と垂直方向の角度とを第2の角度情報として求めて、当該第2の角度情報を前記撮影者と前記撮像装置との位置関係とする第2の角度算出手段とを有することを特徴とする請求項7に記載の露出制御装置。 - 前記判定手段は前記第1の角度情報と前記第2の角度情報が示す角度の大きさが略等しく、かつその方向が反対方向であると、前記逆光状態であると判定することを特徴とする請求項8に記載の露出制御装置。
- 撮影の際に逆光の判定を行って露出制御を行う露出制御装置の制御方法であって、
主被写体からの光に応じて得られた第1の画像データにおいて前記主被写体を示す主被写体像の輝度を測定して第1の輝度情報を得る第1の測光ステップと、
撮影者からの光に応じて得られた第2の画像データにおいて前記撮影者を示す撮影者像の輝度を測定して第2の輝度情報を得る第2の測光ステップと、
前記第1の輝度情報および前記第2の輝度情報に応じて前記主被写体像が逆光状態にあるか否かを判定する判定ステップと、
前記判定ステップの判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御ステップと、
を有することを特徴とする制御方法。 - 撮影の際に逆光の判定を行って露出制御を行う露出制御装置で用いられる制御プログラムであって、
前記露出制御装置が備えるコンピュータに、
主被写体からの光に応じて得られた第1の画像データにおいて前記主被写体を示す主被写体像の輝度を測定して第1の輝度情報を得る第1の測光ステップと、
撮影者からの光に応じて得られた第2の画像データにおいて前記撮影者を示す撮影者像の輝度を測定して第2の輝度情報を得る第2の測光ステップと、
前記第1の輝度情報および前記第2の輝度情報に応じて前記主被写体像が逆光状態にあるか否かを判定する判定ステップと、
前記判定ステップでの判定結果に基づいて前記主被写体像に係る露出制御を行う露出制御ステップと、
を実行させることを特徴とする制御プログラム。 - 請求項1〜9のいずれか1項に記載の露出制御装置と、
前記主被写体からの光に応じて得られた画像データを画像として表示部に表示する表示制御手段とを有することを特徴とする撮像装置。 - 前記主被写体からの光に応じて得られた画像データと前記撮影者からの光に応じて得られた画像データとを合成して合成画像データとする合成手段を有し、
前記表示制御手段は、前記合成画像データに応じた画像と前記主被写体からの光に応じて得られた画像データに応じて画像とを選択的に前記表示部に表示することを特徴とする請求項12に記載の撮像装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013159384A JP2015031743A (ja) | 2013-07-31 | 2013-07-31 | 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置 |
US14/445,943 US9781326B2 (en) | 2013-07-31 | 2014-07-29 | Exposure control apparatus and method, storage medium, and image pickup apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013159384A JP2015031743A (ja) | 2013-07-31 | 2013-07-31 | 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015031743A true JP2015031743A (ja) | 2015-02-16 |
Family
ID=52427341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013159384A Pending JP2015031743A (ja) | 2013-07-31 | 2013-07-31 | 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9781326B2 (ja) |
JP (1) | JP2015031743A (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6467190B2 (ja) * | 2014-10-20 | 2019-02-06 | キヤノン株式会社 | 露出制御装置及びその制御方法、撮像装置、プログラム、記憶媒体 |
US10158797B2 (en) * | 2017-03-31 | 2018-12-18 | Motorola Mobility Llc | Combining images when a face is present |
CN107155063B (zh) * | 2017-06-19 | 2020-10-20 | 深圳市泰衡诺科技有限公司上海分公司 | 夜景拍摄控制方法、系统以及设备 |
CN108156381B (zh) * | 2017-12-28 | 2021-01-05 | 北京小米移动软件有限公司 | 拍照方法及装置 |
CN108881636B (zh) * | 2018-06-30 | 2021-05-04 | 成都西纬科技有限公司 | 逆光模式自动切换方法、装置、电子设备及计算机可读存储介质 |
US20240305894A1 (en) * | 2021-04-23 | 2024-09-12 | Mitsubishi Electric Corporation | In-vehicle exposure control device and exposure control method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2592904B2 (ja) * | 1988-05-06 | 1997-03-19 | キヤノン株式会社 | カメラ |
JP3478452B2 (ja) | 1996-03-27 | 2003-12-15 | ソニー株式会社 | 逆光検出方法、逆光検出装置及び撮像カメラ |
US7298412B2 (en) * | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
JP2008244587A (ja) * | 2007-03-26 | 2008-10-09 | Nikon Corp | カメラおよび電子機器 |
US8144214B2 (en) * | 2007-04-18 | 2012-03-27 | Panasonic Corporation | Imaging apparatus, imaging method, integrated circuit, and storage medium |
WO2009004901A1 (ja) * | 2007-06-29 | 2009-01-08 | Olympus Corporation | 顔検出装置、デジタルカメラ及び顔検出プログラム |
JP5544223B2 (ja) | 2010-06-03 | 2014-07-09 | 株式会社日立製作所 | 撮像装置 |
US20130321687A1 (en) * | 2010-12-09 | 2013-12-05 | Dimitri NEGROPONTE | Light metering in cameras for backlit scenes |
US20140063288A1 (en) * | 2012-08-30 | 2014-03-06 | Pantech Co., Ltd. | Imaging apparatus, electronic device and method providing exposure compensation |
-
2013
- 2013-07-31 JP JP2013159384A patent/JP2015031743A/ja active Pending
-
2014
- 2014-07-29 US US14/445,943 patent/US9781326B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9781326B2 (en) | 2017-10-03 |
US20150036040A1 (en) | 2015-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107948519B (zh) | 图像处理方法、装置及设备 | |
CN108055452B (zh) | 图像处理方法、装置及设备 | |
JP5738080B2 (ja) | 撮像装置及びその制御方法 | |
JP6512810B2 (ja) | 撮像装置および制御方法とプログラム | |
JP6046905B2 (ja) | 撮像装置、露出制御方法、及びプログラム | |
KR101847392B1 (ko) | 화상처리장치 및 그 제어 방법 | |
JP6116277B2 (ja) | 撮像装置及びその制御方法 | |
JP2009015185A (ja) | 画像検出装置、焦点調節装置および撮像装置 | |
JP2015031743A (ja) | 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置 | |
JP5499853B2 (ja) | 電子カメラ | |
JP2010072619A (ja) | 露出演算装置およびカメラ | |
JP2016144090A (ja) | 画像処理装置およびその制御方法 | |
JP2013167737A (ja) | 撮像装置、その制御方法、および制御プログラム | |
US10212344B2 (en) | Image capturing device and control method capable of adjusting exposure timing based on detected light quantity change characteristic | |
JP5849515B2 (ja) | 露出演算装置およびカメラ | |
JP2014197141A (ja) | 撮像装置 | |
US10943328B2 (en) | Image capturing apparatus, method for controlling same, and storage medium | |
JP2007133301A (ja) | オートフォーカスカメラ | |
US10447937B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium that perform image processing based on an image processing parameter set for a first object area, and information on a positional relationship between an object in a second object area and an object in the first object area | |
JP2012063664A (ja) | 測光装置及び電子カメラ | |
JP2010200138A (ja) | 被写体追尾装置 | |
JP2009017093A (ja) | 画像認識装置、焦点調節装置および撮像装置 | |
JP6568448B2 (ja) | 自動焦点調節装置およびその制御方法、撮像装置 | |
JP2021057709A (ja) | 撮像装置および露出制御方法 | |
JP2015152830A (ja) | 撮像装置及びその制御方法、プログラム、記憶媒体 |