以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。
(第1の実施形態)
図1及び図2は本発明の撮像装置の第1の実施形態であるデジタル一眼レフカメラの断面図である。
1はカメラ本体、2は後述の撮影レンズ3をカメラ本体1に着脱可能とするためのマウントであり、各種信号を通信したり、駆動電源を供給したりするためのインターフェース部を有する。3は交換可能な撮影レンズであり、内部にフォーカスレンズ群やズームレンズ群、不図示の絞り装置を有している。図1及び図2では、各レンズ群を便宜上1枚のレンズで図示しており、例えば、フォーカスレンズ群をフォーカスレンズ3aとして示している。しかし、実際には多数のレンズにより複雑なレンズ群の組み合わせで構成されている。なお、図1及び図2はフォーカスレンズ3aを撮影レンズ3の前側のレンズに限定する趣旨ではない。
4はハーフミラーで構成された主ミラーであり、カメラの動作状態に応じて回動可能となっている。主ミラー4は、被写体をファインダーで観察する時は撮影光路へ斜設され、撮影レンズ3からの光束を折り曲げて後述のファインダー光学系へ導く(図1)。主ミラー4は、撮影時やライブビュー時は撮影光路から退避して、撮影レンズ3からの光束を後述の撮像素子6へ導く(図2)。5は撮影レンズ3からの光束を後述の撮像素子6に入射制御するためのシャッターで、通常は閉じた状態(図1)で、撮影時やライブビュー時に開いた状態(図2)となる。
6はCMOSイメージセンサとその周辺回路で構成された撮像素子である。撮像素子6は、全画素独立出力が可能なように構成されている。また一部の画素が焦点検出用画素となっており、撮像面で位相差検出方式の焦点検出(位相差AF)が可能となっている。より具体的には、撮像素子6は、被写体の像を形成する撮影レンズ3の射出瞳(後述するEP)の全域を通る光を各々が受光して被写体の像を生成する複数の撮影用画素を有する。また、撮像素子6は、各々が撮影レンズ3の射出瞳EPの一部の領域(後述するEPHA及びEPHB)を通る光を受光する複数の焦点検出用画素を更に有する。複数の焦点検出用画素は全体として撮影レンズ3の射出瞳の全域を通る光を受光することができる。
7は主ミラー4とともに回動するサブミラーであり、主ミラー4が撮影光路へ斜設されている時に主ミラー4を透過した光束を後述のAFセンサ8に向かって折り曲げてAFセンサ8へ導く(図1)。サブミラー7は、撮影時やライブビュー時は主ミラー4と共に回動して撮影光路から退避する(図2)。サブミラー7はハーフミラーではなく撮像素子6を遮光する。8はAFセンサであり、2次結像レンズや複数のCCD又はCMOSからなるエリアセンサ等から構成されており、位相差AFが可能となっている。
9は撮影レンズ3の一次結像面に配置されたピント板であり、入射面にはフレネルレンズ(集光レンズ)が設けられ、射出面には被写体像(ファインダー像)が結像している。10はファインダー光路変更用のペンタプリズムであり、ピント板9の射出面に結像した被写体像を正立正像に変換する。11、12は接眼レンズである。ここで、ピント板9、ペンタプリズム10、接眼レンズ11、12により構成されている光学系をファインダー光学系と称する。
13は自動露光(AE)センサであり、多分割された撮像領域内の各領域に対応したフォトダイオードから構成されており、ピント板9の射出面に結像した被写体像の輝度を測定する。14は撮影した画像や各種の撮影情報を表示する液晶モニタ(表示部)である。液晶モニタ14は、ライブビューモード時に撮像素子6が撮像した被写体の像(被写体像)を表示すると共に後述するAF枠設定部としてのマルチコントローラ33が設定可能なAF枠とマルチコントローラ33が設定したAF枠を表示する。
図3はデジタル一眼レフカメラの制御系のブロック図である。
20はカメラ部の制御とカメラ全体の制御を行うマイクロコンピュータ(中央処理装置;以下、「MPU」と称す)である。MPU(制御部)20は、後述する枠設定部であるマルチコントローラ33が設定したAF枠の焦点検出用画素の出力信号を演算することによってAF枠に対して位相差AFを行って焦点検出枠の焦点ずれ量を算出する。
21は画像データの各種制御を行うメモリコントローラ、22は各種制御を行うための設定、調整データ等を格納しているEEPROMである。23は撮影レンズ3内にあるレンズ制御回路であり、マウント2を介してMPU20と接続されており、後述の各情報に基づいて不図示のフォーカスレンズ群の焦点調節(合焦駆動)や不図示の絞り駆動を行う。
24は焦点検出回路であり、AFセンサ8のエリアセンサの蓄積制御と読み出し制御とを行って、各焦点検出点の画素情報をMPU20に出力する。MPU20は各焦点検出点の画素情報を用いて周知の位相差AFを行い、検出した焦点検出情報をレンズ制御回路23へ送出して不図示のフォーカスレンズ群の焦点調節を行う。この焦点検出から焦点調節までの一連の動作をAF動作と称する。
25は測光回路であり、AEセンサ13の各領域からの輝度信号をMPU20に出力する。MPU20は、輝度信号をA/D変換して被写体の測光情報とし、この測光情報を用いて撮影露出を演算し設定する。この測光情報を得てから撮影露出の設定までの一連の動作をAE動作と称する。
26はモータ駆動回路であり、主ミラー4を駆動する不図示のモータやシャッター5のチャージを行う不図示のモータを制御する。27はシャッター駆動回路であり、シャッター5を開閉するための不図示のコイルへの電力供給制御を行う。28は電源29の電圧を各回路に必要な電圧に変換するDC/DCコンバータである。
30はレリーズボタンであり、SW1とSW2の信号をMPU20へ出力する。SW1は、レリーズボタン30の第1ストローク(半押し)操作でONし、測光(AE)、AF動作を開始させるためのスイッチである。SW2は、レリーズボタン30の第2ストローク(全押し)操作でONし、露光動作を開始させるためのスイッチである。31はモードボタンであり、ボタン操作後、後述の電子ダイヤル32やマルチコントローラ33を操作すると、その入力に応じて各種モードが変更され、再度ボタンを操作すると決定される。例えば撮影画像の記録画質の種類等が変更可能である。32は電子ダイヤルであり、ダイヤルの回転クリックに応じたON信号がMPU20内の不図示のアップダウンカウンタに出力され、その数がカウントされる。このカウントに応じて各種の数値やデータ等の選択が行われる。
33はマルチコントローラ(MC)であり、後述するライブビュー時に液晶モニタ14に表示されるAF枠(焦点検出枠)や各種モードを選択、決定するために用いられる入力装置である。マルチコントローラ33は、上下左右、斜め右上、斜め右下、斜め左上、斜め左下の8方向の入力と、押し操作による入力を行うことができる。マルチコントローラ33は、ライブビューモードを設定するモード設定部として機能する。また、マルチコントローラ33は、焦点検出の対象であるAF枠を撮像素子6の撮像領域の任意の位置に設定する枠設定部としても機能する。34は電源ボタンであり、操作するとカメラの電源がON/OFFされる。35は再生ボタンであり、操作すると後述のメディア48内に記録された画像を液晶モニタ14に表示する。
40は撮像素子6から出力される画像信号をサンプルホールド及び自動ゲイン調整するCDS(相関2重サンプリング)/AGC(自動ゲイン調整)回路である。41はCDS/AGC回路40のアナログ出力をデジタル信号に変換するA/D変換器である。42はTG(タイミング発生)回路であり、撮像素子6に駆動信号を、CDS/AGC回路40にサンプルホールド信号を、A/D変換器41にサンプルクロック信号を供給する。
43はA/D変換器41でデジタル変換された画像等を一時的に記録するためのSDRAM(メモリ)である。SDRAM43は、撮像素子6の撮像領域の全域の焦点検出用画素の出力信号を記録することができる。あるいは、SDRAM43は、撮像素子6の撮像領域の全域に対して位相差AFを行って焦点ずれ量を算出して記録する。
44は画像にY/C(輝度信号/色差信号)分離、ホワイトバランス補正、γ補正等を行う画像処理回路である。45は画像をJPEG等の形式に従って圧縮したり、圧縮された画像の伸張を行う画像圧縮/伸張回路である。ここでメモリコントローラ21は、撮像素子6から出力される画像信号を画像処理回路44で画像処理することにより、被写体の測光情報を得ることが可能である。46はSDRAM43や後述するメディア48に記録された画像を液晶モニタ14に表示するために、画像をアナログ信号に変換するD/A変換器である。47は画像を記録保存するためのメディア48とのI/F(インターフェース)である。
続いて、撮像素子6による撮像面位相差AFについて説明する。
本実施形態においては、画素ピッチが8μm、有効画素数が縦3000行×横4500列=1350万画素、撮像画面サイズが横36mm×縦24mmの撮像素子を一例として説明を行なう。またこの撮像素子6は、受光画素上にベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサとなっている。
図4乃至図6は、撮像用画素と焦点検出用画素の構造を説明する図である。本実施形態は2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列を採用している。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素が所定の規則にて離散的に配置される。
図4に撮像用画素の配置と構造を示す。
図4(a)は、2行×2列の撮像用画素(第3の画素群)の平面図である。周知のように、ベイヤー配列では対角方向にG画素が、他の2画素にRとBの画素が配置される。そして2行×2列の構造が繰り返し配置される。図4(a)におけるA−A断面図を図4(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはR(赤色)のカラーフィルタ、CFGはG(緑色)のカラーフィルタである。PD(Photo Diode)はCMOSイメージセンサの光電変換素子を模式的に示したものである。CL(Contact Layer)は、CMOSイメージセンサ内の各種信号を伝達する信号線を形成するための配線層である。TL(Taking Lens)は撮影レンズ3の撮影光学系を模式的に示したものである。
ここで、撮像用画素のオンチップマイクロレンズMLと光電変換素子PDは、撮影光学系TLを通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EP(Exit Pupil)と光電変換素子PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換素子の有効面積は大面積に設計される。なお、撮像用画素は、撮影光学系TLの全射出瞳領域を通過した光を受光する。また、図4(b)ではR画素の入射光束について説明したが、G画素及びB(青色)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束(光量子)を効率よく取り込んで画像信号のS/Nを向上させている。
図5は、撮影光学系の水平方向(左右方向又は横方向)に瞳分割(第1の射出瞳領域と第2の射出瞳領域に分割)を行なうための焦点検出用画素の配置と構造を示す。ここで水平方向とは、撮影光学系の光軸と撮像領域の長辺とが地面に平行となるように撮像装置を構えたとき、この光軸に直交し、かつ水平方向に伸びる直線に沿った方向をいう。図5(a)は、焦点検出用画素を含む2行×2列の画素の平面図である。記録又は観賞のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認知されやすい。一方でR画素又はB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで本実施形態では、2行×2列の画素のうち、G画素は撮像用画素として残し、R画素とB画素を焦点検出用画素(第1の画素群及び第2の画素群)に置き換えている。この焦点検出用画素を図5(a)においてSHA及びSHBと示す。
図5(a)におけるA−A断面図を図5(b)に示す。マイクロレンズMLと光電変換素子PDは図4(b)に示した撮像用画素と同一構造である。本実施形態においては、焦点検出用画素の信号は画像生成には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(白色)が配置される。また撮像素子6で瞳分割を行なうため、配線層CLの開口部はマイクロレンズMLの中心線に対して一方向に偏倚している。具体的には、画素SHA及び開口部OPHAは右側に偏倚して撮影光学系TLの左側の射出瞳EPHAを通過した光束を受光する。画素SHBの開口部OPHBは左側に偏倚して撮影光学系TLの右側の射出瞳EPHBを通過した光束を受光する。画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像をA像(第1の像信号)とする。また画素SHBも水平方向に規則的に配列し、これらの画素群で取得した被写体像をB像(第2の像信号)とする。すると、A像とB像の相対位置を検出することで被写体像の焦点ずれ量(焦点情報)が検出できる。なお、画素SHA及びSHBでは、撮像領域の横方向に輝度分布を有した被写体、例えば縦線に対しては焦点検出可能だが、縦方向に輝度分布を有する横線は焦点検出不能である。そこで本実施例では、後者についても焦点状態を検出できるよう、撮影光学系の垂直方向(縦方向)にも瞳分割を行なう画素も備えるよう構成されている。
図6は、撮影光学系の垂直方向(上下方向又は縦方向)に瞳分割を行なうための焦点検出用画素の配置と構造を示す。ここで垂直方向とは、撮影光学系の光軸と撮像領域の長辺とが地面に平行となるように撮像装置を構えたとき、この光軸に直交し、鉛直方向に伸びる直線に沿った方向をいう。図6(a)は、焦点検出用画素を含む2行×2列の画素の平面図であり、図5(a)と同様に、G画素は撮像用画素として残し、R画素とB画素を焦点検出用画素としている。この焦点検出用画素を図6(a)においてSVC及びSVDと示す。
図6(a)のA−A断面図を図6(b)に示す。図5(b)の画素が横方向に瞳分離する構造であるのに対して、図6(b)の画素は瞳分離方向が縦方向になっているが、その他の画素の構造は同様である。画素SVCの開口部OPVCは下側に偏倚して撮影光学系TLの上側の射出瞳EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVDは上側に偏倚して撮影光学系TLの下側の射出瞳EPVDを通過した光束を受光する。画素SVCを垂直方向に規則的に配列し、これらの画素群で取得した被写体像をC像とする。また画素SVDも垂直方向に規則的に配列し、これらの画素群で取得した被写体像をD像とする。するとC像とD像の相対位置を検出することで、垂直方向に輝度分布を有する被写体像の焦点ずれ量(測距データ)を検出することができる。
図7乃至図9は、図4乃至図6に示した撮像用画素及び焦点検出用画素の配置規則を説明する図である。図7は撮像用画素の間に焦点検出用画素を離散的に配置する場合の最小単位の配置規則を説明するための図である。
図7において、10行×10列=100画素の正方形領域を1つのブロックと定義する。左上のブロックBLKH(1,1)において、一番左下のR画素とB画素を、水平方向に瞳分割を行なう1組の焦点検出用画素SHA及びSHBで置き換える。その右隣りのブロックBLKV(1,2)においては、同じく一番左下のR画素とB画素を、垂直方向に瞳分割を行なう1組の焦点検出用画素SVC及びSVDで置き換える。また最初のブロックBLKH(1,1)の下に隣接したブロックBLKV(2,1)の画素配列は、ブロックBLKV(1、2)と同一とする。そしてその右隣りのブロックBLKH(2,2)の画素配列は、先頭のブロックBLKH(1,1)と同一とする。この配置規則を一般化すると、ブロックBLK(i,j)において、i+jが偶数であれば水平瞳分割用の焦点検出用画素を配置し、i+jが奇数であれば垂直瞳分割用の焦点検出用画素を配置することになる。そして図7の2×2=4ブロック、即ち、20行×20列=400画素の領域をブロックの上位の配列単位としてクラスタと定義する。
図8はクラスタを単位とした配置規則を説明するための図である。図8において、20行×20列=400画素で構成された一番左上のクラスタをCST(u,w)=CST(1,1)とする。クラスタCST(1,1)においては、各ブロックの一番左下のR画素とB画素を焦点検出用画素SHA及びSHB又はSVC及びSVDで置き換える。その右隣りのクラスタCST(1,2)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1,1)に対して上方向に2画素分シフトした位置に配置する。また最初のクラスタCST(1,1)の下に隣接したクラスタCST(2,1)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1,1)に対して右方向に2画素分シフトした位置に配置する。以上の規則を適用すると図8に示す配置が得られる。
この配置規則を一般化すると以下のようになる。なお焦点検出用画素の座標は、図5又は図6で示したG画素を含む4画素を一つの単位(ペア)とし、そのうちの左上の画素の座標で規定する。また各ブロック内の座標は左上を(1、1)とし、下方向と右方向を正とする。クラスタCST(u,w)において、各ブロック内の焦点検出用画素ペアの水平座標は2×u−1となり、垂直座標は11−2×wとなる。そして、図8の5×5=25クラスタ、即ち100行×100列=1万画素の領域を、クラスタの上位の配列単位として、フィールドと定義する。
図9はフィールドを単位とした配置規則を説明するための図である。図9において、100行×100列=1万画素で構成された一番左上のフィールドをFLD(q,r)=FLD(1,1)とする。そして本実施形態では、すべてのフィールドFLD(q,r)は先頭フィールドFLD(1,1)と同様の配列となっている。そこでフィールドFLD(q,r)を水平方向に45個、垂直方向に30個配列すると、3000行×4500列=1350万画素の撮像領域は1350個のフィールドFLD(q,r)で構成される。そして撮像領域全面に亘って焦点検出用画素を均一に分布させることができる。
次に図10乃至図13を用いて、焦点検出時の画素のグループと信号加算方法について説明する。
図10は撮影光学系によって形成された被写体像の横ずれ方向の焦点検出を行なう場合の画素グループ化方法を説明する図である。横ずれ方向の焦点検出とは、図5で説明した、撮影光学系の射出瞳を横方向(水平方向又は左右方向)に分割するための焦点検出用画素を用いて、位相差式焦点検出を行なうことを指す。
図10に示す画素配列は図8で説明したものであるが、焦点検出の際には、横方向に1ブロック、縦方向に10ブロックの合計10ブロックを1つのグループとし、これをセクションと定義する。そして横方向に配列されたセクションSCTH(k)を複数連結して1つの焦点検出領域を構成する。本実施形態では一例として1つの焦点検出領域は、セクションSCTH(1)からセクションSCTH(10)までの10個のセクションを連結して構成している。即ち、100行×100列=1万画素の領域が1つの焦点検出領域となる。これは1フィールドと同一領域であり、図9で説明したように撮像領域で1350個の固定焦点検出領域となるように設定している。もちろん設定方法は様々で、被写体に応じて撮像領域の任意位置のセクションSCTH(k)を複数連結することで撮像領域の任意位置に可変焦点検出領域を設定することも可能である。
ここで1つのセクションには、横方向における一方の瞳分割を行なう画素SHAが5個、他方の瞳分割を行なう画素SHBも5個含まれている。そこで、本実施形態においては、5個のSHAの出力を加算して1画素の信号とし、位相差演算用の一方の画像信号(A像と称する)の1AF画素を得る。同様に、5個のSHBの出力を加算して1画素の信号とし、位相差演算用の他方の画像信号(B像と称する)の1AF画素を得る。
図11は一つのセクションにおける被写体像の捕捉能力を説明するための図である。図11は図10の左端のセクションSCTH(1)を切り出したものである。そして下端に示された水平線PRJHは、焦点検出用画素SHA及びSHBの瞳分割方向に延伸した第1の射影軸(Projection Line)、右端に示された垂直線PRJVは、瞳分割方向と直交する方向に延伸した第2の射影軸である。ここで1つのセクション内の画素SHAはすべて加算され、SHBも加算される。そこで1つのセクションを1つのAF画素と見なした場合、1つのAF画素に含まれる受光部を瞳分割方向の射影軸PRJHに射影すると、画素SHAとSHBが交互に緻密に並ぶことがわかる。このときの、瞳分割方向の射影軸PRJHにおける画素SHAの配列ピッチをP1とすると、P1=PHH=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJHにおける画素SHBの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。
一方、1つのAF画素に含まれる受光部を瞳分割方向と直交方向の射影軸PRJVに射影すると、画素SHAとSHBはまばらに並ぶことがわかる。このときの、射影軸PRJVにおける画素SHAの配列ピッチをP2とすると、P2=PHV=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJVにおける画素SHBの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。
即ち、本実施形態におけるAF画素は、グループ化前の分散特性については、瞳分割方向とこれに直交する方向の配置上のピッチが等しい。しかしながら、グループ化する際のグループ形状を長方形とすることで、瞳分割方向のサンプリング誤差を低減している。具体的には、1セクションの瞳分割方向の最大寸法L1は10画素、瞳分割と直交する方向の最大寸法L2は100画素としている。即ち、セクション寸法をL1<L2とすることで、瞳分割方向のサンプリング周波数F1を高周波(密)に、これと直交する方向のサンプリング周波数F2を低周波(疎)としている。
図12は撮影光学系によって形成された被写体像の縦ずれ方向の焦点検出を行なう場合の画素グループ化方法を説明する図である。
縦ずれ方向の焦点検出とは、図6で説明した、撮影光学系の射出瞳を縦方向(垂直方向又は上下方向)に分割するための焦点検出用画素を用いて、位相差式焦点検出を行なうことをいう。即ち、図10を90度回転したものに相当する。
図12に示す画素配列も図8で説明したものであるが、焦点検出の際には、横方向に10ブロック、縦方向に1ブロックの合計10ブロックを1つのグループとし、これをセクションと定義する。そして縦方向に配列されたセクションSCTV(k)を複数連結して1つの焦点検出領域を構成する。本実施形態では一例として1つの焦点検出領域は、セクションSCTV(1)からセクションSCTV(10)までの10個のセクションを連結して構成している。即ち、100行×100列=1万画素の領域が1つの焦点検出領域となる。これは1フィールドと同一領域であり、図9で説明したように撮像領域で1350個の固定焦点検出領域となるように設定している。もちろん設定方法は様々で、被写体に応じて撮像領域の任意位置のセクションSCTV(k)を複数連結することで撮像領域の任意位置に可変焦点検出領域を設定することも可能である。
ここで1つのセクションには、縦方向における一方の瞳分割を行なう画素SVCが5個、他方の瞳分割を行なう画素SVDも5個含まれている。そこで本実施形態においては、5個のSVCの出力を加算して1画素の信号とし、位相差演算用の一方の画像信号(C像と称する)の1AF画素を得る。同様に、5個のSVDの出力を加算して1画素の信号とし、位相差演算用の他方の画像信号(D像と称する)の1AF画素を得る。
図13は一つのセクションにおける被写体像の捕捉能力を説明するための図であり、図11を90度回転したものと等価である。図13は図12の上端のセクションSCTV(1)を切り出したものである。そして右端に示された垂直線PRJVは、焦点検出用画素SVC及びSVDの瞳分割方向に延伸した第3の射影軸、下端に示された水平線PRJHは、瞳分割方向と直交する方向に延伸した第4の射影軸である。図12においても、1つのセクション内の画素SVCはすべて加算され、SVDも加算される。そこで1セクションを1AF画素と見なした場合、1AF画素に含まれる受光部を瞳分割方向の射影軸PRJVに射影すると、画素SVC及びSVDが交互に緻密に並ぶことがわかる。このときの瞳分割方向の射影軸PRJVにおける画素SVCの配列ピッチをP1とすると、P1=PVV=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJVにおける画素SVDの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。
一方、1つのAF画素に含まれる受光部を瞳分割方向と直交方向の射影軸PRJHに射影すると、画素SVCとSVDはまばらに並ぶことがわかる。このときの射影軸PRJHにおける画素SVCの配列ピッチをP2とすると、P2=PVH=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJHにおける画素SVDの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。
以上のように、図13におけるAF画素のサンプリング特性は、瞳分割方向を基準に考えると、図11と同様の特性、即ち、F1>F2となっている。これは、図13のセクションにおいても、瞳分割方向のセクション寸法L1とこれと直交する方向の寸法L2がL1<L2を満足するからである。これにより、空間周波数の高い被写体に対しても瞳分割方向の輝度情報を正確に検出することができるとともに、被写体輝度が低くても複数画素の加算によって焦点検出信号のS/N比を向上させることができる。
図14は本実施形態における撮像素子の瞳分割機能を概念的に説明する図である。
図14において、OBJは被写体、IMGは被写体像である。撮像用画素は図4で説明したように、撮影光学系TLの射出瞳全域EPを通過した光束を受光する。一方、焦点検出用画素は図5及び図6で説明したように、瞳分割機能を有している。具体的には、図5の画素SHAは撮像面からレンズ後端を見て左側の瞳を通過した光束LHA、即ち、図14の瞳EPHAを通過した光束を受光する。同様に画素SHB、SVC及びSVDはそれぞれ瞳EPHB、EPVC及びEPVDを通過した光束LHB、LHC、LHDをそれぞれ受光する。そして焦点検出用画素は、図9で説明したように撮像素子6の全領域に亘って分布しているため、撮像領域全域で焦点検出が可能となっている。
図15は、ライブビュー時のAF動作を説明する図で、ライブビュー時に液晶モニタ14に画像が表示されている状態を示している。
図15において、撮像面に形成された被写体像には、中央に人物、左下に近景の柵、右上に遠景の山が写っており、それらが画面に表示されている。また画面中央にはAF枠が表示されている。本実施形態では一例として、AF枠は横方向に6フィールド、縦方向に6フィールドの大きさに設定されている。更にAF枠はマルチコントローラ33の入力信号に従って、撮像領域内の任意位置に移動可能となっている。本実施形態では一例として、AF枠の移動は1フィールド単位となっている。もちろん移動量は様々で、1セクション単位や1画素単位でも構わない。
初めに撮像面位相差AFについて説明する。
焦点検出用画素は横ずれ検出用の画素ペアSHA及びSHBと、縦ずれ検出用の画素ペアSVC及びSVDが、図9に示したように撮像領域全域に亘って均等な密度で配置されている。そして横ずれ検出の際には、位相差演算のためのAF画素信号を図10及び図11で示したようにグループ化処理する。また、縦ずれ検出の際には、位相差演算のためのAF画素信号を図12及び図13で示したようにグループ化処理する。よって撮像領域の任意位置において、横ずれ検出及び縦ずれ検出のための焦点検出領域を設定可能である。上記の通り、本実施形態では一例として、焦点検出領域はフィールドと同一領域に設定している。
図15においては画面中央に人物の顔が存在している。そこで公知の顔認識技術によって顔の存在が検出されると、顔領域と検知された部分にAF枠が表示され、AF枠内の焦点検出が行なわれる。まず横ずれ検知のために焦点検出領域を複数連結したAF枠領域AFARH(1)〜(6)と、縦ずれ検知のために焦点検出領域を複数連結したAF枠領域AFARV(1)〜(6)が設定される。
横ずれ検知のためのAF枠領域AFARH(1)は、AF枠内の上から1行目の焦点検出領域のフィールドFLD(13,21)からフィールドFLD(13,26)までの6フィールド分を連結している。AF枠領域AFARH(2)は、AF枠内の上から2行目の焦点検出領域のフィールドFLD(14,21)からフィールドFLD(14,26)までを連結している。AF枠領域AFARH(3)は、AF枠内の上から3行目の焦点検出領域のフィールドFLD(15,21)からフィールドFLD(15,26)までを連結している。AF枠領域AFARH(4)は、AF枠内の上から4行目の焦点検出領域のフィールドFLD(16,21)からフィールドFLD(16,26)までを連結している。AF枠領域AFARH(5)は、AF枠内の上から5行目の焦点検出領域のフィールドFLD(17,21)からフィールドFLD(17,26)までを連結している。AF枠領域AFARH(6)は、AF枠内の上から6行目の焦点検出領域のフィールドFLD(18,21)からフィールドFLD(18,26)までを連結している。
縦ずれ検知のためのAF枠領域AFARV(1)は、AF枠内の左から1列目の焦点検出領域のフィールドFLD(13,21)からフィールドFLD(18,21)までの6フィールド分を連結している。AF枠領域AFARV(2)は、AF枠内の左から2列目の焦点検出領域のフィールドFLD(13,22)からフィールドFLD(18,22)までを連結している。AF枠領域AFARV(3)は、AF枠内の左から3列目の焦点検出領域のフィールドFLD(13,23)からフィールドFLD(18,23)までを連結している。AF枠領域AFARV(4)は、AF枠内の左から4列目の焦点検出領域のフィールドFLD(13,24)からフィールドFLD(18,24)までを連結している。AF枠領域AFARV(5)は、AF枠内の左から5列目の焦点検出領域のフィールドFLD(13,25)からフィールドFLD(18,25)までを連結している。AF枠領域AFARV(6)は、AF枠内の左から6列目の焦点検出領域のフィールドFLD(13,26)からフィールドFLD(18,26)までを連結している。
図15は、横ずれ検知及び縦ずれ検知のためのAF枠領域をAFARH(3)とAFARV(5)として1領域ずつ示しており、他のそれぞれ5領域は図示を割愛している。AF枠領域AFARH(3)の各セクション内に含まれる5個の焦点検出用画素SHAを加算し、60セクション(=1焦点検出領域10セクション×AF枠の幅6フィールド)に亘って連結した位相差検出用のA像信号がAFSIGH(A3)である。同様に、各セクションの5個の焦点検出用画素SHBを加算し、これを60セクションに亘って連結した位相差検出用のB像信号がAFSIGh(B3)である。A像信号AFSIGH(A3)とB像信号AFSIGH(B3)の相対的な横ずれ量を公知の相関演算によって演算することで、被写体の焦点ずれ量を求める。同様にAF枠領域AFARH(1)〜(6)それぞれで被写体の焦点ずれ量を求める。
AF枠領域AFARV(5)についても同様である。即ち、各セクション内に含まれる5個の焦点検出用画素SVCを加算し、60セクション(=1焦点検出領域10セクション×AF枠の高さ6フィールド)に亘って連結した位相差検出用のC像信号がAFSIGV(C5)である。また、各セクションの5個の焦点検出用画素SVDを加算し、これを60セクションに亘って連結した位相差検出用のD像信号がAFSIGV(D5)である。そしてC像信号AFSIGV(C5)とD像信号AFSIGV(D5)の相対的な横ずれ量を公知の相関演算によって演算することで、被写体の焦点ずれ量を求める。同様に、AF枠領域AFARV(1)〜(6)それぞれで被写体の焦点ずれ量を求める。
そして横ずれ及び縦ずれのAF枠領域で検出した計12の焦点ずれ量を比較し、信頼性の高い値を採用することで、AF枠内の焦点ずれ量を求めることができる。ここで信頼性とは、2像の一致度を指し、2像の一致度が良い場合は一般的に焦点検出結果の信頼性が高い。そこで複数の焦点検出領域の焦点検出結果がある場合は、信頼性の高い情報を優先的に使用する。また信頼性ではなく、計12の焦点ずれ量の平均値としたり、それらの中の最至近値とする等の方法でAF枠内の焦点ずれ量を決めても構わない。
上記説明においては、AF枠領域の全セクション(60セクション)を連結した像信号からAF枠領域の焦点ずれ量を求めている。しかし、AF枠領域を構成する6焦点検出領域の焦点ずれ量をそれぞれ求めて、それらの中の信頼性の高い値や最至近値としたり、平均値としたりするなどの方法でAF枠領域内の焦点ずれ量を求めることもできる。またAF枠領域を設定せずにAF枠内の36焦点検出領域の焦点ずれ量をそれぞれ求めて、それらの中の信頼性の高い値や最至近値としたり、平均値としたりするなどの方法でAF枠内の焦点ずれ量を求めることもできる。
一方、画面左下の柵部分にAF枠を移動した時は、同様に横ずれ検知及び縦ずれ検知のためにAF枠領域を再設定して被写体の焦点ずれ量を求めることができる。しかし、縦線成分が主体、即ち、横方向に輝度分布を有しているため、横ずれ検知に適した被写体と判断することができる。このため、横ずれ検知のためのAF枠領域AFARH(n)だけを設定して、AF枠領域AFARH(3)と同様に、A像信号とB像信号から横ずれ量を演算して、被写体の焦点ずれ量を求めることもできる。
ここではAF枠領域を設定した前提で焦点ずれ量を求める説明を行った。しかし、AF枠領域を設定しなくても、それぞれの焦点検出領域においてA像信号とB像信号から横ずれ量を演算して、複数の焦点検出領域の焦点検出結果から信頼性の高い情報を基にして、被写体の焦点ずれ量を求めることも可能である。即ち、顔認識により主被写体と判断された画面中央の人物の顔部分の焦点ずれ量を求めると同時に、撮像領域内にある他の被写体(ここでは画面左下の柵)の焦点ずれ量も求めることが可能である。
また画面右上の山部分にAF枠を移動した時も、上記同様に横ずれ検知及び縦ずれ検知のためにAF枠領域を設定して被写体の焦点ずれ量を求めることができる。しかし、横線成分が主体、即ち、縦方向に輝度分布を有しているため、縦ずれ検知に適した被写体と判断することができる。このため、縦ずれ検知のためのAF枠領域AFARV(n)だけを設定して、AF枠領域AFARV(5)と同様に、C像信号とD像信号から横ずれ量を演算して、被写体の焦点ずれ量を求めることもできる。
ここではAF枠領域を設定した前提で焦点ずれ量を求める説明を行なった。しかし、AF枠領域を設定しなくても、それぞれの焦点検出領域においてC像信号とD像信号から横ずれ量を演算して、複数の焦点検出領域の焦点検出結果から信頼性の高い情報を基にして、被写体の焦点ずれ量を求めることも可能である。即ち、顔認識により主被写体と判断された画面中央の人物の顔部分の焦点ずれ量を求めると同時に、撮像領域内にある他の被写体(ここでは画面右上の山)の焦点ずれ量も求めることが可能である。
以上のように本実施形態においては、横ずれ及び縦ずれ検出のための焦点検出領域が撮像素子6の全領域に設定されているため、被写体の投影位置や輝度分布の方向性が様々であっても、撮像領域全域で撮像面位相差AFによる焦点検出が可能である。
続いて撮影情報を画像ファイルに記録する方法について説明する。
図16はExif圧縮形式の画像ファイルフォーマット構造を示した図である。60はJPEG圧縮方式の画像ファイルで、ファイルの先頭を表すSOIマーカ61から始まり、Exif付属情報を記録するアプリケーションマーカセグメント1(APP1)62、Exif拡張データを記録するアプリケーションマーカセグメント2(APP2)63、量子化テーブルマーカセグメント(DQT)64、ハフマンテーブルマーカセグメント(DHT)65、リスタートマーカセグメント(DRI)66、フレームヘッダマーカセグメント(SOF)67、スキャンヘッダマーカセグメント(SOS)68、画像圧縮データ(Compressed Data)69、ファイルの終端を表すEOIマーカ70の順番で構成されている。
APP1(62)の内部構造は、アプリケーション領域であることを表すAPP1マーカ71から始まり、その大きさを表すLength72、Exif識別コード73、付属情報本体から構成されている。付属情報はFile Header74を含むTIFFの構造をとり、圧縮処理されている画像(主画像)に関する付属情報を記録する0th IFD75、0th IFD(付属情報記録領域)にExif固有の付属情報を記録するExif IFD76、サムネイル画像を記録する1st IFD77で構成されている。
Exif IFD76に記録される付属情報のタグ構造は、Exif Versionタグ81から始まり、メーカーが個別の情報を記録可能なMaker Noteタグ82、ユーザーが個別の情報を記録可能なUser Commentタグ83、IFDへのポインタ(Interoperabiliy IFD Pointer)84、実際にデータを記録する領域(Value of Exif IFD)85で構成されている。
85aは撮像面位相差AFデータ記録の一例で、撮像面位相差AFによる各焦点検出領域毎の焦点ずれ量(測距データ)を取得可能に記録している。まずはMaker Noteタグ82内に焦点ずれ量データ85aがデータ記録領域85のどの領域に記録されているかの情報が記録されている。焦点ずれ量データ85aは図9および図15において撮像面の左上の焦点検出領域、即ちフィールドFLD(1,1)から記録を開始し、撮像面の右下の焦点検出領域、即ちフィールドFLD(30,45)までを記録し終了する。記録順はフィールドFLD(15,21)、フィールドフィールドFLD(15,22)、フィールドFLD(15,23)、フィールドFLD(15,24)、フィールドFLD(15,25)、フィールドFLD(15,26)と水平方向のフィールドから記録し、その水平方向の行が終了すると垂直方向の次の行のフィールドを記録している。
図17はRAWデータ形式の画像ファイルフォーマット構造を示した図である。
ここでRAWデータとは、撮像素子6から出力された画像信号をA/D変換器41でデジタル変換されただけの画像形式で、Y/C分離、ホワイトバランス補正、γ補正、圧縮加工等の各種画像処理を行う前の、所謂、生画像データである。従ってRAWデータは非常に多くの情報量を持つため、ユーザーが後から画像処理を行う場合の自由度が高い。そのためユーザー自身が撮影した画像を、高画質のまま好みの画像に自由に調整可能といった特徴がある。
90はRAWデータ形式の画像ファイルで、ヘッダー91から始まり撮影で使用したカメラ機種情報92、Exif形式のタグ形式に則って各種情報を記録可能な画像付加情報93、RAWデータを現像するためのホワイトバランス値、γ値等の現像用パラメータ94、サムネイルデータ95、RAWデータ96で構成されている。また画像付加情報93内には撮像素子6上のどの位置に焦点検出用画素が配置されているかの焦点検出用画素位置情報93aが記録されている。
96aはRAWデータ内の一例で、FLD(15,25)内の右下隅の焦点検出用画素を有する領域を示しており、各画素毎の出力データが記録されている。データは85a同様に撮像面の左上の画素データから記録を開始し、右下の画素データまでを記録して終了している。96aは詳しくはFLD(15,25)内の右下隅のブロックBLK(150,250)内の1行目と2行目を示している。1行目は画素(1491,2491)は撮像用R画素でRデータ、画素(1491,2492)は撮像用G画素でGデータ、画素(1491,2493)は撮像用R画素でRデータ、画素(1491,2494)は撮像用G画素でGデータ、画素(1491,2495)は撮像用R画素でRデータ、画素(1491,2496)は撮像用G画素でGデータ、画素(1491,2497)は撮像用R画素でRデータ、画素(1491,2498)は撮像用G画素でGデータ、画素(1491,2499)は焦点検出用SHA画素でSHAデータ、画素(1491,2500)は撮像用G画素でGデータが記録されている。2行目は画素(1492,2491)は撮像用G画素でGデータ、画素(1492,2492)は撮像用B画素でBデータ、画素(1492,2493)は撮像用G画素でGデータ、画素(1492,2494)は撮像用B画素でBデータ、画素(1492,2495)は撮像用G画素でGデータ、画素(1492,2496)は撮像用B画素でBデータ、画素(1492,2497)は撮像用G画素でGデータ、画素(1492,2498)は撮像用B画素でBデータ、画素(1492,2499)は撮像用G画素でGデータ、画素(1492,2500)は焦点検出用SHB画素でSHBデータが記録されている。このように全画素のデータ記録順は水平方向の画素から記録し、その水平方向の行が終了すると垂直方向の次の行の画素を記録している。
続いて本実施形態のデジタル一眼レフカメラの動作を、図18乃至図22の制御フローを用いて説明する。図18はデジタル一眼レフカメラの基本動作を示すメインフローである。
ステップS101では、ユーザーが電源ボタン34を操作してカメラの電源をONする。電源がONされるとMPU20はカメラ内の各アクチュエータや撮像素子6の動作確認を行う。そしてメモリ内容や実行プログラムの初期化状態を検出すると共に、撮影準備動作を実行する。
ステップS102では、各種ボタンを操作してカメラの各種設定を行う。例えば、モードボタン31を操作して撮影モードを選択したり、電子ダイヤル32を操作してシャッタースピードや絞り、撮影画像の記録画質の設定を行ったりする。
ステップS103では、マルチコントローラ33によりライブビューモードが設定されているか否かの判定を行い、ライブビューモードに設定されていればライブビューモードルーチンのステップS111へ進み、設定されていなければ通常モードルーチンのステップS104へ進む。
まず通常モード(ユーザーがファインダーを覗いて撮影する一眼レフカメラの通常使用モード)の動作ルーチンを説明する。
ステップS104では、レリーズボタン30が半押しされてSW1がONされたか否かの判定を行い、ONされていればステップS105へ進み、ONされていなければONされるまで待機する。
ステップS105では、AFセンサ8を用いた所定のAF動作を行なう。
ステップS106では、AEセンサ13を用いた所定のAE動作を行なう。
ステップS107では、ファインダー内に合焦した焦点検出点が何処かを不図示の表示装置で表示する。
ステップS108では、レリーズボタン30が全押しされてSW2がONされたか否かの判定を行い、ONされていればステップS109へ進み、ONされていなければONされるまで待機する。
ステップS109では、通常撮影ルーチンを実行する。
図19は通常撮影ルーチンのフローチャートである。
ステップS131では、モータ駆動回路26により不図示のミラー駆動用モータを制御し、主ミラー4とサブミラー7を撮影光路から退避(ミラーアップ)させる(図2)。
ステップS132では、AE結果により演算された撮影露出に従って、レンズ制御回路23により撮影レンズ3内の不図示の絞りを駆動する。
ステップS133では、シャッター駆動回路27によりシャッター5を開閉する。
ステップS134では、メモリコントローラ21により撮像素子6で受光された画像信号を読み込んでSDRAM43に一時記録する。この一時記録されたデータが撮像データである。
ステップS135では、メモリコントローラ21で読み出した画像信号の欠損画素補間を行なう。何故ならば、焦点検出用画素の出力は撮像のためのRGBカラー情報を有しておらず、画像を得る上では欠陥画素に相当するため、周囲の撮像用画素の情報から補間により画像信号を生成する。生成した画像信号と元の画像信号から欠陥画素補間画像を作成し、SDRAM43に一時記録しておく。
ステップS136では、メモリコントローラ21で欠陥画素補間画像からサムネイル画像を作成し、SDRAM43に一時記録する。
ステップS137では、撮影画像の記録画質がJPEGまたはRAWのどちらに選択されているかを判定し、JPEGが選択されている場合はステップS138へ進み、RAWが選択されている場合はステップS140へ進む。
ステップS138では、AF画素信号記録ルーチンを実行する。
図20はAF画素信号記録ルーチンのフローチャートである。
ステップS151では、SDRAM43に一時記録された画像信号から、メモリコントローラ21により各焦点検出領域に含まれる各焦点検出用画素を読み出す。
ステップS152では、メモリコントローラ21により図10又は図12で説明したセクション構造に基づき、各セクション内の焦点検出用画素を加算し、その加算結果により各セクションのAF画素信号を得る。
ステップS153では、MPU20によりAF画素信号から相関演算用の2像の信号を生成する。本実施形態においては、図10および図12に示した焦点検出領域毎の信号を生成する。焦点検出領域は前述の通り1フィールドと同一領域であり、図9で説明したように撮像領域全体で1350個の対の信号を生成する。
ステップS154では、MPU20により得られた2像の相関演算を行ない、2像の相対的な位置ずれ量を演算する。
ステップS155では、MPU20により焦点ずれ量を演算する。
ステップS156では、メモリコントローラ21により演算された焦点ずれ量をSDRAM43に一時記録する。焦点ずれ量は焦点検出領域1350個分のデータ数となる。そして図19の通常撮影ルーチン内のステップS139にリターンする。
ステップS139では、欠損画素補完画像を画像処理回路44でホワイトバランス補正、γ補正、エッジ強調等の画像処理を行ない、画像圧縮/伸張回路45でカメラの設定値に基づくJPEG形式に従って圧縮し、メモリコントローラ21により画像圧縮データ部69に記録する。またサムネイル画像を1st IFD77に、焦点ずれ量データ85aをデータ記録領域85に記録する。更にはカメラの各種設定(シャッタースピード、絞り、レンズ焦点距離等)をExifルールに則り記録することにより、画像および各種データをJPEGファイル化する。
ステップS140では、メモリコントローラ21によりSDRAM43に一時記録されている画像信号をRAWデータ96に96aのように記録する。また焦点検出用画素位置情報93a、カメラの各種設定(シャッタースピード、絞り、レンズ焦点距離等)等をExifルールに則り画像付加情報93に、サムネイル画像をサムネイルデータ95に記録することにより画像および各種データをRAWファイル化する。
ステップS141では、JPEGファイルまたはRAWファイルとなった画像ファイルをメディア48に記録する。
ステップS142では、モータ駆動回路26により不図示のミラー駆動用モータを制御し、撮影光路から退避している主ミラー4とサブミラー7を、撮影光束をファインダーへと反射し導く観察位置へ駆動(ミラーダウン)する(図1)。
ステップS143では、モータ駆動回路26により不図示のチャージ用モータを通電制御し、シャッター5をチャージする。そして図18のメインルーチン内のステップS110にリターンする。
ステップS110では、ユーザーが電源ボタン34を操作して、カメラの電源がOFFされたか否かを判断し、OFFされていなければステップS102へ戻って次の撮影に備え、OFFされていれば一連のカメラ動作を終了する。
続いてライブビューモード(ユーザーがライブビューを使用して撮影するモード)の動作ルーチンを説明する。
ステップS111では、ライブビュー表示ルーチンを実行する。
図21はライブビュー表示ルーチンのフローチャートである。
ステップS161では、モータ駆動回路26により不図示のミラー駆動用モータを制御し、主ミラー4とサブミラー7を撮影光路から退避(ミラーアップ)させる。
ステップS162では、シャッター駆動回路27によりシャッター5を開放状態にする(図2の状態となる)。
ステップS163では、メモリコントローラ21により撮像素子6で受光された動画像の読み込みを開始する。
ステップS164では、読み出した動画像を液晶モニタ14に表示する。ユーザーはこのライブビュー画像を目視して撮影時の構図決定を行なう。そして図18のメインルーチン内のステップS112にリターンする。
ステップS112では、撮像領域内に顔が存在するか認識処理を行う。
ステップS113では、ライブビュー画像に重ねてAF枠を灰色で表示する。ここでステップS112において、撮像領域内に顔が存在していると認識された場合には、認識された顔領域にAF枠の表示を行なう。撮像領域内に顔が存在していないと認識された場合には、画面中央にAF枠の表示を行なう。本実施形態では図15の通り、画面中央の人物の顔が顔認識によって検知され、顔領域にAF枠が表示さる。
ステップS114では、AF枠領域設定を行なう。AF枠領域設定は前述の通り、横ずれ検知のためにAF枠領域AFARH(1)〜(6)と、縦ずれ検知のためにAF枠領域AFARV(1)〜(6)が設定される。
ステップS115では、ユーザーによりマルチコントローラ33が操作されて、AF枠が移動されたか否かの判定を行い、移動されていればステップS114へ戻り、移動されていなければステップS116へ進む。ここでのAF枠移動は例えば、顔認識がされずAF枠が画面中央に表示されたのに対して、ユーザーが画面中央以外の被写体にピントを合わせたい場合などが考えられる。
ステップS116では、レリーズボタン30が半押しされてSW1がONされたか否かの判定を行い、ONされていればステップS117へ進み、ONされていなければ構図が変更された可能性を考慮してステップS112へ戻る。
ステップS117では、撮像面位相差AFルーチンを実行する。
図22は撮像面位相差AFルーチンのフローチャートである。
ステップS171では、メモリコントローラ21により撮像素子6からAF枠領域設定されている各焦点検出領域に含まれる各焦点検出用画素を読み出す。
ステップS172では、メモリコントローラ21により図10又は図12で説明したセクション構造に基づき、各セクション内の焦点検出用画素を加算し、その加算結果により各セクションのAF画素信号を得る。
ステップS173では、MPU20によりAF画素信号から相関演算用の2像の信号を生成する。本実施形態においては、図15に示したAFSIGh(A3)とAFSIGh(B3)、又はAFSIGv(C5)とAFSIGv(D5)等の60セクションを連結した対の信号を生成する。
ステップS174では、MPU20により得られた2像の相関演算を行ない、2像の相対的な位置ずれ量を演算する。
ステップS175では、MPU20により相関演算結果の信頼性を判定する。
ステップS176では、MPU20により信頼性の高い検出結果から焦点ずれ量を演算する。ここでAF枠内は1つの焦点ずれ量が決定記憶される。
ステップS177では、焦点ずれ量をレンズ制御回路23へ送出して、撮影レンズ3内の不図示のフォーカスレンズ群の合焦駆動を行なう。そして図18のメインルーチン内のステップS118にリターンする。
撮像面位相差AFルーチンにおいては、AF枠領域設定されていない焦点検出領域については、それらの焦点検出領域における焦点ずれ量を演算していない。これは相関演算がMPU20で行なう処理の中では比較的時間が掛かるためで、この時点で焦点ずれ量そのものが不必要なAF枠外の焦点検出領域については、データ処理を行なわないことで僅かでもMPU20の処理時間を短くするためである。もちろんMPU20の処理能力に余裕があれば、各焦点検出領域における各焦点ずれ量を演算して一時記録しておき、AF枠が移動された場合に素早く合焦駆動出来るようにしても構わない。
図18のステップS118では、AF枠の色を灰色から緑色に変更してAF枠内が合焦したことをユーザーに知らせる。
ステップS119では、レリーズボタン30が全押しされてSW2がONされたか否かの判定を行い、ONされていればステップS120へ進み、ONされていなければONされるまで待機する。
ステップS120では、ライブビュー撮影ルーチンを実行する。
図23はライブビュー撮影ルーチンのフローチャートである。
ステップS181では、メモリコントローラ21により撮像素子6から画像信号を読み込み、合焦している主被写体及びその周りの測光情報を得る、所謂、撮像面AE動作を行なう。
ステップS182では、撮像面AE結果により演算された撮影露出に従って、レンズ制御回路23により撮影レンズ3内の不図示の絞りを駆動する。
ステップS183では、メモリコントローラ21により撮像素子6に受光されている画像信号をリセットして撮像素子6の受光状態を初期状態、即ち何も撮像されていない状態に戻す。
ステップS184では、再びメモリコントローラ21により撮像素子6の受光を行い、画像信号を読み込んでSDRAM43に一時記録する。
ステップS185では、メモリコントローラ21で読み出した画像信号の欠損画素補間を行なう。何故ならば、焦点検出用画素の出力は撮像のためのRGBカラー情報を有しておらず、画像を得る上では欠陥画素に相当するため、周囲の撮像用画素の情報から補間により画像信号を生成する。生成した画像信号と元の画像信号から欠陥画素補間画像を作成し、SDRAM43に一時記録しておく。
ステップS186では、メモリコントローラ21で欠陥画素補間画像からサムネイル画像を作成し、SDRAM43に一時記録する。
ステップS187では、撮影画像の記録画質がJPEGまたはRAWのどちらに選択されているかを判定し、JPEGが選択されている場合はS188へ進み、RAWが選択されている場合はステップS190へ進む。
ステップS188では、AF画素信号記録ルーチンを実行する。これは図20のAF画素信号記録ルーチンのフローと同一制御のため、説明を割愛する。
ステップS189では、欠損画素補完画像を画像処理回路44でホワイトバランス補正、γ補正、エッジ強調等の画像処理を行ない、画像圧縮/伸張回路45でJPEG形式に従って圧縮し、メモリコントローラ21により画像圧縮データ部69に記録する。またサムネイル画像を1st IFD77に、焦点ずれ量データをデータ記録領域85に85aのように記録する。更にはカメラの各種設定(シャッタースピード、絞り、レンズ焦点距離等)等をExifルールに則り記録することにより、画像および各種データをJPEGファイル化する。
ステップS190では、メモリコントローラ21によりSDRAM43に一時記録されている画像信号をRAWデータ96に96aのように記録する。またカメラの各種設定(シャッタースピード、絞り、レンズ焦点距離等)等をExifルールに則り画像付加情報93に、サムネイル画像をサムネイルデータ95に記録することにより画像および各種データをRAWファイル化する。
ステップS191では、JPEGファイルまたはRAWファイルとなった画像ファイルをメディア48に記録する。
ステップS192では、シャッター駆動回路27によりシャッター5を閉じる。
ステップS193では、モータ駆動回路26により不図示のミラー駆動用モータを制御し、主ミラー4とサブミラー7をミラーダウンする(図1の状態となる)。
ステップS194では、モータ駆動回路26により不図示のチャージ用モータを通電制御し、シャッター5をチャージする。そして図18のメインルーチン内のステップS110にリターンする。
以上説明したように、本実施形態によれば、画像が撮影された瞬間の焦点検出データを画像ファイル内に記録することが実現できる。その際の画像ファイル形式は、一般的な画像ファイルのJPEG形式やユーザーが後から画像処理を行うことでより高画質な画像が得られるRAW形式のいずれでも可能である。
本実施形態においては、画像ファイル形式はJPEGとRAWの2つで説明したが、これに限定するものではなく、例えば非圧縮形式のTIFFやその他の形式でも構わない。またJPEGとRAWのいずれもExif形式に準じた説明を行なっているが、画像ファイル内に画像データ(撮像データ)と撮像面位相差AFデータが記録されていれば、いかなる形式でも構わない。またJPEGファイル内に記録する撮像面位相差AFデータは各焦点検出領域における焦点ずれ量としたが、焦点ずれ量を演算する範囲を焦点検出領域に限定するものでなく、セクション毎等としてもよい。また撮像面位相差AFデータも焦点ずれ量に限定するものではなく、撮影レンズ3の情報と焦点ずれ量から演算されるカメラから被写体までの距離等の測距データとしてもよい。またRAWファイルにおいてはRAWデータ内に焦点検出用画素データが記録されているため、画像付加情報93内には撮像面位相差AFデータを記録していないが、JPEGファイル同様に記録しても構わない。
更に撮像データを画像ファイルに変換する画像処理手段と、画像ファイル内に撮像面位相差AFデータを記録するデータ記録手段の2つの機能を、メモリコントローラ21の1つの手段で実現しているが、2つ以上の別の手段で実現しても構わない。
本発明は、デジタル一眼レフカメラだけでなく、デジタルコンパクトカメラ、デジタルビデオカメラ、各種検査デジタルカメラ、監視デジタルカメラ、内視鏡デジタルカメラ、ロボット用デジタルカメラ等、撮像素子による位相差AFが可能な撮像装置に適用可能である。また本実施形態に記載された構成要素の配置や数値等は例示的なものであり、本発明の範囲をそれらのみに限定する趣旨のものではない。
(第2の実施形態)
以下、本発明の第2の実施形態を図面を参照しながら説明する。基本構成は第1の実施形態である図1乃至図3と同一であるため説明を割愛し、異なる部分を説明する。
図24は、第2の実施形態のデジタル一眼レフカメラにおける画像再生時のフローチャートである。
ステップS201では、再生ボタン35がONされてカメラは撮影モードから画像再生モードに切り替る。
ステップS202では、メモリコントローラ21によりメディア48に記録された画像ファイルを液晶モニタ14に表示する。本実施形態においては、メディア48には第1の実施形態において、図15の画像がラブビューモードで撮影されてJPEGファイルで記録されているとする。
ステップS203では、画像を撮影した際にレンズが合焦動作を行なうために使用したAF枠を画像に重ねて表示する。例えば第1の実施形態の通常モードで撮影された場合は、AFセンサ8で測距した際に用いられたAF枠を表示する。またライブビューモードで撮影された場合は、設定されたAF枠を表示する。ここでは液晶モニタ14に図15のように表示がされており、このAF枠内の焦点ずれ量が“0”となるように合焦動作を行い撮影されている。またこのAF枠の位置情報はデータ記録領域85に記録されており、メモリコントローラ21により読み出される。
ステップS204では、マルチコントローラ33の押し操作が行なわれて、焦点ずれ情報表示モードを開始する。
ステップS205では、液晶モニタ14に表示しているAF枠を消去する。
ステップS206では、焦点検出領域枠を表示する。本実施形態においては第1の実施形態で焦点検出領域を1フィールドとして、そのフィールド毎の焦点ずれ量をJPEGファイル内に記録しているため、液晶モニタ14に表示する焦点検出領域枠の大きさも1フィールド分となっている。最初に表示される焦点検出領域枠の位置は、AF枠内で一番焦点ずれ量の小さい位置とする。
ステップS207では、表示した焦点検出領域枠の位置における焦点ずれ量をJPEGファイル60内のデータ記録領域85からメモリコントローラ21により読み出し、液晶モニタ14に表示する。この時の液晶モニタ14の状態が図25である。図25においては焦点ずれ量を液晶モニタ14の右下に表示している。
ステップS208では、マルチコントローラ33の8方向入力が操作されたか否かを判定し、操作されていなければステップS209へ進み、されていればステップS210へ進む。
ステップS209では、再生モードで使用しない操作ボタン(例えばレリーズボタン30や電源ボタン34等)が操作されて再生モードを終了する。
ステップS210では、マルチコントローラ33の操作に従って、焦点検出領域枠を移動する。
ステップS211では、移動した焦点検出領域枠の位置における焦点ずれ量をJPEGファイル60内のデータ記録領域85からメモリコントローラ21により読み出し、液晶モニタ14に表示している移動前の焦点ずれ量から置き換える。そして再びステップS208へ戻る。
以上説明したように、本実施形態によれば、画像ファイル内に記録された撮像面位相差AFデータを、ユーザーが簡単に確認することが実現できる。またユーザーが必要に応じて画像内の任意位置の撮像面位相差AFデータを確認することが実現できる。
本実施形態においては撮像面位相差AFデータの読み出し制御および表示は、撮影したカメラおよびカメラの液晶モニタで行なったが、画像を表示可能な装置(例えばパソコン、メディアスロットを有するプリンタ等)に組み込まれたJPEGファイル処理ソフトで制御および表示しても構わない。また撮像面位相差AFデータは各焦点検出領域における焦点ずれ量としたが、焦点ずれ量を演算する範囲を焦点検出領域に限定するものでなく、セクション毎等としてもよい。また撮像面位相差AFデータも焦点ずれ量に限定するものではなく、撮影レンズ3の情報と焦点ずれ量から演算されるカメラから被写体までの距離等の測距データとしてもよい。
更に本実施形態に記載された構成要素の配置や数値等は例示的なものであり、本発明の範囲をそれらのみに限定する趣旨のものではない。
(第3の実施形態)
以下、本発明の第3の実施形態を図26、図27を参照しながら説明する。
図26は不図示の画像処理装置(本実施形態においてはパソコンとする)のRAWファイル処理ソフトの基本動作を示すメインフローである。図27はパソコンのディスプレイ301にRAWファイル処理ソフト302を表示している状態を示している。
ステップS351では、パソコンにインストールされたRAWファイル処理ソフト302を起動する。図27のディスプレイ301にRAWファイル処理ソフト302が表示される。
ステップS352では、パソコンのHDD内やパソコンのメディアスロットに挿入されたメディア48内に記録されているRAWファイル90から、サムネイルデータ95を読み出し、図27のサムネイル画像304として一覧表示する。
ステップS353では、サムネイル画像304の中から各種処理を行いたい画像を選択する。例えばパソコンのマウスを操作して、ポインタ305を選択したいサムネイル画像304の上に移動し、ダブルクリックする。図27では、サムネイル画像304の左端(IMG_0001)が選択されている。
ステップS354では、選択されたRAWファイル90からRAWデータ96をパソコンのメモリに読み出し、欠陥画素である焦点検出用画素の補間処理を行う。ここでパソコンのメモリはSDRAM43と同一機能である。また同様にMPU20、メモリコントローラ21の機能はパソコンのCPUが行なう。この欠陥画素補間処理は画像付加情報93内に記録された焦点検出用画素位置情報93aを基にして実施される。
ステップS355では、選択されたRAWファイル90から現像用パラメータ94を読み出し、パラメータに従って、欠陥画素補間された画像を現像する。
ステップS356では、現像されたRAW画像を主画像303として表示する。
ステップS357では、選択されたRAWファイル90から画像付加情報93を読み出し、付加情報領域306に表示する。
ステップS358では、RAWファイル処理ソフト302のAFデータボタン307をオンする。例えば、AFデータボタン307の上にポインタ305を移動してダブルクリックする。
ステップS359では、主画像303の上にAF枠309を表示する。最初に表示されるAF枠309の位置およびサイズは、画像を撮影した際にレンズが合焦動作を行なうために使用したAF枠に従う。ここでは第1の実施形態の図15のライブビューモードで撮影されたとして、図15で設定されたAF枠の位置とサイズで表示している。またこのAF枠の情報は、画像付加情報93に記録されている。図27では、AF枠309の位置およびサイズが変更可能状態であることを示すため、AFデータボタン307の文字表示が反転表示されている。
ステップS360では、AF枠309内にある各焦点検出領域に含まれる各焦点検出用画素のデータを読み出す。
ステップS361では、図10又は図12で説明したセクション構造に基づき、各セクション内の焦点検出用画素を加算し、その加算結果により各セクションのAF画素信号を得る。
ステップS362では、AF画素信号から相関演算用の2像の信号を生成する。
ステップS363では、得られた2像の相関演算を行ない、2像の相対的な位置ずれ量を演算する。
ステップS364では、焦点ずれ量を演算する。
ステップS365では、焦点ずれ量308を表示する。図27では、AF枠309が撮影時のAF枠と同一のため焦点ずれ量が“0mm”と表示されている。
ステップS366では、AF枠309の位置およびサイズが変更されたか否かを判定する。変更されればステップS360へ進み、変更された位置およびサイズに従って焦点ずれ量を再演算し表示する(ステップS360〜ステップS365)。変更されなければステップS367へ進む。AF枠309の位置およびサイズの変更方法は例えば、AF枠309の枠線上にポインタ305を置いてドラックすると主画面303上の好きな場所に移動できる。またAF枠309の4角にポインタ305を置いてドラックすると、その角を構成する2本の枠線だけが移動してAF枠309の大きさが変更される。例えば、AF枠309aのようにAF枠の位置およびサイズが変更できる。
ステップS367では、AFデータボタン307をオフする。オフされるとAF枠309は主画像303上から消去される。
ステップS368では、主画像303に対して各種画像処理が行なわれたか否かを判定し、画像処理が行われればステップS369へ進み、行なわれなければステップS373へ進む。画像処理は画像処理メニューボタン310をオンすると不図示のメニュー画面が表示され、その中からユーザーの意図に合ったメニューを選択して実施する。
ステップS369では、各種画像処理が施された画像を保存するためのファイル保存ボタン311がオンされる。
ステップS370では、AF画素信号記録ルーチンを実行する。このルーチンは第1の実施形態の図20のAF画素信号記録ルーチンのフロー(ステップS151からステップS156まで)と基本的には同じであるため、詳細説明は割愛する。本実施形態では図20の説明において、MPU20、メモリコントローラ21で説明された機能をパソコンのCPUが、SDRAM43で説明された機能をパソコンのメモリが、それぞれ代わりに機能している。
ステップS371では、画像処理を施した画像をJPEG形式に従って圧縮し、画像圧縮データ部69に記録する。またサムネイルデータ95を1st IFD77に、焦点ずれ量データをデータ記録領域85に85aのように記録する。更にはカメラの各種設定(シャッタースピード、絞り、レンズ焦点距離等)をExifルールに則り記録することにより、画像および各種データをJPEGファイル化する。ここではファイル化はJPEG形式として説明したが、TIFF形式やその他の画像ファイル形式でも構わない。
ステップS372では、JPEGファイルとなった画像ファイルをメディア48またはパソコンのHDDに記録する。
ステップS373では、終了ボタン312が操作されたか否かを判定し、操作されればRAWファイル処理ソフト302を終了し、操作されなければステップS353へ進み、引き続き別の画像処理を行なう。
以上説明したように、本実施形態によれば、画像ファイル内に記録された撮像面位相差AFデータを、ユーザーが簡単に確認することが実現できる。またユーザーが必要に応じて画像内の任意位置の撮像面位相差AFデータを確認することが実現できる。
本実施形態においては撮像面位相差AFデータの演算処理や表示をパソコンおよびパソコンに組み込まれたRAWファイル処理ソフトで行なったが、デジタルカメラや画像を表示可能な装置であればどんな形態でも構わない。また撮像面位相差AFデータは各焦点検出領域における焦点ずれ量としたが、焦点ずれ量を演算する範囲を焦点検出領域に限定するものでなく、セクション毎等としてもよい。また撮像面位相差AFデータも焦点ずれ量に限定するものではなく、撮影レンズ3の情報と焦点ずれ量から演算されるカメラから被写体までの距離等の測距データとしてもよい。
更に本実施形態に記載された構成要素の配置や数値等は例示的なものであり、本発明の範囲をそれらのみに限定する趣旨のものではない。