以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付す。
図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルスチルカメラやデジタルビデオカメラである。撮像装置1は、動画及び静止画を撮影可能となっていると共に、動画撮影中に静止画を同時に撮影することも可能となっている。
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク(音入力手段)14と、音声信号処理部15と、圧縮処理部16と、内部メモリの一例としてのSDRAM(Synchronous Dynamic Random Access Memory)17と、メモリカード18と、伸張処理部19と、映像出力回路(ビデオ出力回路)20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。
バス24には、撮像部11、AFE12、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19、映像出力回路20、音声出力回路21及びCPU23が接続されている。バス24に接続された各部位は、バス24を介して、各種の信号(データ)のやり取りを行う。
バス25には、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19及びSDRAM17に接続されている。バス25に接続された各部位は、バス25を介して、各種の信号(データ)のやり取りを行う。
TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。具体的には、タイミング制御信号は、撮像部11、映像信号処理部13、音声信号処理部15、圧縮処理部16、伸張処理部19及びCPU23に与えられる。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。
CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。SDRAM17は、フレームメモリとして機能する。撮像装置1内の各部は、必要に応じて、信号処理時に一時的に各種のデータ(デジタル信号)をSDRAM17に記録する。
メモリカード18は、外部記録媒体であり、例えば、SD(Secure Digital)メモリカードである。メモリカード18は、撮像装置1に対して着脱自在となっている。メモリカード18の記録内容は、メモリカード18の端子を介して又は撮像装置1に設けられた通信用コネクタ部(不図示)を介して、外部のパーソナルコンピュータ等によって自在に読み出し可能である。尚、本実施形態では外部記録媒体としてメモリカード18を例示しているが、外部記録媒体を、1または複数のランダムアクセス可能な記録媒体(半導体メモリ、メモリカード、光ディスク、磁気ディスク等)で構成することができる。
図2は、図1の撮像部11の内部構成図である。撮像部11は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。ドライバ34は、ズームレンズ30及びフォーカスレンズ31の移動並びに絞り12の開口量の調節を実現するためのモータ等から構成される。
被写体(撮像対象)からの入射光は、光学系35を構成するズームレンズ30及びフォーカスレンズ31、並びに、絞り32を介して撮像素子33に入射する。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。
撮像素子33は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる。撮像素子33は、光学系35及び絞り32を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の画素(受光画素;不図示)を備え、各撮影において、各画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各画素からの電気信号は、TG22からの駆動パルスに従って、後段のAFE12に順次出力される。
撮像素子33は、カラー撮影の可能な、単板式の撮像素子となっている。撮像素子33を構成する各画素には、例えば、赤(R)、緑(G)及び青(B)の何れかのカラーフィルタ(不図示)が設けられている。尚、撮像素子33として、3板式の撮像素子を採用することも可能である。
AFE12は、撮像部11の出力信号(即ち、撮像素子33の出力信号)であるアナログの上記電気信号を増幅する増幅回路(不図示)と、増幅された電気信号をデジタル信号に変換するA/D(アナログ−デジタル)変換回路(不図示)と、を備える。AFE12によってデジタル信号に変換された撮像部11の出力信号は、順次、映像信号処理部13に送られる。また、CPU23は、撮像部11の出力信号の信号レベルに基づいて上記増幅回路の増幅度を調整する。
以下、撮像部11またはAFE12から出力される、被写体に応じた信号を、撮像信号と呼ぶ。
図3は、映像信号処理部13の内部ブロック図である。映像信号処理部13は、動画/静止画処理部41と、AF評価値検出部42と、AE評価値検出部43と、動き検出部44と、サムネイル生成部45と、顔領域検出部46と、を備える。
動画/静止画処理部41は、AFE12からの撮像信号に基づいて、撮像部11の撮影によって得られる映像(撮影画像)を表す映像信号を生成し、生成した映像信号を圧縮処理部16に送る。映像信号は、撮影画像の輝度を表す輝度信号Yと、撮影画像の色を表す色差信号U及びVと、から構成される。動画/静止画処理部41は、動画の映像信号の生成と静止画の映像信号の生成の双方を行う。
マイク14は、外部から与えられた音声(音)を、アナログの電気信号に変換して出力する。音声信号処理部15は、マイク14から出力される電気信号(音声アナログ信号)をデジタル信号に変換する。この変換によって得られたデジタル信号は、マイク14に対して入力された音声を表す音声信号として圧縮処理部16に送られる。
圧縮処理部16は、映像信号処理部13(動画/静止画処理部41)からの映像信号を、所定の圧縮方式を用いて圧縮する。動画に対しては、例えば、MPEG(Moving Picture Experts Group)等の圧縮方式を用いて映像信号の圧縮を行い、静止画に対しては、例えば、JPEG(Joint Photographic Experts Group)等の圧縮方式を用いて映像信号の圧縮を行う。動画または静止画撮影時において、圧縮された映像信号はメモリカード18に送られる。
尚、例えば、動画を構成する各撮影画像の画像サイズは、動画/静止画処理部41等において、必要に応じ、間引き処理等を介して縮小されている。静止画に対しては、例えば、そのような縮小処理は施されない(施してもよい)。
また、圧縮処理部16は、音声信号処理部15からの音声信号を、AAC(Advanced Audio Coding)等の所定の圧縮方式を用いて圧縮する。動画撮影時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて、時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらはメモリカード18に送られる。
録画ボタン26aは、ユーザが動画(動画像)の撮影の開始及び終了を指示するための押しボタンスイッチであり、シャッタボタン26bは、ユーザが静止画(静止画像)の撮影を指示するための押しボタンスイッチである。録画ボタン26aに対する操作に従って動画撮影の開始及び終了が実施され、シャッタボタン26bに対する操作に従って静止画撮影が実施される。1つのフレームにて1つのフレーム画像が得られる。各フレームの長さは、例えば1/60秒である。この場合、1/60秒の周期にて順次取得されるフレーム画像の集まり(ストリーム画像)が、動画を構成する。
撮像装置1の動作モードには、動画及び静止画の撮影が可能な撮影モードと、メモリカード18に格納された動画または静止画を表示部27に再生表示する再生モードと、が含まれる。再生モードには、メモリカード18に格納された動画または静止画に関連付けられたサムネイル画像を表示部27に再生表示するサムネイル画像表示モードが、含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。
撮影モードにおいて、ユーザが録画ボタン26aを押下すると、CPU23の制御の下、その押下後の各フレームの映像信号及びそれに対応する音声信号が、順次、圧縮処理部16を介してメモリカード18に記録される。つまり、音声信号と共に、各フレームの撮影画像(即ちフレーム画像)が順次メモリカード18に格納される。動画撮影の開始後、再度ユーザが録画ボタン26aを押下すると、動画撮影は終了する。つまり、映像信号及び音声信号のメモリカード18への記録は終了し、1つの動画の撮影は完了する。
また、撮影モードにおいて、ユーザがシャッタボタン26bを押下すると、静止画の撮影が行われる。具体的には、CPU23の制御の下、その押下直後の1つのフレームの映像信号が、静止画を表す映像信号として、圧縮処理部16を介してメモリカード18に記録される。動画の撮影中に静止画を同時撮影することも可能であり、この場合、同一のフレームの撮像信号に基づいて、動画に関する信号処理と静止画に関する信号処理が並行して行われる。尚、共通の回路を時分割で利用して、動画に関する信号処理と静止画に関する信号処理を別個のタイミングで行うようにしてもよい。例えば、静止画に関する信号処理を動画撮影終了後に行う。この場合、例えば、事後的に行うその信号処理に必要な撮像信号(撮影画像)をSDRAM17に一時記憶させておけばよい。
再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、メモリカード18に記録された動画または静止画を表す圧縮された映像信号は、伸張処理部19に送られる。伸張処理部19は、受け取った映像信号を伸張して映像出力回路20に送る。また、撮影モードにおいては、通常、動画または静止画を撮影しているか否かに拘らず、映像信号処理13による映像信号の生成が逐次行われており、その映像信号は映像出力回路20に送られる。
映像出力回路20は、与えられたデジタルの映像信号を表示部27で表示可能な形式の映像信号(例えば、アナログの映像信号)に変換して出力する。表示部27は、液晶ディスプレイなどの表示装置であり、映像出力回路20から出力された映像信号に応じた画像を表示する。即ち、表示部27は、撮像部11から現在出力されている撮像信号に基づく画像(現在の被写体を表す画像)、または、メモリカード18に記録されている動画(動画像)若しくは静止画(静止画像)を、表示する。
また、再生モードにおいて動画を再生する際、メモリカード18に記録された動画に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音声(音)として外部に出力する。
尚、外部のテレビジョン等に表示部27及びスピーカ28が備えられていると考えることもできる。この場合、映像出力回路20の出力する映像信号及び音声出力回路21の出力する音声信号は、図示されないコネクタを介して外部のテレビジョン等に供給される。
次に、図2及び図3を参照して、撮像部11及び映像信号処理部13の機能について更に説明する。撮像装置1は、「自動的にフォーカスレンズ31の位置を制御することにより、被写体を表す光学像を撮像素子33の撮像面(受光面)に結像させる」所謂オートフォーカス制御機能を備えている。この機能により、理想的には、被写体を表す光学像が結像する点が撮像素子33の撮像面上の点と一致する。
オートフォーカス制御機能は、様々な手法によって実現可能である。例えば、映像信号中の輝度信号から所定の高域周波数成分を抽出し、その高域周波数成分のレベル(大きさ)に応じてフォーカスレンズ31の位置を制御することにより、被写体を表す光学像を撮像素子33の撮像面に結像させる。測距センサ(不図示)等を用いてオートフォーカス制御機能を実現するようにしてもよい。
オートフォーカス制御は、主として、図3のAF評価値検出部42と、図1のCPU23と、図2のドライバ34と、によって実現される。ドライバ34は、上記高域周波数成分のレベル(大きさ)を最大値(付近)に保つためにCPU23から送られてくるフォーカス制御信号に基づいて、フォーカスレンズ31を撮像面に鉛直な軸である光軸に沿って移動させることにより、被写体(撮像対象)の光学像を撮像素子33の撮像面(受光面)に結像させる。
図4は、AF評価値検出部42の内部ブロック図である。AF評価値検出部42は、抽出部51、HPF(ハイパスフィルタ)52及び積算部53を、有して構成される。
抽出部51は、動画/静止画処理部41にて生成された映像信号或いはAFE12からの撮像信号より輝度信号を抽出する。この際、画像内の、予め設定されたフォーカス検出領域内の輝度信号のみを抽出する。フォーカス検出領域は、例えば、画像の一部の領域であり、該一部の領域は画像内の中央付近に設けられる。HPF52は、抽出部51によって抽出された輝度信号中の所定の高域周波数成分のみを抽出する。
積算部53は、HPF52によって抽出された高域周波数成分を積算することにより、フォーカス検出領域内の画像のコントラスト量に応じたAF評価値を求める。AF評価値は、フレーム毎に算出され、CPU23に逐次伝達される。AF評価値は、該コントラスト量に概ね比例し、該コントラスト量が増大するにつれて増大する。
CPU23は、逐次与えられるAF評価値を一時記憶し、AF評価値が最大値(付近)に保たれるように、所謂山登り演算を用いて、ドライバ34を介してフォーカスレンズ31の位置を制御する。フォーカスレンズ31が移動するに従い、画像のコントラストは変化し、AF評価値も変化する。CPU23は、AF評価値が大きくなる方向にドライバ34を介してフォーカスレンズ31の位置を制御する。この結果、同一の光学像に対する、フォーカス検出領域内の画像のコントラスト量は最大値(付近)に保たれる。
また、撮像装置1は、撮影画像の明るさを(略)一定に保つための所謂オートアイリス制御機能を備えている。オートアイリス制御は、主として、図3のAE評価値検出部43と、図1のCPU23と、図2のドライバ34と、によって実現される。
AE評価値検出部43は、動画/静止画処理部41にて生成された映像信号或いはAFE12からの撮像信号より輝度信号を抽出する。ここで抽出される輝度信号は、例えば、画像の全体における輝度信号である。AE評価値検出部43は、抽出した輝度信号を1枚の画像全体で積算することにより、画像の明るさに比例したAE評価値を求める。AE評価値は、フレーム毎に算出され、CPU23に逐次伝達される。
CPU23は、逐次与えられるAE評価値が、一定値に保たれるように、ドライバ34を介して絞り32の開口量(開口部の大きさ)を制御する。光学系35に入射する光学像が同じである場合、絞り32の開口量が大きくなるに従って、撮像素子33への単位時間当たりの入射光量は増大し、輝度信号の値は増大する。尚、絞り32の開口量を最大にしてもAE評価値が上記一定値未満にしかならない場合は、AFE12の増幅回路の増幅度を調整してAE評価値を一定値に保つ。
また、操作キー26cに対する所定の操作に従って、CPU23は、ドライバ34を介してズームレンズ30を光軸に沿って移動させることにより、撮像部11による撮影の画角を変更する(換言すれば、撮像素子33の撮像面上に形成される被写体の像を拡大または縮小する)。
また、図1の映像信号処理部13は、動き検出部44をも含む(図3参照)。動き検出部44は、撮像信号に基づいて、各画像間に存在する被写体の動きを検出する。この検出には、例えば周知の代表点マッチング法を用いる。検出された動き(動きベクトルなど)に基づいて、所謂手ぶれ補正などが実施される。
図3のサムネイル生成部45は、静止画を撮影する際、CPU23の制御の下、静止画の撮影タイミングにおける撮像信号に基づいて静止画についてのサムネイル画像を生成する。このサムネイル画像は、撮影及び記録された1枚の静止画(静止画像)を、間引き処理等によって縮小した縮小画像である。静止画についてのサムネイル画像は、撮影した静止画に関連付けられつつ圧縮処理部16による圧縮(JPEGなど)を介してメモリカード18に記録される。撮影した静止画と関連付けられた上記サムネイル画像を、静止画用サムネイル画像と呼ぶ。
また、サムネイル生成部45は、動画を撮影する際、CPU23の制御の下、所定タイミングにおける撮像信号に基づいて動画についてのサムネイル画像を生成する。このサムネイル画像は、例えば、動画撮影中の何れかのフレームの画像(1フレーム分の画像)を、間引き処理等によって縮小した縮小画像である。動画についてのサムネイル画像は、(原則として)撮影した動画に関連付けられつつ圧縮処理部16による圧縮(JPEGなど)を介してメモリカード18に記録される。撮影した動画に関連付けて記録するために生成された上記サムネイル画像を、動画用サムネイル画像と呼ぶ。尚、動画の画像サイズが比較的小さい場合などにおいては、撮影された動画を構成する1枚の画像そのものを、動画用サムネイル画像としても構わない。
また、動画用サムネイル画像が実際に生成されるタイミングは任意である。動画撮影中にAFE12からの撮像信号を受けて動画用サムネイル画像を生成するようにしても良いし、動画撮影時に動画用サムネイル画像の基となる画像を選んでおき、後から(例えば、表示部27に表示する際に)その画像を用いて動画用サムネイル画像を生成するようにしてもよい。いずれにしても、同一の動画用サムネイル画像の生成の基となる撮像信号は同じである。本実施形態は、動画撮影時に、動画用サムネイル画像を生成してメモリカード18に格納しておく場合を例とする。同様に、静止画用サムネイル画像が実際に生成されるタイミングも任意である。
サムネイル画像表示モードにおいて、メモリカード18に格納された動画用及び静止画用サムネイル画像は、伸張処理部19による伸張処理及び映像出力回路20による変換処理を介して、表示部27に表示される。
図5に、サムネイル画像表示モードにおける表示部27の表示画面の表示例を示す。図5では、表示部27の表示エリアは4分割され、表示エリアの左上、右上、左下及び右下に、それぞれ、サムネイル画像TN1、TN2、TN3及びTN4が表示されている。メモリカード18に、他のサムネイル画像が格納されている場合は、操作キー26cに所定の操作を施すことにより、上記他のサムネイル画像が表示される。サムネイル画像TN2及びTN3に付されたマーク71は、そのサムネイル画像が動画用のサムネイル画像であることを示している。従って、サムネイル画像TN2及びTN3は動画用サムネイル画像であり、サムネイル画像TN1及びTN4は静止画用サムネイル画像である。
図5において、72は表示画面上のカーソルである。カーソル72は、操作キー26cに対する操作により表示画面上を移動する。図5は、サムネイル画像TN3がカーソル72によって選択されている状態を示している。各サムネイル画像の右下に表示されている「001」等の番号は、各サムネイル画像のファイル番号を示している。
カーソル72によって或るサムネイル画像を選択している状態において、所定のキー操作を行うと、そのサムネイル画像に関連付けられた動画または静止画がメモリカード18から読み出される。そして、読み出された動画または静止画が表示部27の表示画面全体を使って表示される。例えば、サムネイル画像TN3に対応する動画が再生されるようにキー操作を施した場合、表示部27の表示画面は図5に示す状態から図6に示す状態に遷移し、サムネイル画像TN3に対応する動画が表示部27の表示画面全体を使って再生表示される。この状態で、再生を停止するためのキー操作を施すと、表示画面は図5に示す状態に戻る。
[動画用サムネイル画像の生成手法]
次に、動画用サムネイル画像の生成手法について説明する。図7は、動画用サムネイル画像の生成手順を表すフローチャートである。以下、特に記述しない限り、或る1つの動画に着目して説明を行う。
撮像装置1に設けられた電源スイッチ(不図示)に対する操作によって撮像装置1内の各部に対する電源が起動すると、TG22は、垂直同期信号を所定の周期(例えば1/60秒)にて逐次生成する。まず、ステップS1では、TG22から垂直同期信号が出力されたかが確認される。垂直同期信号は、各フレームの開始時点でTG22から出力される。
垂直同期信号の出力が確認されていない場合は(ステップS1のNo)ステップS1の処理が繰り返され、垂直同期信号の出力が確認された場合は(ステップS1のYes)、ステップS2にて撮像装置1が録画中(動画撮影中)であるかが判断される。録画中である場合は(ステップS2のYes)ステップS7に移行する一方、録画中でない場合は(ステップS2のNo)ステップS3に移行する。ステップS3では、録画モードにて録画ボタン26aが押下されたかが確認される。録画モードにて録画ボタン26aが押下されたことが確認された場合は(ステップS3のYes)、ステップS4に移行するが、そうでない場合は(ステップS3のNo)、ステップS1に戻る。このように、録画が開始されるまではステップS1、S2及びS3から成るループ処理が繰り返し実行される。
ステップS4において、CPU23は、0又は1の値をとる2つのフラグF0及びF1を定義し、双方のフラグF0及びF1に0を代入する(即ち、リセットする)。フラグF0は、録画が開始される度にリセットされる。フラグF1の役割については、後述の説明から明らかとなる。
ステップS4を終えて移行するステップS5において、サムネイル生成部45は、現在AFE12から出力される1枚の画像分の撮像信号に基づいて、動画用サムネイル画像を生成する。ステップS5に続くステップS6では、CPU23がヘッダファイルを作成する。該ヘッダファイルには、ステップS5にて生成された動画用サムネイル画像の他、撮影日時、ファイル番号等の諸情報が格納される。作成されたヘッダファイルは、SDRAM17に記録される。本実施形態では、1つのヘッダファイルに、1つの動画用サムネイル画像が格納される場合を例に挙げる。
ステップS6を終えるとステップS1に戻り、再度、垂直同期信号の発生を待機する。ステップS4〜S6を介した後にステップS2に至った場合、撮像装置1は録画中であるためステップS7に移行する(ステップS2のYes)。
ステップS7において、CPU23は、撮影した動画を表す画像の集まり(即ちストリーム画像)を格納するためのストリーム画像ファイルを作成し、該ストリーム画像ファイルをメモリカード18に記録する。ストリーム画像ファイルには、動画撮影中の各フレームの撮影画像を表す映像信号(圧縮映像信号)及びそれに対応する音声信号(圧縮音声信号)が順次追記される。録画が終了すると最終的に、ストリーム画像ファイルには、録画開始から録画終了までの各フレームの撮影画像を表す映像信号及びそれに対応する音声信号が格納されることになる。
ステップS7の処理を終えて移行するステップS8では、再度ユーザが録画ボタン26aを押下したか、即ち、録画停止が指示されたかを確認する。録画停止が指示されていない場合(ステップS8のNo)は、ステップS10に移行する。録画停止が指示されるまでは、ステップS10〜S15のステップ群と、ステップS1、S2、S7及びS8と、から成るループ処理が繰り返し実行される。このループ処理は、フレームごとに1回行われることになる。
ステップS8において、録画停止の指示が確認された場合は(ステップS8のYes)、ステップS9に移行し、ステップS6で作成したヘッダファイルをステップS7で作成したストリーム画像ファイルに追記する。これにより、両ファイルが関連付けられ、ステップS5で生成した動画用サムネイル画像とストリーム画像ファイル内の動画とが関連付けられる、或いは(後述の説明から明らかとなるように)、後述のステップS13にて生成された動画用サムネイル画像とストリーム画像ファイル内の動画とが関連付けられる。ステップS9の処理を終えると、ステップS1に戻り、撮像装置1の状態は、他の動画の撮影開始を受け付ける状態に遷移する。
本発明の特徴部である、ステップS10〜S15の処理について説明する。
ステップS10では、フラグF0がセットされているか、即ち、フラグF0が1であるかが判断される。フラグF0が1である場合は(ステップS10のYes)、ステップS1に戻り、フラグF0が0である場合は(ステップS10のNo)、ステップS11に移行する。1つの動画の撮影において、ステップS13及びS14の処理を一度実行するとステップS10の判断は常に肯定(Yes)となる。
ステップS11では、CPU23が、所定のトリガ条件が成立するか否かを判断する。このトリガ条件については、後に詳説する。フラグF0が0である場合、ステップS11の処理は、動画撮影中の各フレームにおいて行われる。トリガ条件が成立しない場合は(ステップS11のNo)ステップS15に移行してフラグF1にゼロを代入してからステップS1に戻る。一方、トリガ条件が成立する場合には(ステップS11のYes)、ステップS12に移行し、フラグF1が1であるか否かが判断される。フラグF1が1である場合は(ステップS12のYes)ステップS1に戻る一方、フラグF1が0である場合は(ステップS12のNo)ステップS13に移行する。
ステップS13では、現在、AFE12から出力される1枚の画像分の撮像信号に基づいて、動画用サムネイル画像が生成される。これにより、ステップS11のトリガ条件が成立したタイミングを含むフレーム或いはその次のフレームの撮像信号(撮影画像)に基づいて、動画用サムネイル画像が生成されることになる。尚、トリガ条件成立時の数フレーム前や数フレーム後のフレームの撮像信号(撮影画像)に基づいて、ステップS13で生成されるべき動画用サムネイル画像を生成するようにしても構わない。
ステップS13に続くステップS14では、ステップS6で作成したヘッダファイルに既に格納されている動画用サムネイル画像を、ステップS13にて生成した動画用サムネイル画像に置き換える。更に、フラグF0及びF1の双方に1を代入してから、ステップS1に戻る。
尚、ステップS10の処理を省略することも可能である。この場合、ステップS8において、録画停止が指示されていないと判断された場合(ステップS8のNo)は、ステップS11に直接移行することになる。ステップS10の処理を省略した場合、ステップS13及びS14の処理が行われた後であっても、トリガ条件が不成立となったことに起因してステップS15の処理を経ることにより、再度ステップS13及びS14の処理の実行が許容される。この場合、2回目以降のステップS14の処理において、ヘッダファイルに既に格納されている動画用サムネイル画像は、ステップS13にて生成した「最新の」動画用サムネイル画像に置き換えられることになる。
上記の処理手順から理解されるように、ステップS5及びS13にて生成された各動画用サムネイル画像は、撮影した動画に関連付けられるべき動画用サムネイル画像の候補となる。1つの動画の撮影期間中において、仮にトリガ条件が1回も成立しなかった場合は、ステップS5にて生成された動画用サムネイル画像が、最終的に、動画に関連付けられた動画用サムネイル画像となる。
ステップS11にてトリガ条件が成立した場合は、ステップS13にて生成された動画用サムネイル画像が、最終的に、撮影した動画に関連付けられる。ステップS10の処理を省略した場合は、ステップS13にて生成された最新の動画用サムネイル画像が、最終的に、撮影した動画に関連付けられる。
ステップS13にて生成される動画用サムネイル画像が撮影した動画の特徴を良く表すように、上記トリガ条件は定められる。以下、ステップS11のトリガ条件の成立/不成立の判断手法として、第1、第2、第3、第4及び第5判断手法を例示する。図8は、第1〜第5判断手法におけるトリガ条件の典型例を示している。
[第1判断手法]
まず、第1判断手法について説明する。第1判断手法を採用した場合におけるステップS11のトリガ条件を、第1トリガ条件と呼ぶ。第1トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。
第1判断手法を採用する場合、ステップS11では、例えば、「直近のズームインが行われた後、所定の時間T1以上継続して、ズームインまたはズームアウトによる画角の変更が行われていない(即ち、画角が固定されている)」という第1トリガ条件の成立/不成立が判断される。この判断は、現時点(現フレーム)を基準にして行われる。尚、時間T1は、例えば数秒(1〜2秒など)である。
例えば図9に示す如く、動画の撮影開始後、1回目のズームインの直後に時間T1の経過を待つことなくズームアウトが行われ、その後に2回目のズームインが行われた場合は、2回目のズームイン(「直近のズームイン」に相当)終了時点を起算点として上記時間T1の経過が判断される。
ズームインとは、撮像素子33の撮像面上に形成される被写体の像を拡大させる動作であり、この動作に伴って撮像部11による撮影の画角は減少する。ズームアウトとは、撮像素子33の撮像面上に形成される被写体の像を縮小させる動作であり、この動作に伴って撮像部11による撮影の画角は増加する。ズームイン及びズームアウトは、操作キー26cに対する所定の操作に応じて実行される。
ユーザは、しばしば、着目している人物等の被写体をズームインによって拡大撮影する。ユーザが、このズームインによって適切な画角が設定されたと判断すると、ユーザは画角の変更を停止する。この状態で撮影された画像は、ユーザが着目している被写体を大きく捉えた特徴的な画像であることが多い。このため、第1判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。
尚、第1トリガ条件を、「直近のズームアウトが行われた後、所定の時間T1以上継続して、ズームインまたはズームアウトによる画角の変更が行われていない(即ち、画角が固定されている)」という条件に変更することも可能である。
[第2判断手法]
次に、第2判断手法について説明する。第2判断手法を採用した場合におけるステップS11のトリガ条件を、第2トリガ条件と呼ぶ。第2トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。
第2判断手法を採用する場合、ステップS11では、ピントが合って、フォーカスが(略)ロックされている状態が一定時間以上継続しているかが判断される。より詳細には、ステップS11では、例えば、「フォーカスレンズ31の位置の変動の大きさが、所定の時間T2以上継続して、所定の閾値内に収まっている」という第2トリガ条件の成立/不成立が判断される。この判断は、現時点(現フレーム)を基準にして行われる。尚、時間T2は、例えば数秒(1〜2秒など)である。
上述したように、逐次算出されるAF評価値に基づいて、被写体を表す光学像が撮像素子33の撮像面(受光面)に結像するように、CPU23は、ドライバ34を介してフォーカスレンズ31の位置を調整する。このため、CPU23は、フォーカスレンズ31の位置を当然に認識している。フォーカスレンズ31の位置とは、例えば、撮像素子33の撮像面を基準としたフォーカスレンズ31の位置である。
図10を参照して、上記の第2トリガ条件の成立/不成立の判断手法例について詳細に説明する。図10の曲線75及び76は、それぞれ、動画撮影中における、AF評価値とフォーカスレンズ31の位置(例えば、フォーカスレンズ31と撮像面との距離)の時間変化を表している。図10は、タイミングt1で、AF評価値が概ね山登り曲線の最大値をとり、その状態がタイミングt2まで維持されている状態を示しいている。タイミングt1とt2の間の時間は、時間T2に一致する。
タイミングt2において、CPU23は、タイミングt1からt2までの期間中におけるフォーカスレンズ31の位置の変動の大きさ(変動範囲の大きさ)と、予め定められた基準値BREFとを比較する。そして、前者が後者(BREF)以下となっている場合に第2トリガ条件は成立していると判断し、そうでない場合に第2トリガ条件は不成立と判断する。上記の判断が可能なように、CPU23は、時間T2分の過去のフォーカスレンズ31の位置を特定する情報を、SDRAM17に逐次記録させている。
尚、ピントが合っている状態にてフォーカスレンズ31の位置が完全に止まる場合は、基準値BREFをゼロとすることもできる。この場合、第2トリガ条件は、「フォーカスレンズ31の位置が、所定の時間T2以上継続して、固定されている」と表記される。AF評価値の変動が或る範囲(その範囲の大きさは、例えば後述の閾値AREF)内に収まっている場合は、フォーカスレンズ31の位置を固定する、という位置制御手法を採用可能であり、その場合、閾値BREFはゼロとされる。
また、図10にも示すように、通常、AF評価値とフォーカスレンズ31の位置は、連動している。このため、AF評価値に基づいてステップS11の分岐判断を行っても良い。つまり、例えば、タイミングt2において、CPU23は、タイミングt1からt2までのAF評価値の変動の大きさ(変動範囲の大きさ)と、予め定められた基準値AREFとを比較する。そして、前者が後者(AREF)以下となっている場合にステップS11からステップS12に移行するようにし、そうでない場合にステップS11からステップS15に移行するようにする。この場合、上記の判断が可能なように、CPU23は、時間T2分の過去のAF評価値を、SDRAM17に逐次記録させる。
このように、「AF評価値の変動の大きさが、所定の時間T2以上継続して、所定の基準値AREF内に収まる」という条件の成立/不成立を、ステップS11にて判断するようにしてもよい。AF評価値とフォーカスレンズ31の位置が連動していることを考慮すれば、この条件は上記の第2トリガ条件と等価である、と言える。
動画撮影開始後、ユーザは、撮影の構図を考えながら撮像装置1を頻繁に動かすことが多い。撮影の構図が確定すると、ユーザは撮像装置1を被写体に対して(略)固定する。この状態では、フォーカスは通常ロックする一方で、撮像装置1はユーザが着目している被写体を捉える。このため、第2判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。
[第3判断手法]
次に、第3判断手法について説明する。第3判断手法を採用した場合におけるステップS11のトリガ条件を、第3トリガ条件と呼ぶ。第3トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。
第3判断手法を採用する場合、ステップS11では、撮影画像内の動きが(略)停止している状態が一定時間以上継続しているかが判断される。より詳細には、ステップS11では、例えば、「動き検出領域内の動きの大きさが、所定の時間T3以上継続して、所定の閾値内に収まる」という第3トリガ条件の成立/不成立が判断される。この判断は、現時点(現フレーム)を基準にして行われる。動き検出領域は、動画を構成する各フレームの撮像画像内に設けられる。動き検出領域は、撮像画像の全体または一部の領域である(撮像素子33の撮像領域の全体または一部の領域と捉えることもできる)。尚、時間T3は、例えば数秒(1〜2秒など)である。
図11を参照して、第3トリガ条件の成立/不成立の判断手法例について、詳細に説明する。図11は、図3の動き検出部44にて定義される、撮影画像内の検出ブロックを表している。動き検出部44は、各フレームの撮影画像内に9つの検出ブロックBL1〜BL9を設ける。9つの検出ブロックBL1〜BL9は、上記の「動き検出領域」を形成する。
そして、動き検出部44は、逐次取得される撮影画像間の対比に基づき、周知の代表点マッチング法を用いて、検出ブロックBL1〜BL9ごとに動きベクトルを検出する。この動きベクトルの検出は、フレームごとに行われる。検出ブロックBL1の動きベクトルは、検出ブロックBL1内の画像の動きを示すベクトルである。検出ブロックBL2〜BL9の動きベクトルについても同様である。また、検出ブロックBL1〜BL9にて検出された動きベクトルを、夫々、動きベクトルVC1〜VC9と表記する。
CPU23は、フレームごとに検出された、動きベクトルVC1〜VC9の大きさに基づく動き評価値に基づいて、第3トリガ条件の成立/不成立を判断する。動き評価値は、フレームごとに算出される。動き評価値は、例えば、動きベクトルVC1〜VC9の大きさの平均値または積算値である。尚、動きベクトルVC1〜VC9の大きさそのものを、動き評価値としてもよい。この場合、1つのフレームに関し、動き評価値は9つの値から構成されることになる。
図12の曲線77は、動画撮影中における、動き評価値の時間変化を表している。タイミングt3で、動き評価値が予め定められた基準値CREF超から基準値CREF以下となり、その後、動き評価値が継続してタイミングt4まで基準値CREF以下に保たれている状態を想定する。タイミングt3とt4の間の時間は、時間T3に一致する。
タイミングt4において、CPU23は、タイミングt3からt4までの各動き評価値と、基準値CREFとを比較する。そして、タイミングt3からt4の期間において、常に前者が後者(CREF)以下に保たれている場合に第3トリガ条件は成立していると判断し、そうでない場合に第3トリガ条件は不成立と判断する。上記の判断が可能なように、CPU23は、時間T3分の過去の動き評価値を、SDRAM17に逐次記録させている。
上記の説明から理解されるように、第3トリガ条件は、「動画の動き検出領域内の動きの大きさに応じた動き評価値が、所定の時間T3以上継続して、所定の閾値内に収まる」という条件である、とも換言できる。
動画の撮影画像内の動きが一定時間以上停止している状態は、例えば、着目している人物等の被写体を静止した状態で捉えている状態と一致している、と推測することができる。このため、第3判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。
尚、撮像装置1を手で支持する場合は、所謂手ぶれによって、画像内の被写体は若干動く。この手ぶれに起因する動きによって、全く第3トリガ条件が成立しなくなるといったことが回避されるように、上記の閾値は実機による実験等を介して適切に設定される。
また、動き検出領域内の動き(動きの大きさ)を検出する手法として、代表点マッチング法を用いる手法を例示したが、他の様々な検出手法を採用することも可能である。
例えば、周知の如く、動画を構成する各フレーム間において、検出ブロックごとに明るさ(輝度信号)を比較し、各検出ブロックにおける明るさの変化に基づいて動き検出領域内の動き(動きの大きさ)を検出するようにしてもよい。また例えば、周知の如く、動画を構成する各フレーム間において、検出ブロックごとに色(色は映像信号から特定される)を比較し、各検出ブロックにおける色の変化に基づいて動き検出領域内の動き(動きの大きさ)を検出するようにしてもよい。
[第4判断手法]
次に、第4判断手法について説明する。第4判断手法を採用した場合におけるステップS11のトリガ条件を、第4トリガ条件と呼ぶ。第4トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。
第4判断手法では、各フレームの撮影画像内に存在する人物の顔領域を検出する顔領域検出機能が利用される。この顔領域検出機能を実現するために必要となる顔領域検出部46が、映像信号処理部13に設けられている(図3参照)。そして、第4判断手法を採用する場合、ステップS11では、例えば、「検出された顔領域の大きさが所定の閾値(基準サイズ)以上である」という第4トリガ条件の成立/不成立が判断される。
顔領域検出の手法として、様々な手法を採用することが可能である。顔領域検出部46は、例えば、周知の如く、撮影画像の肌色を抽出することによって顔領域の大きさを判断する。つまり、例えば、動画を構成する各フレームの撮影画像から肌色に分類される映像信号を有する領域を顔領域として抽出し、抽出した領域の大きさ(例えば面積)に基づいて、顔領域の大きさを求める(検出する)。上記の抽出及び顔領域の大きさの検出は、フレームごとに行われる。尚、どのような映像信号を肌色と分類するかは、予め定められている。
また、周知の如く、パターンマッチング法を用いて顔領域の大きさを検出するようにしても良い。この際、様々な顔領域のパターンに関する情報を撮像装置1内のメモリに格納しておき、それらのパターンと撮影画像とを比較することによって、顔領域を検出すると共に顔領域の大きさを検出する。
実際の処理では、例えば、顔領域検出部46が顔領域の大きさに応じた顔領域値をフレームごとに算出して、CPU23に逐次伝達する。CPU23は、逐次伝達された顔領域値が所定の閾値以上である場合に第4トリガ条件が成立すると判断し、そうでない場合に第4トリガ条件は不成立であると判断する。この顔領域値は、検出された顔領域の大きさが増大するにつれて増加する値である。
画像内における顔の大きさが比較的大きくなっている状態は、ユーザが着目している人物の顔が大きく映し出されている状態と一致する、と推測することができる。このため、第4判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。
尚、第4トリガ条件を成立せしめる顔領域の大きさまたは顔領域値に、上限を定めても良い。即ち、「検出された顔領域の大きさまたは顔領域値が所定の第1閾値以上であって且つ第2閾値以下である」場合、換言すれば、「検出された顔領域の大きさまたは顔領域値が所定の範囲内にある」場合に、ステップS12に移行し、そうでない場合はステップS15に移行するようにしてもよい。但し、第2閾値は、第1閾値よりも大きな値を有する。
画像内を占める顔の大きさが大き過ぎる画像を基にサムネイル画像を生成すると、かえって動画の特徴が捉えにくくなることもある。これを考慮し、上記の如く上限を定めるようにしてもよい。
[第5判断手法]
次に、第5判断手法について説明する。第5判断手法を採用した場合におけるステップS11のトリガ条件を、第5トリガ条件と呼ぶ。第5トリガ条件が成立する場合にはステップS12に移行し、不成立の場合にはステップS15に移行する。尚、第5判断手法を採用する場合、ステップS10の処理は省略される。
第5判断手法では、動画撮影中においてマイク14を介して入力された音の強さに着目する。音声信号処理部15は、動画撮影中においてマイク14を介して入力された、音の強さ或いは音の所定帯域の周波数成分の強さを逐次検出する機能を備える。検出された音の強さ或いは音の所定帯域の周波数成分の強さは、音強度値として、逐次、CPU23に伝達される。
また、音の強さの代わりに音の大きさを検出するようにし、検出された音の大きさ或いは音の所定帯域の周波数成分の大きさに応じた値を音強度値としてもよい。この場合、下記の「音の強さ」及び「音の所定帯域の周波数成分の強さ」は、それぞれ、「音の大きさ」及び「音の所定帯域の周波数成分の大きさ」に読み替えられる。
音強度値は、例えば、検出された音の強さの、1フレーム分の平均値又は該フレームにおけるピーク値である。或いは、音強度値は、例えば、検出された音の所定帯域の周波数成分の強さの、1フレーム分の平均値若しくは該フレームにおけるピーク値である。従って、音検出値は、1フレームごとに検出される。音強度値は、音の強さが増大するにつれて大きくなる。上記の所定帯域の周波数成分とは、例えば、人の音声の周波数帯域成分または可聴周波数帯域成分である。音声信号処理部15は、バンドパスフィルタ等を用いて、マイク14を介して入力された音声信号から上記所定帯域の周波数成分を抽出する。
CPU23は、動画の撮影開始時点のフレームから現フレームまでの音強度値の中で、現フレームの音強度値が最大であるかを判断する。そして、現フレームの音強度値が最大である場合に、第5トリガ条件が成立すると判断し、そうでない場合に第5トリガ条件は不成立であると判断する。
音楽会やパーティ会場の様子を撮影している場合において、音の強さが大きくなっている状態は、撮影現場が盛り上がっている状態と一致している、と考えることができる。このため、第5判断手法を採用することにより、動画の特徴を良く表したサムネイル画像を取得することが可能となり、この結果、所望の動画の探索の容易化が図られる。
尚、第5判断手法を採用する場合は、図7のフローチャートで示される動画用サムネイル画像の生成手順に代えて、図13のフローチャートで示される動画用サムネイル画像の生成手順を採用することも可能である。
この図13に示す生成手順について説明する。図7と図13において、同一記号が付されたステップにおける処理は同一である。つまり、図13におけるステップS1〜S3、S5〜S9及びS13では、図7におけるそれらと同じ処理が行われる。図13に示す手順では、図7のステップS4の代わりにステップS21が、図7のステップS10〜S12及びS15の代わりにステップS22及びS23が、図7のステップS14の代わりにステップS24が実行される。
ステップS3において、録画モードにて録画ボタン26aが押下されたことが確認されると、ステップS21に移行する。ステップS21において、変数Smaxに初期値Sinit(例えば0)を代入し、ステップS5に移行する。ステップS8において、録画停止が指示されていないと判断されると(ステップS8のNo)、ステップS22に移行する。録画停止が指示されるまでは、ステップS22、S23及びS13及びS24のステップ群と、ステップS1、S2、S7及びS8と、から成るループ処理が繰り返し実行される。このループ処理は、フレームごとに1回行われることになる。
ステップS22では、現フレームの音強度値Sinが、変数Smaxよりも大きいかが判断される。不等式:Sin>Smax、が成立する場合は(ステップS22のYes)ステップS23に移行し、成立しない場合は(ステップS22のNo)ステップS1に戻る。ステップS23において、現フレームの音強度値Sinを変数Smaxに代入し、ステップS13に移行する。ステップS13にて動画用サムネイル画像が生成された後、ステップS24に移行する。ステップS24の処理は、図7のステップS14の処理からフラグF0及びF1に対する処理を除いたものである。ステップS24の処理を終えると、ステップS1に戻る。
[付加的条件の追加]
上に例示した第1〜第5トリガ条件の夫々に対して、任意の付加的条件を追加するようにしてもよい。つまり、例えば、上述した第kトリガ条件の成立に加えて(kは1〜5の範囲内の任意の整数)、付加的条件が更に成立した場合にのみステップS12に移行するようにし、第kトリガ条件が成立していても付加的条件が不成立の場合はステップS15に移行するようにしてもよい。
例えば、上述の第1トリガ条件に対して、「撮像装置1がパンまたはチルトしていないこと」という付加的条件を追加してもよい。つまり、上述の第1判断手法において、「直近のズームインが行われた後、所定の時間T1以上継続して、ズームインまたはズームアウトによる画角の変更が行われておらず且つ撮像装置1がパンまたはチルトしていない」場合に、ステップS12に移行するようにし、そうでない場合はステップS15に移行するようにしてもよい。
パンまたはチルトがなされていない状態で取得した画像、即ち撮像装置1を固定した状態で取得した画像の方が、ユーザが着目している被写体をより適切に写し出している、と考えられるからである。
パン(パンニング)とは、撮像装置1の筐体(不図示)を左右方向に振ることを意味し、チルト(チルティング)とは、撮像装置1の筐体を上下方向に振ることを意味する。
撮像装置1の動きの状態(撮像装置1の筐体の動きの状態)は、撮像装置1の筐体が静止している静止状態と、手の震え等によって撮像装置1の筐体が任意の方向に細かく振動している手振れ状態と、撮像装置1に対してパン操作(パンを行う操作)が行われているパン状態と、撮像装置1に対してチルト操作(チルトを行う操作)が行われているチルト状態と、に大別される。このため、上記付加的条件は、「撮像装置1が静止状態または手振れ状態にあること」とも言い換えられる。
上記付加的条件の成立/不成立を判断する際、CPU23は、撮像装置1の動きの状態が、静止状態、手振れ状態、パン状態及びチルト状態の何れであるかを判別する動き検出手段として機能する。
例えば、CPU23は、周知の如く、撮像装置1の筐体の角速度を検出する角速度センサ(ジャイロセンサ;不図示)からの、該角速度を示す出力信号に基づいて、上記の判別を行う。
例えば、パン方向に対して考え、角速度センサの出力信号が、撮像装置1の筐体が左方向に振られた時に正の値をとり、右方向に振られた時に負の値をとり、固定された時にゼロの値をとる場合を考える。この場合、角速度センサの出力信号がゼロまたは実質的にゼロの場合は静止状態にあると判別し、角速度センサの出力信号が小刻みに振動しながら正と負の値をとる場合は手振れ状態にあると判別し、所定時間内の角速度センサの出力信号が正または負の値をとり続けた場合はパン状態であると判別する。チルト方向に対しても同様である。
また、周知の如く、図3の動き検出部44による画像の動きの検出結果に基づいて、撮像装置1の動きの状態を判別するようにしてもよい。例えば、CPU23は、第3判断手法にて述べた動きベクトルVC1〜VC9を参照する。例えば、動きベクトルVC1〜VC9の夫々の向きが、所定時間以上継続して同一の向き(例えば左向き)を維持している場合はパン状態またはチルト状態であると判別し、そうでない場合は手振れ状態または静止状態にあると判別する。
また例えば、「撮像装置1がパンまたはチルトしていないこと」という付加的条件を、上述の第2トリガ条件に対して追加するようにしてもよい。つまり、上述の第2判断手法において、「フォーカスレンズ31の位置の変動の大きさが、所定の時間T2以上継続して、所定の閾値内に収まっており且つ撮像装置1がパンまたはチルトしていない」場合に、ステップS12に移行するようにし、そうでない場合はステップS15に移行するようにしてもよい。尚、遠方の景色などを撮影している場合は、パン状態であってもフォーカスはロックすることが多い。
<<変形等>>
尚、ステップS11において採用されるトリガ条件を如何なるトリガ条件とするかを、ユーザが設定できるようにしてもよい。例えば、ステップS11におけるトリガ条件として、上記の第1〜第5トリガ条件の何れを採用するかをユーザが設定できるようにしてもよい。この設定は、例えば、操作部26への操作を介して行われる。
また、上述の第1〜第5判断手法の内、任意の2以上の判断手法を自由に組み合わせることも可能である。例えば、第1判断手法と第2判断手法を組み合わせる場合、ステップS11において、第1トリガ条件と第2トリガ条件の成立/不成立を判断する。そして、第1及び第2トリガ条件の内の何れか一方のトリガ条件が成立している場合はステップS12に移行するようにし、双方が不成立である場合にのみステップS15に移行するようにする。或いは、第1及び第2トリガ条件の双方が成立している場合にのみステップS12に移行するようにし、そうでない場合はステップS15に移行するようにする。
また、ヘッダファイルに1つの動画用サムネイル画像を格納し、格納された1つの動画用サムネイル画像を1つの動画に関連付ける例を上述したが、ヘッダファイルに複数の動画用サムネイル画像を格納し、格納された複数の動画用サムネイル画像を1つの動画に関連付けるようにしても構わない。この場合、ステップS14では、ヘッダファイルに既に格納されている動画用サムネイル画像をステップS13で生成した(最新の)動画用サムネイル画像にて置き換えるのではなく、ステップS13で生成した動画用サムネイル画像をヘッダファイルに追加するようにする。
複数の動画用サムネイル画像を1つの動画に関連付けた場合において、例えば図5におけるカーソル72をサムネイルTN3の部分に移動させると、その複数の動画用サムネイル画像を構成する各動画用サムネイル画像が、所定の間隔を置きつつ順を追ってサムネルTN3の部分に更新表示される。
これに関連するが、動画用サムネイル画像は動画(以下、サムネイル動画という)であっても構わない。撮影した動画に対応する音声信号に基づいてサムネイル音声を作成し、サムネイル動画を表示する際、そのサムネイル音声をスピーカ28を介して同時に出力するようにしてもよい。尚、サムネイル画像が静止画である場合においても、上記サムネイル音声の出力は可能である。
また、1つの動画の撮影期間中において、仮にトリガ条件が1回も成立しなかった場合、ステップS5にて生成された動画用サムネイル画像(第1の候補サムネイル画像)が、最終的に、動画に関連付けられた動画用サムネイル画像となる例を上述した。この動画用サムネイル画像は、動画の撮影開始タイミング(撮影開始フレームまたは撮影開始直前のフレーム)における撮像信号に基づいて作成されることになる。
1つの動画の撮影期間中においてトリガ条件が1回も成立しなかった場合に動画に関連付けられる動画用サムネイル画像は、上記に限定されない。その動画用サムネイル画像は、予め定められた任意のタイミング(フレーム)における撮像信号に基づいて生成されればよい。例えば、動画撮影直前もしくは直後における撮像信号、または動画撮影中の何れかのフレームの撮像信号に基づいて生成されればよい。
上述したように、メモリカード18の記録内容は、外部のパーソナルコンピュータ等によって自在に読み出し可能となっている。メモリカード18の記録内容を表示部27及びスピーカ28にて再生(映像表示及び音声出力)することができると上述したが、メモリカード18の記録内容の再生は、表示部とスピーカを備えたパーソナルコンピュータ等によっても同様に実現可能である。
本実施形態において、画角変更手段として機能する部位は、ドライバ34を含む。図1の操作キー26c及び/又はCPU23、或いは、図2のズームレンズ30も画角変更手段の構成要素である、と捉えることも可能である。また、オートフォーカス制御手段は、主として、図3のAF評価値検出部42と、図1のCPU23と、図2のドライバ34と、によって実現される。
本実施形態において、サムネイル生成装置は、主としてサムネイル生成部45(又はそれを含む映像信号処理部13)及びCPU23によって形成される。これに加えて、画角変更手段、オートフォーカス制御手段、動き検出手段(図3の動き検出部44に対応)、顔領域検出手段(図3の顔領域検出部46に対応)及び音入力手段(図1のマイク14に対応)の内の何れか1以上を、サムネイル生成装置の構成要素と捉えることも可能である。尚、図7及び図13のステップS5において、サムネイル生成部45は、第1生成手段として機能する。