次に本発明の実施の形態について図面を参照して詳細に説明する。
図1は、本発明の実施の形態における情報記録装置100の機能構成例を示すブロック図である。情報記録装置100は、撮像部101と、撮像信号処理部102と、マイクロフォン103と、音声信号処理部104と、GPS信号処理部105と、ユーザインターフェース110と、システム制御部120と、記録媒体180とを備える。情報記録装置100は、例えば、GPS信号を受信して位置情報を算出し、この算出された位置情報を撮像動画に関連付けて記録することが可能なデジタルビデオカメラ等の撮像装置によって実現することができる。
撮像部101は、光学系および撮像素子を備える。この光学系は、被写体からの光を集光するための複数のレンズ(ズームレンズ、フォーカスレンズ(図示せず)等)やアイリス(図示せず)等から構成され、入射された被写体からの光がこれらのレンズやアイリスを介して撮像素子に供給される。この撮像素子は、光学系を介して入射された被写体からの光をアナログの撮像信号(画像信号)に光電変換し、この光電変換されたアナログの撮像信号を撮像信号処理部102に出力する。なお、撮像素子として、例えば、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサ等を用いることができる。
撮像信号処理部102は、撮像部101から出力された撮像信号に対して所定の信号処理を施すものであり、この信号処理が施された画像信号(画像データ)を、ベースバンドのデジタルビデオデータとしてシステム制御部120に出力する。すなわち、撮像信号処理部102は、撮像部101から出力された撮像信号に対して、CDS(Correlated Double Sampling)回路により画像情報を有する信号だけをサンプリングするとともにノイズを除去する。そして、AGC(Auto Gain Control)回路によりゲインを調整して、A/D(Analog/Digital)変換回路によりデジタル信号に変換する。さらに、変換後のデジタル信号に対して検波系の信号処理を施して、R(赤色)、G(緑色)およびB(青色)の各色の成分を取り出し、γ補正やホワイトバランス補正等の処理を行う。そして、最終的に1本のベースバンドのデジタルビデオデータとしてシステム制御部120に出力する。
また、撮像信号処理部102は、撮像部101から出力された撮像信号に基づいて、表示部(図示せず)に撮像画像(いわゆる、スルー画像)を表示させるための映像信号を生成する。この表示部として、例えば、LCD(Liquid Crystal Display)等の表示素子を用いることができる。
マイクロフォン103は、情報記録装置100の周囲の音声を収音して電気信号に変換するものであり、この電気信号を音声信号として音声信号処理部104に出力する。
音声信号処理部104は、マイクロフォン103から出力された音声信号に対して所定の信号処理を施すものであり、この信号処理が施された音声信号(音声データ)を、ベースバンドのデジタルオーディオデータとしてシステム制御部120に出力する。すなわち、音声信号処理部104は、マイクロフォン103から出力された音声信号に対して、リミッタ処理を施してからA/D変換を施してデジタルオーディオデータを生成する。そして、生成されたデジタルオーディオデータについて、ノイズ除去や音質補正等の音声信号処理を行い、最終的に1本のベースバンドのデジタルオーディオデータとして出力する。
GPS信号処理部105は、GPS信号受信アンテナ(図示せず)により受信されたGPS信号に基づいて位置情報を算出するものであり、算出された位置情報をシステム制御部120に出力する。なお、この算出された位置情報には、緯度、経度、高度、方角、時刻等の数値データが含まれる。
ユーザインターフェース110は、ユーザによって入力された操作内容を受け付けるユーザインターフェースであり、受け付けられた操作内容に応じた制御信号をシステム制御部120に出力する。例えば、動画記録モード設定/解除ボタン、録画ボタン等の操作部材が情報記録装置100に備えられている。動画記録モード設定/解除ボタンは、動画の記録を可能な状態にする動画記録モードの設定または解除を行う際に押下されるボタンである。録画ボタンは、動画記録モードが設定されている場合に、動画記録を開始または終了する際に押下されるボタンである。なお、ユーザインターフェース110を、例えば、タッチパネルとして構成するようにしてもよい。
システム制御部120は、ユーザインターフェース110から出力された制御信号に基づいて、動画ファイル等の記録制御を行うものである。なお、システム制御部120については、図2を参照して詳細に説明する。
記録媒体180は、システム制御部120による記録制御に基づいて動画ファイル等の情報を記憶する記録媒体である。例えば、記録媒体180は、撮像信号処理部102から出力されたデジタルビデオデータと、音声信号処理部104から出力されたデジタルオーディオデータとが多重化して生成されたAVストリーム(データストリーム)を動画ファイルとして記憶する。また、記録媒体180は、動画ファイルを管理する動画管理ファイルを記憶する。ここで、本発明の実施の形態では、GPS信号処理部105から出力された位置情報をテキストデータおよびビットマップデータに変換し、このテキストデータおよびビットマップデータを動画ファイルおよび動画管理ファイルに含めて記録媒体180に記憶する。なお、記録媒体180は、情報記録装置100に内蔵するようにしてもよく、情報記録装置100から着脱可能とするようにしてもよい。また、記録媒体180として、半導体メモリ、光記録媒体、磁気ディスク、HDD(Hard Disk Drive)等の種々のものを用いることができる。なお、光記録媒体は、例えば、記録可能なDVD(Digital Versatile Disc)、記録可能なCD(Compact Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。
図2は、本発明の実施の形態におけるシステム制御部120の機能構成例を示すブロック図である。システム制御部120は、制御部130と、データ入力部140と、圧縮処理部150と、位置情報変換データベース160と、位置情報処理部171と、管理情報処理部172と、管理情報保持部173とを備える。また、システム制御部120は、多重化処理部174と、ストリームバッファ175と、記録制御部176とを備える。システム制御部120は、入力されたデジタルビデオデータおよびデジタルオーディオデータを、所定の動画記録フォーマットにより圧縮符号化および多重化してAVストリームを生成するものである。そして、生成されたAVストリームを記録媒体180に記録させる。この動画記録フォーマットとして、例えば、AVCHD規格の動画記録フォーマットを採用することができる。
制御部130は、下位モジュールを制御するものであり、動画記録シーケンスを行う。制御部130は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等により構成される。また、制御部130は、ユーザインターフェース110から出力された制御信号に従って、ROMに予め記憶されているプログラムやデータに基づいて、RAMをワークメモリとして用いてシステム制御部120の各部を制御する。例えば、動画記録モードが設定されていない状態で、動画記録モード設定/解除ボタンを押下する押下操作がユーザインターフェース110により受け付けられた場合には、制御部130は動画記録モードを設定する制御を行う。一方、動画記録モードが設定されている状態で、動画記録モード設定/解除ボタンを押下する押下操作がユーザインターフェース110により受け付けられた場合には、制御部130は動画記録モードを解除する制御を行う。また、例えば、動画記録モードが設定されている状態で、録画ボタンを押下する押下操作がユーザインターフェース110により受け付けられた場合には、制御部130は動画記録を開始する制御を行う。一方、動画記録が行われている状態で、録画ボタンを押下する押下操作がユーザインターフェース110により受け付けられた場合には、制御部130は、動画記録を終了させる制御を行う。
データ入力部140は、動画入力部141と、音声入力部142と、位置情報入力部143とを備える。動画入力部141は、撮像信号処理部102から出力されたベースバンドのデジタルビデオデータを入力するものであり、このデジタルビデオデータがビデオエンコーダ151に供給される。音声入力部142は、音声信号処理部104から出力されたベースバンドのデジタルオーディオデータを入力するものであり、このデジタルオーディオデータがオーディオエンコーダ152に供給される。位置情報入力部143は、GPS信号処理部105から出力された位置情報を入力するものであり、この位置情報が位置情報処理部171に供給される。なお、位置情報入力部143は、特許請求の範囲に記載の位置情報取得部の一例である。
圧縮処理部150は、ビデオエンコーダ151と、オーディオエンコーダ152とを備える。ビデオエンコーダ151は、動画入力部141から供給されたデジタルビデオデータを、所定の圧縮符号化方式により圧縮符号化するものであり、圧縮符号化されたデジタルビデオデータをAVストリームとして多重化処理部174に供給する。動画記録フォーマットとして、AVCHD規格の動画記録フォーマットを採用する場合には、動画の圧縮符号化方式として、高効率符号化が可能なH.264/MPEG−4 AVC方式を用いる。この方式を用いる場合には、例えば、DCT(Discrete Cosine Transform)と画面内予測とによりフレーム内圧縮が行われる。そして、動きベクトルを用いたフレーム間圧縮が行われ、さらにエントリピー符号化が行われることにより圧縮効率が高められる。オーディオエンコーダ152は、音声入力部142から供給されたデジタルオーディオデータを所定の圧縮符号化方式により圧縮符号化するものであり、圧縮符号化されたデジタルオーディオデータをオーディオリストリームとして多重化処理部174に供給する。動画記録フォーマットとして、AVCHD規格の動画記録フォーマットを採用する場合には、動画の圧縮符号化方式として、AC3(Audio Code number 3)方式を用いることができる。なお、デジタルオーディオデータを圧縮符号化せず、ベースバンドのデータの状態で多重化処理部174に供給するようにしてもよい。
位置情報変換データベース160は、GPS信号処理部105により算出される位置情報を、この位置情報により特定される場所に関するテキストデータまたはビットマップデータに変換するための変換情報を格納するデータベースである。この位置情報変換データベース160については、図3を参照して詳細に説明する。
位置情報処理部171は、位置情報変換データベース160に格納されている変換情報を用いて、位置情報入力部143から供給された位置情報をテキストデータおよびビットマップデータに変換するものである。そして、位置情報入力部143から供給された位置情報と、この位置情報が変換されたテキストデータおよびビットマップデータとを、所定の動画記録フォーマットに従ったデータストリームとして多重化処理部174に出力する。また、位置情報処理部171は、位置情報入力部143から供給された位置情報と、この位置情報が変換されたテキストデータおよびビットマップデータとを、管理情報処理部172に出力する。なお、位置情報処理部171は、特許請求の範囲に記載の位置情報変換部の一例である。
管理情報処理部172は、記録媒体180に記録される動画ファイルを管理するための動画管理情報を生成するものであり、生成された動画管理情報を記録制御部176に出力する。また、管理情報処理部172は、位置情報処理部171から出力されたテキストデータおよびビットマップデータを動画管理情報に含める。例えば、管理情報処理部172は、多重化処理部174から時間情報を取得するとともに、記録媒体180におけるアドレス情報を記録制御部176から取得し、これらの時間情報およびアドレス情報に基づいて動画管理情報を生成する。そして、管理情報処理部172は、生成された動画管理情報を管理情報保持部173に保持させ、所定のタイミングで記録制御部176に出力して、記録媒体180に動画管理ファイルとして記録させる。この動画管理ファイルは、動画記録フォーマットとしてAVCHD規格の動画記録フォーマットを採用する場合には、インデックスファイル、ムービーオブジェクトファイル、プレイリストファイルおよびクリップインフォメーションファイルにより構成される。この場合には、位置情報処理部171から出力されたテキストデータは、例えば、プレイリストファイルおよびクリップインフォメーションファイルに記録される。また、管理情報処理部172は、多重化処理部174により多重化されるAVストリームに、位置情報処理部171から出力されたテキストデータおよびビットマップデータを埋め込むための情報を生成し、この情報を多重化処理部174に出力する。なお、管理情報処理部172は、特許請求の範囲に記載の動画管理情報生成部の一例である。
管理情報保持部173は、管理情報処理部172により生成された動画管理情報を一時的に保持するものであり、保持されている動画管理情報を管理情報処理部172に供給する。すなわち、管理情報保持部173は、管理情報処理部172のワークメモリとして用いられる。
多重化処理部174は、ビデオエンコーダ151から出力されたビデオストリームと、オーディオエンコーダ152から出力されたオーディオストリームとを所定の方式で多重化して1本のAVストリームとして出力するものである。また、多重化処理部174は、そのビデオストリームおよびオーディオストリームと、位置情報処理部171から出力されたAVストリームとを所定の方式で多重化して1本のAVストリームとして出力する。また、多重化処理部174は、管理情報処理部172から出力された情報に基づいて、テキストデータおよびビットマップデータをAVストリームに含める。そして、多重化されたAVストリームがストリームバッファ175に順次出力される。例えば、動画記録フォーマットとしてAVCHD規格の動画記録フォーマットを採用する場合には、MPEG−2 TS(トランスポートストリーム)に従って多重化が行われる。
ストリームバッファ175は、多重化処理部174から出力されたAVストリームを一時的に蓄積するバッファである。そして、蓄積されているAVストリームが記録制御部176の制御に基づいて、記録媒体180に記録される。
記録制御部176は、ストリームバッファ175に蓄積されたデータ量を監視し、ストリームバッファ175に所定量以上のデータが蓄積されると、ストリームバッファ175から記録媒体180の記録単位分のデータを読み出して記録媒体180に書き込む。すなわち、記録制御部176は、ストリームバッファ175に蓄積されたAVストリームを動画ファイル化し、記録媒体180に記録させる。また、記録制御部176は、管理情報処理部172から出力された動画管理情報を動画管理ファイルとして記録媒体180に記録させる。
例えば、動画記録モードが設定されている状態で、録画ボタンの押下操作がユーザインターフェース110により受け付けられた場合には、制御部130の制御に基づいて、記録媒体180への記録動作が開始される。すなわち、制御部130の制御に基づいて、撮像信号処理部102から出力されたデジタルビデオデータがビデオエンコーダ151により圧縮符号化される。また、音声信号処理部104から出力されたデジタルオーディオデータがオーディオエンコーダ152により圧縮符号化される。そして、圧縮符号化されたビデオデータおよびオーディオデータが、多重化処理部174により所定の形式でパケット化され多重化され、AVストリームが生成される。そして、生成されたAVストリームが、ストリームバッファ175を介して、記録制御部176に供給され、動画ファイルとして記録媒体180に記録される。一方、動画記録動画が行われている状態で、録画ボタンの押下操作(再押下操作)がユーザインターフェース110により受け付けられた場合には、制御部130の制御に基づいて、記録媒体180への記録動作が停止される。すなわち、動画ファイルの記録媒体180への記録動作が停止されるとともに、動画管理ファイルの作成および更新が行われる。
図3は、本発明の実施の形態における位置情報変換データベース160に格納されている内容を概略的に示す図である。位置情報変換データベース160は、位置情報をテキストデータおよびビットマップデータに変換するための変換情報を格納するデータベースである。具体的に、位置情報変換データベース160には、管理番号161に関連付けて、位置情報(GPS情報)162と、地名(テキストデータ)163と、地名(ビットマップデータ)164とが格納されている。
管理番号161は、各地名を管理するための識別番号であり、例えば、管理番号1に関連付けて「千代田区」が格納され、管理番号2に関連付けて「品川区」が格納される。
位置情報162には、地名163および164に格納されている地名に対応する領域を特定するためのデータが格納される。ここで、図3に示す例では、地名163および164に格納されている地名に対応する領域を、複数の点(緯度および経度)を結んで構成される多角形の領域(折れ線により囲まれている閉じた領域)により特定する場合を想定して説明する。例えば、地名163および164に格納されている地名「千代田区」に対応する領域(実際の東京都千代田区の領域)と、管理番号「1」の位置情報162に格納されている複数の点(緯度および経度)を結んで構成される多角形の領域とが略同一であるものとする。すなわち、位置情報162に格納されているデータは、例えば、その領域に対応する多角形の頂点に対応する緯度および経度を示すデータである。なお、図3に示す例では、位置情報162に格納される具体的な数値を省略して示す。
地名163には、AVストリームや動画管理ファイルに記録される地名のテキストデータが格納される。また、地名164には、AVストリームや動画管理ファイルに記録される地名のビットマップデータが格納される。地名163および164に格納される地名として、例えば、「千代田区」、「品川区」等の地名を用いることができる。これらの地名は、例えば、現在の行政区画に対応する地名を用いることができる。この行政区画の単位として、例えば、国単位、都道府県単位、区市町村単位とすることができる。なお、図3に示す位置情報変換データベース160において、地名163の領域には、この領域に格納されるテキストデータに対応する文字を通常の太さで示す。また、地名164の領域には、この領域に格納されるビットマップデータに対応する文字を太字で示す。
ここで、図3に示す例では、位置情報162に格納されているデータにより特定される領域に、区市町村単位の地名を対応させる例を示すが、例えば、同一領域に複数の地名を対応させるようにしてもよい。例えば、図3に示す管理番号「1」に関連付けて、地名163および164に「千代田区」および「東京都」のテキストデータおよびビットマップデータを格納することができる。また、位置情報162に格納されているデータにより特定される領域に関する他のテキストデータまたはビットマップデータを格納するようにしてもよい。その領域に関する他のビットマップデータとして、例えば、その領域に対応する場所に関するシンボルマークを用いることができる。このシンボルマークとして、例えば、国旗、都道府県章等を用いることができる。また、例えば、その領域に対応する場所を現す特徴的なものをシンボルマークとして用いることができる。例えば、東京都であれば、「東京タワー」を表す図形をシンボルマークとすることができる。また、位置情報162に格納されているデータにより特定される領域に関する他のテキストデータまたはビットマップデータとして、例えば、GPS信号処理部105により算出された位置情報に対応する緯度、経度等を表す数値情報を用いることができる。この緯度、経度等を表す数値情報として、例えば、「北緯:○○°○○′、東経:○○°○○′」等の文字を用いることができる。なお、「○○」には、GPS信号処理部105により算出された位置情報に含まれる数値が入力される。また、位置情報より特定される領域に関する他のテキストデータまたはビットマップデータとして、例えば、GPS信号処理部105により算出された位置情報に含まれる方角から特定される「東」「西」「南」「北」等の文字を用いるようにしてもよい。さらに、位置情報より特定される領域に関する他のビットマップデータとして、例えば、GPS信号処理部105により算出された位置情報により特定される場所を含む地図を示すビットマップデータを用いるようにしてもよい。または、その位置情報により特定される場所を含む地図上に、その場所を示す標識が描画されたビットマップデータを用いるようにしてもよい。その場所を示す標識として、例えば、画像および文字情報の少なくとも1つを含むアイコンとすることができる。そのアイコン内には、その場所を示す各種情報を含めるようにしてもよい。また、図3に示す例では、地名163および164に格納されるテキストデータおよびビットマップデータが同一の文字を示す場合を示すが、テキストデータおよびビットマップデータを異なるものとすることができる。例えば、地名163には地名を示すテキストデータを格納するとともに、地名164にはその地名に対応するシンボルマークを表すビットマップデータを格納することができる。
ここで、位置情報処理部171は、GPS信号処理部105により算出された位置情報に含まれる緯度および経度が、位置情報162に格納されている緯度および経度により特定される領域の何れかに含まれるかを決定する。そして、決定された領域に関連付けて地名163および164に格納されているテキストデータおよびビットマップデータを取得する。また、例えば、位置情報処理部171は、GPS信号処理部105により算出された位置情報に含まれる緯度および経度を、緯度や経度等を表す数値のテキストデータまたはビットマップデータに変換して、これを用いるようにしてもよい。さらに、例えば、位置情報処理部171は、GPS信号処理部105により算出された位置情報をこの位置情報により特定される場所を含む地図を示すビットマップデータに変換して、これを用いるようにしてもよい。または、その位置情報により特定される場所を含む地図上に、その場所を示す標識が描画されたビットマップデータに変換して、これを用いるようにしてもよい。
次に、GPS信号処理部105により算出された位置情報に基づいて変換されたテキストデータおよびビットマップデータをリアルタイムにAVストリームに記録する記録方法について図面を参照して詳細に説明する。
図4は、本発明の実施の形態における多重化処理部174がAVストリームを生成する場合を概略的に示す図である。この例では、ビデオストリームと、オーディオストリームと、プライベートストリームと、ビットマップストリームとを多重化してAVストリームを生成する例について説明する。
ビデオストリーム201は、ビデオエンコーダ151により圧縮符号化されたデジタルビデオデータに対応するストリームである。また、オーディオストリーム202は、オーディオエンコーダ152により圧縮符号化されたデジタルオーディオデータに対応するストリームである。
プライベートストリーム203は、GPS信号処理部105により算出された位置情報200に対応するストリームである。また、ビットマップストリーム204は、位置情報変換データベース160を用いて位置情報処理部171により変換されたビットマップデータに対応するストリームである。
これらの各ストリーム201乃至204は、パケットの連なりで構成されているストリームである。そして、多重化処理部174は、各パケットに含まれる時刻情報に基づいて多重化処理を行い、AVストリーム205を生成する。なお、図4では、ビデオストリーム201に対応するパケットに含まれる時刻情報を「Vtn(nは1以上の整数)」で表し、オーディオストリーム202に対応するパケットに含まれる時刻情報を「Atn(nは1以上の整数)」で表す。また、プライベートストリーム203に対応するパケットに含まれる時刻情報を「Ptn(nは1以上の整数)」で表し、ビットマップストリーム204に対応するパケットに含まれる時刻情報を「Btn(nは1以上の整数)」で表す。なお、この例で示す時刻情報は、情報記録装置100内における時刻を示す情報である。また、同一のnが付されている時刻情報については、同一時刻に生成されたパケットであるものとする。
多重化処理部174は、位置情報処理部171から出力された位置情報、テキストデータおよびビットマップデータに対応するデータストリームを定期的に取得する。そして、位置情報、テキストデータまたはビットマップデータを含むパケットの多重化を任意のタイミングで行う。ここで、位置情報、テキストデータまたはビットマップデータを含むパケットを多重化する場合の一例を示す。例えば、この多重化の時点で、位置情報、テキストデータまたはビットマップデータのうち、直前のパケットの時刻と近い時刻の位置情報、テキストデータまたはビットマップデータをパケット内に埋め込んで多重化する。このように多重化されたAVストリームがストリームバッファ175に順次蓄積される。
なお、AVCHD規格の動画記録フォーマットを採用する場合には、位置情報処理部171から出力されたビットマップデータに対応するビットマップストリーム204が多重化されてビデオストリーム201が生成される。また、位置情報処理部171から出力された位置情報およびテキストデータがビデオストリーム201に記録される。これらの例については、図5乃至図21等を参照して詳細に説明する。
次に、動画記録フォーマットの一例であるAVCHD規格について図面を参照して詳細に説明する。
図5は、AVCHDのファイルの種別と、その役割との対応関係を概略的に示す図である。なお、これらのファイルの詳細については、図6乃至図21等を参照して詳細に説明する。
図6は、AVCHD規格におけるデータ構造を示す図である。AVCHD規格では、階層構造によりAVデータ(映像音声データ)を扱っており、インデックステーブルと、ムービーオブジェクトと、プレイリストと、クリップインフォメーションファイルと、クリップAVストリームファイルとに大別される。
クリップAVストリームファイルは、ビデオデータ(映像データ)やオーディオデータ(音声データ)がMPEG−2 TS(トランスポートストリーム)形式により多重化されたビットストリームである。また、このクリップAVストリームには、OBストリーム(Overlay Bitmap stream)やMBストリーム(Menu Bitmap stream)を多重化することができる。ここで、OBストリームは、字幕を表示するグラフィクスストリームであり、MBストリームは、メニュー表示等に用いられるデータ(ボタン画像データなど)をストリームにしたものである。
クリップインフォメーションファイル(Clip Information File)は、クリップAVストリームファイルに関する情報をクリップ情報として保持するファイルである。このクリップインフォメーションファイルには、クリップAVストリームファイルにおける時間の位置と空間の位置(アドレス)との間のマッピング(変換)テーブル等が含まれている。これにより、クリップAVストリームファイルにおけるアクセスポイントが時間により指定された際、このマッピングテーブルを参照することにより、クリップAVストリームファイル上の適正なアドレスにアクセスすることができる。
これらクリップAVストリームファイルおよび対応するクリップ情報が記録されたクリップインフォメーションファイルをまとめてクリップと呼称する。クリップを構成するクリップAVストリームファイルおよびクリップインフォメーションファイルは1対1に対応する。すなわち、この図の例において、クリップ情報741はストリーム751に関する情報を保持し、クリップ情報742はストリーム752に関する情報を保持する。また、クリップ情報743はストリーム753に関する情報を保持し、クリップ情報744はストリーム754に関する情報を保持する。
プレイリストは、再生するクリップと、そのクリップの開始点および終了点の対に関する情報等から構成される。この再生開始点および再生終了点等の情報は、プレイアイテム(PlayItem)と呼称される。1つのプレイリストには、1つ以上のプレイアイテムが含まれる。クリップの再生は、このプレイリストを経由して行われる。すなわち、プレイリストが再生されることにより、そのプレイリストに含まれるプレイアイテムが順次再生されることになる。これにより、プレイアイテム中の再生開始点および再生終了点に従って、クリップ中の対応する区間が再生されていく。
各プレイアイテムには、プレイリストマークを付与することができる。このプレイリストマークにより、プレイアイテムは複数のチャプタに分割される。また、これとは逆に、1つのチャプタの中に複数のプレイアイテムが存在する場合もある。
プレイリストは、実プレイリスト(Real PlayList)と仮想プレイリスト(Virtual PlayList)とに大別される。実プレイリストは、クリップを単位として1つ以上のクリップを、基本的に記録順に保持するプレイリストである。この実プレイリスト内では時間的な飛び(ギャップ)はなく、また、他の実プレイリストとの間で重複(オーバラップ)も生じない。一方、仮想プレイリストは、何れかの実プレイリストに対応するクリップの一部もしくは全部を1つ以上、任意に保持するプレイリストである。この図の例において、プレイアイテム731、732、733、734および735は実プレイリストに属し、プレイアイテム736および737は仮想プレイリストに属している。
ムービーオブジェクトは、ナビゲーションコマンドプログラム等を含むオブジェクトである。ここで、ナビゲーションコマンドプログラムは、プレイリストの再生や再生終了後の処理を制御するためのコマンド群である。この図の例において、ムービーオブジェクト#1(721)は実プレイリスト#00000を再生し、ムービーオブジェクト#2(722)は実プレイリスト#00200を再生する。また、ムービーオブジェクト#3(723)は実プレイリスト#00018を再生し、ムービーオブジェクト#4(724)は仮想プレイリスト#01005を再生するようになっている。
インデックステーブルは、記録媒体に記録されたコンテンツのタイトルを定義する、最上位レベルのテーブルである。このインデックステーブルには1つ以上のムービータイトルが含まれ、各ムービータイトルからムービーオブジェクトを指し示すようになっている。この図の例において、ムービータイトル#1(711)はムービーオブジェクト#1(721)を指し示し、ムービータイトル#2(712)はムービーオブジェクト#2(722)を指し示している。また、ムービータイトル#3(713)はムービーオブジェクト#3(723)を指し示し、ムービータイトル#4(714)はムービーオブジェクト#4(724)を指し示している。再生機器では、このインデックステーブルに格納されているタイトル情報に基づいてコンテンツの再生が制御される。
図7は、AVCHD規格におけるムービーオブジェクトの周辺の関係例を示す図である。インデックステーブルには、既に説明したムービータイトルの他に、ファーストプレーバックタイトル719およびメニュータイトル718が含まれる。ファーストプレーバックタイトル719は、最初に再生されるタイトルに対応するムービーオブジェクトを指し示すものである。メニュータイトル718は、メニュー画面に対応するムービーオブジェクトを指し示すものである。
ここでは、タイトル#1の再生開始が指示された場合を想定する。ムービータイトル#1(711)からムービーオブジェクト#1(721)が指し示され、これにより、ムービーオブジェクト#1(721)に含まれるナビゲーションコマンドプログラムが実行される。
ムービーオブジェクト#1(721)において、プレイリスト#1(730)の再生を指示するコマンド(7201)が実行されると、プレイリスト#1(730)におけるプレイアイテムが順次再生される。このプレイリスト#1(730)を経由して、対応するクリップが再生される。この図の例では、プレイアイテム#1(731)、プレイアイテム#2(732)の順に再生され、プレイアイテム#9(739)の再生が終了すると、ムービーオブジェクト#1(721)に戻るようになっている。
ムービーオブジェクト#1(721)では、ナビゲーションプログラムコマンドにより、メニュータイトルへ戻る旨が指示され(7202)、メニュータイトル718へ制御が移行する。
図8は、AVCHD規格におけるファイル構成の一例を示す図である。記録媒体のルートディレクトリ(root)の下には、クリップの内容を含むディレクトリ「BDMV」810が配置される。また、必要に応じて、ルートディレクトリの下にサムネイルを含むディレクトリ「AVCHDTN」880が配置される。
ディレクトリ「BDMV」810の直下には、ファイル「index.bdmv」820およびファイル「MovieObject.bdmv」830が配置される。また、ディレクトリ「BDMV」810の下には、ディレクトリ「PLAYLIST」840、ディレクトリ「CLIPINF」850、ディレクトリ「STREAM」860、および、ディレクトリ「BACKUP」870が配置される。
ファイル「index.bdmv」820は、ディレクトリ「BDMV」810の内容を格納するものであり、図6において説明したインデックステーブルに対応する。また、ファイル「MovieObject.bdmv」830は、ムービーオブジェクトの情報を格納するものであり、図6において説明したムービーオブジェクトに対応する。
ディレクトリ「PLAYLIST」840は、プレイリストのデータベースが配置されるディレクトリである。このディレクトリ「PLAYLIST」840は、例えば、プレイリストに関するファイルであるファイル841乃至843を含む。このディレクトリ「PLAYLIST」840におけるファイルのファイル名は、5桁の数字と拡張子からなる。5桁の数字のうち、「00000」から「00999」の1000個は実プレイリスト用であり、「01000」から「01199」の200個は仮想プレイリスト用である。また、各ファイルの拡張子としては「.mpls」が用いられる。
ディレクトリ「CLIPINF」850は、クリップのデータベースが置かれるディレクトリである。このディレクトリ「CLIPINF」850は、例えば、クリップAVストリームファイルのそれぞれに対するクリップインフォメーションファイルであるファイル851乃至853を含む。このディレクトリ「CLIPINF」850におけるファイルのファイル名は、5桁の数字と拡張子からなる。各ファイルの拡張子としては「.clpi」が用いられる。
ディレクトリ「STREAM」860は、実体としてのAVストリームファイルが置かれるディレクトリである。このディレクトリ「STREAM」860は、例えば、クリップインフォメーションファイルのそれぞれに対応するクリップAVストリームファイル861乃至863を含む。このディレクトリ「STREAM」860におけるファイルのファイルは、MPEG−2のトランスポートストリームからなり、ファイル名は、5桁の数字と拡張子からなる。ファイル名5桁の数字の部分は、対応するクリップインフォメーションファイルと同一にすることで、クリップインフォメーションファイルとこのクリップAVストリームファイルとの対応関係を示す。また、各ファイルの拡張子としては「.m2ts」が用いられる。
ディレクトリ「BACKUP」870は、上述の各ディレクトリおよびファイルのバックアップを格納するものである。
ディレクトリ「AVCHDTN」880には、2種類のサムネイルファイル「thumbnail.tidx」881および「thumbnail.tdt2」882を置くことができる。サムネイルファイル「thumbnail.tidx」881は各サムネイル画像データへのインデックス情報を格納するファイルであり、サムネイルファイル「thumbnail.tdt2」882はサムネイル画像データの集合である。
次に、位置情報変換データベース160を用いて変換されたテキストデータまたはビットマップデータを、AVCHD規格におけるAVストリームに記録する場合について図面を参照して詳細に説明する。最初に、AVCHD規格におけるAVストリームにテキストデータを記録する場合について説明する。
図9は、AVCHD規格におけるモディファイドデジタルビデオパック(MDP:Modified Digital Video Pack)全般のデータ構造を示す図である。ここでは、プログラムの記述言語として用いられるC言語の記述法に基づいてシンタックスを示す。
このMDPはビデオデータのエレメンタリストリーム(ES)の中にユーザデータとして記憶されているものである。このユーザデータにおいて、フィールド「uuid_iso_iec_11578」は、128ビットのデータ長を有する。そして、「ISO/IEC 11578」に規定される汎用一意識別子(UUID:Universally Unique Identifier)によってこのユーザデータの識別子を示す。
フィールド「TypeIndicator」は、32ビットのデータ長を有し、このユーザデータのデータタイプを示す。このデータタイプが「0x4741 3934」(0xは以下の数字が十六進数であることを意味する。以下同様)であれば、このユーザデータはクローズドキャプション(CC:Closed Caption)の字幕データ(cc_data)である。また、データタイプが「0x4D44 504D」であれば、このユーザデータはMDPのメタデータ(ModifiedDVPackMeta)である。
MDPのメタデータには、40ビット長のMDP(one_modified_dv_pack)が任意のエントリ数、含まれている。このエントリ数は8ビット長のフィールド「number_of_modified_dv_pack_entries」に記憶されている。1つのMDPには、MDPのIDを示す8ビット長のフィールド「mdp_id」およびMDPデータを示す32ビット長のフィールド「mdp_data」が含まれている。
図10および図11は、AVCHD規格におけるMDPのIDと付帯情報の対応関係を示す図である。この図に示されるように、MDPの付帯情報には、撮影日時に関する情報、露光時間やF値等の撮影条件に関する情報、GPSに関する情報、カメラに関する情報等が含まれる。
例えば、図10に示すように、MDPのID「0x18」および「0x19」は、撮影日時に関する情報を示す。また、図11に示すように、MDPのID「0xB0」乃至「0xCF」は、GPSに関する情報を示す。このように、MDPには、GPSに関する情報を記憶することができる。また、本発明の実施の形態では、位置情報変換データベース160を用いて位置情報処理部171によりGPS情報が変換されたテキストデータを「メーカーオプション(MDPのID「0xE1」乃至「0xEF」)」に記録する。これにより、GPS情報を地名等のテキストデータに変換するための変換データベースを備えていない再生装置で再生する場合でも、再生の対象となる動画とともに、この動画が撮影された場所に関するテキストデータを表示することができる。また、メーカーオプションに記憶されているテキストデータと、MDPのID「0xB0」乃至「0xCF」に記憶されているGPSに関する情報とを用いて、各種の表示再生を行うことが可能である。なお、テキストデータをMDPに記録する場合には、例えば、フレーム毎に記録することができる。また、例えば、GOP(Group Of Picture)毎に記録するようにしてもよく、ストリーム中の一定間隔毎に記録するようにしてもよい。
次に、AVCHD規格におけるAVストリームにビットマップデータを記録する場合について説明する。この例では、位置情報に基づいて変換されたビットマップデータを、AVCHD規格のオーバーレイビットマップとして記録する場合を例にして説明する。
図12は、AVCHD規格のオーバーレイビットマップに含まれるビットマップユニットのデータ構造を示す図である。図12(a)は、ビットマップユニット全体のデータ構造である。また、その中のフィールド「UnitDescriptor()」は、図12(b)に示すように、8ビット長のフィールド「UnitType」および16ビット長のフィールド「UnitLength」から構成される。
「UnitType」は、このビットマップユニットの種別を表すフィールドであり、この種別に応じたデータがビットマップユニットのフィールド「UnitData()」に記憶される。「UnitLength」は、このビットマップユニットのバイト数を示すものである。
図13は、AVCHD規格のビットマップユニットの種別を示す図である。この図に示すように、図13(b)の「UnitType」が「0x14」であれば、「UnitData()」には「Palette Unit」が記憶される。この「Palette Unit」は、各ピクセルの色と透明度情報テーブル等を記憶するものである。
「UnitType」が「0x15」であれば、「UnitData()」には「Object Unit」が記憶される。この「Object Unit」は、ビットマップデータ本体と位置、サイズ情報等を記憶するものである。
「UnitType」が「0x16」であれば、「UnitData()」には「Overlay Bitmap Compilation Unit」が記憶される。この「Overlay Bitmap Compilation Unit」は、オーバーレイビットマップに関する表示情報の種別やオブジェクトとウィンドウの関連情報等を記憶するものである。
「UnitType」が「0x17」であれば、「UnitData()」には「Window Unit」が記憶される。この「Window Unit」は、画面内の表示区間に関する情報等を記憶するものである。
「UnitType」が「0x18」であれば、「UnitData()」には「Menu Bitmap Compilation Unit」が記憶される。この「Menu Bitmap Compilation Unit」は、メニュービットマップに関する表示情報の種別やオブジェクトとウィンドウの関連情報等を記憶するものである。
「UnitType」が「0x80」であれば、「UnitData()」には「End Unit」が記憶される。この「End Unit」は、表示単位の終了情報を記憶するものである。
図14は、AVCHD規格の「Object Unit」のデータ構造を示す図である。この「Object Unit」は、「UnitType」が「0x15」を示す場合に、ビットマップユニットのフィールド「UnitData()」に記憶されるものである。
図14(a)に示すように、「Object Unit」は、24ビット長のフィールド「UnitDescriptor()」に続いて、16ビット長のフィールド「ObjectID」を記憶する。続いて、8ビット長のフィールド「ObjectVersionNumber」、フィールド「SequenceDescriptor」およびフィールド「ObjectData()」を記憶する。
図14(b)に示すように、「ObjectData()」は、オブジェクトデータ長を示す24ビット長のフィールド「ObjectDataLength」を記憶する。そして、オブジェクト幅を示す16ビット長のフィールド「ObjectWidth」およびオブジェクトの高さを示す16ビット長のフィールド「ObjectHeight」を記憶する。これらに続いてランレングスコード化されたビットマップデータを示すフィールド「RunLengthEncodedLine()」を記憶する。
このように、AVCHD規格では、オーバーレイビットマップに含まれるビットマップユニットの「Object Unit」に、ランレングスコード化されたビットマップデータを記憶することが可能である。そこで、本発明の実施の形態では、位置情報処理部171により変換されたビットマップデータをランレングスコード化し、このランレングスコード化されたビットマップデータを「Object Unit」に記憶する。これにより、GPS情報を地名等のビットマップデータに変換するための変換データベースを備えていない再生装置で再生する場合でも、再生の対象となる動画とともに、この動画が撮影された場所に関するビットマップデータを表示することができる。
また、例えば、MDPにテキストデータが記録され、オーバーレイビットマップにビットマップデータが記録されている動画ファイルを再生する場合を考える。例えば、MDPは表示可能であるが、オーバーレイビットマップは表示できないデジタルビデオカメラを用いて、その動画ファイルを再生する場合には、MDPに記録されているテキストデータを表示することができる。また、オーバーレイビットマップは表示可能であるが、MDPは表示できない再生機を用いて、その動画ファイルを再生する場合には、オーバーレイビットマップに記録されているビットマップデータを表示することができる。このように、MDPにテキストデータを記録し、オーバーレイビットマップにビットマップデータを記録しておくことにより、例えば、異なる機能を備える装置に動画ファイルを移動させた場合でも、何れかのデータを表示することができる。
次に、AVCHD規格におけるファイル管理情報にテキストデータを記録する場合について図面を参照して詳細に説明する。最初に、AVCHD規格におけるクリップインフォメーションファイルにテキストデータを記録する場合について説明する。
図15は、AVCHD規格におけるクリップインフォメーションファイルのデータ構造を示す図である。
このクリップインフォメーションファイルにおいて、フィールド「type_indicator」は、32ビット(8ビット×4バイト)のデータ長を有し、このファイルのファイルタイプがクリップインフォメーションファイルであることを示す識別子である。フィールド「version_number」は、32ビットのデータ長を有し、固定値が記入される。
このクリップインフォメーションファイルは、ブロック「ClipInfo()」、ブロック「SequenceInfo()」、ブロック「ProgramInfo()」およびブロック「CPI()」を有する。また、ブロック「ClipMark()」およびブロック「ExtensionData()」を有する。そして、それぞれ32ビットのデータ長を有するフィールドによって各々対応するブロックの開始アドレスを示す。これらのフィールドは、フィールド「SequenceInfo_start_address」、フィールド「ProgramInfo_start_address」およびフィールド「CPI_start_address」である。また、フィールド「ClipMark_start_address」およびフィールド「ExtensionData_start_address」である。
フィールド「ExtensionData_start_address」は、このクリップインフォメーションファイルの先頭からの相対バイト数によって、ブロック「ExtensionData()」の開始アドレスを示す。相対バイト数は、「0」から開始される。もし、このフィールド「ExtensionData_start_address」の値が「0」であれば、このクリップインフォメーションファイル内に、ブロック「ExtensionData()」が存在しないことを示す。
ブロック「ClipInfo()」は、これらの開始アドレスを示すフィールドに続く、96ビットのデータ長を有する領域「reserved_for_future_use」の次から開始される。ブロック「ClipInfo()」は、このクリップインフォメーションファイルが管理するクリップAVストリームに関する情報を記述するものである。
ブロック「SequenceInfo()」は、システムタイムベースやアライバルタイムベースの連続しているシーケンスをまとまりとして管理する情報を記述するものである。ここで、システムタイムベースはSTC(System Time Clock)であり、アライバルタイムベースはATC(Arrival Time Clock)である。
ブロック「ProgramInfo()」は、このクリップインフォメーションファイルに管理されるクリップAVストリームの符号化方式、クリップAVストリーム中のビデオデータのアスペクト比などの情報を記述するものである。
ブロック「CPI()」は、ストリームファイル全体の時間の位置と空間の位置との間のマッピングテーブルに関する情報が格納される。なお、ブロック「ClipMark()」には、有意な情報は含まれていない。
ブロック「ExtensionData()」は、拡張データを格納することができる領域である。このブロック「ExtensionData()」については、図16を参照して詳細に説明する。
図16は、AVCHD規格におけるクリップインフォメーションファイルのブロック「ExtensionData()」のデータ構造を示す図である。
このブロック「ExtensionData()」において、フィールド「type_indicator」は、32ビット(8ビット×4バイト)のデータ長を有する。そして、このブロックのタイプがクリップインフォメーションファイルにおける拡張データであることを示す識別子である。
このブロック「ClipExtensionData()」は、ブロック「ClipInfoExt()」、ブロック「ProgramInfoExt()」およびブロック「MakersPrivateData()」を有する。そして、それぞれ32ビットのデータ長を有するフィールド「ProgramInfoExt_start_address」および「MakersPrivateData_start_address」により各々対応するブロックの開始アドレスを示す。なお、ブロック「ClipInfoExt()」は、これらの開始アドレスを示すフィールドに続く、192ビットのデータ長を有する領域「reserved_for_future_use」の次から開始される。
フィールド「MakersPrivateData_start_address」は、このブロック「ClipExtensionData()」の先頭からの相対バイト数によって、ブロック「MakersPrivateData()」の開始アドレスを示す。相対バイト数は、「0」から開始される。もし、このフィールド「MakersPrivateData_start_address」の値が「0」であれば、このブロック「ClipExtensionData()」内に、ブロック「MakersPrivateData()」が存在しないことを示す。このブロック「MakersPrivateData()」は、このクリップインフォメーションファイルに関して、メーカ独自の情報が記述されるブロックである。なお、このブロック「MakersPrivateData()」については、図17を参照して詳細に説明する。
図17は、AVCHD規格におけるクリップインフォメーションファイルのブロック「MakersPrivateData()」のデータ構造を示す図である。
このブロック「MakersPrivateData()」において、フィールド「length」は、32ビットのデータ長を有する。そして、このフィールド「length」の直後からこのブロック「MakersPrivateData()」の終わりまでのデータ長を示す。このフィールド「length」が値「0」の場合には、この「MakersPrivateData()」に情報が記述されていないことを示す。フィールド「length」が値「0」以外の場合には、if文以下の記述がなされる。
フィールド「data_block_start_address」は、32ビットのデータ長を有する。そして、メーカ独自情報本体が格納されるブロック「data_block()」の開始アドレスを、このブロック「MakersPrivateData()」の先頭バイトからの相対バイト数で示す。24ビットのデータ長を有するフィールド「reserved_for_word_align」を介して、8ビットのデータ長を有するフィールド「number_of_maker_entries」が配される。
次のfor文に従い、フィールド「number_of_maker_entries」で示される個数だけ拡張データのエントリが記述される。具体的には、フィールド「maker_ID」、フィールド「maker_model_code」、フィールド「mpd_start_address」およびフィールド「mpd_length」が記述される。
フィールド「maker_ID」およびフィールド「maker_model_code」は、それぞれ16ビットのデータ長を有し、メーカの識別情報および当該メーカによる機種の識別情報が記述される。また、フィールド「mpd_start_address」およびフィールド「mpd_length」は、それぞれ32ビットのデータ長を有する。そして、拡張データの本体が格納されるブロック「data_block()」の、このブロック「MakersPrivateData()」の先頭バイトからの相対バイト数による開始アドレスと、データ長とを示す。
フィールド「number_of_maker_Entries」で示される個数だけ拡張データのエントリが記述される。この記述により、それぞれ16ビットのデータ長を有し任意のデータ列からなるフィールド「padding_word」が、2フィールドを組として任意の回数だけ繰り返される。その後、拡張データの本体が格納されるブロック「data_block()」が記述される。ブロック「data_block()」は、1以上の拡張データが格納される。すなわち、フィールド「maker_ID」およびフィールド「maker_model_code」で示されるメーカおよび機種毎に、メーカ独自の拡張データがブロック「data_block()」に格納される。それぞれの拡張データは、フィールド「mpd_start_address」およびフィールド「mpd_length」に基づいて、ブロック「data_block()」から取り出される。
本発明の実施の形態では、位置情報処理部171により変換されたテキストデータをブロック「data_block()」に記憶する。また、ブロック「data_block()」に位置情報構造体を定義し、この位置情報構造体にGPS信号処理部105により算出された位置情報を記録することができる。これらのデータ構造例については、図18に示す。
図18は、AVCHD規格におけるクリップインフォメーションファイルのブロック「data_block()」に定義するデータ構造例を示す図である。
図18(a)には、位置情報処理部171により変換されたテキストデータをブロック「data_block()」に記憶する場合におけるデータ構造例を示す。例えば、256バイトのデータ長までのテキストデータを記録することができる。
図18(b)には、GPS信号処理部105により算出された位置情報をブロック「data_block()」に記憶する場合におけるデータ構造例を示す。なお、図18(b)に示す内容は、例えば、図11に示すMDPのID「0xB0」乃至「0xC8」のGPSに関する情報に対応する内容とすることができる。また、図18(a)に示すテキストデータと、図18(b)に示す位置情報(GPS情報)とをブロック「data_block()」に記憶することができる。このように、例えば、MDPに記録されるGPS情報およびテキストデータと同じデータを、クリップインフォメーションファイルに記録させることができる。この場合には、例えば、対応するチャプタのAVストリームに記録されたGPS情報の中の最初の有効なGPS情報(代表GPS情報)と、これに対応するテキストデータのみをクリップインフォメーションファイルに記録することができる。
このように、クリップインフォメーションファイルにテキストデータを記憶させることができる。これにより、GPS情報を地名等のテキストデータに変換するための変換データベースを備えていない再生装置で再生する場合でも、再生の対象となる動画とともに、この動画が撮影された場所に関するテキストデータを表示することができる。また、AVストリームをデコードする前の状態でも、再生の対象となる動画が撮影された場所に関するテキストデータを表示させることができる。また、テキストデータとともに位置情報をクリップインフォメーションファイルに記憶させることができる。これにより、AVストリームをデコードする前の状態でも、再生の対象となる動画が撮影された場所に関する位置情報を用いることができる。
次に、AVCHD規格におけるプレイリストファイルにテキストデータを記録する場合について説明する。
図19は、AVCHD規格におけるプレイリストファイルのブロック「ExtensionData()」のデータ構造を示す図である。このブロック「ExtensionData()」は、プレイリストファイルにおける拡張データを格納することができる領域である。
このブロック「ExtensionData()」において、フィールド「length」は、32ビットのデータ長を有し、このフィールド「length」の直後からこのブロック「ExtensionData()」の終わりまでのデータ長を示す。このフィールド「length」が値「0」の場合には、このブロック「ExtensionData()」に情報が記述されていないことを示す。フィールド「length」が値「0」以外の場合には、if文以下の記述がなされる。
フィールド「data_block_start_address」は、32ビットのデータ長を有する。そして、拡張データが格納されるブロック「data_block()」の開始アドレスを、このブロック「ExtensionData()」の先頭バイトからの相対バイト数で示す。24ビットのデータ長を有するフィールド「reserved_for_word_align」を介して、8ビットのデータ長を有するフィールド「number_of_ext_data_entries」が配される。
次のfor文に従い、フィールド「number_of_ext_data_entries」で示される個数だけ拡張データのエントリが記述される。具体的には、フィールド「ID1」、フィールド「ID2」、フィールド「ext_data_start_address」およびフィールド「ext_data_length」が記述される。
フィールド「ID1」およびフィールド「ID2」は、それぞれ16ビットのデータ長を有し、識別情報が記述される。また、フィールド「ext_data_start_address」およびフィールド「ext_data_length」は、それぞれ32ビットのデータ長を有する。そして、拡張データの本体が格納されるブロック「data_block()」の、このブロック「ExtensionData()」の先頭バイトからの相対バイト数による開始アドレスと、データ長とを示す。
フィールド「number_of_ext_data_entries」で示される個数だけ拡張データのエントリが記述される。この記述により、それぞれ16ビットのデータ長を有し任意のデータ列からなるフィールド「padding_word」が、2フィールドを組として任意の回数だけ繰り返される。その後、拡張データの本体が格納されるブロック「data_block()」が記述される。ブロック「data_block()」は、1以上の拡張データが格納される。それぞれの拡張データは、フィールド「ext_data_start_address」およびフィールド「ext_data_length」に基づいて、ブロック「data_block()」から取り出される。なお、このブロック「data_block()」については、図20を参照して詳細に説明する。
図20は、AVCHD規格におけるブロック「blkPlayListMarkExt()」のデータ構造を示す図である。このブロック「blkPlayListMarkExt()」は図19に示すプレイリストファイルのブロック「ExtensionData()」に含まれるブロック「data_block()」であり、チャプタマークに関する拡張データを記憶するものである。
このブロック「blkPlayListMarkExt()」には、データ長を示すフィールド「Length」およびチャプタマーク数を示すフィールド「NumberOfPlayListMarks」が含まれる。そして、これらに続いてチャプタマーク毎にブロック「blkMarkExtension」が記憶される。
ここで、「MarkName」および「MakersInformation」には、テキストデータを記録することができる。そこで、本発明の実施の形態では、位置情報変換データベース160を用いて位置情報処理部171により位置情報が変換されたテキストデータを、「MarkName」および「MakersInformation」に記憶する。
「MarkName」に記憶されているテキストデータは、例えば、チャプタ名として表示させることができる。このため、例えば、位置情報処理部171により変換された地名のテキストデータを「MarkName」に記憶することができる。また、例えば、「MakersInformation」には、「MarkName」とは異なるテキストデータを記憶することができる。例えば、位置情報処理部171が、GPS信号処理部105により算出された位置情報に含まれる緯度および経度を、緯度や経度等を表すテキストデータに変換する。そして、このテキストデータを「MakersInformation」に記憶することができる。この緯度や経度等を表すテキストデータは、例えば、「北○○°○○′東○○°○○′」等の文字とすることができる。
このように、テキストデータを「MarkName」または「MakersInformation」に記憶させることができる。これにより、GPS情報を地名等のテキストデータに変換するための変換データベースを備えていない再生装置で再生する場合でも、再生の対象となる動画とともに、この動画が撮影された場所に関するテキストデータを表示することができる。また、AVストリームをデコードする前の状態でも、再生の対象となる動画が撮影された場所に関するテキストデータを表示させることができる。さらに、例えば、「MarkName」に地名のテキストデータを記憶させ、「MakersInformation」に緯度や経度等を表すテキストデータを記憶させた場合には、他の再生装置で「地名」および緯度や経度等を表示させることができる。また、クリップインフォメーションファイルおよびムービープレイリストファイルにテキストデータ等を記録する場合には、例えば、AVストリームのデコード機能を備えていない再生装置でも動画に関する地名等を表示させることができる。これにより、動画の内容を迅速に把握することができる。
また、クリップインフォメーションファイルおよびムービープレイリストファイルに、位置情報およびテキストデータを記録する場合には、それぞれに異なる情報を記録するようにしてもよい。また、MDP、オーバーレイビットマップ、クリップインフォメーションファイルおよびムービープレイリストファイルのそれぞれに記録する場合についても、同様に、それぞれに異なる情報を記録することができる。この場合に、例えば、MDP、オーバーレイビットマップにはフレーム毎に情報を記録し、クリップインフォメーションファイルおよびムービープレイリストファイルにはチャプタ毎の代表的な情報のみを記録することができる。このように、本発明の実施の形態によれば、位置情報、テキストデータおよびビットマップデータを複数の階層に記録して利用することができる。
次に、本発明の実施の形態における情報記録装置100の動作について図面を参照して説明する。
図21は、本発明の実施の形態における情報記録装置100による動画記録処理の処理手順を示すフローチャートである。この例では、位置情報およびテキストデータをAVCHD規格によるMDPに記録する例について説明する。
最初に、動画記録の開始操作が行われたか否かが判断される(ステップS901)。例えば、動画記録モードが設定されている状態で、録画ボタンを押下する押下操作が受け付けられたか否かが判断される。動画記録の開始操作が行われていない場合には(ステップS901)、動画記録処理の動作を終了する。
動画記録の開始操作が行われた場合には(ステップS901)、撮像信号処理部102から出力されたデジタルビデオデータと、音声信号処理部104から出力されたデジタルオーディオデータとが入力される(ステップS902)。なお、ステップS902は、特許請求の範囲に記載の動画入力手順の一例である。そして、圧縮処理部150が、入力されたデジタルビデオデータおよびデジタルオーディオデータを圧縮符号化する(ステップS903)。続いて、GPS信号処理部105から出力された位置情報が入力され(ステップS904)、位置情報処理部171が、位置情報変換データベース160に格納されている変換情報を用いて、位置情報をテキストデータに変換する(ステップS905)。なお、ステップS904は、特許請求の範囲に記載の位置情報取得手順の一例である。
続いて、入力された位置情報と変換されたテキストデータとが管理情報処理部172から多重化処理部174に出力され、MDPに記録される(ステップS906)。続いて、デジタルビデオデータが圧縮符号化されたビデオリストリームに、位置情報およびテキストデータが格納されたMDPが記録される(ステップS907)。続いて、多重化処理部174が、MDPが記録されたビデオストリームと、圧縮符号化されたオーディオストリームとを多重化してTSストリームを生成する(ステップS908)。続いて、生成されたTSストリームが動画ファイル化されて記録媒体180に記録される(ステップS909)。なお、生成されたTSストリームは、一時的にストリームバッファ175に蓄積され、ストリームバッファ175に所定量以上のデータが蓄積されると、TSストリームが記録媒体180に記録される。
続いて、動画記録の終了操作が行われたか否かが判断される(ステップS910)。例えば、動画記録が行われている状態で、録画ボタンを押下する押下操作が受け付けられたか否かが判断される。そして、動画記録の終了操作が行われていない場合には(ステップS910)、ステップS902に戻る。一方、動画記録の終了操作が行われた場合には(ステップS910)、動画記録処理の動作を終了する。
図22は、本発明の実施の形態における情報記録装置100による動画記録処理の処理手順を示すフローチャートである。この例では、ビットマップデータをAVCHD規格によるオーバーレイビットマップストリームとして記録する例について説明する。なお、この処理手順は、図21に示す処理手順の変形例である。このため、図22に示すステップS901乃至S904、S909およびS910については、図21に示すステップS901乃至S904、S909およびS910と同一の処理手順であるため、ここでの説明を省略する。
GPS信号処理部105から出力された位置情報が入力され(ステップS904)、位置情報処理部171が、位置情報変換データベース160に格納されている変換情報を用いて、位置情報をビットマップデータに変換する(ステップS921)。続いて、位置情報処理部171が、変換されたビットマップデータに対応するオーバーレイビットマップストリームを生成する(ステップS922)。続いて、多重化処理部174が、圧縮符号化されたビデオストリームおよびオーディオストリームと、生成されたオーバーレイビットマップストリームとを多重化してTSストリームを生成する(ステップS923)。
図23は、本発明の実施の形態における情報記録装置100による動画および動画管理ファイルの記録処理の処理手順を示すフローチャートである。この例では、AVCHD規格によるクリップインフォメーションファイルおよびムービープレイリストファイルに、位置情報およびテキストデータを記録する例について説明する。なお、この処理手順は、図21に示す処理手順の変形例である。このため、図23に示すステップS901乃至S904、S909およびS910については、図21に示すステップS901乃至S904、S909およびS910と同一の処理手順であるため、ここでの説明を省略する。
GPS信号処理部105から出力された位置情報が入力され(ステップS904)、管理情報処理部172が、チャプタ境界が分かるように、位置情報を動画管理情報として管理情報保持部173にテーブル保持する(ステップS931)。続いて、多重化処理部174が、圧縮符号化されたビデオストリームおよびオーディオストリームを多重化してTSストリームを生成する(ステップS932)。
動画記録の終了操作が行われた場合には(ステップS910)、動画管理ファイル記録処理が行われ(ステップS940)、動画および動画管理ファイルの記録処理の動作を終了する。なお、動画管理ファイル記録処理については、図24を参照して詳細に説明する。
図24は、本発明の実施の形態における情報記録装置100による動画および動画管理ファイルの記録処理の処理手順のうちの動画管理ファイル記録処理手順(図23に示すステップS940の処理手順)を示すフローチャートである。
最初に、管理情報処理部172が、管理情報保持部173にテーブル保持されている位置情報を取得する(ステップS941)。続いて、管理情報処理部172が、取得された位置情報の中から、代表となる位置情報である代表位置情報を決定する(ステップS942)。例えば、チャプタ毎に保持されているテーブル内の有効なレコードのうちの最初のレコードを代表位置情報とすることができる。
続いて、位置情報処理部171が、決定された代表位置情報を、位置情報変換データベース160に格納されている変換情報を用いて、テキストデータに変換する(ステップS943)。なお、ステップS943は、特許請求の範囲に記載の位置情報変換手順の一例である。
続いて、管理情報処理部172が、決定された代表位置情報と、変換されたテキストデータとをクリップインフォメーションファイルおよびビームープレイリストファイルに記録する(ステップS944)。なお、ステップS944は、特許請求の範囲に記載の動画管理情報生成手順の一例である。続いて、管理情報処理部172により代表位置情報およびテキストデータが記録されたクリップインフォメーションファイルを、記録制御部176が記録媒体180に記録させる(ステップS945)。続いて、管理情報処理部172により代表位置情報およびテキストデータが記録されたビームープレイリストファイルを、記録制御部176が記録媒体180に記録させる(ステップS946)。なお、ステップS945およびS946は、特許請求の範囲に記載の記録制御手順の一例である。続いて、記録制御部176が、インデックスファイルおよびムービーオブジェクトファイルを記録媒体180に記録させる(ステップS947)。
次に、位置情報、位置情報が変換されたビットマップデータまたはテキストデータを用いてメニュー画面を作成する例について図面を参照して詳細に説明する。
図25は、本発明の実施の形態における情報記録装置300の機能構成例を示す図である。情報記録装置300は、ユーザインターフェース310と、システム制御部320と、記録媒体180とを備える。記録媒体180は、図1および図2に示す記録媒体180と同様であるため、同一の符号を付して、ここでの説明を省略する。情報記録装置300は、例えば、記録媒体180に記憶されている動画ファイルについて各種画像処理を施すことが可能なデジタルビデオカメラやパーソナルコンピュータ等によって実現することができる。
ユーザインターフェース310は、ユーザによって入力された操作内容を受け付けるユーザインターフェースであり、受け付けられた操作内容に応じた制御信号をシステム制御部320に出力する。例えば、メニュー画面作成指示ボタン等の操作部材が情報記録装置300に備えられている。メニュー画面作成指示ボタンは、記録媒体180に記憶されている動画ファイルに関するメニュー画面を作成する際に押下されるボタンである。なお、ユーザインターフェース310を、例えば、タッチパネルとして構成するようにしてもよい。
システム制御部320は、ユーザインターフェース310から出力された制御信号に基づいて、記録媒体180に記憶されている動画ファイルについて、所定の動画記録フォーマットによりメニュー画面を生成するものである。そして、生成されたメニュー画面を動画ファイルとして記録媒体180に記録させる。この動画記録フォーマットとして、例えば、AVCHD規格の動画記録フォーマットを採用することができる。システム制御部320は、位置情報変換データベース160と、記録媒体制御部341と、ストリームバッファ342と、分離処理部343と、位置情報処理部345と、管理情報処理部344とを備える。また、システム制御部320は、展開処理部350と、圧縮処理部360と、メニュー画面背景データ記憶部371と、メニュー画面生成部372と、多重化処理部373とを備える。
制御部330は、下位モジュールを制御するものであり、メニュー画面作成シーケンスを行う。制御部330は、例えば、CPU、RAM、ROM等により構成される。また、制御部330は、ユーザインターフェース310から出力された制御信号に従って、ROMに予め記憶されているプログラムやデータに基づいて、RAMをワークメモリとして用いてシステム制御部320の各部を制御する。例えば、メニュー画面作成指示ボタンを押下する押下操作がユーザインターフェース310により受け付けられた場合には、制御部330はメニュー画面作成を行う制御を行う。
記録媒体制御部341は、制御部330の制御に基づいて、記録媒体180への記録、または読み出しの制御を行うものである。すなわち、記録媒体制御部341は、記録媒体180に記憶されている動画ファイルおよび動画管理ファイルを読み出して、動画ファイルに対応するAVストリームをストリームバッファ342に出力し、動画管理ファイルを管理情報処理部344に出力する。また、記録媒体制御部341は、ストリームバッファ342に蓄積されたAVストリームをメニュー動画ファイルとして記録媒体180に記録させる。
例えば、メニュー画面作成指示ボタンの押下操作がユーザインターフェース310により受け付けられた場合には、制御部330の制御に基づいて、動画ファイルおよび動画管理ファイルを記録媒体180から読み出す読出動作が開始される。そして、メニュー画面生成部372により生成されたメニュー画面のデータがビデオエンコーダ361により圧縮符号化され、圧縮符号化されたメニュー画面のデータが、多重化処理部373により所定の形式でパケット化され多重化される。そして、生成されたメニュー画面のデータストリームが、ストリームバッファ342を介して、記録媒体制御部341に供給され、メニュー動画ファイルとして記録媒体180に記録される。
ストリームバッファ342は、記録媒体制御部341から出力された動画ファイルのデータストリームを一時的に蓄積するバッファであり、蓄積されている動画ファイルのデータストリームが分離処理部343に順次供給される。また、ストリームバッファ342は、多重化処理部373から出力されたデータストリームを一時的に蓄積し、蓄積されているデータストリームが記録媒体制御部341の制御に基づいて、記録媒体180に記録される。
分離処理部343は、ストリームバッファ342から供給されたデータストリームをビデオストリームと、オーディオストリームと、ビットマップストリームと、プライベートストリームとに分離するものである。そして、分離されたビデオストリームを展開処理部350に出力するとともに、ビットマップストリームおよびプライベートストリームを位置情報処理部345に出力する。
管理情報処理部344は、記録媒体制御部341から出力された動画管理ファイルに含まれる位置情報と、場所に関するテキストデータおよびビットマップデータとを取得するものである。そして、取得された位置情報、テキストデータおよびビットマップデータを位置情報処理部345に出力する。例えば、動画記録フォーマットとしてAVCHD規格の動画記録フォーマットを採用する場合には、プレイリストファイルおよびクリップインフォメーションファイルに含まれる位置情報および場所に関するテキストデータが取得される。
位置情報処理部345は、分離処理部343から出力されたビットマップストリームおよびプライベートストリームに基づいて、場所に関するテキストデータまたはビットマップデータを取得するものである。例えば、動画記録フォーマットとしてAVCHD規格の動画記録フォーマットを採用する場合には、ビットマップストリームに含まれるビットマップデータが取得される。また、位置情報処理部345は、管理情報処理部344から出力された位置情報、テキストデータおよびビットマップデータを取得する。そして、取得された位置情報を、位置情報変換データベース160を用いて、場所に関するテキストデータまたはビットマップデータに変換する。また、位置情報処理部345は、取得された場所に関するテキストデータまたはビットマップデータ、または、変換された場所に関するテキストデータまたはビットマップデータをメニュー画面生成部372に出力する。なお、位置情報変換データベース160については、図2に示すものと同一であるため、同一の符号を付して、ここでの説明を省略する。
展開処理部350は、ビデオデコーダ351を備える。ビデオデコーダ351は、分離処理部343から出力されたビデオストリームを、所定の復号化方式により復号化するものである。また、展開処理部350は、復号化されたビデオストリームを構成する各チャプタの代表画像を展開し、この代表画像をメニュー画面生成部372に出力する。この代表画像として、例えば、ビデオストリームを構成する各チャプタの先頭のIピクチャを選択することができる。
メニュー画面背景データ記憶部371は、メニュー画面生成部372により生成されるメニュー画面の背景画面を記憶するものであり、記憶されている背景画面をメニュー画面生成部372に供給する。この背景画面は、例えば、図26に示すメニュー画面380のうちの地名387乃至392および代表画像371乃至386の領域以外の領域を含む画面である。
メニュー画面生成部372は、記録媒体180から読み出された動画ファイルに関するメニュー画面を生成するものであり、生成されたメニュー画面を圧縮処理部360に出力する。例えば、メニュー画面生成部372は、メニュー画面背景データ記憶部371から供給された背景画面の代表画像表示領域に、展開処理部350から出力された代表画像を合成する。また、メニュー画面生成部372は、メニュー画面背景データ記憶部371から供給された背景画面の地名表示領域に、位置情報処理部345から出力された場所に関するテキストデータまたはビットマップデータを合成する。そして、代表画像と、テキストデータまたはビットマップデータとが合成されたメニュー画面を圧縮処理部360に出力する。
圧縮処理部360は、ビデオエンコーダ361を備える。ビデオエンコーダ361は、メニュー画面生成部372から出力されたメニュー画面のデジタルビデオデータを、所定の圧縮符号化方式により圧縮符号化するものである。そして、圧縮符号化されたデジタルビデオデータをビデオリストリームとして多重化処理部373に供給する。
多重化処理部373は、圧縮処理部360から出力されたビデオストリームを所定の方式で多重化して1本のAVストリームとして出力するものである。そして、多重化されたAVストリームがストリームバッファ342に出力される。そして、ストリームバッファ342に蓄積されたデータストリームが、メニュー動画ファイルとして記録媒体制御部341により記録媒体180に記録される。
図26は、本発明の実施の形態におけるメニュー画面生成部372により生成されるメニュー画面の一例を示す図である。メニュー画面380は、1つの画面に6つの代表画像を表示するメニュー画面である。すなわち、メニュー画面380は、メニュー画面背景データ記憶部371に記憶されているメニュー画面の背景画面に、代表画像371乃至386と、これらに対応する場所に関する文字387乃至392とが合成されている画面である。代表画像381乃至386は、記録媒体180に記憶されている動画ファイルを構成するチャプタの代表画像である。また、文字387乃至392は、代表画像381乃至386に対応する場所に関するテキストデータまたはビットマップデータである。この例では、代表画像とともに代表画像に対応する文字を合成する例を示すが、例えば、ビットマップデータとしてシンボルマークが格納されている場合には、代表画像とともに代表画像に対応するシンボルマークを合成するようにしてもよい。このように、場所に関するテキストデータまたはビットマップデータを合成したメニュー画面を予め生成して記憶しておく。これにより、例えば、GPS情報を地名等のデータに変換するための変換データベースを備えていない再生装置で再生する場合でも、場所に関する文字を含む動画一覧画面を表示することができる。また、AVストリームをデコードする前の状態でも、場所に関する文字を含む動画一覧画面を表示させることができる。
次に、動画ファイルまたは動画管理ファイルに記録されているビットマップデータまたはテキストデータを再生する例について図面を参照して詳細に説明する。
図27は、本発明の実施の形態における再生装置400の機能構成例を示すブロック図である。再生装置400は、表示制御部401と、表示部402と、音声制御部403と、音声出力部404と、ユーザインターフェース410と、システム制御部420と、記録媒体180とを備える。記録媒体180は、図1および図2に示す記録媒体180と同様であるため、同一の符号を付して、ここでの説明を省略する。再生装置400は、例えば、デジタルビデオカメラ等の撮像装置により記録された動画ファイルを生成することが可能なパーソナルコンピュータ等の再生装置によって実現することができる。
表示制御部401は、システム制御部420から出力されたデジタルビデオデータに基づいて、表示部402に動画等を表示させる制御を行うものである。例えば、表示制御部401は、システム制御部420からメニュー画面のデジタルビデオデータが出力された場合には、このメニュー画面を表示部402に表示させる。
表示部402は、表示制御部401からの制御に基づいて、記録媒体180に記憶されている動画ファイルに対応する動画や、メニュー画面等を表示するものである。表示部402は、例えば、パーソナルコンピュータやテレビジョンのディスプレイにより実現することができる。
音声制御部403は、システム制御部420から出力されたデジタルオーディオデータに基づいて、音声出力部404に音声を出力させる制御を行うものである。
音声出力部404は、音声制御部403からの制御に基づいて、記録媒体180に記憶されている動画ファイルに対応する動画の音声情報を出力するものである。音声出力部404は、例えば、スピーカにより実現することができる。
ユーザインターフェース410は、ユーザによって入力された操作内容を受け付けるユーザインターフェースであり、受け付けられた操作内容に応じた制御信号をシステム制御部420に出力する。例えば、動画再生モード設定/解除ボタン、再生ボタン等の操作部材が再生装置400に備えられている。動画再生モード設定/解除ボタンは、動画の再生を可能な状態にする動画再生モードの設定または解除を行う際に押下されるボタンである。再生ボタンは、動画再生モードが設定されている場合に、動画再生を開始または終了する際に押下されるボタンである。なお、ユーザインターフェース410を、例えば、タッチパネルとして構成するようにしてもよい。
システム制御部420は、ユーザインターフェース410から出力された制御信号に基づいて、動画等の再生制御を行うものである。なお、システム制御部420については、図28を参照して詳細に説明する。
図28は、本発明の実施の形態におけるシステム制御部420の機能構成例を示すブロック図である。システム制御部420は、位置情報変換データベース160と、制御部430と、読出制御部441と、ストリームバッファ442と、分離処理部443とを備える。また、システム制御部420は、管理情報処理部444と、位置情報処理部445と、画面グラフィックス生成部446と、展開処理部450と、データ出力部460とを備える。
制御部430は、下位モジュールを制御するものであり、動画再生シーケンスを行う。制御部430は、例えば、CPU、RAM、ROM等により構成される。また、制御部430は、ユーザインターフェース410から出力された制御信号に従って、ROMに予め記憶されているプログラムやデータに基づいて、RAMをワークメモリとして用いてシステム制御部420の各部を制御する。例えば、動画再生モード設定/解除ボタンを押下する押下操作がユーザインターフェース410により受け付けられた場合には、制御部430は動画再生モードを設定する制御を行う。また、動画再生モードが設定されている状態で、再生ボタンを押下する押下操作がユーザインターフェース410により受け付けられた場合には、制御部430は動画を再生させる制御を行う。
読出制御部441は、制御部430の制御に基づいて、記録媒体180に記憶されている動画ファイルおよび動画管理ファイルを読み出す制御を行うものである。そして、読み出された動画ファイルに対応するAVストリームをストリームバッファ442に出力するとともに、動画管理ファイルを管理情報処理部444に出力する。例えば、動画再生モードが設定されている状態で再生ボタンを押下する押下操作がユーザインターフェース410により受け付けられた場合、制御部430の制御に基づいて動画ファイルおよび動画管理ファイルを記録媒体180から読み出す読出動作が開始される。
ストリームバッファ442は、読出制御部441から出力された動画ファイルのAVストリームを一時的に蓄積するバッファであり、蓄積されている動画ファイルのAVストリームが分離処理部443に順次供給される。
分離処理部443は、ストリームバッファ442から供給されたAVストリームをビデオストリームと、オーディオストリームと、ビットマップストリームと、プライベートストリームとに分離するものである。そして、分離されたビデオストリームを展開処理部450に出力するとともに、ビットマップストリームおよびプライベートストリームを位置情報処理部445に出力する。
管理情報処理部444は、読出制御部441から出力された動画管理ファイルに含まれる位置情報と、場所に関するテキストデータおよびビットマップデータとを取得するものである。そして、取得された位置情報、テキストデータおよびビットマップデータを位置情報処理部445に出力する。例えば、動画記録フォーマットとしてAVCHD規格の動画記録フォーマットを採用する場合には、プレイリストファイルおよびクリップインフォメーションファイルに含まれる位置情報および場所に関するテキストデータが取得される。
位置情報処理部445は、分離処理部443から出力されたビットマップストリームおよびプライベートストリームに基づいて、場所に関するテキストデータまたはビットマップデータを取得するものである。例えば、動画記録フォーマットとしてAVCHD規格の動画記録フォーマットを採用する場合には、ビットマップストリームに対応するビットマップデータが取得される。また、位置情報処理部445は、管理情報処理部444から出力された位置情報を、位置情報変換データベース160を用いて、場所に関するテキストデータまたはビットマップデータに変換する。また、位置情報処理部445は、管理情報処理部444から出力された場所に関するテキストデータまたはビットマップデータ、または、変換された場所に関するテキストデータまたはビットマップデータを画面グラフィックス生成部446に出力する。なお、位置情報変換データベース160については、図2に示すものと同一であるため、同一の符号を付して、ここでの説明を省略する。
展開処理部450は、ビデオデコーダ451およびオーディオデコーダ452を備える。ビデオデコーダ451は、分離処理部443から出力されたビデオストリームを、所定の復号化方式により復号化するものであり、復号化されたデジタルビデオデータを動画出力部461に出力する。オーディオデコーダ452は、分離処理部443から出力されたオーディオストリームを、所定の復号化方式により復号化するものであり、復号化されたデジタルオーディオデータを音声出力部462に出力する。
画面グラフィックス生成部446は、記録媒体180から読み出された動画ファイルを再生する際に表示部402に表示されるメニュー画面等のグラフィックスを生成するものであり、生成されたグラフィックスをデータ出力部460に出力する。例えば、画面グラフィックス生成部446は、位置情報処理部445から出力された場所に関するテキストデータまたはビットマップデータを動画一覧画面に合成する。この動画一覧画面の表示例については、図29を参照して詳細に説明する。
データ出力部460は、動画出力部461と、音声出力部462と、グラフィックス出力部463とを備える。動画出力部461は、ビデオデコーダ451から出力されたデジタルビデオデータを表示制御部401に出力するものである。音声出力部462は、オーディオデコーダ452から出力されたデジタルオーディオデータを音声制御部403に出力するものである。グラフィックス出力部463は、画面グラフィックス生成部446から出力されたグラフィックスを表示制御部401に出力するものである。
図29は、本発明の実施の形態における再生装置400により表示される表示画面の表示例を示す図である。図29(a)には、動画ファイルを示す標識として、その動画ファイルに関する場所を示す文字と、その場所に関するシンボルマークとを同時に表示する例を示す。なお、場所を示す文字はテキストデータとして記録され、場所に関するシンボルマークはビットマップデータとして記録されているものとする。また、これらのデータは、動画ファイルまたは動画管理ファイルの何れに記録するようにしてもよい。例えば、場所に関するシンボルマーク501乃至506が表示され、シンボルマーク501乃至506に対応する場所を示す文字として都道府県名511乃至516が表示される。図29(a)に示す例では、例えば、都道府県名である東京都511と、東京都に関するシンボルマークである東京タワーを示す画像501とが、東京都内で記録された動画ファイルを示す標識として表示される。また、例えば、カーソル510により画像501または東京都511をクリックする操作入力がユーザインターフェース410により受け付けられた場合には、画像501または東京都511に対応する動画ファイルの再生が開始される。
図29(b)には、動画管理ファイルに格納されている位置情報等に基づいて、エリア毎に生成されたインデックス画面の表示例を示す。図29(b)に示す例では、都道府県毎にエリアを形成する例を示す。例えば、東京都インデックス画面と、神奈川県インデックス画面と、千葉県インデックス画面との何れかを表示させることが可能な再生画面520が表示される。図29(b)に示す東京都インデックス画面530は、東京都内で記録された動画ファイルに関する一覧表示されている画面である。例えば、カーソル510により東京都インデックス画面の上部にある「神奈川県」タブ540をクリックする操作入力がユーザインターフェース410により受け付けられた場合には、神奈川県インデックス画面が表示される。また、東京都インデックス画面530に表示されている画像521乃至526は、例えば、対応する動画ファイルから抽出された代表サムネイル画像である。また、例えば、カーソル510により画像521または品川区531をクリックする操作入力がユーザインターフェース410により受け付けられた場合には、画像521または品川区531に対応する動画ファイルの再生が開始される。
なお、本発明の実施の形態では、情報記録装置100、300、400を異なる装置として説明したが、これらの各機能構成を有する同一の装置により本発明の実施の形態を実現するようにしてもよい。
以上で示したように、本発明の実施の形態によれば、動画ファイルを他の再生装置に移動させたような場合でも、その動画が撮影された場所に関するテキストデータまたはビットマップを表示させることができる。例えば、GPS情報を地名等のビットマップデータに変換するための変換データベースや変換マップ等を備えていない再生装置で再生する場合でも、そのテキストデータまたはビットマップを表示させることができる。
また、本発明の実施の形態によれば、AVストリームをデコードする前の状態でも、再生の対象となる動画が撮影された場所に関するテキストデータまたはビットマップを表示させることができる。すなわち、再生の対象となる動画の内容を迅速に把握することができる。また、例えば、AVストリームをデコードするデコーダを備えていない再生装置に動画ファイルを移動させたような場合でも、その動画が撮影された場所に関するテキストデータまたはビットマップを表示させることができる。
なお、本発明の実施の形態では、GPS信号に基づいて位置情報を算出する例について説明したが、他の位置情報取得方法により位置情報を取得するようにしてもよい。例えば、周囲に存在する無線LAN(Local Area Network)によるアクセスポイント情報を用いて位置情報を導き出し、この位置情報を用いるようにしてもよい。
また、位置情報を取得して、動画を記録することが可能な携帯電話機等の他の情報記録装置に本発明の実施の形態を適用することができる。
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、上述のように特許請求の範囲における発明特定事項とそれぞれ対応関係を有する。ただし、本発明は実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。
また、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。