[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3884785B2 - Recording / reproducing apparatus, reproducing apparatus and reproducing method - Google Patents

Recording / reproducing apparatus, reproducing apparatus and reproducing method Download PDF

Info

Publication number
JP3884785B2
JP3884785B2 JP28979095A JP28979095A JP3884785B2 JP 3884785 B2 JP3884785 B2 JP 3884785B2 JP 28979095 A JP28979095 A JP 28979095A JP 28979095 A JP28979095 A JP 28979095A JP 3884785 B2 JP3884785 B2 JP 3884785B2
Authority
JP
Japan
Prior art keywords
file
information
image
recording medium
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28979095A
Other languages
Japanese (ja)
Other versions
JPH09135412A (en
Inventor
琢 山上
明 間宮
隆志 相沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP28979095A priority Critical patent/JP3884785B2/en
Publication of JPH09135412A publication Critical patent/JPH09135412A/en
Application granted granted Critical
Publication of JP3884785B2 publication Critical patent/JP3884785B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、記録再生装置、再生装置、及び再生方法に関するものである。
【0002】
【従来の技術】
近年、半導体メモリカードや小型のハードディスクなどのPCMCIA(Personal Computer Memory Card International Association )記録媒体に画像や音声をデジタル信号として記録する技術が開発されるに至っている。
【0003】
例えば、撮影した画像を上記PCMCIA記録媒体にデジタル記録するデジタル電子スチルカメラがある。このPCMCIA記録媒体には、例えば、上記電子スチルカメラによって撮影した画像の注釈情報として音声を記録することも可能である。また、PCMCIA記録媒体に記録されたデータは、パーソナルコンピュータで読み込むことができるように構成されている。
【0004】
上記デジタル電子スチルカメラが発生する画像データのフォーマットの従来例としては、JEIDA(日本電子工業振興協会)発行の“デジタルスチルカメラ用ICメモリカードガイドラインDSC68ピン規格”に記載されているフォーマットがある。
【0005】
この規格においては、PCMCIA記録媒体はMS−DOS(米国マイクロソフト社の登録商標)互換のブロックデバイスとして利用され、画像データおよび音声データは、PCMCIA記録媒体上に個別のファイルとして記録される。また、画像に関連する付帯情報、例えば撮影年月日、撮影モード、撮影条件などの情報は、個々の画像ファイルの中に記録される。
【0006】
このPCMCIA記録媒体に記録された画像ファイルや音声ファイルをパーソナルコンピュータ上で再生しようとする場合、MS−DOSの機能を用いて、例えば特定のサブディレクトリに存在するファイルの情報をコンピュータモニタ上に一覧表示して、再生しようとするファイルをユーザに選ばせることができるようになされている。
【0007】
ただし、この場合、MS−DOSが理解できる情報は、ファイルネームやファイル作成年月日やファイルサイズなどに限られる。このため、MS−DOSの機能を用いた場合に一覧表示される情報は、これらの情報に限られる。
【0008】
これらの情報は、MS−DOSのディレクトリ構成規約に従ってPCMCIA記録媒体上の連続領域に記録されているため、比較的高速に復元することができる。また、ファイル作成年月日を撮影年月日と一致させることで、よりユーザが分かりやすい情報を提示することも可能になる。
【0009】
【発明が解決しようとする課題】
しかしながら、MS−DOSは、撮影モードや撮影条件などについては理解できないため、これらの情報をユーザに提示するためには、それ専用のアプリケーションソフトを用意しなければならなかった。上記“ディジタルスチルカメラ用ICメモリカードガイドラインDSC68ピン規格”によれば、これらの情報は個々の画像ファイル中に個別に記録されているため、読み取りアプリケーションソフトは個々の画像ファイルを1つ1つ開いて中身を解析する必要があった。
【0010】
すなわち、読み取りアプリケーションソフトがMS−DOSに対して画像ファイル内の情報の読み取りを要求すると、MS−DOSは、PCMCIA記録媒体上における画像ファイルの配置情報を解析して情報を読み出さなければならない。画像ファイルの中身はセクタと呼ばれる小さな記録単位に分割されていて、撮影モードや撮影条件などの情報は任意の場所のセクタに配置され得る。
【0011】
したがって、アクセス能力の低い記録媒体の場合であって、かつ情報配置の方法がランダムである場合は、情報の読み取り時間が長くなってしまう。このため、大量の画像ファイルについてそれぞれの撮影モードを提示したり、撮影モードごとに画像ファイルの情報をリスト表示したりする場合は、全ての画像ファイルを開いて読み出し、更にその中身を解析する必要があるので、多量の時間を必要とし、ユーザに対する表示が著しく遅くなってしまうという問題があった。
【0012】
ところで、画像情報は、人間が見て初めて理解できる種類のものである。そこで、画像の再生時において、まず最初にその画像の縮小画像を索引画像としてモニタに表示して、画像ファイルの中身をユーザが短時間に確認できるようにした技術も提案され、多く使用されている。
【0013】
この技術においては、通常画像ファイルの縮小画像データを対応する元の画像ファイルのヘッダー部分に記録しておくことが普通である。例えば、C-CUBEMICROSYSTEMS社が発行した“JPEG File Interchange Format ver 1.02 ”には、縮小画像データを対応する画像ファイル中に格納する規約が記述されている。
【0014】
しかしながら、この規約によれば、画像ファイル中における縮小画像データの記録位置は可変である。このため、この縮小画像データの開始位置を確定するためには、画像ファイルのヘッダー部分を解析する必要があり、この解析のための処理が余分なオーバーヘッドとなってしまうという問題があった。
【0015】
特に、縮小画像を含まない画像ファイルもあることを想定すると、全ての画像ファイルを開いてヘッダー部分を解析する従来方式では、その解析時間が無駄になってしまう場合があるという問題があった。
【0016】
以上の問題は、画像ファイルに対して音声の注釈情報を付加できるようになされたシステムについても同様に発生する。例えば、どの音声ファイルを注釈情報として記録しているかという付帯情報を画像ファイル中に記録した場合は、その音声ファイルを検索するため、あるいはその音声ファイルが存在するかどうかを調べるためには、画像ファイルの中身を実際に解析しなければならない。
【0017】
このため、画像ファイルの解析によるオーバーヘッドによって、ユーザーに対する注釈情報の提示が遅くなってしまうという問題があった。
以上の問題は、電子スチルカメラとホストコンピュータとを低速の通信路、例えばRS232Cなどで接続した場合に特に顕著な問題となる。
【0018】
本発明は、このような問題を解決するためになされたものであり、画像ファイルなどに関する情報をユーザに高速に提示できるようにすることを目的とする。
【0019】
【課題を解決するための手段】
発明に係る記録再生装置の一つは、例えば、画像データを有する画像ファイルを記録媒体に記録し、音声データを有する音声ファイルを前記記録媒体に記録し、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルを前記記録媒体に記録する記録手段と、前記記録媒体から前記付帯情報用ファイルを再生する再生手段とを有し、前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得できるようにし、前記画像ファイルに対応する縮小画像と、前記音声ファイルに対応するアイコンとを表示できるようにしたことを特徴とする。
本発明に係る記録再生装置の一つは、例えば、画像データを有する画像ファイルを記録媒体に記録し、音声データを有する音声ファイルを前記記録媒体に記録し、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルを前記記録媒体に記録する記録手段と、前記記録媒体から前記付帯情報用ファイルを再生する再生手段とを有し、前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得できるようにし、前記音声ファイルに対応するアイコンを前記画像ファイルに対応する縮小画像に重ねて表示できるようにしたことを特徴とする。
【0020】
発明に係る再生装置の一つは、例えば、画像データを有する画像ファイルと、音声データを有する音声ファイルと、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルとが記録された記録媒体から前記付帯情報用ファイルを再生する再生手段を有し、前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得できるようにし、前記画像ファイルに対応する縮小画像と、前記音声ファイルに対応するアイコンとを表示できるようにしたことを特徴とする。
本発明に係る再生装置の一つは、例えば、画像データを有する画像ファイルと、音声データを有する音声ファイルと、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルとが記録された記録媒体から前記付帯情報用ファイルを再生する再生手段を有し、前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得できるようにし、前記音声ファイルに対応するアイコンを前記画像ファイルに対応する縮小画像に重ねて表示できるようにしたことを特徴とする。
【0021】
発明に係る再生方法の一つは、例えば、画像データを有する画像ファイルと、音声データを有する音声ファイルと、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルとが記録された記録媒体から前記付帯情報用ファイルを再生するステップと、前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得するステップと、前記画像ファイルに対応する縮小画像と、前記音声ファイルに対応するアイコンとを表示するステップとを有することを特徴とする。
本発明に係る再生方法の一つは、例えば、画像データを有する画像ファイルと、音声データを有する音声ファイルと、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルとが記録された記録媒体から前記付帯情報用ファイルを再生するステップと、前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得するステップと、前記音声ファイルに対応するアイコンを前記画像ファイルに対応する縮小画像に重ねて表示するステップとを有することを特徴とする。
【0031】
【発明の実施の形態】
以下、本発明の記録再生装置の一実施形態を図面に基づいて説明する。
本実施形態による記録再生装置の再生処理は、記録再生装置がPCMCIA記録媒体に記録したデータをパーソナルコンピュータで再生するときのアプリケーションの処理、および記録再生装置自身がデータを再生するときのカメラの処理において実施しうるものである。
【0032】
まず、本発明の要素的特徴を表す機能ブロック図を、図1に示す。以下、この図1を用いて本発明の特徴部分について説明する。
図1に示す記録再生装置は、大きく分けて記録装置1と記録媒体2と再生装置3とにより構成される。
【0033】
上記記録装置1は、画像記録手段11と、音声記録手段12と、付帯情報記録手段13とを備えている。ここで、画像記録手段11は、少なくとも1つ以上の画像データを記録媒体2上に画像ファイル21として記録するものである。この画像記録手段11は、1枚の画像データを記録する度に、1つの画像ファイル21とそれに対応する1つの縮小画像ファイル22とを形成する。
【0034】
また、音声記録手段12は、少なくとも1つ以上の音声データを記録媒体2上に音声ファイル23として記録するものである。この音声記録手段12は、1つの音声データを記録する度に、1つの音声ファイル23を形成する。
【0035】
また、付帯情報記録手段13は、画像や音声に関連する複数種類の付帯情報(画像や音声の記録年月日、画像や音声の記録モード、画像の撮影条件などの付属情報、および画像に対する注釈情報の種類や記録位置、複数の画像や音声を所定のテーマに沿ってまとめたグループに関する情報、縮小画像ファイルの記録位置、画像や音声の記録位置などの情報)をまとめて記録媒体2上に1つのマップファイル24として記録するものである。
【0036】
図1から明らかなように、個々の画像データは、個々の画像ファイル21として記録媒体2上に記録される。したがって、複数の画像データを記録するときは、記録媒体2上に複数の画像ファイル21が形成される。これは音声ファイル23についても同様である。
【0037】
一方、マップファイル24は1つだけ形成され、個々のファイルに関連する付帯情報が全てまとめて記録される。また、縮小画像データは、その元の画像が記録されている画像ファイル21中に埋め込まれずに、それとは別の縮小画像ファイル22として記録される。
【0038】
上記再生装置3は、マップファイル24を参照して画像ファイル21内の画像データや縮小画像ファイル22内の縮小画像データを再生する画像再生手段31と、マップファイル24を参照して音声ファイル23内の音声データを再生する音声再生手段32と、マップファイル24を参照してマップファイル24内の属性情報を再生する属性情報再生手段33とを備えている。
【0039】
上記記録媒体2上に画像ファイル21として記録された画像データを上記画像再生手段31によりパーソナルコンピュータ4で再生し、その再生画像をモニタ5に表示することが可能である。この場合、実際にその画像データをモニタ5に表示する前に、上記画像データに関連する属性情報や縮小画像などを再生してモニタ5に表示させ、それを参考にして再生するべき所望の画像ファイルをユーザに選ばせることができる。
【0040】
例えば、属性情報を再生するときは、属性情報再生手段33によりマップファイル24内から属性情報を読み出して再生する。また、縮小画像を再生するときは、画像再生手段31によりマップファイル24内の縮小画像記録位置を参照し、その記録位置に基づいて縮小画像ファイル22内の縮小画像データを読み出して再生する。
【0041】
また、画像ファイル21に記録されている画像に関する注釈情報が音声ファイル23として記録媒体2に記録されているときは、その音声による注釈情報を再生することもできる。この場合は、音声再生手段32によりマップファイル24を参照し、注釈情報の記録位置に基づいて音声ファイル23内から音声データを読み出して再生する。
【0042】
この場合、画像や音声に関連する付帯情報は1つのマップファイル24の中に全て記録されているので、このマップファイル24を開けば、情報提示に必要な付帯情報は全て得ることができる。これにより、従来のように個々の画像ファイルや音声ファイルを一つ一つ開いて付帯情報を読み出さなくても済み、ユーザに対する情報提示を従来に比べて非常に高速に行うことができるようになる。
【0043】
また、縮小画像データは、画像ファイル21とは別の縮小画像ファイル22として記録されているので、所望のファイルをユーザに選ばせるために縮小画像をモニタ5に表示する場合は、マップファイル24に記述されている縮小画像ファイル22の記録位置をもとに、縮小画像ファイル22を直接開いて縮小画像データにアクセスすることができるようになる。したがって、従来のように元の画像が記録されている画像ファイル21を1つ1つ開いて縮小画像の記録場所を解析しなくても済み、縮小画像のアクセスを高速に行うことができるようになる。
【0044】
図2は、本発明による記録再生装置の一実施形態であるカメラの記録系の構成を示すブロック図である。
図2に示すように、本実施形態によるカメラの記録系は、レンズ201、撮像デバイス202、A/D変換器203、画像メモリ204、圧縮符号化部205、記録装置206、CPU207、記録媒体208、操作部209、音声入力部210、音声A/D変換器211を備えている。なお、本実施形態に直接関係しないカメラの他の部分、例えば絞りやシャッターなどは勿論設けられている。
【0045】
図2において、レンズ201により捕えられた被写体の光学像は、その後方に位置する撮像デバイス202、例えばCharge-Coupled Device(CCD)によって電気映像信号に変換される。撮像デバイス202は、CPU207より与えられる制御信号に応答して被写体の光学像に対応する電荷の蓄積および映像信号の読み出しを行う。
【0046】
上記撮像デバイス202によって読み出された映像信号は、A/D変換器203によってデジタルの画像データに変換される。なお、撮像デバイス202とA/D変換器203との間には、図示はしていないが、ガンマ補正、色信号の形成分離、ホワイトバランス調整等の映像信号を処理する手段などが種々設けられている。
【0047】
上記A/D変換器203によりデジタル信号に変換された画像データは、画像メモリ204に蓄えられる。次に、画像メモリ204から圧縮符号化部205に画像データが読み出され、ここで圧縮符号化が施される。このデータ圧縮の方式としては、例えば国際標準方式として規定されているJPEG方式(ISO/IEC DIS 10918-1 に記載されている圧縮方式)を用いることができる。
【0048】
そして、このようにして圧縮符号化された画像データは、記録装置206を介して記録媒体208に書き込まれる。記録装置206は、例えば、記録媒体208のためのインタフェースとしてJEIDAなどで規定されたメモリカードインタフェースで構成される。すなわち、圧縮符号化部205から受け取った画像データをインタフェースプロトコルに従って記録媒体208に書き込むためのロジック回路およびインタフェースコネクタから構成される。
【0049】
また、記録媒体208としては、上記記録装置206に適合するメモリカードやハードディスクなどが用いられる。記録媒体208上のファイルフォーマットとしては、例えば、JEIDAのメモリカードDOSファイルシステム規約によるフォーマットが用いられ、このフォーマットに従って画像データや音声データやその他の付帯情報がファイルとして記録される。
【0050】
また、操作部209は、本実施形態のカメラにおける記録再生動作に関して種々の指示を行うためのものであり、ユーザはこの操作部209を用いて画像や音声の記録再生を指示することが可能である。
【0051】
例えば、CPU207がユーザの操作部209の操作による音声記録命令を検知すると、CPU207は、音声入力部210より入力され音声A/D変換器211でデジタルデータに変換された音声データを受け取り、それを記録装置206を介して記録媒体208に記録する。
【0052】
その後、CPU207がユーザの操作部209の操作による音声記録命令の解除を検知した時点で、あるいはCPU207が一定時間を経過したことで音声記録命令の解除とみなした時点で音声記録の処理を終了する。
【0053】
このように構成することにより、例えば、ユーザが操作部209を操作することによって、画像の注釈情報として音声の記録を指示することもできる。最も単純な注釈の加え方は、音声データを記録した場合はそれを最後に記録した画像ファイルの注釈として記録することであろう。
【0054】
また、カメラのユーザインタフェースとしてEVF(Electric View Finder)などを搭載して、カメラ自身で画像の再生を可能にした場合は、任意の画像ファイルへ音声の注釈を加えることも可能になる。この例としては、本出願人が既に出願している特願平5−328033号に詳しい実施例がある。
【0055】
この特願平5−328033号に記載の実施例では、さらに任意の画像ファイルおよび音声ファイルを含むグループ、そのグループに対する音声注釈の付加などについても提案されている。ここに言うグループとは、画像や音声等のファイルの集合を表現するものであり、複数の画像や音声等をユーザがあるテーマに沿って選択したり取りまとめたデータの集合を表している。
【0056】
本実施形態においては、画像ファイル、音声ファイル、グループ情報、および上記画像ファイルやグループ情報に関する注釈情報をカメラが記録することを前提にした場合は、以下に説明するマップファイルを発生し、このマップファイルに以下に説明する種々の付帯情報を記録するようにしている。
【0057】
マップファイルの中には、画像ファイル、音声ファイル、グループに関する情報をそれぞれイメージファイルデスクリプタ(Image file desc )、サウンドファイルデスクリプタ(Sound file desc )、グループデスクリプタ(Group desc)で表現して、それらを記録時間順に配置する。これにより、マップファイルは、例えば図5のようになる。この図5に示すように、マップファイルの最後には、マップファイルの終了であることを示すタグ(Map file end tag)を配置するようにしている。
【0058】
上記したそれぞれのデスクリプタは、それぞれ図6、図7、図8のように構成される。これらの図から分かるように、本実施形態では、各デスクリプタの情報の中身を識別するためのタグ(tag )と、デスクリプタの長さ(length)と、マップファイルの中でそのデスクリプタ自身を一意に識別するための識別子(desc identifier )とを先頭ヘッダに配置している。したがって、それぞれのデスクリプタの中身や情報の大きさを各デスクリプタの先頭で判断できるので、次のデスクリプタがどこから始まるかを容易に解析することができる。
【0059】
図6に示すように、上記イメージファイルデスクリプタは、先頭ヘッダに続いて、画像ファイルの配置情報を表現するデスクリプタ(File location desc)、画像ファイルの属性情報を表現するデスクリプタ(Properties desc )、縮小画像に関する情報を表現するデスクリプタ(Thumbnail desc)、注釈情報に関する情報を表現するデスクリプタ(Annotation desc )などを含む。
【0060】
ここで、画像ファイルの配置情報デスクリプタ(File location desc)には、記録媒体208上における画像ファイルの実際の記録場所、例えば、絶対パス指定されたファイルネームなどを記録する。また、画像ファイルの属性情報デスクリプタ(Properties desc )には、撮影年月日、撮影モード、撮影条件などの画像に関する全ての属性情報を記録する。
【0061】
また、縮小画像情報デスクリプタ(Thumbnail desc)には、記録媒体208上における縮小画像ファイルの実際の記録場所、例えば、絶対パス指定されたファイルネームなどを記録する。また、注釈情報デスクリプタ(Annotation desc )には、音声の注釈であることを示す識別子(Annotation identifier )および記録媒体208上における音声ファイルの実際の記録場所、例えば、絶対パス指定されたファイルネームなどを記録する。注釈情報デスクリプタ(Annotation desc )は、図6のように複数存在することも考えられる。
【0062】
また、図7に示すように、上記サウンドファイルデスクリプタは、上記した先頭ヘッダに続いて、音声ファイルの配置情報を表現するデスクリプタ(File location desc)、音声ファイルの属性情報を表現するデスクリプタ(Properties desc )などを含む。
【0063】
ここで、音声ファイルの配置情報デスクリプタ(File location desc)には、記録媒体208上における音声ファイルの実際の記録場所、例えば、絶対パス指定されたファイルネームなどを記録する。また、音声ファイルの属性情報デスクリプタ(Properties desc )には、記録年月日、記録モード、記録時間などの音声に関する全ての属性情報を記録する。
【0064】
また、上述のグループを発生できるシステムの場合、図5のようにマップファイルの中にグループデスクリプタ(Group desc)を記録する。このグループデスクリプタ(Group desc)には、例えば図8に示すように、上記した先頭ヘッダの後に、グループ内のメンバの数(number of member)とそのメンバの数の分だけグループ内のデスクリプタを一意に識別するための識別子(desc identifier )とを並べて記録する。図8の場合、グループ内のメンバの数(number of member)が4の場合の例を示している。
【0065】
また、上記グループ内のデスクリプタを一意に識別するための識別子(desc identifier )の次に、注釈情報に関する情報を表現するデスクリプタ(Annotation desc )を記録する。この注釈情報を表現するデスクリプタ(Annotation desc )の中身は、イメージファイルデスクリプタの場合と同じである。
【0066】
この場合、あるグループのメンバになったデスクリプタは、そのグループのメンバであることを示すグループリンクデスクリプタ(Group link desc )が追加される。例えば、図9に示すように、イメージファイルデスクリプタがあるグループのメンバになると、そのイメージファイルデスクリプタにグループリンクデスクリプタが挿入される。このグループリンクデスクリプタには、グループデスクリプタを識別するための識別子(groupe desc identifier)を記録する。
【0067】
次に、本実施形態によるカメラの記録系の処理手順について述べる。
本実施形態のカメラでは、一つの画像データを記録する度に、各1枚の画像ファイルおよび縮小画像ファイルを記録媒体208上の前もって定められたサブディレクトリに記録するとともに、それらのファイルに関連する種々の付帯情報を上記マップファイルのプロトコルに従ってマップファイルに書き込む(図6参照)。
【0068】
また、一つの音声データを記録する度に、1つの音声ファイルを記録媒体208上の前もって定められたサブディレクトリに記録するとともに、その音声ファイルに関連する種々の付帯情報を上記マップファイルのプロトコルに従ってマップファイルに書き込む(図7参照)。また、音声ファイルを画像の注釈ファイルとして記録したときは、マップファイル中のその画像ファイルに対応するデスクリプタを、その音声注釈ファイルを含むように書き換える(図6参照)。
【0069】
また、複数の画像ファイルや音声ファイルでグループを構成した場合には、そのグループを記述するグループデスクリプタ(図8参照)をマップファイルに加える。そして、そのグループのメンバとなった全てのファイルのデスクリプタにグループリンクデスクリプタを加える(図9参照)。
【0070】
次に、本実施形態によるカメラの再生系の構成を、図3に示す。
図3に示すように、本実施形態によるカメラの再生系は、再生装置301、画像メモリ302、復号化伸長部303、画像出力部304、音声出力部305、CPU207、記録媒体208および操作部209を備えている。
【0071】
図3において、記録媒体208は、図2に示したものと同じであり、上述した画像ファイル、縮小画像ファイル、音声ファイルが所定のサブディレクトリに記録されるとともに、それらのファイルに関する種々の付帯情報(ファイルの配置情報デスクリプタ、ファイルの属性情報デスクリプタ、注釈情報デスクリプタ、グループデスクリプタなどの情報)が、上記した各ファイルとは別の1つのマップファイル上にまとめて記録されている。
【0072】
上記記録媒体208に記録されている情報は、再生装置301により再生される。この再生装置301は、図2に示した記録装置206と同様に、記録媒体208のためのインタフェースとしてJEIDAなどで規定されたメモリカードインタフェースで構成される。すなわち、音声データを記録媒体208から読み出すためのロジック回路およびインタフェースコネクタから構成される。
【0073】
CPU207は、この再生装置301を介して、記録媒体208に記録されているマップファイルを読み取り、読み取ったマップファイルを解析する。そして、マップファイル中に記録されている画像や音声の属性情報、あるいは縮小画像などを画像出力部304を介して出力し、例えばコンピュータモニタ(図示せず)上に表示させる。なお、このような属性情報や縮小画像などの情報提示は、ユーザが操作部209を操作することで指示することが可能である。
【0074】
図4は、上述したCPU207の情報提示処理を詳細に示すフローチャートである。以下、この図4を用いて情報提示手順の一例について説明する。
図4において、CPU207は、まず最初にステップ401で、記録媒体208に記録されているマップファイルを再生装置301を介して読み取る。
【0075】
次に、ステップ402で、上記ステップ401にて読み取ったマップファイル中に含まれる全てのイメージファイルデスクリプタとサウンドファイルデスクリプタとを解析する。この時点で、画像ファイルおよび音声ファイルの属性情報を表現するデスクリプタが得られる。これにより、画像ファイルおよび音声ファイルに関する種々の付帯情報のうち、記録年月日、記録モード、撮影条件などの属性情報を、例えばテキストリスト表示などの形でユーザに提示することが可能となる。
【0076】
また、上記ステップ402の時点で、注釈情報を表現するデスクリプタから、画像ファイルにどのような注釈情報が付いているのかの情報も得られるので、その情報をユーザに提示することも可能となる。例えば、音声の注釈が付加されているときは、そのことを表現するアイコンなどを用いて表示を行うと、ユーザにとって一層分かりやすい表示を提供することができる。
【0077】
すなわち、このステップ402の時点では、例えば図10に示すような表示画面をユーザに提示することができる。この図10の例では、記録年月日、記録時刻、撮影モード、ファイルのデータサイズ、フラッシュの使用状態、絞り値、シャッタースピードの各属性情報が提示されている。また、画像ファイルであるか音声ファイルであるかを示すアイコン1001、画像ファイルに音声による注釈ファイルが付属していることを示すアイコン1002も示されている。
【0078】
次に、ステップ403で、記録媒体208に記録されているそれぞれの画像ファイルに対応する縮小画像ファイルの記録媒体208上における記録位置をイメージファイルデスクリプタから読み取る。そして、それらの縮小画像ファイルを記録媒体208から再生装置301を介して読み出し、それらを画像出力部304を介してユーザに提示する。この時点では、図11に示すような表示を行うことができる。
【0079】
この図11の例では、個々の画像ファイルについて、その関連情報と共に縮小画像を表示している。上記関連情報としては、上記ステップ402にて得られた属性情報を用いることができる。したがって、この図11では、縮小画像の横に、図10に示した種々の属性情報と同じ情報を表示している。また、画像ファイルに音声注釈ファイルが加えられているかどうかを示すアイコンは、例えば1101のように表現することができる。
【0080】
さらに、次のステップ404では、上記ステップ401にて読み取ったマップファイル中にあるグループデスクリプタを解析する。これにより、そのグループ内に存在するメンバである画像ファイルや音声ファイル、およびそのグループに加えられた注釈ファイルを確定する。そして、こうして確定した内容をユーザに提示する。この時点では、図12に示すような表示を行うことができる。
【0081】
すなわち、この図12の例では、全ての画像ファイルについて、その関連情報と共に縮小画像を表示するとともに、マップファイル中に存在するグループごとに、そのグループのメンバとなっている個々の画像ファイルをまとめて矩形1201を表示することにより、グループを表現している。また、グループに音声注釈ファイルが加えられているかどうかを示すアイコンを、例えば1202のように表現している。
【0082】
以上のように、本実施形態によれば、1つのマップファイルを読み出して解析するだけで、情報提示に必要な全ての付帯情報を得て、画像や音声の属性情報や注釈情報の有無などの情報をユーザに提示することができる。したがって、いくつものファイルを開いて解析を行わなくても済み、ユーザに対する情報提示に高速に行うことができる。
【0083】
また、縮小画像は、その元の画像が記録されている画像ファイルとは別の縮小画像ファイルに記録され、その記録位置が付帯情報としてマップファイルに記憶されている。このため、縮小画像をユーザに提示しようとするときは、マップファイル中に記録されている縮小画像ファイルの記録位置をもとに、提示しようとする縮小画像ファイルを直接開いて縮小画像データにアクセスすることができる。よって、いくつもの画像ファイルを1つ1つ開いて記録位置の解析を行わなくても済むので、縮小画像の表示も高速に行うことができる。
【0084】
次に、ユーザは、図10、図11あるいは図12のように表示された属性情報や縮小画像などを参考にして、再生しようとするファイルを選ぶことができる。このファイル選択は、例えば操作部209を操作することによって行うことが可能である。例えば、操作部209がマウスで構成される場合、選択しようとするファイルに関する情報の上でマウスクリック操作を行うことにより選択することが可能である。
【0085】
ユーザが所望のファイルを選択すると、CPU207は、マップファイル中のファイル配置情報を参照することによって、上記選択されたファイルの記録媒体208上における記録位置を解析する。そして、その解析結果に基づいて、上記選択されたファイル内のデータを記録媒体208から読み出す。
【0086】
例えば、ある画像ファイルがユーザによって選択された場合は、その選択された画像ファイル内の画像データが再生装置301を介して記録媒体208から読み出され、画像メモリ302に一時的に蓄えられる。
【0087】
そして、この画像メモリ302に記憶された画像データは、次に復号化伸長部303に読み出され、ここで復号化伸長処理が施される。この復号化伸長部303における復号化の方式は、図2に示した圧縮符号化部205における符号化方式と同種のものである。このようにして復号化伸長処理された画像データは、例えば、画像出力部304を介して図示しないコンピュータに出力される。
【0088】
一方、ユーザによってある音声ファイルが選択されると、その選択された音声ファイル内の音声データが再生装置301を介して記録媒体208から読み出され、それがCPU207および音声出力部305を介して図示しないコンピュータに出力される。
【0089】
なお、ここでは、選択された画像ファイルや音声ファイルを図示しないコンピュータ上で再生する場合について説明しているが、カメラ自身で再生するようにすることも可能である。この場合には、デジタル信号をアナログ信号に変換するためのD/A変換器をカメラ内部に設けるようにしても良い。
【0090】
本実施形態では、マップファイル中に含まれている情報(画像ファイル、音声ファイル、グループ情報)を編集することが可能である。この場合は、編集しようとする情報に関連する付帯情報を、その編集内容に応じて全て変更するようにする。
【0091】
例えば、画像ファイルを記録媒体208上から消去するときは、その画像ファイルに対応するイメージファイルデスクリプタをマップファイルから消去する。そのとき、画像本体のデータである画像ファイルの他に、縮小画像ファイル、注釈ファイル、および他の画像ファイルとグループリンクされているときはそのグループデスクリプタの中の識別子(desc identifier )を消去する。
【0092】
また、あるグループのメンバになっている画像ファイルをそのグループから外す場合は、そのグループデスクリプタの中の識別子(desc identifier )を消去する。また、画像ファイルあるいはグループに付属している注釈ファイルを消去する場合は、その画像ファイルに対応するイメージファイルデスクリプタ、あるいはそのグループに対応するグループデスクリプタから注釈ファイル識別子を削除するとともに、その注釈ファイルを削除すればよい。
【0093】
このようにして、記録媒体208に記録されている画像ファイル、音声ファイル、グループ情報にそれぞれ関連する情報を常に正常に保ちながらマップファイル内の情報を更新するようにする。
【0094】
このように、本実施形態では、画像ファイル、音声ファイル、グループ情報の関連情報を一括して管理することで、それらの編集を集中して行うことができるので、システムがより簡潔になるというメリットがある。
【0095】
<他の実施形態>
上記した実施形態では、縮小画像を一つ一つの縮小画像ファイルに記録するとともに、マップファイル内のそれぞれのイメージファイルデスクリプタの中にある縮小画像情報デスクリプタ(Thumbnail desc)に、それらの縮小画像ファイルの記録場所、具体的にはMS−DOSファイルの絶対パス名およびファイル名を記述しておくようにしている。
【0096】
しかしながら、このような方式の場合には、以下のような問題が生じる。
すなわち、非常に多くの画像データが記録媒体208に記録されている場合において、それらの各画像に対応する縮小画像をコンピュータモニタ上にリスト表示しようとする場合、同時に開ける縮小画像ファイルの数はMS−DOSによって制限されてしまうため、それら全ての縮小画像ファイルを一度に開いておくことはできない。
【0097】
したがって、多くの縮小画像データを得るためにそれぞれの縮小画像ファイルを開いては閉じるという操作を繰り返さなければならない。このようなオペレーティングシステムのオーバーヘッドは、装置のパファーマンスを低下させる原因となってしまう。
【0098】
また、MS−DOSファイルの絶対パス名およびファイル名に基づいて提示しようとする縮小画像ファイルを非常に多くのファイルの中から検索しなければならないとすると、その検索に必要な時間も多大なものとなり、そのオーバーヘッドもパファーマンスを低下させる原因となってしまう。
【0099】
この問題を解決するために、以下に述べる実施形態では、複数の縮小画像を一つのファイル(以下、サブマップファイルと呼ぶ)にまとめて記録し、上記マップファイルの縮小画像情報デスクリプタ(Thumbnail desc)には、縮小画像がそのサブマップファイル内において記録されている位置を記述する。
【0100】
このようにすれば、多くの縮小画像を得るために最初に一回だけサブマップファイルを開くだけで良い。また、ファイル名による検索を行わなくてもよく、サブマップファイル内におけるアクセス位置の移動だけで済む。サブマップファイル内でのアクセス位置の移動は、MS−DOSのいわゆるFAT(File Allocation Table :ファイル位置管理テーブル)の連結をたどるだけでよい。通常、オペレーティングシステム内では、このFATの連結データは主記憶に読み込まれているため、この作業は非常に高速に行うことができる。
【0101】
図13に、上記サブマップファイルの構成例を示す。図13から明らかなように、サブマップファイルは、縮小画像の配置情報を管理するためのテーブルを記録する管理領域と、実際の縮小画像データを記録するデータ領域とがある。また、サブマップファイルの先頭には、管理テーブルの大きさが4バイトで記録されている。
【0102】
上記管理テーブルには、個々のインデックス値で識別される縮小画像データがサブマップファイル中に存在するかどうかを示すためのフラグが順番に記録されている。このフラグは1ビットで表現できるので、例えば、管理テーブルとして1キロバイト用意されれば、1024×8=8192個の縮小画像データの有無を管理することができる。
【0103】
例えば、図13の例では、管理テーブルの先頭1バイトのデータ値が“00110111”であるとすると、インデックス値が0、1、2、4、5に対応するデータ領域に縮小画像データが記録されていることが分かる。すなわち、管理テーブル内のデータ値“1”および“0”は、それぞれ縮小画像データの有り、無しを表現している。
【0104】
また、データ領域においては、一つの縮小画像データは、例えば、横80画素×縦60画素×3(RGB)=14.4キロバイトで記録される。そして、図13に示したように、管理領域の管理テーブルの後に複数の縮小画像データが順番に記録される。
【0105】
通常、ファイルサイズはMS−DOSの機能によって検出できるので、管理テーブルの大きさを表すフィールドの4バイトと管理テーブルの大きさとを合わせたバイト数をサブマップファイルのサイズから減算し、この減算の結果得られるデータ領域のサイズを1つの縮小画像データに必要な容量(14.4キロバイト)で除算することで、いくつの縮小画像データがサブマップファイルによって管理されているかを知ることができる。
【0106】
これにより、有効なインデックス値の範囲を知ることができる。さらに、管理テーブルの中身を確認することで、データ領域の中の何番目の領域に有効な縮小画像データが格納されているかを知ることができる。
【0107】
カメラあるいはホストコンピュータでサブマップファイルに縮小画像を新たに加えたい場合、まず、有効なインデックス値の範囲内で管理テーブルのフラグが“0”、すなわち“縮小画像無し”を示しているインデックス値を探す。そのようなインデックス値があれば、そのインデックス値に対応するサブマップファイルのデータ領域を新たな縮小画像データを格納するための場所にして、その管理テーブルのフラグを“1”、すなわち“縮小画像有り”に変更する。
【0108】
一方、そのようなインデックス値がない場合は、サブマップファイルが新たな縮小画像データを含むことができるように、サブマップファイルの大きさを変更し、新たに付け加えたデータ領域部分を新たな縮小画像データの格納領域とする。そして、その新たに確保したデータ領域のインデックス値に対応する管理テーブルのフラグの値を“縮小画像有り”を示すように“1”に変更する。このとき、管理テーブルの大きさを変える必要があればその変更も行う。そして、管理領域が増えた分だけデータ領域を後方に移動する。
【0109】
そして、以上のようにしてサブマップファイル中に新たに確保されたデータ領域に新たな縮小画像データを格納する。また、その縮小画像データに対応するインデックス値を、マップファイル内の縮小画像情報デスクリプタ(Thumbnail desc)の配置情報(File location )として記録する。
【0110】
また、縮小画像データの読み取りが必要になった場合は、その縮小画像データのインデックス値をもとにサブマップファイル中の場所を計算する。そして、その計算した場所にアクセスを移動して、サブマップファイルから縮小画像データを読み取ることができる。
【0111】
このとき、前もってサブマップファイルの管理テーブルを参照して、そのインデックス値が有効かどうかの確認を行う。すなわち、サブマップファイルサイズと縮小画像データの大きさと管理テーブルの大きさとの関係から正当なインデックス値であるかどうか、そして、そのインデックス値に相当する管理テーブルのフラグの値が“縮小画像有り”を示しているかどうかを確認する。
【0112】
また、サブマップファイル中に既に記録されている縮小画像データを消去する場合は、例えば、縮小画像データをファイル中に残したままの状態で、管理テーブルのフラグのみを“縮小画像無し”に変更すればよい。
【0113】
このように、本実施形態によれば、縮小画像を一つのサブマップファイルにまとめて管理する方式によって、多くの縮小画像を表示するためにファイルを開く回数、閉じる回数を減らし、ファイル名による検索回数を減らすことができる。これにより、縮小画像へのアクセスをより高速に行うことが可能となる。
【0114】
【発明の効果】
本発明によれば、画像ファイルなどに関する情報ユーザに高速に提示することができる。
【図面の簡単な説明】
【図1】本発明の要素的特徴を示すブロック図である。
【図2】本発明の一実施形態であるカメラの記録系の構成を示すブロック図である。
【図3】本発明の一実施形態であるカメラの再生系の構成を示すブロック図である。
【図4】本実施形態によるカメラの再生系における情報提示の処理手順を示すフローチャートである。
【図5】本実施形態によるマップファイルの構成例を示す図である。
【図6】本実施形態によるマップファイル中のイメージファイルデスクリプタの内容の一例を示す図である。
【図7】本実施形態によるマップファイル中のサウンドファイルデスクリプタの内容の一例を示す図である。
【図8】本実施形態によるマップファイル中のグループデスクリプタの内容の一例を示す図である。
【図9】本実施形態によるマップファイル中のイメージファイルデスクリプタの内容の他の例を示す図である。
【図10】本実施形態による情報提示方法の一例を示す図である。
【図11】本実施形態による情報提示方法の他の例を示す図である。
【図12】本実施形態による情報提示方法のその他の例を示す図である。
【図13】本発明の他の実施形態によるサブマップファイルのデータ構造の一例を示す図である。
【符号の説明】
1 記録装置
2 記録媒体
3 再生装置
11 画像記録手段
12 音声記録手段
13 付帯情報記録手段
21 画像ファイル
22 縮小画像ファイル
23 音声ファイル
24 マップファイル
31 画像再生手段
32 音声再生手段
33 属性情報再生手段
201 レンズ
202 撮像デバイス
203 A/D変換器
204 画像メモリ
205 圧縮符号化部
206 記録装置
207 CPU
208 記録媒体
209 操作部
210 音声入力部
211 音声A/D変換器
301 再生装置
302 画像メモリ
303 復号化伸長部
304 画像出力部
305 音声出力部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a recording / reproducing apparatus, a reproducing apparatus, and a reproducing method.
[0002]
[Prior art]
In recent years, techniques for recording images and sounds as digital signals on PCMCIA (Personal Computer Memory Card International Association) recording media such as semiconductor memory cards and small hard disks have been developed.
[0003]
For example, there is a digital electronic still camera that digitally records a photographed image on the PCMCIA recording medium. For example, voice can be recorded on the PCMCIA recording medium as annotation information of an image photographed by the electronic still camera. The data recorded on the PCMCIA recording medium can be read by a personal computer.
[0004]
As a conventional example of a format of image data generated by the digital electronic still camera, there is a format described in “Digital still camera IC memory card guideline DSC 68-pin standard” issued by JEIDA (Japan Electronics Industry Promotion Association).
[0005]
In this standard, the PCMCIA recording medium is used as an MS-DOS (registered trademark of Microsoft Corporation) compatible block device, and image data and audio data are recorded as individual files on the PCMCIA recording medium. Also, incidental information related to the image, for example, information such as the shooting date, shooting mode, and shooting conditions is recorded in each image file.
[0006]
When an image file or an audio file recorded on this PCMCIA recording medium is to be reproduced on a personal computer, the information of files existing in a specific subdirectory is listed on the computer monitor using the MS-DOS function. The user can select the file to be displayed and played back.
[0007]
However, in this case, the information that can be understood by MS-DOS is limited to the file name, file creation date, file size, and the like. For this reason, the information displayed in a list when the MS-DOS function is used is limited to such information.
[0008]
Since these pieces of information are recorded in a continuous area on the PCMCIA recording medium according to the directory configuration rules of MS-DOS, they can be restored at a relatively high speed. Further, by making the file creation date coincide with the shooting date, it becomes possible to present information that is easier for the user to understand.
[0009]
[Problems to be solved by the invention]
However, since MS-DOS cannot understand the shooting mode, shooting conditions, etc., in order to present such information to the user, it has been necessary to prepare dedicated application software. According to the above “Digital still camera IC memory card guideline DSC 68-pin standard”, since this information is individually recorded in each image file, the reading application software opens each image file one by one. It was necessary to analyze the contents.
[0010]
That is, when the reading application software requests MS-DOS to read the information in the image file, the MS-DOS must analyze the arrangement information of the image file on the PCMCIA recording medium and read the information. The contents of the image file are divided into small recording units called sectors, and information such as shooting modes and shooting conditions can be arranged in sectors at arbitrary locations.
[0011]
Therefore, in the case of a recording medium with low access capability and the information arrangement method is random, the information reading time becomes long. Therefore, when presenting each shooting mode for a large number of image files or displaying a list of image file information for each shooting mode, it is necessary to open and read all the image files and analyze their contents. Therefore, there is a problem that a large amount of time is required and the display to the user is remarkably slow.
[0012]
By the way, image information is of a kind that can be understood only by humans. Therefore, when reproducing an image, a technique that first displays a reduced image of the image as an index image on the monitor so that the user can check the contents of the image file in a short time has been proposed and used widely. Yes.
[0013]
In this technique, the reduced image data of a normal image file is usually recorded in the header portion of the corresponding original image file. For example, “JPEG File Interchange Format ver 1.02” issued by C-CUBEMICROSYSTEMS describes a rule for storing reduced image data in a corresponding image file.
[0014]
However, according to this rule, the recording position of the reduced image data in the image file is variable. For this reason, in order to determine the start position of the reduced image data, it is necessary to analyze the header portion of the image file, and there is a problem that the processing for this analysis becomes an extra overhead.
[0015]
In particular, assuming that there is an image file that does not include a reduced image, there is a problem in that the analysis time may be wasted in the conventional method in which all image files are opened and the header portion is analyzed.
[0016]
The above problem also occurs in a system that can add voice annotation information to an image file. For example, if incidental information indicating which audio file is recorded as annotation information is recorded in the image file, the image file can be searched to search for the audio file or whether the audio file exists. You must actually parse the contents of the file.
[0017]
For this reason, there has been a problem that the presentation of the annotation information to the user is delayed due to the overhead of the analysis of the image file.
The above problems become particularly prominent when the electronic still camera and the host computer are connected via a low-speed communication path such as RS232C.
[0018]
The present invention has been made to solve such a problem, and an object of the present invention is to be able to present information related to an image file or the like to a user at high speed.
[0019]
[Means for Solving the Problems]
Book One of the recording / reproducing apparatuses according to the invention records, for example, an image file having image data on a recording medium, records an audio file having audio data on the recording medium, and includes information relating to the image file. A recording means for recording an auxiliary information file having auxiliary information and second auxiliary information including information relating to the audio file on the recording medium; and a reproducing means for reproducing the auxiliary information file from the recording medium. In addition, information related to the image file and information related to the audio file can be acquired from the incidental information file, and a reduced image corresponding to the image file and an icon corresponding to the audio file can be displayed. It is characterized by that.
One of the recording / reproducing apparatuses according to the present invention records, for example, an image file having image data on a recording medium, records an audio file having audio data on the recording medium, and includes information relating to the image file. Recording means for recording on the recording medium an auxiliary information file having second auxiliary information including information related to the audio file, and reproducing means for reproducing the auxiliary information file from the recording medium. So that the information about the image file and the information about the audio file can be acquired from the incidental information file, and the icon corresponding to the audio file can be displayed superimposed on the reduced image corresponding to the image file. It is characterized by that.
[0020]
Book One of the playback devices according to the invention includes, for example, an image file having image data, an audio file having audio data, first auxiliary information including information related to the image file, and second information including information related to the audio file. And a reproducing means for reproducing the supplementary information file from a recording medium on which a supplementary information file having the supplementary information is recorded, information relating to the image file and information relating to the audio file from the supplementary information file; And a reduced image corresponding to the image file and an icon corresponding to the audio file can be displayed.
One of the playback devices according to the present invention includes, for example, an image file having image data, an audio file having audio data, first auxiliary information including information relating to the image file, and information relating to the audio file. And a reproducing means for reproducing the supplementary information file from a recording medium on which a supplementary information file having the supplementary information is recorded, and the information relating to the image file and the information relating to the audio file from the supplementary information file. And an icon corresponding to the audio file can be displayed on the reduced image corresponding to the image file.
[0021]
Book One of the reproduction methods according to the invention includes, for example, an image file having image data, an audio file having audio data, first auxiliary information including information related to the image file, and second information including information related to the audio file. A step of reproducing the supplementary information file from a recording medium on which a supplementary information file having the supplementary information is recorded, and acquiring information on the image file and information on the audio file from the supplementary information file. And a step of displaying a reduced image corresponding to the image file and an icon corresponding to the audio file.
One of the playback methods according to the present invention includes, for example, an image file having image data, an audio file having audio data, first auxiliary information including information related to the image file, and information related to the audio file. A step of reproducing the supplementary information file from a recording medium on which a supplementary information file having two supplementary information is recorded, and obtaining information on the image file and information on the audio file from the supplementary information file And a step of displaying an icon corresponding to the audio file in a superimposed manner on a reduced image corresponding to the image file.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of a recording / reproducing apparatus of the present invention will be described with reference to the drawings.
The playback processing of the recording / playback apparatus according to the present embodiment includes application processing when the recording / playback apparatus plays back data recorded on a PCMCIA recording medium on a personal computer, and camera processing when the recording / playback apparatus itself plays back data. Can be implemented.
[0032]
First, a functional block diagram showing the elemental features of the present invention is shown in FIG. Hereafter, the characteristic part of this invention is demonstrated using this FIG.
The recording / reproducing apparatus shown in FIG. 1 is roughly composed of a recording apparatus 1, a recording medium 2, and a reproducing apparatus 3.
[0033]
The recording apparatus 1 includes an image recording unit 11, an audio recording unit 12, and an incidental information recording unit 13. Here, the image recording unit 11 records at least one or more pieces of image data as an image file 21 on the recording medium 2. This image recording means 11 forms one image file 21 and one corresponding reduced image file 22 each time one piece of image data is recorded.
[0034]
The audio recording means 12 records at least one or more audio data as an audio file 23 on the recording medium 2. The sound recording unit 12 forms one sound file 23 every time one sound data is recorded.
[0035]
Further, the incidental information recording means 13 includes a plurality of types of incidental information related to images and sounds (image and sound recording dates, image and sound recording modes, image capturing conditions such as image shooting conditions, and annotations on images). Information type and recording position, information on a group of a plurality of images and sounds grouped according to a predetermined theme, information on the recording position of a reduced image file, recording position of images and sounds, etc.) on the recording medium 2 It is recorded as one map file 24.
[0036]
As apparent from FIG. 1, individual image data is recorded on the recording medium 2 as individual image files 21. Therefore, when recording a plurality of image data, a plurality of image files 21 are formed on the recording medium 2. The same applies to the audio file 23.
[0037]
On the other hand, only one map file 24 is formed, and all incidental information related to each file is recorded together. The reduced image data is not embedded in the image file 21 in which the original image is recorded, but is recorded as a different reduced image file 22.
[0038]
The playback device 3 refers to the map file 24 and the image playback means 31 for playing back the image data in the image file 21 and the reduced image data in the reduced image file 22, and the audio file 23 in reference to the map file 24. Audio reproduction means 32 for reproducing the audio data of the above and attribute information reproduction means 33 for reproducing the attribute information in the map file 24 with reference to the map file 24.
[0039]
The image data recorded as the image file 21 on the recording medium 2 can be reproduced by the personal computer 4 by the image reproducing means 31 and the reproduced image can be displayed on the monitor 5. In this case, before actually displaying the image data on the monitor 5, the attribute information or the reduced image related to the image data is reproduced and displayed on the monitor 5, and a desired image to be reproduced with reference thereto. You can let the user choose a file.
[0040]
For example, when reproducing attribute information, the attribute information reproducing means 33 reads the attribute information from the map file 24 and reproduces it. When the reduced image is reproduced, the image reproduction means 31 refers to the reduced image recording position in the map file 24, and reads out and reproduces the reduced image data in the reduced image file 22 based on the recording position.
[0041]
Further, when the annotation information related to the image recorded in the image file 21 is recorded in the recording medium 2 as the audio file 23, the annotation information by the audio can be reproduced. In this case, the audio reproduction means 32 refers to the map file 24 and reads out and reproduces audio data from the audio file 23 based on the recording position of the annotation information.
[0042]
In this case, since all the incidental information related to images and sounds is recorded in one map file 24, all the incidental information necessary for information presentation can be obtained by opening this map file 24. As a result, it is not necessary to open individual image files and audio files one by one as in the prior art and read out the accompanying information, and information can be presented to the user much faster than in the past. .
[0043]
Further, since the reduced image data is recorded as a reduced image file 22 different from the image file 21, when the reduced image is displayed on the monitor 5 in order to allow the user to select a desired file, the map file 24 is displayed. Based on the recording position of the reduced image file 22 described, the reduced image file 22 can be directly opened to access the reduced image data. Therefore, it is not necessary to open the image files 21 in which the original images are recorded one by one and analyze the recording location of the reduced images as in the prior art, so that the reduced images can be accessed at high speed. Become.
[0044]
FIG. 2 is a block diagram showing a configuration of a recording system of a camera which is an embodiment of the recording / reproducing apparatus according to the present invention.
As shown in FIG. 2, the recording system of the camera according to the present embodiment includes a lens 201, an imaging device 202, an A / D converter 203, an image memory 204, a compression encoding unit 205, a recording device 206, a CPU 207, and a recording medium 208. , An operation unit 209, a voice input unit 210, and a voice A / D converter 211. Of course, other parts of the camera that are not directly related to the present embodiment, such as an aperture and a shutter, are provided.
[0045]
In FIG. 2, an optical image of a subject captured by a lens 201 is converted into an electric video signal by an imaging device 202 located behind the subject, for example, a charge-coupled device (CCD). In response to a control signal supplied from the CPU 207, the imaging device 202 accumulates charges corresponding to the optical image of the subject and reads out the video signal.
[0046]
The video signal read by the imaging device 202 is converted into digital image data by the A / D converter 203. Although not shown, various means for processing a video signal such as gamma correction, color signal formation / separation, and white balance adjustment are provided between the imaging device 202 and the A / D converter 203. ing.
[0047]
Image data converted into a digital signal by the A / D converter 203 is stored in the image memory 204. Next, the image data is read from the image memory 204 to the compression encoding unit 205, where compression encoding is performed. As this data compression method, for example, a JPEG method (compression method described in ISO / IEC DIS 10918-1) defined as an international standard method can be used.
[0048]
Then, the image data compressed and encoded in this way is written to the recording medium 208 via the recording device 206. The recording device 206 is configured by a memory card interface defined by JEIDA or the like as an interface for the recording medium 208, for example. That is, it is composed of a logic circuit and an interface connector for writing the image data received from the compression encoding unit 205 to the recording medium 208 according to the interface protocol.
[0049]
Further, as the recording medium 208, a memory card, a hard disk or the like suitable for the recording device 206 is used. As the file format on the recording medium 208, for example, a format according to the JEIDA memory card DOS file system convention is used, and image data, audio data, and other incidental information are recorded as files according to this format.
[0050]
The operation unit 209 is used to give various instructions regarding the recording / playback operation in the camera of the present embodiment, and the user can use the operation unit 209 to instruct recording and playback of images and sounds. is there.
[0051]
For example, when the CPU 207 detects a voice recording command by the operation of the user operation unit 209, the CPU 207 receives the voice data input from the voice input unit 210 and converted into digital data by the voice A / D converter 211, and receives it. Recording is performed on the recording medium 208 via the recording device 206.
[0052]
Thereafter, when the CPU 207 detects the release of the voice recording command by the operation of the operation unit 209 of the user, or when the CPU 207 considers the release of the voice recording command after a certain time has elapsed, the voice recording process is ended. .
[0053]
With this configuration, for example, when the user operates the operation unit 209, it is possible to instruct recording of audio as image annotation information. The simplest way to add an annotation would be to record the audio data as an annotation for the last recorded image file.
[0054]
In addition, when an EVF (Electric View Finder) or the like is installed as a camera user interface and the camera itself can reproduce an image, an audio annotation can be added to an arbitrary image file. As an example of this, there is a detailed example in Japanese Patent Application No. 5-328033 already filed by the present applicant.
[0055]
In the embodiment described in Japanese Patent Application No. 5-328033, a group including arbitrary image files and audio files, and addition of audio annotations to the group are also proposed. The group mentioned here represents a set of files such as images and sounds, and represents a set of data in which a user selects or organizes a plurality of images and sounds according to a certain theme.
[0056]
In this embodiment, when it is assumed that the camera records image files, audio files, group information, and annotation information related to the image files and group information, a map file described below is generated and this map is generated. Various incidental information described below is recorded in the file.
[0057]
In the map file, information about image files, audio files, and groups is represented by image file descriptor (Image file desc), sound file descriptor (Sound file desc), and group descriptor (Group desc), respectively, and recorded. Arrange in chronological order. As a result, the map file becomes, for example, as shown in FIG. As shown in FIG. 5, a tag (Map file end tag) indicating the end of the map file is arranged at the end of the map file.
[0058]
Each of the above-described descriptors is configured as shown in FIG. 6, FIG. 7, and FIG. As can be seen from these figures, in this embodiment, a tag (tag) for identifying the content of each descriptor, the length (length) of the descriptor, and the descriptor itself are uniquely specified in the map file. An identifier (desc identifier) for identification is arranged in the head header. Therefore, since the contents of each descriptor and the size of information can be determined at the head of each descriptor, it is possible to easily analyze where the next descriptor starts.
[0059]
As shown in FIG. 6, the image file descriptor includes a descriptor (File location desc) that represents the arrangement information of the image file, a descriptor (Properties desc) that represents the attribute information of the image file, and a reduced image following the head header. This includes a descriptor (Thumbnail desc) that expresses information related to annotation, a descriptor (Annotation desc) that expresses information related to annotation information, and the like.
[0060]
Here, in the image file arrangement information descriptor (File location desc), an actual recording location of the image file on the recording medium 208, for example, a file name designated by an absolute path is recorded. Further, in the attribute information descriptor (Properties desc) of the image file, all attribute information relating to the image such as the shooting date, shooting mode, shooting conditions and the like are recorded.
[0061]
In the reduced image information descriptor (Thumbnail desc), an actual recording location of the reduced image file on the recording medium 208, for example, a file name designated by an absolute path is recorded. In the annotation information descriptor (Annotation desc), an identifier (Annotation identifier) indicating that it is an audio annotation and the actual recording location of the audio file on the recording medium 208, for example, a file name specified with an absolute path, etc. Record. There may be a plurality of annotation information descriptors (Annotation desc) as shown in FIG.
[0062]
Further, as shown in FIG. 7, the sound file descriptor includes a descriptor (File location desc) expressing the arrangement information of the audio file and a descriptor (Properties desc) expressing the attribute information of the audio file following the head header. ) Etc.
[0063]
Here, in the audio file arrangement information descriptor (File location desc), the actual recording location of the audio file on the recording medium 208, for example, the file name designated by the absolute path is recorded. Also, in the audio file attribute information descriptor (Properties desc), all audio attribute information such as recording date, recording mode, and recording time are recorded.
[0064]
In the case of a system capable of generating the above group, a group descriptor (Group desc) is recorded in the map file as shown in FIG. In this group descriptor (Group desc), for example, as shown in FIG. 8, the number of members in the group (number of members) and the number of members in the group are unique after the above-mentioned header. An identifier (desc identifier) for identification is recorded side by side. FIG. 8 shows an example in which the number of members in the group is four.
[0065]
Further, after an identifier (desc identifier) for uniquely identifying the descriptor in the group, a descriptor (Annotation desc) representing information on the annotation information is recorded. The contents of the descriptor (Annotation desc) expressing the annotation information are the same as those of the image file descriptor.
[0066]
In this case, a group link descriptor (Group link desc) indicating that the descriptor has become a member of a certain group is added. For example, as shown in FIG. 9, when an image file descriptor becomes a member of a group, the group link descriptor is inserted into the image file descriptor. In this group link descriptor, an identifier (groupe desc identifier) for identifying the group descriptor is recorded.
[0067]
Next, the processing procedure of the camera recording system according to the present embodiment will be described.
In the camera of this embodiment, each time one piece of image data is recorded, each one image file and reduced image file are recorded in a predetermined subdirectory on the recording medium 208 and related to these files. Various incidental information is written in the map file in accordance with the map file protocol (see FIG. 6).
[0068]
Each time one piece of audio data is recorded, one audio file is recorded in a predetermined subdirectory on the recording medium 208, and various incidental information related to the audio file is recorded in accordance with the map file protocol. Write to the map file (see FIG. 7). When an audio file is recorded as an image annotation file, the descriptor corresponding to the image file in the map file is rewritten to include the audio annotation file (see FIG. 6).
[0069]
When a group is composed of a plurality of image files and audio files, a group descriptor (see FIG. 8) describing the group is added to the map file. Then, the group link descriptor is added to the descriptors of all the files that are members of the group (see FIG. 9).
[0070]
Next, the configuration of the playback system of the camera according to the present embodiment is shown in FIG.
As shown in FIG. 3, the playback system of the camera according to the present embodiment includes a playback device 301, an image memory 302, a decoding / decompression unit 303, an image output unit 304, an audio output unit 305, a CPU 207, a recording medium 208, and an operation unit 209. It has.
[0071]
In FIG. 3, a recording medium 208 is the same as that shown in FIG. 2, and the above-described image file, reduced image file, and audio file are recorded in a predetermined subdirectory, and various incidental information regarding these files are recorded. (Information such as file arrangement information descriptor, file attribute information descriptor, annotation information descriptor, group descriptor, etc.) is recorded together on one map file different from the above-mentioned files.
[0072]
Information recorded on the recording medium 208 is reproduced by the reproducing device 301. Similar to the recording device 206 shown in FIG. 2, the reproducing device 301 includes a memory card interface defined by JEIDA or the like as an interface for the recording medium 208. That is, it is composed of a logic circuit and an interface connector for reading audio data from the recording medium 208.
[0073]
The CPU 207 reads the map file recorded on the recording medium 208 via the playback device 301 and analyzes the read map file. Then, the image or audio attribute information recorded in the map file, the reduced image, or the like is output via the image output unit 304 and displayed on, for example, a computer monitor (not shown). Information presentation such as attribute information and reduced images can be instructed by the user operating the operation unit 209.
[0074]
FIG. 4 is a flowchart showing in detail the information presentation process of the CPU 207 described above. Hereinafter, an example of the information presentation procedure will be described with reference to FIG.
In FIG. 4, the CPU 207 first reads a map file recorded on the recording medium 208 via the playback device 301 in step 401.
[0075]
Next, in step 402, all image file descriptors and sound file descriptors included in the map file read in step 401 are analyzed. At this point, a descriptor representing the attribute information of the image file and the audio file is obtained. This makes it possible to present to the user attribute information such as the recording date, recording mode, and shooting conditions among various incidental information related to the image file and the audio file, for example, in the form of a text list display.
[0076]
In addition, at the time of step 402, information indicating what kind of annotation information is attached to the image file can be obtained from the descriptor expressing the annotation information, and this information can be presented to the user. For example, when a voice annotation is added, if the display is performed using an icon or the like that expresses that, it is possible to provide a user-friendly display.
[0077]
That is, at the time of step 402, for example, a display screen as shown in FIG. 10 can be presented to the user. In the example of FIG. 10, attribute information such as recording date, recording time, shooting mode, file data size, flash usage state, aperture value, and shutter speed is presented. Also shown are an icon 1001 indicating whether it is an image file or an audio file, and an icon 1002 indicating that an image annotation file is attached to the image file.
[0078]
Next, in step 403, the recording position on the recording medium 208 of the reduced image file corresponding to each image file recorded on the recording medium 208 is read from the image file descriptor. Then, these reduced image files are read from the recording medium 208 via the playback device 301 and presented to the user via the image output unit 304. At this time, a display as shown in FIG. 11 can be performed.
[0079]
In the example of FIG. 11, a reduced image is displayed together with related information for each image file. As the related information, the attribute information obtained in step 402 can be used. Therefore, in FIG. 11, the same information as the various attribute information shown in FIG. 10 is displayed beside the reduced image. An icon indicating whether or not a voice annotation file is added to the image file can be expressed as 1101, for example.
[0080]
In the next step 404, the group descriptor in the map file read in step 401 is analyzed. As a result, the image file and the audio file which are members existing in the group and the annotation file added to the group are determined. Then, the contents thus confirmed are presented to the user. At this time, a display as shown in FIG. 12 can be performed.
[0081]
That is, in the example of FIG. 12, the reduced image is displayed together with the related information for all the image files, and for each group existing in the map file, individual image files that are members of the group are collected. By displaying a rectangle 1201, a group is expressed. An icon indicating whether or not a voice annotation file is added to the group is expressed as 1202, for example.
[0082]
As described above, according to the present embodiment, all the incidental information necessary for information presentation can be obtained by reading and analyzing one map file, and the presence of image attribute information, audio attribute information, annotation information, etc. Information can be presented to the user. Therefore, it is not necessary to open and analyze a number of files, and information can be presented to the user at high speed.
[0083]
The reduced image is recorded in a reduced image file different from the image file in which the original image is recorded, and the recording position is stored in the map file as supplementary information. For this reason, when trying to present a reduced image to the user, the reduced image file to be presented is directly opened and the reduced image data is accessed based on the recording position of the reduced image file recorded in the map file. can do. Therefore, since it is not necessary to open a number of image files one by one and analyze the recording position, it is possible to display a reduced image at high speed.
[0084]
Next, the user can select a file to be reproduced with reference to the attribute information and the reduced image displayed as shown in FIG. 10, FIG. 11 or FIG. This file selection can be performed by operating the operation unit 209, for example. For example, when the operation unit 209 is configured with a mouse, the selection can be performed by performing a mouse click operation on information on a file to be selected.
[0085]
When the user selects a desired file, the CPU 207 analyzes the recording position of the selected file on the recording medium 208 by referring to the file arrangement information in the map file. Based on the analysis result, the data in the selected file is read from the recording medium 208.
[0086]
For example, when a certain image file is selected by the user, the image data in the selected image file is read from the recording medium 208 via the playback device 301 and temporarily stored in the image memory 302.
[0087]
The image data stored in the image memory 302 is then read out to the decoding / decompression unit 303, where decoding / decompression processing is performed. The decoding method in the decoding / decompression unit 303 is the same type as the encoding method in the compression encoding unit 205 shown in FIG. The image data decoded and expanded in this way is output to a computer (not shown) via the image output unit 304, for example.
[0088]
On the other hand, when a certain audio file is selected by the user, the audio data in the selected audio file is read from the recording medium 208 via the playback device 301, and this is illustrated via the CPU 207 and the audio output unit 305. Not output to the computer.
[0089]
Although the case where the selected image file or audio file is reproduced on a computer (not shown) has been described here, it can be reproduced by the camera itself. In this case, a D / A converter for converting a digital signal into an analog signal may be provided inside the camera.
[0090]
In this embodiment, information (image file, audio file, group information) included in the map file can be edited. In this case, all the incidental information related to the information to be edited is changed according to the editing content.
[0091]
For example, when deleting an image file from the recording medium 208, the image file descriptor corresponding to the image file is deleted from the map file. At that time, in addition to the image file which is data of the image main body, the identifier (desc identifier) in the group descriptor is deleted when the group image is linked with the reduced image file, the annotation file, and another image file.
[0092]
When an image file that is a member of a group is removed from the group, the identifier (desc identifier) in the group descriptor is deleted. When deleting an annotation file attached to an image file or a group, the annotation file identifier is deleted from the image file descriptor corresponding to the image file or the group descriptor corresponding to the group, and the annotation file is deleted. Delete it.
[0093]
In this way, the information in the map file is updated while the information related to the image file, the audio file, and the group information recorded on the recording medium 208 is always kept normal.
[0094]
As described above, in this embodiment, the related information of the image file, the audio file, and the group information is collectively managed, so that the editing can be performed in a concentrated manner, so that the system can be simplified. There is.
[0095]
<Other embodiments>
In the above-described embodiment, the reduced images are recorded in each reduced image file, and the reduced image information descriptor (Thumbnail desc) in each image file descriptor in the map file includes the reduced image file. The recording location, specifically, the absolute path name and file name of the MS-DOS file are described.
[0096]
However, in the case of such a method, the following problems occur.
That is, when a large amount of image data is recorded on the recording medium 208, when trying to display a list of reduced images corresponding to each image on the computer monitor, the number of reduced image files that can be opened simultaneously is MS. -Since it is limited by DOS, it is not possible to open all the reduced image files at once.
[0097]
Therefore, in order to obtain a large amount of reduced image data, the operation of opening and closing each reduced image file must be repeated. Such an overhead of the operating system causes a decrease in the performance of the apparatus.
[0098]
Also, if a reduced image file to be presented based on the absolute path name and file name of the MS-DOS file must be searched from a very large number of files, the time required for the search is also large. The overhead also causes a decrease in performance.
[0099]
In order to solve this problem, in the embodiment described below, a plurality of reduced images are collectively recorded in one file (hereinafter referred to as a submap file), and the reduced image information descriptor (Thumbnail desc) of the map file is recorded. Describes the position where the reduced image is recorded in the submap file.
[0100]
In this way, in order to obtain many reduced images, it is only necessary to first open the submap file once. Also, it is not necessary to search by file name, and only the access position in the submap file needs to be moved. The movement of the access position within the submap file only needs to follow the connection of the so-called FAT (File Allocation Table) of MS-DOS. Normally, in the operating system, the FAT concatenated data is read into the main memory, so that this operation can be performed at a very high speed.
[0101]
FIG. 13 shows a configuration example of the submap file. As is apparent from FIG. 13, the submap file has a management area for recording a table for managing arrangement information of reduced images and a data area for recording actual reduced image data. The size of the management table is recorded in 4 bytes at the top of the submap file.
[0102]
In the management table, flags for indicating whether or not reduced image data identified by individual index values exist in the submap file are recorded in order. Since this flag can be expressed by 1 bit, for example, if 1 kilobyte is prepared as a management table, the presence / absence of 1024 × 8 = 8192 reduced image data can be managed.
[0103]
For example, in the example of FIG. 13, if the data value of the first byte of the management table is “001110111”, the reduced image data is recorded in the data area corresponding to the index values 0, 1, 2, 4, and 5. I understand that That is, data values “1” and “0” in the management table represent the presence or absence of reduced image data, respectively.
[0104]
In the data area, one reduced image data is recorded with, for example, horizontal 80 pixels × vertical 60 pixels × 3 (RGB) = 14.4 kilobytes. Then, as shown in FIG. 13, a plurality of reduced image data are sequentially recorded after the management table of the management area.
[0105]
Normally, the file size can be detected by the function of MS-DOS. Therefore, the total number of bytes including the management table size and the management table size is subtracted from the submap file size. By dividing the size of the data area obtained as a result by the capacity (14.4 kilobytes) required for one reduced image data, it is possible to know how many reduced image data are managed by the submap file.
[0106]
Thereby, the range of effective index values can be known. Further, by confirming the contents of the management table, it is possible to know in what number area of the data area the effective reduced image data is stored.
[0107]
If you want to add a new reduced image to the submap file with the camera or host computer, first set the index value indicating that the management table flag is “0”, that is, “no reduced image” within the range of valid index values. look for. If there is such an index value, the data area of the submap file corresponding to the index value is made a place for storing new reduced image data, and the flag of the management table is set to “1”, that is, “reduced image”. Change to “Yes”.
[0108]
On the other hand, if there is no such index value, the size of the submap file is changed so that the submap file can include new reduced image data, and the newly added data area portion is newly reduced. A storage area for image data. Then, the flag value of the management table corresponding to the index value of the newly secured data area is changed to “1” to indicate “reduced image exists”. At this time, if it is necessary to change the size of the management table, it is also changed. Then, the data area is moved backward by the increase in the management area.
[0109]
Then, the new reduced image data is stored in the data area newly secured in the submap file as described above. Further, the index value corresponding to the reduced image data is recorded as the arrangement information (File location) of the reduced image information descriptor (Thumbnail desc) in the map file.
[0110]
Further, when it is necessary to read the reduced image data, the location in the submap file is calculated based on the index value of the reduced image data. Then, the access can be moved to the calculated location, and the reduced image data can be read from the submap file.
[0111]
At this time, it is checked in advance whether the index value is valid by referring to the management table of the submap file. That is, whether the index value is valid from the relationship between the submap file size, the size of the reduced image data, and the size of the management table, and the flag value of the management table corresponding to the index value is “reduced image exists” Check whether it shows.
[0112]
Also, when deleting the reduced image data already recorded in the submap file, for example, changing only the flag of the management table to “no reduced image” with the reduced image data remaining in the file. do it.
[0113]
As described above, according to the present embodiment, by managing the reduced images in one submap file, the number of times the file is opened and closed in order to display many reduced images is reduced, and the search by the file name is performed. The number of times can be reduced. This makes it possible to access the reduced image at higher speed.
[0114]
【The invention's effect】
According to the present invention, Image file etc. Information about The It can be presented to the user at high speed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing elemental features of the present invention.
FIG. 2 is a block diagram illustrating a configuration of a recording system of a camera that is an embodiment of the present invention.
FIG. 3 is a block diagram showing the configuration of a camera playback system according to an embodiment of the present invention.
FIG. 4 is a flowchart showing an information presentation processing procedure in the camera playback system according to the present embodiment;
FIG. 5 is a diagram showing a configuration example of a map file according to the present embodiment.
FIG. 6 is a diagram illustrating an example of contents of an image file descriptor in a map file according to the present embodiment.
FIG. 7 is a diagram showing an example of the contents of a sound file descriptor in a map file according to the present embodiment.
FIG. 8 is a diagram illustrating an example of contents of a group descriptor in a map file according to the present embodiment.
FIG. 9 is a diagram showing another example of the contents of the image file descriptor in the map file according to the present embodiment.
FIG. 10 is a diagram illustrating an example of an information presentation method according to the present embodiment.
FIG. 11 is a diagram showing another example of the information presentation method according to the present embodiment.
FIG. 12 is a diagram illustrating another example of the information presentation method according to the present embodiment.
FIG. 13 is a diagram illustrating an example of a data structure of a submap file according to another embodiment of the present invention.
[Explanation of symbols]
1 Recording device
2 recording media
3 Playback device
11 Image recording means
12 Voice recording means
13 Attached information recording means
21 Image file
22 Reduced image file
23 audio files
24 Map file
31 Image reproduction means
32 Sound playback means
33 Attribute information reproduction means
201 lens
202 Imaging device
203 A / D converter
204 Image memory
205 Compression encoder
206 Recording device
207 CPU
208 recording media
209 Operation part
210 Voice input unit
211 Voice A / D Converter
301 playback device
302 Image memory
303 Decryption / decompression unit
304 Image output unit
305 Audio output unit

Claims (29)

画像データを有する画像ファイルを記録媒体に記録し、音声データを有する音声ファイルを前記記録媒体に記録し、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルを前記記録媒体に記録する記録手段と、
前記記録媒体から前記付帯情報用ファイルを再生する再生手段とを有し、
前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得できるようにし、
前記画像ファイルに対応する縮小画像と、前記音声ファイルに対応するアイコンとを表示できるようにしたことを特徴とする記録再生装置。
An image file having image data is recorded on a recording medium, an audio file having audio data is recorded on the recording medium, and second auxiliary information including information relating to the image file and information relating to the audio file are included. Recording means for recording an auxiliary information file having auxiliary information on the recording medium;
Playback means for playing back the auxiliary information file from the recording medium,
The information about the image file and the information about the audio file can be acquired from the incidental information file,
A recording / reproducing apparatus capable of displaying a reduced image corresponding to the image file and an icon corresponding to the audio file.
画像データを有する画像ファイルを記録媒体に記録し、音声データを有する音声ファイルを前記記録媒体に記録し、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルを前記記録媒体に記録する記録手段と、
前記記録媒体から前記付帯情報用ファイルを再生する再生手段とを有し、
前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得できるようにし、
前記音声ファイルに対応するアイコンを前記画像ファイルに対応する縮小画像に重ねて表示できるようにしたことを特徴とする記録再生装置。
An image file having image data is recorded on a recording medium, an audio file having audio data is recorded on the recording medium, and second auxiliary information including information relating to the image file and information relating to the audio file are included. Recording means for recording an auxiliary information file having auxiliary information on the recording medium;
Playback means for playing back the auxiliary information file from the recording medium,
The information about the image file and the information about the audio file can be acquired from the incidental information file,
A recording / reproducing apparatus, wherein an icon corresponding to the audio file can be displayed overlaid on a reduced image corresponding to the image file.
前記第1の付帯情報は、前記画像ファイルが記録されている場所を示す情報を含み、
前記第2の付帯情報は、前記音声ファイルが記録されている場所を示す情報を含むことを特徴とする請求項1または2に記載の記録再生装置。
The first incidental information includes information indicating a location where the image file is recorded,
The second incidental information, the recording and reproducing apparatus according to claim 1 or 2, characterized in that it comprises an information indicating where the audio file is recorded.
前記第1の付帯情報は、前記画像ファイルに関連する音声ファイルが記録されている場所を示す情報を含むことを特徴とする請求項1からのいずれかに記載の記録再生装置。The first incidental information, the recording and reproducing apparatus according to any one of claims 1 to 3, characterized in that it comprises information that indicates where the audio file associated with the image file is recorded. 前記記録媒体から前記画像ファイルを再生する場合は、前記第1の付帯情報を用いて前記記録媒体から前記画像ファイルを再生し、
前記記録媒体から前記音声ファイルを再生する場合は、前記第2の付帯情報を用いて前記記録媒体から前記音声ファイルを再生することを特徴とする請求項1からのいずれかに記載の記録再生装置。
When reproducing the image file from the recording medium, the image file is reproduced from the recording medium using the first auxiliary information,
When said from the recording medium to reproduce the audio file, the recording and reproducing according to any one of claims 1 to 4, characterized in that for reproducing the audio file from the recording medium using the second incidental information apparatus.
前記記録媒体は、メモリカードであることを特徴とする請求項1からのいずれかに記載の記録再生装置。The recording medium, recording and reproducing apparatus according to any of claims 1, characterized in that the memory card 5. 前記記録媒体は、ハードディスクであることを特徴とする請求項1からのいずれかに記載の記録再生装置。The recording medium, recording and reproducing apparatus according to any one of claims 1 to 5, characterized in that a hard disk. 前記記録再生装置は、カメラであることを特徴とする請求項1からのいずれかに記載の記録再生装置。The recording and reproducing apparatus, a recording and reproducing apparatus according to any of claims 1, characterized in that the camera 7. 前記記録手段は、前記画像ファイルを前記記録媒体に記録するだけでなく、前記画像データに関連する縮小画像データを有する縮小画像ファイルを前記記録媒体に記録し、The recording means not only records the image file on the recording medium, but also records a reduced image file having reduced image data related to the image data on the recording medium,
前記第1の付帯情報は、前記縮小画像ファイルが記録されている場所を示す情報を含むことを特徴とする請求項1から8のいずれかに記載の記録再生装置。9. The recording / reproducing apparatus according to claim 1, wherein the first auxiliary information includes information indicating a location where the reduced image file is recorded.
前記第1の付帯情報は、前記画像ファイルが属しているグループを示す情報を含むことを特徴とする請求項1から9のいずれかに記載の記録再生装置。10. The recording / reproducing apparatus according to claim 1, wherein the first auxiliary information includes information indicating a group to which the image file belongs. 画像データを有する画像ファイルと、音声データを有する音声ファイルと、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルとが記録された記録媒体から前記付帯情報用ファイルを再生する再生手段を有し、
前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得できるようにし、
前記画像ファイルに対応する縮小画像と、前記音声ファイルに対応するアイコンとを表示できるようにしたことを特徴とする再生装置。
An auxiliary information file having an image file having image data, an audio file having audio data, first auxiliary information including information relating to the image file, and second auxiliary information including information relating to the audio file. Reproducing means for reproducing the auxiliary information file from the recorded recording medium,
The information about the image file and the information about the audio file can be acquired from the incidental information file,
A playback apparatus characterized in that a reduced image corresponding to the image file and an icon corresponding to the audio file can be displayed.
画像データを有する画像ファイルと、音声データを有する音声ファイルと、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルとが記録された記録媒体から前記付帯情報用ファイルを再生する再生手段を有し、
前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得できるようにし、
前記音声ファイルに対応するアイコンを前記画像ファイルに対応する縮小画像に重ねて表示できるようにしたことを特徴とする再生装置。
An auxiliary information file having an image file having image data, an audio file having audio data, first auxiliary information including information relating to the image file, and second auxiliary information including information relating to the audio file. Reproducing means for reproducing the auxiliary information file from the recorded recording medium,
The information about the image file and the information about the audio file can be acquired from the incidental information file,
A playback apparatus characterized in that an icon corresponding to the audio file can be displayed superimposed on a reduced image corresponding to the image file.
前記第1の付帯情報は、前記画像ファイルが記録されている場所を示す情報を含み、
前記第2の付帯情報は、前記音声ファイルが記録されている場所を示す情報を含むことを特徴とする請求項11または12に記載の再生装置。
The first incidental information includes information indicating a location where the image file is recorded,
The playback apparatus according to claim 11 or 12 , wherein the second supplementary information includes information indicating a location where the audio file is recorded.
前記第1の付帯情報は、前記画像ファイルに関連する音声ファイルが記録されている場所を示す情報を含むことを特徴とする請求項11から1のいずれかに記載の再生装置。The first incidental information reproducing apparatus according to claim 11 1 3, characterized in that it comprises information that indicates where the audio file associated with the image file is recorded. 前記記録媒体から前記画像ファイルを再生する場合は、前記第1の付帯情報を用いて前記記録媒体から前記画像ファイルを再生し、
前記記録媒体から前記音声ファイルを再生する場合は、前記第2の付帯情報を用いて前記記録媒体から前記音声ファイルを再生することを特徴とする請求項11から1のいずれかに記載の再生装置。
When reproducing the image file from the recording medium, the image file is reproduced from the recording medium using the first auxiliary information,
When playing the audio file from the recording medium, the reproduction of any of claims 11 to 1 4, characterized in that for reproducing the audio file from the recording medium using the second incidental information apparatus.
前記記録媒体は、メモリカードであることを特徴とする請求項11から1のいずれかに記載の再生装置。The recording medium playback device according to any one of claims 11, characterized in that the memory card 1 5. 前記記録媒体は、ハードディスクであることを特徴とする請求項11から1のいずれかに記載の再生装置。The recording medium playback device according to any one of claims 11, characterized in that a hard disk 1 5. 前記再生装置は、カメラであることを特徴とする請求項11から1のいずれかに記載の再生装置。The reproduction apparatus, reproduction apparatus according to claim 11, wherein 1-7 that the camera. 前記記録媒体は、前記画像ファイルだけでなく、前記画像データに関連する縮小画像データを有する縮小画像ファイルが記録されているものであり、The recording medium records not only the image file but also a reduced image file having reduced image data related to the image data,
前記第1の付帯情報は、前記縮小画像ファイルが記録されている場所を示す情報を含むことを特徴とする請求項11から18のいずれかに記載の再生装置。19. The reproducing apparatus according to claim 11, wherein the first auxiliary information includes information indicating a location where the reduced image file is recorded.
前記第1の付帯情報は、前記画像ファイルが属しているグループを示す情報を含むことを特徴とする請求項11から19のいずれかに記載の再生装置。20. The playback apparatus according to claim 11, wherein the first auxiliary information includes information indicating a group to which the image file belongs. 画像データを有する画像ファイルと、音声データを有する音声ファイルと、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルとが記録された記録媒体から前記付帯情報用ファイルを再生するステップと、
前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得するステップと、
前記画像ファイルに対応する縮小画像と、前記音声ファイルに対応するアイコンとを表示するステップとを有することを特徴とする再生方法。
An auxiliary information file having an image file having image data, an audio file having audio data, first auxiliary information including information relating to the image file, and second auxiliary information including information relating to the audio file. Reproducing the incidental information file from the recorded recording medium;
Obtaining information about the image file and information about the audio file from the incidental information file;
A playback method comprising: displaying a reduced image corresponding to the image file and an icon corresponding to the audio file.
画像データを有する画像ファイルと、音声データを有する音声ファイルと、前記画像ファイルに関する情報を含む第1の付帯情報と前記音声ファイルに関する情報を含む第2の付帯情報とを有する付帯情報用ファイルとが記録された記録媒体から前記付帯情報用ファイルを再生するステップと、
前記付帯情報用ファイルから前記画像ファイルに関する情報と前記音声ファイルに関する情報とを取得するステップと、
前記音声ファイルに対応するアイコンを前記画像ファイルに対応する縮小画像に重ねて表示するステップとを有することを特徴とする再生方法。
An auxiliary information file having an image file having image data, an audio file having audio data, first auxiliary information including information relating to the image file, and second auxiliary information including information relating to the audio file. Reproducing the incidental information file from the recorded recording medium;
Obtaining information about the image file and information about the audio file from the incidental information file;
And a step of displaying an icon corresponding to the audio file superimposed on a reduced image corresponding to the image file.
前記第1の付帯情報は、前記画像ファイルが記録されている場所を示す情報を含み、
前記第2の付帯情報は、前記音声ファイルが記録されている場所を示す情報を含むことを特徴とする請求項21または22に記載の再生方法。
The first incidental information includes information indicating a location where the image file is recorded,
The reproduction method according to claim 21 or 22 , wherein the second incidental information includes information indicating a location where the audio file is recorded.
前記第1の付帯情報は、前記画像ファイルに関連する音声ファイルが記録されている場所を示す情報を含むことを特徴とする請求項21から2のいずれかに記載の再生方法。The first incidental information reproducing method according to claim 21 2 3 audio file, characterized in that it comprises information indicating a location that is recorded associated with the image file. 前記記録媒体から前記画像ファイルを再生する場合は、前記第1の付帯情報を用いて前記記録媒体から前記画像ファイルを再生し、
前記記録媒体から前記音声ファイルを再生する場合は、前記第2の付帯情報を用いて前記記録媒体から前記音声ファイルを再生することを特徴とする請求項21から2のいずれかに記載の再生方法。
When reproducing the image file from the recording medium, the image file is reproduced from the recording medium using the first auxiliary information,
When playing the audio file from the recording medium, the reproduction of any one of claims 21 to 2 4, characterized in that for reproducing the audio file from the recording medium using the second incidental information Method.
前記記録媒体は、メモリカードであることを特徴とする請求項21から2のいずれかに記載の再生方法。The recording medium, method of reproduction according to any one of claims 21 2 5, which is a memory card. 前記記録媒体は、ハードディスクであることを特徴とする請求項21から2のいずれかに記載の再生方法。The recording medium, method of reproduction according to any one of claims 21 2 5, which is a hard disk. 前記記録媒体は、前記画像ファイルだけでなく、前記画像データに関連する縮小画像データを有する縮小画像ファイルが記録されているものであり、The recording medium records not only the image file but also a reduced image file having reduced image data related to the image data,
前記第1の付帯情報は、前記縮小画像ファイルが記録されている場所を示す情報を含むことを特徴とする請求項21から27のいずれかに記載の再生方法。28. The reproducing method according to claim 21, wherein the first supplementary information includes information indicating a location where the reduced image file is recorded.
前記第1の付帯情報は、前記画像ファイルが属しているグループを示す情報を含むことを特徴とする請求項21から28のいずれかに記載の再生方法。29. The reproducing method according to claim 21, wherein the first auxiliary information includes information indicating a group to which the image file belongs.
JP28979095A 1995-11-08 1995-11-08 Recording / reproducing apparatus, reproducing apparatus and reproducing method Expired - Fee Related JP3884785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28979095A JP3884785B2 (en) 1995-11-08 1995-11-08 Recording / reproducing apparatus, reproducing apparatus and reproducing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28979095A JP3884785B2 (en) 1995-11-08 1995-11-08 Recording / reproducing apparatus, reproducing apparatus and reproducing method

Publications (2)

Publication Number Publication Date
JPH09135412A JPH09135412A (en) 1997-05-20
JP3884785B2 true JP3884785B2 (en) 2007-02-21

Family

ID=17747809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28979095A Expired - Fee Related JP3884785B2 (en) 1995-11-08 1995-11-08 Recording / reproducing apparatus, reproducing apparatus and reproducing method

Country Status (1)

Country Link
JP (1) JP3884785B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3037140B2 (en) * 1996-06-13 2000-04-24 日本電気オフィスシステム株式会社 Digital camera
JP3383580B2 (en) 1998-05-15 2003-03-04 株式会社東芝 Information storage medium, information recording / reproducing apparatus and method
US6704492B2 (en) 1998-05-15 2004-03-09 Kabushiki Kaisha Toshiba Information recording method and information reproducing method
JP4580478B2 (en) 1998-12-08 2010-11-10 ソニー株式会社 Camera device
TW526477B (en) 1999-08-03 2003-04-01 Matsushita Electric Ind Co Ltd A/V data recording device and method, and the disk recording with the same
JP3622620B2 (en) 2000-02-18 2005-02-23 富士写真フイルム株式会社 Image information acquisition method, image information transmission apparatus, and image information transmission system
MXPA01013110A (en) * 2000-04-21 2002-06-04 Sony Corp Encoding device and method, recorded medium, and program.
EP1280348A4 (en) 2000-04-21 2004-10-06 Sony Corp Information processing apparatus and method, program, and recorded medium
US7414746B2 (en) 2000-05-23 2008-08-19 Fujifilm Corporation Image data communication method
KR100448452B1 (en) 2000-06-09 2004-09-13 엘지전자 주식회사 Method for supporting menu of a high-density recording medium
JP3696498B2 (en) * 2000-11-24 2005-09-21 パイオニア株式会社 Information editing device
WO2003007599A1 (en) * 2001-07-13 2003-01-23 Nikon Corporation Electronic camera
CN100447884C (en) * 2002-04-05 2008-12-31 松下电器产业株式会社 Record medium
JP4953304B2 (en) * 2007-04-12 2012-06-13 アルパイン株式会社 Content data playback device, content list creation method, and content data search method
JP2008118642A (en) * 2007-10-29 2008-05-22 Sony Corp Camera device
JP4693914B2 (en) * 2009-04-09 2011-06-01 シャープ株式会社 RECORDING / REPRODUCING DEVICE AND AV DATA CHARACTERISTIC VIDEO CREATION METHOD

Also Published As

Publication number Publication date
JPH09135412A (en) 1997-05-20

Similar Documents

Publication Publication Date Title
JP3884785B2 (en) Recording / reproducing apparatus, reproducing apparatus and reproducing method
US8520231B2 (en) Record/replay apparatus and method that display moving images and still images generated from moving images
JP5098145B2 (en) Data management apparatus and recording medium management method
JP4751889B2 (en) Data recording system, data recording method, and data recording program
KR100643050B1 (en) Image recording/reproducing device and method, disk, and image reproducing device
US20040264933A1 (en) Recording apparatus
US20060210246A1 (en) Data processing apparatus
JP3623983B2 (en) Image file recording / reproducing apparatus and method
US7809728B2 (en) Recording/playback apparatus and method
US8082257B2 (en) Recording and reproducing apparatus
WO2008018311A1 (en) Data processing device, data processing method, and computer program
US7272080B2 (en) Recording apparatus
JPH08147952A (en) Recording and reproducing device
JP3592504B2 (en) Digital still camera
JP4346695B2 (en) Recording apparatus and recording method
JP2005032315A (en) Recording and reproducing device and its method
JP3907227B2 (en) Digital camera, recording method thereof and recording / reproducing method thereof
JP2006072736A (en) Information processing apparatus and method, program, and storage medium
JP4124593B2 (en) Information recording apparatus and method
JP4693735B2 (en) Still image file recording and editing device
JP3957775B2 (en) Digital camera and recording method thereof
JP2006165797A (en) Recording device and recording method
JP2000196996A (en) Digital camera, reproducing device and memory card
JP2009110598A (en) Recording apparatus and recording method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131124

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees