[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4960121B2 - コンテンツ撮影装置 - Google Patents

コンテンツ撮影装置 Download PDF

Info

Publication number
JP4960121B2
JP4960121B2 JP2007062446A JP2007062446A JP4960121B2 JP 4960121 B2 JP4960121 B2 JP 4960121B2 JP 2007062446 A JP2007062446 A JP 2007062446A JP 2007062446 A JP2007062446 A JP 2007062446A JP 4960121 B2 JP4960121 B2 JP 4960121B2
Authority
JP
Japan
Prior art keywords
scene
reproduction
priority
content
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007062446A
Other languages
English (en)
Other versions
JP2008227860A (ja
Inventor
芳宏 森岡
賢司 松浦
尚 井上
正明 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2007062446A priority Critical patent/JP4960121B2/ja
Priority to PCT/JP2008/000531 priority patent/WO2008111308A1/ja
Priority to US12/521,865 priority patent/US8643745B2/en
Publication of JP2008227860A publication Critical patent/JP2008227860A/ja
Application granted granted Critical
Publication of JP4960121B2 publication Critical patent/JP4960121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明はコンテンツ撮影装置に関し、さらに詳しくは、ムービー撮影においてクリップ記録の開始から終了までの間で、不要部を削除したコンテンツや、重要であると推察されるシーンにより構成されるダイジェストを簡単に作成できるコンテンツ撮影装置に関する。
従来より、映画やテレビドラマ等の撮影は、絵コンテ等を元に作成したシナリオ(台本)に基づいて行われている。シナリオにはタイトル(名前)が付けられており、複数のシーンにより構成されている。またシーンは複数のカットより構成されている。監督はシナリオに従って演出を行ない、俳優、女優、およびエキストラなどの出演者はシナリオの記述に従って演技する。生本番の舞台やコンサート等においては、シナリオに示されているシーンの順番通りに演じられる。
一方、映画やドラマ等においては、シナリオに示されたシーンの順番通りに撮影が行われることは稀である。
従来の技術におけるメタデータの作成や編集について説明する。メタデータの入力方法と編集システムとして、特許文献1に記載されたものが知られている。具体的には、コンテンツに関連したメタデータの作成あるいはタグ付けを行う場合に、制作されたコンテンツのシナリオ等から事前に抽出したキーワードが音声で入力される。そして、シナリオに基づいて辞書分野の設定およびキーワードの優先順位付けが行われて、音声認識手段によってメタデータが作成される。同方法によれば、キー入力では困難な数秒間隔でメタデータを付与する場合でも、音声認識を用いることによって効率のよいメタデータの付与が可能である。また、メタデータを検索するキーワードとして、シーン検索もできる。
また、シナリオ情報を解析する装置として、特許文献2に記載されたものが知られている。同装置はシナリオ情報格納部、参照情報格納部、算出部および出力部を備えている。情報格納部はシーン毎に区分されたシナリオ情報を格納する。参照情報格納部はシナリオ情報に含まれるデータに関する参照情報を格納する。算出部はシナリオ情報からデータを抽出し、抽出されたデータおよび参照情報に基づいて出力情報を算出して、出力部に出力する。
このように構成されたシナリオ情報解析装置は、シナリオに含まれるデータおよびそのデータに関係付けられた参照情報に基づいて、適切な撮影スケジュール等の出力情報を自動的に算出し出力すると共に、シナリオ情報を解析できる。結果、撮影スジュールの立案時間の短縮化に加えて、出力された撮影スケジュールに従って撮影を行なうことにより、撮影を早く完了することができるので、撮影費用を低減できる。
特許第3781715号公報 特開2004−362610号公報
上述の特許文献1および特許文献2に代表される従来の装置および方法においては、ムービー撮影においてクリップ記録の開始から終了までの間に、パンやズームなどのカメラワークパターンや、収録音や、ユーザ操作等に基づいて、特徴のある場面でメタデータが生成されてリスト化される。
そして、記録終了後にリスト中のメタデータを用いて関連したクリップで構成されるダイジェストを作成することができる。コンテンツの内容にも依存するが、コンテンツのダイジェストは、一般的に全体(元の撮影量)の1/3以下の量であることが望ましい。しかしながら、上述の方法では、コンテンツによっては、メタデータ数が膨大になり、作成されるダイジェスト中に撮影コンテンツの半分以上が残ってしまうことがある。このような場合、とてもダイジェストとはいえない長いダイジェストが出来上がる。これは、従来の構成では、撮影コンテンツよりダイジェストを生成する場合、ダイジェストを構成するシーン、クリップの数を絞り込むことができないことに起因する。
さらに、様々な観点にたつダイジェスト作成に対するユーザの要望も多い。具体的には、カメラワークに重点を置いたダイジェストや、音に重点を置いたダイジェスト、ユーザのボタン入力に重点を置いたダイジェスト、希望の時間長に収めるダイジェスト、複数の撮影クリップのうちから特徴シーンの多い(たとえば、優先度が高いクリップが多い)クリップだけを選択してダイジェスト化などが挙げられる。しかしながら、従来の技術では、このような要望を満たすユーザの好みのダイジェストを自動的に生成できない。
上述の問題に鑑みて、本発明はメタデータ数を優先度の高い順または優先度の低い順に事前に設定した個数以下に絞り込むことにより、シーンやクリップの数を絞り込んだダイジェストを簡単に生成できる、あるいは自動的に好みのダイジェストを生成できるコンテンツ撮影装置を提供することを目的とする。
上記目的を達成するため本発明は、映像、音声またはデータのいずれかを含むコンテンツをそのシーン情報と組み合わせて情報記憶媒体に記録し、シーン情報を参照してコンテンツの特定部分にアクセスするコンテンツ撮影装置であって、
撮影収録する映像音声または撮影装置の動作情報のいずれかに含まれるパラメータを参照して特徴あるシーンを検出してシーン情報を生成するシーン情報生成手段と、
事前に決めてある規則により、前記シーン情報にその種別、優先度、開始時刻、終了時刻、代表時刻かのいずれかを補助情報として付加する手段と、
前記シーン情報とその補助情報とをシーンリストに記述するシーンリスト記述手段と、
前記情報記憶媒体への記録動作の終了後に、前記シーンリストに記述されている複数のシーン情報から前記優先度に基づいてあらかじめ決められた個数以内のシーン情報を選別するシーン選別手段とを備える。
前記シーン選別手段は、優先度の高い順にシーン情報を選別する高優先度シーン選別手段および優先度の低い順にシーン情報を選別する低優先度シーン選別手段の少なくとも一方を備えることが望ましい。
前記高優先度シーン選別手段は、前記低優先度シーン選別手段により選別されたシーンを除外した撮影コンテンツより高優先度シーンを選別することが望ましい。
前記コンテンツ撮影装置は、
前記シーン情報選択方法の設定手段と、
前記設定手段により決められた演算方式により、前記シーンリスト記述メモリに記述された複数のシーン情報の組み合わせを演算して前記シーン情報に第2の優先度を付加する第2優先度手段と、
前記第2の優先度を持つ特徴あるシーンの開始時刻と終了時刻と代表時刻との少なくともいずれかを前記シーン情報の補助情報として付加する補助情報付加手段と、
前記シーンリスト記述メモリにリストとして保持されている複数のシーン情報から前記第2の優先度の高い順にあらかじめ決まられた個数以内のシーン情報を選別して第2優先度リストを生成する第2優先度リスト生成手段とをさらに備えることが望ましい。
前記第2優先度リストを撮影コンテンツの再生時参照ファイルに記述する第2優先リスト記述手段をさらに備えることが望ましい。
前記コンテンツ撮影装置は、再生時に前記第2優先度リストを参照することにより、特徴あるシーンの開始点または代表点または終了点を参照した点にスキップするスキップ手段をさらに備えることが望ましい。
前記コンテンツ撮影装置は、前記第2優先度リストを参照することにより、特徴あるシーン区間を指定順序で再生するシーン再生手段をさらに備えることが望ましい。
前記コンテンツ撮影装置は、前記特徴あるシーン区間を指定順序で再生する場合に、各々の特徴あるシーン区間の再生時にその特徴シーンの説明をテロップとして再生映像に重畳するテロップ表示手段をさらに備えることが望ましい。
前記コンテンツ撮影装置は、
ダイジェスト化する特徴あるシーンの優先度指定、ダイジェスト化する特徴あるシーン種別の指定、ダイジェスト時間長の指定、コンテンツのダイジェストへの縮小率指定の少なくとも一つを入力するダイジェスト方式指定手段と、
前記再生時参照ファイルの補助データである第2優先度リストを参照してダイジェスト方式指定手段で指定されたダイジェスト生成方式に従って、再生時参照ファイルを生成する手段と、
前記再生時参照ファイルを再生オブジェクトリストに登録する登録手段とをさらに備えることが望ましい。
前記コンテンツ撮影装置は、前記再生時参照ファイルを参照して再生する場合に、各々の特徴あるシーン区間の再生時にその特徴シーンの説明をテロップとして再生映像に重畳するテロップ表示手段をさらに備えることが望ましい。
前記コンテンツ撮影装置は、
ダイジェスト化する特徴あるシーンの優先度指定、ダイジェスト化する特徴あるシーン種別の指定、ダイジェスト時間長の指定、コンテンツのダイジェストへの縮小率指定の少なくとも一つを入力するダイジェスト方式指定手段と、
前記再生時参照ファイルの補助データである第2優先度リストを参照してダイジェスト方式指定手段で指定されたダイジェスト生成方式に従って、指定された特徴あるシーンの集合体としてのファイルを生成するファイ生成手段とをさらに備えることが望ましい。
前記コンテンツ撮影装置は、
ダイジェスト化する特徴あるシーンの優先度指定、ダイジェスト化する特徴あるシーン種別の指定、ダイジェスト時間長の指定、およびコンテンツのダイジェストへの縮小率指定の少なくとも一つを入力するダイジェスト方式指定手段と、
前記再生時参照ファイルの補助データである第2優先度リストを参照してダイジェスト方式指定手段で指定されたダイジェスト生成方式に従って、指定されない特徴あるシーン区間を繋ぎ合わせて再生する再生手段をさらに備えることが望ましい。
前記コンテンツ撮影装置は、
ダイジェスト化する特徴あるシーンの優先度指定、ダイジェスト化する特徴あるシーン種別の指定、ダイジェスト時間長の指定、およびコンテンツのダイジェストへの縮小率指定の少なくとも一つを入力するダイジェスト方式指定手段と、
前記再生時参照ファイルの補助データである第2優先度リストを参照してダイジェスト方式指定手段で指定されたダイジェスト生成方式に従って、再生時に指定されない撮影区間を集めたファイルを生成するファイル生成手段とをさらに備えることが望ましい。
前記コンテンツ撮影装置は、前記再生時参照ファイルの補助データである第2優先度リストを参照することにより、再生時に指定される区間は通常再生を行い、再生時に指定されない撮影区間は「再生速度を通常より変更した再生」または「再生映像に処理を加えた映像の再生」を行う再生手段をさらに備えることが望ましい。
前記コンテンツ撮影装置は、撮影映像のスロー再生または高速再生またはスキップ再生または静止画表示を行う再生表示手段をさらに備え、前記「再生速度を通常より変更した再生」を行うことが望ましい。
前記コンテンツ撮影装置は、カメラワークに起因する撮影映像の横揺れやたて揺れを取り除いた映像を生成する映像生成手段をさらに備え、前記「再生映像に処理を加えた映像の再生」を行うことが望ましい。
前記コンテンツ撮影装置は、
前記再生オブジェクトリストに登録された再生時参照ファイルから、優先度があらかじめ決めた値上のシーンまたは特定のカメラワークを持ったシーンより構成されるお勧め再生時参照ファイルを生成するファイル生成手段と、
前記お勧め再生時参照ファイルをお勧め再生オブジェクトリストに登録する登録手段をさらに備えることが望ましい。
前記コンテンツ撮影装置は、
前記再生オブジェクトリストに登録された再生時参照ファイルの再生時にBGMを生成する手段と、
再生時参照ファイルの特徴あるシーンの切り替わり付近でBGMのメロディー、音色、およびテンポの少なくとも一つを変える変更手段をさらに備えることが望ましい。
本発明のコンテンツ撮影装置によれば、特に、映像撮影において、撮影コンテンツの不要部削除やダイジェスト生成が容易に実現できる。
(第1の実施の形態)
図1を参照して、本発明の第1の実施の形態に係るコンテンツ撮影装置の動作について説明する。すなわち、コンテンツ撮影装置であるカメラ101の内部の記録媒体(またはバッファメモリ)上に映像データと音声データとメタデータを生成して、メタデータを参照してダイジェスト再生機能などを提供するシステムモデルの一例について説明する。
図1において参照符号101はカメラを示し、参照符号102はカメラ101のレンズ部を示し、参照符号103はカメラ101のマイクを示し、そして参照符号104はカメラ101の撮影対象を示している。なお、撮影対象104とは、例えば、風景や人やペットなどの動物、車、建造物などである。
参照符号114は、メタデータ入力用ボタンを示し、参照符号105はカメラ101で撮影したデータを示し、参照符号106はメタデータを含むAVストリームデータファイル106を示している。参照符号107は、撮影シーン情報IS(シーン番号、カット番号、テーク番号、その収録テークの採用、不採用、保留)等のメタデータを示している。参照符号109は、カメラ101に対するリモコンを示している。ユーザはメタデータ入力用ボタン114およびリモコン109を操作して、カメラ101にメタデータ107を入力する。なお、カメラ101に用いられる撮像素子は、好ましくはCCDやC−MOSなどで構成される。
参照符号108はカメラ101で撮影されたデータシーケンスを示している。データシーケンス108においては、時間軸上に映像データ、音声データ、およびメタデータ107が配置されている。メタデータ107はテキスト形式の文字データとして扱うが、バイナリィ形式のデータとしても良い。データシーケンス108は、特定のシーンにおけるクリップ#1からクリップ#5までを含んでいる。
参照符号110は編集により、クリップ#1からクリップ#5までがつなぎ合わされたデータシーケンスを示している。参照符号111は、カメラ101に接続可能なテレビを示している。参照符号112は、カメラ101からテレビ111に信号を送る接続ケーブルを示している。参照符号113は、テレビ111からカメラ101へ信号を送る接続ケーブルを示している。ユーザは、カメラ101から離れた場所でリモコン109を操作して、信号ケーブル112を経由して、不要部を削除したコンテンツやダイジェスト(または、要約コンテンツ)をテレビ111に表示できる。
符号115はマイク103と同様に、音声を検出して音声信号としてカメラ101に入力するマイクを示している。参照符号115はカメラ101に内蔵されているマイクを示している。但し、マイク115は、マイク103およびマイク117がカメラ101に直接取り付けられてカメラ101の近傍の音声を収録するのに比べて、ケーブルなどでカメラ101に接続されてカメラ101の遠方の音声の収録に用いられる。マイク115は後述するように、マイクの代わりに光センサを用いることもできる。
テレビ111による一覧表示について簡単に説明する。テレビ111の画面において、横軸は時間の経過を表しており、それぞれのクリップの有効部(有効なシーン)と無効部(無効なシーン)が表示されている。
有効部は、例えば、
・ パンやズーム後のフィックスシーン、および
・ 歓声や拍手などの音声で特徴付けられるシーン等からなる。
一方、無効部は、例えば、
・ カメラの揺れによる画像の振れ(一般に、「グラグラ」)が大きいシーン、
・ ピンボケのシーン、パン/ティルト/ズームが早すぎるシーン、
・ 逆光になって画面が真っ黒になっているシーン、
・ ハウリングがあるシーン、
・ 地面を撮影しているシーン、および・
・ カメラのキャップが閉まっているシーン等からなる。
図1の例では、テレビ111の一覧表示において3つある有効部それぞれの代表クリップを代表サムネイルで画面上に表示している。この代表クリップは、それぞれの有効部の先頭フレームであってもよいし、有効部分の途中にある代表フレームであってもよい。また、それぞれの有効部と無効部には、それぞれ優先度が付与されていて、特定の優先度のシーンだけを選択してダイジェストを生成することもできる。
上述のメタデータ入力用ボタン114は、好ましくは3つのボタンにより構成されている。カメラで撮影中に重要な場面で、ユーザがメタデータ入力用ボタン114を操作することにより、その重要な撮影場面(クリップ)にマークをつけることができる(「マーキング機能」と言う)。この重要クリップを指すマークもメタデータ107であり、このメタデータ107を利用することにより、撮影後にマーク検索によりマークを付けたクリップ(クリップの先頭または代表となるフレームの映像、またはそれらのサムネイル映像)を素早く呼び出すことができる。メタデータ入力用ボタン114の3つのボタンは、例えば、1つ目のボタンは重要クリップの登録に、2つ目のボタンはボタン操作を有効にしたり文字入力モードに切替えたりするモード切替えに、3つ目のボタンは登録のキャンセル等の用途に使用される。
また、1つ目のボタンを押している期間を重要クリップとして登録するモードに切替えることもできる。さらに、1つ目のボタンを押した時点の前後5秒、あるいは前5秒、後10秒の合計15秒を重要クリップとして登録するモードに切替えることもできる。ボタンが3つあれば、押すボタンの種類、タイミング、押す長さの組み合わせにより、多くの機能を実現できる。
メタデータ107として入力された撮影シーン情報ISはクリップのタイムコード(たとえば、27MHzのクロック周波数において32bitで表現されるタイムコード)に関連付けられる。そして、タイムコードに関連づけられたメタデータ107は、カメラ101の本体内で電子的にカチンコ音や収録コンテンツと関連付けて、新たなメタデータ107として生成される。これにより、カチンコを鳴らした時刻への即時アクセスはもちろん、カチンコを鳴らした時刻以前の不要な収録データの削除や、収録結果が採用のシーンやカット等の並べ替えが簡単にできる。例えば、運動会の撮影において、かけっこ(短距離競争)、リレーなどの長距離競争、綱引き、および玉入れ等の開始タイミングにおけるフレーム画像もすぐに呼び出すことができる。
本明細書においては、撮影開始から撮影終了までの期間、または撮影開始から撮影ポーズまでの期間に撮影されたコンテンツをクリップと定義する。ユーザは、カメラで撮影した素材のシーケンスに基づいて、各クリップの開始位置(時刻)と終了位置(時刻)、または長さを指定して、クリップを並べ替えることができる。また各クリップをTVモニタなどに表示する場合、そのクリップの先頭または先頭以降から最後尾に至るフレーム(またはフィールド)映像や、パンやズームの前後などにおけるフィックス画像など、あるクリップで最も特徴的なフレームを、そのクリップを代表する映像として指定できる。
また、記録・ポーズ・停止などのムービーのボタン操作や、マイク115で検出される撮影者の声などを、クリップの特定のタイムコードと関連付けた(マーキングした)メタデータとして登録することができる。撮影者の声の例として、撮影対象に関するメタ情報がある。具体例としては、前述した撮影日(日付、朝昼夕夜など)、撮影方法(レンズ、カメラ、ショット、光源など)、イベントの参加者(目線、動き、表情、テンション、メイク、衣装の状態など)、セリフ(アドリブなどのキーワード)、および音(サウンド)等の他注目ポイントなどコンテンツの撮影に関する情報が挙げられる。
次に、図2を参照してカメラ101の内部構成と動作について説明する。カメラ101の内部には、ズーム制御部201、フォーカス制御部202、露出制御部203、撮像素子204、シャッタ速度制御部205、カメラマイコン206、絶対傾きセンサ207、角速度センサ208、前後/左右/垂直の加速度センサ209、ユーザ入力系210、カメラ信号処理部211、音声処理系212、H.264方式エンコーダ213、記録メディア214、および出力インタフェース215が備えられている。
なお、カメラマイコン206は、不要シーンや重要シーンの検出を行うシーン情報生成手段(Index生成手段)を備える。不要シーンや重要シーンの検出は、撮像装置のパン、ティルト、ズーム、フォーカス、音声入力レベルなどのデータに関して、それぞれに特定の演算を行うことに実現される。
ズーム制御部201はレンズ部102のズーム動作を制御する。フォーカス制御部202は、レンズ部102のフォーカス動作を制御する。露出制御部203はレンズ部102の露出調整動作を制御する。シャッタ速度制御部205は撮像素子204のシャッタ速度調整動作を制御する。絶対傾きセンサ207はカメラ101の水平/垂直方向の絶対傾きを検出する。角速度センサ208は、カメラ101の水平/垂直方向の角速度を検出する。加速度センサ209はカメラ101の前後/左右/垂直の加速度を検出する。
ユーザ入力系210は、ボタンなどでユーザの操作を受け付けて指示信号を生成する。音声処理系212は、内蔵マイク117、外部マイク103、あるいはマイク115からの入力を受け付ける。H.264方式エンコーダ213は、音声処理系212に入力された音声から、カチンコによる音を検出してカチンコ音検出メタデータを生成する。
撮像素子204の動作パラメータとしては、3原色点の色度空間情報、白色の座標、および3原色のうち少なくとも2つのゲイン情報、色温度情報、Δuv(デルタuv)、および3原色または輝度信号のガンマ情報の少なくとも1つの撮像素子動作データがある。本実施の形態においては、一例として、3原色点の色度空間情報、3原色のうちR(赤)とB(青)のゲイン情報、およびG(緑)のガンマカーブ情報をメタデータとして取り扱うものとする。なお、3原色点の色度空間情報が分かれば色空間における色再現が可能な範囲が分かる。また、3原色のうちR(赤)とB(青)のゲイン情報が分かれば色温度が分かる。さらに、G(緑)のガンマカーブ情報が分かれば、階調表現特性が分かる。なお、色温度検出用の専用センサを具備して、そのセンサから色温度情報を受け取るように構成してもよい。
レンズのズーム情報、レンズのフォーカス情報、レンズの露出情報、撮像素子のシャッタ速度情報、水平/垂直方向の絶対傾き情報、水平/垂直方向の角速度情報、前後/左右/垂直の加速度情報、ユーザの入力したボタン情報やシーン番号、カット番号、テーク番号、その収録テークの採用、不採用、保留などに関する情報、3原色点の色度空間情報、3原色のうちR(赤)とB(青)のゲイン情報、およびG(緑)のガンマカーブ情報は、カメラマイコン206においてメタデータ107(カメラメタと呼ぶ)として取り扱われる。
撮像素子204で撮影された情報(画像のデータ)は、カメラ信号処理部211による画素単位あるいは複数の画素により構成されるブロック単位で画素欠陥補正やガンマ補正などの処理を経て、H.264方式エンコーダ213で圧縮された後に、前述のカメラメタと共に記録メディア214に蓄積される。また、H.264方式エンコーダ213のAV出力と、カメラマイコン206のカメラメタ出力は、出力インタフェース215より、それぞれ出力される。
次に、図3を参照してムービーカメラにおいて作成されるメタデータについて説明する。H.264ストリームのSEIにマッピングされるリアルタイムメタデータの例としては、例えば、
・ムービーなどのカメラで撮影したAVコンテンツに関連付けたメタデータ
・一般的にはデータをメタデータ化したメタデータ
・デジタル放送のSI(Service Information)より得るメタデータ
・EPG提供事業者より得たEPG情報などのメタデータ
・Internetから得たEPGなどのメタデータ
などがある。
カメラで撮影したAVコンテンツに関連付けたメタデータとして、例えば、
・重要シーンでユーザが押したボタン情報(ナンバーなど識別情報を付加できる)
・撮影データ
なお、撮像データには、撮像素子の動作モード、逆光補正、絞り・露出情報、フォーカス、シャッタ速度情報、色温度、ホワイトバランス、ズーム、仰角、地面撮影、グラグラした揺れ、グラグラ、パン/ティルト/ズーム(PTZと略す)の状態、ハウリングの状態、カメラのキャップ閉まり状態、およびカメラの姿勢状態(水平/垂直方向の絶対傾き情報、水平/垂直方向の角速度情報、前後/左右/垂直の加速度情報など)が含まれる。
・タイムコード(映像フレーム、音声フレーム)
・撮影フレームレート、記録フレームレートなどの映像や音声のフォーマット情報
などがある。
また、ノン(非)リアルタイムメタデータとしては、例えば、
・メニュー情報
・タイトルリスト(代表イベント、ユーザが登録したイベント)
・シーン番号、カット番号、テーク番号、その収録テークの採用/不採用/保留などに関する情報
・映像ブロックの輝度、色情報
・画像認識データ(顔、人、ペットなどの検出、認識)
・音声入力レベル(指定chの一定期間における入力レベルの最大値)
・音声認識データ
・撮像素子の3原色点の色度空間情報、白色の座標、3原色のうち少なくとも2つのゲイン情報、色温度情報、Δuv(デルタuv)などの撮像システムの動作データ
・外部との通信で入力されたファイル(シナリオなどのテキストをXML、バイナリデータの形式のファイルを外部インタフェースより入力)
・3原色または輝度信号のガンマ情報
・静止画
・サムネイル
などがある。上述のメタデータのうちで必要なものが選択されて使用される。メタデータの記述形式としては、UPnPやUPnP−AVで導入されているプロパティ(property)やアトリビュート(attribute)がある。これらは、http://upnp.orgで公開されており、テキストやXML(Extensible Markup Language)の利用を意識した設計を行うト効率的な運用ができる。
なお、ムービーなどの撮影者、コンテンツ制作者、またはコンテンツの著作権者が各メタデータに価値を付け、コンテンツを利用するユーザの利用内容や頻度により利用料金を徴収するために、各メタデータに価値を与えるメタデータを関連づけることができる。各メタデータに価値を与えるメタデータは該メタデータのアトリビュートで与えてもよいし、独立したプロパティとして与えてもよい。
以下に、録画機器と録画条件に関する情報について一例を説明する。ムービーの機器メーカー識別ID、機種識別ID、ムービーなどの撮影者、コンテンツ制作者、またはコンテンツの著作権者が作成し、そして登録するメタデータの価値が高く使用許諾が必要と考える場合、該メタデータの利用には認証による使用許諾のプロセスを実行する構成を本発明に組み込んで構成をすることによって効率的な運用ができる。
この場合、撮影者は撮影した動画コンテンツを暗号化したファイルを作成し、Internet上のサーバーにそのファイルをアップロードして公開してもよいし、暗号化したファイルをアップロード・告知して、気にいった人に購入してもらう構成もとれる。また、ハプニング映像などニュース価値があるコンテンツが録画できた場合、複数の放送局間でオークションにかけることもできる。メタデータの活用により、増大するコンテンツの分類、検索を効率的にすることができる。
次に、図4を参照して、実施の一形態として映像圧縮方式(H.264/AVC方式)および音声圧縮方式(AAC方式)における以下の4つの方法について説明する。
・リアルタイムメタデータのマッピング方法
・リアルタイムメタデータから不要シーン検出
・重要シーンの検出を行いそのシーン情報(シーンのインデックス、タグ、または、メタデータと呼ばれる)のマッピング方法
図4は、図1におけるカメラ101内部のAV信号圧縮記録制御部における映像と音声の圧縮エンジンとその周辺処理手段のより詳細な説明図である。図4において、参照符号401は映像符号化部を示し、参照符号402はVCL(Video Coding Layer)−NAL(Network Abstraction Layer)ユニットバッファを示し、参照符号403はAAC方式による音声符号化部を示している。
参照符号404はPS(Parameter Set)バッファを示し、参照符号405はVUI(Video Usability Information)バッファを示し、参照符号306はSEI(Supplemental Enhancement Information)バッファを示し、参照符号407はnon−VCL−NAユニットバッファを示し、参照符号408はMPEG−PESパケット生成部を示している。また、参照符号409はMPEG−TS(MPEG Transport Packet)生成部を示し、参照符号410はATS(Arrival Time Stamp)パケット生成部を示し、参照符号411はEP−map生成部を示している。
図4に示すように、映像信号は映像符号化部401によってVCL−NAユニット形式のデータに変換された後に、VCL−NAユニットバッファ402によって一時保持される。音声信号、外部入力PSデータおよび外部入力VUIデータは、音声符号化部403、PSバッファ404、およびVUIバッファ405によってそれぞれNon VCL−NAユニット形式のデータに変換された後に、Non VCL−NAユニットバッファ407で一時保持される。同様に、撮像装置のパン、ティルト、ズーム、フォーカス、音声入力レベル(指定chの一定期間における入力レベルの最大値)などのリアルタイム系メタデータは、H.264/AVCのSEIのUser data unregistered SEI messageにマッピングされた後に、更にSEIバッファ406によって、Non VCL−NAユニット形式のデータに変換され、Non VCL−NAユニットバッファ407で一時保持される。
映像信号(4a)は映像符号化部401、および顔・人物検出手段408に入力される。顔・人物検出手段408は、人の顔の位置/大きさ/数を検出して検出データ(4q)をシーン情報のメタデータ生成手段409に出力する。音声信号(4b)は、音声符号化部403、および、シーン情報のメタデータ生成手段409に入力される。また、外部入力PSデータ(4c)、外部入力VUIデータ(4d)、タイムコード(4e)、撮影/記録フレームレート(4f)、ユーザが操作ボタンを押した時刻データ(4g)、逆光補正/絞りデータ(4h)、色温度/ホワイトバランスデータ(4i)、フォーカスデータ(4j)、ズームデータ(4k)、ジャイロセンサーのヨー/ロール/ピッチのデータ(4m)、仰角/地面撮り検出データ(4n)、カメラのレンズキャップの閉まり具合の状態データ(4p)が、それぞれ、シーン情報のメタデータ生成手段409に入力される。
シーン情報のメタデータ生成手段409は、内部にハウリング検出手段410、不要シーン検出手段411、重要シーン検出手段412、リアルタイムデータ選択/マッピング手段413を備えている。ハウリング検出手段410は音声信号(4b)に基づいて、ハウリングを検出する。
ここで、不要シーン検出例について説明する。不要シーン検出手段411は、図7に示す不要シーンのメタデータ(UA、UB、UC、UD、UE、UF、UG)を検出する。なお、
UAは、カメラのキャップが閉まっている状態を表し、
UBは、カメラの揺れ、ぐらぐらが大きい状態を表し、
UCは、フォーカスが合わないで、ピンボケになっている状態を表し、
UDは、パン/ティルト/ズームが早すぎる状態を表し、
UEは、逆光になっている状態を表し、
UFは、ハウリングがある状態を表し、そして
UGは、地面を撮影している状態を表す。
上述のメタデータが表す上状態の画像は、一般常識的な感性や感情を持った人であれば、ほぼ万国共通に不要シーンと認識されるものである。これは、受け入れがたいものに対する価値観は、一般に人の生理的な知覚、認知メカニズムに基づくところが多く、ほぼ万国共通であるためと考えられる。
具体的に言えば、メタデータUA、UB、UC、UD、UE、UF、およびUGは、それぞれ、優先度(ポイント)をUA(50点)、UB(40点)、UC(25点)、UD(20点)、UE(40点)、UF(35点)、UG(25点)と重み付けられる。
図7において、不要シーンの選択アルゴリズムとしては、単一で扱うだけでなく、複数の不要シーンの間隔が映像フレームで60フレーム以内の場合には1つの連続した不要シーンとしてまとめて扱うアルゴリズムを用いる。すなわち、「不要シーン区間の定義式」として、(単一不要シーン区間)+(間隔が60フレーム以内の複数の不要シーン区間)が規定できる。
なお、複数の不要シーンの間隔が60フレーム以内の場合に、これらの複数の不要シーンを1つの不要シーンとして扱う理由は、60フレーム以内でとぎれとぎれの映像を繋げると、忙しくて落ち着かない映像になるからである。不要シーンのシーン情報としては、不要シーンを構成する最も優先度の高いメタデータの種別と、不要シーンの時刻と期間(不要シーンの長さ)がシーン情報の詳細記述としてプレイリストのマーカー情報(マーカースキップに使用できる)や、マーカー情報の選択アルゴリズムとしてはと関連つけた補助データなどに使用される。
なお、不要シーンの数はコンテンツ長に応じて、予め決めておくこともできる。たとえば不要シーンは、1分当たり5個以内で、かつ、最大100個と決めることができる。また、不要シーンの種別指定や、コンテンツ毎に縮小率を指定することができる。また、3脚などを用いて安定した映像を撮影している場合は、不要シーンの検出機能を手動でOFFにして撮影することもできる。
不要シーン削除の例として、図5に撮影コンテンツより揺れが大きな2つの区間(シーン)を削除して、揺れのない3つの区間(シーン)を組み合わせて、1つの揺れのない映像シーケンスを構成する手順を示す。なお、揺れ以外の原因による不要区間の削除も同様の方法で行うことができる。
次に、重要シーン検出例について説明する。重要シーン検出手段412は、図8に示す重要シーンのメタデータ(A、B、C、D、E、F)を以下のごとく検出する。
メタデータ(A)に関しては、クリップのはじめ(CLIP−IN)、または、クリップのおわり(CLIP−OUT)における、1〜3秒のフィックス部分を重要部分として抽出するアルゴリズムを作成できる)。たとえば、100点とする。
メタデータ(B)に関しては、音検出のメタデータ107(メインマイクやサブマイクからの音声、カチンコ音、ピストル発射音、歓声、などの入力を検出したメタデータ部分)を重要部分として抽出するアルゴリズムを作成できる)。たとえば、70点とする。
メタデータ(C)に関しては、ジャイロの出力よりカメラのパン、ティルト後のフィックス(静止)シーンを検出することができる。フィックスシーン(カメラマンが興味を持って固定映像を撮影している部分、Interest部分)を、たとえば、40点とする。
メタデータ(D)に関しては、カメラのズーム値の時間変化をモニタして、ズームアップ、ズームダウンした部分を検出することができる。より詳細には、ズームアップ、ズームダウンの前後における1〜3秒のフィックス部分を重要部分として抽出するアルゴリズムを作成できる。たとえば、30点とする。
メタデータ(E)に関しては、ジャイロの出力よりカメラのパン、ティルトを検出することができる。たとえば、25点とする。
メタデータ(F)に関しては、撮像素子から得られる撮影映像を複数のブロックに分割し、各ブロックの色相、色度が、あらかじめ決めた色相、色度の範囲内にあるかどうかの情報が検出できる。たとえば、検出ブロックの大きさと形状、および肌色度から人の顔を検出することができる。さらに、パン、ティルトやズームの後のフィックス映像の検出ブロックの形状および肌色度から人の顔をより精度よく検出することができる。)。たとえば、50点とする。
注意すべき点は、上述の状態は一般的な感性・感情を持った人でも、撮影の素人と撮影のカメラワークに慣れた人では重要シーンとして認識するレベルが人によって少し異なる場合がありえることである。すなわち、撮影に慣れた人には映像撮影技法に準拠したカメラワークを意識して撮影するが、素人はそのような知識がないのでカメラワークを考えないで被写体を撮影することが往々にしてあるからである。ただ、素人でも撮影しているうちに、アドバイスを受けたり、自分できづいたりしながら、次第に一般に良いとされるカメラワークを習熟していくことが通例である。
図6に、重要シーンを抽出してダイジェストを生成する例として、撮影コンテンツよりズームアップ、およびズームダウン後の2つのフィックス区間(シーン)を抽出して、1つのダイジェストを構成する手順を示す。なお、ズームアップ、ズームダウン以外の要因による重要シーンの抽出とダイジェスト生成も同様の方法で行うことができる。
A、B、C、D、E、Fはそれぞれ優先度(それぞれ、ポイントを持つ)であり、重み付けを行う。図8において不要シーンは、A、B、C、D、E、Fのメタデータのいずれかで表される重要シーン、もしくは、映像フレームで、Nを整数として、(N)フレームの窓内に存在する複数の重要シーンの中で最も優先度の高いメタデータ代表させる。
たとえば、300フレーム幅の窓を用いた場合、この窓内に存在する複数の重要シーンから、「優先度ポイントの算出式」としては、
(300フレーム区間の窓内で最大優先度のシーンの優先度)+(その他の優先シーンの優先度に一定の係数で重み付けをした値)を定義して、「複数の重要シーンの優先度」を計算することができる。最優先シーン以外の優先シーンの優先度の重み付けは、たとえば0.2とする。
図8に示した例では、重要シーンの検出窓に、D(30点)、C(40点)、E(25点)、E(25点)が含まれる。そのために、優先度合計値は、
0.2×30+40+0.2×25+0.2×25 = 6+40+5+5
= 56
となる。
なお、重要シーンのシーン情報としては、重要シーンを構成する最も優先度の高いメタデータ(A、B、C、D、E、F)の種別と、重要シーンの時刻と期間(重要シーンの長さ)がシーン情報の詳細記述としてプレイリストのマーカー情報(マーカースキップに使用できる)や、マーカー情報と関連つけた補助データなどに使用される。ここで、重要シーンの数はコンテンツ長に応じて、あらかじめ決めておくこともできる。また、重要シーンによるコンテンツの縮小率もあらかじめ決めておくこともできる。
たとえば、図8の例にでは、一定期間の窓W1の中で最大の優先度を持ったメタデータを、ダイジェスト生成のために用いる第2のメタデータとして設定される。この場合、約800フレームに存在する、フィックス状態を表すInterestメタデータCを選択する。この時、事前に決めた規則により、このメタデータにイベントの種別、イベントの優先度、および、イベントの開始時刻と終了時刻と代表時刻とをアトリビュートとして付加する。これによって、第2のメタデータとそのアトリビュートであるイベントの開始時刻と終了時刻と代表時刻を参照することにより、たとえばズームアップ(3秒間)からフィックス(2秒間)までの5秒間の撮影シーンを1つのメタデータで表現することができる。
そこで、このメタデータの優先度の順、あるいは、メタデータのイベントの種別を指定することによりダイジェスト映像を生成することができる。
また、このメタデータの優先度の順、あるいは、メタデータのイベントの種別(たとえば、ズームアップした部分)を指定して、メタデータ位置を参照することにより、撮影コンテンツ内の意味のある部分(たとえば、ズームアップした部分)へと、スキップ再生(メタデータによるスキップ再生)ができる。
なお、図8において、一定期間の窓の中で優先度を持ったメタデータの合計値が、あらかじめ設定した値(たとえば、250)を超えた場合にのみ、第2のメタデータの選択を行うように設定するモードを追加することもできる。
また、高優先度シーンの選別は、まず低優先度シーンを除外したコンテンツより高優先度シーンを選別することにより、より安定したシーンの選別が可能となる。たとえば、ズームアップ後のフィックス部で高優先度シーンとしては有効であっても、ピンボケになっている場合があり、そのような低優先度シーンを優先的に除外できる。
同様に、ズームアップ後のフィックス部で高優先度シーンとしては有効であっても、逆光になって画面が真っ黒になっている場合があり、そのような低優先度シーンを優先的に除外できる。また、運動会のカケッコにおけるピストルの発射音が検出できていて高優先度シーンとしては有効であっても、ズームアップが早すぎたり、パンが早すぎたりして見るに耐えないシーンなどは、低優先度シーンを優先的に除外できる。
上述のように、まず第1段階として、低優先度シーンを除外した安定的に撮影されているシーンにより構成されるプレイリストを生成する。次に、第2段階として、安定したシーンより高優先度シーンを選別する。たとえば、第1段階で作成したプレイリストに高優先度シーンを追加して不要部ないコンテンツから重要シーンを選別する。以上の段階を経ることにより、揺れピンボケなどのない、視覚的にもより安定した、重要シーンの選別が可能となる。
なお、不要シーンのメタデータ(UA、UB、UC、UD、UE、UF、UG)は、不要というマイナスの意味を持つことから、符号にマイナスを付けて処理してもよい。ただし、この場合でも、前述した不要シーンの計算アルゴリズム(複数の不要シーンを1つの不要シーンにたばねる処理)と、重要シーンの計算アルゴリズム(複数の重要シーンから代表シーンを決め、代表シーンの優先度を計算する処理)は異なる処理であり、同じアルゴリズムで実現することはできない。
なお、高優先度のシーン(重要シーン)と低優先度のシーン(不要シーン)の中間の値をもつシーンは普通のシーン(一般的なシーン)であると取り扱える。
リアルタイムデータ選択/マッピング手段413は、前述したリアルタイムメタデータをSEIにマッピング方法することにより、以後、パソコンなど別の再生機器でも、このデータから不要シーンや重要シーンのシーン情報を再計算することができる。不要シーンや重要シーンのシーン情報を再計算するアルゴリズムが更新された場合に有効である。
VCL−NAユニットバッファ402から出力されたVCL−NAユニット形式のデータと、Non VCL−NAユニットバッファ407から出力されたNon VCL−NAユニット形式のデータに基づいて、MPEG−PESパケット(図9(C)参照)を生成し、188バイト長のMPEG−TS(図9(D)参照)を生成する。次に、MPEG−TSのそれぞれにタイムスタンプを含む4バイトのヘッダーを付加して、192バイトのATSパケット(図9(E)参照)を生成する。
このタイムスタンプは、たとえば、各MPEG−TSパケットがATSパケットを生成する処理ブロックに到着した時刻を示す。一般に、タイムスタンプのクロックは27MHzであり、4バイト全てがタイムスタンプとして用いる場合や、4バイトの内の30ビットをタイムスタンプとし、残りの2ビットはコンテンツ保護のためのフラグなどに用いる場合がある。
また、ストリームが包含する各GOP(Group of Picture)の先頭ピクチャのPTS(Presentation Time Stamp)、および各GOPの先頭ピクチャにおける先頭ATSの連番をペアで、EP−MAPとして出力する。なお、PTSやDTS(Decode Time Stamp)はPESパケットのヘッダーに含まれるので抽出は容易である。
また、各GOPの先頭ピクチャにおける先頭ATSの連番とは、ストリーム先頭のATSの連番を1とし、ストリーム先頭からのATSの個数を順次数えた番号である。各GOPの先頭ピクチャのPTSとATS連番のペアとして定義されるEP−MAPは、プレイリストを用いた再生やストリーム編集の際に用いる。
これらのH.264/AVC方式については、例えば、「H.264/AVC教科書」、大久保榮監修、株式会社インプレス発行、などの書籍に詳述されている。また、MPEG−TS信号はIEC 61883−4で規定されている。
MPEG−TSのPAT、PMTなど、TSに関する参考文献としては、例えば、CQ出版社、TECH I Vo.4、「画像&音声圧縮技術のすべて(インターネット/ディジタルテレビ、モバイル通信時代の必須技術)」、監修、藤原洋、第6章、「画像や音声を多重化するMPEGシステム」があり、同書にて解説されている。
また、PSIやSIの階層構造、処理手順の例、選局処理の例として、「デジタル放送受信機における選局技術」、三宅他、三洋電機技報、VOL.36、JUNE、2004、第74号、31ページから44ページでも解説されている。
次に、図9を参照して、H.264/AVCのファイル構成例について説明する。左側の四角枠はディレクトリ構成、右側の四角枠はファイル構成であり、SDカードやDVD−R、DVD−RAM、BD−REなどの情報記録メディア上に構成される。
図9において、左側の四角枠はディレクトリ構成を示している。root下には、参照ファイル(ref.file)と、「PlayList」、「CLIP」、および、「STREAM」ディレクトリが存在する。「PlayList」ディレクトリ下には、プレイリスト(ファイル)である「*.pls」ファイルが存在する。また、「CLIP」(クリップ)ディレクトリには、クリップファイルであるである「*.clp」ファイルが存在する。「STREAM」ディレクトリ下にはATS(192バイト)により構成されるストリームファイルである「*.ats」ファイルが存在する。
図9において、右側の四角枠はファイル構成について説明する。インデックスファイルは、コンテンツのタイトル情報を管理し、複数のチャプタ情報を管理する。プレイリストは、複数の再生パート情報(Part#(n)、nは自然数)を管理する。また、クリップファイルは、EPマップを持つ。EPマップはPTSとストリームファイルを構成するATSパケットのATS連番の相互対照マップテーブルであり、タイムコードとデータ位置の相互変換を行うものであり、プレイリスト再生やストリームファイル編集において不可欠のものである。
上述のように、タイトルはプレイリストファイル、プレイリストファイルはクリップファイル、そして、クリップファイルはATSパケットによるストリームファイルと、それぞれ関連付けられる。
前述のリアルタイムメタデータやノンリアルタイムメタデータはSEIにマッピングされた後、ATSのストリームファイルに変換される。また、リアルタイムあるいはノンリアルタイムのメタデータから演算して生成したメタデータをクリップのシーン情報として、プレイリストのパート情報や補助エリアに付加情報としてマッピングする。すなわち、優先度をもったリストを撮影コンテンツの再生時に参照するプレイリストファイルの補助データとしてマッピングする。これにより、プレイリストファイルのデータを見るだけで、クリップのシーン情報メタデータを参照できるという大きな特徴を持つ。
そこで、コンテンツの再生機器でプレイリストの付加情報を参照して不要シーンや重要シーンなど撮影コンテンツ中のイベントの開始点または代表点に即座にアクセス(スキップ)できる。また、再生時に参照するプレイリストファイルの補助データであるメタデータのリストを参照することにより、指定したイベント区間(イベントの開始点から終了点までを参照して生成したイベント区間)を順番に再生できる。
重要シーンにより構成されるダイジェストを生成する場合には、シーンの優先度の指定、またはシーン種別の指定、またはダイジェスト時間長の指定、またはダイジェストへの縮小率指定を入力するダイジェスト方式指定手段や、プレイリストの補助データであるシーンのリストを参照して、新たなプレイリストファイルを生成することもできる。
さらに、プレイリストを参照することにより、重要シーンとして指定される区間は通常再生を行い、それ以外のシーンは高速速度で再生することもできる。また、プレイリストを参照することにより、不要シーンとして指定される区間は高速再生を行い、それ以外のシーンは通常速度で再生することもできる。また、プレイリストを参照することにより、不要シーンとして指定される区間は検出した代表シーンや予め撮影して登録した静止画を3秒ずつ表示する再生を行い、それ以外のシーンは通常速度で再生することもできる。
特に、子供の音楽会などの撮影コンテンツに対しては、揺れていたりピンボケになっていたりする不要な映像は見たくないが、ピアノや合唱などの演奏は連続して聞きたいというような要望を考慮して、再生する映像は代表シーンや予め撮影して登録してある映像(青空、建物、花、子供の顔など)に切り替えて、音声のみ連続再生することもできる。
プレイリストを参照することにより、不要シーンとして指定される区間はカメラワークに起因する撮影映像の横揺れやたて揺れを取り除いた映像を生成する手段を具備し、不要シーンとして指定される区間は画像処理により画像の揺れを取り除いた映像を生成して表示する再生を行い、それ以外のシーンは通常速度で再生することもできる。
プレイリストを参照することにより、優先度があらかじめ決めた値以上のシーンまたは特定のカメラワークを持ったシーンより構成されるプレイリストを新たに生成して、タイトルに登録してもよい。
プレイリストを参照することにより、各シーンの種別に応じたBGMを生成して再生し、シーンの切り替わり付近でBGMのメロディー、音色、テンポを変えより芸術性、文化度の高いコンテンツの再生を行うこともできる。
図10を参照して、H.264/AVCのストリームの構成について説明する。図10(A)は、H.264/AVCストリームのGOP構造である。図10(B)は、各ピクチャがVCLおよびNon−VCLのNALユニットによって構成されていることを示す。NAL(video)は映像のNALユニットであり、NAL(Audio)は音声のNALユニットであり、NAL(SEI)はSEIのNALユニットである。NAL(SEI)には前述したリアルタイムメタデータを挿入できる。
なお、実験の結果から、撮像装置のパン、ティルト、レンズのズーム情報、レンズのフォーカス情報等は、GOP構造における全ピクチャに挿入する必要はなく、2フレーム毎に間引いた場合でも、タイムコードが復元できれば、通常視聴に適した速さのパン、ティルト、ズーム、フォーカスなどのカメラワークを復元できるという知見が得られている。
図10(C)はPESパケットの構造を示し、図10(B)に示したピクチャデータデータにPESパケットヘッダが付加されている。なお、PESパケットヘッダには、ヘッダーオプションとしてMPEGのPTS/DTSを含めることができる。H.264の観点よりは、PESパケットを1AU(Access Unit)として扱う。本例では、図10(D)に示すように、PESパケットを188バイト毎に分割して、MPEG−TSパケットを生成す。図10(E)は、MPEG−TSパケットにタイムコードを含む4バイトのヘッダーが付加して、ATSパケットを構成することを示している。
つぎに、図11を参照して撮影コンテンツの編集例を説明する。まず、ファイルの取り扱いモードとしては、
モードA: オリジナルの撮影コンテンツ
モードB: 不要シーンのコンテンツ(30点未満のシーン)
モードC: 不要シーンのないコンテンツ(30点以上のシーン)
モードD: 重要シーンのコンテンツ(50点以上のシーン)
の4種類がある。
編集ステップとしては、以下の3ステップがある。具体的には、
ステップ1) オリジナルの撮影コンテンツファイルから不要シーンのコンテンツのみと取り出して確認する。OKであれば、不要シーンを削除する。
ステップ2) 不要シーンのないコンテンツを生成する。
ステップ3) さらに、不要シーンのないコンテンツから、メタデータにより重要シーンであることを示されたコンテンツを生成する。
ここで、ステップ1、ステップ2、ステップ3は、atsファイルをなんら変更することなく、プレイリストファイルの操作のみで実現できる。
また、モードBで不要シーンのコンテンツを再生する場合、映像にテロップでどういう条件で不要かを挿入して、ユーザに知らせることができる。
さらに、モードCの不要シーンのないコンテンツや、モードDの重要シーンのコンテンツを1つの完パケファイルとして作成することもできる。
図12は図11の動作のシーン情報を生成するムービー、シーン情報を利用するパソコン(PC)、DVDレコーダーおよびテレビで実施する場合の説明図である。たとえば、ムービーでは図11のモードA、また、パソコンではモードBとモードCとモードD、DVDレコーダーやテレビではモードCとモードDを用いる。
本発明は、不要部のないコンテンツやダイジェストを簡単に生成できるため、ホームビデオ等に代表されるコンテンツ撮影装置に利用できる。
本発明の実施の形態に係るコンテンツ撮影装置のモデル図 図1に示すカメラの内部構成の説明図 メタデータの分類例を示す図 メタデータからシン情報の生成ブロックの説明図 撮影コンテンツより揺れが大きな2つの区間を削除して、揺れのない3つの区間を組み合わせて、1つの揺れのない映像シーケンスを構成する手順の説明図。 撮影コンテンツよりズームアップ、ズームダウン後の2つのフィックス区間を抽出して、1つのダイジェストを構成する手順の説明図 不要シーン情報の生成の説明図 重要シーン情報の生成の説明図 ディレクトリ構成とファイル構成の説明図 H.264のピクチャ構造とMPEG−TSへの変換方法の説明図 コンテンツの編集概念の説明図 機器間でのコンテンツの編集例
符号の説明
101 カメラ
102 カメラのレンズ部
103 カメラのマイク
104 カメラの撮影対象
105 カメラで撮影したデータ
106 AVストリームファイルデータ
107 メタデータ
108 カメラで撮影されたデータシーケンス
109 リモコン
110 編集によりシーン#1から#5までを繋いだデータシーケンス
111 テレビ(TV)
112 信号接続ケーブル
113 信号接続ケーブル
114 メタデータ入力用ボタン(重要シーン登録ボタン、静止画撮影ボタン)
115、117 マイク
201 ズーム制御部
202 フォーカス制御部
203 露出制御部
204 撮像素子
205 シャッタ速度制御部
206 カメラマイコン
207 絶対傾きセンサ
208 角速度センサ
209 加速度センサ
210 ユーザ入力系
211 カメラ信号処理部
212 音声処理系
213 H.264方式エンコーダ
214 記録メディア
215 出力インタフェース
401 映像符号化部
402 VCL−NAユニットバッファ
403 音声符号化部
404 PSバッファ
405 VUIバッファ
406 SEIバッファ
407 Non VCL−NAユニットバッファ
408 顔・人物検出手段
409 シーン情報のメタデータ生成手段
410 ハウリング検出手段
411 不要シーン検出手段
412 重要シーン検出手段
413 リアルタイムデータ/選択マッピング手段

Claims (18)

  1. 映像、音声またはデータのいずれかを含むコンテンツをそのシーン情報と組み合わせて情報記憶媒体に記録し、シーン情報を参照してコンテンツの特定部分にアクセスするコンテンツ撮影装置であって、
    撮影収録する映像音声または撮影装置の動作情報のいずれかに含まれるパラメータを参照して特徴あるシーンを検出してシーン情報を生成するシーン情報生成手段と、
    事前に決めてある規則により、前記シーン情報にその種別、優先度、開始時刻、終了時刻、代表時刻かのいずれかを補助情報として付加する補助情報付加手段と、
    前記シーン情報とその補助情報とをシーンリストに記述するシーンリスト記述手段と、
    前記情報記憶媒体への記録動作の終了後に、前記シーンリストに記述されている複数のシーン情報から前記優先度に基づいてあらかじめ決められた個数以内のシーン情報を選別するシーン選別手段とを備えるコンテンツ撮影装置。
  2. 前記シーン選別手段は、優先度の高い順にシーン情報を選別する高優先度シーン選別手段および優先度の低い順にシーン情報を選別する低優先度シーン選別手段の少なくとも一方を備える請求項1に記載のコンテンツ撮影装置。
  3. 前記高優先度シーン選別手段は、前記低優先度シーン選別手段により選別されたシーンを除外した撮影コンテンツより高優先度シーンを選別する請求項2に記載のコンテンツ撮影装置。
  4. 前記シーン情報選択方法の設定手段と、
    前記設定手段により決められた演算方式により、前記シーンリスト記述メモリに記述された複数のシーン情報の組み合わせを演算して前記シーン情報に第2の優先度を付加する第2優先度手段と、
    前記第2の優先度を持つ特徴あるシーンの開始時刻と終了時刻と代表時刻との少なくともいずれかを前記シーン情報の補助情報として付加する補助情報付加手段と、
    前記シーンリスト記述メモリにリストとして保持されている複数のシーン情報から前記第2の優先度の高い順にあらかじめ決まられた個数以内のシーン情報を選別して第2優先度リストを生成する第2優先度リスト生成手段とをさらに備える請求項1に記載のコンテンツ撮影装置。
  5. 前記第2優先度リストを撮影コンテンツの再生時参照ファイルに記述する第2優先リスト記述手段をさらに備える請求項4に記載のコンテンツ撮影装置。
  6. 再生時に前記第2優先度リストを参照することにより、特徴あるシーンの開始点または代表点または終了点を参照した点にスキップするスキップ手段をさらに備える請求項4に記載のコンテンツ撮影装置。
  7. 前記第2優先度リストを参照することにより、特徴あるシーン区間を指定順序で再生するシーン再生手段をさらに備える請求項5に記載のコンテンツ撮影装置。
  8. 前記特徴あるシーン区間を指定順序で再生する場合に、各々の特徴あるシーン区間の再生時にその特徴シーンの説明をテロップとして再生映像に重畳するテロップ表示手段をさらに備える請求項5に記載のコンテンツ撮影装置。
  9. ダイジェスト化する特徴あるシーンの優先度指定、ダイジェスト化する特徴あるシーン種別の指定、ダイジェスト時間長の指定、コンテンツのダイジェストへの縮小率指定の少なくとも一つを入力するダイジェスト方式指定手段と、
    前記再生時参照ファイルの補助データである第2優先度リストを参照してダイジェスト方式指定手段で指定されたダイジェスト生成方式に従って、再生時参照ファイルを生成する手段と、
    前記再生時参照ファイルを再生オブジェクトリストに登録する登録手段とをさらに備える請求項5に記載のコンテンツ撮影装置。
  10. 前記再生時参照ファイルを参照して再生する場合に、各々の特徴あるシーン区間の再生時にその特徴シーンの説明をテロップとして再生映像に重畳するテロップ表示手段をさらに備える請求項5に記載のコンテンツ撮影装置。
  11. ダイジェスト化する特徴あるシーンの優先度指定、ダイジェスト化する特徴あるシーン種別の指定、ダイジェスト時間長の指定、コンテンツのダイジェストへの縮小率指定の少なくとも一つを入力するダイジェスト方式指定手段と、
    前記再生時参照ファイルの補助データである第2優先度リストを参照してダイジェスト方式指定手段で指定されたダイジェスト生成方式に従って、指定された特徴あるシーンの集合体としてのファイルを生成するファイ生成手段とをさらに備える請求項5に記載のコンテンツ撮影装置。
  12. ダイジェスト化する特徴あるシーンの優先度指定、ダイジェスト化する特徴あるシーン種別の指定、ダイジェスト時間長の指定、およびコンテンツのダイジェストへの縮小率指定の少なくとも一つを入力するダイジェスト方式指定手段と、
    前記再生時参照ファイルの補助データである第2優先度リストを参照してダイジェスト方式指定手段で指定されたダイジェスト生成方式に従って、指定されない特徴あるシーン区間を繋ぎ合わせて再生する再生手段をさらに備える請求項5に記載のコンテンツ撮影装置。
  13. ダイジェスト化する特徴あるシーンの優先度指定、ダイジェスト化する特徴あるシーン種別の指定、ダイジェスト時間長の指定、およびコンテンツのダイジェストへの縮小率指定の少なくとも一つを入力するダイジェスト方式指定手段と、
    前記再生時参照ファイルの補助データである第2優先度リストを参照してダイジェスト方式指定手段で指定されたダイジェスト生成方式に従って、再生時に指定されない撮影区間を集めたファイルを生成するファイル生成手段とをさらに備える請求項5に記載のコンテンツ撮影装置。
  14. 前記再生時参照ファイルの補助データである第2優先度リストを参照することにより、再生時に指定される区間は通常再生を行い、再生時に指定されない撮影区間は「再生速度を通常より変更した再生」または「再生映像に処理を加えた映像の再生」を行う再生手段をさらに備える請求項5に記載のコンテンツ撮影装置。
  15. 撮影映像のスロー再生または高速再生またはスキップ再生または静止画表示を行う再生表示手段をさらに備え、前記「再生速度を通常より変更した再生」を行う請求項14に記載のコンテンツ撮影装置。
  16. カメラワークに起因する撮影映像の横揺れやたて揺れを取り除いた映像を生成する映像生成手段をさらに備え、前記「再生映像に処理を加えた映像の再生」を行う請求項14に記載のコンテンツ撮影装置。
  17. 前記再生オブジェクトリストに登録された再生時参照ファイルから、優先度があらかじめ決めた値上のシーンまたは特定のカメラワークを持ったシーンより構成されるお勧め再生時参照ファイルを生成するファイル生成手段と、
    前記お勧め再生時参照ファイルをお勧め再生オブジェクトリストに登録する登録手段をさらに備える請求項9に記載のコンテンツ撮影装置。
  18. 前記再生オブジェクトリストに登録された再生時参照ファイルの再生時にBGMを生成する手段と、
    再生時参照ファイルの特徴あるシーンの切り替わり付近でBGMのメロディー、音色、およびテンポの少なくとも一つを変える変更手段をさらに備える請求項9に記載のコンテンツ撮影装置。
JP2007062446A 2007-03-12 2007-03-12 コンテンツ撮影装置 Active JP4960121B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007062446A JP4960121B2 (ja) 2007-03-12 2007-03-12 コンテンツ撮影装置
PCT/JP2008/000531 WO2008111308A1 (ja) 2007-03-12 2008-03-11 コンテンツ撮影装置
US12/521,865 US8643745B2 (en) 2007-03-12 2008-03-11 Content shooting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007062446A JP4960121B2 (ja) 2007-03-12 2007-03-12 コンテンツ撮影装置

Publications (2)

Publication Number Publication Date
JP2008227860A JP2008227860A (ja) 2008-09-25
JP4960121B2 true JP4960121B2 (ja) 2012-06-27

Family

ID=39845948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007062446A Active JP4960121B2 (ja) 2007-03-12 2007-03-12 コンテンツ撮影装置

Country Status (1)

Country Link
JP (1) JP4960121B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5456023B2 (ja) * 2009-04-07 2014-03-26 パナソニック株式会社 画像撮影装置、画像撮影方法、プログラム、及び集積回路
JP5602562B2 (ja) 2009-10-06 2014-10-08 パナソニック株式会社 画像生成装置、再生装置、再生システム、画像生成方法および再生方法
WO2011099299A1 (ja) 2010-02-10 2011-08-18 パナソニック株式会社 映像抽出装置、撮影装置、プログラム及び記録媒体
JP6256105B2 (ja) * 2014-03-03 2018-01-10 株式会社バッファロー 情報処理装置、情報処理装置におけるプレイリスト生成方法及びプログラム
CN105519095B (zh) * 2014-12-14 2018-06-12 深圳市大疆创新科技有限公司 一种视频处理方法、装置及播放装置
CN107005624B (zh) 2014-12-14 2021-10-01 深圳市大疆创新科技有限公司 处理视频的方法、系统、终端、装置、处理器和存储介质
US20240062545A1 (en) 2021-01-06 2024-02-22 Nec Corporation Information processing device, information processing method, and recording medium
WO2022149218A1 (ja) * 2021-01-06 2022-07-14 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3230858B2 (ja) * 1992-11-26 2001-11-19 松下電器産業株式会社 動画像の優先度自動選択方法および動画像ダイジェスト自動表示装置
JP3287814B2 (ja) * 1997-07-11 2002-06-04 三菱電機株式会社 動画再生装置
AUPQ464099A0 (en) * 1999-12-14 2000-01-13 Canon Kabushiki Kaisha Emotive editing system
JP2002142189A (ja) * 2000-11-06 2002-05-17 Canon Inc 画像処理装置、画像処理方法及び記憶媒体
JP3781715B2 (ja) * 2002-11-01 2006-05-31 松下電器産業株式会社 メタデータ制作装置及び検索装置
JP2004362610A (ja) * 2004-08-06 2004-12-24 Matsushita Electric Ind Co Ltd シナリオ情報解析装置及びシナリオ情報解析方法

Also Published As

Publication number Publication date
JP2008227860A (ja) 2008-09-25

Similar Documents

Publication Publication Date Title
US8643745B2 (en) Content shooting apparatus
JP5022370B2 (ja) コンテンツ撮影装置
JP4976378B2 (ja) コンテンツ撮影装置
JP4960121B2 (ja) コンテンツ撮影装置
JP5685732B2 (ja) 映像抽出装置、プログラム及び記録媒体
US20080226198A1 (en) Information processing apparatus, imaging apparatus, image display control method and computer program
JP4992639B2 (ja) コンテンツ撮影装置
KR20100067115A (ko) 영상 재생 장치 및 영상 재생 방법
JP2007082088A (ja) コンテンツとメタデータを記録、再生する装置、コンテンツ処理装置、プログラム
WO2009150827A1 (ja) コンテンツ編集装置
JP2004312281A (ja) 映像編集装置,映像編集装置の処理方法
JP2010245856A (ja) 映像編集装置
JP2008054155A (ja) 画像合成装置
JP2005260749A (ja) 電子カメラ、及び電子カメラの制御プログラム
JP2007251891A (ja) コンテンツの撮影装置
JP4946935B2 (ja) 撮像装置
JP4667411B2 (ja) コンテンツ撮影装置
JP2011119936A (ja) 撮影装置及び再生方法
JP2008072572A (ja) コンテンツ撮影装置
JP4698961B2 (ja) 電子カメラ、及び電子カメラの制御プログラム
JP2007214708A (ja) 映像機器及びそれを用いた番組情報作成方法
JP2009055618A (ja) 電子カメラ、及び電子カメラの制御プログラム
JP6463967B2 (ja) 撮像装置及びその制御方法
US20050117876A1 (en) Data recording system, data recording apparatus, data transmission apparatus, data recording method and recording medium on which a recording program is recorded
JP2010263611A (ja) 映像撮影装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20081107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4960121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150