JP3891097B2 - インデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 - Google Patents
インデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- JP3891097B2 JP3891097B2 JP2002323091A JP2002323091A JP3891097B2 JP 3891097 B2 JP3891097 B2 JP 3891097B2 JP 2002323091 A JP2002323091 A JP 2002323091A JP 2002323091 A JP2002323091 A JP 2002323091A JP 3891097 B2 JP3891097 B2 JP 3891097B2
- Authority
- JP
- Japan
- Prior art keywords
- time length
- scene
- scenario
- index
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
【発明の属する技術分野】
本発明は、インデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体に係り、特に、編集済みの映像とシナリオを対応付けることによって映像のインデックスを生成するためのインデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体に関する。
【0002】
【従来の技術】
映像を制作するワークフローを考えると、通常まずどのようなシーンを組み合わせて映像を構成するかというシナリオを作り、そのシナリオに基づいて撮影、編集等を行うことによって最終的な映像(編集済み映像)を作るというフローになる。
【0003】
ここで、シナリオとは、映像の企画構成をシーン毎に記述した文書で、例えば、シーンの時間長、タイトル、スケッチ、ナレーション、テロップ、BGM、構図、カメラワーク、出演者、撮影場所等の情報が記述されているものである。これらすべての情報が記述されている必要はなく、また、記述するフォーマットも特に決まっているわけではない。手書きのものもあれば、ワードプロセッサや専用ソフトウェアで作成された電子ファイルや、それらを印刷したものもある。
【0004】
一般に編集済み映像は、元のシナリオとの時間的な対応付けが曖昧である。シナリオに時間に関する記載がない場合もあれば、シーン毎の時間長が記載されている場合もあるが、編集過程で変更されることもあるため、シナリオの時間長と編集済み映像の時間長が必ずしも一致するとは限らない。このような現状では、シナリオの情報と編集済み映像の時間的な対応が曖昧なため、シナリオ記載のメタデータが映像のどの部分に対応するかわからず、シナリオに含まれている情報をシーン毎にメタデータとして付与することが難しい。
【0005】
これを解決する手段の一つとして、映像制作時に構造中の位置を示す識別子を与えることによってシナリオと編集済み映像を時間的に対応付ける方法がある(例えば、特許文献1参照)。この方法によればシナリオと編集済み映像を時間的に対応付けることが可能となり、シナリオ情報をメタデータとして利用することが可能となる。
【0006】
別のアプローチとして、編集済み映像からテロップ認識(例えば、特許文献2参照)や音声認識(例えば、特許文献3参照)等によって情報を抽出し、メタデータとして付与するという方法もある。
【0007】
【特許文献1】
特開2000−92419「番組情報管理編集システムとそれに使用される階層化番組情報蓄積管理装置」
【特許文献2】
特開2002−279433「映像中の文字検索方法及び装置」
【特許文献3】
特開2002−175304「映像検索装置及びその方法」
【0008】
【発明が解決しようとする課題】
しかしながら、上記の「番組情報管理編集システムとそれに使用される階層化番組情報蓄積管理装置」を用いて編集済み映像とシナリオを対応付けるには、映像制作時にカメラで一つのショットを撮影する度に識別子を与える必要があるので、映像完成後に対応付けを行う必要が生じたとしても、撮影段階で識別子を付与していなければシナリオ情報を関連付けることができないという問題がある。また、企画、撮影、編集のすべての段階において、識別子を与えたり記録したりするための機材が必要となり導入コストが高いという問題がある。
【0009】
勿論、編集済み映像とシナリオを人手で対応付けることも考えられるが、映像に含まれる膨大なシーンすべてに手作業で対応付けを行うことは時間的コストが高いという問題がある。
【0010】
さらに、編集済み映像からテロップ認識や音声認識により情報を抽出してメタデータとして付与する方法では、抽出可能な情報はシナリオに含まれる情報の一部でしかなく、認識精度も100%とはいえない。
【0011】
本発明は、上記の点に鑑みなされたもので、企画時のシナリオ文書を編集済み映像と対応付けて有効かつようするため、映像が完成した後に少ない作業量でシナリオと編集済み映像を時間的に対応付けるためのインデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体を提供することを目的とする。
【0012】
ここで、インデックスとは、シナリオ記述のシーン毎に、予測開始時間、予測終了時間、予測時間長、シーンのタイトル等のメタデータを記述したものである。
【0013】
【課題を解決するための手段】
図1は、本発明の原理を説明するための図である。
【0014】
本発明(請求項1)は、実時間長計測手段、予測時間長算出手段、時間長比較手段、予測時間長修正手段、インデックス生成手段と、を有し、編集済み映像とシナリオ文書を元に映像とシナリオを対応付ける映像に対するインデックスを生成するためのコンピュータであるインデックス生成装置が行うインデックス生成方法において、
実時間長計測手段が行う、編集済み映像から映像全体の実時間長を求める実時間長計測過程(ステップ1)と、
予測時間長算出手段が行う、機械可読である形式のシナリオが入力されると、該シナリオからシーン毎の予測時間長と映像全体の予測時間長を算出する予測時間算出過程(ステップ2)と、
時間長比較手段が行う、編集済み映像全体の実時間長とシナリオから算出した映像全体の予測時間長の比を求める時間長比較過程(ステップ3)と、
予測時間長修正手段が行う、比を用いてシナリオから算出したシーン毎の予測時間長を修正する予測時間長修正過程(ステップ4)と、
インデックス生成手段が行う、シーン毎に予測開始時間と予測終了時間と予測時間長を記述したインデックスを生成するインデックス生成過程(ステップ5)と、を行う。
【0015】
本発明(請求項2)は、実時間長計測手段、文字数算出手段、文字数比算出手段、予測時間長算出手段、インデックス生成手段と、を有し、編集済み映像とシナリオ文書を元に映像とシナリオを対応付ける映像に対するインデックスを生成するためのコンピュータであるインデックス生成装置が行うインデックス生成方法において、
実時間長計測手段が行う、編集済み映像から映像全体の実時間長を求める実時間長計測過程と、
文字数算出手段が行う、機械可読である形式のシナリオが入力されると、該シナリオに記載されているシーン毎のナレーションやコメント、台詞の全部または一部の文字数を数え、シーン毎に含まれる文字数を算出する文字数算出過程と、
文字数比算出手段が行う、シーン毎の文字数の比を求める文字数比算出過程と、
予測時間長算出手段が行う、シーン毎の文字数比と映像全体の実時間長を対比させて、シーン毎の予測時間長を算出する予測時間長算出過程と、
インデックス生成手段が行う、シーン毎に予測開始時間と予測終了時間と予測時間長を記述したインデックスを生成するインデックス生成過程と、を行う。
【0016】
また、本発明(請求項3)は、インデックス生成過程終了後に、
編集済み映像からカット点と該カット点の時間を検出し、
修正候補となる検出されたカット点の時間と予測時間長修正過程において算出されたシーン毎の予測開始時間を比較して該カット点のいずれかの時間を修正後の予測開始時間とし、
シナリオから算出されたシーン毎の予測開始時間と予測時間長を修正した時間情報を記述したインデックスを生成する過程を更に行う。
【0017】
また、本発明(請求項4)は、インデックス生成過程終了後に、
シナリオからシーン毎にメタデータを抽出し、
抽出したメタデータをシーン毎に記述したインデックスを生成する過程を更に行う。
本発明(請求項5)は、編集済み映像とシナリオ文書を元に映像とシナリオを対応付ける映像に対するインデックスを生成するためのコンピュータによるインデックス生成装置において、
編集済み映像から映像全体の実時間長を求める実時間長計測手段と、
機械可読である形式のシナリオが入力されると、該シナリオからシーン毎の予測時間長と映像全体の予測時間長を算出する予測時間長算出手段と、
編集済み映像全体の実時間長とシナリオから算出した映像全体の予測時間長の比を求める時間長比較手段と、
比を用いてシナリオから算出したシーン毎の予測時間長を修正する予測時間長修正手段と、
シーン毎に予測開始時間と予測終了時間と予測時間長を記述したインデックスを生成するインデックス生成手段と、を有する。
本発明(請求項6)は、編集済み映像とシナリオ文書を元に映像とシナリオを対応付ける映像に対するインデックスを生成するためのコンピュータによるインデックス生成装置において、
編集済み映像から映像全体の実時間長を求める実時間長計測手段と、
機械可読である形式のシナリオが入力されると、該シナリオに記載されているシーン毎のナレーションやコメント、台詞の全部または一部の文字数を数え、シーン毎に含まれる文字数を算出する文字数算出手段と、
シーン毎の文字数の比を求める文字数比算出手段と、
シーン毎の文字数比と映像全体の実時間長を対比させて、シーン毎の予測時間長を算出する予測時間長算出手段と、
シーン毎に予測開始時間と予測終了時間と予測時間長を記述したインデックスを生成するインデックス生成手段と、を有する。
【0018】
本発明(請求項7)は、請求項1乃至4のいずれか1項に記載のインデックス生成方法をコンピュータで実行するインデックス生成プログラムである。
【0019】
本発明(請求項8)は、請求項7記載のプログラムを格納したコンピュータ読み取り可能な記録媒体である。
【0020】
上記のように、本発明では、オペレータが編集済み映像を再生し、映像の全てに目を通してシーン毎の開始点にラベル付けを行う際に、本発明で生成されるインデックスにより開始点が存在する区間を絞り込むことが可能となるため、映像すべてに目を通す必要がなくなり、作業を省力化することができる。
【0021】
また、本発明では、シナリオシーンの予定開始時間が記載されていない場合にもインデックスを生成することが可能となる。
【0022】
さらに、インデックス生成の際に編集済みのカット点を用いることで、インデックス中のシーンの予定開始時間をより正確な情報に修正することが可能となる。
【0023】
また、インデックスにシーンの開始時間の情報だけでなく、シナリオの情報をメタデータとして記述することで、キーワードによるシーン探索が可能となる。
【発明の実施の形態】
以下、図面と共に本発明の実施の形態を説明する。
【0024】
[第1の実施の形態]
図2は、本発明の第1の実施の形態におけるインデックス生成のフローチャートである。
【0025】
同図に示すフローチャートは、実時間長計測ステップ(ステップ101)、予測時間長算出ステップ(ステップ102)、時間長比較ステップ(ステップ103)、予測時間長修正ステップ(ステップ104)、インデックス生成ステップ(ステップ105)より構成される。
【0026】
以下、図2に基づいてインデックス作成の動作を詳細に説明する。
【0027】
本発明では、シナリオに記述されている完成予定の映像の時間長と、実際の編集済み映像の時間長にずれがあることから、そのずれをおおまかに修正したインデックスを生成することを目的とする。
【0028】
まず、実時間長計測ステップ(ステップ101)の入力は、既に編集済みの映像となる。映像のジャンルや、内容、編集方法や記録媒体については、特に制限しない。
【0029】
ステップ101では、この入力された編集済み映像から映像全体の実時間長L1を求める。例えば、編集済みの映像がVHS等のテープに録画されている場合には、再生デッキ等を用いてカウンタの開始値と終了値の差分により時間長を求める。また、MPEG等の電子フォーマットで録画されている場合には、ファイルのプロパティから映像の時間長を得ることができる。ここで、例えばステップ101の出力として編集済みの映像の実時間長L1=200(s)が得られたとする。
【0030】
次に、ステップ102の入力は、上記編集済み映像を制作するときに使用したシナリオとなる。コンピュータプログラムとして実施する場合には、シナリオが機械可読である形式になっているものとする。例えば、図3のように、シーン時間長201、タイトル202、スケッチ203、ナレーション204、テロップ205、BGM206が記述されているシナリオが入力されたとする。
【0031】
このシナリオから各シーン(1〜n)の予測時間長S1 〜Sn を算出する。図3のシナリオのように、予め各シーンに時間長201が記載されている場合には、その値をそのまま編集済み映像の予測時間長S1 〜Sn とする。例えば、シナリオにシーンiの時間長が“0:20”と記載されていたら、シーンiの予測時間長Si を“Si =20(s)”とする。ところでシナリオには、シーン毎の時間長を記載する代わりに、シーン毎の開始時間が記載されている場合がある。この場合には、シーンiの予測時間長S1 〜Sn を、
Si =Ti+1 −Ti
により求める。但し、Ti はシーンiの開始時間とする。
【0032】
さらに、全体の予測時間長L2を
L2=S1 +S2 +…+Sn
により算出する。
【0033】
図3のシナリオの場合、各シーンの予測時間長は、
S1 =90(s),
S2 =50(s),
S3 =40(s)
であり、全体の予測時間長は、
L2=S1 +S2 +S3 =180(s)
となる。
【0034】
ステップ103の入力は、ステップ101で得られた編集済み映像の実時間長L1とステップ102で得られた予測時間長L2となる。
【0035】
ステップ103では、編集済み映像から算出された全体の実時間長L1とシナリオから算出された全体の予測時間長L2の比R=L1/L2を求める。
【0036】
図3のシナリオの場合
R=L1/L2=200/180=10/9
となる。
【0037】
ステップ104では、ステップ103で求めた比Rを用いて、ステップ102で得られた各シーンの予測時間長S1 〜Sn を修正する。修正後の予測時間長S’1 〜S’n を、
S’1 =S’1 *R,S’2 =S’2 *R,…, S’n =S’n *R
の計算式により得る。
【0038】
図3のシナリオの場合、修正済みの各シーンの予測時間長は、
S’1 =S1 *R=100(s),
S’2 =S2 *R≒56(s),
S’3 =S3 *R≒44(s)
となる。
【0039】
ステップ105では、ステップ104で得られた修正済みのシーン毎の予測時間長S’1 〜S’n 及び映像の実時間長L1を用いて、図4のように各シーン番号301、予測開始時間302、予測終了時間303、予測時間長304、映像全体の開始時間305、終了時間306、時間長307を記述したインデックスを生成する。
【0040】
ここでシーン1の予測開始時間302及び映像全体の開始時間305は必ず“0:00”とし、修正後の予測時間長304を加算していくことで、そのシーンの予測終了時間303及び次のシーンの予測開始時間302を順次算出する。
【0041】
図4のインデックスはシーン1が0:00〜1:40、シーン2が1:40〜2:36、シーン3が2:36〜3:20に存在することを示している。
【0042】
ステップ105で生成されたインデックスのシーンの予測開始時間と予測時間長は必ずしも正確ではないが、シナリオに記述されているシーンの開始時間や時間長に比べ、実際の編集済み映像のシーン開始時間、時間長に近くなっている可能性が高い。
【0043】
ここで生成されたインデックスの予測開始時間は、通常、編集済み映像の開始時間と比べ誤差が生じている。そこで、この誤差を考慮に入れて、シーンの実際の開始時間が存在する目安となる範囲を記述したインデックスを生成してもよい。例えば、予測時間長の修正前後の差程度の誤差があると考えると、図5のインデックスが生成される。例えば、シーンiの修正前と修正後の予測時間長の差をdi 、予測終了時間をTi とすると、範囲表現した場合のシーンiの予測終了時間は、(Ti −di )〜(Ti +di )と表すことができる。そして予測終了時間の範囲に合わせて、予測時間長、次シーンの予測開始時間の修正も行う。このとき予測終了時間の範囲を次シーンでの予測開始時間の範囲とし、予測時間長の範囲には、予測開始時間と予測終了時間の範囲で最小の値と最大の値を用いる。但し、最初のシーンの予測開始時間と最後のシーンの予測終了時間については、編集済み映像より算出した正確な値であるため範囲表示を行う必要がない。
【0044】
例えば、シーン1の修正前の予測時間長は90(s)であり、修正後の予測時間長は100(s)であるから差分は10(s)となる。そしてシーン1の予測終了時間は、1:40であるから、この値から±10(s)を計算して、1:30〜1:50が予測終了時間の目安の範囲となる。このとき、シーン1の開始時間は、0:00であるから、この区間の最小値と最大値を求めるとシーン1の予測時間長は、90〜110sとなる。この手順を繰り返せば、図5のインデックスが作成される。
【0045】
本実施の形態によって生成されたインデックスに記載されているシーンの開始時間情報は、編集済み映像のシーン毎の開始時間に近い値となっていることが期待できる。よって、編集済み映像から正確なシーン開始時間を得るためにオペレータが映像を全てを見なくても、本実施の形態により生成されたインデックスに記述されたシーン開始時間の前後、または記述されている範囲を中心に探せばよく、作業を省力化することができる。
【0046】
また、インデックス生成のために映像撮影時の特殊な装置、手順が不要である。
【0047】
[第2の実施の形態]
本実施の形態では、シナリオに時間に関する記述がない場合のインデックス生成方法について説明する。
【0048】
図6は、本発明の第2の実施の形態におけるシナリオの例であり、シナリオに時間に関する記述がない例を示す。図7は、本発明の第2の実施の形態におけるインデックス生成のフローチャートである。
【0049】
図7におけるステップ201及びステップ205は、前述の第1の実施の形態のステップ101及びステップ105と同様であるのでその説明を省略する。
【0050】
例えば、図6のような時間に関する記述がないシナリオをステップ202に入力する。ステップ202では、このシナリオ中のシーン毎に記述されている文字数をカウントする。ここで、シーンiの文字数をri とする。
【0051】
図6のシナリオでは、シーン1に記述されているナレーションが856文字、シーン2に記述されているナレーションが632文字であるとする。本実施の形態では、シナリオに記載されているナレーション、コメント、台詞等のうち、ナレーションの文字数をカウントしri とするが、コメントや、台詞等の文字数をri としてもよいし、それらすべての合計の文字数をri としてもよい。シナリオにナレーションや、コメント、台詞等の文字が記載されていないシーンがある場合には、そのシーンが規定の文字数または、時間長を持つと仮定して、予め定めた適当な値aをri とする。例えば、aにはシーン毎の平均文字数を利用する。
【0052】
ステップ203では、ステップ202で求められた文字数を元に、シーン毎の比r1 :r2 :…:rn を算出する。図6のシナリオの例では、r1 :r2 =856:632となる。
【0053】
ステップ204では、ステップ201で得られた編集済み映像の実時間長L1とステップ203で得られた比r1 :r2 :…:rn から各シーンの予測時間長S1 〜Sn を算出する。各シーンの予測時間長は次のようになる。
【0054】
S1 =L1*r1 /(r1 +r2 +…+rn )
S2 =L1*r2 /(r1 +r2 +…+rn )
…
Sn =L1*rn /(r1 +r2 +…+rn )
ステップ201で得られた編集済み映像の実時間長が300(s)であるとき、図6の例では、シーン1、シーン2の予測時間長S1 ,S2 が、
S1 =300*856/(856+632)≒173(s),
S2 =300*632/(856+632)≒127(s),
と算出される。
【0055】
本実施の形態では、シナリオに時間情報の記述がない場合についても、おおまかな時間を記述したインデックスの生成が可能になり、前述の第1の実施の形態と同様の効果が得られる。
【0056】
また、本実施の形態では、文字数をカウントしたが、シーン毎に含まれるカット数を利用することもできる。
【0057】
[第3の実施の形態]
本実施の形態では、編集済みの映像のカット点の時間情報を利用してシーンの予測開始時間の修正を行う方法について説明する。
【0058】
図8は、本発明の第3の実施の形態におけるシーンの予測時間の修正方法のフローチャートである。
【0059】
ここで、カット点とはショット(カメラで連続的に撮影された映像区間)のつなぎ目のことである。このカット点がシーンとシーンの切れ目の候補となる。但し、すべてのカット点がシーンとシーンの切れ目となるわけではない。図8において、ステップ301〜305は、前述の第1の実施の形態のステップ101〜ステップ105と同様であるので、その説明は省略する。ステップ301〜ステップ305の代わりに、第2の実施の形態のステップ201〜ステップ205の手順でも本実施の形態は実現できる。
【0060】
ステップ306での入力は編集済みの映像となる。ステップ306では、この編集済み映像から、映像の特徴量によりカット点を求める。そのための方法としては、“特開2002−218376「カット検出装置及びカット検出方法のプログラムを記録した記録媒体」”等の既存の技術を用いてカット点をその時間と共に検出する。
【0061】
図9は、本発明の第3の実施の形態における映像からカット点を検出した状態を示している。同図は、映像フレームの時間的な並びを模式的に表したもの801があり、それから、それぞれ検出されたカット点におけるフレーム802、803、804が示されている。同図の例では、検出された3つのカット点の時間が、1:33(フレーム802)、2:05(フレーム803)、2:40(フレーム804)となっている。
【0062】
ステップ307では、ステップ306で検出したカット点と、ステップ305で生成されたインデックスのシーン毎の予測開始時間を比較する。
【0063】
例えば、ステップ305で生成される図4のインデックスの例の場合、シーンの予測開始時間は“00:00,01:40,02:36”となっている。
【0064】
シーンの正確な開始時間はステップ306で検出されたカット点のいずれかである可能性が高いため、このインデックスの予測開始時間とカット点の検出時間を比較し、予測開始時間の修正を行う。修正方法として、シーンの予測開始時間に最も近いカット点の検出時間を修正後のシーン予測開始時間とする。
【0065】
図10は、本発明の第3の実施の形態における予測開始時間の修正例を示す。同図では、シーンの予測開始時間と編集済み映像のカット点の時間との対応を示しており、編集済み映像をタイムラインで表したもの901、905、検出されたカット点902、903、904、シナリオから得られた予測開始時間906、907が示されている。それぞれ図10のようにシーン予測開始時間を最も近いカット点を用いて、1:44(906)が、1:33(902)に、2:36(907)が2:40(904)のように修正される。
【0066】
但し、カット点を検出する際に、検出漏れが発生している可能性もある。そこで、シーンの予測開始時間と最も近いカット点の時間との間隔が予め定められた時間長以上である場合には、修正を行わないようにしてもよい。
【0067】
また、最も近いカット点が正しいシーンの開始点とは限らないため、予測開始時間の前後Dの範囲内に存在するカット点から、オペレータが目視により判断し、対応するカット点を選び出してもよい(Dは予め定められた時間長とする)。あるいは、予測開始時間の前後に存在するM個のカット点から同様に選び出してもよい(Mは予め定められた個数)。
【0068】
ステップ308では、ステップ307で修正されたシーン毎の予測開始時間を用いてインデックスを生成する。生成されたインデックスは図11のようになる。
【0069】
本実施の形態によれば、編集済みの映像からカット点を検出し、前述の第1の実施の形態または、第2の実施の形態で生成されたインデックスのシーン毎の予測開始時間と比較し、修正することで、インデックス中の予測時間情報をより正確なものとすることが可能である。
【0070】
[第4の実施の形態]
本実施の形態では、インデックス生成において、時間だけでなく、シナリオからシーン毎に出現頻度の高いキーワードや、タイトルに含まれるキーワード、人物の位置や、構図、BGMなどを抽出し、当該シーンに対するメタデータ(付属情報)を付与する例を説明する。
【0071】
図12は、本発明の第4の実施の形態におけるインデックス生成のフロチャートである。ステップ401〜405は、第1の実施の形態のステップ101〜ス105と同様であるため、その説明は省略する。また、本実施の形態では、ステップ401〜405の代わりに、第2の実施の形態におけるステップ201〜205、または、第3の実施の形態のステップ301〜305の手順を用いてもよい。
【0072】
ステップ406では、シナリオよりメタデータを抽出する。メタデータとしては、例えば、タイトル、出演者名、出演者の数、ナレーションやコメントに含まれるキーワード、使用されているBGM、テロップ、構図等があげられる。
【0073】
タイトル、出演者名、出演者数、使用されているBGM、テロップ、構造等の情報については、オペレータがシナリオに記述されている情報を項目毎にインデックスに転記する。シナリオに記載されていない項目は、インデックスでは空欄とする。インデックスの項目は、必要に応じて追加してもよいし、あるいは、一部だけを用いてもよい。
【0074】
キーワードの抽出方法についえは、例えば、“特開1996−95982「キーワード抽出装置」”等の既存技術により、ナレーションの文章を単語単位に切り分けて、すべての単語をそのままキーワードとして用いる。あるいは、各単語の出現頻度をカウントし、出現頻度の高いものから上位10個を選択してもよい。または、オペレータが手作業でシナリオからキーワードを抽出してもよい。
【0075】
ここで、インデックスに記述するキーワードはできるだけ他のシーンに含まれないことが望ましい。そのためには、シーン毎にシナリオに含まれる各単語の出現頻度をカウントし、異なるシーンの出現頻度上位10個に同じ単語が含まれている場合には、その共通する単語をキーワードから除外する。あるいは、予め定められた数以上のシーンに同じ単語が含まれていれば、その単語をキーワードから除外する。このようにして、共通するキーワードを削除したり、キーワードとなりにくくしたりすることで、各シーンの特徴を表現したメタデータとなる。
【0076】
例えば、ステップ406で、オペレータが図3のシナリオのシーン1から「姓名」、「46億年」、シーン2から「進化」、シーン3から「人類」のキーワードを抽出し、タイトル、テロップ、BGMのシナリオ記載の情報を転記したとすると、ステップ407により生成されるインデックスは図13のようになる。
【0077】
このようなメタデータを付与したインデックスを生成すると、前述の第1、第2、第3の実施の形態における効果に加え、オペレータがキーワードを用いてシーン検索を行い、そのシーンの予測開始時間をもとに、対応する映像区間を見つけることが可能となる。
【0078】
なお、上記の実施の形態における図2、図7、図8、図12に示すフローチャートをプログラムとして構築し、インデックス生成装置として利用されるコンピュータにインストールし、CPU等の制御手段により実行することが可能である。
【0079】
また、構築されたプログラムを、インデックス生成装置として利用されるコンピュータに接続されるハードディスク装置や、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納しておき、本発明を実施する際にコンピュータにインストールすることも可能である。
【0080】
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。
【0081】
【発明の効果】
上述のように本発明によれば、生成されたインデックスに記載されているシーンの開始時間情報は、編集済み映像のシーン毎の開始時間に近い値となっていることが期待できる。よって編集済み映像から正確なシーン開始時間を得るためにオペレータが映像のすべてをみなくても、生成されたインデックスに記述されたシーン開始時間の前後だけを探せばよく、オペレータの作業を省力化することができる。
【0082】
そして、本発明では、シナリオにシーン毎の時間に関する情報の記載がない場合においてもインデックスを生成することが可能となり、また、編集済みの映像のカット点の時間情報を利用することで、インデックスのシーン開始時間情報を正確な値に近づけることが可能となる。
【0083】
さらに、オペレータがあるキーワードに関連するシーンを探したい場合には、検索キーワードが含まれるシーンの開始時間情報を生成されたインデックスより参照することで目的のシーンを容易に見つけることが可能となる。
【0084】
本発明では、上記の手段を実現するために映像撮影時の特殊な装置や、手順が不要である。
【0085】
また、画像や音声の信号特徴といった構成単位ではなく、シナリオに基づいて内容に意味のある構成単位(シーン)の開始点を記述したインデックスを生成しているため、シーンの開始点の映像を並べることで映像全体の構造や映像の概要を把握することが可能である。
【図面の簡単な説明】
【図1】本発明の原理を説明するための図である。
【図2】本発明の第1の実施の形態におけるインデックス生成のフローチャートである。
【図3】本発明の第1の実施の形態における入力されるシナリオの例である。
【図4】本発明の第1の実施の形態における生成されるインデックスの例である。
【図5】本発明の第1の実施の形態における誤差を考慮したインデックスの生成例である。
【図6】本発明の第2の実施の形態におけるシナリオの例である。
【図7】本発明の第2の実施の形態におけるインデックス生成のフローチャートである。
【図8】本発明の第2の実施の形態におけるシーン予測時間の修正方法のフローチャートである。
【図9】本発明の第3の実施の形態における映像からカット点を検出した状態を示す図である。
【図10】本発明の第3の実施の形態における予想開始時間の修正例である。
【図11】本発明の第3の実施の形態における生成されたインデックスの例である。
【図12】本発明の第4の実施の形態におけるインデックス生成のフローチャートである。
【図13】本発明の第4の実施の形態における生成されたインデックスの例である。
【符号の説明】
201 シーンの時間長
202 タイトル
203 スケッチ
204 ナレーション
205 テロップ
206 BGM
301 各シーン番号
302 予測開始時間
303 予測終了時間
304 予測時間長
305 映像全体の開始時間
306 終了時間
307 時間長
801 映像フレームの時間的な並び
802,803,804 検出されたカット点におけるフレーム
Claims (8)
- 実時間長計測手段、予測時間長算出手段、時間長比較手段、予測時間長修正手段、インデックス生成手段と、を有し、編集済み映像とシナリオ文書を元に映像とシナリオを対応付ける映像に対するインデックスを生成するためのコンピュータであるインデックス生成装置が行うインデックス生成方法において、
前記実時間長計測手段が行う、前記編集済み映像から映像全体の実時間長を求める実時間長計測過程と、
前記予測時間長算出手段が行う、機械可読である形式のシナリオが入力されると、該シナリオからシーン毎の予測時間長と映像全体の予測時間長を算出する予測時間長算出過程と、
前記時間長比較手段が行う、前記編集済み映像全体の実時間長と前記シナリオから算出した映像全体の予測時間長の比を求める時間長比較過程と、
前記予測時間長修正手段が行う、前記比を用いて前記シナリオから算出したシーン毎の予測時間長を修正する予測時間長修正過程と、
前記インデックス生成手段が行う、シーン毎に予測開始時間と予測終了時間と予測時間長を記述したインデックスを生成するインデックス生成過程と、からなることを特徴とするインデックス生成方法。 - 実時間長計測手段、文字数算出手段、文字数比算出手段、予測時間長算出手段、インデックス生成手段と、を有し、編集済み映像とシナリオ文書を元に映像とシナリオを対応付ける映像に対するインデックスを生成するためのコンピュータであるインデックス生成装置が行うインデックス生成方法において、
前記実時間長計測手段が行う、前記編集済み映像から映像全体の実時間長を求める実時間長計測過程と、
前記文字数算出手段が行う、機械可読である形式のシナリオが入力されると、該シナリオに記載されているシーン毎のナレーションやコメント、台詞の全部または一部の文字数を数え、シーン毎に含まれる文字数を算出する文字数算出過程と、
前記文字数比算出手段が行う、前記シーン毎の文字数の比を求める文字数比算出過程と、
前記予測時間長算出手段が行う、前記シーン毎の文字数比と前記映像全体の実時間長を対比させて、前記シーン毎の予測時間長を算出する予測時間長算出過程と、
前記インデックス生成手段が行う、シーン毎に予測開始時間と予測終了時間と予測時間長を記述したインデックスを生成するインデックス生成過程と、
からなることを特徴とするインデックス生成方法。 - 前記インデックス生成過程終了後に、
前記編集済み映像からカット点と該カット点の時間を検出し、
修正候補となる検出されたカット点の時間と前記予測時間長修正過程において算出されたシーン毎の予測開始時間を比較して該カット点のいずれかの時間を修正後の予測開始時間とし、
前記シナリオから算出されたシーン毎の前記予測開始時間と前記予測時間長を修正した時間情報を記述したインデックスを生成する過程を更に行う請求項1乃至2記載のインデックス生成方法。 - 前記インデックス生成過程終了後に、
前記シナリオからシーン毎にメタデータを抽出し、
抽出したメタデータをシーン毎に記述したインデックスを生成する過程を更に行う請求項1乃至3記載のインデックス生成方法。 - 編集済み映像とシナリオ文書を元に映像とシナリオを対応付ける映像に対するインデックスを生成するためのコンピュータによるインデックス生成装置において、
前記編集済み映像から映像全体の実時間長を求める実時間長計測手段と、
機械可読である形式のシナリオが入力されると、該シナリオからシーン毎の予測時間長と映像全体の予測時間長を算出する予測時間長算出手段と、
前記編集済み映像全体の実時間長と前記シナリオから算出した映像全体の予測時間長の比を求める時間長比較手段と、
前記比を用いて前記シナリオから算出したシーン毎の予測時間長を修正する予測時間長修正手段と、
シーン毎に予測開始時間と予測終了時間と予測時間長を記述したインデックスを生成するインデックス生成手段と、
を有することを特徴とするインデックス生成装置。 - 編集済み映像とシナリオ文書を元に映像とシナリオを対応付ける映像に対するインデックスを生成するためのコンピュータによるインデックス生成装置において、
前記編集済み映像から映像全体の実時間長を求める実時間長計測手段と、
機械可読である形式のシナリオが入力されると、該シナリオに記載されているシーン毎のナレーションやコメント、台詞の全部または一部の文字数を数え、シーン毎に含まれる文字数を算出する文字数算出手段と、
前記シーン毎の文字数の比を求める文字数比算出手段と、
前記シーン毎の文字数比と前記映像全体の実時間長を対比させて、前記シーン毎の予測時間長を算出する予測時間長算出手段と、
シーン毎に予測開始時間と予測終了時間と予測時間長を記述したインデックスを生成するインデックス生成手段と、
を有することを特徴とするインデックス生成装置。 - 請求項1乃至4のいずれか1項に記載のインデックス生成方法をコンピュータで実行することを特徴とするインデックス生成プログラム。
- 請求項7記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002323091A JP3891097B2 (ja) | 2002-11-06 | 2002-11-06 | インデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002323091A JP3891097B2 (ja) | 2002-11-06 | 2002-11-06 | インデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004159107A JP2004159107A (ja) | 2004-06-03 |
JP3891097B2 true JP3891097B2 (ja) | 2007-03-07 |
Family
ID=32803083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002323091A Expired - Fee Related JP3891097B2 (ja) | 2002-11-06 | 2002-11-06 | インデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3891097B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2007007556A1 (ja) * | 2005-07-07 | 2009-01-29 | シャープ株式会社 | 放送記録装置 |
-
2002
- 2002-11-06 JP JP2002323091A patent/JP3891097B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004159107A (ja) | 2004-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108009293B (zh) | 视频标签生成方法、装置、计算机设备和存储介质 | |
Tan et al. | A framework for measuring video similarity and its application to video query by example | |
JP4873018B2 (ja) | データ処理装置、データ処理方法、及び、プログラム | |
US7921116B2 (en) | Highly meaningful multimedia metadata creation and associations | |
KR100922390B1 (ko) | 멀티미디어 프리젠테이션들의 자동 콘텐트 분석 및 표현 | |
US7522967B2 (en) | Audio summary based audio processing | |
Petkovic et al. | Multi-modal extraction of highlights from TV formula 1 programs | |
US20050228665A1 (en) | Metadata preparing device, preparing method therefor and retrieving device | |
US7212972B2 (en) | Audio features description method and audio video features description collection construction method | |
KR100943398B1 (ko) | 신호 기록 재생 장치, 신호 기록 재생 방법, 및 기록 매체 | |
US8564721B1 (en) | Timeline alignment and coordination for closed-caption text using speech recognition transcripts | |
JP5218766B2 (ja) | 権利情報抽出装置、権利情報抽出方法及びプログラム | |
JP2005202357A (ja) | オーディオ重複検出器 | |
JP2006155384A (ja) | 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体 | |
US20190362405A1 (en) | Comparing audiovisual products | |
Guha et al. | Computationally deconstructing movie narratives: an informatics approach | |
JP3781715B2 (ja) | メタデータ制作装置及び検索装置 | |
JP4064902B2 (ja) | メタ情報生成方法、メタ情報生成装置、検索方法および検索装置 | |
JP4594701B2 (ja) | 情報検索装置、情報検索方法及び情報検索用プログラム並びに情報記録媒体 | |
Huang et al. | A film classifier based on low-level visual features | |
US20070051230A1 (en) | Information processing system and information processing method | |
JP3891097B2 (ja) | インデックス生成方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 | |
JP2006014084A (ja) | 映像編集装置、映像編集プログラム、記録媒体、および映像編集方法 | |
EP3252770A1 (en) | Automated identification and processing of audiovisual data | |
Zhu et al. | Multimodal content-based structure analysis of karaoke music |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061127 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101215 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101215 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111215 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111215 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121215 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121215 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131215 Year of fee payment: 7 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |