[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008148077A - 動画再生装置 - Google Patents

動画再生装置 Download PDF

Info

Publication number
JP2008148077A
JP2008148077A JP2006333952A JP2006333952A JP2008148077A JP 2008148077 A JP2008148077 A JP 2008148077A JP 2006333952 A JP2006333952 A JP 2006333952A JP 2006333952 A JP2006333952 A JP 2006333952A JP 2008148077 A JP2008148077 A JP 2008148077A
Authority
JP
Japan
Prior art keywords
keyword
moving image
data
unit
playback device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006333952A
Other languages
English (en)
Other versions
JP4905103B2 (ja
Inventor
Kazushige Hiroi
廣井和重
Riri Ueda
上田理理
Norikazu Sasaki
佐々木規和
Nobuhiro Sekimoto
関本信博
Masahiro Kato
加藤雅弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006333952A priority Critical patent/JP4905103B2/ja
Priority to US11/759,265 priority patent/US20080138034A1/en
Priority to CN200710194201XA priority patent/CN101202864B/zh
Publication of JP2008148077A publication Critical patent/JP2008148077A/ja
Application granted granted Critical
Publication of JP4905103B2 publication Critical patent/JP4905103B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

【課題】 利用者が所望のシーンを指定して、そのシーンを直ぐに見られるようにする装置を提供すること、および利用者が動画データを見る前あるいは可能な限り直ぐに見たいシーンがあるか否かを判断可能とする装置を提供すること。
【解決手段】 そこで例えば、選択された動画データに含まれるキーワードを表示して、利用者に選択させる装置を提供する。具体的に例えば、動画データに対応する複数のキーワードを複数表示するキーワード表示部と、キーワード表示部で表示した複数のキーワードのうち、第1のキーワードの選択入力を受ける選択入力部と、第1のキーワードに対応する一又は複数のシーンを再生するシーン再生部とを有する動画再生装置。
【選択図】 図2

Description

技術分野は、動画データを再生する動画再生装置に関する。特に動画データにおける特定シーンを抽出、選択、再生等する技術に関する。
動画データにおける特定シーンを抽出する技術として、例えば特許文献1、2及び非特許文献1がある。
特許文献1には、「動画像の非重要度は入力手段を用いて画像のシーンごとに付与する。非重要度抽出手段は、閲覧される動画像を蓄積手段から入手し、動画像のシーンごとに付与された非重要度を求め、これを再生制御手段に出力する。再生制御手段は、非重要度が付与された場面を早送りし、非重要でなくなった時刻t1を記録しておき、再び非重要である時間t2に達したら、時刻t1から時刻t2までを再生するよう動画再生手段に指示する。動画再生手段は表示手段に時刻t1から時刻t2までの動画像を再生する。」と記載されている。
非特許文献1には、「This paper describes a system for automated performance evaluation of video summarization algorithms. We call it SUPERSIEV (System for Unsupervised Performance Evaluation of Ranked Summarization in Extended Videos). It is primarily designed for evaluating video summarization algorithms that perform frame ranking. The task of summarization is viewed as a kind of database retrieval, and we adopt some of the concepts developed for performance evaluation of retrieval in database systems. First, ground truth summaries are gathered in a user study from many assessors and for several video sequences. For each video sequence, these summaries are combined to generate a single reference file that represents the majority of assessors’ opinions. Then the system determines the best target reference frame for each frame of the whole video sequence and computes matching scores to form a lookup table that rates each frame. Given a summary from a candidate summarization algorithm, the system can then evaluate this summary from different aspects by computing recall, cumulated average precision, redundancy rate and average closeness. With this evaluation system, we can not only grade the quality of a video summary, but also (1) compare different automatic summarization algorithms and (2) make stepwise improvements on algorithms, without the need for new user feedback.」と記載されている。
特許文献2には課題として「録画したコンテンツの検索を容易かつ効率よく実行できるようにする。」と記載され、解決手段として「コンテンツ検索装置は、チューナ部6を通してデコードされたコンテンツを、コンテンツ蓄積部5に蓄積しておく。蓄積されたコンテンツと、そのコンテンツに付随する字幕情報とを字幕解析部8で解析し、コンテンツを所定の単位に分割して、字幕情報を用いた検索用インデックスを付与しておく。そして入力装置から送信された単語からなる検索キーをコンテンツ検索装置の受信部1で受信すると、検索部2は、受信した単語を検索クエリーとして、コンテンツ蓄積部5に蓄積されたコンテンツを検索する。検索結果は送信部3から表示装置4へ転送される。」と記載されている。
特開2003−153139号公報 特開2006−115052号公報 D.DeMenthon、 V.Kobla、 and D.Doermann、 "Video Summarization by Curve Simplification"、 ACM Multimedia 98、 Bristol、 England、 pp.211-218、 1998
近年、デジタルテレビ放送による動画データの多チャンネル放送化やネットワークの広帯域化により、多くの動画データを取得あるいは視聴可能となった。また、動画圧縮伸張技術の向上、向上した動画圧縮技術を実現するハードウェア/ソフトウェアの低価格化、及び蓄積メディアの大容量化と低価格化により、多くの動画データを手軽に保存できるようになり、視聴可能な動画データが増加しつつある。しかしながら、多忙な人にとっては、それら動画データ全てを視聴する時間は無く、結果として視聴しきれない動画データが氾濫する状況になってきている。そこで例えば、動画データにおける特定シーンを抽出する技術が重要となる。
この点、特許文献1及び非特許文献1によれば利用者が動画データの内容を短時間で把握することが可能なる。しかし、動画データの中から特定シーンを装置が判別および抽出するので、装置が判別および抽出した特定シーンが利用者の望むシーンと一致しない場合がある。
特許文献2では、利用者が最初にキーワードをカメラ等で入力すると録画した複数のコンテンツ(動画データ)の中からキーワードに対応するコンテンツを検索する。しかし、利用者が先に或る動画データ(コンテンツ)を選択し、選択された動画データの中から特定シーンを抽出するには、利用者が選択された動画データを見ていないとどんなキーワードが含まれているのかが利用者には分からないため、そもそも利用者がキーワードを入力できない。つまり例えば、利用者が視聴していない動画データを選択してその内容のうちから興味あるシーンを短時間で視聴する用途には不向きである。
そこで例えば、選択された動画データに含まれるキーワードを表示して、利用者に選択させる装置を提供する。
具体的に例えば、動画データに対応する複数のキーワードを複数表示するキーワード表示部と、キーワード表示部で表示した複数のキーワードのうち、第1のキーワードの選択入力を受ける選択入力部と、第1のキーワードに対応する一又は複数のシーンを再生するシーン再生部とを有する動画再生装置。
また例えばさらに、第1のキーワードに対応する一又は複数のシーンの、動画データ中での位置又は時間に第1のキーワードを対応付けて表示するシーン位置表示部をさらに有する動画再生装置。
上記手段によれば例えば、利用者は動画データから効率的に特定シーンを視聴可能となる。
以下、本発明の実施に好適な実施例を、図面を参照して説明する。
(1)ハードウェア構成
図1は、本実施例に係る動画再生装置のハードウェア構成の一例である。
動画再生装置としては例えば、動画データを再生可能な、ハードディスクレコーダ、ビデオテープレコーダ、パーソナルコンピュータ、又は携帯端末等が含まれる。
図1に示す通り、動画再生装置は、動画データ入力装置100と、中央処理装置101と、入力装置102と、表示装置103と、音声出力装置104と、記憶装置105と、二次記憶装置106と、ネットワークデータ入力装置108と、を有する。各装置は、バス107によって接続され、各装置間で相互にデータの送受信が可能である。
動画データ入力装置100は、動画データを入力する。本動画データ入力装置100は、例えば後述する記憶装置105あるいは二次記憶装置106に記憶されている動画データを読み込む装置としたり、テレビ放送等を受信する場合には、テレビのチューナユニットとしたりすることができる。また、ネットワーク経由で動画データを入力する場合には、本動画データ入力装置100をLANカード等のネットワークカードとすることができる。
中央処理装置101は、マイクロプロセッサを主体に構成されており、記憶装置105や二次記憶装置106に格納されているプログラムを実行し、本動画再生装置の動作を制御する。
入力装置102は、例えばリモコン、キーボード、又はマウス等のポインティングデバイスによって実現され、利用者が本動画再生装置に対して指示を与えることを可能とする。
表示装置103は、例えばディスプレイアダプタと液晶パネルやプロジェクタ等によって実現され、再生画像や後述する表示画面を表示する。
音声出力装置104は、例えばサウンドカードとスピーカ等によって実現され、再生動画データに含まれる音声を出力する。
記憶装置105は、例えばランダムアクセスメモリ(RAM)等によって実現され、中央処理装置101によって実行されるプログラムや本動画再生装置において処理されるデータ、あるいは再生対象の動画データ等を格納する。
二次記憶装置106は、例えばハードディスクやDVDあるいはCDとそれらのドライブ、あるいはフラッシュメモリ等の不揮発性メモリにより構成され、中央処理装置101によって実行されるプログラムや本動画再生装置において処理されるデータ、あるいは再生対象の動画データ等を格納する。なお、本二次記憶装置106は必須ではない。
ネットワークデータ入力装置108は、LANカード等のネットワークカードによって実現され、ネットワークでつながれている他の装置から動画データや動画データに関する情報を入力する。なお、本ネットワークデータ入力装置108は、後述する実施例4では必須となるが、それ以外では必須ではない。
(2)機能ブロック、データ構成、画面例
図2は、本実施例に係る動画再生装置の機能ブロック図の一例である。これらの機能ブロックの全てが中央処理装置101によって実行されるソフトウェアプログラムであるものとして説明するが、一部あるいは全ては、ハードウェアとして実現されてもよい。
図2に示す通り、本実施例に係る動画再生装置は、動画解析動画データ入力部201と、インデクシングデータ生成部202と、インデクシングデータ保持部203と、インデクシングデータ入力部204と、キーワードデータ生成部205と、キーワードデータ保持部206と、キーワードデータ入力部207と、キーワード入力部208と、キーワード位置データ生成部209と、キーワード位置データ保持部210と、キーワード位置データ入力部211と、キーワード提示部212と、キーワード位置提示部213と、再生制御部214と、再生動画データ入力部215と、音声出力部217と、画像表示部218と、再生位置指定部219と、を有する。
ただし、他の装置で既に作成済みのインデクシングデータを使用するなど、インデクシングデータを本動画再生装置で生成しない場合には、解析動画データ入力部201と、インデクシングデータ生成部202と、インデクシングデータ保持部203は必須ではない。また、他の装置で既に作成済みのキーワードデータを使用するなど、キーワードデータを本動画再生装置で生成しない場合には、キーワードデータ生成部205と、キーワードデータ保持部206は必須ではない。また、他の装置で既に作成済みのキーワード位置データを使用するなど、キーワード位置データを本動画再生装置で生成しない場合には、キーワード位置データ生成部209と、キーワード位置データ保持部210は必須ではない。
図2において、解析動画データ入力部201は、後述するインデクシングデータの生成対象の動画データを動画データ入力装置100から入力する。
インデクシングデータ生成部202は、解析動画データ入力部201において入力した動画データにおいて、喋られている台詞あるいは表示されている文字列とそれらの台詞あるいは文字列が喋られる時刻あるいは表示される時刻を基に動画データをインデクシングし、後述する図3に示すインデクシングデータを生成する。
例えば喋られている台詞の字幕データを取得し、その文字列およびそれが表示される時間とともに記録することにより、図3に示すインデクシングデータを作成する。デジタルテレビ放送では、音声のES(Elementary Stream)や映像のESと同様に字幕のESが送られてきているので、この字幕のESを取得およびデコードすることで、字幕として表示される文字列とそれが表示される時刻の情報を取得でき、これらを基に図3に示すインデクシングデータを生成可能となる。
あるいは、インデクシングデータ生成部202は、解析動画データ入力部201において入力した動画データの音声を認識し、その文字列を生成することによって、図3に示すインデクシングデータを生成しても良い。この音声認識の技術は公知の技術を流用できるものとし、ここでは説明を省略する。音声認識した結果は文字列とする必要はなく、音素特徴などとしても良い。この場合、図3のインデクシングデータの文字列格納領域に音素特徴を格納すればよい。また、音声認識した結果を音素等の文字列以外とした場合には、後述するようにキーワード位置データ生成部209において、音素等の文字列以外でキーワード出現位置を検索するように構成すればよい。これについては後程、キーワード位置データ生成部209の説明で改めて言及する。
あるいは、インデクシングデータ生成部202は、解析動画データ入力部201において入力した動画データの画像上に表示されるテロップを認識し、その文字列を生成することによって、図3に示すインデクシングデータを生成しても良い。このテロップ認識の技術は公知の技術を流用できるものとし、ここでは説明を省略する。テロップ認識した結果は文字列とする必要は無く、文字の辺数等の形状特徴などとしても良い。この場合、図3のインデクシングデータの文字列格納領域に形状特徴を格納すればよい。また、テロップ認識した結果を形状特徴等の文字列以外とした場合には、後述するようにキーワード位置データ生成部209において、形状特徴等の文字列以外でキーワード出現位置を検索するように構成すればよい。これについては後程、キーワード位置データ生成部209の説明で改めて言及する。
図3は、インデクシングデータのデータ構造の一例である。
301は、ある時刻に喋られる台詞あるいは表示される文字列の番号であり、304は、喋られる台詞あるいは表示される文字列である。ここで、喋られる台詞としては、字幕情報の場合はデコード結果の文字列とすることができる。また、音声認識結果であれば、単位時間あたりの音声に対して音声認識によって得られた認識結果の文字列としたり、音素データとすることができる。また、テロップ認識結果であれば、テロップが出現したと認識したときにテロップ認識によって得られた認識結果の文字列としたり、辺の数や画数等の形状特徴データとすることができる。
302は、304に格納される文字列のバイト数や音素データのデータ量等の304に格納されるデータのデータ量であり、特にそのデータの倍とすうとすることができる。
303は、304に格納されるデータが実際に出力される時刻であり、つまり304に格納されている台詞あるいは文字に関するデータが喋られるあるいは表示される時刻である。これは、例えば字幕情報の場合はデコード結果の時刻とすることができる。また、音声認識結果であれば、単位時間あたりの音声に対して音声認識する場合には、その音声が出力される時刻とすることができる。また、テロップ認識の場合には、テロップが出現したと認識したときにそのテロップが表示される時刻とすることができる。インデクシングデータ生成部202は、上述した301から304のデータの組でエントリを構成する。図3においては、特に311から313の3つのエントリがあることを示している。
インデクシングデータ生成部202は、エントリがなくなった時点で314に示すようにすべてのデータを0にする。これにより、後述するインデクシングデータ入力部204で、本インデクシングデータが読み込まれた際にエントリの最後を知ることができる。
なお、図3においては、一例としてデータ#301の領域サイズを4バイト、バイト数302の領域サイズを4バイト、時刻303の領域サイズを8バイト、文字列304の領域サイズをNバイトとしているがこの限りではなく、動画データに対して十分にそれぞれのデータを格納可能な領域を確保して決定されれば良い。
図2の説明に戻る。インデクシングデータ保持部203は、インデクシングデータ生成部202において生成したインデクシングデータを保持する。これは、例えばインデクシングデータ生成部202において生成したインデクシングデータを記憶装置105あるいは二次記憶装置106に格納することによって実現できる。
インデクシングデータ入力部204は、インデクシングデータ保持部203において保持されたインデクシングデータ、あるいは他の装置などによって既に生成されているインデクシングデータを入力する。これは、例えば記憶装置105あるいは二次記憶装置106に格納されているインデクシングデータを読み出すことによって実現できる。あるいは他の装置などによって既に生成されているインデクシングデータを入力する場合には、ネットワークデータ入力装置108を介して、該当するインデクシングデータが保存されている装置にアクセスし、該当するインデクシングデータを取得すればよい。この方法としては公知のネットワークデータの取得方法が適用可能であるとし、ここでは詳細な説明を省略する。
キーワードデータ生成部205は、インデクシングデータ入力部204で入力したインデクシングデータの文字列部分を解析および単語分解し、図4に示すキーワードデータを生成する。なお、文字列部分の解析及びキーワードデータの生成には辞書220及び/あるいは形態素解析の技術等が応用できる。なお、形態素解析には公知技術を流用できるものとし、ここでは説明を省略する。
インデクシングデータの文字列部分を解析する際には、スペースや振り仮名の文字列、及び文字色や表示位置を指定する制御コードを抜き取った状態で解析することで解析精度を向上することができる。これは、字幕データからインデクシングデータを生成した場合には、スペースの削除を字幕データからスペースの文字コード削除することによって実施できる。また、振り仮名の削除は文字の大きさの制御コードを判別し、振り仮名の大きさで表示される文字列を削除することによって実施できる。
辞書220は、例えば人名の辞書や、「天気予報」や「ホームラン」といった番組あるいは番組カテゴリ(総称して動画データの種類ともいう)ごとの固定のキーワードの辞書を用いれば、キーワードが大量に抽出されてしまい一覧表示しきれない又はユーザが探し難いという課題を解消できる。この辞書は動画データの種類によって切り替えてもよい。動画データの種類は例えば番組に付属するメタデータ、EPGデータ、ユーザの指定等によって決めることができる。
また、「次に」、「次は」、「続いて」といったトピックの先頭や導入(トピックの切れ目)に喋られるキーワードの辞書を用いれば、この言葉を拾うことで動画データ内のトピックの切れ目を検出することが期待できる。
生成したキーワードはキーワード提示部212で提示可能となる。
図4は、キーワードデータのデータ構造の一例である。
403は、キーワードとなる文字列自身であり、キーワードデータ生成部205によって解析および単語分解されたインデクシングデータの文字列部分であり、特にインデクシングデータの文字列部分の一部とすることができる。例えば、上述の通り、インデクシングデータの文字列部分から辞書220及び/あるいは形態素解析などの技術を適用して、名詞の単語にあたる文字列(キーワード)を抽出したものとすればよい。
401は、キーワードの番号、402は、キーワードとなる文字列のバイト数である。キーワードデータ生成部205は、さらに、後述するキーワード入力部208においてユーザから入力されたキーワードの統計を取り、その統計量によって例えばこれまでにユーザによって指定されたキーワードの多さによってスコアを付けても良い。この場合、図4において、キーワードデータには、キーワードに対してスコア404を付し、401から404を一組として、エントリを形成する。図4においては、一例として411から413までの3つのエントリがあることを示している。キーワードデータ生成部205は、エントリがなくなった時点で414に示すようにすべてのデータを0にすればよい。これにより、後述するキーワードデータ入力部207で、本キーワードデータが読み込まれた際にエントリの最後を知ることができる。
なお、図4においては、一例としてキーワードの番号401の領域サイズを4バイト、バイト数402の領域サイズを4バイト、キーワード文字列403の領域サイズをNバイト、スコア404の領域サイズを4バイトとしているがこの限りではなく、それぞれのデータレンジに対応して十分に領域を確保して決定されれば良い。
図2の説明に戻る。キーワードデータ保持部206は、キーワードデータ生成部205において生成したキーワードデータを保持する。これは、例えばキーワードデータ生成部205において生成したキーワードデータを記憶装置105あるいは二次記憶装置106に格納することによって実現できる。
キーワードデータ入力部207は、キーワードデータ保持部206において保持されたキーワードデータ、あるいは他の装置などによって既に生成されているキーワードデータを入力する。これは、例えば記憶装置105あるいは二次記憶装置106に格納されているキーワードデータを読み出すことによって実現できる。あるいは他の装置などによって既に生成されているキーワードデータを入力する場合には、ネットワークデータ入力装置108を介して、該当するキーワードデータが保存されている装置にアクセスし、該当するキーワードデータを取得すればよい。この方法としては公知のネットワークデータの取得方法が適用可能であるとし、ここでは詳細な説明を省略する。
キーワード提示部212は、キーワードデータ入力部207で入力したキーワードデータに格納されたキーワードを図5に示すように利用者に提示する。
図5(a)は、利用者に提示されたキーワードの一例を含む本動画再生装置の表示画面の一例であり、特にニュース番組に対してキーワードを提示した例である。
500は、表示装置103上の画面であり、510は、動画操作ウィンドウ、511は、動画表示ウィンドウである。再生される動画データは、この動画表示ウィンドウ511に表示される。
512および513は、再生位置表示スライダーであり、利用者は、この再生位置表示スライダー512および513により、再生している位置を知ると共に再生位置を変更あるいは指定することが可能となる。
514および515は、再生位置指定ボタンであり、利用者がこの再生位置指定ボタン514および515を押下することにより、後述する再生位置指定部219は、再生位置を変更させる。
520は、キーワード表示ウィンドウである。キーワード提示部212は、このキーワード表示ウィンドウ520内にキーワードデータに格納されたキーワードを表示することで、利用者に動画データに含まれるキーワードを提示可能となる。図5(a)においては、521から526がキーワードであり、これらはボタンとなっていても良い。これにより、後述するキーワード入力部208で、利用者はキーワードが表示されたボタンを押下することで、キーワードを指定および入力することが可能となる。
なお、541、542、543、及び544は、キーワードとして、それぞれ番組あるいは番組カテゴリごとに固定のキーワード、人名、トピック、あるいはその他のキーワードを提示することを指定するためのボタンであり、これらを操作することによって、キーワードデータ生成部205で使用する辞書220を番組あるいは番組カテゴリごとの固定キーワードの辞書、人名の辞書、トピックの先頭に喋られるキーワードの辞書、あるいはユーザが指定したキーワードの辞書を使用するように構成する。特に、541が押された場合には、番組あるいは番組カテゴリをEPGから取得して、番組あるいは番組カテゴリごとの固定キーワードの辞書を適用する。これにより、ユーザの好みの種別のキーワードが提示されるようになる。
例えば図5(a)はニュース番組に対して固定のキーワードを提示した例であり、図5(b)は野球番組に対して固定のキーワードを提示した例である。図5(c)は人名のキーワードを提示した例であり、図5(d)はトピックの先頭を検索可能とした例である。ここで、トピックボタン527が利用者により押された場合には、後述するキーワード位置データ生成部209において、キーワードデータに登録された文字列全てあるいは一部を検索するように構成する。これにより、トピックごとの視聴が可能となる。図5(e)は、人名のキーワードを提示した例である。
図5(a)から(e)において、フリーキーワード528は、利用者がキーワードを指定するボタンである。フリーキーワード528が利用者に押されると、例えば図14に示すキーワード入力ウィンドウ531を表示し、利用者がキーワード入力ボックス532からキーワードを指定可能とすればよい。この場合、利用者がキーワード入力ボックス532に入力装置102からキーワードを入力し、OKボタン533を押すと、後述するキーワード位置データ生成部209において、キーワード入力ボックス532に入力されたキーワードを検索するように構成する。一方、利用者がCancelボタン533を押すと、キーワード入力ボックス532に入力されたキーワードを無効とし、後述するキーワード位置データ生成部209において、キーワード入力ボックス532に入力されたキーワードが検索されないように構成する。
なお、キーワード提示部212は、キーワードを提示する際、あらかじめ決められたスコアのキーワードあるいはあらかじめ決められたキーワードの個数を上位スコアから選出し、利用者に提示してもよい。また、キーワード提示部212は、キーワードを提示する際、利用者により指定されたスコアのキーワードあるいは利用者によって指定されたキーワードの個数を上位スコアから選出し、利用者に提示してもよい。
図2の説明に戻る。キーワード入力部208は、利用者から指定されるキーワードを入力する。これは、例えば図5でキーワード提示部212によりキーワード表示ウィンドウ520内に表示されたキーワードを利用者が選択した場合に、そのキーワードを取得することによって実現でき、特に、上述したようにキーワードがボタン上に表示されている場合、利用者が押下したボタンに表示されている文字列を取得することによって実現しても良い。なお、先に述べたように、入力したキーワードがキーワードデータ生成部205に供給されるように構成しても良い。この場合、キーワードデータ生成部205は、キーワード入力部208においてユーザから入力されたキーワードの統計を取り、その統計量によって例えばこれまでにユーザによって指定されたキーワードの多さによって生成するキーワードのスコアを付けるように構成しても良い。なお、利用者が、このキーワード入力部208にキーワードを指定することで、本動画再生装置は、動画データにおいて指定したキーワードの出現している位置を検索して再生する。これにより、利用者は、所望のキーワードが出現するシーンを視聴できるようになる。
キーワード位置データ生成部209は、キーワード入力部208によって入力したキーワードの文字列と、インデクシングデータ入力部204で入力したインデクシングデータを基に、図6に示すキーワード位置データを生成する。これは、キーワード位置データ生成部209が、キーワード入力部208によって入力したキーワードの文字列を、インデクシングデータ入力部204で入力したインデクシングデータにおける各エントリの文字列部分から検索し、当該入力したキーワードの文字列が見つかったインデクシングデータにおけるエントリの時刻303を取得して、それを図6に示すキーワード位置データにおける位置602に格納すればよい。
なお、先に述べた通り、インデクシングデータ生成部202において、音声認識あるいはテロップ認識により、音素特徴あるいは形状特徴等の文字列以外を文字列304の領域に格納した場合には、キーワード位置データ生成部209が、キーワード入力部208によって入力したキーワードの文字列を基に、それぞれ音素特徴あるいは形状特徴等に変換して、インデクシングデータにおける各エントリの文字列部分から検索し、当該入力したキーワードの文字列に対応する音素特徴あるいは形状特徴と一致したインデクシングデータにおけるエントリの時刻303を取得して、それを図6に示すキーワード位置データにおける位置602に格納すればよい。
図6は、キーワード位置データのデータ構造の一例である。
601は、位置の番号である。また、602は、キーワード入力部208によって入力したキーワードの文字列が見つかった際の、その文字列が動画データ内で出現する位置であるが、これは動画データにおけるその文字列が表示される時刻としてもよく、ここでは、動画データ内の位置を動画データ内での時刻ととらえることにする。すなわち、キーワード入力部208によって入力されたキーワードの文字列が、インデクシングデータ入力部204で入力したインデクシングデータにおける文字列部分に見つかったときの、インデクシングデータにおけるエントリの時刻303とすることができる。あるいは、キーワード入力部208によって入力されたキーワードの文字列に対応する音素特徴あるいは文字の形状特徴が、インデクシングデータ入力部204で入力したインデクシングデータにおける文字列部分に見つかった時の、インデクシングデータにおけるエントリの時刻303とすることができる。
図6においては、特に、一例としてキーワード入力部208によって入力されたキーワードの文字列、あるいは音素特徴あるいは文字の形状特徴が、インデクシングデータ入力部204で入力したインデクシングデータにおける3つのエントリの文字列部分に見つかったことを示しており、これらがそれぞれキーワード位置データにおけるエントリ604から606に格納されたことを示している。なお、キーワード位置データ生成部209は、607に示す通り、エントリの最後のデータを0にするとよい。これにより、後述するキーワード位置データ入力部211で、本キーワード位置データが読み込まれた際にエントリの最後を知ることができる。
なお、図6においては、一例として位置番号601の領域サイズを4バイトととし、位置602の領域サイズを8バイトとしているがこの限りではなく、それぞれのデータレンジに対応して十分に領域を確保して決定されれば良い。
図2の説明に戻る。キーワード位置データ保持部210は、キーワード位置データ生成部209において生成したキーワード位置データを保持する。これは、例えばキーワード位置データ生成部209において生成したキーワード位置データを記憶装置105あるいは二次記憶装置106に格納することによって実現できる。
キーワード位置データ入力部211は、キーワード位置データ保持部210において保持されたキーワード位置データ、あるいは他の装置などによって既に生成されているキーワード位置データを入力する。これは、例えば記憶装置105あるいは二次記憶装置106に格納されているキーワード位置データを読み出すことによって実現できる。あるいは他の装置などによって既に生成されているキーワード位置データを入力する場合には、ネットワークデータ入力装置108を介して、該当するキーワード位置データが保存されている装置にアクセスし、該当するキーワード位置データを取得すればよい。この方法としては公知のネットワークデータの取得方法が適用可能であるとし、ここでは詳細な説明を省略する。
キーワード位置提示部213は、キーワード位置データ入力部211で入力したキーワード位置データに基づいて、動画データ内において利用者が指定したキーワードの出現位置を提示する。これは、例えば図7に示すように図5でも説明した再生位置表示スライダー512上に、キーワード位置データ内のエントリの位置602に対応する位置にマークを付けることによって実現できる。
図7は、キーワード位置提示の一例である。図7において、512および513は、図5においても説明した再生位置表示スライダーであり、514および515は、図5においても説明した再生位置指定ボタンである。そして、701から703が、キーワード位置提示部213によって提示されたキーワード位置であり、具体的には再生位置表示スライダー512上に、キーワード位置データ内のエントリの位置に対応する位置にマークを付けることによって実現できる。これは、動画データ全体の再生時間を再生位置表示スライダー512の長さ、再生位置表示スライダー512の左端を時刻0として、キーワード位置データ内の位置602に格納されている時刻に対応する再生位置表示スライダー512上の位置を再生位置表示スライダー512の長さと動画データ全体の再生時間の割合から求め、当該キーワード位置データ内の位置602に格納されている時刻に対応する再生位置表示スライダー512上の位置にマークを付けることによって実現できる。
図2の説明に戻る。再生動画データ入力部212は、再生対象の動画データを動画データ入力装置100から入力する。
画像表示部218は、後述する再生制御部214において生成された再生画像を表示装置103に表示する。
音声出力部217は、後述する再生制御部214において生成された再生音声を音声出力装置104に出力する。
再生位置指定部219は、利用者からの再生位置の変更があった場合に、その旨を後述する再生制御部214に通知する。例えば、図5および図7における再生位置指定ボタン514あるいは515が利用者により押下された場合に、それを後述する再生制御部214にイベントあるいはフラグにより通知することで実現できる。
再生制御部214は、動画データを再生動画データ入力部212により入力し、再生画像及び再生音声を生成して画像表示部218および音声出力部217に出力することによって、動画データを再生する。この再生制御部214の処理内容の一例を図8に示す。
図8は、再生制御部214の処理内容の一例を説明するフローチャートである。
図8に示すとおり、再生制御部214は、まず、動画データにおける現在の再生位置(動画データにおける時刻)を取得し(ステップ801)、この現在の再生位置を基に、次の再生開始位置を取得する(ステップ802)。これは、キーワード位置データの位置602を参照し、現在の再生位置よりも後で、かつ現在の再生位置に最も近い位置を取得することによって実現できる。
次に、ステップ802で取得した次の再生開始位置へジャンプし(ステップ803)、当該再生開始位置から動画データの再生を行う(ステップ804)。これは、当該再生位置からの動画データにおける再生画像を画像表示部218を介して表示装置103への表示すること、及び当該再生位置からの動画データにおける再生音声を音声出力部217を介して音声出力装置104への出力することにより実施される。
同動画データの再生中、定期的に再生が終了したか否かを判断し(ステップ805)、再生が終了した場合には動画データの再生を終了する。具体的には、動画データを全て再生し終わった場合あるいは利用者から再生の終了が指示された場合に再生の終了と判断する。
さらに、同動画データの再生中、定期的に再生位置指定部219により再生位置の変更が指示されたか否かを判断する(ステップ806)。このステップ806における判断の結果、再生位置指定部219により再生位置の変更が指示されていないと判断した場合には、ステップ804に戻り、ステップ804からステップ806を繰り返すことで、動画データの再生を継続する。
一方、ステップ806における判断の結果、再生位置指定部219により再生位置の変更が指示された判断した場合には、ステップ801に戻り、ステップ801からステップ806を繰り返すことで、次の再生開始位置から動画データを再生する。
再生位置指定部219において、利用者から再生位置指定ボタン515が押下された場合には、ステップ802において、キーワード位置データの位置602を参照し、現在の再生位置よりも後で、かつ現在の再生位置に最も近い位置を取得する。
再生位置指定部219において、利用者から再生位置指定ボタン514が押下された場合には、ステップ802において、キーワード位置データの位置602を参照し、現在の再生位置よりも前で、かつ現在の再生位置に最も近い位置を取得する。これにより、利用者が再生位置指定ボタン515を押下した場合には、時間的に次のキーワード出現位置から動画データの再生が行われる。また、利用者が再生位置指定ボタン514を押下した場合には、時間的に前のキーワード出現位置から動画データの再生が行われる。
以上の処理により、利用者が指定したキーワードが出現している位置から動画データの再生が可能となる。
(3)全体制御
本動画再生装置の全体的な動作について、動画データの録画時と再生時に分けて説明する。
まず、動画データの録画時の動作を説明する。なお、本動画再生装置が動画データの録画を実施しない場合には、ここで説明する動作は必要ない。
図9は、本動画再生装置の動画データ録画時の動作を示すフローチャートである。
図9に示すとおり、動画データの録画時には本動画再生装置は、まず、解析動画データ入力部201により、録画対象の動画データを入力し(ステップ901)、インデクシングデータ生成部202により、インデクシングデータを生成して(ステップ902)、インデクシングデータ保持部203により、ステップ902でインデクシングデータ生成部202によって生成したインデクシングデータを保存して(ステップ903)、録画を終了する。なお、他の装置ですでに作成済みのインデクシングデータを使用するなど、インデクシングデータを本動画再生装置で生成しない場合には、ステップ902は必要ない。インデクシングデータのみでなく、動画データ自身も録画することは言うまでもない。
次に、動画データ再生時における本動画再生装置の動作を説明する。
図10は、本動画再生装置の動画データ再生時の動作を示すフローチャートである。
図10に示すとおり、動画データの再生時には本動画再生装置は、まず、提示する(一覧表示させる)キーワードの種別を入力する(ステップ1000)。これは、例えば、図5における541、542、543、及び544によりユーザから種別を入力してもらうことにより実現する。
続いて、本動画再生装置は、インデクシングデータ入力部204により、録画対象の動画データのインデクシングデータを入力し(ステップ904)、キーワードデータ生成部205により、録画対象の動画データに含まれるキーワードデータを生成して(ステップ905)、キーワードデータ保持部206により、ステップ905でキーワードデータ生成部205によって生成したキーワードデータを保存する(ステップ906)。なお、他の装置で既に作成済みのキーワードデータを使用するなど、キーワードデータを本動画再生装置で生成しない場合には、ステップ904と、ステップ905と、ステップ906は必要ない。
動画データの再生時には本動画再生装置は、続いて、キーワードデータ入力部207により、再生対象の動画データ内に含まれるキーワードが記述されているキーワードデータを入力し(ステップ1001)、キーワード提示部212により、キーワードデータ内のキーワード、すなわち再生対象の動画データ内に含まれるキーワードを表示する(ステップ1002)。
次に、キーワード入力部208により、利用者が視聴したいシーンのキーワードの入力を受ける(ステップ1003)。例えば図5(a)の画面例でいえば、521から526の選択、又は、528の選択から図14で文字入力を受ける。
ステップ1003でキーワード入力部208によって入力したキーワードが再生動画データ内に出現する位置のデータをキーワード位置データ生成部209により生成して(ステップ1004)、キーワード位置データ保持部210により、ステップ1004でキーワード位置データ生成部209によって生成したキーワード位置データを保存する(ステップ1005)。なお、他の装置ですでに作成済みのキーワード位置データを使用するなど、キーワード位置データを本動画再生装置で生成しない場合には、ステップ1004と、ステップ1005は必要ない。
続いて、本動画再生装置は、キーワード位置データ入力部211により、キーワード位置データを入力し(ステップ1006)、キーワード位置提示部213により、キーワード位置データに記述されている動画データ内の位置、すなわち、利用者が指定したキーワードが出現する位置を表示する(ステップ1007)。
その後、本動画再生装置は、再生動画データ入力部215により、再生対象の動画データを入力し(ステップ1008)、再生制御部214により、再生対象の動画データにおける利用者が指定したキーワードの出現位置から再生動画を画像表示部218経由で表示装置103への表示すると共に、当該キーワードの出現位置からの再生音声を音声出力部217を介して音声出力装置104への出力することで、再生対象の動画データを再生する。
なお、図9と図10で示したインデクシングデータとキーワードデータとキーワード位置データとを生成するタイミングは一例であり、録画時と再生時のどちらで行うかは任意である。また、図3、4、6で示したインデクシングデータとキーワードデータとキーワード位置データとの切り分けも一例であり、すべてのデータが一体になっていてもよいなど、切り分けは任意である。3つのデータを総称してキーワードデータと呼んでもよい。
以上により、利用者が所望のシーンのキーワードを指定して、そのキーワードが出現しているシーンから動画データを再生することが可能となる。また、動画データを再生する前に、当該動画データに含まれるキーワードを確認でき、利用者が動画データを見る前あるいは可能な限り直ぐに見たいシーンがあるか否かを判断することが可能となる。
図11は、実施例2に係る動画再生装置の機能ブロック図の構成例である。
図11の動画再生装置では、図2にデータベース1101を加えた構成とし、このデータベースにはあらかじめ人名や地名などのキーワードを登録しておく。キーワードデータ生成部205は、インデクシングデータ入力部204で入力したインデクシングデータの文字列部分を解析および単語分解し、データベース1101に登録されているキーワードが出現した場合に、このキーワードを基にキーワードデータを生成する。
図11では、あらかじめ登録されたキーワードのみを利用者に提示可能となると共に、あらかじめ登録されたキーワードのシーンから動画データを再生することが可能となる。なお、実施例2における上述した以外の構成および処理内容は実施例1と同様とすることができる。
図12は、実施例3に係る動画再生装置の機能ブロック図の構成例である。
図12の動画再生装置では、図2にEPGデータ取得部1201を加えた構成とする。
EPGデータ取得部1201は、解析対象の動画データのEPGデータを取得する。EPGデータは例えば、解析動画データ入力部201により、解析対象の動画データに対応するEPGデータを放送から取得できる。あるいは、ネットワークデータ入力装置108を介して、あらかじめ決められて装置からEPGデータを取得するように構成しても良い。
キーワードデータ生成部205が、EPGデータ取得部1201で取得したEPGデータを解析および単語分解すると共に、インデクシングデータ入力部204で入力したインデクシングデータの文字列部分を解析および単語分解して、このインデクシングデータの文字列部分に、前記EPGデータの解析および単語分解した結果が含まれていた場合に、この解析および分析結果の文字列をキーワードとして、キーワードデータを生成する。
図12では、利用者がEPGデータを確認し、このEPGデータに含まれるキーワードのシーンから動画データを再生することが可能となる。なお、実施例3における上述した以外の構成および処理内容は実施例1と同様とすることができる。
図13は、実施例4に係る動画再生装置の機能ブロック図の構成例である。
図13の動画再生装置では、図2にネットワークデータ取得部1301を加えた構成とする。
ネットワークデータ取得部1301は、解析対象の動画データに関する出演者やコーナー名等の情報を取得する。これは、例えば、解析対象の動画データに対して、ネットワークデータ入力装置108を介して、情報を提供しいているネットワーク上の装置から当該情報を取得するように構成しても良い。あるいは、当該情報を提供しているサイトを検索して、そのサイトにアクセスして当該情報を取得するように構成しても良い。
キーワードデータ生成部205が、前記ネットワークデータ取得部1301で取得した情報を解析および単語分解すると共に、インデクシングデータ入力部204で入力したインデクシングデータの文字列部分を解析および単語分解して、このインデクシングデータの文字列部分に、前記ネットワークデータ取得部1301で取得した情報の解析および単語分解した結果が含まれていた場合に、この解析および分析結果の文字列をキーワードとして、キーワードデータを生成する。
図13では、EPGデータが不十分な場合、音声認識やテロップ認識が十分でない場合、あるいはテロップや字幕情報の提供が不十分な場合でもネットワークからキーワードを取得することができる。なお、実施例4における上述した以外の構成および処理内容は実施例1と同様とすることができる。
以上、本発明の実施例について実施例1から実施例4までを説明したが、これらの組み合わせによって動画再生装置を構成しても良い。また、これらの実施例ではインデックスデータの生成およびキーワード位置データの生成に関して、字幕情報、テロップ認識、および音声認識を用いた方法を示したが、この限りではなく、例えば顔認識等、動画データのインデクシングおよびキーワード出現位置の検索ができる情報であればなんでも利用可能である。さらに、これらの情報を利用する際、優先順位を付けても良い。例えば、字幕情報が提供されている場合には、字幕情報の活用を優先的にし、字幕情報がない場合にテロップ認識による情報の活用を行う。あるいは、どちらの情報もない場合に音声認識による情報を活用するというように、優先順位を適用することで、認識技術が完全ではない場合あるいは提供されている情報がないあるいは少ない場合にも、インデックスデータの生成およびキーワード位置データの生成が可能となる。さらに、キーワードデータの生成についても、字幕情報、テロップ認識、音声認識、データベース、EPGデータ、ネットワークデータを用いた方法を示したが、この限りではなく、例えば顔認識等、動画データのキーワード生成ができる情報であれば利用可能である。さらに、これらの情報を利用する際、優先順位を付けても良い。例えば、データベースが利用可能である場合には、データベースの活用を優先的にし、これが存在しない場合には、ネットワーク情報を活用する。さらに、ネットワーク情報もない場合には、字幕情報を活用し、これもない場合にEPGデータを活用する。また、EPGデータもない場合には、テロップ認識による情報を活用し、テロップ認識による情報もない場合に音声認識による情報を活用するとよい。これにより、認識技術が完全ではない場合あるいは提供されている情報がないあるいは少ない場合にも、キーワードデータの生成が可能となる。
動画再生装置の機能ブロックをソフトウェアで実現する場合のハードウェア構成図の一例である。 実施例1に係る動画再生装置の機能ブロック図の一例である。 インデクシングデータのデータ構造の一例である。 キーワードデータのデータ構造の一例である。 動画再生装置の表示画面の一例である。 動画再生装置の表示画面の一例である。 動画再生装置の表示画面の一例である。 動画再生装置の表示画面の一例である。 動画再生装置の表示画面の一例である。 キーワード位置データのデータ構造の一例である。 キーワード位置提示の一例である。 再生制御部の処理内容の一例を説明するフローチャートである。 動画データの録画時の動作の一例を説明するフローチャートである。 動画データの再生時の動作の一例を説明するフローチャートである。 実施例2に係る動画再生装置の機能ブロック図の一例である。 実施例3に係る動画再生装置の機能ブロック図の一例である。 実施例4に係る動画再生装置の機能ブロック図の一例である。 キーワードを文字入力する画面の一例を示す。
符号の説明
100・・・動画データ入力装置、101・・・中央処理装置、102・・・入力装置、103・・・表示装置、104・・・音声出力装置、105・・・記憶装置、106・・・二次記憶装置、107・・・バス、108・・・ネットワークデータ入力装置、201・・・動画解析動画データ入力部、202・・・インデクシングデータ生成部、203・・・インデクシングデータ保持部、204・・・インデクシングデータ入力部、205・・・キーワードデータ生成部、206・・・キーワードデータ保持部、207・・・キーワードデータ入力部、208・・・キーワード入力部、209・・・キーワード位置データ生成部、210・・・キーワード位置データ保持部、211・・・キーワード位置データ入力部、212・・・キーワード提示部、213・・・キーワード位置提示部、214・・・再生制御部、215・・・再生動画データ入力部、217・・・音声出力部、218・・・画像表示部、219・・・再生位置指定部、1101・・・データベース、1201・・・EPGデータ取得部、1301・・・ネットワークデータ取得部

Claims (15)

  1. 動画データに対応する複数のキーワードを複数表示するキーワード表示部と、
    前記キーワード表示部で表示した複数のキーワードのうち、第1のキーワードの選択入力を受ける選択入力部と、
    前記第1のキーワードに対応する一又は複数のシーンを再生するシーン再生部とを有する動画再生装置。
  2. 請求項1の動画再生装置であって、
    前記第1のキーワードに対応する一又は複数のシーンの、前記動画データ中での位置又は時間を表示するシーン位置表示部をさらに有する動画再生装置。
  3. 請求項1の動画再生装置であって、
    前記第1のキーワードに対応する一又は複数のシーンの、前記動画データ中での位置又は時間に前記第1のキーワードを対応付けて表示するシーン位置表示部をさらに有する動画再生装置。
  4. 請求項2又は3の動画再生装置であって、
    前記シーン位置表示部で表示する複数のシーンの位置又は時間のうち、任意の位置又は時間の選択入力を受ける再生位置指定部をさらに有する動画再生装置。
  5. 請求項1の動画再生装置であって、
    前記複数のキーワードを含むキーワードデータを生成又は入力するキーワードデータ生成/入力部をさらに有する動画再生装置。
  6. 請求項5の動画再生装置であって、
    動画データにおいて、喋られている台詞あるいは表示されている文字列と、それらの台詞が喋られる時刻あるいは文字列が表示される時刻とを基にインデクシングデータを生成するインデクシングデータ生成部をさらに有する動画再生装置。
  7. 請求項5の動画再生装置であって、
    前記キーワードデータ生成/入力部は、字幕データに基づいて前記キーワードデータを生成する動画再生装置。
  8. 請求項6の動画再生装置であって、
    前記キーワードデータ生成/入力部は、前記スペース又は振り仮名又は文字色を示す情報を除い字幕データ中の文字列からキーワードを生成することを特徴とする動画再生装置。
  9. 請求項5の動画再生装置であって、
    前記キーワードデータ生成/入力部は、音声認識に基づいて前記キーワードデータを生成する動画再生装置。
  10. 請求項5の動画再生装置であって、
    前記キーワードデータ生成/入力部は、テロップ認識に基づいて前記キーワードデータを生成する動画再生装置。
  11. 請求項5の動画再生装置であって、
    前記キーワードデータ生成/入力部は、EPGデータに基づいて前記キーワードデータを生成する動画再生装置。
  12. 請求項5の動画再生装置であって、
    前記キーワードデータ生成/入力部は、ネットワーク経由で取得したデータに基づいて前記キーワードデータを生成する動画再生装置。
  13. 請求項1から12のいずれかの動画再生装置であって、
    前記複数のキーワードは、人名である動画再生装置。
  14. 請求項1から13のいずれかの動画再生装置であって、
    前記複数のキーワードは、前記動画データの種類に基づいて決定される動画再生装置。
  15. 請求項1から12のいずれかの動画再生装置であって、
    前記複数のキーワードは、トピックの切れ目を示す言葉である動画再生装置。
JP2006333952A 2006-12-12 2006-12-12 動画再生装置 Active JP4905103B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006333952A JP4905103B2 (ja) 2006-12-12 2006-12-12 動画再生装置
US11/759,265 US20080138034A1 (en) 2006-12-12 2007-06-07 Player for movie contents
CN200710194201XA CN101202864B (zh) 2006-12-12 2007-12-12 动画再现装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006333952A JP4905103B2 (ja) 2006-12-12 2006-12-12 動画再生装置

Publications (2)

Publication Number Publication Date
JP2008148077A true JP2008148077A (ja) 2008-06-26
JP4905103B2 JP4905103B2 (ja) 2012-03-28

Family

ID=39498154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006333952A Active JP4905103B2 (ja) 2006-12-12 2006-12-12 動画再生装置

Country Status (3)

Country Link
US (1) US20080138034A1 (ja)
JP (1) JP4905103B2 (ja)
CN (1) CN101202864B (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113558A (ja) * 2008-11-07 2010-05-20 Hitachi Ltd 単語抽出装置、単語抽出方法及び受信装置
JP2011229087A (ja) * 2010-04-22 2011-11-10 Jvc Kenwood Corp テレビ放送受信装置、検索制御方法、及び、プログラム
JP2012034235A (ja) * 2010-07-30 2012-02-16 Toshiba Corp 映像再生装置及び映像再生方法
WO2014034186A1 (en) * 2012-08-30 2014-03-06 Kabushiki Kaisha Toshiba Scene reproduction apparatus, scene reproduction program, and scene reproduction method
JP2014531671A (ja) * 2011-09-23 2014-11-27 アマゾン テクノロジーズ インコーポレイテッド デジタル作品のための補足情報の視覚表現
JP2015503131A (ja) * 2011-09-12 2015-01-29 インテル・コーポレーション ビデオストリーム及び他のコンテンツのキーワードベースの非線形ナビゲーションの方法及び装置
JP2015050729A (ja) * 2013-09-04 2015-03-16 株式会社東芝 電子機器、電子機器の制御方法及びコンピュータプログラム
US9449526B1 (en) 2011-09-23 2016-09-20 Amazon Technologies, Inc. Generating a game related to a digital work
US9613003B1 (en) 2011-09-23 2017-04-04 Amazon Technologies, Inc. Identifying topics in a digital work
US9639518B1 (en) 2011-09-23 2017-05-02 Amazon Technologies, Inc. Identifying entities in a digital work
JP2017134691A (ja) * 2016-01-28 2017-08-03 株式会社ブロードリーフ 作業分析支援装置、作業分析支援方法及びコンピュータプログラム
WO2017159902A1 (ko) * 2016-03-18 2017-09-21 주식회사 이노스피치 온라인 면접 시스템 및 그 방법
KR20190137359A (ko) * 2018-06-01 2019-12-11 네이버 주식회사 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8364020B2 (en) * 2007-09-28 2013-01-29 Motorola Mobility Llc Solution for capturing and presenting user-created textual annotations synchronously while playing a video recording
EP2413592B1 (en) * 2009-03-25 2016-08-31 Fujitsu Limited Playback control program, playback control method, and playback device
JP2012008789A (ja) * 2010-06-24 2012-01-12 Hitachi Consumer Electronics Co Ltd 動画推薦システム及び動画推薦方法
US10324605B2 (en) 2011-02-16 2019-06-18 Apple Inc. Media-editing application with novel editing tools
US8875025B2 (en) 2010-07-15 2014-10-28 Apple Inc. Media-editing application with media clips grouping capabilities
US8819557B2 (en) 2010-07-15 2014-08-26 Apple Inc. Media-editing application with a free-form space for organizing or compositing media clips
JP5193263B2 (ja) * 2010-10-21 2013-05-08 シャープ株式会社 文書生成装置、文書生成方法、コンピュータプログラムおよび記録媒体
US8886015B2 (en) 2011-01-28 2014-11-11 Apple Inc. Efficient media import
US9026909B2 (en) 2011-02-16 2015-05-05 Apple Inc. Keyword list view
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US8966367B2 (en) 2011-02-16 2015-02-24 Apple Inc. Anchor override for a media-editing application with an anchored timeline
US9536564B2 (en) 2011-09-20 2017-01-03 Apple Inc. Role-facilitated editing operations
CN106126662A (zh) * 2016-06-24 2016-11-16 维沃移动通信有限公司 一种电子书显示方法和移动终端
CN112307185A (zh) * 2017-06-01 2021-02-02 互动解决方案公司 演示用装置
US10176846B1 (en) 2017-07-20 2019-01-08 Rovi Guides, Inc. Systems and methods for determining playback points in media assets
US11086862B2 (en) 2019-12-05 2021-08-10 Rovi Guides, Inc. Method and apparatus for determining and presenting answers to content-related questions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234786A (ja) * 2004-02-18 2005-09-02 Nippon Telegr & Teleph Corp <Ntt> 映像キーワード抽出方法及び装置及びプログラム
JP2005332274A (ja) * 2004-05-20 2005-12-02 Toshiba Corp 動画像中のオブジェクトに関するメタデータストリームのデータ構造、検索方法及び再生方法
JP2006025120A (ja) * 2004-07-07 2006-01-26 Casio Comput Co Ltd 記録再生装置、遠隔制御装置
JP2006163604A (ja) * 2004-12-03 2006-06-22 Sharp Corp 記憶装置およびコンピュータ読取り可能な記録媒体
JP2006253960A (ja) * 2005-03-09 2006-09-21 Daikin Ind Ltd 情報処理装置、携帯機器、情報処理方法、およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036259B2 (ja) * 1992-10-13 2000-04-24 富士通株式会社 画像表示装置
US6925650B1 (en) * 2000-08-21 2005-08-02 Hughes Electronics Corporation Method and apparatus for automated creation of linking information
JP3615195B2 (ja) * 2002-03-19 2005-01-26 株式会社東芝 コンテンツ記録再生装置およびコンテンツ編集方法
JP4065142B2 (ja) * 2002-05-31 2008-03-19 松下電器産業株式会社 オーサリング装置およびオーサリング方法
JP2004264895A (ja) * 2003-02-05 2004-09-24 Sony Corp 情報処理装置および方法、並びにプログラム
JP4127668B2 (ja) * 2003-08-15 2008-07-30 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
KR100452085B1 (ko) * 2004-01-14 2004-10-12 엔에이치엔(주) 카테고리 별 키워드의 입력 순위를 제공하기 위한 검색서비스 시스템 및 그 방법
JP4561453B2 (ja) * 2005-04-19 2010-10-13 株式会社日立製作所 記録再生装置、記録再生方法
US20070185857A1 (en) * 2006-01-23 2007-08-09 International Business Machines Corporation System and method for extracting salient keywords for videos

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234786A (ja) * 2004-02-18 2005-09-02 Nippon Telegr & Teleph Corp <Ntt> 映像キーワード抽出方法及び装置及びプログラム
JP2005332274A (ja) * 2004-05-20 2005-12-02 Toshiba Corp 動画像中のオブジェクトに関するメタデータストリームのデータ構造、検索方法及び再生方法
JP2006025120A (ja) * 2004-07-07 2006-01-26 Casio Comput Co Ltd 記録再生装置、遠隔制御装置
JP2006163604A (ja) * 2004-12-03 2006-06-22 Sharp Corp 記憶装置およびコンピュータ読取り可能な記録媒体
JP2006253960A (ja) * 2005-03-09 2006-09-21 Daikin Ind Ltd 情報処理装置、携帯機器、情報処理方法、およびプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113558A (ja) * 2008-11-07 2010-05-20 Hitachi Ltd 単語抽出装置、単語抽出方法及び受信装置
JP2011229087A (ja) * 2010-04-22 2011-11-10 Jvc Kenwood Corp テレビ放送受信装置、検索制御方法、及び、プログラム
JP2012034235A (ja) * 2010-07-30 2012-02-16 Toshiba Corp 映像再生装置及び映像再生方法
JP2015503131A (ja) * 2011-09-12 2015-01-29 インテル・コーポレーション ビデオストリーム及び他のコンテンツのキーワードベースの非線形ナビゲーションの方法及び装置
US9407892B2 (en) 2011-09-12 2016-08-02 Intel Corporation Methods and apparatus for keyword-based, non-linear navigation of video streams and other content
US9449526B1 (en) 2011-09-23 2016-09-20 Amazon Technologies, Inc. Generating a game related to a digital work
US9639518B1 (en) 2011-09-23 2017-05-02 Amazon Technologies, Inc. Identifying entities in a digital work
US10481767B1 (en) 2011-09-23 2019-11-19 Amazon Technologies, Inc. Providing supplemental information for a digital work in a user interface
US9128581B1 (en) 2011-09-23 2015-09-08 Amazon Technologies, Inc. Providing supplemental information for a digital work in a user interface
JP2014531671A (ja) * 2011-09-23 2014-11-27 アマゾン テクノロジーズ インコーポレイテッド デジタル作品のための補足情報の視覚表現
US10108706B2 (en) 2011-09-23 2018-10-23 Amazon Technologies, Inc. Visual representation of supplemental information for a digital work
US9471547B1 (en) 2011-09-23 2016-10-18 Amazon Technologies, Inc. Navigating supplemental information for a digital work
US9613003B1 (en) 2011-09-23 2017-04-04 Amazon Technologies, Inc. Identifying topics in a digital work
JP2014048808A (ja) * 2012-08-30 2014-03-17 Toshiba Corp シーン再生装置、シーン再生プログラム、及びシーン再生方法
WO2014034186A1 (en) * 2012-08-30 2014-03-06 Kabushiki Kaisha Toshiba Scene reproduction apparatus, scene reproduction program, and scene reproduction method
JP2015050729A (ja) * 2013-09-04 2015-03-16 株式会社東芝 電子機器、電子機器の制御方法及びコンピュータプログラム
JP2017134691A (ja) * 2016-01-28 2017-08-03 株式会社ブロードリーフ 作業分析支援装置、作業分析支援方法及びコンピュータプログラム
WO2017159902A1 (ko) * 2016-03-18 2017-09-21 주식회사 이노스피치 온라인 면접 시스템 및 그 방법
KR20190137359A (ko) * 2018-06-01 2019-12-11 네이버 주식회사 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버
KR102080315B1 (ko) * 2018-06-01 2020-02-24 네이버 주식회사 동영상 서비스 제공 방법 및 이를 이용하는 서비스 서버

Also Published As

Publication number Publication date
CN101202864B (zh) 2011-08-17
JP4905103B2 (ja) 2012-03-28
CN101202864A (zh) 2008-06-18
US20080138034A1 (en) 2008-06-12

Similar Documents

Publication Publication Date Title
JP4905103B2 (ja) 動画再生装置
EP2107477B1 (en) Summarizing reproduction device and summarizing reproduction method
US7346264B2 (en) Non-linear reproduction control method of multimedia stream and apparatus thereof
US20090129749A1 (en) Video recorder and video reproduction method
US20080059526A1 (en) Playback apparatus, searching method, and program
JP5135024B2 (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
US20080066104A1 (en) Program providing method, program for program providing method, recording medium which records program for program providing method and program providing apparatus
WO2005069172A1 (ja) 要約再生装置および要約再生方法
JP2002533841A (ja) 個人用ビデオ分類及び検索システム
CN1921554A (zh) 搜索pvr中记录的场景的方法和使用该方法的电视接收机
US8634708B2 (en) Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method
JP2009118168A (ja) 番組録画再生装置、および、番組録画再生方法
JP2009048348A (ja) 情報処理装置、文字情報の候補の検索方法および文字情報の候補の検索プログラム
JP2010245853A (ja) 動画インデクシング方法及び動画再生装置
JP2006115052A (ja) コンテンツ検索装置とその入力装置、コンテンツ検索システム、コンテンツ検索方法、プログラム及び記録媒体
JP4929128B2 (ja) 録画再生装置
JP2004289530A (ja) 記録再生装置
JP2006180306A (ja) 動画記録再生装置
KR100370249B1 (ko) 샷 세그멘테이션 정보를 이용한 비디오 스키밍 시스템
JP2006054517A (ja) 情報提示装置、方法及びプログラム
JP5022847B2 (ja) 動画再生装置
KR20090114937A (ko) 녹화된 뉴스 프로그램들을 브라우징하는 방법 및 이를 위한장치
JP2005167456A (ja) Avコンテンツ興趣特徴抽出方法及びavコンテンツ興趣特徴抽出装置
JP2014207619A (ja) 録画再生装置、及び録画再生装置の制御方法
JP4760893B2 (ja) 動画記録再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111226

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4905103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250