JP2007208651A - Content viewing apparatus - Google Patents
Content viewing apparatus Download PDFInfo
- Publication number
- JP2007208651A JP2007208651A JP2006024956A JP2006024956A JP2007208651A JP 2007208651 A JP2007208651 A JP 2007208651A JP 2006024956 A JP2006024956 A JP 2006024956A JP 2006024956 A JP2006024956 A JP 2006024956A JP 2007208651 A JP2007208651 A JP 2007208651A
- Authority
- JP
- Japan
- Prior art keywords
- content
- metadata
- highlight
- data
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は、コンテンツ視聴装置に関し、特に、メタデータを用いたコンテンツ視聴スタイルによって、ユーザー嗜好データを自動更新し、より効率的な時短視聴を視聴者に提供するコンテンツ視聴装置に関する。 The present invention relates to a content viewing apparatus, and more particularly to a content viewing apparatus that automatically updates user preference data according to a content viewing style using metadata and provides viewers with more efficient time-saving viewing.
コンテンツを視聴するためのコンテンツ視聴装置においても、多機能化が進んでおり、例えば特許文献1では、以下のような技術が開示されている。1)ビデオコンテンツの時間軸に対応するタイムバーを画面上に表示する。2)タイムバー上には、動画中の特徴的な場面であるイベント場面の開始位置を示すアイコンを表示する。3)視聴者がリモコンを操作して、フォーカスをアイコン上に移動させ、所望のアイコンを選択することによって、選択されたアイコンに対応するイベント場面の開始位置から映像の再生を開始できる。
Multi-functionalization is also progressing in content viewing apparatuses for viewing content. For example,
しかしながら、上記特許文献1に記載の装置では、受け取ったメタデータからイベント場面を表すアイコンが表示され、視聴者にとって好ましくないシーンもメタデータ通りゆえにアイコン表示されてしまう。メタデータをそのまま使うのではアイコンの表示が多くなりすぎる上に、視聴者にとって好ましくないシーンを選択・再生した場合、スキップするのに手間がかかるという問題がある。
However, in the device described in
本発明は、視聴者にとって不必要なイベントを表示しないようにし、視聴時間の短縮を図ることを目的とする。 An object of the present invention is to prevent an unnecessary event for the viewer from being displayed and to shorten the viewing time.
本発明においては、受け取ったメタデータと、視聴者の嗜好とに基づいて、視聴者の好みであろうイベントのみを表示する。また視聴者の嗜好の検索式を、視聴スタイルを元に随時自動更新することでイベント表示の精度をより高めていくことを特徴とする。 In the present invention, based on the received metadata and the viewer's preference, only events that may be the viewer's preference are displayed. Further, the present invention is characterized in that the accuracy of event display is further improved by automatically updating the search formula for the viewer's preference as needed based on the viewing style.
視聴者にとって不必要なイベントが表示されずに表示画面がすっきりとし、また、再生時に不必要なシーンのスキップをする手間が省け、より効果的な時短視聴ができる。 Unnecessary events for the viewer are not displayed, the display screen is clean, and there is no need to skip unnecessary scenes during playback, enabling more effective time viewing.
以下、本発明の一実施の形態によるコンテンツ視聴装置について図面を参照しながら説明を行なう。図1は、本実施の形態によるコンテンツ視聴装置の一構成例を示す機能ブロック図である。図1に示すように、コンテンツ視聴装置Aは、コンテンツを入力させるコンテンツ入力部1と、コンテンツ内の映像・音声データとメタデータとを分離する映像・音声・データ分離部3と、ユーザーの嗜好データを格納するユーザー嗜好データベース5と、映像・音声・データ分離部3において分離されたメタデータと、ユーザー嗜好データベース5に格納されている嗜好データと、に基づいてハイライト部分のセグメント情報を抽出するハイライトセグメント抽出部7と、ユーザーが操作を行なう操作部23と、操作部23からの操作とハイライトセグメント抽出部7により抽出されたハイライトセグメントとに基づいて番組中の盛況度を計測する盛況度計測部21と、盛況度計測部21において計測された盛況度に基づいてユーザー嗜好データを更新し、更新されたユーザー嗜好をユーザー嗜好データベース5に格納するユーザー嗜好データ更新部17と、ハイライトセグメント抽出部7により抽出されたハイライトセグメントと、映像・音声・データ分離部3においてデータと分離された映像・音声データとを合成する映像・音声・データ合成部11と、その出力を表示する表示部15と、を有している。
A content viewing apparatus according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a functional block diagram showing a configuration example of a content viewing apparatus according to the present embodiment. As shown in FIG. 1, the content viewing apparatus A includes a
上記構成において、コンテンツ(放送・通信・DVDなどのメディアなど)から映像・音声を分離して受け取ったメタデータと、視聴者の嗜好に基づく検索式とにより後述するようなマッチングを行ない、条件を満たすイベントを表示する。 In the above configuration, matching is performed as described later by using metadata obtained by separating video / audio from content (broadcasting / communication / DVD media, etc.) and a search formula based on viewer's preference. Show events that meet.
尚、本実施の形態では、一旦記録したコンテンツを再生する場合を例に示している。メタデータの取得方法の例としては、放送にメタデータが含まれていれば放送データの中からとることができる。映像中の実況内容又は実況放送の音声認識からメタデータを取る方法、映像の背番号やテロップから文字認識により作成することも可能である。 In the present embodiment, a case where the content once recorded is reproduced is shown as an example. As an example of the metadata acquisition method, if metadata is included in the broadcast, it can be taken from the broadcast data. It is also possible to create metadata based on the actual content in the video or the voice recognition of the live broadcast, or by character recognition from the back number or telop of the video.
図2は、上述した一般的な技術であって、メタデータのみによってハイライトセグメントを抽出する様子を示す図であり、メタデータにより特定される各イベントが、時間軸に沿ってメタデータの内容とともに配置されている。例えば、図2に符号31で示されるように、メタデータのみによれば、前の時間から順番に、符号51におけるHチームが3得点したシーン、ある時間間隔を空けて生じたKがホームランを打ったシーン53、ある時間だけ空けて7回表のHの攻撃シーン55、さらに、9回裏のGの攻撃シーン57、が抽出される。
FIG. 2 is a diagram illustrating a state in which highlight segments are extracted only by metadata, which is the general technique described above, and each event specified by the metadata is the content of the metadata along the time axis. It is arranged with. For example, as indicated by
一方、図3は、本実施の形態による技術であって、メタデータとユーザー嗜好データとに基づいて、ハイライトセグメントを抽出する様子を示す図であり、図2と比較すると明らかなように、メタデータにより特定されるイベントのうち、イベント53とイベント57とが、対象から外れている。
On the other hand, FIG. 3 is a technique according to the present embodiment, and shows a state in which highlight segments are extracted based on metadata and user preference data. As is clear from comparison with FIG. Of the events specified by the metadata, the
この点について、図4から図7までを参照しながら説明を行なう。図4は、ハイライトセグメント抽出部を中心としたハイライトセグメントの抽出に関連する処理の様子を示す図である。映像・音声・データ分離部3と、ハイライトセグメント抽出部7と、ユーザー嗜好データベース5と、の関連性とそれぞれのデータ内容例とが、図2に示す例に沿って示されている。また、プラス評価のキーワードとマイナス評価のキーワードとが予め評価基準として設定されている。図では、プラス評価のキーワードとしてH球団(+20ポイント)、得点(+10ポイント)、攻撃(+8ポイント)などが、マイナス評価のキーワードとして、K選手(−10ポイント)、G球団(−18ポイント)などとなっている。この表を参照しながら、ユーザーの嗜好を計測する。まず、映像・音声・データ分離部3において、Hが3得点、Kがホームラン、7回表Hの攻撃、9回裏Gの攻撃などのメタデータを抽出する。次いで、ハイライトセグメント抽出部7において、上記メタデータと評価基準とに基づいて、得点があればそれを計算する。新語であるホームランは0ポイントに設定される。抽出されたハイライトセグメントのうちで、+のポイントのもの、すなわちH3得点(+30)と7回表Hの攻撃(+28)とを抽出する。ジャンル毎(種目毎)に検索式を設定し、精度をより高めることも可能である。異なる種目に同じ姓の選手がいる場合などに有効である。
This point will be described with reference to FIGS. FIG. 4 is a diagram showing a state of processing related to highlight segment extraction centering on the highlight segment extraction unit. The relevance of the video / audio /
次に、ポイントの求め方について説明を行なう。図5は、記録済みコンテンツの再生時間tに沿って、コンテンツの時間的な盛り上がり方(盛況度)の一指標であるコンテンツの音量を縦軸にプロットしたグラフである。コンテンツの再生時には、リアルタイムでなくても音声が録音されているため、再生開始時からの時間とともに音量をプロットすると、ある時間における盛り上がりの度合いを推定することが可能である。例えば、時間t1から時間t2までと、時間t3から時間t4までのそれぞれの期間において音量があるしきい値を上回っている。この期間が盛況度の高い期間といえる。換言すれば、この期間はポイントを高くする必要がある。 Next, how to obtain points will be described. FIG. 5 is a graph in which the volume of content, which is an index of how content rises (prosperity), is plotted on the vertical axis along the playback time t of recorded content. Since audio is recorded at the time of content reproduction even if it is not real time, it is possible to estimate the degree of excitement at a certain time by plotting the volume with the time from the start of reproduction. For example, the volume exceeds a certain threshold value in each period from time t1 to time t2 and from time t3 to time t4. It can be said that this period is a period of high prosperity. In other words, the points need to be raised during this period.
図6は、図5に基づいて作成した図であり、コンテンツの再生時間を横軸にし、再生時間tにおける盛況度の積分値(%)を右縦軸にとっている。図6に示すように、あるコンテンツの盛況度L1の積分値は、この例では後半になって急上昇している。尚、L2は標準的なコンテンツの盛況度であり、時間に対してリニアに上昇するコンテンツであり、特にポイントとなるような時間帯がないものである。一方、L3では、時間tまでの間に盛況度が高くなりその後はあまり増加しないことがわかる。この場合、コンテンツL3では、時間10〜tまでの間において盛況度が高くなり、左縦軸よりこの時間帯にポイント+7が付与される。コンテンツL1では、tよりも後の時間帯において高いポイント(+10)が付与される。このようにして、コンテンツ毎に盛況度に基づくポイントが付与される。
FIG. 6 is a diagram created based on FIG. 5, where the reproduction time of the content is on the horizontal axis, and the integral value (%) of the degree of success at the reproduction time t is on the right vertical axis. As shown in FIG. 6, the integral value of the prosperity L1 of a certain content rises rapidly in the second half in this example. Note that L2 is a standard content prosperity, is a content that rises linearly with respect to time, and does not have a time zone that is particularly important. On the other hand, in L3, it can be seen that the prosperity increases until time t and does not increase much thereafter. In this case, in the content L3, the degree of success is high between
図7は、上記処理の流れをまとめたフローチャート図である。図7に示すように、コンテンツの視聴を開始し(ステップS1)、ステップS2において10秒以上視聴したか否かを判定する(尚、10秒は目安であり、任意に設定できる。)。このような規定時間以上であれば(YES)ステップS3に進み、規定時間に達しなければステップS5に進み、ユーザが興味を持っていないとして例えば−10ポイントを加算し、ステップS7で終了する。ステップS3においては、コンテンツの全てを視聴したか否かを判定し、全てを視聴していればステップS4に進み例えば+10ポイントを加算し、ステップS7に進む。ステップS3で全てを視聴したわけではない場合には、ステップS6に進み、視聴内容(視聴時間)に応じてポイントを加算し、ステップS7に進む。このようにしてポイントの加減算を行なう。このような評価処理は、場合によって異なる結果が現れるため、例えば最新の処理手順を次の評価処理にも利用するようにするのが好ましい。以上の処理によって例えばポイントが+になったハイライトセグメントを抽出する(図3参照)。 FIG. 7 is a flowchart summarizing the flow of the above processing. As shown in FIG. 7, the content viewing is started (step S1), and it is determined whether or not the content has been viewed for 10 seconds or more in step S2 (note that 10 seconds is a guide and can be arbitrarily set). If it is longer than the specified time (YES), the process proceeds to step S3. If the specified time is not reached, the process proceeds to step S5, and for example, -10 points are added assuming that the user is not interested, and the process ends in step S7. In step S3, it is determined whether or not all of the content has been viewed. If all of the content has been viewed, the process proceeds to step S4, for example, +10 points are added, and the process proceeds to step S7. If not all have been viewed in step S3, the process proceeds to step S6, points are added according to the viewing content (viewing time), and the process proceeds to step S7. In this way, addition / subtraction of points is performed. Since such an evaluation process produces different results depending on circumstances, it is preferable to use, for example, the latest processing procedure for the next evaluation process. For example, a highlight segment having a point of + is extracted by the above processing (see FIG. 3).
図8は、上記の処理により得られたハイライトに関する視聴例を示す図である。図8に示すように、表示画面15と時間帯情報とが設けられている。ユーザーの操作により時間帯情報を時間軸方向に移動させることができるタイムバー33が設けられている。ユーザーは、ハイライト抽出部41、43、45、47を目安に時間軸上においてこのタイムバー33を移動させることができる。タイムバー33のフォーカスがあたっている時間におけるコンテンツ表示が表示部15になされる。該当するタイムバー33にフォーカスが当たるとイベント情報や実際の動画が画面の例えば1/4程度の大きさでコンテンツの映像が表示される。これにより、ハイライト部分のコンテンツの内容を確認することができる。
FIG. 8 is a diagram showing a viewing example regarding the highlight obtained by the above processing. As shown in FIG. 8, a
図9は、ユーザー嗜好データ更新部17における処理の概要を示す図である。図9に示すように、例えば7回表Hの攻撃というメタデータ61を加算すると、図7の処理においてHの攻撃のハイライト部分を+7ポイントになる分だけ視聴したとすると、Hは+20から+27に変更される。その他のポイントはこの時点では変更されない。従って、+評価とマイナス評価とは図のようになり、この図がユーザー嗜好データベース5に新たに格納される(更新)。
FIG. 9 is a diagram showing an outline of processing in the user preference
次に、上記全体の処理について図面を参照しながら説明を行なう。図10はハイライト再生手順の流れを示す図であり、図11は、ユーザー嗜好データベースの更新手順の流れを示す図である。図10に示すように、まず、ステップS0においてコンテンツを取得する。例えば、HDD内に記録されているコンテンツ又はリアルタイムに受信しているコンテンツを、コンテンツ入力部へ渡す。次いで、ステップS1において、映像・音声・メタデータを入力する。次いで、ステップS2において、映像・音声データからメタデータを分離する。ステップS3において、分離したメタデータとユーザー嗜好データとをマッチングしてポイントの高いものをハイライトセグメントとして抽出し、ハイライトセグメントメタデータを作成する。上記の例では0ポイント以上の時間帯のコンテンツを抽出する。次いで、ステップS4において、抽出されたハイライトセグメントメタデータをもとに、ハイライト部分の映像・音声をハイライト再生する。 Next, the entire process will be described with reference to the drawings. FIG. 10 is a diagram showing a flow of a highlight reproduction procedure, and FIG. 11 is a diagram showing a flow of a user preference database update procedure. As shown in FIG. 10, first, content is acquired in step S0. For example, the content recorded in the HDD or the content received in real time is passed to the content input unit. In step S1, video / audio / metadata is input. Next, in step S2, the metadata is separated from the video / audio data. In step S3, the separated metadata and user preference data are matched to extract the one with a high point as a highlight segment to create highlight segment metadata. In the above example, content in a time zone of 0 points or more is extracted. Next, in step S4, based on the extracted highlight segment metadata, the video / audio of the highlighted portion is highlighted and reproduced.
尚、リアルタイムで受信している場合には、最新のメタデータを使ってハイライトセグメントメタデータを作成し、視聴以前の部分をハイライト再生するようにすれば良い。 In the case of receiving in real time, highlight segment metadata may be created using the latest metadata, and the portion before viewing may be highlighted and reproduced.
図11に示すように、ステップS11において、ハイライトセグメント内で時間に対する盛況度の積分値を計算しておく。例えば録画途中からリアルタイムで計算し、番組終了時には計算が終わっているようにする。次いで、ステップS12において、ハイライトセグメントの再生を開始する。ステップS13において、ハイライトセグメント再生時において、主にスキップなどユーザーの操作によって、視聴時間がt1秒のときの盛況度の積分値から求められるポイントをユーザー嗜好データに反映させる。t1秒までの盛況度の積分値が高ければ、その分ユーザー嗜好に反映されるポイントが高くなる。ステップS14に示すように、次回視聴時には、上記のステップで更新された新しいユーザー嗜好データを用いてハイライトセグメント抽出を行う。 As shown in FIG. 11, in step S11, an integral value of the degree of success with respect to time is calculated in the highlight segment. For example, the calculation is performed in real time from the middle of recording, and the calculation is completed when the program ends. Next, in step S12, reproduction of the highlight segment is started. In step S13, at the time of highlight segment reproduction, the point obtained from the integrated value of the prosperity when the viewing time is t1 seconds is reflected in the user preference data mainly by user operation such as skipping. If the integral value of the degree of success up to t1 seconds is high, the point reflected in the user preference increases accordingly. As shown in step S14, at the time of next viewing, highlight segment extraction is performed using the new user preference data updated in the above step.
以上に説明したように、本実施の形態によれば、盛況度を用いてユーザー嗜好データを作成することにより一層、視聴者にとって不必要なイベントが表示されずに表示画面がすっきりとする。また、再生時に不必要なシーンのスキップをする手間が省け、より効果的な時短視聴ができる。 As described above, according to the present embodiment, the user preference data is created using the prosperity, thereby further reducing the display screen without displaying unnecessary events for the viewer. In addition, it is possible to save time and time viewing more effectively by skipping unnecessary scenes during playback.
本発明はコンテンツの時短視聴に利用可能である。 The present invention can be used for short-time viewing of content.
A…コンテンツ視聴装置、1…コンテンツ入力部、3…映像・音声・データ分離部、5…ユーザー嗜好データベース、7…ハイライトセグメント抽出部、11…映像・音声・データ合成部、15…表示部、17…ユーザー嗜好更新部、21…盛況度計測部、23…操作部。 A ... content viewing device, 1 ... content input unit, 3 ... video / audio / data separation unit, 5 ... user preference database, 7 ... highlight segment extraction unit, 11 ... video / audio / data synthesis unit, 15 ... display unit , 17 ... User preference update unit, 21 ... Activeness measurement unit, 23 ... Operation unit.
Claims (9)
ユーザーの嗜好度の高低を示す嗜好データを格納するユーザー嗜好データベースと、
前記入力されたコンテンツのメタデータと前記嗜好データとのマッチング処理により、ハイライトセグメントを抽出するハイライトセグメント抽出部と、
該ハイライトセグメント抽出部により抽出されたハイライトセグメントと、前記映像・音声データと前記メタデータとを合成する合成部と、
該合成部からの出力に基づいてコンテンツをハイライト再生する再生部と
を有することを特徴とするコンテンツ視聴装置。 A content input unit to which content including video / audio data is input;
A user preference database that stores preference data indicating the level of user preference,
A highlight segment extraction unit that extracts a highlight segment by matching processing between the metadata of the input content and the preference data;
A highlight unit extracted by the highlight segment extraction unit, and a synthesis unit that synthesizes the video / audio data and the metadata;
A content viewing apparatus comprising: a reproduction unit that highlights and reproduces content based on an output from the synthesis unit.
該盛況度計測部における盛況度の測定に基づいて、ユーザーの嗜好データを更新するユーザー嗜好データ更新部と
を有することを特徴とする請求項1から4までのいずれか1項に記載のコンテンツ視聴装置。 A prosperity measuring unit that measures the prosperity indicating the degree of excitement in the content;
5. The content viewing / listening according to claim 1, further comprising: a user preference data update unit that updates user preference data based on the measurement of the popularity level in the success level measurement unit. apparatus.
前記コンテンツからメタデータを分離するステップと、
分離した前記メタデータとユーザー嗜好の高低を示すユーザー嗜好データとをマッチングするステップと、
マッチングした部分に対してユーザー嗜好の高低に基づいてポイントを付与するステップと、
ポイントの高い部分をハイライトセグメントとして抽出し、ハイライトセグメントメタデータを作成するステップと、
抽出されたハイライトセグメントメタデータをもとに、ハイライト部分の映像・音声をハイライト再生するステップと
を有することを特徴とするコンテンツ再生方法。 Obtaining content including metadata and video / audio data; separating the metadata from the content;
Matching the separated metadata and user preference data indicating the level of user preference;
Assigning points to the matched parts based on user preferences,
Extracting the high point portion as a highlight segment and creating highlight segment metadata,
A content reproduction method comprising: highlighting video / audio of a highlight portion based on the extracted highlight segment metadata.
ハイライトセグメントの再生時において、ユーザーの操作によって、視聴時間毎の盛況度の積分値から求められるポイントをユーザー嗜好データに反映させるステップと、
更新された新しいユーザー嗜好データを用いてハイライトセグメント抽出を行うステップとを有することを特徴とする請求項8に記載のコンテンツ再生方法。 Calculating an integral value of the prosperity with respect to time in the highlight segment;
Reflecting the points obtained from the integrated value of the prosperity for each viewing time in the user preference data by the user's operation during highlight segment playback,
The content reproduction method according to claim 8, further comprising a step of performing highlight segment extraction using the updated new user preference data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006024956A JP2007208651A (en) | 2006-02-01 | 2006-02-01 | Content viewing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006024956A JP2007208651A (en) | 2006-02-01 | 2006-02-01 | Content viewing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007208651A true JP2007208651A (en) | 2007-08-16 |
Family
ID=38487709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006024956A Pending JP2007208651A (en) | 2006-02-01 | 2006-02-01 | Content viewing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007208651A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010074775A (en) * | 2008-09-22 | 2010-04-02 | Sony Corp | Display controller, display control method and program |
US8938151B2 (en) | 2010-12-14 | 2015-01-20 | Canon Kabushiki Kaisha | Video distribution apparatus and video distribution method |
CN110446093A (en) * | 2019-08-15 | 2019-11-12 | 天脉聚源(杭州)传媒科技有限公司 | A kind of video progress bar display methods, device and storage medium |
CN110891198A (en) * | 2019-11-29 | 2020-03-17 | 腾讯科技(深圳)有限公司 | Video playing prompt method, multimedia playing prompt method, bullet screen processing method and device |
JP2021510026A (en) * | 2017-12-21 | 2021-04-08 | ロヴィ ガイズ, インコーポレイテッド | Systems and methods to provide a progress bar for updating the viewing status of previously viewed content |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004187029A (en) * | 2002-12-04 | 2004-07-02 | Toshiba Corp | Summary video chasing reproduction apparatus |
JP2004233541A (en) * | 2003-01-29 | 2004-08-19 | Riyuukoku Univ | Highlight scene detection system |
JP2005109566A (en) * | 2003-09-26 | 2005-04-21 | Toshiba Corp | Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program |
-
2006
- 2006-02-01 JP JP2006024956A patent/JP2007208651A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004187029A (en) * | 2002-12-04 | 2004-07-02 | Toshiba Corp | Summary video chasing reproduction apparatus |
JP2004233541A (en) * | 2003-01-29 | 2004-08-19 | Riyuukoku Univ | Highlight scene detection system |
JP2005109566A (en) * | 2003-09-26 | 2005-04-21 | Toshiba Corp | Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010074775A (en) * | 2008-09-22 | 2010-04-02 | Sony Corp | Display controller, display control method and program |
JP4591586B2 (en) * | 2008-09-22 | 2010-12-01 | ソニー株式会社 | Display control apparatus, display control method, and program |
US8938151B2 (en) | 2010-12-14 | 2015-01-20 | Canon Kabushiki Kaisha | Video distribution apparatus and video distribution method |
JP2021510026A (en) * | 2017-12-21 | 2021-04-08 | ロヴィ ガイズ, インコーポレイテッド | Systems and methods to provide a progress bar for updating the viewing status of previously viewed content |
JP7224354B2 (en) | 2017-12-21 | 2023-02-17 | ロヴィ ガイズ, インコーポレイテッド | Systems and methods for providing a progress bar for updating viewing status of previously viewed content |
CN110446093A (en) * | 2019-08-15 | 2019-11-12 | 天脉聚源(杭州)传媒科技有限公司 | A kind of video progress bar display methods, device and storage medium |
CN110891198A (en) * | 2019-11-29 | 2020-03-17 | 腾讯科技(深圳)有限公司 | Video playing prompt method, multimedia playing prompt method, bullet screen processing method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8168876B2 (en) | Method of displaying music information in multimedia playback and related electronic device | |
JP4065142B2 (en) | Authoring apparatus and authoring method | |
JP5244877B2 (en) | Content processing device | |
CN101150699B (en) | Information processing apparatus, information processing method | |
US20080059526A1 (en) | Playback apparatus, searching method, and program | |
TWI474200B (en) | Scene clip playback system, method and recording medium | |
JP5135024B2 (en) | Apparatus, method, and program for notifying content scene appearance | |
JP4550725B2 (en) | Video viewing support system | |
JP2008022103A (en) | Apparatus and method for extracting highlight of moving picture of television program | |
WO2007132566A1 (en) | Video reproduction device, video reproduction method, and video reproduction program | |
JP2007336283A (en) | Information processor, processing method and program | |
US10341727B2 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2011223325A (en) | Content retrieval device and method, and program | |
JP2010055501A (en) | Information providing server, information providing method and information providing system | |
JP4668875B2 (en) | Program recording / playback apparatus, program playback position control method, and program information providing apparatus | |
JP2007208651A (en) | Content viewing apparatus | |
JP2009004994A (en) | Digest picture information creating method, digest picture information creating program, and picture apparatus | |
JP2007060060A (en) | Reproduction system, reproducing apparatus, reproducing method, information processing apparatus, information processing method, and program | |
JP2007250097A (en) | Contents reproducing device, contents reproduction restarting method, and contents reproducing program | |
JP5300296B2 (en) | Display device, server device, system, and display method | |
JP4272611B2 (en) | VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, VIDEO PROCESSING PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM | |
JP4331706B2 (en) | Editing apparatus and editing method | |
KR20080064364A (en) | Method and apparatus for scene search | |
JP2005328329A (en) | Picture reproducer, picture recording-reproducing device and method of reproducing picture | |
JP2005167456A (en) | Method and device for extracting interesting features of av content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091215 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100413 |