[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4113806B2 - Delivery video storage device and delivery video storage method - Google Patents

Delivery video storage device and delivery video storage method Download PDF

Info

Publication number
JP4113806B2
JP4113806B2 JP2003185490A JP2003185490A JP4113806B2 JP 4113806 B2 JP4113806 B2 JP 4113806B2 JP 2003185490 A JP2003185490 A JP 2003185490A JP 2003185490 A JP2003185490 A JP 2003185490A JP 4113806 B2 JP4113806 B2 JP 4113806B2
Authority
JP
Japan
Prior art keywords
video
speaker
detected
wireless tag
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003185490A
Other languages
Japanese (ja)
Other versions
JP2005020605A (en
Inventor
康之 中田
徹 鎌田
浩一 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2003185490A priority Critical patent/JP4113806B2/en
Publication of JP2005020605A publication Critical patent/JP2005020605A/en
Application granted granted Critical
Publication of JP4113806B2 publication Critical patent/JP4113806B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、発言者の映像を切り出し属性を付与して蓄積する配信映像蓄積装置および配信映像蓄積方法に関するものである。
【0002】
【従来の技術】
従来、議会や講演会などをビデオカメラで撮影した映像を録画する。そして、議員や講演者など毎に切り出して当該議員などの氏名、質問や講演したタイトルなどを手入力して編集し、リプレイ可能な映像を作成していた。
【0003】
また、司会者が発言内容のテキスト情報を入力し、会議参加者のマイク音量および持続期間から検出した発言区間のマルチメディア情報に当該テキスト情報をリンクづけて記録し、前記テキスト情報をもとに該当するマルチメディア情報を検索する技術がある(特許文献1)。
【0004】
【特許文献1】
特開平7ー226931号公報の〔0010〕および図1など参照。
【0005】
【発明が解決しようとする課題】
前者の技術では、人手により、撮影した映像から該当する箇所を切り出すと共に当該切り出した映像に議員や講演者などの氏名、タイトルなどをキー入力して付与するという大変な手間が発生してしまい、多量かつ迅速に映像に氏名、タイトルなどを付与し、これら氏名、タイトルなどで検索して視聴できないという問題があった。
【0006】
また、後者の技術では、司会者が入力したテキスト情報を、参加者からのマイク音量および持続期間から検出した区間のマルチメディア情報にリンクづけし、後にテキスト情報を検索して該当するマルチメディア情報(映像)を取り出して視聴することはできるが、テキスト情報をリンクづけできるのは参加者からの音声が大きくて持続した区間の映像(マルチメディア情報)を取り出してリンク付けできるのみで、司会者が参加者を紹介しない区間や、音声がいったん途切れて、また、始まるというような区間について適性なテキスト情報をリンクづけできないという問題があった。
【0007】
本発明は、これらの問題を解決するため、議会などで発言者などを撮影した映像について、発言者の発言の開始位置から終了位置までの区間を切り出して当該発言者の氏名、タイトルなどの属性のテキスト情報を自動付与してテキスト検索可能な映像として蓄積し、配信可能にすることを目的としている。
【0008】
【課題を解決するための手段】
図1を参照して課題を解決するための手段を説明する。
図1において、カメラ1は、発言者(議員など)を撮影して映像を生成するものである。
【0009】
映像切り出し位置検出手段3は、映像から発言者の映像の切り出し開始位置および終了位置を検出するものである。
映像切り出し手段4は、映像から発言者の映像を切り出すものである。
【0010】
見出し生成手段5は、発言者の映像に付与する発言者の氏名、タイトルなどの属性からなるテキスト情報を生成するものである。
HTML自動生成手段6は、発言者の映像および属性からなるテキスト情報をHTML言語を用いて記述したファイルを自動生成するものである。
【0011】
アップロード手段7は、HTMLファイルをアップロードするものである。
次に、動作を説明する。
カメラ1で発言者の映像を撮影し、映像切り出し位置検出手段3が発言者の映像の切り出し開始位置および終了位置を検出し、映像切り出し手段4が検出された切り出し開始位置および終了位置で挟まれる区間の映像を切り出し、見出し生成手段5が切り出した映像に発言者の氏名、発言のタイトルなどの属性からなるテキスト情報を付与し、アップロード手段7がアップロードするようにしている。
【0012】
この際、オペレータがマウスやキーボードなどの入力機器を用いて、発言者の映像の切り出し開始・終了位置を指定するようにしている。
また、発言者に当該発言者のIDを書き込んだタグを所持させ、発言台の所定範囲内に入ったと検出あるいはタグが検出されたときに発言者の映像の切り出し開始位置とし、一定時間経過してから外に出たと検出されたあるいはタグが検出されなくなったときに発言者の映像の切り出し終了位置とするようにしている。
【0013】
また、発言者の発言内容を記載した書類に当該書類のタイトルなどを書き込んだタグを添付し、当該発言者が発言台にタグの添付された書類を置いたあるいは発言台に近づいたときに、書類に添付されたタグから発言者の発言のタイトルなどを読み取って属性とするようにしている。
【0014】
また、テキスト情報および映像をHTML言語で記述しアップロードして蓄積し、テキスト情報で映像を検索可能にするようにしている。
従って、議会などで発言者などを撮影した映像について、発言者の発言の開始位置から終了位置までの区間を切り出して当該発言者の氏名、タイトルなどの属性のテキスト情報を自動付与することにより、テキスト検索可能な映像として蓄積することが可能となる。
【0015】
【発明の実施の形態】
次に、図1から図12を用いて本発明の実施の形態および動作を順次詳細に説明する。以下の説明では、発言者として議員とし、議員が議会で発言する場合を例に以下順次説明する。
【0016】
図1は、本発明のシステム構成図を示す。
図1の(a)は、概念システム構成図を示す。
図1の(a)において、カメラ1は、発言者(議員など)を撮影して映像を生成するものであって、ビデオカメラなどである。
【0017】
映像取得手段2は、カメラ1で撮影した映像を取り込むものである。
映像切り出し位置検出手段3は、カメラ1で撮影して取り込んだ映像から、発言者の映像の切り出し開始位置および終了位置を検出するものである。
【0018】
映像切り出し手段4は、検出された切り出し開始位置から終了位置までの映像を切り出すものである。
見出し生成手段5は、発言者の映像に付与する発言者の氏名、タイトル(見出し)などの属性からなるテキスト情報を生成するものである。
【0019】
HTML自動生成手段6は、発言者の映像および属性からなるテキスト情報をHTML言語を用いて記述したファイル(HTMLファイル)を自動生成するものである。
【0020】
アップロード手段7は、HTMLファイルをネットワークを介してサーバ8にアップロードするものである。
サーバ8は、HTMLファイルを多数蓄積したり、エンドユーザの端末9からの検索依頼を受け付けてHTMLファイルのテキスト情報を検索して該当HTMLファイル(映像ファイルも)をダウンロード(配信)したりなどするものである。
【0021】
図1の(b)は、詳細システム構成図を示す。ここで、1から9は、図1の(a)の1から9の番号のものにそれぞれ対応する(1,3,4、6から9の説明は省略する)。
【0022】
図1の(b)において、映像取得手段2は、映像生成手段21および切り出し元映像ファイル22などから構成されるものである。
映像生成手段21は、カメラ1で撮影された発言者(議員)の映像を取り込むものである。
【0023】
切り出し元映像ファイル22は、映像生成手段21によってカメラ1から取り込まれた切り出し元映像ファイル(必要に応じた圧縮あるいは解像度、フレーム数、色数などにした映像ファイル)である。
【0024】
見出し生成手段5は、見出し入力手段55などから構成されるものであって、予め登録されている見出し語辞書(タイトル辞書)から該当するものを取り出したり、発言者の書類に添付したタグに予め書き込まれた見出し語(タイトルなど)を読み出したりなどして見出し語(タイトルなど)などの属性からなるテキスト情報を生成するものである。
【0025】
次に、図2のフローチャートの順番に従い図1の構成の動作を詳細に説明する。
図2は、本発明の動作説明フローチャート(その1)を示す。
【0026】
図2において、S1は、初期設定する。ここでは、図示の下記を初期設定する。
・カメラ位置、アングルの調整
・ネットワークへの接続処理
・議員の会派、会議名、議会の年間スケジュールなどの初期情報入力
ここで、カメラ位置、アングルの調整は、図1のカメラ1で議会で発言する議員の姿が丁度良く撮影できるように、カメラ位置、アングルを調整する。ネットワークへの接続処理は、カメラ1で撮影した映像をリアルタイムに図示外の制御卓に取り込むためのネットワーク接続(例えばLANに接続、無線LANに接続など)の処理を行う。議員の会派、会議名、議会の年間スケジュールなどの初期情報入力は、これから議会で発言しようとする議員の会派、会議名、議会の年間スケジュールなどの属性からなるテキスト情報を予め入力して蓄積しておく。
【0027】
S2は、見出し語の入力する。これは、これから議員が発言しようとする内容の見出し語(タイトルなど)を入力(例えば蓄積されている情報から選択、入力)する。
【0028】
S3は、撮影開始する。これは、撮影開始ボタンを押下し、カメラ1が撮影を開始する。
S4は、切り出し元映像ファイルの作成開始する。これは、S3のカメラ1による撮影開始したことに対応して、切り出し元映像ファイルの作成開始する。
【0029】
S5は、議員名、質問項目の選択を行う。これは、画面上からこれから発言しようとする議員の議員名、質問項目の選択を行う。
S6は、属性番号を一時記憶する。これは、S5で選択した議員の議員名、質問項目などのテキスト情報に付与した属性番号を一時記憶する。
【0030】
S7は、切り出し開始位置を指定する。これは、議員を撮影した映像から、切り出す開始位置を指定する。
S8は、切り出し終了位置を指定する。これは、議員を撮影した映像から、切り出し終了位置を指定する。
【0031】
S9は、該当区間を映像ファイルへ切り出しを行う。これは、カメラ1で撮影した議員の映像について、S7の切り出し開始位置から、S8の切り出し終了位置までの区間について切り出して映像ファイルを作成する。
【0032】
S10は、映像ファイル名を確定する。これは、S9で切り出した議員を撮影した映像ファイルに付与するファイル名を確定(例えば撮影年月日、会議を表す識別番号などをファイル名として確定)する。
【0033】
S11は、属性番号から見出し語を抽出する。これは、S6で一時記憶した属性番号をもとに属性情報を格納したテーブル(図7参照)から属性情報(会議名、日付、議員名、議員ID,会派、質問項目など)を抽出する。
【0034】
S12は、HTMLファイルを作成する。これは、S10で確定した映像ファイル名、S11で抽出した見出し語(属性)をもとにこれらをリンクづけたHTMLファイル(例えば後述する図8の(b)のHTMLファイル)を作成する。
【0035】
S13は、映像ファイル、HTMLファイルをアップロードする。これにより、HTMLファイルおよび映像ファイルが図1のサーバ8にアップロードされて蓄積されることとなる。
【0036】
S14は、撮影終了か判別する。YESの場合には、S15で撮影終了し、一連の処理を終了する。NOの場合には、S5に戻り繰り返す。
以上によって、議会で議員が発言する状況をカメラ1で撮影し、この間の映像を切り出してファイル名を付与すると共に当該議員の属性情報(議員名、会議名、質問項目など)を抽出し、これら両者をもとにHTMLファイルに作成してリンク付けしてサーバ8に簡易かつ迅速にアップロードして蓄積し、配信することが可能となる。
【0037】
図3は、本発明の動作説明フローチャート(その2)を示す。図3は、切り出し開始位置指定後に見出し語を選択するときのフローチャートである。
図3において、S25は、切り出し開始位置を指定する。これは、S21からS24(図2のS1からS4と同じ)に続き、切り出し位置を指定(議員が発言台に近づいたので切り出し位置を指定)する。
【0038】
S26は、議員名、質問項目を選択する。発言者である議員の議員名、質問項目を選択する。
S28は、切り出し終了位置を指定する。
【0039】
S29は、該当区間を映像ファイルへ切り出しを行う。
S30は、映像ファイル名を確定する。
S31は、属性番号を一時記憶する。
【0040】
S32は、属性番号から見出し語を抽出する。
そして、S32からS35(図2のS12からS15と同じ)により、映像ファイルおよび議員の属性(議員名、議員ID,日付、質問項目など)をもとにHTMLファイルを作成して両者をリンク付けし、サーバ8にアップロードする。
【0041】
図4は、本発明の説明図(切り出し開始・終了位置)を示す。これは、カメラ1で撮影した議員の状況を表す映像ファイル(切り出し元映像ファイル)から、切り出し開始位置から切り出し終了位置までの斜線の区間を切り出し、切り出し後の映像ファイルとして生成した様子を模式的に示す。ここでは、切り出し開始位置8:10から切り出し終了位置8:30までの区間の映像を切り出し、切り出し後の映像ファイルとしたものである。
【0042】
以上のように、切り出し元映像ファイルから、切り出し開始位置および終了位置を指定するのみで自動的に当該開始位置と終了位置の間の区間の映像ファイル(切り出し後の映像ファイル)を切り出すことが可能となる。そして、ファイル名を付与し、別に抽出した属性(議員名、議員ID,質問項目など)をテキスト情報として両者をHTMLファイルでリンクづけてサーバ8にアップロードすることが可能となる。
【0043】
図5は、本発明の画面例を示す。この画面例は、見出し語を登録する画面の例であって、ここでは、図示の下記の情報を登録するためのものである。
・会議名:第1回定例会
・開催日:2003年7月1日
・議員名:富士通太郎
・質問項目:ゴミ処理問題について
以上の画面上の項目について図示のように入力あるいは選択し、下段の登録ボタンを押下すると、後述する図7の属性情報テーブルに図示のように、属性番号に対応づけて登録されることとなる。
【0044】
図6は、本発明の操作画面例を示す。これは、議会映像配信システムの操作画面例であって、図示の下記の情報および各種ボタンなどを設けたものである。
・会議名:
・開催日:
・議員名:
・質問項目:
・状態:
・プレビュー画面:
・ボタン:
・中継開始ボタン
・中継終了ボタン
・切り出し開始ボタン
・切り出し終了ボタン
・編集画面ボタン
・その他:
ここで、会議名、開催日、議員名、質問項目、状態は、カメラ1で撮影しようとする議員が発言する会議名、開催日、発言する議員名を選択する欄、議員が質問する質問項目を選択する欄、操作の履歴を表示する欄である。プレビュー画面は、経過時間で示すプレビュー映像を表示する領域である。中継開始ボタン、中継終了ボタンは、カメラ1で議員の発言の中継を開始、終了させるボタンである。切り出し開始ボタン、切り出し終了ボタンは、カメラ1で撮影した議員の発言状況の映像から、手動で切り出し開始、切り出し終了を指示するためのものである。
【0045】
図7は、本発明の説明図(属性情報テーブルの例)を示す。属性情報テーブルには、図示の下記の情報を対応づけて登録したものである。
・属性番号:
・会議名:
・日付:
・議員名:
・議員ID:
・会派:
・質問項目:
・その他:
ここで、属性番号は属性に付与した一意の番号である。会議名は議員が発言する会議名である。日付は会議を開催する日付である。議員名、議員ID、会派は発言(質問)する議員名,議員のID、会派である。質問項目は議員が質問する質問項目である。
【0046】
以上のように、属性番号に対応づけて登録した属性(会議名、日付、議員名、議員ID、質問項目など)を属性情報テーブルに登録して管理することにより、属性番号を指定し当該議員の発言した区間の映像ファイルに当該属性番号で指定された属性情報を付加(HTMLファイルを作成して両者をリンク付け)することが可能となる。そして、映像に付加されたテキストの属性情報を検索して該当映像ファイルを視聴することが可能となる。
【0047】
図8は、本発明の説明図(HTML)を示す。
図8の(a)は画面例を示し、図8の(b)のHTMLファイル例を示す。図8の(b)のHTMLファイルは、映像ファイルに属性情報(図7参照)をリンク付けた例を示し、ここでは、図示の下記の属性情報と、映像ファイルとを対応づけたものである。
【0048】
・第1回定例会
・○○議会
・平成15年6月定例会 質問議員と質問項目
・富士通太郎議員(ABC党)
・ごみ処理問題について
・福祉問題について
・富士通花子議員(XYZの会)
・住宅政策について
ここで、図8の(a)の画面上で右端の該当する映像再生ボタンを押下すると、当該映像再生ボタンにリンクした映像ファイルを自動再生して表示および音声発生して視聴することが可能となる。
【0049】
図9は、本発明の他のシステム構成図を示す。ここで、1から9は、図1の(a)の1から9の番号のものにそれぞれ対応する(1,2(21,22)、3,4、6から9の説明は省略する)。
【0050】
図9において、見出し生成手段5は、RFタグ51を装着した議員が発言台の近傍に近づくとRFタグリーダライタ53が当該RFタグ51から議員IDを読み取ったり、RFタグ52を添付した書類(質問書類)を発言台に載せたりするとRFタグリーダライタ53が当該RFタグ52から質問項目などを読み取ったりし、更に、見出し検出手段54がRFタグ51,52から読み取った議員ID,見出し情報などをもとに属性情報を自動生成したりなどするものであって、ここでは、RFタグ51,52、RFタグリーダライタ53、見出し検出手段54などから構成されるものである。
【0051】
RFタグ51,52は、無線でデータを読み取ったりなどするものであって、ここでは、議員IDあるいは属性情報を予め書き込んでおき、必要に応じて読み取るためのものである。
【0052】
RFタグリーダライタ53は、議員が質問台に近づく(あるいはゲートを通って入る)と議員の上着などに装着したRFタグ51から議員IDを読み取ると共に切り出し開始位置と検出したり、質問台から離れる(あるいはゲートを通って出る)と切り出し終了位置と検出したり、RFタグ52の添付された質問書類が発言台に載せられると当該RFタグ52から質問項目などを読み取ったりなどするものである。
【0053】
見出し検出手段54は、RFタグリーダライタ53がRFタグ51,52から読み取った議員ID,質問項目などをもとに属性情報(議員名、質問項目など)を生成するものである。
【0054】
以上のように、議員が発言台に近づく(あるいはゲートを通って入る)と装着されたRFタグ51から議員IDをRFタグリーダライタ53が読み取って切り出し開始位置を自動検出したり、発言台から離れる(あるいはゲートを通って出る)と切り出し終了位置を自動検出してこれらの間の区間の映像を自動的に切り出すと共に、議員ID,質問項目などから属性情報(見出し項目など)を自動生成し、HTMLファイルを自動作成して両者をリンクづけしてサーバ8に自動アップロードして蓄積することが可能となる。
【0055】
図10は、本発明の他の動作説明フローチャートを示す。ここで、S41、S49からS55は、図2のS1、S9からS15に対応してそれぞれ同一であるので、説明を省略する。
【0056】
図10において、S42は、見出し語をRFタグへ書き込む。これは、議員名(議員ID)を議員が装着するRFタグ51に書き込んで議員に装着させ、質問項目をRFタグ52に書き込んで質問書類に添付する。
【0057】
S43は、撮影開始する。これは、撮影開始ボタンを押下し、カメラ1が撮影を開始する。
S44は、切り出し元映像ファイルの作成開始する。これは、S43のカメラ1による撮影開始したことに対応して、切り出し元映像ファイルの作成開始する。
【0058】
S45は、議員名をRFタグ51から検出する。これは、議員が発言台に近づいたとき(あるいはゲートを通って入ったとき)にRFタグリーダライタ53がRFタグ51から議員IDを読み取って検出する。
【0059】
S46は、質問項目をRFタグ52から検出し、属性番号を一時記憶する。これは、議員がRFタグ52に添付された質問書類を発言台の上に載せると当該RFタグ52から質問項目をRFリーダライタ53が読み取り、当該読み取った質問項目の属性番号を一時記憶する。
【0060】
S47は、切り出し開始位置を指定する。
S48は、切り出し終了位置を指定する。
そして、S49からS55(既述した図2のS9からS15)の手順により、切り出し開始位置から切り出し終了位置の区間の映像と、質問項目などの属性情報とをもとにHTMLファイルを自動作成し、サーバ8にアップロードして蓄積することが可能となる。
【0061】
以上によって、議会で議員が発言する状況をカメラ1で撮影し、この間の映像を切り出してファイル名を付与すると共にRFタグ51,52によって自動読み取りした議員の属性情報(議員名、会議名、質問項目など)をもとにHTMLファイルに自動作成してリンク付けしてサーバ8に簡易かつ迅速にアップロードして蓄積し、配信することが可能となる。
【0062】
図11は、本発明の他の動作説明フローチャートを示す。ここで、S61からS64、S69からS75は、既述した図10のS41からS44、S49からS55に対応するので、説明を省略する。
【0063】
図11において、S65は、議員名をRFタグ51から検出する(議員単位で切り出すときは、切り出し開始位置を検出する)。これは、議員が発言台に近づいたとき(あるいはゲートを通って入ったとき)にRFタグリーダライタ53がRFタグ51から議員IDを読み取って検出する。この際、議員単位(議員毎)に切り出すときはRFタグ51から議員IDを読み取る毎に切り出し開始位置として検出する。
【0064】
S66は、質問項目をRFタグ52から検出し、属性番号を一時記憶する。これは、議員がRFタグ52に添付された質問書類を発言台の上に載せる(あるいはページをめくる)と当該RFタグ52から質問項目をRFリーダライタ53が読み取り、当該読み取った質問項目の属性番号を一時記憶する。この際、質問項目単位(質問項目毎)に切り出すときはRFタグ52から質問項目を読み取る毎に切り出し開始位置と検出する(この場合には、質問書類のページ毎に1質問項目が記載され、ページ毎にRFタグ52が添付されているとする)。
【0065】
S67は、質問用紙が所定位置から除かれたとき、質問項目単位で切り出すときは切り出し終了位置と検出する。
S68は、議員単位で切り出すときは、議員がゲートを2回目に通過したときに、切り出し終了位置と検出する。これは、議員単位に切り出す場合には、RFタグ51を装着した議員がゲートを2回目に通過(あるいはゲートの内から外に出る)と、切り出し終了位置と検出する。
【0066】
S69からS75(既述した図10のS49からS55)の手順により、切り出し開始位置から切り出し終了位置の区間(あるいは切り出し開始位置から次の切り出し開始位置の区間)の映像と、質問項目などの属性情報とをもとにHTMLファイルを自動作成し、サーバ8にアップロードして蓄積することが可能となる。
【0067】
以上によって、議会で議員が発言する状況をカメラ1で撮影し、RFタグ51から自動読み取りした議員IDをもとに映像を自動的に切り出して映像ファイルを自動生成すると共にRFタグ52から読み取った属性情報(議員名、会議名、質問項目など)をもとにHTMLファイルに自動作成してリンク付けしてサーバ8に簡易かつ迅速にアップロードして蓄積し、配信することが可能となる。
【0068】
図12は、本発明の説明図(切り出し開始位置のみを検出する場合)を示す。これは、RFタグ51を装着した議員が発言台に近づいたとき(あるいはゲートを通過して発言台に近づいたとき)、あるいはRFタグ52を添付した質問書類を発言台に置いたとき(あるいは質問書類のページをめくったとき)にこれらRFタグ51,52からデータ(議員ID、質問項目など)を読み取ったときに映像切り出し開始位置と検出し、切り出し元映像から映像の切り出しを開始し、次の映像切り出し開始位置を映像切り出し終了位置として切り出し終了する様子を模式的に表示したものである。例えば左端の基点の0分から10分後にRFタグ51,52のいずれかからデータ(議員IDあるいは質問項目)を検出して切り出し開始位置とし、次の20分後にRFタグ51,52のいずれかからデータ(議員IDあるいは質問項目)を検出したときに切り出し終了位置と検出すると共に、次の映像の切り出し開始位置としたものである。
【0069】
【発明の効果】
以上説明したように、本発明によれば、議会などで発言者などを撮影した映像について、発言者の発言の開始位置から終了位置までの区間を切り出して当該発言者の氏名、タイトルなどの属性のテキスト情報を自動付与する構成を採用しているため、発言者(議員など)の映像を自動的に切り出してタイトル、氏名などの属性からなるテキスト情報をリンク付けして簡易かつ迅速に蓄積することが可能となる。これにより、映像とリンク付けして蓄積したテキストの属性情報(氏名、タイトルなど)を指定して検索し該当する映像を簡易に視聴(配信)できる。
【図面の簡単な説明】
【図1】本発明のシステム構成図である。
【図2】本発明の動作説明フローチャート(その1)である。
【図3】本発明の動作説明フローチャート(その2)である。
【図4】本発明の説明図(切り出し開始・終了位置)である。
【図5】本発明の画面例(見出し語登録)である。
【図6】本発明の操作画面例である。
【図7】本発明の属性情報テーブルの例である。
【図8】本発明の説明図(HTML)である。
【図9】本発明の他のシステム構成図である。
【図10】本発明の他の動作説明フローチャートである。
【図11】本発明の他の動作説明フローチャートである。
【図12】本発明の説明図(切り出し開始位置のみ検出する場合)である。
【符号の説明】
1:カメラ
2:映像取得手段
21:映像生成手段
22:切り出し元映像ファイル
3:映像切り出し位置検出手段
4:映像切り出し手段
5:見出し生成手段
51,52:RFタグ
53:RFタグリーダライタ
54:見出し検出手段
55:見出し入力手段
6:HTML自動生成手段
7:アップロード手段
8:サーバ
9:エンドユーザ(端末)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a distribution video storage apparatus and a distribution video storage method that extract and store a video of a speaker with an attribute.
[0002]
[Prior art]
Conventionally, video recorded by a video camera is recorded. Then, each member of the parliament, speaker, etc. was cut out and manually input and edited the name of the member of the parliament, questions, the title of the lecture, and the like, and a replayable video was created.
[0003]
In addition, the moderator inputs the text information of the speech content, records the text information linked to the speech information detected from the microphone volume and duration of the conference participant, and records the text information based on the text information. There is a technique for searching for corresponding multimedia information (Patent Document 1).
[0004]
[Patent Document 1]
See, for example, [0010] of JP-A-7-226931 and FIG.
[0005]
[Problems to be solved by the invention]
With the former technique, it takes a lot of labor to manually cut out the corresponding part from the shot video and give the name, title, etc. of the legislators and lecturers to the cut out video, There was a problem that names and titles were given to videos quickly and in large numbers, and it was not possible to search and view them using these names and titles.
[0006]
In the latter technique, the text information input by the presenter is linked to the multimedia information of the section detected from the microphone volume and duration from the participant, and the corresponding multimedia information is searched by searching the text information later. (Video) can be viewed and viewed, but text information can be linked only by extracting and linking video (multimedia information) in a section where the voice from the participant is loud and sustained. However, there is a problem that it is not possible to link appropriate text information for a section where the participant is not introduced or a section where the voice is interrupted or starts.
[0007]
In order to solve these problems, the present invention cuts the section from the start position to the end position of the speaker's speech and captures the attributes of the speaker's name, title, etc. The text information is automatically assigned and stored as a text searchable video so that it can be distributed.
[0008]
[Means for Solving the Problems]
Means for solving the problem will be described with reference to FIG.
In FIG. 1, a camera 1 captures a speaker (such as a member of the Diet) and generates a video.
[0009]
The video cut-out position detection means 3 detects the cut-out start position and end position of the speaker's video from the video.
The video cutout means 4 cuts out the video of the speaker from the video.
[0010]
The headline generation unit 5 generates text information including attributes such as a speaker's name and title to be added to the speaker's video.
The HTML automatic generation means 6 automatically generates a file in which text information consisting of a speaker's video and attributes is described using the HTML language.
[0011]
The upload means 7 uploads an HTML file.
Next, the operation will be described.
The video of the speaker is photographed by the camera 1, the video cutout position detection means 3 detects the cutout start position and end position of the video of the speaker, and the video cutout means 4 is sandwiched between the detected cutout start position and end position. The section video is cut out, and text information including attributes such as the name of the speaker and the title of the voice is added to the video cut out by the header generation unit 5 and the upload unit 7 uploads the video.
[0012]
At this time, the operator uses the input device such as a mouse or a keyboard to specify the start / end positions of the video of the speaker.
Also, let the speaker have a tag with the speaker's ID written on it, and when it is detected that the speaker is within a predetermined range of the speaker base or when a tag is detected, the speaker's video will be cut out, and a certain amount of time has passed. When it is detected that the user has gone out or the tag is no longer detected, it is set as the cutout end position of the video of the speaker.
[0013]
In addition, when a tag that includes the title of the document is attached to a document that describes the content of the speaker, and the speaker places the document with the tag attached to the speaker, or approaches the speaker, The title of the speaker's speech is read from the tag attached to the document and used as an attribute.
[0014]
In addition, text information and video are described in HTML language, uploaded and stored, and video can be searched using text information.
Therefore, for video shot of the speaker in the assembly, etc., by extracting the section from the start position to the end position of the speaker's speech and automatically assigning text information of attributes such as the name and title of the speaker, It can be stored as a text searchable video.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments and operations of the present invention will be described in detail sequentially with reference to FIGS. In the following explanation, a case will be described as an example of a case where a member is a member of the parliament and a member speaks in the assembly.
[0016]
FIG. 1 shows a system configuration diagram of the present invention.
FIG. 1A shows a conceptual system configuration diagram.
In FIG. 1A, a camera 1 is a video camera that captures a speaker (such as a member of the parliament) and generates a video.
[0017]
The video acquisition means 2 captures video captured by the camera 1.
The video cut-out position detection means 3 detects the cut-out start position and end position of the speaker's video from the video captured by the camera 1 and captured.
[0018]
The video cutout means 4 cuts out a video from the detected cutout start position to the end position.
The headline generation unit 5 generates text information including attributes such as a speaker's name and title (headline) to be added to the video of the speaker.
[0019]
The HTML automatic generation means 6 automatically generates a file (HTML file) in which text information composed of a speaker's video and attributes is described using the HTML language.
[0020]
The upload means 7 uploads an HTML file to the server 8 via the network.
The server 8 accumulates a large number of HTML files, receives search requests from the end user's terminal 9, searches the text information of the HTML files, and downloads (distributes) the corresponding HTML files (also video files). Is.
[0021]
FIG. 1B shows a detailed system configuration diagram. Here, 1 to 9 correspond to the numbers 1 to 9 in FIG. 1A, respectively (the description of 1, 3, 4, 6 to 9 is omitted).
[0022]
In FIG. 1B, the video acquisition unit 2 includes a video generation unit 21, a cut-out source video file 22, and the like.
The video generation means 21 captures a video of a speaker (member) taken by the camera 1.
[0023]
The cut-out source video file 22 is a cut-out source video file (a video file having a compression or resolution, the number of frames, the number of colors, or the like as necessary) captured from the camera 1 by the video generation unit 21.
[0024]
The headline generating means 5 is composed of a headline input means 55 and the like, and takes out a corresponding one from a pre-registered headword dictionary (title dictionary) or puts it in advance on a tag attached to a speaker's document. For example, text information including attributes such as a headword (such as a title) is generated by reading out the written headword (such as a title).
[0025]
Next, the operation of the configuration of FIG. 1 will be described in detail according to the order of the flowchart of FIG.
FIG. 2 is a flowchart for explaining the operation of the present invention (part 1).
[0026]
In FIG. 2, S1 is initialized. Here, the following settings shown in the figure are initialized.
・ Adjustment of camera position and angle ・ Processing to connect to the network ・ Input of initial information such as parliament denomination, meeting name, and annual schedule of the assembly Here, adjustment of the camera position and angle is remarked in the assembly by camera 1 in FIG. Adjust the camera position and angle so that the legislators can be photographed exactly. The network connection processing performs network connection processing (for example, connection to a LAN, connection to a wireless LAN, etc.) for capturing video captured by the camera 1 in a control console (not shown) in real time. The initial input of information such as the denomination of the member of the parliament, the name of the meeting, and the annual schedule of the parliament is pre-stored by entering text information consisting of attributes such as the denomination of the legislator who is going to speak in the parliament, the name of the meeting, and the annual schedule of the parliament. Keep it.
[0027]
In S2, an entry word is input. In this case, a headword (title or the like) of contents to be spoken by a member of the Diet is input (for example, selected and input from accumulated information).
[0028]
In S3, shooting starts. In this case, the shooting start button is pressed, and the camera 1 starts shooting.
In S4, creation of a cut-out source video file is started. In response to the start of shooting by the camera 1 in S3, creation of a cut-out source video file is started.
[0029]
In S5, a member name and a question item are selected. This is done by selecting the member name and question item of the member who is going to speak from the screen.
In S6, the attribute number is temporarily stored. This temporarily stores the attribute number assigned to the text information such as the member name and question item of the member selected in S5.
[0030]
S7 designates a cutout start position. This designates the start position to be cut out from the video shot of the legislator.
S8 designates the cutout end position. This designates the cut-out end position from the video shot of the legislator.
[0031]
In S9, the corresponding section is cut out to a video file. In this method, a video of a member of the Diet taken by the camera 1 is cut out from a cutout start position in S7 to a cutout end position in S8 to create a video file.
[0032]
In S10, the video file name is determined. This confirms the file name to be given to the video file obtained by photographing the legislator cut out in S9 (for example, the photographing date, the identification number representing the meeting, etc. are confirmed as the file name).
[0033]
S11 extracts a headword from the attribute number. This extracts attribute information (conference name, date, member name, member ID, denomination, question item, etc.) from the table (see FIG. 7) storing the attribute information based on the attribute number temporarily stored in S6.
[0034]
In step S12, an HTML file is created. This creates an HTML file (for example, an HTML file in FIG. 8B described later) in which the video file name determined in S10 and the headword (attribute) extracted in S11 are linked.
[0035]
In S13, a video file and an HTML file are uploaded. As a result, the HTML file and the video file are uploaded and stored in the server 8 of FIG.
[0036]
In S14, it is determined whether the photographing is finished. In the case of YES, shooting is ended in S15, and a series of processing is ended. If NO, return to S5 and repeat.
As described above, a situation where a member speaks in the parliament is photographed with the camera 1, a video is cut out during this period, a file name is given, and attribute information of the member (leg member name, meeting name, question item, etc.) is extracted. It is possible to create and link to an HTML file based on the both, upload it to the server 8 quickly and accumulate it, and distribute it.
[0037]
FIG. 3 shows a flowchart (part 2) for explaining the operation of the present invention. FIG. 3 is a flowchart for selecting a headword after designating a cutout start position.
In FIG. 3, S25 designates the cutout start position. This is subsequent to S21 to S24 (same as S1 to S4 in FIG. 2), and the cutout position is designated (the cutout position is designated because the legislator approaches the speech stand).
[0038]
In S26, a member name and a question item are selected. Select the member name and question item of the member who is the speaker.
In S28, the cutout end position is designated.
[0039]
In S29, the corresponding section is cut out to a video file.
In S30, the video file name is determined.
In S31, the attribute number is temporarily stored.
[0040]
In S32, a headword is extracted from the attribute number.
Then, through S32 to S35 (same as S12 to S15 in FIG. 2), an HTML file is created based on the video file and the attributes of the members (members ID, member ID, date, question items, etc.) and linked together. And upload to the server 8.
[0041]
FIG. 4 shows an explanatory diagram (cutout start / end positions) of the present invention. This is a schematic view showing that a hatched section from the cutout start position to the cutout end position is cut out from the video file (cutout source video file) representing the status of the legislator taken by the camera 1 and generated as a cutout video file. Shown in In this case, the video in the section from the cutout start position 8:10 to the cutout end position 8:30 is cut out and used as a cut out video file.
[0042]
As described above, it is possible to automatically cut out a video file (video file after cutout) between the start position and end position by simply specifying the cutout start position and end position from the cutout original video file. It becomes. Then, a file name is given, and attributes (separator name, member ID, question item, etc.) extracted separately can be linked to each other as an HTML file and uploaded to the server 8 as text information.
[0043]
FIG. 5 shows an example screen of the present invention. This screen example is an example of a screen for registering headwords. Here, the screen information is for registering the following information shown in the figure.
・ Meeting name: 1st regular meeting ・ Date: July 1, 2003 ・ Member of the Diet: Taro Fujitsu ・ Question item: Enter or select the above items on the screen for garbage disposal issues as shown in the figure below When the registration button is pressed, registration is made in association with the attribute number as shown in the attribute information table of FIG.
[0044]
FIG. 6 shows an example of the operation screen of the present invention. This is an example of an operation screen of the assembly video distribution system, and includes the following information and various buttons shown in the figure.
・ Meeting name:
·event date:
・ Representative name:
・ Question items:
·Status:
・ Preview screen:
·button:
-Relay start button-Relay end button-Extraction start button-Extraction end button-Edit screen button-Other:
Here, the name of the meeting, the date of the meeting, the name of the member of the parliament, the question item, and the state are the column for selecting the name of the meeting that the member of parliament intends to shoot with the camera 1, the date of the meeting, the name of the member of the parliament speaking, This is a column for selecting and a column for displaying an operation history. The preview screen is an area for displaying a preview video indicated by elapsed time. The relay start button and the relay end button are buttons for starting and ending relay of a member's speech with the camera 1. The cutout start button and the cutout end button are used to manually instruct start and end of clipping from the video of the speech situation of the legislator taken by the camera 1.
[0045]
FIG. 7 is an explanatory diagram of the present invention (example of attribute information table). In the attribute information table, the following information shown in FIG.
・ Attribute number:
・ Meeting name:
·date:
・ Representative name:
・ Representative ID:
・ Sect:
・ Question items:
・ Other:
Here, the attribute number is a unique number assigned to the attribute. The meeting name is the name of the meeting spoken by the member. The date is the date on which the meeting is held. The member name, member ID, and denomination are the member name, member ID, and denomination to speak (question). The question item is a question item asked by a member of the Diet.
[0046]
As described above, by registering and managing the attributes (conference name, date, member name, member ID, question item, etc.) registered in association with the attribute number in the attribute information table, the attribute number is designated and the member It is possible to add the attribute information designated by the attribute number to the video file in the section in which the user said (creates an HTML file and links the two). Then, it is possible to search the attribute information of the text added to the video and view the corresponding video file.
[0047]
FIG. 8 shows an explanatory diagram (HTML) of the present invention.
FIG. 8A shows a screen example, and FIG. 8B shows an HTML file example. The HTML file in FIG. 8B shows an example in which attribute information (see FIG. 7) is linked to a video file. Here, the attribute information shown below is associated with the video file. .
[0048]
・ 1st regular meeting ・ ○○ assembly ・ June 2003 regular meeting question member and question item ・ Representative Taro Fujitsu (ABC party)
・ Waste disposal issues ・ Welfare issues ・ Representative Hanako Fujitsu (Meeting of XYZ)
・ Housing policy Here, when the corresponding video playback button on the right end of the screen shown in FIG. 8A is pressed, the video file linked to the video playback button is automatically played and displayed and sound generated for viewing. It becomes possible.
[0049]
FIG. 9 shows another system configuration diagram of the present invention. Here, 1 to 9 correspond to the numbers 1 to 9 in FIG. 1A, respectively (the description of 1, 2 (21, 22), 3, 4, 6 to 9 is omitted).
[0050]
In FIG. 9, the headline generating means 5 reads a document (question) that the RF tag reader / writer 53 reads the member ID from the RF tag 51 or attaches the RF tag 52 when the member wearing the RF tag 51 approaches the vicinity of the speech board. When the document is placed on the floor, the RF tag reader / writer 53 reads the question item from the RF tag 52, and the headline detection means 54 also displays the legislator ID, headline information, etc. read from the RF tags 51, 52. In this case, the attribute information is automatically generated, and is composed of RF tags 51 and 52, an RF tag reader / writer 53, a headline detecting means 54, and the like.
[0051]
The RF tags 51 and 52 are used for reading data wirelessly. Here, the member ID or attribute information is written in advance and is read as necessary.
[0052]
The RF tag reader / writer 53 reads the member ID from the RF tag 51 attached to the member's jacket or the like when the member approaches the question board (or enters through the gate) and detects the cutout start position or leaves the question table. (Or exits through the gate) detects the cut-out end position, or reads a question item or the like from the RF tag 52 when the question document attached with the RF tag 52 is placed on the floor.
[0053]
The headline detecting means 54 generates attribute information (such as a member of the Diet, a question item) based on the member ID, question item, etc. read by the RF tag reader / writer 53 from the RF tags 51, 52.
[0054]
As described above, when a member of the parliament approaches the speech board (or enters through the gate), the legitimate ID is read from the attached RF tag 51 by the RF tag reader / writer 53 to automatically detect the cutout start position or leave the speech board. (Or go out through the gate) and automatically detect the cut end position, automatically cut out the video between the sections, and automatically generate attribute information (heading items etc.) from the legislator ID, question items, etc. It is possible to automatically create an HTML file, link them together, and automatically upload and store them in the server 8.
[0055]
FIG. 10 is a flowchart for explaining another operation of the present invention. Here, S41 and S49 to S55 are the same as S1 and S9 to S15 in FIG.
[0056]
In FIG. 10, S42 writes a headword to the RF tag. In this case, a member's name (member's ID) is written on the RF tag 51 attached to the member and attached to the member, and a question item is written on the RF tag 52 and attached to the question document.
[0057]
In S43, shooting is started. In this case, the shooting start button is pressed, and the camera 1 starts shooting.
In S44, creation of a cut-out source video file is started. In response to the start of shooting by the camera 1 in S43, creation of a cut-out source video file is started.
[0058]
In S <b> 45, the name of the legislator is detected from the RF tag 51. This is detected by the RF tag reader / writer 53 reading the member ID from the RF tag 51 when the member approaches the floor (or enters through the gate).
[0059]
In S46, the question item is detected from the RF tag 52, and the attribute number is temporarily stored. When a member of the Diet puts the question document attached to the RF tag 52 on the floor, the RF reader / writer 53 reads the question item from the RF tag 52 and temporarily stores the attribute number of the read question item.
[0060]
In S47, a cutout start position is designated.
In S48, the cutout end position is designated.
Then, an HTML file is automatically created on the basis of the video of the section from the cutout start position to the cutout end position and the attribute information such as the question item by the procedure of S49 to S55 (S9 to S15 in FIG. 2 described above). The server 8 can be uploaded and stored.
[0061]
As described above, the situation in which the member of the assembly speaks in the assembly is photographed with the camera 1, the video between this is cut out, the file name is given, and the member's attribute information automatically read by the RF tags 51 and 52 (the member's name, meeting name, question) It is possible to automatically create and link to an HTML file based on the item etc., upload it to the server 8 and store it for distribution.
[0062]
FIG. 11 is a flowchart for explaining another operation of the present invention. Here, S61 to S64 and S69 to S75 correspond to S41 to S44 and S49 to S55 of FIG.
[0063]
In FIG. 11, S65 detects the name of the legislator from the RF tag 51 (when the legitimate unit is cut out, the cut-out start position is detected). This is detected by the RF tag reader / writer 53 reading the member ID from the RF tag 51 when the member approaches the floor (or enters through the gate). At this time, when the member is cut out for each member (each member), it is detected as the cut-out start position every time the member ID is read from the RF tag 51.
[0064]
In S66, the question item is detected from the RF tag 52, and the attribute number is temporarily stored. This is because when a member of the Diet puts the question document attached to the RF tag 52 on the floor (or turns the page), the RF reader / writer 53 reads the question item from the RF tag 52, and the attribute of the read question item Temporarily store the number. In this case, when the question item unit (for each question item) is cut out, it is detected as the cut-out start position every time the question item is read from the RF tag 52 (in this case, one question item is described for each page of the question document, It is assumed that an RF tag 52 is attached to each page).
[0065]
In S67, when the question sheet is removed from the predetermined position, when it is cut out in units of question items, it is detected as a cut-out end position.
In S68, when cutting out in units of members, when the member passes the gate for the second time, it is detected as the cut-out end position. In the case of cutting out in units of members, when the member wearing the RF tag 51 passes the gate for the second time (or goes out of the gate), the end position is detected.
[0066]
According to the procedure from S69 to S75 (S49 to S55 in FIG. 10 described above), the video of the segment from the segmentation start position to the segmentation end position (or the segment from the segmentation start position to the next segmentation start position), and attributes such as question items An HTML file can be automatically created based on the information and uploaded to the server 8 for storage.
[0067]
As described above, a situation where a member of the Diet speaks in the assembly is photographed with the camera 1, and a video is automatically cut out based on a member ID automatically read from the RF tag 51 to automatically generate a video file and read from the RF tag 52. It is possible to automatically create and link to an HTML file based on attribute information (a member of the Diet, a meeting name, a question item, etc.) and link it to the server 8 for easy and quick storage and distribution.
[0068]
FIG. 12 is an explanatory diagram of the present invention (when only the cutout start position is detected). This is because when a member of the parliament wearing the RF tag 51 approaches the speech stand (or when passing the gate and approaches the speech stand), or when a questionnaire attached with the RF tag 52 is placed on the speech stand (or (When turning the page of the question document), when the data (member ID, question item, etc.) is read from these RF tags 51 and 52, it is detected as a video cutout start position, and video cutout is started from the cutout original video. FIG. 6 schematically shows a state where the next video cutout start position is set as a video cutout end position and cutout is completed. For example, data (a member of the Diet ID or a question item) is detected from either of the RF tags 51 and 52 after 0 to 10 minutes from the base point at the left end, and is set as a clipping start position, and from the RF tag 51 or 52 after the next 20 minutes. When data (a member of the Diet or a question item) is detected, it is detected as a cutout end position, and is set as a cutout start position of the next video.
[0069]
【The invention's effect】
As described above, according to the present invention, for a video of a speaker or the like taken in a parliament or the like, the section from the start position to the end position of the speaker's speech is cut out and the attributes of the speaker's name, title, etc. Since the text information is automatically assigned, the video of the speaker (such as a member of the parliament) is automatically cut out, and the text information consisting of attributes such as title and name is linked and stored easily and quickly. It becomes possible. As a result, it is possible to specify and search the attribute information (name, title, etc.) of the text linked and stored with the video, and to easily view (distribute) the corresponding video.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of the present invention.
FIG. 2 is a flowchart (part 1) illustrating the operation of the present invention.
FIG. 3 is a flowchart (part 2) illustrating the operation of the present invention.
FIG. 4 is an explanatory diagram (cutout start / end positions) of the present invention.
FIG. 5 is a screen example (entry word registration) of the present invention.
FIG. 6 is an example of an operation screen according to the present invention.
FIG. 7 is an example of an attribute information table of the present invention.
FIG. 8 is an explanatory diagram (HTML) of the present invention.
FIG. 9 is another system configuration diagram of the present invention.
FIG. 10 is a flowchart illustrating another operation of the present invention.
FIG. 11 is a flowchart illustrating another operation of the present invention.
FIG. 12 is an explanatory diagram of the present invention (when only the cutout start position is detected).
[Explanation of symbols]
1: Camera 2: Video acquisition means 21: Video generation means 22: Cutout source video file 3: Video cutout position detection means 4: Video cutout means 5: Headline generation means 51, 52: RF tag 53: RF tag reader / writer 54: Headline Detection means 55: Headline input means 6: HTML automatic generation means 7: Upload means 8: Server 9: End user (terminal)

Claims (2)

カメラで撮影された映像について、発言者の映像を切り出し属性を付与して蓄積する配信映像蓄積装置において、
発言者の映像を撮影するカメラと、
前記発言者に当該発言者のIDを書き込んだ第1の無線タグを所持させ、当該発言者が発言台の所定範囲内に入ったと検出あるいは第1の無線タグが検出された時に、前記カメラで撮影した映像から当該発言者の映像の切り出し開始位置とし、一定時間経過してから前記範囲外に出たと検出あるいは第1の無線タグが検出されなくなった時に当該発言者の映像の切り出し終了位置として検出する第1の検出手段と、
前記発言内容を記載した書類に当該書類のタイトルを少なくとも書き込んだ第2の無線タグを添付し、発言者が発言台に第2の無線タグの添付された書類を置いたあるいは発言台に近づいた時に、当該書類に添付された第2の無線タグから発言のタイトルを少なくとも読み取って属性とする第2の検出手段と、
前記第1の検出手段により検出された切り出し開始位置および終了位置で挟まれる区間の映像を切り出して前記発言者の氏名、および前記第2の検出手段により検出された発言のタイトルを含む属性からなるテキスト情報を付加する手段と
を備えたことを特徴とする配信映像蓄積装置。
For video taken with a camera, in a distribution video storage device that cuts out the video of the speaker and assigns it to the video,
A camera that captures the video of the speaker,
When the speaker has the first wireless tag in which the ID of the speaker is written and the speaker is detected to be within a predetermined range of the speaker, or when the first wireless tag is detected , the camera The cutout start position of the speaker's video from the captured video, and the cutout end position of the speaker's video when it is detected that the speaker has gone out of the range after a certain period of time or the first wireless tag is no longer detected first detecting means for detecting as,
Attach a second wireless tag with at least the title of the document to the document describing the content of the statement, and the speaker puts the document attached with the second wireless tag on the statement table or approaches the statement table A second detection means that at least reads the title of the message from the second wireless tag attached to the document and sets the attribute;
The video includes an attribute including the name of the speaker and the title of the speech detected by the second detection means by cutting out the video of the section sandwiched between the extraction start position and the end position detected by the first detection means. A distribution video storage apparatus comprising means for adding text information.
カメラで撮影された映像について、発言者の映像を切り出し属性を付与して蓄積する配信映像蓄積方法において、
発言者の映像を撮影するカメラを備え、
前記発言者に当該発言者のIDを書き込んだ第1の無線タグを所持させ、当該発言者が発言台の所定範囲内に入ったと検出あるいは第1の無線タグが検出された時に、前記カメラで撮影した映像から当該発言者の映像の切り出し開始位置とし、一定時間経過してから前記範囲外に出たと検出あるいは第1の無線タグが検出されなくなった時に当該発言者の映像の切り出し終了位置として検出する第1の検出ステップと、
前記発言者の発言内容を記載した書類に当該書類のタイトルを少なくとも書き込んだ第2の無線タグを添付し、当該発言者が発言台に第2の無線タグの添付された書類を置いたあるいは発言台に近づいた時に、当該書類に添付された第2の無線タグから当該発言者の発言のタイトルを少なくとも読み取って属性とする第2の検出ステップと、
前記第1の検出ステップにより検出された切り出し開始位置および終了位置で挟まれる区間の映像を切り出して前記発言者の氏名、および前記第2の検出ステップにより検出された発言のタイトルを含む属性からなるテキスト情報を付加するステップと
を有する配信映像蓄積方法。
For the video taken by the camera, in the delivery video storage method of cutting out the video of the speaker and adding and storing it,
It has a camera that takes pictures of the speakers,
When the speaker has the first wireless tag in which the ID of the speaker is written and the speaker is detected to be within a predetermined range of the speaker, or when the first wireless tag is detected , the camera The cutout start position of the speaker's video from the captured video, and the cutout end position of the speaker's video when it is detected that the speaker has gone out of the range after a certain period of time or when the first wireless tag is no longer detected A first detection step for detecting as
Attach a second wireless tag with at least the title of the document to the document that describes the content of the speaker's speech, and the speaker places the document with the second wireless tag on the floor. A second detection step that reads at least the title of the speaker's speech from the second wireless tag attached to the document when it approaches the table,
The video includes an attribute including the name of the speaker and the title of the speech detected by the second detection step by cutting the video of the section sandwiched between the clipping start position and the end position detected by the first detection step. A distribution video storage method including the step of adding text information.
JP2003185490A 2003-06-27 2003-06-27 Delivery video storage device and delivery video storage method Expired - Fee Related JP4113806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003185490A JP4113806B2 (en) 2003-06-27 2003-06-27 Delivery video storage device and delivery video storage method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003185490A JP4113806B2 (en) 2003-06-27 2003-06-27 Delivery video storage device and delivery video storage method

Publications (2)

Publication Number Publication Date
JP2005020605A JP2005020605A (en) 2005-01-20
JP4113806B2 true JP4113806B2 (en) 2008-07-09

Family

ID=34184924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003185490A Expired - Fee Related JP4113806B2 (en) 2003-06-27 2003-06-27 Delivery video storage device and delivery video storage method

Country Status (1)

Country Link
JP (1) JP4113806B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4372729B2 (en) * 2005-07-13 2009-11-25 シャープ株式会社 Real world communication management device
JP4962783B2 (en) 2007-08-31 2012-06-27 ソニー株式会社 Information processing apparatus, information processing method, and program
JP7194562B2 (en) * 2018-11-05 2022-12-22 東京瓦斯株式会社 Information processing method and information processing system

Also Published As

Publication number Publication date
JP2005020605A (en) 2005-01-20

Similar Documents

Publication Publication Date Title
US7616840B2 (en) Techniques for using an image for the retrieval of television program information
JP4466564B2 (en) Document creation / viewing device, document creation / viewing robot, and document creation / viewing program
US7779355B1 (en) Techniques for using paper documents as media templates
US6499016B1 (en) Automatically storing and presenting digital images using a speech-based command language
US9837077B2 (en) Enhanced capture, management and distribution of live presentations
US7831598B2 (en) Data recording and reproducing apparatus and method of generating metadata
JP4453392B2 (en) System and method for bookmarking live and recorded multimedia documents
US7680360B2 (en) Information processing system and information processing method
US20020091658A1 (en) Multimedia electronic education system and method
JP3895892B2 (en) Multimedia information collection management device and storage medium storing program
KR101887400B1 (en) Method for providing c0ntents editing service using synchronization in media production enviroment
JP2001028722A (en) Moving picture management device and moving picture management system
JP2002207753A (en) Multimedia information recording, forming and providing system
JP2005341015A (en) Video conference system with minute creation support function
US7921074B2 (en) Information processing system and information processing method
JP2002202905A (en) Data accumulation method and device, and storage medium
JP2002109099A (en) System and device for recording data and video image/ voice, and computer readable recording medium
US7929766B2 (en) Identifiers for digital media
JP4113806B2 (en) Delivery video storage device and delivery video storage method
JPH11266422A (en) Broadcast program management system, broadcast program management method, and recording medium recorded with broadcast program management processing program
CN101471115B (en) Photographing apparatus and photographing method
JP4233362B2 (en) Information distribution apparatus, information distribution method, and information distribution program
JP2753538B2 (en) Multimedia database storage and retrieval device
JP2004279897A (en) Method, device, and program for voice communication record generation
JP2002288178A (en) Multimedia information collection and management device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080110

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080414

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140418

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees