JP4113806B2 - Delivery video storage device and delivery video storage method - Google Patents
Delivery video storage device and delivery video storage method Download PDFInfo
- Publication number
- JP4113806B2 JP4113806B2 JP2003185490A JP2003185490A JP4113806B2 JP 4113806 B2 JP4113806 B2 JP 4113806B2 JP 2003185490 A JP2003185490 A JP 2003185490A JP 2003185490 A JP2003185490 A JP 2003185490A JP 4113806 B2 JP4113806 B2 JP 4113806B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- speaker
- detected
- wireless tag
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、発言者の映像を切り出し属性を付与して蓄積する配信映像蓄積装置および配信映像蓄積方法に関するものである。
【0002】
【従来の技術】
従来、議会や講演会などをビデオカメラで撮影した映像を録画する。そして、議員や講演者など毎に切り出して当該議員などの氏名、質問や講演したタイトルなどを手入力して編集し、リプレイ可能な映像を作成していた。
【0003】
また、司会者が発言内容のテキスト情報を入力し、会議参加者のマイク音量および持続期間から検出した発言区間のマルチメディア情報に当該テキスト情報をリンクづけて記録し、前記テキスト情報をもとに該当するマルチメディア情報を検索する技術がある(特許文献1)。
【0004】
【特許文献1】
特開平7ー226931号公報の〔0010〕および図1など参照。
【0005】
【発明が解決しようとする課題】
前者の技術では、人手により、撮影した映像から該当する箇所を切り出すと共に当該切り出した映像に議員や講演者などの氏名、タイトルなどをキー入力して付与するという大変な手間が発生してしまい、多量かつ迅速に映像に氏名、タイトルなどを付与し、これら氏名、タイトルなどで検索して視聴できないという問題があった。
【0006】
また、後者の技術では、司会者が入力したテキスト情報を、参加者からのマイク音量および持続期間から検出した区間のマルチメディア情報にリンクづけし、後にテキスト情報を検索して該当するマルチメディア情報(映像)を取り出して視聴することはできるが、テキスト情報をリンクづけできるのは参加者からの音声が大きくて持続した区間の映像(マルチメディア情報)を取り出してリンク付けできるのみで、司会者が参加者を紹介しない区間や、音声がいったん途切れて、また、始まるというような区間について適性なテキスト情報をリンクづけできないという問題があった。
【0007】
本発明は、これらの問題を解決するため、議会などで発言者などを撮影した映像について、発言者の発言の開始位置から終了位置までの区間を切り出して当該発言者の氏名、タイトルなどの属性のテキスト情報を自動付与してテキスト検索可能な映像として蓄積し、配信可能にすることを目的としている。
【0008】
【課題を解決するための手段】
図1を参照して課題を解決するための手段を説明する。
図1において、カメラ1は、発言者(議員など)を撮影して映像を生成するものである。
【0009】
映像切り出し位置検出手段3は、映像から発言者の映像の切り出し開始位置および終了位置を検出するものである。
映像切り出し手段4は、映像から発言者の映像を切り出すものである。
【0010】
見出し生成手段5は、発言者の映像に付与する発言者の氏名、タイトルなどの属性からなるテキスト情報を生成するものである。
HTML自動生成手段6は、発言者の映像および属性からなるテキスト情報をHTML言語を用いて記述したファイルを自動生成するものである。
【0011】
アップロード手段7は、HTMLファイルをアップロードするものである。
次に、動作を説明する。
カメラ1で発言者の映像を撮影し、映像切り出し位置検出手段3が発言者の映像の切り出し開始位置および終了位置を検出し、映像切り出し手段4が検出された切り出し開始位置および終了位置で挟まれる区間の映像を切り出し、見出し生成手段5が切り出した映像に発言者の氏名、発言のタイトルなどの属性からなるテキスト情報を付与し、アップロード手段7がアップロードするようにしている。
【0012】
この際、オペレータがマウスやキーボードなどの入力機器を用いて、発言者の映像の切り出し開始・終了位置を指定するようにしている。
また、発言者に当該発言者のIDを書き込んだタグを所持させ、発言台の所定範囲内に入ったと検出あるいはタグが検出されたときに発言者の映像の切り出し開始位置とし、一定時間経過してから外に出たと検出されたあるいはタグが検出されなくなったときに発言者の映像の切り出し終了位置とするようにしている。
【0013】
また、発言者の発言内容を記載した書類に当該書類のタイトルなどを書き込んだタグを添付し、当該発言者が発言台にタグの添付された書類を置いたあるいは発言台に近づいたときに、書類に添付されたタグから発言者の発言のタイトルなどを読み取って属性とするようにしている。
【0014】
また、テキスト情報および映像をHTML言語で記述しアップロードして蓄積し、テキスト情報で映像を検索可能にするようにしている。
従って、議会などで発言者などを撮影した映像について、発言者の発言の開始位置から終了位置までの区間を切り出して当該発言者の氏名、タイトルなどの属性のテキスト情報を自動付与することにより、テキスト検索可能な映像として蓄積することが可能となる。
【0015】
【発明の実施の形態】
次に、図1から図12を用いて本発明の実施の形態および動作を順次詳細に説明する。以下の説明では、発言者として議員とし、議員が議会で発言する場合を例に以下順次説明する。
【0016】
図1は、本発明のシステム構成図を示す。
図1の(a)は、概念システム構成図を示す。
図1の(a)において、カメラ1は、発言者(議員など)を撮影して映像を生成するものであって、ビデオカメラなどである。
【0017】
映像取得手段2は、カメラ1で撮影した映像を取り込むものである。
映像切り出し位置検出手段3は、カメラ1で撮影して取り込んだ映像から、発言者の映像の切り出し開始位置および終了位置を検出するものである。
【0018】
映像切り出し手段4は、検出された切り出し開始位置から終了位置までの映像を切り出すものである。
見出し生成手段5は、発言者の映像に付与する発言者の氏名、タイトル(見出し)などの属性からなるテキスト情報を生成するものである。
【0019】
HTML自動生成手段6は、発言者の映像および属性からなるテキスト情報をHTML言語を用いて記述したファイル(HTMLファイル)を自動生成するものである。
【0020】
アップロード手段7は、HTMLファイルをネットワークを介してサーバ8にアップロードするものである。
サーバ8は、HTMLファイルを多数蓄積したり、エンドユーザの端末9からの検索依頼を受け付けてHTMLファイルのテキスト情報を検索して該当HTMLファイル(映像ファイルも)をダウンロード(配信)したりなどするものである。
【0021】
図1の(b)は、詳細システム構成図を示す。ここで、1から9は、図1の(a)の1から9の番号のものにそれぞれ対応する(1,3,4、6から9の説明は省略する)。
【0022】
図1の(b)において、映像取得手段2は、映像生成手段21および切り出し元映像ファイル22などから構成されるものである。
映像生成手段21は、カメラ1で撮影された発言者(議員)の映像を取り込むものである。
【0023】
切り出し元映像ファイル22は、映像生成手段21によってカメラ1から取り込まれた切り出し元映像ファイル(必要に応じた圧縮あるいは解像度、フレーム数、色数などにした映像ファイル)である。
【0024】
見出し生成手段5は、見出し入力手段55などから構成されるものであって、予め登録されている見出し語辞書(タイトル辞書)から該当するものを取り出したり、発言者の書類に添付したタグに予め書き込まれた見出し語(タイトルなど)を読み出したりなどして見出し語(タイトルなど)などの属性からなるテキスト情報を生成するものである。
【0025】
次に、図2のフローチャートの順番に従い図1の構成の動作を詳細に説明する。
図2は、本発明の動作説明フローチャート(その1)を示す。
【0026】
図2において、S1は、初期設定する。ここでは、図示の下記を初期設定する。
・カメラ位置、アングルの調整
・ネットワークへの接続処理
・議員の会派、会議名、議会の年間スケジュールなどの初期情報入力
ここで、カメラ位置、アングルの調整は、図1のカメラ1で議会で発言する議員の姿が丁度良く撮影できるように、カメラ位置、アングルを調整する。ネットワークへの接続処理は、カメラ1で撮影した映像をリアルタイムに図示外の制御卓に取り込むためのネットワーク接続(例えばLANに接続、無線LANに接続など)の処理を行う。議員の会派、会議名、議会の年間スケジュールなどの初期情報入力は、これから議会で発言しようとする議員の会派、会議名、議会の年間スケジュールなどの属性からなるテキスト情報を予め入力して蓄積しておく。
【0027】
S2は、見出し語の入力する。これは、これから議員が発言しようとする内容の見出し語(タイトルなど)を入力(例えば蓄積されている情報から選択、入力)する。
【0028】
S3は、撮影開始する。これは、撮影開始ボタンを押下し、カメラ1が撮影を開始する。
S4は、切り出し元映像ファイルの作成開始する。これは、S3のカメラ1による撮影開始したことに対応して、切り出し元映像ファイルの作成開始する。
【0029】
S5は、議員名、質問項目の選択を行う。これは、画面上からこれから発言しようとする議員の議員名、質問項目の選択を行う。
S6は、属性番号を一時記憶する。これは、S5で選択した議員の議員名、質問項目などのテキスト情報に付与した属性番号を一時記憶する。
【0030】
S7は、切り出し開始位置を指定する。これは、議員を撮影した映像から、切り出す開始位置を指定する。
S8は、切り出し終了位置を指定する。これは、議員を撮影した映像から、切り出し終了位置を指定する。
【0031】
S9は、該当区間を映像ファイルへ切り出しを行う。これは、カメラ1で撮影した議員の映像について、S7の切り出し開始位置から、S8の切り出し終了位置までの区間について切り出して映像ファイルを作成する。
【0032】
S10は、映像ファイル名を確定する。これは、S9で切り出した議員を撮影した映像ファイルに付与するファイル名を確定(例えば撮影年月日、会議を表す識別番号などをファイル名として確定)する。
【0033】
S11は、属性番号から見出し語を抽出する。これは、S6で一時記憶した属性番号をもとに属性情報を格納したテーブル(図7参照)から属性情報(会議名、日付、議員名、議員ID,会派、質問項目など)を抽出する。
【0034】
S12は、HTMLファイルを作成する。これは、S10で確定した映像ファイル名、S11で抽出した見出し語(属性)をもとにこれらをリンクづけたHTMLファイル(例えば後述する図8の(b)のHTMLファイル)を作成する。
【0035】
S13は、映像ファイル、HTMLファイルをアップロードする。これにより、HTMLファイルおよび映像ファイルが図1のサーバ8にアップロードされて蓄積されることとなる。
【0036】
S14は、撮影終了か判別する。YESの場合には、S15で撮影終了し、一連の処理を終了する。NOの場合には、S5に戻り繰り返す。
以上によって、議会で議員が発言する状況をカメラ1で撮影し、この間の映像を切り出してファイル名を付与すると共に当該議員の属性情報(議員名、会議名、質問項目など)を抽出し、これら両者をもとにHTMLファイルに作成してリンク付けしてサーバ8に簡易かつ迅速にアップロードして蓄積し、配信することが可能となる。
【0037】
図3は、本発明の動作説明フローチャート(その2)を示す。図3は、切り出し開始位置指定後に見出し語を選択するときのフローチャートである。
図3において、S25は、切り出し開始位置を指定する。これは、S21からS24(図2のS1からS4と同じ)に続き、切り出し位置を指定(議員が発言台に近づいたので切り出し位置を指定)する。
【0038】
S26は、議員名、質問項目を選択する。発言者である議員の議員名、質問項目を選択する。
S28は、切り出し終了位置を指定する。
【0039】
S29は、該当区間を映像ファイルへ切り出しを行う。
S30は、映像ファイル名を確定する。
S31は、属性番号を一時記憶する。
【0040】
S32は、属性番号から見出し語を抽出する。
そして、S32からS35(図2のS12からS15と同じ)により、映像ファイルおよび議員の属性(議員名、議員ID,日付、質問項目など)をもとにHTMLファイルを作成して両者をリンク付けし、サーバ8にアップロードする。
【0041】
図4は、本発明の説明図(切り出し開始・終了位置)を示す。これは、カメラ1で撮影した議員の状況を表す映像ファイル(切り出し元映像ファイル)から、切り出し開始位置から切り出し終了位置までの斜線の区間を切り出し、切り出し後の映像ファイルとして生成した様子を模式的に示す。ここでは、切り出し開始位置8:10から切り出し終了位置8:30までの区間の映像を切り出し、切り出し後の映像ファイルとしたものである。
【0042】
以上のように、切り出し元映像ファイルから、切り出し開始位置および終了位置を指定するのみで自動的に当該開始位置と終了位置の間の区間の映像ファイル(切り出し後の映像ファイル)を切り出すことが可能となる。そして、ファイル名を付与し、別に抽出した属性(議員名、議員ID,質問項目など)をテキスト情報として両者をHTMLファイルでリンクづけてサーバ8にアップロードすることが可能となる。
【0043】
図5は、本発明の画面例を示す。この画面例は、見出し語を登録する画面の例であって、ここでは、図示の下記の情報を登録するためのものである。
・会議名:第1回定例会
・開催日:2003年7月1日
・議員名:富士通太郎
・質問項目:ゴミ処理問題について
以上の画面上の項目について図示のように入力あるいは選択し、下段の登録ボタンを押下すると、後述する図7の属性情報テーブルに図示のように、属性番号に対応づけて登録されることとなる。
【0044】
図6は、本発明の操作画面例を示す。これは、議会映像配信システムの操作画面例であって、図示の下記の情報および各種ボタンなどを設けたものである。
・会議名:
・開催日:
・議員名:
・質問項目:
・状態:
・プレビュー画面:
・ボタン:
・中継開始ボタン
・中継終了ボタン
・切り出し開始ボタン
・切り出し終了ボタン
・編集画面ボタン
・その他:
ここで、会議名、開催日、議員名、質問項目、状態は、カメラ1で撮影しようとする議員が発言する会議名、開催日、発言する議員名を選択する欄、議員が質問する質問項目を選択する欄、操作の履歴を表示する欄である。プレビュー画面は、経過時間で示すプレビュー映像を表示する領域である。中継開始ボタン、中継終了ボタンは、カメラ1で議員の発言の中継を開始、終了させるボタンである。切り出し開始ボタン、切り出し終了ボタンは、カメラ1で撮影した議員の発言状況の映像から、手動で切り出し開始、切り出し終了を指示するためのものである。
【0045】
図7は、本発明の説明図(属性情報テーブルの例)を示す。属性情報テーブルには、図示の下記の情報を対応づけて登録したものである。
・属性番号:
・会議名:
・日付:
・議員名:
・議員ID:
・会派:
・質問項目:
・その他:
ここで、属性番号は属性に付与した一意の番号である。会議名は議員が発言する会議名である。日付は会議を開催する日付である。議員名、議員ID、会派は発言(質問)する議員名,議員のID、会派である。質問項目は議員が質問する質問項目である。
【0046】
以上のように、属性番号に対応づけて登録した属性(会議名、日付、議員名、議員ID、質問項目など)を属性情報テーブルに登録して管理することにより、属性番号を指定し当該議員の発言した区間の映像ファイルに当該属性番号で指定された属性情報を付加(HTMLファイルを作成して両者をリンク付け)することが可能となる。そして、映像に付加されたテキストの属性情報を検索して該当映像ファイルを視聴することが可能となる。
【0047】
図8は、本発明の説明図(HTML)を示す。
図8の(a)は画面例を示し、図8の(b)のHTMLファイル例を示す。図8の(b)のHTMLファイルは、映像ファイルに属性情報(図7参照)をリンク付けた例を示し、ここでは、図示の下記の属性情報と、映像ファイルとを対応づけたものである。
【0048】
・第1回定例会
・○○議会
・平成15年6月定例会 質問議員と質問項目
・富士通太郎議員(ABC党)
・ごみ処理問題について
・福祉問題について
・富士通花子議員(XYZの会)
・住宅政策について
ここで、図8の(a)の画面上で右端の該当する映像再生ボタンを押下すると、当該映像再生ボタンにリンクした映像ファイルを自動再生して表示および音声発生して視聴することが可能となる。
【0049】
図9は、本発明の他のシステム構成図を示す。ここで、1から9は、図1の(a)の1から9の番号のものにそれぞれ対応する(1,2(21,22)、3,4、6から9の説明は省略する)。
【0050】
図9において、見出し生成手段5は、RFタグ51を装着した議員が発言台の近傍に近づくとRFタグリーダライタ53が当該RFタグ51から議員IDを読み取ったり、RFタグ52を添付した書類(質問書類)を発言台に載せたりするとRFタグリーダライタ53が当該RFタグ52から質問項目などを読み取ったりし、更に、見出し検出手段54がRFタグ51,52から読み取った議員ID,見出し情報などをもとに属性情報を自動生成したりなどするものであって、ここでは、RFタグ51,52、RFタグリーダライタ53、見出し検出手段54などから構成されるものである。
【0051】
RFタグ51,52は、無線でデータを読み取ったりなどするものであって、ここでは、議員IDあるいは属性情報を予め書き込んでおき、必要に応じて読み取るためのものである。
【0052】
RFタグリーダライタ53は、議員が質問台に近づく(あるいはゲートを通って入る)と議員の上着などに装着したRFタグ51から議員IDを読み取ると共に切り出し開始位置と検出したり、質問台から離れる(あるいはゲートを通って出る)と切り出し終了位置と検出したり、RFタグ52の添付された質問書類が発言台に載せられると当該RFタグ52から質問項目などを読み取ったりなどするものである。
【0053】
見出し検出手段54は、RFタグリーダライタ53がRFタグ51,52から読み取った議員ID,質問項目などをもとに属性情報(議員名、質問項目など)を生成するものである。
【0054】
以上のように、議員が発言台に近づく(あるいはゲートを通って入る)と装着されたRFタグ51から議員IDをRFタグリーダライタ53が読み取って切り出し開始位置を自動検出したり、発言台から離れる(あるいはゲートを通って出る)と切り出し終了位置を自動検出してこれらの間の区間の映像を自動的に切り出すと共に、議員ID,質問項目などから属性情報(見出し項目など)を自動生成し、HTMLファイルを自動作成して両者をリンクづけしてサーバ8に自動アップロードして蓄積することが可能となる。
【0055】
図10は、本発明の他の動作説明フローチャートを示す。ここで、S41、S49からS55は、図2のS1、S9からS15に対応してそれぞれ同一であるので、説明を省略する。
【0056】
図10において、S42は、見出し語をRFタグへ書き込む。これは、議員名(議員ID)を議員が装着するRFタグ51に書き込んで議員に装着させ、質問項目をRFタグ52に書き込んで質問書類に添付する。
【0057】
S43は、撮影開始する。これは、撮影開始ボタンを押下し、カメラ1が撮影を開始する。
S44は、切り出し元映像ファイルの作成開始する。これは、S43のカメラ1による撮影開始したことに対応して、切り出し元映像ファイルの作成開始する。
【0058】
S45は、議員名をRFタグ51から検出する。これは、議員が発言台に近づいたとき(あるいはゲートを通って入ったとき)にRFタグリーダライタ53がRFタグ51から議員IDを読み取って検出する。
【0059】
S46は、質問項目をRFタグ52から検出し、属性番号を一時記憶する。これは、議員がRFタグ52に添付された質問書類を発言台の上に載せると当該RFタグ52から質問項目をRFリーダライタ53が読み取り、当該読み取った質問項目の属性番号を一時記憶する。
【0060】
S47は、切り出し開始位置を指定する。
S48は、切り出し終了位置を指定する。
そして、S49からS55(既述した図2のS9からS15)の手順により、切り出し開始位置から切り出し終了位置の区間の映像と、質問項目などの属性情報とをもとにHTMLファイルを自動作成し、サーバ8にアップロードして蓄積することが可能となる。
【0061】
以上によって、議会で議員が発言する状況をカメラ1で撮影し、この間の映像を切り出してファイル名を付与すると共にRFタグ51,52によって自動読み取りした議員の属性情報(議員名、会議名、質問項目など)をもとにHTMLファイルに自動作成してリンク付けしてサーバ8に簡易かつ迅速にアップロードして蓄積し、配信することが可能となる。
【0062】
図11は、本発明の他の動作説明フローチャートを示す。ここで、S61からS64、S69からS75は、既述した図10のS41からS44、S49からS55に対応するので、説明を省略する。
【0063】
図11において、S65は、議員名をRFタグ51から検出する(議員単位で切り出すときは、切り出し開始位置を検出する)。これは、議員が発言台に近づいたとき(あるいはゲートを通って入ったとき)にRFタグリーダライタ53がRFタグ51から議員IDを読み取って検出する。この際、議員単位(議員毎)に切り出すときはRFタグ51から議員IDを読み取る毎に切り出し開始位置として検出する。
【0064】
S66は、質問項目をRFタグ52から検出し、属性番号を一時記憶する。これは、議員がRFタグ52に添付された質問書類を発言台の上に載せる(あるいはページをめくる)と当該RFタグ52から質問項目をRFリーダライタ53が読み取り、当該読み取った質問項目の属性番号を一時記憶する。この際、質問項目単位(質問項目毎)に切り出すときはRFタグ52から質問項目を読み取る毎に切り出し開始位置と検出する(この場合には、質問書類のページ毎に1質問項目が記載され、ページ毎にRFタグ52が添付されているとする)。
【0065】
S67は、質問用紙が所定位置から除かれたとき、質問項目単位で切り出すときは切り出し終了位置と検出する。
S68は、議員単位で切り出すときは、議員がゲートを2回目に通過したときに、切り出し終了位置と検出する。これは、議員単位に切り出す場合には、RFタグ51を装着した議員がゲートを2回目に通過(あるいはゲートの内から外に出る)と、切り出し終了位置と検出する。
【0066】
S69からS75(既述した図10のS49からS55)の手順により、切り出し開始位置から切り出し終了位置の区間(あるいは切り出し開始位置から次の切り出し開始位置の区間)の映像と、質問項目などの属性情報とをもとにHTMLファイルを自動作成し、サーバ8にアップロードして蓄積することが可能となる。
【0067】
以上によって、議会で議員が発言する状況をカメラ1で撮影し、RFタグ51から自動読み取りした議員IDをもとに映像を自動的に切り出して映像ファイルを自動生成すると共にRFタグ52から読み取った属性情報(議員名、会議名、質問項目など)をもとにHTMLファイルに自動作成してリンク付けしてサーバ8に簡易かつ迅速にアップロードして蓄積し、配信することが可能となる。
【0068】
図12は、本発明の説明図(切り出し開始位置のみを検出する場合)を示す。これは、RFタグ51を装着した議員が発言台に近づいたとき(あるいはゲートを通過して発言台に近づいたとき)、あるいはRFタグ52を添付した質問書類を発言台に置いたとき(あるいは質問書類のページをめくったとき)にこれらRFタグ51,52からデータ(議員ID、質問項目など)を読み取ったときに映像切り出し開始位置と検出し、切り出し元映像から映像の切り出しを開始し、次の映像切り出し開始位置を映像切り出し終了位置として切り出し終了する様子を模式的に表示したものである。例えば左端の基点の0分から10分後にRFタグ51,52のいずれかからデータ(議員IDあるいは質問項目)を検出して切り出し開始位置とし、次の20分後にRFタグ51,52のいずれかからデータ(議員IDあるいは質問項目)を検出したときに切り出し終了位置と検出すると共に、次の映像の切り出し開始位置としたものである。
【0069】
【発明の効果】
以上説明したように、本発明によれば、議会などで発言者などを撮影した映像について、発言者の発言の開始位置から終了位置までの区間を切り出して当該発言者の氏名、タイトルなどの属性のテキスト情報を自動付与する構成を採用しているため、発言者(議員など)の映像を自動的に切り出してタイトル、氏名などの属性からなるテキスト情報をリンク付けして簡易かつ迅速に蓄積することが可能となる。これにより、映像とリンク付けして蓄積したテキストの属性情報(氏名、タイトルなど)を指定して検索し該当する映像を簡易に視聴(配信)できる。
【図面の簡単な説明】
【図1】本発明のシステム構成図である。
【図2】本発明の動作説明フローチャート(その1)である。
【図3】本発明の動作説明フローチャート(その2)である。
【図4】本発明の説明図(切り出し開始・終了位置)である。
【図5】本発明の画面例(見出し語登録)である。
【図6】本発明の操作画面例である。
【図7】本発明の属性情報テーブルの例である。
【図8】本発明の説明図(HTML)である。
【図9】本発明の他のシステム構成図である。
【図10】本発明の他の動作説明フローチャートである。
【図11】本発明の他の動作説明フローチャートである。
【図12】本発明の説明図(切り出し開始位置のみ検出する場合)である。
【符号の説明】
1:カメラ
2:映像取得手段
21:映像生成手段
22:切り出し元映像ファイル
3:映像切り出し位置検出手段
4:映像切り出し手段
5:見出し生成手段
51,52:RFタグ
53:RFタグリーダライタ
54:見出し検出手段
55:見出し入力手段
6:HTML自動生成手段
7:アップロード手段
8:サーバ
9:エンドユーザ(端末)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a distribution video storage apparatus and a distribution video storage method that extract and store a video of a speaker with an attribute.
[0002]
[Prior art]
Conventionally, video recorded by a video camera is recorded. Then, each member of the parliament, speaker, etc. was cut out and manually input and edited the name of the member of the parliament, questions, the title of the lecture, and the like, and a replayable video was created.
[0003]
In addition, the moderator inputs the text information of the speech content, records the text information linked to the speech information detected from the microphone volume and duration of the conference participant, and records the text information based on the text information. There is a technique for searching for corresponding multimedia information (Patent Document 1).
[0004]
[Patent Document 1]
See, for example, [0010] of JP-A-7-226931 and FIG.
[0005]
[Problems to be solved by the invention]
With the former technique, it takes a lot of labor to manually cut out the corresponding part from the shot video and give the name, title, etc. of the legislators and lecturers to the cut out video, There was a problem that names and titles were given to videos quickly and in large numbers, and it was not possible to search and view them using these names and titles.
[0006]
In the latter technique, the text information input by the presenter is linked to the multimedia information of the section detected from the microphone volume and duration from the participant, and the corresponding multimedia information is searched by searching the text information later. (Video) can be viewed and viewed, but text information can be linked only by extracting and linking video (multimedia information) in a section where the voice from the participant is loud and sustained. However, there is a problem that it is not possible to link appropriate text information for a section where the participant is not introduced or a section where the voice is interrupted or starts.
[0007]
In order to solve these problems, the present invention cuts the section from the start position to the end position of the speaker's speech and captures the attributes of the speaker's name, title, etc. The text information is automatically assigned and stored as a text searchable video so that it can be distributed.
[0008]
[Means for Solving the Problems]
Means for solving the problem will be described with reference to FIG.
In FIG. 1, a
[0009]
The video cut-out position detection means 3 detects the cut-out start position and end position of the speaker's video from the video.
The video cutout means 4 cuts out the video of the speaker from the video.
[0010]
The
The HTML automatic generation means 6 automatically generates a file in which text information consisting of a speaker's video and attributes is described using the HTML language.
[0011]
The upload means 7 uploads an HTML file.
Next, the operation will be described.
The video of the speaker is photographed by the
[0012]
At this time, the operator uses the input device such as a mouse or a keyboard to specify the start / end positions of the video of the speaker.
Also, let the speaker have a tag with the speaker's ID written on it, and when it is detected that the speaker is within a predetermined range of the speaker base or when a tag is detected, the speaker's video will be cut out, and a certain amount of time has passed. When it is detected that the user has gone out or the tag is no longer detected, it is set as the cutout end position of the video of the speaker.
[0013]
In addition, when a tag that includes the title of the document is attached to a document that describes the content of the speaker, and the speaker places the document with the tag attached to the speaker, or approaches the speaker, The title of the speaker's speech is read from the tag attached to the document and used as an attribute.
[0014]
In addition, text information and video are described in HTML language, uploaded and stored, and video can be searched using text information.
Therefore, for video shot of the speaker in the assembly, etc., by extracting the section from the start position to the end position of the speaker's speech and automatically assigning text information of attributes such as the name and title of the speaker, It can be stored as a text searchable video.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments and operations of the present invention will be described in detail sequentially with reference to FIGS. In the following explanation, a case will be described as an example of a case where a member is a member of the parliament and a member speaks in the assembly.
[0016]
FIG. 1 shows a system configuration diagram of the present invention.
FIG. 1A shows a conceptual system configuration diagram.
In FIG. 1A, a
[0017]
The video acquisition means 2 captures video captured by the
The video cut-out position detection means 3 detects the cut-out start position and end position of the speaker's video from the video captured by the
[0018]
The video cutout means 4 cuts out a video from the detected cutout start position to the end position.
The
[0019]
The HTML automatic generation means 6 automatically generates a file (HTML file) in which text information composed of a speaker's video and attributes is described using the HTML language.
[0020]
The upload means 7 uploads an HTML file to the
The
[0021]
FIG. 1B shows a detailed system configuration diagram. Here, 1 to 9 correspond to the
[0022]
In FIG. 1B, the video acquisition unit 2 includes a
The video generation means 21 captures a video of a speaker (member) taken by the
[0023]
The cut-out
[0024]
The headline generating means 5 is composed of a headline input means 55 and the like, and takes out a corresponding one from a pre-registered headword dictionary (title dictionary) or puts it in advance on a tag attached to a speaker's document. For example, text information including attributes such as a headword (such as a title) is generated by reading out the written headword (such as a title).
[0025]
Next, the operation of the configuration of FIG. 1 will be described in detail according to the order of the flowchart of FIG.
FIG. 2 is a flowchart for explaining the operation of the present invention (part 1).
[0026]
In FIG. 2, S1 is initialized. Here, the following settings shown in the figure are initialized.
・ Adjustment of camera position and angle ・ Processing to connect to the network ・ Input of initial information such as parliament denomination, meeting name, and annual schedule of the assembly Here, adjustment of the camera position and angle is remarked in the assembly by
[0027]
In S2, an entry word is input. In this case, a headword (title or the like) of contents to be spoken by a member of the Diet is input (for example, selected and input from accumulated information).
[0028]
In S3, shooting starts. In this case, the shooting start button is pressed, and the
In S4, creation of a cut-out source video file is started. In response to the start of shooting by the
[0029]
In S5, a member name and a question item are selected. This is done by selecting the member name and question item of the member who is going to speak from the screen.
In S6, the attribute number is temporarily stored. This temporarily stores the attribute number assigned to the text information such as the member name and question item of the member selected in S5.
[0030]
S7 designates a cutout start position. This designates the start position to be cut out from the video shot of the legislator.
S8 designates the cutout end position. This designates the cut-out end position from the video shot of the legislator.
[0031]
In S9, the corresponding section is cut out to a video file. In this method, a video of a member of the Diet taken by the
[0032]
In S10, the video file name is determined. This confirms the file name to be given to the video file obtained by photographing the legislator cut out in S9 (for example, the photographing date, the identification number representing the meeting, etc. are confirmed as the file name).
[0033]
S11 extracts a headword from the attribute number. This extracts attribute information (conference name, date, member name, member ID, denomination, question item, etc.) from the table (see FIG. 7) storing the attribute information based on the attribute number temporarily stored in S6.
[0034]
In step S12, an HTML file is created. This creates an HTML file (for example, an HTML file in FIG. 8B described later) in which the video file name determined in S10 and the headword (attribute) extracted in S11 are linked.
[0035]
In S13, a video file and an HTML file are uploaded. As a result, the HTML file and the video file are uploaded and stored in the
[0036]
In S14, it is determined whether the photographing is finished. In the case of YES, shooting is ended in S15, and a series of processing is ended. If NO, return to S5 and repeat.
As described above, a situation where a member speaks in the parliament is photographed with the
[0037]
FIG. 3 shows a flowchart (part 2) for explaining the operation of the present invention. FIG. 3 is a flowchart for selecting a headword after designating a cutout start position.
In FIG. 3, S25 designates the cutout start position. This is subsequent to S21 to S24 (same as S1 to S4 in FIG. 2), and the cutout position is designated (the cutout position is designated because the legislator approaches the speech stand).
[0038]
In S26, a member name and a question item are selected. Select the member name and question item of the member who is the speaker.
In S28, the cutout end position is designated.
[0039]
In S29, the corresponding section is cut out to a video file.
In S30, the video file name is determined.
In S31, the attribute number is temporarily stored.
[0040]
In S32, a headword is extracted from the attribute number.
Then, through S32 to S35 (same as S12 to S15 in FIG. 2), an HTML file is created based on the video file and the attributes of the members (members ID, member ID, date, question items, etc.) and linked together. And upload to the
[0041]
FIG. 4 shows an explanatory diagram (cutout start / end positions) of the present invention. This is a schematic view showing that a hatched section from the cutout start position to the cutout end position is cut out from the video file (cutout source video file) representing the status of the legislator taken by the
[0042]
As described above, it is possible to automatically cut out a video file (video file after cutout) between the start position and end position by simply specifying the cutout start position and end position from the cutout original video file. It becomes. Then, a file name is given, and attributes (separator name, member ID, question item, etc.) extracted separately can be linked to each other as an HTML file and uploaded to the
[0043]
FIG. 5 shows an example screen of the present invention. This screen example is an example of a screen for registering headwords. Here, the screen information is for registering the following information shown in the figure.
・ Meeting name: 1st regular meeting ・ Date: July 1, 2003 ・ Member of the Diet: Taro Fujitsu ・ Question item: Enter or select the above items on the screen for garbage disposal issues as shown in the figure below When the registration button is pressed, registration is made in association with the attribute number as shown in the attribute information table of FIG.
[0044]
FIG. 6 shows an example of the operation screen of the present invention. This is an example of an operation screen of the assembly video distribution system, and includes the following information and various buttons shown in the figure.
・ Meeting name:
·event date:
・ Representative name:
・ Question items:
·Status:
・ Preview screen:
·button:
-Relay start button-Relay end button-Extraction start button-Extraction end button-Edit screen button-Other:
Here, the name of the meeting, the date of the meeting, the name of the member of the parliament, the question item, and the state are the column for selecting the name of the meeting that the member of parliament intends to shoot with the
[0045]
FIG. 7 is an explanatory diagram of the present invention (example of attribute information table). In the attribute information table, the following information shown in FIG.
・ Attribute number:
・ Meeting name:
·date:
・ Representative name:
・ Representative ID:
・ Sect:
・ Question items:
・ Other:
Here, the attribute number is a unique number assigned to the attribute. The meeting name is the name of the meeting spoken by the member. The date is the date on which the meeting is held. The member name, member ID, and denomination are the member name, member ID, and denomination to speak (question). The question item is a question item asked by a member of the Diet.
[0046]
As described above, by registering and managing the attributes (conference name, date, member name, member ID, question item, etc.) registered in association with the attribute number in the attribute information table, the attribute number is designated and the member It is possible to add the attribute information designated by the attribute number to the video file in the section in which the user said (creates an HTML file and links the two). Then, it is possible to search the attribute information of the text added to the video and view the corresponding video file.
[0047]
FIG. 8 shows an explanatory diagram (HTML) of the present invention.
FIG. 8A shows a screen example, and FIG. 8B shows an HTML file example. The HTML file in FIG. 8B shows an example in which attribute information (see FIG. 7) is linked to a video file. Here, the attribute information shown below is associated with the video file. .
[0048]
・ 1st regular meeting ・ ○○ assembly ・ June 2003 regular meeting question member and question item ・ Representative Taro Fujitsu (ABC party)
・ Waste disposal issues ・ Welfare issues ・ Representative Hanako Fujitsu (Meeting of XYZ)
・ Housing policy Here, when the corresponding video playback button on the right end of the screen shown in FIG. 8A is pressed, the video file linked to the video playback button is automatically played and displayed and sound generated for viewing. It becomes possible.
[0049]
FIG. 9 shows another system configuration diagram of the present invention. Here, 1 to 9 correspond to the
[0050]
In FIG. 9, the headline generating means 5 reads a document (question) that the RF tag reader /
[0051]
The RF tags 51 and 52 are used for reading data wirelessly. Here, the member ID or attribute information is written in advance and is read as necessary.
[0052]
The RF tag reader /
[0053]
The
[0054]
As described above, when a member of the parliament approaches the speech board (or enters through the gate), the legitimate ID is read from the attached
[0055]
FIG. 10 is a flowchart for explaining another operation of the present invention. Here, S41 and S49 to S55 are the same as S1 and S9 to S15 in FIG.
[0056]
In FIG. 10, S42 writes a headword to the RF tag. In this case, a member's name (member's ID) is written on the
[0057]
In S43, shooting is started. In this case, the shooting start button is pressed, and the
In S44, creation of a cut-out source video file is started. In response to the start of shooting by the
[0058]
In S <b> 45, the name of the legislator is detected from the
[0059]
In S46, the question item is detected from the
[0060]
In S47, a cutout start position is designated.
In S48, the cutout end position is designated.
Then, an HTML file is automatically created on the basis of the video of the section from the cutout start position to the cutout end position and the attribute information such as the question item by the procedure of S49 to S55 (S9 to S15 in FIG. 2 described above). The
[0061]
As described above, the situation in which the member of the assembly speaks in the assembly is photographed with the
[0062]
FIG. 11 is a flowchart for explaining another operation of the present invention. Here, S61 to S64 and S69 to S75 correspond to S41 to S44 and S49 to S55 of FIG.
[0063]
In FIG. 11, S65 detects the name of the legislator from the RF tag 51 (when the legitimate unit is cut out, the cut-out start position is detected). This is detected by the RF tag reader /
[0064]
In S66, the question item is detected from the
[0065]
In S67, when the question sheet is removed from the predetermined position, when it is cut out in units of question items, it is detected as a cut-out end position.
In S68, when cutting out in units of members, when the member passes the gate for the second time, it is detected as the cut-out end position. In the case of cutting out in units of members, when the member wearing the
[0066]
According to the procedure from S69 to S75 (S49 to S55 in FIG. 10 described above), the video of the segment from the segmentation start position to the segmentation end position (or the segment from the segmentation start position to the next segmentation start position), and attributes such as question items An HTML file can be automatically created based on the information and uploaded to the
[0067]
As described above, a situation where a member of the Diet speaks in the assembly is photographed with the
[0068]
FIG. 12 is an explanatory diagram of the present invention (when only the cutout start position is detected). This is because when a member of the parliament wearing the
[0069]
【The invention's effect】
As described above, according to the present invention, for a video of a speaker or the like taken in a parliament or the like, the section from the start position to the end position of the speaker's speech is cut out and the attributes of the speaker's name, title, etc. Since the text information is automatically assigned, the video of the speaker (such as a member of the parliament) is automatically cut out, and the text information consisting of attributes such as title and name is linked and stored easily and quickly. It becomes possible. As a result, it is possible to specify and search the attribute information (name, title, etc.) of the text linked and stored with the video, and to easily view (distribute) the corresponding video.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of the present invention.
FIG. 2 is a flowchart (part 1) illustrating the operation of the present invention.
FIG. 3 is a flowchart (part 2) illustrating the operation of the present invention.
FIG. 4 is an explanatory diagram (cutout start / end positions) of the present invention.
FIG. 5 is a screen example (entry word registration) of the present invention.
FIG. 6 is an example of an operation screen according to the present invention.
FIG. 7 is an example of an attribute information table of the present invention.
FIG. 8 is an explanatory diagram (HTML) of the present invention.
FIG. 9 is another system configuration diagram of the present invention.
FIG. 10 is a flowchart illustrating another operation of the present invention.
FIG. 11 is a flowchart illustrating another operation of the present invention.
FIG. 12 is an explanatory diagram of the present invention (when only the cutout start position is detected).
[Explanation of symbols]
1: Camera 2: Video acquisition means 21: Video generation means 22: Cutout source video file 3: Video cutout position detection means 4: Video cutout means 5: Headline generation means 51, 52: RF tag 53: RF tag reader / writer 54: Headline Detection means 55: Headline input means 6: HTML automatic generation means 7: Upload means 8: Server 9: End user (terminal)
Claims (2)
発言者の映像を撮影するカメラと、
前記発言者に当該発言者のIDを書き込んだ第1の無線タグを所持させ、当該発言者が発言台の所定範囲内に入ったと検出あるいは第1の無線タグが検出された時に、前記カメラで撮影した映像から当該発言者の映像の切り出し開始位置とし、一定時間経過してから前記範囲外に出たと検出あるいは第1の無線タグが検出されなくなった時に当該発言者の映像の切り出し終了位置として検出する第1の検出手段と、
前記発言内容を記載した書類に当該書類のタイトルを少なくとも書き込んだ第2の無線タグを添付し、発言者が発言台に第2の無線タグの添付された書類を置いたあるいは発言台に近づいた時に、当該書類に添付された第2の無線タグから発言のタイトルを少なくとも読み取って属性とする第2の検出手段と、
前記第1の検出手段により検出された切り出し開始位置および終了位置で挟まれる区間の映像を切り出して前記発言者の氏名、および前記第2の検出手段により検出された発言のタイトルを含む属性からなるテキスト情報を付加する手段と
を備えたことを特徴とする配信映像蓄積装置。 For video taken with a camera, in a distribution video storage device that cuts out the video of the speaker and assigns it to the video,
A camera that captures the video of the speaker,
When the speaker has the first wireless tag in which the ID of the speaker is written and the speaker is detected to be within a predetermined range of the speaker, or when the first wireless tag is detected , the camera The cutout start position of the speaker's video from the captured video, and the cutout end position of the speaker's video when it is detected that the speaker has gone out of the range after a certain period of time or the first wireless tag is no longer detected first detecting means for detecting as,
Attach a second wireless tag with at least the title of the document to the document describing the content of the statement, and the speaker puts the document attached with the second wireless tag on the statement table or approaches the statement table A second detection means that at least reads the title of the message from the second wireless tag attached to the document and sets the attribute;
The video includes an attribute including the name of the speaker and the title of the speech detected by the second detection means by cutting out the video of the section sandwiched between the extraction start position and the end position detected by the first detection means. A distribution video storage apparatus comprising means for adding text information.
発言者の映像を撮影するカメラを備え、
前記発言者に当該発言者のIDを書き込んだ第1の無線タグを所持させ、当該発言者が発言台の所定範囲内に入ったと検出あるいは第1の無線タグが検出された時に、前記カメラで撮影した映像から当該発言者の映像の切り出し開始位置とし、一定時間経過してから前記範囲外に出たと検出あるいは第1の無線タグが検出されなくなった時に当該発言者の映像の切り出し終了位置として検出する第1の検出ステップと、
前記発言者の発言内容を記載した書類に当該書類のタイトルを少なくとも書き込んだ第2の無線タグを添付し、当該発言者が発言台に第2の無線タグの添付された書類を置いたあるいは発言台に近づいた時に、当該書類に添付された第2の無線タグから当該発言者の発言のタイトルを少なくとも読み取って属性とする第2の検出ステップと、
前記第1の検出ステップにより検出された切り出し開始位置および終了位置で挟まれる区間の映像を切り出して前記発言者の氏名、および前記第2の検出ステップにより検出された発言のタイトルを含む属性からなるテキスト情報を付加するステップと
を有する配信映像蓄積方法。 For the video taken by the camera, in the delivery video storage method of cutting out the video of the speaker and adding and storing it,
It has a camera that takes pictures of the speakers,
When the speaker has the first wireless tag in which the ID of the speaker is written and the speaker is detected to be within a predetermined range of the speaker, or when the first wireless tag is detected , the camera The cutout start position of the speaker's video from the captured video, and the cutout end position of the speaker's video when it is detected that the speaker has gone out of the range after a certain period of time or when the first wireless tag is no longer detected A first detection step for detecting as
Attach a second wireless tag with at least the title of the document to the document that describes the content of the speaker's speech, and the speaker places the document with the second wireless tag on the floor. A second detection step that reads at least the title of the speaker's speech from the second wireless tag attached to the document when it approaches the table,
The video includes an attribute including the name of the speaker and the title of the speech detected by the second detection step by cutting the video of the section sandwiched between the clipping start position and the end position detected by the first detection step. A distribution video storage method including the step of adding text information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003185490A JP4113806B2 (en) | 2003-06-27 | 2003-06-27 | Delivery video storage device and delivery video storage method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003185490A JP4113806B2 (en) | 2003-06-27 | 2003-06-27 | Delivery video storage device and delivery video storage method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005020605A JP2005020605A (en) | 2005-01-20 |
JP4113806B2 true JP4113806B2 (en) | 2008-07-09 |
Family
ID=34184924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003185490A Expired - Fee Related JP4113806B2 (en) | 2003-06-27 | 2003-06-27 | Delivery video storage device and delivery video storage method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4113806B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4372729B2 (en) * | 2005-07-13 | 2009-11-25 | シャープ株式会社 | Real world communication management device |
JP4962783B2 (en) | 2007-08-31 | 2012-06-27 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP7194562B2 (en) * | 2018-11-05 | 2022-12-22 | 東京瓦斯株式会社 | Information processing method and information processing system |
-
2003
- 2003-06-27 JP JP2003185490A patent/JP4113806B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005020605A (en) | 2005-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7616840B2 (en) | Techniques for using an image for the retrieval of television program information | |
JP4466564B2 (en) | Document creation / viewing device, document creation / viewing robot, and document creation / viewing program | |
US7779355B1 (en) | Techniques for using paper documents as media templates | |
US6499016B1 (en) | Automatically storing and presenting digital images using a speech-based command language | |
US9837077B2 (en) | Enhanced capture, management and distribution of live presentations | |
US7831598B2 (en) | Data recording and reproducing apparatus and method of generating metadata | |
JP4453392B2 (en) | System and method for bookmarking live and recorded multimedia documents | |
US7680360B2 (en) | Information processing system and information processing method | |
US20020091658A1 (en) | Multimedia electronic education system and method | |
JP3895892B2 (en) | Multimedia information collection management device and storage medium storing program | |
KR101887400B1 (en) | Method for providing c0ntents editing service using synchronization in media production enviroment | |
JP2001028722A (en) | Moving picture management device and moving picture management system | |
JP2002207753A (en) | Multimedia information recording, forming and providing system | |
JP2005341015A (en) | Video conference system with minute creation support function | |
US7921074B2 (en) | Information processing system and information processing method | |
JP2002202905A (en) | Data accumulation method and device, and storage medium | |
JP2002109099A (en) | System and device for recording data and video image/ voice, and computer readable recording medium | |
US7929766B2 (en) | Identifiers for digital media | |
JP4113806B2 (en) | Delivery video storage device and delivery video storage method | |
JPH11266422A (en) | Broadcast program management system, broadcast program management method, and recording medium recorded with broadcast program management processing program | |
CN101471115B (en) | Photographing apparatus and photographing method | |
JP4233362B2 (en) | Information distribution apparatus, information distribution method, and information distribution program | |
JP2753538B2 (en) | Multimedia database storage and retrieval device | |
JP2004279897A (en) | Method, device, and program for voice communication record generation | |
JP2002288178A (en) | Multimedia information collection and management device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070911 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080110 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080318 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080414 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110418 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110418 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120418 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130418 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140418 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |