[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3558052B2 - Multimedia execution system, multimedia file execution method, and multimedia file structure readable by sequencer - Google Patents

Multimedia execution system, multimedia file execution method, and multimedia file structure readable by sequencer Download PDF

Info

Publication number
JP3558052B2
JP3558052B2 JP2001139115A JP2001139115A JP3558052B2 JP 3558052 B2 JP3558052 B2 JP 3558052B2 JP 2001139115 A JP2001139115 A JP 2001139115A JP 2001139115 A JP2001139115 A JP 2001139115A JP 3558052 B2 JP3558052 B2 JP 3558052B2
Authority
JP
Japan
Prior art keywords
sequence
display
information
track
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001139115A
Other languages
Japanese (ja)
Other versions
JP2002055782A (en
Inventor
卓朗 曽根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001139115A priority Critical patent/JP3558052B2/en
Publication of JP2002055782A publication Critical patent/JP2002055782A/en
Application granted granted Critical
Publication of JP3558052B2 publication Critical patent/JP3558052B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Management Or Editing Of Information On Record Carriers (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、音、画像、テキストなどの様々な種類のマルチメディア情報を扱うマルチメディア実行システムに関する。
【0002】
【従来の技術】
マルチメディア情報をユーザ側からみて一元的に扱っているものとしては、例えばインターネット上のコンテンツの閲覧ソフト(以下、ブラウザという)がある。ユーザは、パソコン画面上でこのブラウザを操作することによって、1つの画面上で音、画像、テキストなどのマルチメディア情報を扱うことが可能である。通常は、各情報はサーバ内の異なったパスで定義される箇所に記憶されており、ブラウザは、それぞれの情報を個別に取り出して1つの画面上で再現する。このようなインターネット上の情報は、すべて、HTML(Hyper TextMarkup Language)言語で扱う事が可能であって、ブラウザはこのHTML言語を解釈することによって情報のアウトプットを行なう。
【0003】
また、HTML言語とは異なった言語で記述され、音や画像(特に動画)を同期して再現するソフトウェアもインターネット上で実用化されている。このソフトウェアが扱うファイル構造は、音の情報と画像の情報を一体化したものであって、1つのファイルとして取り扱うことが可能になっている。
【0004】
【発明が解決しようとする課題】
しかしながら、HTML言語で記述できるマルチメディア情報は、特定の箇所に記憶されている情報を静的(スタティック)に読み出して再現するだけであって、各情報を同期して動的(ダイナミック)に再現するものではない。このため、コンテンツの内容を微妙にコントロールして、特に画像や音声を時間的に完全に同期して再現するといったことが不可能である。
【0005】
また、音の情報と画像の情報を1つのファイル形式で扱う従来のものは、各情報が全く独立して最初から再生されるだけであるために、途中でジャンプしたり情報間の細かい同期を取ることができない不都合があった。
【0006】
この発明の目的は、マルチメディア情報の取扱いを極めて容易にすると共に、各情報間のきめ細かな同期制御を可能にするマルチメディア実行システムを提供することにある。
【0007】
【課題を解決するための手段】
この発明は、上記の課題を解決するために以下のように構成される。
【0008】
(1) 演奏シーケンス情報が記憶される演奏シーケンストラックと、描画シーケンス情報が記憶される描画シーケンストラックと、各シーケンストラックのシーケンス動作に対し、任意の位置において停止・分岐・繰り返し等の時間軸方向の制御を行う各シーケンストラックの同期情報が記憶されるマスタートラックと、を同一のファイル内に組み込んだマルチメディアファイルの記憶部と、
前記マルチメディアファイルのシーケンス動作と前記同期情報に基づくシーケンス動作の制御を実行するシーケンサと、
前記シーケンサと通信を行い前記同期情報に基づくシーケンス動作の制御の情報を受けることによりマルチメディアファイルの実行開始、実行停止等の実行制御を行うアプリケーションプログラムの記憶部と、
前記アプリケーションプログラムを実行するプログラム実行部と、を備え、
前記記憶部のマルチメディアファイルに組み込まれる前記演奏シーケンストラック、描画シーケンストラックおよびマスタートラックはいずれも、イベントと、イベント間の時間間隔を指定するデュレーションとの組み合わせにより構成されることを特徴とする
この発明のシステムに使用されるマルチメディアファイルでは、複数の種類の情報が記録される複数のシーケンストラックと共に各シーケンストラックの同期情報が記録されるマスタートラックが同一ファイル内に組み込まれる。このマスタートラックは、上記各シーケンストラックと同じ種類のシーケンストラックの構造とする。複数の種類の情報は、演奏シーケンス情報と描画シーケンス情報を含み、さらにはオーディオシーケンス情報も含むことが可能である。演奏シーケンス情報は、通常は、MIDIまたはMIDI相当のシーケンス情報であり、描画シーケンス情報は、テキスト、2値画像、任意画像を含むことができる。オーディオシーケンス情報は、ADPCM(Adaptive Differential Pulse Code Modulation)データで構成することができる。また、TwinVQ(商標)やMP3等の圧縮オーディオデータで構成することも可能である。
【0009】
この発明のマルチメディア実行システムでは、上記マルチメディアファイルを記憶する記憶部と、このマルチメディアファイルのシーケンス動作を実行するシーケンサと、シーケンサと通信を行うことによりマルチメディアファイルの実行開始、実行停止などの実行制御を行なうアプリケーションプログラムの記憶部と、このアプリケーションプログラムを実行するプログラム実行部とを備えている。これにより、シーケンス動作中に、各シーケンストラックの情報間の同期が同期情報によってとられるために、この同期情報の記述の仕方によって、各シーケンストラック間の情報の同期をきめ細かく設定することができる。また、シーケンサとアプリケーションプログラム間が通信することによって、前記同期情報によってシーケンス動作の制御が行われたときに、その情報をアプリケーションプログラムが知ることができる。これにより、アプリケーションプログラムで前記同期情報に関連して様々な制御を行うことが可能になる。
【0010】
(2) 前記マルチメディアファイルは、前記マスタートラックを有し、また、同期情報として、各シーケンストラックのシーケンス動作を任意の位置で停止・分岐・繰り返し等の時間軸方向の制御情報を記憶することを特徴とする。
【0011】
同期情報を記憶する同期情報記憶手段として各シーケンストラックと同じシーケンス動作をするマスタートラックを設けることにより、同期情報の記述が容易になる。また、同期情報として、各シーケンストラックのシーケンス動作を停止・分岐・繰り返しなどの時間軸方向の制御情報を記憶することにより、シーケンス動作の途中でアプリケーションプログラムとの間で通信を行いながら任意の制御が可能になる。例えば、同期情報としてシーケンス動作を停止する制御情報を記憶しておくと、このタイミングになった時にアプリケーションプログラムでユーザによるデータ入力や、サーバに対する特定のデータの発信・要求を行なったりすることが可能になる。これにより、シーケンス動作中にユーザの入力やサーバからの情報に基づいてシーケンス動作を制御することが可能になる。例えば、同期情報としてシーケンス動作を停止する情報が記憶されていた場合、そのタイミングになった時にユーザの入力によって分岐先を指定することができる。また、描画シーケンストラックにコマーシャル情報が記録されている場合、そのコマーシャルの終了するタイミングに同期情報としてシーケンス動作の停止情報が記録されている場合、サーバに対してコマーシャルが終了したことを通知できるようになる。
【0012】
(3) 前記描画シーケンストラックは、表示オブジェクトを指定する表示イベントと表示イベント間の時間間隔を指定するデュレーションとを記述することで構成され、前記表示イベントは、表示オブジェクトの複数の座標表現形式を指定可能とすることを特徴とする。
【0013】
この発明のマルチメディアファイルは、描画シーケンストラックにおいて、表示イベント内で定義される表示オブジェクトの座標表現形式を複数の座標表現形式の中から指定可能としている。このため、その時に使用する表示デバイスに対して最適な表示位置の指定が可能になる。表示形式として、少なくとも、画面サイズおよび表示オブジェクトのサイズを元に表示位置を比率で指定するレイアウト情報指定形式を含むようにしておけば、画面の大きさに応じて自動的に表示オブジェクトの縮尺が決定される。
【0014】
このように、表示イベントが、表示オブジェクトの複数の座標表現形式を指定可能としておくことによって、その時に使用する表示デバイスに対して最適な表示位置の指定を可能にする。これにより、マルチメディアファイル(コンテンツ)の流通の範囲を広げることができる。
【0015】
(4) 前記表示イベントは、表示オブジェクトのタイプを含む表示オブジェクト定義情報を記述したプライマリイブロックと、該プライマリイブロックで表した内容に動的な表示修飾を加える表示修飾シーケンス情報を記述した補助ブロックと、を含み、表示修飾シーケンス情報は相互に動作の影響を及ぼさない複数の表示修飾シーケンス情報から任意に選択された一つ以上の表示修飾シーケンス情報で構成される.
この発明では、表示オブジェクトの基本的な情報を定義するプライマリイブロックと、このプライマリイブロックで表した内容に動的な表示修飾を加える表示修飾シーケンス情報を含む補助ブロックとを表示イベントに記述することが可能である。この場合、表示修飾シーケンス情報は相互に動作の影響を及ぼさない情報であるために、表示オブジェクトの動きに合わせて、最適な表示修飾シーケンス情報を容易に組み合わせることが可能である。各表示修飾シーケンス情報を単純な機能表現の情報としておけば、表示内容の複雑な動きを、単純な機能表現の組み合わせで容易に提供することができる。また、このことからコンテンツ制作も容易になる。
【0016】
【発明の実施の形態】
図1は、この発明の実施形態であるマルチメディア実行システムのハードウェアの構成図である。なお、図1に示すような各構成部を備えていれば、マルチメディア実行システムのハードウェアとして、コンピュータ端末、携帯端末、携帯電話を含む様々な形態のものを利用することが出来る。
【0017】
実行制御部1は、CPU、ROM、RAMなどを含み、シーケンサ(プログラム)やアプリケーションプログラムの実行、入出力制御などを行なう。この実行制御部1に対して、シーケンサ(プログラム)記憶部2、アプリケーション(プログラム)記憶部3、およびマルチメディアファイルの格納された記憶部4が接続されている。マルチメディアファイルは、後述するように、演奏シーケンストラック、描画シーケンストラック、オーディオシーケンストラック、マスタートラックおよびコンテンツ情報記憶部を同一のファイル内に組み込んだものであって、この実施形態では、このファイルをSMAF(Synthetic Music Mobile Application Format)ファイルと称する。記憶部4には、1番からn番目までのSMAFファイルが記憶されており、アプリケーション記憶部3やユーザからの入力情報によっていずれかのSMAFファイルが選択される。
【0018】
実行制御部1には、音源デバイス5、表示デバイス6、オーディオデバイス7が接続される。
【0019】
音源デバイス5には、SMAFファイル内の演奏シーケンス情報が入力され、ここで演奏信号に変換される。演奏シーケンス情報は、本実施形態ではMIDIシーケンス情報であり、音源デバイス5には、MIDI音源デバイスが使用される。
【0020】
表示デバイス6には、SMAFファイル内の描画シーケンス情報が入力する。描画シーケンス情報は、後述のように、テキスト、2値画像、任意画像のいずれかのシーケンス情報であり、表示デバイス6は、これらの情報を画像信号に変換する。
【0021】
オーディオデバイス7は、SMAFファイル内のオーディオシーケンス情報が入力し、オーディオ信号に変換する。この実施形態では、オーディオシーケンス情報はADPCM情報であり、オーディオデバイス7は、このADPCM情報をアナログのオーディオ信号に変換する。
【0022】
楽音・音声出力部8は、音源デバイス5およびオーディオデバイス7の出力を合成したものをスピーカ8aから出力する。モニタ9は、表示デバイス6からの画像出力を表示画面上に表示する。
【0023】
実行制御部1には、さらに、入力部10と通信部11とが接続されている。入力部10には、キーボードやマウスなどを含む操作部12が接続され、通信部11は、有線あるいは無線によるインターネット等のコンピュータネットワークもしくは公衆回線網等の通信回線によって、図外のサーバに接続されている。
【0024】
図2は、上記マルチメディア実行システムのソフトウェアの構成図である。
【0025】
20はSMAFファイルである。このSMAFファイル20は、コンテンツ情報記憶部21、演奏シーケンストラック22、描画シーケンストラック23、オーディオシーケンストラック24、マスタートラック25で構成され、これらが1つのファイル内に一体的に組み込まれている。
【0026】
コンテンツ情報記憶部21は、SMAFファイル20全体の内容に関する情報を記憶する。演奏シーケンストラック22は演奏シーケンス情報を、描画シーケンストラック23は描画シーケンス情報を、オーディオシーケンストラック24はオーディオシーケンス情報をそれぞれ記憶する。マスタートラック25は、各シーケンストラック22〜24の同期情報を記憶する。このマスタートラック25は、各シーケンストラック22〜24の同期情報を記憶するものであるが、このトラック25自身もシーケンストラックとなっている。
【0027】
シーケンサ26は、これらの演奏シーケンストラック22、描画シーケンストラック23、オーディオシーケンストラック24、マスタートラック25のシーケンス動作を制御する。各シーケンストラックは、イベントとデュレーションを組み合わせて構成され、デュレーションはイベント間の時間間隔を指定する。したがって、シーケンストラックの先頭からデュレーションを積算することで、イベントの実行開始時刻を知ることができる。また、イベント自体の処理に時間がかかったとしても、シーケンスデータ上の時間経過には影響を与えない。時間経過はイベント処理に無関係にデュレーションで表現できることになる。詳細については後述するように、マスタートラック25は、同期情報としてポーズ(停止)イベント、分岐イベント、繰り返しイベントなどの時間軸方向の制御情報を記憶している。これらのイベントが発生した時には、マスタートラック25からシーケンサ26に対しポーズ、分岐、繰り返しなどのシーケンス制御を行なうよう指令する。例えば、ポーズイベントが発生した時には、各シーケンストラック22〜25のシーケンス動作が一時停止する。また、分岐イベントが発生した時には、各シーケンストラックのシーケンス動作ポイントが同時に特定の位置に分岐する。
【0028】
演奏シーケンストラック22のシーケンス出力は、音源デバイス27に入力し、音として出力される。描画シーケンストラック23の出力は表示デバイス28に出力され、表示モニタ上に描画される。オーディオシーケンストラック24の出力はオーディオデバイス29に出力され、音として出力される。
【0029】
シーケンサ26は、アプリケーションプログラム30によって制御される。このアプリケーションプログラム30は、シーケンサ26を制御可能なものであればどのようなものであってもよい。アプリケーションプログラム30からは、シーケンサ26に対して、スタート/ストップ信号や、スティタスリード信号が出力される。またシーケンサ26は、アプリケーションプログラム30に対してスティタス(状態)を通知する。例えば、マスタートラック25のイベントとしてポーズイベントが発生した時、シーケンサ26は、シーケンス動作をポーズ状態(一時停止状態)にしてアプリケーションプログラム30に対してスティタス通知を行い、アプリケーションプログラム30が、このスティタス内容をリードする。この場合のスティタス内容は、ポーズ(一時停止)である。アプリケーションプログラム30は、そのスティタスの内容に応じて、ユーザインターフェイス31を介して、ユーザに対し所定の表示を行なったり、またはユーザからの入力操作を待つ。また、通信インターフェイス32を介して、サーバとの間でデータとのやりとりを行なう。ポーズ状態を抜けるイベントが発生すると(このイベントは、アプリケーションプログラム30が決める。例えばユーザ入力があった場合)、アプリケーションプログラム30はシーケンサ26に対し、再スタートの指令を行う。
【0030】
このようにして、シーケンサとアプリケーションプログラム間のデータ通信が行われる。
【0031】
図3は、シーケンストラックのデータ構造を示している。
【0032】
先に述べたように、シーケンスデータは、イベントEとデュレーションDを組み合わせて記述することによって表現されている。データ列はイベントEから開始し、データの終端にはシーケンス終了データであるEOSが置かれる。ライフタイムは、イベントの有効長さを表す。例えば、演奏シーケンス情報であれば、発音時間である。デュレーションDは、イベント間の時間間隔を指定している。このため、デュレーション値をデータの先頭から累積することによって、特定のイベントの開始時刻を決定することができる。例えば、イベント3の開始時刻は、時刻0にデュレーション1と2の加算値を加えた時刻である。また、イベント3の開始時刻からイベント1に分岐するには、イベント3の開始時刻から、デュレーション1とデュレーション2を加算した値を差し引く。このような方法によって、各シーケンストラックのシーケンス動作を任意に制御することができる。マスタートラック25には、この制御内容、すなわち各シーケンストラックの同期情報が記述されている。なお、この実施形態では、シーケンスデータはイベントEとデュレーションDとが交互に記述されるようにしているが、必ずしも交互に記述されていなくても良い。
【0033】
図4は、図2においてシーケンサ26とアプリケーションプログラム30との概略の動作を示している。
【0034】
処理が開始されると、シーケンサ26では初期設定(ステップ100)が行なわれた後、シーケンス動作をスタートするのを待つ。アプリケーションプログラム30からシーケンススタート命令を受けると(ステップ200)(ステップ101)、シーケンサ26でのシーケンス動作が開始し(ステップ102)、マスタートラック25のイベント発生を監視する(ステップ103)。マスタートラック25のイベントは、ここではチェックポイントイベントと称する。シーケンサ26は、このチェックポイントイベントが発生すると、アプリケーションプログラム30に対してスティタス通知を行い、チェックポイントイベントの内容を送信する(ステップ104)。アプリケーションプログラムでは、ステップ201において、このスティタスを受信し、その内容に応じた処理を行なう(ステップ202)。例えば、チェックポイントイベントがポーズイベントであれば、アプリケーションプログラムが、そのポーズイベントに対応してユーザからの入力待ちの処理を行なう。或いは、ポーズイベントに対応して、通信インターフェイス32を介して、サーバから特定のデータをダウンロードしたりあるいは特定のデータをアップロードする。アプリケーションプログラム30では、このステップ202の処理に応じて、さらに、シーケンサ26に対し所定の指示を出す。すなわち、ユーザからの入力内容やサーバからのデータに応じて、各シーケンストラックの制御を行なう。シーケンサ26では、ステップ105において、上記アプリケーションプログラム30からの指示に対応する処理をする。シーケンサ26では、以上の処理を行なった後、シーケンスが終了していない場合には再びステップ103以下の動作を行い、アプリケーションプログラム30では、プログラムが終了していない場合には、再びステップ201に戻る。
【0035】
図5は、時間軸上の動作例を示している。シーケンス動作がスタートすると、演奏シーケンストラック22、描画シーケンストラック23、オーディオシーケンストラック24、マスタートラック25のシーケンス動作が同時に先頭から開始し、それぞれのシーケンス内容に応じた再生が行なわれていく。今、コンテンツが曲データ、画像、オーディオデータで構成されているものとすると、マスタートラック25のポーズイベントPEV1が発生したとき、シーケンサ26でのシーケンス動作が停止し、アプリケーションプログラム30によってユーザインターフェイスからのユーザ入力を待つ。ここで、特定のキー入力があると、アプリケーションプログラム30がスタート命令を出して、次に2番めの曲データ、画像2、オーディオデータ2の再生を開始する。
【0036】
図1および図2において、SMAFファイル20は、シーケンサ26やアプリケーションプログラム30とは独立しているために、このSMAFファイル20を、任意の記憶媒体や伝送媒体を介して流通させることが可能である。また、アプリケーションプログラム30も、シーケンサ26と独立したプログラムであるために、このプログラムに任意の機能を持たせることができる。したがって、コンテンツの流通性が高く、また、システム全体の拡張性、自由度が極めて大きい。
【0037】
なお、マスタートラック25のチェックポイントイベントとしては、上記のようなポーズイベントのほか、分岐イベントや繰り返しイベントなどがある。分岐イベントは、時間軸上の任意の位置に分岐することを指示する内容を持ち、繰り返しイベントは、一定のシーケンス期間を繰り返すことを指示する内容を持つ。この他、時間軸方向の様々な制御情報をチェックポイントイベントとして記憶させることが可能である。
【0038】
次に、描画シーケンストラック23のイベント記述方式について説明する。
【0039】
先に述べたように、この描画シーケンストラック23の記述も、イベント(表示イベント)と表示イベント間の時間間隔を指定するデュレーションとの交互の記述によって構成される。
【0040】
表示イベントは、表示オブジェクトの表示位置を指定することが必要である。この実施形態では、この表示イベントは、表示オブジェクトの座標表現形式を複数の中から選択できるようにしている。
【0041】
図6は、選択可能な座標表現形式を示している。同図(A)は標準座標指定、同図(B)は対称座標指定、同図(C)はレイアウト情報座標指定の各表現形式を示している。
【0042】
標準座標指定は、座標原点を表示画面の左上とし、X軸は右が正方向、Y軸は下が正方向とする。そして、表示オブジェクトGの左上の座標を指定する。
【0043】
対称座標指定は、座標原点を表示画面の右下とし、X軸は左が正方向、Y軸は上が正方向とする。そして、表示オブジェクトGの右下の座標を指定する。
【0044】
レイアウト情報座標指定は、X方向およびY方向とも100分率で位置を指定する。X方向には、0を左詰、50をセンタリング、100を右詰とする。また、Y方向には0を上詰、50をセンタリング、100を下詰とする。図6(C)に示す例では、表示オブジェクトG1はX方向に左詰、G2はX方向にセンタリング、G3はX方向に右詰となっている。
【0045】
なお、X座標およびY座標それぞれ独立に、いずれかの座標表現形式を指定可能となっている。
【0046】
座標表現形式をこのように複数の中から指定可能とすることによって、複数のタイプの表示モニタに適合した形式を選択することが可能になる。例えば、レイアウト情報座標指定の座標表現形式を選択しておくと、そのSMAFファイルを表示画面の面積の異なるシステムに適用した場合でも、同じ表示状態とすることができる。また、1つのオブジェクトの指定を標準座標指定と対称座標指定のどちらでも適用可能としておくことで、表示オブジェクトの位置によって、より簡単に指定可能な方を選択できるようになる。このことは、シーケンスデータの作成を容易にする利点につながる。
【0047】
また、一旦指定した座標表現形式を、次に新たな座標表現形式が指定されるまでデフォルトの表現形式として保持されるようにしている。このため、座標表現形式が変わった時にだけその新たな座標表現形式を指定すればよく、シーケンスデータの見やすさとメモリ消費量の節約を図ることができる。
【0048】
本システムでは、さらに、表示イベントの記述方法を工夫することによって、複雑な動きを表現することが可能である。以下、これについて詳述する。
【0049】
表示イベントは、表示オブジェクトのタイプ、サイズ、内容を含む表示オブジェクト定義情報を記述したプライマリイブロックと、このプライマリイブロックで表した内容に動的な表現修飾を加える表示修飾シーケンス情報を記述した補助ブロックとを含んでいる。
【0050】
プライマリイブロックは、基本的な情報を含むために、表示イベントに必須の情報であり、補助ブロックは、適宜選択することのできるブロックである。
【0051】
また、補助ブロックの表示修飾シーケンス情報は、相互に動作の影響を及ぼさない複数の表示修飾シーケンス情報から任意に選択された1つ以上の表示修飾シーケンス情報で構成される。
【0052】
プライマリイブロックに記述される表示オブジェクト定義情報には、表示オブジェクトのタイプ、サイズ、内容が記述される。表示オブジェクトのタイプには、テキスト、2値画像(ビットマップ)、任意画像(イメージ)がある。
【0053】
表示修飾シーケンス情報には、以下に示すものがある。
【0054】
(1) 画像変換シーケンス(表示内容の変更)
(a) 色替えシーケンス
例えば、カラオケの色替えなど、表示されているテキストなどを時間的に変化させる。ネオンサインのような画像のフラッシングも表現できる。
【0055】
(b) 画像変形シーケンス
画像を時間と共に変化させる。
【0056】
(2) バナーシーケンス(表示画面への投影方法の指定)
(a) 表示枠に文字列を流し込んで表示する。
【0057】
(b) 表示枠の一部を投影し、投影位置を時間と共に変化させて表示する。
【0058】
(3) 移動シーケンス(表示位置の変更)
(a) 表示枠を表示する画面上の位置を時間と共に変化させる。
【0059】
(4) 表示ウィンドウ変更シーケンス
(a) 表示枠の大きさを時間と共に変化させる。
【0060】
(5) 表示切替シーケンス
(a) プライマリイブロックが複数指定されている場合、これらのブロックの切り替えを行なう。
【0061】
(b) 2つの表示対象画像(画面上に表れている画像)を時間と共に切り替えて表示する。
【0062】
例えば、ワイプ(左から右方向に画像をワイプしながら切り替える)、ディゾルブ(複数分割した各ブロック画面でワイプ動作が行なわれる)、フェード(最初の画面が消えていくような感じで画面切り替えを行なう)などがある。
【0063】
以上の表示修飾シーケンス情報は、それぞれ相互に動作の影響を及ぼすことがない。このため、2つ以上の表示修飾シーケンス情報を組み合わせても、それらの個々のシーケンス情報によって実現される作用がプラスされるだけである。したがって、例えば、複数の表示修飾シーケンス情報を組み合わせて以下のような表示修飾を行なうことが可能である。
【0064】
(1) 色替え+バナー
(a) 表示枠をテロップが流れながら、途中でテロップの色が変わる。
【0065】
(2) 色替え+バナー+移動
(a) 表示枠をテロップが流れながら、途中でテロップの色が変わり、さらに表示枠の位置が時間と共に移動する。
【0066】
(3) 色替え+バナー+移動+表示ウィンドウ変更
(a) 表示枠をテロップが流れながら、途中でテロップの色が変わり、また表示枠の位置が時間と共に移動し、さらに、表示枠が時間と共に小さくなって消えたり再び表れたりする。
【0067】
このように、各表示修飾シーケンス情報は、相互に動作の影響を及ぼさないような機能を持ち、上記複数の表示修飾シーケンス情報の中から、任意のものを選択することができる。
【0068】
図7は、表示イベントの一般的記述形式を示している。上から、イベントタイプ、イベントサイズ、ライフタイム、座標指定、プライマリイブロック、任意の数の補助ブロックが記述される。補助ブロックはオプションであり、少なくともプライマリイブロックがあれば良い。しかし、補助ブロックを記述することで、上述のように種々の表現を簡単に実現することができる。
【0069】
なお、上記の実施形態では、同期情報記録手段を、マスタートラックとしたが、各シーケンストラック内に同期情報を書き込むようにしても良い。
【0070】
【発明の効果】
この発明によれば、複数の種類の情報が記録される複数のシーケンストラックと共に各シーケンストラックの同期情報が記録される同期情報記録手段を同一ファイル内に組み込んでマルチメディアファイルを構成したため、シーケンス動作中に、各シーケンストラックの情報間の同期が同期情報によってとられる。このため、この同期情報の記述の仕方によって、各シーケンストラック間の情報の同期をきめ細かく制御することができる。
【0071】
また、シーケンサとアプリケーションプログラム間が通信することによって、前記同期情報によってシーケンス動作の制御が行われたときに、その情報をアプリケーションプログラムが知ることができる。これにより、アプリケーションプログラムで前記同期情報に関連して様々な制御を行うことが可能になる。
【0072】
また、同期情報を記憶する同期情報記憶手段として各シーケンストラックと同じシーケンス動作をするマスタートラックを設けることにより、同期情報の記述が容易になる。
【0073】
また、表示イベントが、表示オブジェクトの複数の座標表現形式を指定可能であるため、その時に使用する表示デバイスに対して最適な表示位置の指定を可能にする。これにより、コンテンツの流通の範囲を広げることができる。
【0074】
また、表示イベントは、表示オブジェクトの基本的な情報を定義するプライマリイブロックと、このプライマリイブロックで表した内容に動的な表示修飾を加える一つ以上の組み合わせの表示修飾シーケンス情報が含まれる補助ブロックとで記述が可能であり、また、表示修飾シーケンス情報は相互に動作の影響を及ぼさない情報であるために、表示オブジェクトの動きにあわせて、最適な表示修飾シーケンス情報を容易に組み合わせることが可能である。各表示修飾シーケンス情報を単純な機能表現の情報としておけば、表示内容の複雑な動きを、単純な機能表現の組み合わせで容易に提供することができる。また、このことからコンテンツ制作も容易になるという効果がある。
【図面の簡単な説明】
【図1】この発明の実施形態であるマルチメディア実行システムのハードウェア概略構成図
【図2】同マルチメディア実行システムのソフトウェア構成図
【図3】シーケンス動作を示す図
【図4】シーケンサおよびアプリケーションプログラムの概略動作を示すフローチャート
【図5】マスタートラックの機能を説明する図
【図6】表示イベントの座標表現形式を示す図
【図7】表示イベントの一般的記述内容を示す図
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a multimedia execution system that handles various types of multimedia information such as sounds, images, texts, and the like.
[0002]
[Prior art]
For example, there is software for browsing contents on the Internet (hereinafter referred to as a browser) as one that handles multimedia information in a centralized manner from the viewpoint of a user. By operating this browser on the personal computer screen, the user can handle multimedia information such as sound, image, text, etc. on one screen. Normally, each piece of information is stored in a location defined by a different path in the server, and the browser takes out each piece of information individually and reproduces it on one screen. All such information on the Internet can be handled in HTML (Hyper Text Markup Language) language, and the browser outputs the information by interpreting the HTML language.
[0003]
Further, software that is described in a language different from the HTML language and reproduces sounds and images (especially moving images) in synchronization with each other has been put to practical use on the Internet. The file structure handled by this software integrates sound information and image information, and can be handled as one file.
[0004]
[Problems to be solved by the invention]
However, multimedia information that can be described in the HTML language simply reproduces information stored in a specific location by statically reading out the information, and dynamically reproduces the information synchronously. It does not do. For this reason, it is impossible to delicately control the content of the content, and in particular, to reproduce an image or a sound in perfect synchronization with time.
[0005]
Further, in the conventional apparatus which handles sound information and image information in one file format, since each information is reproduced completely independently from the beginning, jumping in the middle and fine synchronization between information are not performed. There was an inconvenience that could not be taken.
[0006]
SUMMARY OF THE INVENTION An object of the present invention is to provide a multimedia execution system which makes handling of multimedia information extremely easy and enables fine synchronization control between pieces of information.
[0007]
[Means for Solving the Problems]
The present invention is configured as follows in order to solve the above-mentioned problem.
[0008]
(1) A performance sequence track in which performance sequence information is stored, a drawing sequence track in which drawing sequence information is stored, and a sequence operation of each sequence track. At any position Synchronization information of each sequence track for performing control in the time axis direction such as stop, branch, and repetition is stored. Master track And a multimedia file storage unit incorporating the same in the same file,
A sequencer that controls the sequence operation of the multimedia file and the sequence operation based on the synchronization information,
A storage unit of an application program that communicates with the sequencer and performs execution control such as execution start and stop of a multimedia file by receiving information of control of a sequence operation based on the synchronization information,
A program execution unit that executes the application program,
Each of the performance sequence track, the drawing sequence track, and the master track incorporated in the multimedia file in the storage unit is configured by a combination of an event and a duration that specifies a time interval between the events. .
In the multimedia file used in the system of the present invention, synchronization information of each sequence track is recorded together with a plurality of sequence tracks in which a plurality of types of information are recorded. Master track Are included in the same file. this The master track is , A sequence track of the same type as each of the above-mentioned sequence tracks. The plurality of types of information include performance sequence information and drawing sequence information, and can also include audio sequence information. The performance sequence information is usually MIDI or sequence information corresponding to MIDI, and the drawing sequence information can include a text, a binary image, and an arbitrary image. The audio sequence information can be composed of ADPCM (Adaptive Differential Pulse Code Modulation) data. Further, it can be composed of compressed audio data such as TwinVQ (trademark) or MP3.
[0009]
In the multimedia execution system according to the present invention, a storage unit that stores the multimedia file, a sequencer that executes a sequence operation of the multimedia file, and communication start and stop of the multimedia file by communicating with the sequencer. And a program execution unit that executes the application program. As a result, during the sequence operation, the synchronization between the information of each sequence track is obtained by the synchronization information. Therefore, it is possible to finely set the synchronization of the information between the sequence tracks by the description method of the synchronization information. Further, the communication between the sequencer and the application program allows the application program to know the information when the sequence operation is controlled by the synchronization information. Thereby, it becomes possible for the application program to perform various controls related to the synchronization information.
[0010]
(2) The multimedia file is Said It has a master track, and the sequence operation of each sequence track is used as synchronization information. At any position It is characterized by storing control information in the time axis direction such as stop, branch, and repetition.
[0011]
By providing a master track that performs the same sequence operation as each sequence track as the synchronization information storage unit that stores the synchronization information, the description of the synchronization information is facilitated. In addition, by storing control information in the time axis direction such as stopping, branching, and repetition of the sequence operation of each sequence track as synchronization information, arbitrary control can be performed while communicating with the application program during the sequence operation. Becomes possible. For example, if control information for stopping the sequence operation is stored as the synchronization information, it is possible for the application program to perform data input by the user and to transmit / request specific data to the server at this timing. become. This makes it possible to control the sequence operation based on a user input or information from the server during the sequence operation. For example, when information for stopping the sequence operation is stored as the synchronization information, a branch destination can be designated by a user input when the timing comes. Further, when commercial information is recorded on the drawing sequence track, when stop information of the sequence operation is recorded as synchronization information at the timing when the commercial ends, the server can be notified that the commercial has ended. become.
[0012]
(3) The drawing sequence track is configured by describing a display event that specifies a display object and a duration that specifies a time interval between the display events, and the display event uses a plurality of coordinate expression formats of the display object. It can be specified.
[0013]
According to the multimedia file of the present invention, in the drawing sequence track, the coordinate expression format of the display object defined in the display event can be specified from a plurality of coordinate expression formats. Therefore, it is possible to specify an optimum display position for the display device used at that time. If the display format includes at least a layout information specification format that specifies the display position in proportion based on the screen size and the size of the display object, the scale of the display object is automatically determined according to the screen size. You.
[0014]
As described above, by allowing the display event to specify a plurality of coordinate expression formats of the display object, it is possible to specify the optimum display position for the display device used at that time. Thereby, the distribution range of multimedia files (contents) can be expanded.
[0015]
(4) The display event includes a primary block describing display object definition information including a type of a display object, and an auxiliary description describing display modification sequence information for dynamically adding display modification to the content represented by the primary block. And the display modification sequence information includes one or more display modification sequence information arbitrarily selected from a plurality of display modification sequence information that do not affect each other.
According to the present invention, a primary event that defines basic information of a display object and an auxiliary block that includes display modification sequence information for dynamically modifying the content represented by the primary block are described in a display event. It is possible. In this case, since the display modification sequence information is information that does not affect each other, it is possible to easily combine optimal display modification sequence information according to the movement of the display object. If each display modification sequence information is set as information of a simple function expression, a complicated movement of display contents can be easily provided by a combination of simple function expressions. This also facilitates content creation.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a hardware configuration diagram of a multimedia execution system according to an embodiment of the present invention. It should be noted that as long as each component as shown in FIG. 1 is provided, various types of hardware including a computer terminal, a mobile terminal, and a mobile phone can be used as hardware of the multimedia execution system.
[0017]
The execution control unit 1 includes a CPU, a ROM, a RAM, and the like, and executes a sequencer (program) and an application program, and controls input / output. A sequencer (program) storage unit 2, an application (program) storage unit 3, and a storage unit 4 storing multimedia files are connected to the execution control unit 1. As will be described later, the multimedia file is a file in which a performance sequence track, a drawing sequence track, an audio sequence track, a master track, and a content information storage unit are incorporated in the same file. It is called a SMAF (Synthetic Music Mobile Application Format) file. The storage unit 4 stores the first to nth SMAF files, and any one of the SMAF files is selected according to input information from the application storage unit 3 or a user.
[0018]
A sound source device 5, a display device 6, and an audio device 7 are connected to the execution control unit 1.
[0019]
Performance sequence information in the SMAF file is input to the tone generator 5, where it is converted into a performance signal. The performance sequence information is MIDI sequence information in the present embodiment, and a MIDI sound source device is used as the sound source device 5.
[0020]
The drawing sequence information in the SMAF file is input to the display device 6. The drawing sequence information is any one of text, binary image, and arbitrary image sequence information as described later, and the display device 6 converts the information into an image signal.
[0021]
The audio device 7 receives the audio sequence information in the SMAF file and converts it into an audio signal. In this embodiment, the audio sequence information is ADPCM information, and the audio device 7 converts the ADPCM information into an analog audio signal.
[0022]
The musical sound / speech output unit 8 outputs the combined output of the sound source device 5 and the audio device 7 from the speaker 8a. The monitor 9 displays an image output from the display device 6 on a display screen.
[0023]
An input unit 10 and a communication unit 11 are further connected to the execution control unit 1. An operation unit 12 including a keyboard, a mouse, and the like is connected to the input unit 10, and the communication unit 11 is connected to a server (not shown) by a wired or wireless communication network such as a computer network such as the Internet or a public line network. ing.
[0024]
FIG. 2 is a configuration diagram of software of the multimedia execution system.
[0025]
Reference numeral 20 denotes a SMAF file. The SMAF file 20 includes a content information storage unit 21, a performance sequence track 22, a drawing sequence track 23, an audio sequence track 24, and a master track 25, and these are integrated into one file.
[0026]
The content information storage unit 21 stores information on the contents of the entire SMAF file 20. The performance sequence track 22 stores performance sequence information, the drawing sequence track 23 stores drawing sequence information, and the audio sequence track 24 stores audio sequence information. The master track 25 stores synchronization information of each of the sequence tracks 22 to 24. The master track 25 stores synchronization information of each of the sequence tracks 22 to 24. The track 25 itself is also a sequence track.
[0027]
The sequencer 26 controls the sequence operation of the performance sequence track 22, drawing sequence track 23, audio sequence track 24, and master track 25. Each sequence track is composed of a combination of an event and a duration, and the duration specifies a time interval between events. Therefore, by accumulating the duration from the beginning of the sequence track, the execution start time of the event can be known. Even if it takes time to process the event itself, it does not affect the passage of time on the sequence data. The passage of time can be expressed by a duration regardless of the event processing. As will be described in detail later, the master track 25 stores control information in the time axis direction such as a pause (stop) event, a branch event, and a repetition event as synchronization information. When these events occur, the master track 25 instructs the sequencer 26 to perform sequence control such as pause, branch, and repetition. For example, when a pause event occurs, the sequence operation of each of the sequence tracks 22 to 25 is temporarily stopped. When a branch event occurs, the sequence operation point of each sequence track branches to a specific position at the same time.
[0028]
The sequence output of the performance sequence track 22 is input to a sound source device 27 and output as a sound. The output of the drawing sequence track 23 is output to the display device 28 and drawn on the display monitor. The output of the audio sequence track 24 is output to the audio device 29 and output as sound.
[0029]
The sequencer 26 is controlled by the application program 30. This application program 30 may be any program as long as it can control the sequencer 26. The application program 30 outputs a start / stop signal and a status read signal to the sequencer 26. The sequencer 26 notifies the application program 30 of the status (state). For example, when a pause event occurs as an event of the master track 25, the sequencer 26 puts the sequence operation into a pause state (pause state) and sends a status notification to the application program 30. Lead. The content of the status in this case is pause (pause). The application program 30 performs a predetermined display to the user via the user interface 31 or waits for an input operation from the user, according to the contents of the status. In addition, it exchanges data with the server via the communication interface 32. When an event that exits the pause state occurs (this event is determined by the application program 30. For example, when there is a user input), the application program 30 instructs the sequencer 26 to restart.
[0030]
Thus, data communication between the sequencer and the application program is performed.
[0031]
FIG. 3 shows the data structure of the sequence track.
[0032]
As described above, the sequence data is expressed by describing the event E and the duration D in combination. The data sequence starts from event E, and EOS, which is sequence end data, is placed at the end of the data. The lifetime indicates the effective length of the event. For example, in the case of performance sequence information, it is the sounding time. Duration D specifies a time interval between events. For this reason, the start time of a specific event can be determined by accumulating the duration value from the beginning of the data. For example, the start time of event 3 is a time obtained by adding the added value of durations 1 and 2 to time 0. To branch from the start time of event 3 to event 1, a value obtained by adding duration 1 and duration 2 is subtracted from the start time of event 3. By such a method, the sequence operation of each sequence track can be arbitrarily controlled. The master track 25 describes this control content, that is, synchronization information of each sequence track. In this embodiment, in the sequence data, the event E and the duration D are described alternately. However, the sequence data does not necessarily have to be described alternately.
[0033]
FIG. 4 shows a schematic operation of the sequencer 26 and the application program 30 in FIG.
[0034]
When the process is started, the sequencer 26 waits for the sequence operation to be started after the initialization (step 100) is performed. When a sequence start command is received from the application program 30 (step 200) (step 101), the sequence operation in the sequencer 26 starts (step 102), and the occurrence of an event on the master track 25 is monitored (step 103). The event of the master track 25 is referred to as a checkpoint event here. When the checkpoint event occurs, the sequencer 26 notifies the application program 30 of the status and transmits the content of the checkpoint event (step 104). In the application program, in step 201, the status is received, and processing according to the content is performed (step 202). For example, if the checkpoint event is a pause event, the application program performs a process of waiting for an input from the user in response to the pause event. Alternatively, specific data is downloaded from the server or specific data is uploaded via the communication interface 32 in response to the pause event. The application program 30 further issues a predetermined instruction to the sequencer 26 in accordance with the processing in step 202. That is, each sequence track is controlled in accordance with the input contents from the user and the data from the server. The sequencer 26 performs processing corresponding to the instruction from the application program 30 in step 105. After performing the above-described processing, the sequencer 26 performs the operation of step 103 and thereafter again when the sequence is not completed, and returns to step 201 again when the program is not completed in the application program 30. .
[0035]
FIG. 5 shows an operation example on the time axis. When the sequence operation starts, the sequence operations of the performance sequence track 22, the drawing sequence track 23, the audio sequence track 24, and the master track 25 simultaneously start from the beginning, and the reproduction according to each sequence content is performed. Now, assuming that the content is composed of music data, images, and audio data, when the pause event PEV1 of the master track 25 occurs, the sequence operation in the sequencer 26 is stopped, and the application program 30 executes the operation from the user interface. Wait for user input. Here, when there is a specific key input, the application program 30 issues a start command, and then the reproduction of the second music data, image 2 and audio data 2 is started.
[0036]
1 and 2, since the SMAF file 20 is independent of the sequencer 26 and the application program 30, the SMAF file 20 can be distributed via an arbitrary storage medium or transmission medium. . Further, since the application program 30 is also a program independent of the sequencer 26, the program can have any function. Therefore, the distribution of contents is high, and the expandability and the degree of freedom of the entire system are extremely large.
[0037]
Note that the checkpoint event of the master track 25 includes a branch event and a repetition event in addition to the pause event as described above. The branch event has a content instructing to branch to an arbitrary position on the time axis, and the repetition event has a content instructing to repeat a certain sequence period. In addition, various pieces of control information in the time axis direction can be stored as checkpoint events.
[0038]
Next, an event description method of the drawing sequence track 23 will be described.
[0039]
As described above, the description of the drawing sequence track 23 is also constituted by an alternate description of an event (display event) and a duration specifying a time interval between the display events.
[0040]
For the display event, it is necessary to specify the display position of the display object. In the present embodiment, this display event allows the coordinate representation format of the display object to be selected from a plurality of formats.
[0041]
FIG. 6 shows a selectable coordinate expression format. FIG. 7A shows a standard coordinate designation, FIG. 7B shows a symmetry coordinate designation, and FIG. 7C shows a layout information coordinate designation expression.
[0042]
In the standard coordinate specification, the coordinate origin is set to the upper left of the display screen, the X axis is set to the right in the positive direction, and the Y axis is set to the lower in the positive direction. Then, the upper left coordinates of the display object G are designated.
[0043]
In the symmetric coordinate designation, the coordinate origin is set to the lower right of the display screen, the X axis is set to the left in the positive direction, and the Y axis is set to the upper direction in the positive direction. Then, the lower right coordinates of the display object G are designated.
[0044]
In the layout information coordinate specification, the position is specified at 100% in both the X direction and the Y direction. In the X direction, 0 is left-justified, 50 is centered, and 100 is right-justified. Further, in the Y direction, 0 is top-filled, 50 is centered, and 100 is bottom-filled. In the example shown in FIG. 6C, the display object G1 is left-justified in the X direction, G2 is centered in the X direction, and G3 is right-justified in the X direction.
[0045]
It should be noted that any one of the coordinate expression formats can be specified independently of the X coordinate and the Y coordinate.
[0046]
By allowing the coordinate expression format to be specified from among a plurality of types, a format suitable for a plurality of types of display monitors can be selected. For example, if a coordinate expression format for specifying layout information coordinates is selected, the same display state can be achieved even when the SMAF file is applied to a system having a different display screen area. In addition, by setting the specification of one object to be applicable to either the standard coordinate specification or the symmetric coordinate specification, it is possible to more easily select the one that can be specified depending on the position of the display object. This leads to an advantage of facilitating creation of sequence data.
[0047]
Further, the coordinate expression format once specified is retained as a default expression format until a new coordinate expression format is next specified. Therefore, it is only necessary to specify a new coordinate expression format when the coordinate expression format has changed, so that the sequence data can be easily viewed and the memory consumption can be reduced.
[0048]
In this system, it is possible to express a complicated movement by devising a display event description method. Hereinafter, this will be described in detail.
[0049]
The display event is composed of a primary block that describes display object definition information including the type, size, and content of the display object, and an auxiliary description that describes display modification sequence information that dynamically modifies the content represented by the primary block. Including blocks.
[0050]
The primary block is essential information for a display event because it includes basic information, and the auxiliary block is a block that can be appropriately selected.
[0051]
The display modification sequence information of the auxiliary block includes one or more pieces of display modification sequence information arbitrarily selected from a plurality of display modification sequence information that do not affect each other.
[0052]
The display object definition information described in the primary block describes the type, size, and content of the display object. Display object types include text, binary images (bitmaps), and arbitrary images (images).
[0053]
The display modification sequence information includes the following.
[0054]
(1) Image conversion sequence (change of display contents)
(A) Color change sequence
For example, the displayed text or the like, such as a karaoke color change, is temporally changed. Flashing of images such as neon signs can also be expressed.
[0055]
(B) Image transformation sequence
Change the image over time.
[0056]
(2) Banner sequence (designation of projection method to display screen)
(A) A character string is poured into a display frame and displayed.
[0057]
(B) A part of the display frame is projected, and the projection position is changed with time and displayed.
[0058]
(3) Movement sequence (change of display position)
(A) The position on the screen where the display frame is displayed is changed with time.
[0059]
(4) Display window change sequence
(A) The size of the display frame is changed with time.
[0060]
(5) Display switching sequence
(A) When a plurality of primary blocks are designated, these blocks are switched.
[0061]
(B) Two display target images (images appearing on the screen) are switched and displayed with time.
[0062]
For example, wipe (switching while wiping an image from left to right), dissolve (wiping operation is performed on each of a plurality of divided block screens), fade (screen switching is performed as if the first screen disappears) )and so on.
[0063]
The above display modification sequence information does not affect each other. Therefore, even if two or more pieces of display modification sequence information are combined, only the effect realized by the individual sequence information is added. Therefore, for example, the following display modification can be performed by combining a plurality of display modification sequence information.
[0064]
(1) Color change + banner
(A) As the telop flows through the display frame, the color of the telop changes on the way.
[0065]
(2) Color change + banner + move
(A) As the telop flows through the display frame, the color of the telop changes along the way, and the position of the display frame moves with time.
[0066]
(3) Color change + banner + move + display window change
(A) As the telop flows through the display frame, the color of the telop changes in the middle, the position of the display frame moves with time, and the display frame becomes smaller with time and disappears or appears again.
[0067]
As described above, each display modification sequence information has a function that does not affect the operation of each other, and any one of the plurality of display modification sequence information can be selected.
[0068]
FIG. 7 shows a general description format of a display event. From the top, an event type, an event size, a lifetime, a coordinate designation, a primary block, and an arbitrary number of auxiliary blocks are described. The auxiliary block is optional, and it is sufficient if there is at least a primary block. However, by describing the auxiliary block, various expressions can be easily realized as described above.
[0069]
In the above embodiment, the synchronization information recording means is a master track. However, the synchronization information may be written in each sequence track.
[0070]
【The invention's effect】
According to the present invention, a multimedia file is constructed by incorporating a plurality of sequence tracks on which a plurality of types of information are recorded and synchronization information recording means for recording synchronization information of each sequence track in the same file. In the meantime, synchronization between the information of each sequence track is achieved by the synchronization information. For this reason, it is possible to finely control the synchronization of information between the sequence tracks by the way of describing the synchronization information.
[0071]
Further, the communication between the sequencer and the application program allows the application program to know the information when the sequence operation is controlled by the synchronization information. Thereby, it becomes possible for the application program to perform various controls related to the synchronization information.
[0072]
Further, by providing a master track that performs the same sequence operation as each sequence track as the synchronization information storage unit that stores the synchronization information, the description of the synchronization information is facilitated.
[0073]
Further, since the display event can specify a plurality of coordinate expression formats of the display object, it is possible to specify an optimum display position for a display device used at that time. As a result, the range of content distribution can be expanded.
[0074]
Further, the display event includes a primary lock that defines basic information of the display object, and display modification sequence information of one or more combinations for dynamically adding display modification to the content represented by the primary lock. Since it can be described with auxiliary blocks and the display modification sequence information is information that does not affect each other, it is easy to combine the optimum display modification sequence information according to the movement of the display object Is possible. If each display modification sequence information is set as information of a simple function expression, a complicated movement of display contents can be easily provided by a combination of simple function expressions. This also has the effect of facilitating content creation.
[Brief description of the drawings]
FIG. 1 is a schematic hardware configuration diagram of a multimedia execution system according to an embodiment of the present invention;
FIG. 2 is a software configuration diagram of the multimedia execution system.
FIG. 3 shows a sequence operation.
FIG. 4 is a flowchart showing a schematic operation of a sequencer and an application program;
FIG. 5 is a diagram illustrating functions of a master track.
FIG. 6 is a diagram showing a coordinate expression format of a display event.
FIG. 7 is a diagram showing general description contents of a display event;

Claims (10)

演奏シーケンス情報が記憶される演奏シーケンストラックと、描画シーケンス情報が記憶される描画シーケンストラックと、各シーケンストラックのシーケンス動作に対し、任意の位置において停止・分岐・繰り返し等の時間軸方向の制御を行う各シーケンストラックの同期情報が記憶されるマスタートラックと、を同一のファイル内に組み込んだマルチメディアファイルの記憶部と、
前記マルチメディアファイルのシーケンス動作と前記同期情報に基づくシーケンス動作の制御を実行するシーケンサと、
前記シーケンサと通信を行い前記同期情報に基づくシーケンス動作の制御の情報を受けることによりマルチメディアファイルの実行開始、実行停止等の実行制御を行うアプリケーションプログラムの記憶部と、
前記アプリケーションプログラムを実行するプログラム実行部と、を備え、
前記記憶部のマルチメディアファイルに組み込まれる前記演奏シーケンストラック、描画シーケンストラックおよびマスタートラックはいずれも、イベントと、イベント間の時間間隔を指定するデュレーションとの組み合わせにより構成されることを特徴とする、マルチメディア実行システム。
A performance sequence track in which performance sequence information is stored, a drawing sequence track in which drawing sequence information is stored, and time axis control such as stopping, branching, and repetition at an arbitrary position with respect to a sequence operation of each sequence track. a storage unit of the multimedia file that incorporates the master track, the same in the file synchronization information of each sequence track is stored to perform,
A sequencer that controls the sequence operation of the multimedia file and the sequence operation based on the synchronization information,
A storage unit of an application program that communicates with the sequencer and performs execution control such as execution start and stop of a multimedia file by receiving information of control of a sequence operation based on the synchronization information,
A program execution unit that executes the application program,
The performance sequence track, the drawing sequence track, and the master track incorporated in the multimedia file of the storage unit are each configured by a combination of an event and a duration that specifies a time interval between the events. Multimedia execution system.
前記マルチメディアファイルは、オーディオシーケンス情報が記憶されるオーディオシーケンストラックを有する、請求項1記載のマルチメディア実行システム。The multimedia execution system according to claim 1, wherein the multimedia file has an audio sequence track in which audio sequence information is stored. 前記描画シーケンストラックは、表示オブジェクトを指定する表示イベントと表示イベント間の時間間隔を指定するデュレーションとを記述することで構成され、前記表示イベントは、表示オブジェクトの複数の座標表現形式を指定可能とすることを特徴とする、請求項1または2に記載のマルチメディア実行システム。The drawing sequence track is configured by describing a display event specifying a display object and a duration specifying a time interval between the display events, and the display event can specify a plurality of coordinate expression formats of the display object. 3. The multimedia execution system according to claim 1, wherein 前記表示イベントは、表示オブジェクトの複数の座標表現形式として、少なくとも、画面サイズおよび表示オブジェクトのサイズを元に表示位置を比率で指定するレイアウト情報指定形式を含む、請求項記載のマルチメディア実行システム。4. The multimedia execution system according to claim 3 , wherein the display event includes a layout information designation format for designating a display position by a ratio based on at least a screen size and a size of the display object as a plurality of coordinate expression formats of the display object. 5. . 前記表示イベントは、表示オブジェクトのタイプを含む表示オブジェクト定義情報を記述したプライマリイブロックと、該プライマリイブロックで表した内容に動的な表示修飾を加える表示修飾シーケンス情報を記述した補助ブロックと、を含み、表示修飾シーケンス情報は相互に動作の影響を及ぼさない複数の表示修飾シーケンス情報から任意に選択された一つ以上の表示修飾シーケンス情報で構成される、請求項3記載のマルチメディア実行システム。The display event is a primary block describing display object definition information including a type of display object, and an auxiliary block describing display modification sequence information for adding a dynamic display modification to the content represented by the primary block. 4. The multimedia execution system according to claim 3, wherein the display modification sequence information includes one or more display modification sequence information arbitrarily selected from a plurality of display modification sequence information that do not affect each other. . 演奏シーケンス情報が記憶される演奏シーケンストラックと、描画シーケンス情報が記憶される描画シーケンストラックと、各シーケンストラックのシーケンス動作に対し任意の位置において停止・分岐・繰り返し等の時間軸方向の制御を行う各シーケンストラックの同期情報が記憶されるマスタートラックと、を組み込んだマルチメディアファイルであって、該マルチメディアファイルは、前記演奏シーケンストラック、描画シーケンストラックおよびマスタートラックはいずれも、イベントと、イベント間の時間間隔を指定するデュレーションとの組み合わせにより構成されるものであり、前記マルチメディアファイルをシーケンサに入力することにより、各シーケンストラックのシーケンス動作と前記同期情報に基づくシーケンス動作の制御を実行し、
アプリケーションプログラムにより前記シーケンサと通信を行って前記同期情報に基づくシーケンス動作の制御の情報を受けることによりマルチメディアファイルの実行開始、実行停止等の実行制御を行い、
プログラム実行部により、前記アプリケーションプログラムを実行する、マルチメディアファイルの実行方法。
A performance sequence track in which performance sequence information is stored, a drawing sequence track in which drawing sequence information is stored, and a time axis direction control such as stop / branch / repeat at an arbitrary position for a sequence operation of each sequence track. A master track in which synchronization information of each sequence track is stored, wherein the multimedia file includes an event and a track between each of the performance sequence track, the drawing sequence track, and the master track. of are those that are composed of a combination of a duration specifying the time interval, by inputting the multimedia files to the sequencer, the sequence operation based on sequence operation and the synchronization information of each sequence track Run the control,
By performing communication with the sequencer by an application program and receiving information of control of the sequence operation based on the synchronization information, execution of the multimedia file is started, execution control such as execution stop is performed,
A method for executing a multimedia file, wherein the program executing unit executes the application program.
オーディオシーケンス情報が記憶されるオーディオシーケンストラックを前記マルチメディアファイルに組み込み、このシーケンストラックのシーケンス動作も前記同期情報に基づいて実行する、請求項6記載のマルチメディアファイルの実行方法。7. The multimedia file execution method according to claim 6, wherein an audio sequence track in which audio sequence information is stored is embedded in the multimedia file, and a sequence operation of the sequence track is also performed based on the synchronization information. 前記描画シーケンストラックは、表示オブジェクトを指定する表示イベントと表示イベント間の時間間隔を指定するデュレーションとを記述することで構成され、前記表示イベントは、表示オブジェクトの複数の座標表現形式を指定可能とすることを特徴とする、請求項6または7に記載のマルチメディアファイルの実行方法。The drawing sequence track is configured by describing a display event specifying a display object and a duration specifying a time interval between the display events, and the display event can specify a plurality of coordinate expression formats of the display object. The method of claim 6 or 7 , wherein the multimedia file is executed. 前記表示イベントは、表示オブジェクトの複数の座標表現形式として、少なくとも、画面サイズおよび表示オブジェクトのサイズを元に表示位置を比率で指定するレイアウト情報指定形式を含む、請求項記載のマルチメディアファイルの実行方法。9. The multimedia file according to claim 8 , wherein the display event includes, as a plurality of coordinate expression formats of the display object, a layout information designation format for designating a display position by a ratio based on at least a screen size and a size of the display object. Execution method. 前記表示イベントは、表示オブジェクトのタイプを含む表示オブジェクト定義情報を記述したプライマリイブロックと、該プライマリイブロックで表した内容に動的な表示修飾を加える表示修飾シーケンス情報を記述した補助ブロックと、を含み、表示修飾シーケンス情報は相互に動作の影響を及ぼさない複数の表示修飾シーケンス情報から任意に選択された一つ以上の表示修飾シーケンス情報で構成される、請求項記載のマルチメディアファイルの実行方法。The display event is a primary block describing display object definition information including a type of display object, and an auxiliary block describing display modification sequence information for adding a dynamic display modification to the content represented by the primary block. 9. The multimedia file according to claim 8 , wherein the display modification sequence information includes one or more display modification sequence information arbitrarily selected from a plurality of display modification sequence information that do not affect each other. Execution method.
JP2001139115A 2000-06-02 2001-05-09 Multimedia execution system, multimedia file execution method, and multimedia file structure readable by sequencer Expired - Fee Related JP3558052B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001139115A JP3558052B2 (en) 2000-06-02 2001-05-09 Multimedia execution system, multimedia file execution method, and multimedia file structure readable by sequencer

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000166719 2000-06-02
JP2000-166719 2000-06-02
JP2001139115A JP3558052B2 (en) 2000-06-02 2001-05-09 Multimedia execution system, multimedia file execution method, and multimedia file structure readable by sequencer

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004064204A Division JP2004297788A (en) 2000-06-02 2004-03-08 Sequencer-readable multimedia file structure

Publications (2)

Publication Number Publication Date
JP2002055782A JP2002055782A (en) 2002-02-20
JP3558052B2 true JP3558052B2 (en) 2004-08-25

Family

ID=26593265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001139115A Expired - Fee Related JP3558052B2 (en) 2000-06-02 2001-05-09 Multimedia execution system, multimedia file execution method, and multimedia file structure readable by sequencer

Country Status (1)

Country Link
JP (1) JP3558052B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100561404B1 (en) 2003-10-30 2006-03-16 삼성전자주식회사 Audio-video data playback device setting up player mode information of which, Storage medium, and display playback method thereof
JP4517751B2 (en) * 2004-06-30 2010-08-04 ヤマハ株式会社 Multimedia execution system and multimedia file execution method
JP4973215B2 (en) * 2007-02-01 2012-07-11 ヤマハ株式会社 Performance device and program

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0650461B2 (en) * 1987-11-30 1994-06-29 日本電気株式会社 Multimedia document display method and apparatus
JPH07120302B2 (en) * 1989-05-16 1995-12-20 日本電気株式会社 Task debug method
JP2828119B2 (en) * 1991-01-25 1998-11-25 ヤマハ株式会社 Automatic accompaniment device
JPH05108377A (en) * 1991-10-15 1993-04-30 Matsushita Electric Ind Co Ltd Application software synchronization control method
JPH07302080A (en) * 1994-05-02 1995-11-14 Roland Corp Event data generation device
JP2806312B2 (en) * 1995-06-30 1998-09-30 日本電気株式会社 Graphic input device
JP2853732B2 (en) * 1995-07-03 1999-02-03 日本電気株式会社 Method and apparatus for presenting multimedia data
JPH0934477A (en) * 1995-07-18 1997-02-07 Matsushita Electric Ind Co Ltd Karaoke device
JPH09319383A (en) * 1996-05-29 1997-12-12 Ekushingu:Kk Karaoke device
JPH1027062A (en) * 1996-07-08 1998-01-27 Fujitsu Takamizawa Component Kk Coordinate detecting device
JPH10222508A (en) * 1997-02-07 1998-08-21 Arefu Syst:Kk Computer screen layout editing method
JP3817878B2 (en) * 1997-12-09 2006-09-06 ヤマハ株式会社 Control device and karaoke device
JP3887957B2 (en) * 1998-07-17 2007-02-28 ヤマハ株式会社 Karaoke equipment
JP4159669B2 (en) * 1998-09-24 2008-10-01 ヤマハ株式会社 Karaoke device characterized by control to switch from fast forward / rewind mode to playback mode
JP2000122672A (en) * 1998-10-14 2000-04-28 Yamaha Corp Karaoke (sing-along music) device

Also Published As

Publication number Publication date
JP2002055782A (en) 2002-02-20

Similar Documents

Publication Publication Date Title
JP3668547B2 (en) Karaoke equipment
US7985910B2 (en) Musical content utilizing apparatus
KR100742860B1 (en) Multimedia system with synchronization of music and image tracks
JP3558052B2 (en) Multimedia execution system, multimedia file execution method, and multimedia file structure readable by sequencer
US20070022379A1 (en) Terminal for displaying distributed picture content
JP2004297788A (en) Sequencer-readable multimedia file structure
JPH0965230A (en) Superimposed dialogue display method and device therefor
JP3843948B2 (en) Music content utilization apparatus and computer program applied to the apparatus
JP4306410B2 (en) General-purpose I / O port control information creation device
JP2002258861A (en) Electronic musical instrument, its setting method and storage medium
JP2006227248A (en) Electronic music device and computer program applied to the device
JP4161714B2 (en) Karaoke equipment
JP3902398B2 (en) Image display device, image display method, and machine-readable recording medium storing program for realizing the method
JP2797643B2 (en) Karaoke equipment
JP4047323B2 (en) Information processing apparatus and method, and program
JP2004364341A (en) Cellular phone and image display device
JP3843949B2 (en) Music content utilization apparatus and computer program applied to the apparatus
JP3843947B2 (en) Music content utilization apparatus and computer program applied to the apparatus
JP2000148107A (en) Image processing device and recording medium
JP4000468B2 (en) Music content utilization apparatus and computer program applied to the apparatus
JP2007251695A (en) Mobile phone terminal, and contents reproduction program
JP3399333B2 (en) Music control device
JP4517751B2 (en) Multimedia execution system and multimedia file execution method
JPH10187658A (en) Information generating device and program storage medium
JP2000172859A (en) Multimedia title editing device, multimedia title editing method, and storage medium recording multimedia title editing program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040510

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090528

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100528

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110528

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees