JP5509961B2 - フレーズデータ抽出装置及びプログラム - Google Patents
フレーズデータ抽出装置及びプログラム Download PDFInfo
- Publication number
- JP5509961B2 JP5509961B2 JP2010064944A JP2010064944A JP5509961B2 JP 5509961 B2 JP5509961 B2 JP 5509961B2 JP 2010064944 A JP2010064944 A JP 2010064944A JP 2010064944 A JP2010064944 A JP 2010064944A JP 5509961 B2 JP5509961 B2 JP 5509961B2
- Authority
- JP
- Japan
- Prior art keywords
- phrase
- section
- data
- event information
- note
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Description
この発明は、曲データから、設定した区間に応じたフレーズデータを抽出するフレーズデータ抽出システムに関する。
従来より、曲データを複数の区間に分け各区間のデータをフレーズデータとして抽出する装置が知られている。例えば、特許文献1に開示された音楽情報分析装置では、音楽情報として入力された所望の曲のメロディ情報について音符情報の長さや休符の長さを分析してフレーズ分けが行われる。また、フレーズ分けについては、この他にも、例えば、所定の小節長で区切る方法や全音符などの長い音符の直後の音符が属する小節頭で区切る方法などがある。
しかしながら、従来のフレーズ分け技術では、フレーズ分けの対象区間が一旦決まってしまうと、対象区間内の音楽情報を取り出す際には、区間内に発音される音符情報のみを取り出すことになる。その場合、実際の音高については対象区間内に含まれるので取り出すことができるが、表情付けなどの音符情報以外のデータ(例えば、ボリュームやエクスプレッション等)については考慮されていないので、表情付けデータをも取り出そうとしても、オンタイミングの早いものは取り出されず、また、逆に、オフタイミングの遅いものは、対象区間の終わりで中断されることになり、表情付けが不完全になる。
この発明は、このような事情に鑑み、曲データから、表情付けを損なうことなく、設定した区間に応じたフレーズデータを抽出することができるフレーズデータ抽出システムを提供することを目的とする。
この発明の主たる特徴に従うと、曲データ(Dm)を取得する曲データ取得手段(P1)と、曲データ取得手段(P1)により取得された曲データ(Dm)に対してデータ抽出の対象となる区間(Ph)を設定する区間設定手段(P2〜P3)と、曲データ取得手段(P1)により取得された曲データ(Dm)から、区間設定手段(P2〜P3)により設定された区間(Ph)に開始タイミングを持つ音符イベント情報(N1〜N5)及び表情付けイベント情報(A2〜A4)を順次読み出し、読み出された各イベント情報(N1〜N5,A2〜A4)をフレーズデータ(Dp〔EL〕)として記憶するフレーズ記憶手段(P7)と、区間設定手段(P2〜P3)により設定された区間(Ph)の前後に開始タイミングを持つ表情付けイベント情報(A1,A5,A6,…)について、フレーズデータ(Dp)に追記すべき表情付けイベント情報の条件(挿入及び追加調整時間幅T1,T2等)を決定する追記条件決定手段(P4)と、曲データ取得手段(P1)により取得された曲データ(Dm)から、追記条件決定手段(P4)により決定された条件(T1,T2等)に合う表情付けイベント情報(A1,A5〜A6或いはA1,A5〜A7)を順次読み出し、フレーズデータ(Dp〔EL〕)に追記する表情付け追記手段(P8〜P11)とを具備するフレーズデータ抽出装置(電子音楽装置)〔請求項1〕、並びに、フレーズデータ抽出装置として機能するコンピュータ(電子音楽装置)に、曲データ(Dm)を取得する曲データ取得ステップ(P1)と、曲データ取得ステップ(P1)で取得された曲データ(Dm)に対してデータ抽出の対象となる区間(Ph)を設定する区間設定ステップ(P2〜P3)と、曲データ取得ステップ(P1)で取得された曲データ(Dm)から、区間設定ステップ(P2〜P3)で設定された区間(Ph)に開始タイミングを持つ音符イベント情報(N1〜N5)及び表情付けイベント情報(A2〜A4)を順次読み出し、読み出された各イベント情報(N1〜N5,A2〜A4)をフレーズデータ(Dp〔EL〕)として記憶するフレーズ記憶ステップ(P7)と、区間設定ステップ(P2〜P3)で設定された区間(Ph)の前後に開始タイミングを持つ表情付けイベント情報(A1,A5,A6,…)について、フレーズデータ(Dp)に追記すべき表情付けイベント情報の条件(挿入及び追加調整時間幅T1,T2等)を決定する追記条件決定ステップ(P4)と、曲データ取得ステップ(P1)で取得された曲データ(Dm)から、追記条件決定ステップ(P4)で決定された条件(T1,T2等)に合う表情付けイベント情報(A1,A5〜A6或いはA1,A5〜A7)を順次読み出し、フレーズデータ(Dp〔EL〕)に追記する表情付け追記ステップ(P8〜P11)とから成る手順を実行させるフレーズデータ抽出プログラム〔請求項3〕が提供される。なお、括弧書きは、理解の便のために付記した実施例の参照記号や用語等を表わし、以下においても同様である。
この発明によるフレーズデータ抽出装置は、さらに、区間設定手段(P2〜P3)により設定された区間(Ph)の終端(te)以降で最初の音符イベント情報(N6)を検出する次音符検出手段(P9)を具備し、追記条件決定手段により決定される追記すべき表情付けイベント情報(A5〜A6又はA5〜A7)の条件は、当該表情付けイベント情報(A5〜A6又はA5〜A7)の開始タイミングが、区間設定手段(P2〜P3)により設定された区間(Ph)の終端(te)以降にあり、かつ、次音符検出手段(P9)で検出される音符イベント情報(N6)の開始タイミング(tn)より前(tb)にあることとされる〔請求項2〕ように構成することができる。
この発明の主たる特徴によるフレーズデータ抽出システムでは(請求項1,3)、曲データ(Dm)を取得し(P1)、これに対してフレーズデータ抽出の対象となるフレーズ区間(Ph)を設定すると(P2〜P3)、取得された曲データ(Dm)から、このフレーズ区間(Ph)内にイベント開始の開始タイミングを持つ音符イベント情報(N1〜N5)及び表情付けイベント情報(A2〜A4)が順次読み出され、これらイベント情報(N1〜N5,A2〜A4)がフレーズデータ(Dp〔EL〕)として記憶される(P7)。また、予め、フレーズ区間(Ph)の前後に開始タイミングを持つ表情付けイベント情報(A1,A5,A6,…)について、フレーズデータ(Dp〔EL〕)に追記すべき表情付けイベント情報の条件(挿入及び追加調整時間幅T1,T2等)が定められており(P4)、さらに、この追記条件(T1,T2等)に合う表情付けイベント情報(A1,A5〜A6或いはA1,A5〜A7)が曲データ(Dm)から順次読み出され、フレーズデータ(Dp〔EL〕)に追記される(P9〜P11)。
つまり、曲データ(Dm)から、設定したフレーズ区間(Ph)に応じたフレーズデータ(Dp)を抽出する際、フレーズ区間(Ph)の始端(ts)以降に始まる表情付けデータのみを抽出したり、フレーズ区間(Ph)の終端(te)でデータ抽出を打切ってしまうと、フレーズ区間(Ph)内の音符イベント(N1)に有効な表情付け(A1)が行われなかったり、打切り(te)以降の発音状態が棒鳴りになってしまったりするが、この発明では、フレーズ区間(Ph)内に開始タイミングを持つ音符イベント(N1〜N5)と表情付けイベント(A2〜A4)だけでなく、予め定められた所定の追記条件(T1,T2等)に合う表情付けイベント(A1,A5〜A6又はA5〜A7)もフレーズデータ(Dp)に含めて抽出するように構成される。
従って、この発明によれば、曲データから音符イベントだけでなく表情付けイベントを抽出する際にフレーズ区間内の音符イベントに影響を与える表情付けイベントを最大限抽出することにより、フレーズ区間の前部やフレーズ区間の後方においても、表情付けを損なうことなくフレーズデータを得ることができる。特に、フレーズ区間の後方で抽出された表情付けイベントにより、フレーズ最後の音符イベントがオフした後の余韻を再現することができる。さらに、フレーズ区間後方の休符期間の再現が可能になるため、例えば、管楽器であれば息継ぎのニュアンスが再現され、他の楽器でもフレーズ間の間(ま)の取り方のニュアンスが再現される。また、ノートオフ後も、例えば、リバーブが設定されていれば、発音が全く聞こえなくなるまでの長い時間の自然な挙動の再現も可能となる。
この発明によるフレーズデータ抽出システムにおいては(請求項2)、開始タイミングが「設定されたフレーズ区間(Ph)の終端(te)」〜「当該区間(Ph)の終端(te)以降で最初に現われる音符イベント情報(N6)の開始タイミング(tn)より所定時間(追加調整時間幅T2≧0)だけ前(tb)」の間にある表情付けイベント情報(A5〜A6又はA5〜A7)が追記条件に合う表情付けイベントとされる(P9)。つまり、フレーズ区間(Ph)の終端(te)以後、最初の音符イベント(N6)の開始タイミング(tn)より前の開始タイミングを持つ表情付けイベント(A5〜A6又はA5〜A7)も、抽出すべきフレーズデータ(Dp)に含めるように構成される。従って、この発明によれば、このようにフレーズ区間の終端以降最初のノートオン時刻までの表情付けデータも切り出すことで、フレーズ区間内の音符イベントは確実にノートオフまで表情付けされた状態で切り出すことが可能になる。
〔システム構成の概要〕
図1は、この発明の一実施例によるフレーズデータ抽出装置のハードウエア構成例を示す。この発明の一実施例によるフレーズデータ抽出装置は、電子的な音楽情報処理機能を有する一種のコンピュータであり、例えば、電子楽器のような電子音楽装置が用いられ、フレーズデータ抽出モード時にフレーズデータ抽出システムが構築される。このフレーズデータ抽出装置は、図1(1)のように、中央処理装置(CPU)1、ランダムアクセスメモリ(RAM)2、読出専用メモリ(ROM)3、外部記憶装置4、入力操作部5、表示部6、音源7、通信インターフェース(I/F)8などを備え、これらの要素1〜8はバス9を介して互いに接続される。
図1は、この発明の一実施例によるフレーズデータ抽出装置のハードウエア構成例を示す。この発明の一実施例によるフレーズデータ抽出装置は、電子的な音楽情報処理機能を有する一種のコンピュータであり、例えば、電子楽器のような電子音楽装置が用いられ、フレーズデータ抽出モード時にフレーズデータ抽出システムが構築される。このフレーズデータ抽出装置は、図1(1)のように、中央処理装置(CPU)1、ランダムアクセスメモリ(RAM)2、読出専用メモリ(ROM)3、外部記憶装置4、入力操作部5、表示部6、音源7、通信インターフェース(I/F)8などを備え、これらの要素1〜8はバス9を介して互いに接続される。
CPU1は、RAM2及びROM3と共にデータ処理部を構成し、フレーズデータ抽出処理プログラムを含む所定の制御プログラムに従って、フレーズデータ抽出処理を含む種々の音楽情報処理を実行する。RAM2は、これらの処理に際して必要な各種データを一時記憶するためのワーク領域として用いられ、例えば、フレーズデータ抽出モード時には、抽出された各フレーズデータを格納するための「イベントリスト」と呼ばれるフレーズデータ記憶領域ELが設けられる。また、ROM3には、これらの処理を実行するために、各種制御プログラムや必要な各種制御データが予め記憶される。
外部記憶装置4は、HD(ハードディスク)、FD(フレキシブルディスク)、CD(コンパクトディスク)、DVD(デジタル多目的ディスク)、フラッシュメモリ等の半導体メモリなどの記憶媒体と、その駆動装置を含む。制御プログラムや、種々の曲データ等、任意の情報を任意の記憶媒体に記憶することができ、所定の記憶媒体には、種々のフレーズデータ(Dp)を記憶し管理するためのフレーズデータベースPBが構築される。また、記憶媒体は、着脱可能であってもよいし、このフレーズデータ抽出装置に内蔵されていてもよく、着脱可能な記録媒体にはUSBメモリが含まれる。
入力操作部5は、鍵盤などの演奏操作子やキースイッチなどの設定操作子と、これらの操作子の操作を検出して検出内容に対応する操作情報をデータ処理部(1〜3)に導入する操作検出回路とにより構成される。データ処理部は、これら操作情報に基づきフレーズデータ抽出装置各部を制御し、例えば、演奏操作子の操作に応じて演奏操作入力に対応する演奏情報を音源7に送ったり、設定操作子中のモード設定ボタンの操作によりフレーズデータ抽出モードで動作させたりすることができる。表示部6は、演奏や設定に必要な各種情報を表示するLCD等のディスプレイや、入力操作部5中のスイッチ類に併設した内蔵ランプ等を備え、これらの表示・点灯内容をデータ処理部からの指令で制御し、演奏操作や設定操作などに関する表示援助を行う。
音源7は、音源部やDSPを有し、入力操作部5からの演奏操作情報から得られる実演奏情報に基づいて、或いは、記憶装置4から読み出される曲データに基づいて、楽音信号を生成すると共にこの楽音信号に所定の効果を付与する。音源7に接続されるサウンドシステム10は、D/A変換部やアンプ、スピーカ等を備え、音源7から出力される楽音信号に基づく楽音を発生する。
通信I/F8は、MIDI等の音楽用有線I/F、USB等の汎用ネットワークI/F或いは無線Lan等の汎用近距離無線I/F等を含み、外部電子音楽装置MMと交信することができる。例えば、外部電子音楽装置MMからMIDI形式の曲データを取得し、記憶装置4に記憶しておくことができる。
〔フレーズデータ抽出の概要〕
この発明の一実施例によるフレーズデータ抽出システムでは、フレーズデータ抽出処理により、記憶装置4に記憶された種々の曲データの中から所望の曲データ(Dm)を指定し、指定された曲データ(Dm)に対してフレーズデータ抽出の対象となる区間(Ph)を設定すると、所定のフレーズデータ抽出ルールに従って、フレーズ区間Phに対応し適切に表情付けされたフレーズデータ(Dp)を抽出することができる。図2は、この発明の一実施例によるフレーズデータ抽出処理をイメージ的に説明するための図であり、このフレーズデータ抽出処理によって、図2(1)に示されるような所望の曲データDmから、図2(2)に示されるように、フレーズ先頭の音符イベントN1に有効な表情付けを行い、フレーズ最後の音符イベントN5がオフした後の余韻を再現することができるフレーズデータDpが抽出される。
この発明の一実施例によるフレーズデータ抽出システムでは、フレーズデータ抽出処理により、記憶装置4に記憶された種々の曲データの中から所望の曲データ(Dm)を指定し、指定された曲データ(Dm)に対してフレーズデータ抽出の対象となる区間(Ph)を設定すると、所定のフレーズデータ抽出ルールに従って、フレーズ区間Phに対応し適切に表情付けされたフレーズデータ(Dp)を抽出することができる。図2は、この発明の一実施例によるフレーズデータ抽出処理をイメージ的に説明するための図であり、このフレーズデータ抽出処理によって、図2(1)に示されるような所望の曲データDmから、図2(2)に示されるように、フレーズ先頭の音符イベントN1に有効な表情付けを行い、フレーズ最後の音符イベントN5がオフした後の余韻を再現することができるフレーズデータDpが抽出される。
図2において、横軸は、右矢印の方向に時間が進行する時間軸を示し、「3:1」、「4:1」、…は「小節:拍」を表わし(1小節=4拍)、縦軸方向の上下に、曲データDm或いはフレーズデータDpを構成する音符イベント情報(単に音符イベントともいう)N1,N2,…及び表情付けイベント情報(単に表情付けイベントともいう)A1,A2,…が横軸に沿って配置されている。つまり、記号N1,N2,…が記された空白のブロックは音符イベントを示し、記号A1,A2,…が記された斜線のブロックは表情付けイベントを示しており、表情付けイベントAには複数の種類のものがある。また、これらブロックの始端(左方端)及び終端(右方端)は、それぞれ、当該ブロックにより示されるイベントの開始タイミング及び終了タイミングを表わす。
以下、図2に従って具体的に説明する。まず、例えば、図2(1)のように、曲データDmの第3小節の第1拍の冒頭ts(「3:1」)から第4小節の第4拍の末尾〔=第5小節の第1拍の冒頭te(「5:1」)の直前〕までの区間(便宜的に「3:1〜5:1」で表わす)がフレーズ区間Phとして設定されると、フレーズ区間Phの前方(区間開始時間ts以前)及び後方(区終了時間te以降)に位置する表情付けイベントに関する時間幅パラメータT1,T2が設定される。
ここで、前方のパラメータT1については、フレーズ区間Phにおける先頭の(最初の)音符イベントN1に影響する先行の表情付けイベントA1がこの区間Phの開始時間(前端)tsよりも前にある場合(表情付けイベントA1の開始タイミング<ts)に、当該表情付けイベントA1を区間先頭の音符イベントN1の何クロック前からフレーズデータDpの構成イベントとして挿入するかを決める時間幅T1の値が設定され、この時間幅パラメータT1は、挿入調整時間幅と呼ばれる。なお、挿入調整時間幅T1を設定しなくてもよく、この時間幅T1を設定しないときに、上述のような場合が生じた際には、該当する表情付けイベントA1が区間Phの前端tsから挿入される。
また、後方のパラメータT2については、フレーズ区間Phの終了時間(後端)teより後にある表情付けイベントA5〜A7が、この終了時間te以降最初に現われる音符イベント(「次音符イベント」と呼ばれる)N6よりも前にある場合〔te≦表情付けイベントA5〜A7の開始タイミング<音符イベントN6の開始タイミング(「次音符発音タイミング」と呼ばれる)tn〕に、これら表情付けイベントA5〜A7のうち、最初の音符イベントN6の何クロック前までにある表情付けイベントをフレーズデータDpの構成イベントとして追加するかを決める時間幅T2の値が設定され、この時間幅パラメータT2は、追加調整時間幅と呼ばれる。なお、追加調整時間幅T2は「0」以上の値に設定され、図2(1)の例では、T2=「1拍」相当クロック数に設定されている。
そして、曲データDmからフレーズ区間Phに対応するフレーズデータDpを抽出する際は、図2(2)に示すように、まず、この区間Phに位置する音符イベントN1〜N5及び表情付けイベントA2〜A4(区間開始時間ts≦各イベントN1〜N5,A2〜A4の開始タイミング<区間終了時間te)がフレーズデータDpの構成イベントに採用される。次いで、区間先頭の音符イベントN1に先行する表情付けイベントA1が、設定された挿入調整時間幅パラメータT1に従って、所定の形態でフレーズデータDpの構成イベントに含められ、さらに、フレーズ区間Phに後続する表情付けイベントA5〜A6〔図2(2)の(2A)〕或いはA5〜A7〔図2(2)の(2B)〕が、設定された追加調整時間幅パラメータT2に従って、所定の形態でフレーズデータDpの構成イベントに含められる。
つまり、フレーズ区間Ph内の先頭音符イベントN1に先行する表情付けイベントA1については、(1)のように、開始タイミング(ブロックA1の始端)が区間開始時間tsより前にあり、且つ、先頭音符イベントN1に影響する場合に、(2A),(2B)のように、表情付けイベントA1の開始タイミング(ブロックA1の始端)から「先頭音符イベントN1の開始タイミング(ブロックN1の始端)tfから挿入調整時間幅T1だけ前のタイミングta」までの部分が削除された表情付けイベントA1’が、フレーズデータDpの構成イベントとして挿入される。なお、挿入調整時間幅T1を設定しないとき(非設定時)に上述のような場合が生じた際には、該当する表情付けイベントA1の開始タイミング(ブロックA1の始端)から区間開始時間tsまでの部分が削除された表情付けイベントA1”がフレーズデータDpの構成イベントとして挿入される(図示せず)。
また、フレーズ区間Phに後続する表情付けイベントA5〜A6については、開始タイミング(ブロックA5〜A6の始端)が、(1)のように、この区間終了(te)後の先頭音符イベントN6の開始タイミング(ブロックN6の始端)tnより追加調整時間幅T2〔(1)の例では、T2=1拍〕だけ前の時点tb(「表情付け追加時間」と呼ばれる)より前にある場合に(tb=tn−T2)、(2A)のように、これら表情付けイベントA5〜A6がフレーズデータDpの構成イベントとして追加され、その際、曲データDmにおいて表情付け追加時間tbを超えて持続していた表情付けイベントA6については、表情付け追加時間tb以降の部分が削除されて終了タイミングが同時間tbに変更され、終了タイミングが表情付け追加時間tbに変更された表情付けイベントA6’が追加イベントになる。なお、次音符発音タイミングtnは、境界タイミングとも呼ばれ、フレーズ区間Phの終了(te)後に次音符イベントがない場合は、曲データDmの終了タイミングが境界タイミングtnとされる。
ここで、追加調整時間幅T2が「0」値に設定されているときには、(2B)のように、表情付け追加時間tbが次音符イベントN6の開始タイミング(境界タイミング)tnに一致するので(tb=tn−T2=tn)、表情付けイベントA5〜A7がフレーズデータDpの構成イベントとして追加され、その際、曲データDmにおいて時点tb=tnを超えて持続していた表情付けイベントA6,A7については、表情付け追加時間tb=tn以降の部分は削除されて終了タイミングが同時間tbに変更され、開始タイミングが時間tbに変更された表情付けイベントA6”,A7”が追加イベントになる。
このようにして、フレーズデータDpの構成イベントに含める音符イベントN1〜N5及び表情付けイベントA1’,A2〜A5,A6’或いはA1’,A2〜A5,A6”,A7”が決定されると、(2A)或いは(2B)の小節線位置を「1:1」〜「4:1」で示すように、(1)の曲データDmにおけるフレーズ区間Phの終端te=「3:1」が「1:1」即ち第1小節第1拍冒頭になるように、これらイベントのタイミング情報(開始タイミング及び終了タイミング)をずらし幅T=2小節だけ前にずらす。
つまり、このフレーズデータ抽出の要点は、基本的に、
(1)音符イベント(Note Event)Nについては、開始タイミング(ノートオン時刻)がフレーズ区間Phに含まれると判定されたもの(N1〜N5)をフレーズデータDpとして採用し、
(2)表情付けイベント (Continuous Data)Aについては、フレーズデータDpとして採用された音符イベントに対して有効であると判定されたもの(A1〜A6或いはA1〜A7)をフレーズデータDpとして採用する
ものとし、(2)の点に関して、
(2−1)フレーズ区間Phにおける最初の音符イベント(N1)の開始タイミング(tf)より前方で開始する表情付けイベント(A1)の後部(A1’)を採用し、
(2−2)フレーズ区間Phにおける最初の音符イベント(N1)の開始タイミング(tf)からこの区間Phの終了(te)後における最初の音符イベント(N6)の開始タイミング(tn)の直前(tb=tn−T2)までの表情付けイベント部分(A2〜A5,A6’或いはA2〜A5,A6”,A7”)を採用する
ことにある。
(1)音符イベント(Note Event)Nについては、開始タイミング(ノートオン時刻)がフレーズ区間Phに含まれると判定されたもの(N1〜N5)をフレーズデータDpとして採用し、
(2)表情付けイベント (Continuous Data)Aについては、フレーズデータDpとして採用された音符イベントに対して有効であると判定されたもの(A1〜A6或いはA1〜A7)をフレーズデータDpとして採用する
ものとし、(2)の点に関して、
(2−1)フレーズ区間Phにおける最初の音符イベント(N1)の開始タイミング(tf)より前方で開始する表情付けイベント(A1)の後部(A1’)を採用し、
(2−2)フレーズ区間Phにおける最初の音符イベント(N1)の開始タイミング(tf)からこの区間Phの終了(te)後における最初の音符イベント(N6)の開始タイミング(tn)の直前(tb=tn−T2)までの表情付けイベント部分(A2〜A5,A6’或いはA2〜A5,A6”,A7”)を採用する
ことにある。
一般に、表情付けイベント (Continuous Data)Aが音符イベント(Note Event)Nに与える影響は、音符イベントNの発音(Duration)期間中に表情付けイベントAがどのような値になっているかで決まり、まずは、発音開始タイミング(ノートオン時刻)での値が影響する。次いで、発音間中で表情付けイベントAの値に変化があればそれも影響し、その後、音符終了タイミング(ノートオフ時刻)に達した後も、余韻としての発音が継続して表情付けイベントAの値に変化があれば、それも影響する。ここで、余韻がいつまで継続するかは種々の条件で左右されるが、一般的には、その後の音符イベント(図2ではN6)の発音開始があれば、表情付けイベントAの影響は当該後ろの音符イベントへの影響に遷移する。そこで、フレーズ区間Ph内の音符イベントN=N1〜N5に影響を与える表情付けイベントAが、(2),(2−1),(2−2)で説明した手法で求められる。
さらに、(2−2)の手法について説明を補足すると、例えば、フレーズ区間Phにおける何れかの音符イベントNの終了タイミング(ノートオフ時刻)が区間終了時間(終端)teよりも後ろにある場合は(図示せず)、区間終端teで表情付けイベントAの抽出(切出し)を打ち切ると、打切り時点te以降の発音状態が棒鳴りになってしまうが、このフレーズデータ抽出システムでは、区間終端te以降最初に現われる音符イベントNの開始タイミング(ノートオン時刻)までの表情付けイベントAも抽出する(切り出す)ことで、フレーズ区間Ph内の音符イベントNは確実に終了タイミング(ノートオフ時刻)まで表情付けされた状態で抽出する(切り出す)ことが可能になる。
また、例えば、図2(1)のように、フレーズ区間Phにおける音符イベントNの発音終了タイミング(ノートオフ時刻)が区間終了時間(終端)teよりも前にある場合でも(各発音終了タイミング≦te)、発音終了(ノートオフ)にも有効な表情付けイベントAが存在し、区間終端te以降も発音の余韻が継続しているときは(ビブラートのためのピッチベンドデータがあるとき等)、区間終端teで表情付けイベントAの抽出(切出し)を打ち切ると、やはり、打切り時点te以降の発音状態は棒鳴りになってしまうが、このフレーズデータ抽出システムでは、区間終端te以降最初に現われるの音符イベントNの開始タイミング(ノートオン時刻)までの表情付けイベントAも抽出する(切り出す)ことで、フレーズ区間Ph内の音符イベントNは終了タイミング(ノートオフ時刻)まで表情付けされた状態で抽出する(切り出す)ことが可能になる。
以上のように、この発明の一実施例によるフレーズデータ抽出システムでは、フレーズデータ抽出前に、曲データDmに対してフレーズデータ抽出の対象となる区間Phが設定され、開始タイミングがフレーズ区間Phの前後にある表情付けイベント情報A1;A5,A6,…について、フレーズデータDpに追記すべき表情付けイベント情報の条件(挿入及び追加調整時間幅T1,T2等)が定められる〔図2(1)〕。フレーズデータ抽出の際は、区間Ph内に開始タイミングがある音符イベントN1〜N5及び表情付けイベント情報A2〜A4がフレーズデータDpとして抽出されると共に、定められた追記条件(T1,T2等)に合うように、所定の表情付けイベント情報A1;A5〜A6又はA1;A5〜A7が、所定の態様で〔(2A)A1→A1’;A6→A6’又は(2B)A1→A1’;A6→A6”,A7→A7”〕、フレーズデータDpに追記される〔図2(2)〕。このように構成することによって、フレーズ区間の前部やフレーズ区間の後方においても、表情付けを損なうことなくフレーズデータを得ることができ、特に、所定の追記条件に従ってフレーズ区間の後方で抽出された表情付けイベントにより、フレーズ最後の音符イベントがオフした後の余韻を再現するなどの種々の音楽的効果を得ることができる。
つまり、フレーズデータに音符イベントだけでなく表情付けイベントを含ませても、表情付けイベントの抽出範囲を、或る決まった長さの単位で設定されたフレーズ区間内に限定したり、設定されたフレーズ区間内にあるノートの最後のオフまでに限定した場合は、抽出されたフレーズデータを再合成すると、フレーズデータの間が詰まってフレーズ区間の後方に元来存在していたフレーズ間の休符間隔が再現されないことがあるが、このシステムでは、特に、表情付けイベントの抽出範囲が直後のフレーズ区間の最初のノートオンまで後方に拡大されるので、抽出されたフレーズデータを再合成すると、フレーズ区間の後方に元来存在していたフレーズ間の休符間隔を再現することができる。このように、フレーズ区間の後方の休符区間を再現することにより、例えば、管楽器であれば、息継ぎのニュアンスが自然に再現されることになり、他の楽器でも、フレーズ間の間(ま)の取り方のニュアンスがうまく再現されることになる。また、ノートオフ後も、例えば、リバーブが設定されていたりすると、発音が全く聞こえなくなるまでに時間を要するため、その間の自然な挙動の再現も可能となる。
〔処理フロー例〕
図3は、この発明の一実施例によるフレーズデータ抽出処理の動作例を表わすフローチャートである。このフレーズデータ抽出装置は、待機モードや実演奏モード、自動演奏モード等の任意の動作モードで動作しているときに、フレーズデータ抽出モード設定ボタンを操作することにより、フレーズデータ抽出モードで動作し、図3のフレーズデータ抽出処理を行うことができる。フレーズデータ抽出処理がスタートすると、CPU1は、まず、ステップP1で、入力操作部5に対するユーザの選曲操作に応じて、記憶装置4の曲データ記憶領域から所望の曲データDmをRAM2上の曲データ保持領域に読み込む。
図3は、この発明の一実施例によるフレーズデータ抽出処理の動作例を表わすフローチャートである。このフレーズデータ抽出装置は、待機モードや実演奏モード、自動演奏モード等の任意の動作モードで動作しているときに、フレーズデータ抽出モード設定ボタンを操作することにより、フレーズデータ抽出モードで動作し、図3のフレーズデータ抽出処理を行うことができる。フレーズデータ抽出処理がスタートすると、CPU1は、まず、ステップP1で、入力操作部5に対するユーザの選曲操作に応じて、記憶装置4の曲データ記憶領域から所望の曲データDmをRAM2上の曲データ保持領域に読み込む。
次いで、ステップP2にて、曲データDmを分割して複数のフレーズ区間Phを決定する。つまり、複数の区間Phそれぞれについて、開始時間ts及び終了時間teを順次決定していく。ここで、各区間Phを決定する方法には、音休符列などの所定の音楽的特徴に基づくフレーズ分割規則に従って曲データDmを自動的に複数のフレーズ区間Phに分割する方法や、ユーザによる区間開始及び終了位置の指定操作に応じて複数の区間Phに分割する方法、所定の楽節記号により複数の区間Phに分割する方法など、任意の区間分割手法を採用することができる。なお、各フレーズ区間Phの開始時間ts及び終了時間teや曲データDm内のイベントA,Nの時間情報(タイミング)は、「小節:拍:クロック」の形式やクロック数により表わされる。
次のステップP3では、フレーズデータ抽出の対象としたいフレーズ区間を指示する区間指示操作に応じて、決定された複数のフレーズ区間のうち1つのフレーズ区間Phをフレーズデータ抽出の対象とし、続くステップP4にて、フレーズデータ抽出に関わる条件パラメータを設定する。このような条件パラメータには、挿入及び追加調整時間幅T1,T2などがあり、条件パラメータの設定内容はデフォルトで決まっていてもよいし、ユーザがその都度設定してもよい。例えば、デフォルトでは、挿入調整時間幅T1を非設定とし、追加調整時間幅T2を「0」値としておき、ユーザ操作で、時間幅T1を所定値に設定し、時間幅T2を「0」以外の他の値に変更する。なお、以下においては、両時間幅T1,T2が所定の値に設定されているものとして説明する。
さらに、次のステップP5で、フレーズデータを抽出するための空のイベントリスト(曲データDmから抽出される個々のフレーズデータDpを一時的に保持しておくための記憶領域)ELをRAM2上に新しく用意する。次いで、ステップP6にて、データ抽出の対象に設定されたフレーズ区間Phの開始時間tsを含む小節が1小節目(第1小節)になるように、ずらし幅Tを算出する。図2の例では、ずらし幅Tは、2小節分〔=「3:1」(第3小節第1拍冒頭)−「1:1」(第1小節第1拍冒頭)〕である。そして、順次、ステップP7〜P11に進み、イベントリストELにフレーズデータDpを書き込む処理を行う。なお、ステップP7〜P11の説明における括弧書きは図2の例を示す。
ステップP7では、曲データDm上の区間開始時間tsから区間終了時間teまでに開始タイミングを持つ音符イベントN(N1〜N5)及び表情付けイベントA(A2〜A4)の情報をRAM2の曲データ保持領域から読み出し、各イベントN,Aの情報を、夫々のタイミング情報についてずらし幅Tだけ前方にずらした上で、イベントリストELに書き込む。次に、ステップP8では、イベントリストELに書き込んだ最初の音符イベントN(N1)に影響する表情付けイベントであって、開始タイミングが区間開始時間tsより前のものを探し、該当する表情付けイベントA(A1)がある場合、この表情付けイベントA(A1)については、「イベントリストELの最初の音符イベントN(N1)の開始タイミング(tf)から挿入調整時間幅T1だけ前のタイミング(ta)」からその終了タイミングまでの部分(A1’)をイベントリストELに書き込む。なお、この場合、挿入調整時間幅T1が「非設定」に設定されているときは、当該表情付けイベントA(A1)について1小節目の冒頭からその終了タイミングまでの部分を書き込む。
次いで、ステップP9では、区間終了時間te後に開始タイミングを持つ最初の音符イベント即ち次音符イベントを探し、探し出した次音符イベントN(N6)の開始タイミング(次音符発音タイミング)を境界タイミングtnとする。なお、このような次音符イベントがない場合は、曲データDmの終了タイミングを境界タイミングtnとする。さらに、ステップP10では、区間終了時間te以降「境界タイミングtn−追加調整時間幅T2」即ち表情付け追加時間tbまでに開始タイミングを持つ表情付けイベントAを探し、該当する表情付けイベントA(A5〜A6又はA5〜A7)がある場合、これら表情付けイベントA(A5〜A6又はA5〜A7)の情報を、夫々のタイミング情報についてずらし幅Tだけ前方にずらした上で、イベントリストELに書き込む。そして、ステップP11では、終了タイミングが「境界タイミングtn−追加調整時間幅T2」即ち表情付け追加時間tbを超える表情付けイベントA(A6又はA6〜A7)がイベントリストEL内にあれば、該当するト表情付けイベントA(A6又はA6〜A7)の終了タイミングを表情付け追加時間tb=nt−T2に調整する。
ステップP7〜P11のイベントリスト書込み処理の後は、ステップP12に進んで、イベントリストELに抽出されたフレーズデータDpに名前を付けて記憶装置4のフレーズデータベースPBに登録し保存する。次のステップP13では、別のフレーズ区間Phについてもフレーズデータの抽出を行うか否かを判定し、別のフレーズ区間Phについてもデータ抽出を行うときは(P13=YES)、ステップP3に戻り、ステップP3〜P13の処理を繰り返す。そして、別のフレーズ区間Phにつきフレーズデータの抽出を行わないときには(P13=NO)、このフレーズデータ抽出処理を終了し、元の動作モードに戻る。
〔種々の実施態様〕
以上、図面を参照しつつこの発明の好適な実施の一形態について説明したが、これは単なる一例であり、この発明は、発明の精神を逸脱しない範囲で種々の変更が可能である。例えば、フレーズ区間(Ph)は、実施例のように、所定の小節長で曲の任意の小節から区切っていってもよいが、ある音符情報のオンタイミングから所定長以上の休符区間が出現する直前の音符情報のオフタイミングまでをフレーズ区間としてもよいし、ある音符情報のオンタイミングから所定音高差が生じる直前の音符情報のオフタイミングまでをフレーズ区間としてもよいし、ユーザが好きな区切り位置を指定してフレーズ区間を決めるようにしてもよい。また、フレーズ区間の最終的な決定については、フレーズ区間を決めるいくつかの方法を用意しておき、ユーザに選択させるようにしてもよい。
以上、図面を参照しつつこの発明の好適な実施の一形態について説明したが、これは単なる一例であり、この発明は、発明の精神を逸脱しない範囲で種々の変更が可能である。例えば、フレーズ区間(Ph)は、実施例のように、所定の小節長で曲の任意の小節から区切っていってもよいが、ある音符情報のオンタイミングから所定長以上の休符区間が出現する直前の音符情報のオフタイミングまでをフレーズ区間としてもよいし、ある音符情報のオンタイミングから所定音高差が生じる直前の音符情報のオフタイミングまでをフレーズ区間としてもよいし、ユーザが好きな区切り位置を指定してフレーズ区間を決めるようにしてもよい。また、フレーズ区間の最終的な決定については、フレーズ区間を決めるいくつかの方法を用意しておき、ユーザに選択させるようにしてもよい。
フレーズデータ抽出の対象となるメロディについては、実施例では、単音の音符情報列を想定しているが、和音状態が含まれていてもよい。
フレーズ区間(Ph)の最初の音符情報(N1)の開始タイミング(tf)より前にある表情付けイベント(A1)は、このフレーズデータ抽出処理によって、フレーズ区間の始端(ts)或いは最初の音符情報(N1)の開始タイミング(tf)から所定クロック数(T1)分だけ前に挿入されるが、この所定クロック数は、ユーザにより設定可能であってもよいし、固定的或いは自動的に設定できるようになっていてもよい。
フレーズ区間(Ph)は、1曲分全部を複数区間に分割した1つ1つであってもよいし、ユーザが所望する所定の区間であってもよい。
このフレーズデータ抽出処理によって抽出されたフレーズデータは、実施例のように、フレーズデータベース(PB)に保存登録するようにしてもよいし、そのまま、作曲データとして使用してもよい。
PB;EL フレーズデータベース及びイベントリスト、
Dm;Dp 曲データ及びフレーズデータ、
Ph;ts;te フレーズ区間、区間開始時間及び区間終了時間、
N:N1,N2,… 音符イベント(音符イベント情報)、
A:A1,A2,… 表情付けイベント(表情付けイベント情報)、
T1;T2 挿入調整時間幅及び追加調整時間幅、
tn 次音符発音タイミング(境界タイミング)、
tb 表情付け追加時間(=tn−T2)。
Dm;Dp 曲データ及びフレーズデータ、
Ph;ts;te フレーズ区間、区間開始時間及び区間終了時間、
N:N1,N2,… 音符イベント(音符イベント情報)、
A:A1,A2,… 表情付けイベント(表情付けイベント情報)、
T1;T2 挿入調整時間幅及び追加調整時間幅、
tn 次音符発音タイミング(境界タイミング)、
tb 表情付け追加時間(=tn−T2)。
Claims (3)
- 曲データを取得する曲データ取得手段と、
曲データ取得手段により取得された曲データに対してデータ抽出の対象となる区間を設定する区間設定手段と、
曲データ取得手段により取得された曲データから、区間設定手段により設定された区間に開始タイミングを持つ音符イベント情報及び表情付けイベント情報を順次読み出し、読み出された各イベント情報をフレーズデータとして記憶するフレーズ記憶手段と、
区間設定手段により設定された区間の前後に開始タイミングを持つ表情付けイベント情報について、上記フレーズデータに追記すべき表情付けイベント情報の条件を決定する追記条件決定手段と、
曲データ取得手段により取得された曲データから、追記条件決定手段により決定された条件に合う表情付けイベント情報を順次読み出し、上記フレーズデータに追記する表情付け追記手段と
を具備することを特徴とするフレーズデータ抽出装置。 - さらに、前記区間設定手段により設定された区間の終端以降で最初の音符イベント情報を検出する次音符検出手段を具備し、
前記追記条件決定手段により決定される追記すべき表情付けイベント情報の条件は、当該表情付けイベント情報のタイミング情報が、前記区間設定手段により設定された区間の終端以降にあり、かつ、次音符検出手段で検出される音符イベント情報のタイミング情報より前にあることとされる
ことを特徴とする請求項1に記載のフレーズデータ抽出装置。 - フレーズデータ抽出装置として機能するコンピュータに、
曲データを取得する曲データ取得ステップと、
曲データ取得ステップで取得された曲データに対してデータ抽出の対象となる区間を設定する区間設定ステップと、
曲データ取得ステップで取得された曲データから、区間設定ステップで設定された区間に開始タイミングを持つ音符イベント情報及び表情付けイベント情報を順次読み出し、読み出された各イベント情報をフレーズデータとして記憶するフレーズ記憶ステップと、
区間設定ステップで設定された区間の前後に開始タイミングを持つ表情付けイベント情報について、上記フレーズデータに追記すべき表情付けイベント情報の条件を決定する追記条件決定ステップと、
曲データ取得ステップで取得された曲データから、追記条件決定ステップで決定された条件に合う表情付けイベント情報を順次読み出し、上記フレーズデータに追記する表情付け追記ステップと
から成る手順を実行させるフレーズデータ抽出プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010064944A JP5509961B2 (ja) | 2010-03-19 | 2010-03-19 | フレーズデータ抽出装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010064944A JP5509961B2 (ja) | 2010-03-19 | 2010-03-19 | フレーズデータ抽出装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011197460A JP2011197460A (ja) | 2011-10-06 |
JP5509961B2 true JP5509961B2 (ja) | 2014-06-04 |
Family
ID=44875730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010064944A Expired - Fee Related JP5509961B2 (ja) | 2010-03-19 | 2010-03-19 | フレーズデータ抽出装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5509961B2 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3307156B2 (ja) * | 1995-04-24 | 2002-07-24 | ヤマハ株式会社 | 音楽情報分析装置 |
JP3722035B2 (ja) * | 2000-12-14 | 2005-11-30 | ヤマハ株式会社 | 演奏信号処理装置、方法及びプログラム、並びに記憶媒体 |
JP4305315B2 (ja) * | 2004-07-28 | 2009-07-29 | ヤマハ株式会社 | 自動演奏データ特性変更装置及びそのプログラム |
JP4853054B2 (ja) * | 2006-03-07 | 2012-01-11 | ヤマハ株式会社 | 演奏データ編集装置及びプログラム |
-
2010
- 2010-03-19 JP JP2010064944A patent/JP5509961B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011197460A (ja) | 2011-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8916762B2 (en) | Tone synthesizing data generation apparatus and method | |
KR20080023199A (ko) | 오디오 재생 장치 및 방법과 오디오 재생 장치를 제어하는컴퓨터 프로그램이 저장된 컴퓨터-판독가능 저장 매체 | |
JP4201679B2 (ja) | 波形発生装置 | |
JP5504857B2 (ja) | 楽曲生成装置及びプログラム | |
JP5509961B2 (ja) | フレーズデータ抽出装置及びプログラム | |
JP3807380B2 (ja) | スコアデータ編集装置、スコアデータ表示装置およびプログラム | |
JP2005055457A (ja) | 楽譜表示装置及びプログラム | |
JP5141407B2 (ja) | 楽曲再生装置 | |
JP4270102B2 (ja) | 自動演奏装置及びプログラム | |
JP4595852B2 (ja) | 演奏データ処理装置及びプログラム | |
JP5200896B2 (ja) | 演奏データ処理装置及びプログラム | |
JP3496565B2 (ja) | 音声処理装置及び音声処理方法 | |
JP4062193B2 (ja) | 自動伴奏再生位置検出装置、自動伴奏装置及び自動伴奏再生位置検出プログラム並びに自動伴奏制御プログラム | |
JP4552769B2 (ja) | 楽音波形合成装置 | |
JP3637782B2 (ja) | データ生成装置と記録媒体 | |
JP5678343B2 (ja) | フレーズデータ検索装置及びプログラム | |
JP5846288B2 (ja) | フレーズデータ検索装置及びプログラム | |
JP4154600B2 (ja) | 自動伴奏生成プログラム及び自動伴奏生成装置 | |
JP4345010B2 (ja) | ピッチ変更量決定方法、ピッチ変更量決定装置およびプログラム | |
JP2005106989A (ja) | 楽譜対応データ生成装置及びプログラム | |
JP3820817B2 (ja) | 楽音信号発生装置 | |
JP5200895B2 (ja) | 演奏データ処理装置及びプログラム | |
JP2001350469A (ja) | 発音長決定方法と装置及び記録媒体 | |
JP3931727B2 (ja) | 演奏情報編集装置及びプログラム | |
JP3903937B2 (ja) | 伴奏データ生成プログラムおよび伴奏データ生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5509961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |