[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004286917A - Musical sound generating device - Google Patents

Musical sound generating device Download PDF

Info

Publication number
JP2004286917A
JP2004286917A JP2003077026A JP2003077026A JP2004286917A JP 2004286917 A JP2004286917 A JP 2004286917A JP 2003077026 A JP2003077026 A JP 2003077026A JP 2003077026 A JP2003077026 A JP 2003077026A JP 2004286917 A JP2004286917 A JP 2004286917A
Authority
JP
Japan
Prior art keywords
tone
point
sounding
time
time line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003077026A
Other languages
Japanese (ja)
Other versions
JP3804630B2 (en
Inventor
Shota Sawahata
祥太 澤畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003077026A priority Critical patent/JP3804630B2/en
Publication of JP2004286917A publication Critical patent/JP2004286917A/en
Application granted granted Critical
Publication of JP3804630B2 publication Critical patent/JP3804630B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate an interesting musical sound by scanning sounding points plotted on a screen with a time line variably drawn as a function of time, and to make sounding points and a time curve visually beautiful by displaying them as well as generation of the musical sound. <P>SOLUTION: A musical sound generating terminal CL draws a time line C(t) in an arbitrary shape on a display screen representing a two-dimensional grid coordinate system GC and the time line is displaced with time (t). On this screen GC, sounding points Pm (P1 to P3) are plotted and when the time line C(t) comes into contact with a sounding point Pm, a musical sound corresponding to the sounding point Pm is generated. To displace the time line C(t) depending upon time lapse, there is a method of rotating the time line or moving the time line while sequentially changing the direction according to specified movement algorithm in addition to an illustrated method of enlarging or reducing the time line C about a reference point 0(0, 0) at a specified position. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、2次元平面上にプロットされたポイント情報と同平面上を変動する時間線を用いて楽音情報を形成する新規な楽音形成システムに関する。
【0002】
【従来の技術】
図形を描くことによって音楽を作成することは、従来より知られている。例えば、非特許文献1にはピアノロール表示によるものが開示されており、特許文献1,2には、2次元平面上に描画された図形を楽音に変換するものが開示されており、何れも、横軸を時間軸とし縦軸を音高としている。
【0003】
【非特許文献1】
「XGworks V4.0 取扱説明書」ヤマハ株式会社、1999年(第5−3頁等)。
この文献には、シーケンサーソフトの演奏表示方法について記載されており、ピアノロール表示により演奏情報を入力する場合、直交座標系の1方の軸を時間軸に、他方の軸を音階に見立てて、演奏情報の表示・編集を行う。また、五線譜における音符に代えて矩形の図形を描画し、矩形の位置・サイズで音階・発音タイミング・発音時間を表現する。演奏の進行に応じて演奏位置を表わす「バー」が表示画面上を移動するように表示される。
【0004】
【特許文献1】
特開平5−333858号公報(図3)
この文献には、順次に拡大して行くフラクタル図形から抽出された特徴を音高・音長に関連付けてメロディを作成するシステムについて開示されており、フラクタル図形として横軸を時間軸とし縦軸を音高とした例が記載されている。
【0005】
【特許文献1】
特開平6−318074号公報
この文献には、作図装置10で作図されたXY2次元図形データから、X軸を時間軸としY軸を周波数(音の高さ)軸とする楽音データに変換するための入力装置が記載されている。
【0006】
しかしながら、これら従来の作成態様の場合、通常、多かれ少なかれ音楽的な知識を必要とし、また、「打ち込み」というデータ入力作業を伴うことも相まって、音楽データの作成には可成りの手間がかかるものであった。また、この打ち込み作業の中には「他者とコラボレートする」という要素が入り込みにくく、コミュニケーション的な楽しみはなかった。さらに、一旦でき上がった音楽は固定的で変化しないものであった。
【0007】
また、このような従来の方法では、音楽が横軸(X軸)又は縦軸(Y軸)という固定した方向に沿って進むものであるため、作成される音楽は画一的になってしまい、これに対応して、音楽を再生する際の表示方法も、左から右へ或いは上から下へとワイプする形式で音楽の進行を表示するため、やはり、画一的で美しさに欠け面白みの無いものであった。
【0008】
【発明が解決しようとする課題】
この発明の主たる目的は、2次元空間座標を表わす表示画面上に時間の関数として変動的に描画される時間線で、同画面上にプロットされた発音ポイントを走査することにより、面白みのある音楽を作成することができ、音楽の生成と共に発音ポイント及び時間曲線を表示することで、見た目にも美しいと感じさせることができる楽音形成システムを提供することを目的とする。
【0009】
【課題を解決するための手段】
この発明の一つの特徴に従うと、表示画面(GC)上に発音ポイント(Pm;P1〜P3)をプロットする点プロット手段(CA2;CA24,CB3)と、表示画面(GC)上に、時間経過に従って所定位置の基準点(O)を中心に拡大又は縮小する第1時間線(C,Ca)を描画する第1線描画手段(CA3;CA37,CB3)と、第1時間線(C,Ca)が発音ポイント(Pm)に接触したことに応じて(CA35→CA36)、当該発音ポイント(Pm)に対応する楽音情報を形成する第1楽音形成手段(CA4;CA42,CB4)とを具備する楽音形成装置(CL:CL1〜CLn)〔請求項1〕、表示画面(GC)上に発音ポイント(Pm)をプロットする点プロット手段(CA2,CB2)と、表示画面(GC)上に、時間経過に従って所定位置の基準点(O)を中心に回転する第1時間線(Cb)を描画する第1線描画手段(CA3,CB3)と、第1時間線(Cb)が発音ポイント(Pm)に接触したことに応じて、当該発音ポイント(Pm)に対応する楽音情報を形成する第1楽音形成手段(CA4,CB4)とを具備する楽音形成装置(CL)〔請求項2〕、並びに、表示画面(GC)上に発音ポイント(Pm)をプロットする点プロット手段(CA2,CB2)と、表示画面(GC)上に、時間経過に従って所定の移動アルゴリズムに基づき順次方向を変えて移動する第1時間線(Cc)を描画する第1線描画手段(CA3,CB3)と、第1時間線(Cc)が発音ポイント(Pm)に接触したことに応じて、当該発音ポイント(Pm)に対応する楽音情報を形成する第1楽音形成手段(CA4,CB4)とを具備する楽音形成装置(CL)〔請求項3〕が提供される。なお、括弧書きは、対応する実施例中の参照記号乃至箇所を表わし、以下においても同様である。
【0010】
この発明による楽音形成装置(CL)は、さらに、第1時間線(C,Ca〜Cc)が発音ポイント(Pm;P1〜P3)に接触したことに応じて、第2時間線(C1〜C3)を描画する第2線描画手段(CA3,CB3)と、第2時間線(図5:C1〜C3)が発音ポイント(Pm)に接触したことに応じて、当該発音ポイント(Pm)に対応する楽音情報を形成する第2楽音形成手段(CA4,CB4)とを具備する〔請求項4〕ように構成することができる。また、第2楽音形成手段(CA4,CB4)は、発音ポイント(Pm)に対して第1時間線(C,Ca〜Cc)が接触したことに応じて第1楽音形成手段(CA4,CB4)により形成される楽音情報の特性とは異なる特性の楽音情報を形成する〔請求項5〕ように構成することができる。
【0011】
この発明による楽音形成装置(CL)において、発音ポイント(Pm)乃至基準点(O)の座標位置は、極座標(d,θ)或いは直交座標(x,y)で表現される〔請求項6〕ように構成することができる。
【0012】
この発明による楽音形成装置(CL)は、さらに、表示画面(GC)上の所定位置に設定された原点を基準とした座標位置に応じて、発音ポイント(Pm)に対応して第1楽音形成手段(CA4,CB4)で形成される楽音情報の特性を決定する楽音特性決定手段〔図2(2)〕を具備する〔請求項7〕ように構成することができる。また、楽音特性決定手段は、当該発音ポイント(Gm)の原点(O)を基準とした方位角(θ)に応じて、音高、音色、音量及び楽音効果特性のうち少なくとも1つを決定する〔請求項8〕ように構成することができる。
【0013】
〔発明の作用〕
この発明による楽音形成装置(CL)においては、ディスプレイ画面上に構成された2次元グリッド座標系(GC)に対して、演奏タイミングを表わす第1時間線(C,Ca〜Cc)が任意形状の図形で描画される。この第1時間線(C,Ca〜Cc)は、所定周期毎に更新されて時間(t)の経過に従って変動する(CA37)。また、表示画面(GC)上には、任意の点に発音ポイント(Pm;P1〜P3)をプロットすることができる(CA24)。プロットされた発音ポイント(Pm)に第1時間線(C,Ca〜Cc)が接触すると(CA35→CA36)、当該発音ポイント(Pm)に対応する楽音が発生する(CA42)。また、時間経過に依存して時間線(C,Ca〜Cc)を変位させるには、表示画面(GC)上の所定位置を基準点(O)として、第1時間線(C,Ca)を拡大又は縮小させたり〔図2,図12(A)〕第1時間線(Cb)を回転させたり〔図13(B)〕、或いは、第1時間線(Cc)を所定の移動アルゴリズムに基づき順次方向を変えて移動させる〔図13(C)〕などの方法がある。
【0014】
この発明では、このように、楽音生成の時間進行軸を1方向に固定した従来の方法とは異なり、時間(t)の経過に従って、2次元空間座標(GC)上を同心状に拡大/縮小したり、回転したり、或いは、順次方向を変化する第1時間線(C,Ca〜Cc)で、発音ポイント(Pm)を走査するようにしているので、これまでにない面白みのある音楽を作成することができる。また、時間の関数として変動する時間曲線(C,Ca〜Cc)で同座標上の発音ポイント(Pm)を走査することで生成される音楽の演奏に伴って、発音ポイントPm及び時間曲線(C,Ca〜Cc)を表示することで、見た目にも美しいと感じることができる。
【0015】
【発明の実施の形態】
〔システムの概要〕
図1は、この発明の一実施例による配信サーバ及びクライアント端末を含む楽音形成システムの構成の概要を表わす図である。この楽音形成システムは、図1(1)の全体図に示すように、位置情報提供機能を有する1乃至複数の配信サーバ(図示の例では1つであるが、複数あっても構わない)SVと、複数のクライアント端末CL1,CL2,…,CLnから成り、これらの装置SV,CL1〜CLnは通信ネットワークCNを介して相互に通信可能に接続されている。
【0016】
配信サーバSV及び各クライアント端末CL1〜CLnには共にコンピュータが用いられる。例えば、配信サーバSVは、パーソナルコンピュータやワークステーション等が使用され、基本的には、クライアント端末CL1〜CLnの位置情報の収集及び配信を行う。クライアント端末CL1〜CLnは、パーソナルコンピュータやゲーム専用機、セットポップボックスなど、固定的に設置される情報処理機器でもよいが、携帯用電話機、PDA、カーナビゲーション端末など移動可能な端末装置であることが望ましい。また、配信サーバSVとクライアント端末CL1〜CLn(或いは、各端末CL1〜CLnが実際に交信する基地局)とを接続する通信ネットワークCNには、LAN及びインターネット或いは電話回線網等の広域通信網が含まれる。
【0017】
クライアント端末CL(CLはCL1〜CLnの夫々を代表的に表わす)は、図1(2)の内部構成ブロック図に例示されるように、中央処理装置(CPU)1、記憶手段2、入力手段3、出力手段4、通信手段5などが設けられ、これらの手段1〜5は、バス6を介して互いに接続される。CPU1は、所定の制御プログラムに従い楽音作成や位置情報の送信・取得などに関する処理を実行する。記憶手段2は、制御プログラムや制御用データを記憶した読出専用メモリ(ROM)部、処理用データ等を一時記憶するランダムアクセスメモリ(RAM)部、種々のデータやプログラムを記憶する外部記憶部などから成り、これらの記憶部は、フラッシュメモリ等の半導体メモリや、フレキシブルディスク(FD)、テープデバイス、ハードディスク(HD)等の磁気記録媒体、CD、DVD、MO等の光記憶媒体で、適宜、構成することができる。
【0018】
入力手段3は、キーボードや各種スイッチ等のキーデバイスや、マウス・タブレット等のポインティングデバイス等の操作子を備え、端末の種類によっては、更にマイクロフォンやカメラ等の音波形乃至画像データ入力装置などを含む。また、出力手段4は、CRT・LCD等のディスプレイを含む可視表示部や、音源・スピーカ等を含む音響出力(報音)部などを備え、端末の種類によっては、更にプリンタ等の印刷部などをも備える。
【0019】
通信手段5は、通信ネットワークCNを介してサーバSV或いは他のクライアント端末と通信するための手段であり、モデムやイーサ[Ether]ネット(登録商標)インターフェース等を備え、好適には、インターネットを経由して配信サーバ(以下、単にサーバという)SVと通信を行う。各クライアント端末CLは、また、GPS(Global Positioning System :全地球測位システム)の受信及び測位機能或いはこれに代る測位機能を有し、これにより自身の物理的な位置情報を取得し、取得した位置情報をHTTP通信などによりサーバSVに送信するすることができる。
【0020】
なお、各クライアント端末CLの記憶手段2に用意される制御プログラムには、スタンドアローン版楽音形成プログラム及びネットワーク版楽音形成プログラムがある。各端末CLは、スタンドアローン版を用いることにより、データ打込みに基づくスタンドアローン方式で独立して楽音情報を形成することができる。また、ネットワーク版を用いる場合には、サーバSVからの情報提供を利用するネットワーク方式で自動的に楽音情報を形成することができる。
【0021】
サーバSVは、図1(2)と同様の内部構成を有し、各クライアント端末CLに制御プログラムやデータを提供することができる。特に、記憶手段2の外部記憶部は、各クライアント端末CLの絶対位置情報(緯度軽度情報)を蓄積する端末位置情報データベース(DB)を備えている。GPSなどにより取得された各クライアント端末CL自身の個々の位置情報は、周期的に(或いは随時)、サーバSVに送信され、端末位置情報DBに蓄積され、逐次、更新される。サーバSVは、各クライアント端末CL側にてネットワーク方式で楽音形成を行う場合、ネットワーク版楽音形成プログラムのサーバ側アプリケーションに従って動作し、端末位置情報DBに蓄積された位置情報を利用して所要の情報を生成し、これをクライアント端末CLに送ることができる。
【0022】
ネットワーク方式による楽音形成の際は、クライアント端末CLは自身の位置情報を送信すると共にサーバーに情報提供をリクエストする。サーバSVは、リクエスト端末CLの周囲に存在する他の端末の絶対位置情報を、端末位置情報DBから取り出して、リクエスト端末CLが必要とする相対位置座標(グリッド座標情報)に変換する。変換された位置情報の集合は、通信手段5を経て当該リクエスト端末CLに配信される。リクエスト端末CLでは、取得した位置情報を2次元上にマッピングして表示し、この2次元情報を楽音情報に変換する。
【0023】
〔楽音形成に関する種々の実施態様〕
この発明の一実施例による楽音形成システムでは、各クライアント端末のユーザは、自端末にて独立して、或いは、サーバSVから配信される端末位置情報を利用して、2次元グリッド座標上に定められた複数の発音ポイント(以下「ポイント」又は「点」ということがある)を時間線で走査することによって楽音データを生成することができる。以下、時間経過に応じて円径が増大していく同心円状の時間線C(t)を用いる場合の楽音形成について種々の実施態様を説明する。
【0024】
〔1〕第1の実施態様=スタンドアローン方式
図2は、このような楽音形成の第1の実施態様〔1〕を説明するための図である。各クライアント端末CLの出力手段4のディスプレイには、x−y軸を有する2次元グリッド座標GCが表示され、初期状態では、座標原点である中心点(「基準点」ともいう)O(0,0)のみが座標GC上に存在する。これに対して、ユーザは入力手段3のポインティングデバイス等を使用して、図2(1)のように、発音ポイントPm(x,y)〔m=1,2,3,…〕を打ち込んで、記憶手段2のRAM部に確保されたポイントリストに各ポイントPmのグリッド座標位置を書き込む。
【0025】
演奏(楽音生成)に際しては、ポイントリストの発音ポイントPm(x,y)が表示されているディスプレイ画面には、時間tの経過に従って、中心点O(0,0)から波紋のように広がる同心円C(t)が逐次描画される。そして、同心円C(t)が発音ポイントPm(x,y)に触れると、その時点で当該ポイントPmに対応する音が発生する。つまり、発音ポイントPmの発音タイミングは、中心点O(0,0)からの距離dに依存する。図2(1)のように、発音ポイントPmとして、P1(2,3),P2(−2,−1),P3(4,−4)が打ち込まれている場合には、P2→P1→P3の順に発音され、図示の表示状態では、ポイントP2が発音している。なお、このように、中心点Oから周期的に“波紋”〔同心円C(t)〕を出すとき、ソナー音のような音を出力手段4の音響出力部から発生させてもよい。
【0026】
このときに発生される楽音のパラメータは、発音ポイントPm(x,y)の角度θに依存する。例えば、楽音パラメータを音名PNとし、図2(2)のような割当て例に従って、中心点O(0,0)からの方向θに対応して音名PNを決定することができる。この割当て例では、全角度2πを12等分し、+x軸を中心にした第1の角度範囲−π/12〜+π/12に音名PN=“C”を割り当て、以下、π/6毎の角度範囲に、順次、音名PN=“C♯”〜“B”を割り当てている。図2(1)の発音ポイントの場合に、この割当て例を適用すると、ポイントP1は“D”、P2は“G”、P3は“B”となる。
【0027】
各発音ポイントPm(x,y)に対する音名PNの決定手順例を紹介すると、次のとおりである。まず、演奏開始時或いはポイントPmのプロット(打込み)時に各ポイント毎に、
X=x,Y=y,D=d=X+Y,S=sinθ=Y/D
を計算し、
n = 0
if sin(π/12) ≦ S < sin(π/4) then n = 1
if sin(π/4) ≦ S < sin(5π/12) then n = 2
if sin(5π/12) ≦ S < sin(π/2) then n = 3
if x ≦ 0 and y > 0 then n = n + 3
if x < 0 and y ≦ 0 then n = n + 6
if x ≧ 0 and y < 0 then n = n + 9
if n = 12 then n = 0
といった手順で音名番号nを算出し、音名PNを決定する(n=0:PN=“C”,n=1:PN=“C♯”,…,n=11:PN=“B”)。
なお、発音ポイントPmが追加された場合、追加されたポイントPmについて上述の手順で音名を決定する。
【0028】
この場合、発音ポイントPm(x,y)の中心点O(0,0)からの距離dの大きさに応じてオクターブ、音量、音色等を決定してもよい。例えば、発音ポイントPmの位置が中心点Oから遠いほど、音域が高い/低い、音量が小さい/大きい等を決定したり、音色については、中心点O付近ではクラリネット音とし、中心点Oから離れるに従ってサクソフォン音へクロスフェードして行く。もちろん、発音ポイントPmの“座標位置→楽音”特性の変換特性をユーザが任意に変更・設定できるようにしてもよい。
【0029】
このようにして楽音パラメータが決定されると、当該パラメータはポイントリストの各発音ポイント毎のレコードに追記される。つまり、ポイントリストは、1レコードについて、発音ポイントPm(x,y)のx軸及びy軸座標値“x”,“y”、中心点O(0,0)からの距離“d”及び音名番号n(又は音名PN)などの楽音パラメータの4フィールドを有し、ポイントリストにリストアップされる発音ポイントPmには中心点Oが含まれる。
【0030】
〔2〕第2の実施態様=ネットワーク方式(1)
上述した第1の実施態様〔1〕では、各クライアント端末CLで独自に発音ポイントPm(x,y)をプロットするスタンドアローン方式で楽音形成を行うようにしているが、これに対して、発音ポイントPmを通信ネットワークCNを通じて決定するネットワーク方式で楽音形成を行うことができる。図3は、ネットワーク方式による第2の実施態様〔2〕を説明するための図である。
【0031】
第2の実施態様〔2〕では、発音タイミングや発音パラメータの決定などについては、図2の第1の実施態様〔1〕と基本的に同じであるが、図3(1)に示すように、楽音形成を行うクライアント端末(「自端末」又は「楽音形成端末」という)の位置をグリッド座標GC上の中心点O(0,0)に定め、中心点O以外の発音ポイントPm(x,y)については、他のクライアント端末(他端末)の物理的な位置をグリッド座標GC上にマッピングする。この場合、自端末の位置および他端末の実位置は、GPSや、無線局(予め物理的な位置が判っている)との間の遅延時間計測によって測定され、位置情報として逐次サーバSVの端末位置情報データベース(DB)に登録されており、発音ポイントPmのプロット時に、通信ネットワークCNを通じて他端末の位置情報を自端末に取り込む。
【0032】
このような位置マッピングによる楽音形成は次のような手順1〜5で行う:
1.予め、位置情報を提供する各端末の識別情報(電話番号等)をサーバに登録しておく。ここで登録される各端末は、サーバSV側で無作為に抽出してもよいし、位置情報を提供可能な全端末としても良い。
2.登録された各端末は、自己のアプリケーションの起動により自身の位置情報を定期的にサーバSVに送信する。
3.或る端末(自端末)からリクエストと共に位置情報を受信したサーバSVは、登録されている各端末の位置情報から、当該自端末を基準点O(0,0)としたグリッド直交座標系GCに他端末の位置をマッピングする。
4.サーバSVは、当該自端末のグリッド座標系GCにマッピングされた他端末の位置情報を、当該自端末に返信してくる。
5.以下、当該自端末では、第1の実施態様〔1〕と同様に、発音パラメータを決定し、時間線の発音タイミングに従って楽音を生成する。
【0033】
なお、3については、サーバSVからは、実空間上の位置を提供するだけで、グリッド上への他端末位置のマッピングを自端末側で行うようにしても良い。また、他端末位置のマッピングでは、例えば、次のような処理が行われる:
・自端末を原点O(0,0)とした極座標とし、図3(2)のような変換曲線(Rmax=グリッドGC上の最大距離)に従って、他端末(点)までの実際距離(横軸)をグリッドGC上の座標距離d(縦軸)に変換し、発音ポイントPm(d,θ)を決定する。
・グリッド画面の上方向(y)を実位置空間の方位角“北”に対応させる。
【0034】
〔3〕第3の実施態様=ネットワーク方式(2)
図4は、ネットワーク方式による第3の実施態様〔3〕を説明するための図である。第3の実施態様〔3〕では、他端末の位置を自端末のグリッドGC上にマッピングして表示する仕組みについては、第2の実施態様〔2〕と同じであるが、各ポイントPmで発生する楽音を他端末の識別情報によって決定する。
【0035】
例えば、図4(1)において他端末位置に対応するポイントP1〜P3に付記した「電話番号(XXX−XXX−XXXX)」の下8桁(X=0〜9)を、図4(2)aに示すように、楽音パラメータに割り当てて楽音形成を行う。この例では、下8桁の上位2桁を音色番号TNに割り当て、次の2桁毎を第1音、第2音及び第3音の音高PT1,PT2,PT3に割り当てる。
【0036】
この場合、各パラメータは、理論的には2桁分の“0”〜“99”の値を取り得るが、自端末又はそのソフトウェアの発音能力に応じて、適宜、除算などを行って、利用可能な値に変換すればよい。例えば、次式などで音色番号を求める。
音色番号(0〜31) = XX mod 32
【0037】
利用する他端末の識別情報については、図4(2)aの電話番号のみならず、IPアドレス(IPv4:32bit,IPv6:128bit)を対象として同様の楽音情報への変換を行うことも可能である。IPアドレスを利用する場合(特に、IPv6の場合)、電話番号に比べて多量の情報を変換できるため、音高PTのみならず、音長或いはベロシティVL等、種々の楽音特性をも取得可能である。例えば、IPv6アドレスの場合、図4(2)bのように(X=4bit)変換することができる。
【0038】
すなわち、最初の2バイト(XXXX)については、音色番号TNを割り当てて、前の1バイト(XX)を音色バンクBkとし後の1バイトを音色枝番号Tnとする。続く6バイトはユーザ設定可能な「予約」桁とし、その後の2バイトをエフェクト指定EFに割り当てる。そして、2バイト毎を第3音、第2音及び第1音S3,S2,S1に割り当て、前のバイトを各音のベロシティVL3,VL2,VL1とし、後のバイトを各音の音高PT3,PT2,PT1とする。
【0039】
図4(2)のa,b各例の何れの場合においても、第1〜第n音が不協和音になる可能性があるため、協和音になるように音高を補正するようにしてもよい。なお、自端末のポイントである基準点O(0,0)を発音ポイントとし、この点Oに対応する各音も、上述した各例a,bと同様に決定することができる。もちろん、プロットされる発音ポイントPmと発生する楽音特性とをユーザが適宜設定・変更してもよい。
【0040】
〔同心円の発生及び表示態様〕
この発明の一実施例による楽音形成システムでは、各実施態様で説明したように、時間tの経過に従って各発音ポイントPm(x,y)を走査する同心円状の時間線C(t)は、任意の形状及び個数とすることができる。例えば、この時間線C(t)の形状は、図2〜図4に示される例では、円としたが、楕円、矩形、菱形、多角形など、任意の閉曲線を用いることができる。演算能力が低い端末装置の場合、閉曲線は点対称型であることが好ましい。
【0041】
時間線を表わす同心円C(t)は、典型的な動作として、図2のように、同心円Cはグリッド画面GC上を中心点O(0,0)から等速度で拡大して行く。ここで、「1画面に1円」の場合は、同心円Cが画面の範囲外(グリッド外)に出た時点で、次の円Cが中心点Oから発生する。これに対して「1画面に複数円」とすることもでき、この場合には、中心点Oから所定周期T毎に円Cが発生される。この場合、円Cの表示色又は濃度について発生時間順にグラデーションを掛けてもよい。また、円内については、1画面に「1円」及び「複数円」の何れの場合でも、円内を塗りつぶしたりグラデーションを掛けてもよい。
【0042】
「1画面に複数円」の場合の同心円の更なる発生及び表示態様として、グリッドGC上の発音ポイントPm(x,y)において、同心円C(t)により“エコー”を発生させるようにしてもよい。例えば、図5に示されるように、グリッドGC上の中心点O(0,0)から同心円(基準同心円)Cが拡大して行き、発音ポイントP1〜P3に到達する度に、当該各ポイントから、順次、“エコー”が発生して同心円(エコー同心円)C1〜C3が拡大して行く。
【0043】
図5の同心円の記号の意味は、次のとおりである:
C(t):中心点Oから発生した最新の基準同心円、
C1(t−T):1周期T前に発生した基準同心円C(t−T)が発音ポイントP1でエコーし、当該ポイントP1から発生したエコー同心円、
C2(t):最新の基準同心円C(t)が発音ポイントP2でエコーし、当該ポイントP2から発生したエコー同心円、
C3(t−T):1周期T前の基準同心円C(t−T)が発音ポイントP3でエコーし、当該ポイントP3から発生したエコー同心円。
【0044】
図5の例では、基準同心円Cは、既述のとおり、発音ポイントP1〜P3との接触に応じて楽音を発生させる。一方、エコー同心円C1〜C3も、中心点O及び他の発音ポイントP1〜P3(夫々のエコー発生ポイントを除く)との接触に応じて楽音を発生させる。エコーの発生は、基準同心円Cにより1回(段)限りでエコー同心円を発生させるようにしても、エコー同心円により更なるエコー同心円を複数回(段)にわたって発生させるようにしてもよい。また、エコー同心円がポイントO,P1〜P3との接触で発生する楽音は、エコー同心円を発生した点P1〜P3と中心点Oとの距離に応じて音量を下げる等、基準同心円Cと発音ポイントP1〜P3との接触で発生する楽音の特性とは異なる特性をもつように制御を行っても良い。
【0045】
〔スタンドアローン方式の処理動作〕
この発明の一実施例による楽音形成システムにおいて楽音形成機能を有するクライアント端末(自端末又は楽音形成端末)では、スタンドアローン版乃至ネットワーク版楽音形成プログラムに従って、上述してきた種々の実施態様で楽音形成処理を行うことができる。図6は、スタンドアローン版楽音形成プログラムによるメイン処理を表わすフローチャートである。
【0046】
このメイン処理フローでは、まず、スタンドアローン版楽音形成プログラムのアプリケーションを起動した後、各種パラメータを初期化し、アプリケーションウィンドウを表示し、また、ポイントリストや発音バッファを記憶手段2のRAM部に準備する等といった初期設定を実行する(ステップCA1:なお、以下、図6〜図11における各処理乃至動作ステップについては、ステップ記号“CA…”,“CB…”及び“S…”のみで表記するものとする)。次いで、順次、ユーザ操作処理(CA2)、画面更新処理(CA3)及び発音処理(CA4)を繰り返し行う処理ループに入る。このループ内の処理は、実際には、タイマ割込みで起動される。
【0047】
ループ(CA2→CA3→CA4→CA2)内においては、ユーザ操作処理(CA2)で、ユーザによる入力手段3の操作の有無が確認され、対応する処理が実行される。また、画面更新処理(CA3)では、描画ポイントPm(x,y)の更新及び同心時間円C(t)の更新が行われ、さらに、発音処理(CA4)では、時間円C(t)が接触したポイントPm(x,y)に対応した楽音を発生する指示が行われる。
【0048】
(1)ユーザ操作処理(CA2:図7)
図7は、スタンドアローン版メイン処理(図6:CA2)で実行されるユーザ操作処理の動作例を表わすフローチャートである。このユーザ操作処理フローがスタートすると、まず、入力手段3の操作に基づくユーザ指示がプロット動作であるか否かを判断する(CA21)。
【0049】
ここで、ディスプレイ画面に表示されたグリッドGC上へのポインティング操作があると、発音ポイントPm(x,y)に対する「プロット動作」と見なし(CA21→“プロット”)、ポイント有無の判断(CA22)に進む。ここで、ポインティングで指定された座標点に既に発音ポイントPmが設定されていれば(CA22→YES)、指定された当該ポイントPmをポイントリストから削除する(CA23)。
【0050】
一方、このポイント有無の判断(CA22)で、ポインティング指定の座標点に既存のポイントが無ければ(CA22→NO)、ポインティングされた座標点に発音ポイントPmを書き込み、ポイントリストに新規描画点として追加する(CA24)。この発音ポイント書込みステップ(CA24)では、さらに、第1の実施態様〔1〕で図2を用いて説明した楽音パラメータ(音名など)の決定などの各種演算処理が実行され、その結果はポイントリストに書き込まれる。
【0051】
さて、ユーザ指示の判断(CA21)でプロット動作でないと判断されると(CA21→“プロット以外”)、このアプリケーションによる処理を終了する旨をユーザが指示したか否かを判断する(CA25)。ここで、当該処理終了を指示していなければ(CA25→NO)、ユーザによる操作を受け付けて対応する「その他の処理」を実行する(CA26)。「その他の処理」には、描画色の変更や音色の変更などが含まれる。
【0052】
そして、ポイントの削除(CA23)又は追加(CA24)或いは「その他の処理」(CA26)の後は、このユーザ操作処理を終了し、メイン処理の画面更新処理(図6:CA3)にリターンする。また、図示しない終了ボタンを押し下げる等、このプログラムのアプリケーションの終了を指示する動作がなされたときは(CA25→YES)、メモリ(RAM部)の解放等を行って、当該アプリケーションを終了する。
【0053】
(2)画面更新処理(CA3:図8)
図8は、スタンドアローン版メイン処理(図6:CA3)で実行される画面更新処理の動作例を表わすフローチャートである。所定の画面更新レート(例えば、10ms毎)で割込みが入り、この画面更新処理ルーチンが呼び出されてスタートすると、まず、この画面更新処理ルーチンの呼出し時間(タイミング)tが時間円C(t)の更新タイミングに相当するか否かを判断する(CA31)。ここで、当該呼出し時間tが時間円C(t)の更新タイミングであると(CA31→YES)、時間円C(t)の現在の半径値rを時間円C(t)の拡大速度に応じた所定の増分値“Δr”だけ加算して“r←r+Δr”とする(CA32)。
【0054】
続いて、増大された半径rが所定の制限値Rmaxより大きいか否かを判定し(CA33)、この半径rが制限値Rmaxより大きいときは(CA33→YES)、時間円C(t)の半径rを値“0”に設定して(CA34)、未発音ポイント探索ステップ(CA35)に進む。また、増大された半径rが制限値Rmax以下のとき(CA33→NO)或いは呼出し時間tが時間円C(t)の更新タイミングでないときにも(CA31→NO)、未発音ポイント探索ステップ(CA35)に進む。
【0055】
未発音ポイント探索ステップ(CA35)では、グリッド座標GC上に、中心点O(0,0)から時間円C(t)の半径r未満の距離に未発音の発音ポイントPm(x,y)が存在するか否か、つまり、時間円Cが各ポイントPmを通過したか否かを判定する。ここで、この画面更新呼出しタイミングで時間円Cが通過乃至接触した未発音のポイントPmがあれば(CA35→YES)、該当する全てのポイントPmについて、ポイントリストの楽音パラメータに基づいて、対応する音高や音色の発音を指示し発音バッファにノートオンを出す(CA36)。ただし、ポイント有無の判断(図7:CA22)において新たに追加する点であって、時間円C(t)の半径r内の距離にプロットされたポイントPmは、発音対象から除外されるものとする。
【0056】
そして、発音指示(CA36)を行った後或いは未発音ポイントがないときには(CA35→NO)、半径rの同心円とポイントリストに存在する発音ポイントPmを再描画し(CA37)、その後、メイン処理の発音処理(図6:CA4)にリターンする。
【0057】
(3)発音処理(CA4:図9)
図8は、スタンドアローン版メイン処理(図6:CA4)で実行される発音処理の動作例を表わすフローチャートである。この発音発音処理フローでは、まず、発音バッファを検査して未発音のノートがあるか否かを判断する(CA41)。ここで、未発音ノートがあれば(CA41→NO)、該当する全ての未発音ノートについて発音処理を行い、発音処理したノートを発音バッファから削除する(CA42)。なお、この発音の処理ブロックにはトランケート処理が含まれる。この発音処理(CA42)の後或いは未発音ノートがないときは(CA41→NO)、メイン処理のユーザ操作処理(図6:CA2)にリターンする。
【0058】
〔ネットワーク方式の処理動作〕
図10は、複数のクライアント端末とサーバにより楽音形成システムが構成され、ネットワーク版楽音形成プログラムに従って楽音形成を行う場合の全体処理の概念を表わすフローチャートであり、図11は、この場合にサーバ側で行われる処理動作例を表わすフローチャートである。
【0059】
図10の全体処理フローでは、まず、楽音形成機能を有するクライアント端末(自端末又は楽音形成端末)CLにおいて、ネットワーク版楽音形成プログラムのクライアント側アプリケーションを起動した後、図6のスタンドアローン版の初期化ステップ(CA1)と同様に、各種パラメータを初期化し、アプリケーションウィンドウを表示し、また、ポイントリストや発音バッファを記憶手段2のRAM部に準備する等の初期設定を実行する。
【0060】
楽音形成端末CLは、続いて、GPSによる測位に基づいて、自端末の地理上の位置を緯度・軽度情報で表わした端末座標位置を取得する(CB11)。なお、端末座標位置を取得するための測位方法はGPSに限らない。例えば、移動無線端末(携帯電話等)であれば、所定の基地局との更新遅延時間の差に基づいて割り出すようにしてもよいし、無線LANの基地局の座標が予め判っている場合には当該基地局の座標を用いてもよい。次いで、楽音形成端末CLは、このようにして取得した端末座標位置をサーバSVに送信し、サーバSVからの情報提供をリクエストする(CB12)。
【0061】
ネットワーク版楽音形成プログラムのサーバ側アプリケーションに従って動作するサーバSVは、システム内で位置情報を提供するクライアント端末(データ送信端末と総称され、ここでは、全て、楽音形成端末であるものとする)CLからの端末座標位置を所定時間(例えば、5分)毎に受信して、記憶手段2の外部記憶部に構築された端末位置情報DBに蓄積している。
【0062】
ここで、上述のように端末CLから発信された端末座標位置及びリクエストを受信すると(S1)、これを端末位置情報DBに蓄積すると共に、所要のサーバ処理を行う(S2)。このサーバ処理には、端末位置情報DBに蓄積された各端末位置情報が表わす他端末位置を、当該端末CLの座標位置を中心点O(0,0)とするグリッド座標系GC上の位置に変換した相対位置情報を生成する処理が含まれる。そして、サーバ処理で生成した当該グリッド座標GC上の相対位置情報を当該端末CLに返信する(S3)。
【0063】
端末CLは、サーバSVからの相対位置情報を受信すると(CB13)、図6のスタンドアローン版のユーザ操作処理(CA2)、画面更新処理(CA3)及び発音処理(CA4)と同様に、ユーザ操作処理(CB2)、画面更新処理(CB3)及び発音処理(CB4)を繰り返し行う処理ループにより、自端末のグリッド座標系GC上に、受信した相対位置情報に対応する発音ポイントPmをプロットして楽音形成を行う。
【0064】
すなわち、このユーザ操作処理(CB2)については、基本的に、図7のスタンドアローン版ユーザ操作処理(CA2)と同じ処理動作を行うが、「プロット動作」に対応する処理(CA22〜CA24)は、サーバから取得した位置情報に応じた動作に読み替えばよい。また、画面更新及び発音処理(CB3,CB4)については、図7のスタンドアローン版の対応する処理(CA3,CA4)と同じである。
【0065】
なお、図10の端末側の各処理ステップ(SB11〜SB4)については、説明の便宜上、一連の処理として説明したが、各ステップは、独立した処理であって、それぞれ適当なタイミングにて実行されるものである。例えば、自端末位置の取得及び送信並びに他端末位置受信ステップSB11,SB12,SB13は、一定時間毎(例えば、5分毎)に実行される。
【0066】
次に、図10のネットワーク版全体処理で実行されるサーバ処理(S2)について、図11に示されるフロー例に従いより詳しく説明する。このサーバ処理動作フローは、データ送信端末(全て、楽音形成端末とする)CLからの端末座標位置を受信する(S1)ことでスタートし、まず、データ送信端末から端末座標位置を受信する毎に当該端末の端末位置情報を更新する(S21)。この場合、所定時間(例:5分)応答が無く位置情報を更新して来ない端末については、位置情報をサーバSVの端末位置情報DBから削除するようにしてもよい。
【0067】
次いで、他端末について当該データ送信端末CLからの相対的な位置を算出し(S22)、他端末について位置座標をグリッド座標GC上の相対位置に変換する(S23)。この場合、必要に応じて、楽音パラメータの算出などを含む「その他演算処理」を更に実行することができる(S24)。例えば、各位置座標の発音ポイントPm(x,y)に対応する音名(音色、音高列等の楽音特性)などの楽音パラメータの算出といった処理は、比較的負荷のかかる演算であるため、サーバーSVにおいて、画面上の座標位置算出(S22,S23)に加え、これら楽音パラメータを制御するための情報も決定して端末CLに送信し、端末CLの負荷を低減するように構成しても良い。そして、端末CLに必要な位置情報などを送信データとしてパケット化し(S25)、送信ステップ(S3)にリターンする。
【0068】
〔時間線のバリエーション〕
時間線C(t)には、図12(A)及び図13(B),(C)に示されるように、種々のバリエーションを採用することができる。時間線C(t)の形状については、既に説明したように、厳密な意味での「同心円」だけでなく、これ以外の任意の形状の閉曲線(折れ線を含む)を用いることができる。例えば、図12(A)に示すような菱形の時間線Ca(t)でもよく、また、図示しないが、楕円や、矩形、他の多角形形状(三角形以上、星形等)であってもよい。さらに、幾何学図形のみならず、例えば、何らかのキャラクタの輪郭など、任意の閉曲線形状であってもよい。
【0069】
また、時間線C(t)は、グリッド座標GC上の必要な箇所(例えば、全面)を走査することができるものであれば、閉曲線を用いず、開曲線(“曲線”の概念は直線を含む)を用いてもよい。例えば、図13(B)に示すように、レーダーの走査線と同様に、グリッド座標GCの端縁に達する線分が、グリッド座標GC内の端点を中心O(0,0)に、時間tの経過に従って回転する態様の時間線Cb(t)を用いることができる。このような時間線Cb(t)の形状は、図示の直線状のもの以外に、任意の曲線で良いし、グリッド座標GC内端点は原点O(0,0)で無くてもよい。
【0070】
さらに、時間線C(t)の動きについては、図12(A)のような菱形や、星形など、任意の閉曲線図形がグリッド座標GC上で回転して必要な箇所を走査可能なものであってもよい。また、図13(C)に示すように、時間線図形自体が時間tの経過に従ってグリッド座標GC上を移動する時間線Cc(t)でもよい。この場合、移動アルゴリズムは、ランダムウォークや、ピンボールのように反射する(図示)等、種々の手法を採用することができる。また、時間線図形の形状は円以外に任意の形状としたり、“発射位置”も、原点O(0,0)で無く、適当に変更してよい。
【0071】
以上、述べた何れの態様の時間線C(t)を用いた場合であっても、時間線図形の形状は時間的に変化(アニメーション・モーフィング)してもよく、また、これらを組み合わせても良い。
【0072】
〔ポイント表示のバリエーション〕
ディスプレイに表示されるグリッド座標GC上の発音ポイントPmについても、図13に例示されるように、任意の表示態様を採用することができる。例えば、大円で示される発音ポイントPaのように、ポイントPmの表示サイズは可変でもよい。この場合、ユーザの意図とは無関係に適宜(ランダムに)大きさを決定してもよいし、ユーザが意図的に変更してもよい。また、大きさは一定でなくてもよく、周期的に変動させてもよい。特に第2及び第3の実施形態の場合には(図3及び図4)、例えば、複数の他端末の位置をグリッド画面GC上にマッピングした結果、発音ポイントが同一座標にプロットされる場合があり得、グリッドGC上の発音ポイントPmの密度に応じて、表示されるポイントの大きさを変えるようにしてもよい。
【0073】
プロットされる発音ポイントPmは、うさぎマークのアイコンで表示されるポイントPbのように、任意の形状を採用することができる。例えば、円、楕円、多角形などの幾何学形状や、図示のような任意のアイコンでもよい。この場合、第2及び第3の実施形態(図3及び図4)であれば、発音ポイントPmの形状を他端末の識別情報(電話番号等)に対応付けてもよい。また、第2及び第3の実施形態の場合、上述したポイントPbの「はなこ」のように、他端末の所有者や電話番号などの識別情報も併せて表示するようにしてもよい。これらの情報は、全てサーバが提供するようにしてもよいし、電話番号やアドレス情報に基づいてユーザ名等を自端末で判定するようにしてもよい。
【0074】
発音ポイントPmの移動については、第2及び第3の実施形態(図3及び図4)の場合、自端末と他端末との相対的な位置関係が時間的に変化するため、自ずから発音ポイントは移動するようになっているが、第1の実施形態(図2)の場合は、発音ポイントPcで図示されるように、プロットした発音ポイントPmをグリッド上で移動させてもよい。この場合、図13(C)で述べた手法と同様の移動アルゴリズムを採用することができる。
【0075】
〔種々の実施態様〕
以上、図面を参照しつつ、この発明を一実施例について説明したが、これは単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能であり、種々の態様で発明を実施することができる。例えば、実施例においては、時間線C(t)を、自端末位置に対応する中心点O(0,0)から拡大する同心円とした。しかしながら、時間線C(t)の形状は、既述したように、どのようなものであってもよい。また、時間線C(t)は、中心点O以外の画面上の発音ポイントPm(x,y)を起点として描画するようにしてもよい。時間線C(t)は、中心点Oや発音ポイントPmなどの所定の点に向かって収縮するようものであってもよい。時間線C(t)は、レーダーのスキャン線のように、これら所定の点を中心に回転するものでもよい。
【0076】
第2及び第3の実施形態(図3及び図4)において、グリッド画面上の座標位置と楽音情報との対応付けは種々の改良策を採用することができる。例えば、中心点O(0,0)からの方向に応じて異なる音色を割り当てる。この場合、例えば、上下左右の4方向のみ音色を割当て、中間方向は2音色を方角に応じた割合で混合するようにしてもよい。また、複数のフレーズ(演奏シーケンスデータ)を中心点Oからの方向(方角)θに応じて割り当て、更に、距離dに応じてフレーズの演奏テンポやエフェクト(例えばリバーブ)の掛り具合を制御するようにしてもよい。また、これらを複合的に適用してもよい。例えば、方角θ→音色、距離d→フレーズや、方角θ→音階、距離d→エフェクト、等々。さらに、中心点Oからの方位角でなく、例えば、横方向x=パン、縦方向y=音階などのように、x−y座標位置に基づいて楽音特性(パラメータ)を決定しても良い。
【0077】
第2及び第3の実施形態においては、他端末の実際の相対位置(東西南北)を画面上の相対位置(右左下上)に対応付けたが他の形態であってもよい。例えば、画面上の相対位置上下を自端末の進行方向に対応付けてもよい。この場合、自端末の進行方向は、直前の位置情報との差分を取ることで容易に判定することができ、また、ジャイロ等を用いて自端末の向いている方向を検出するように構成することもできる。
【0078】
第2及び第3の実施形態においては、サーバSVが1乃至複数の一部の他端末の位置情報を提供するレンジ(地理的範囲)を設定することができるようにしてもよい。例えば、測位手法の検出精度を最小レンジとして、自端末を基準に、半径10km以内、前方10km以内等、或いは、○○市などの特定地区内等の範囲内にある他の端末の位置情報を提供する。また、例えば、自端末の北20kmの地点を起点とした半径10km以内の他端末の位置を取得する等、グリッド画面GCに表示可能な範囲外に自端末の位置を対応づけるものであってもよい。
【0079】
表示されるグリッド画面GCやプロット可能なグリッド領域の形状GCは、実施例のような矩形に限らず、円形(楕円形)、菱形等、任意である。また、発音ポイントPm(x,y)のプロット状態乃至当該ポイントPmに対応する楽音特性(楽音パラメータ)を端末CLの内蔵或いは外部の記憶媒体に記憶したり、他の端末に送信したりする機能をもたせてもよい。
【0080】
第2及び第3の実施形態において、他端末との位置情報との交換は、必ずしもサーバSVを介さなくても良い。GPSにより取得した緯度経度情報や、端末間通信によって測定する互いの相対的な位置関係などの情報は、端末同士で直接位置情報を授受するようにしてもよい。
【0081】
プロットされる発音ポイントは、自端末位置の履歴情報を用いてもよい。また、特願2002−381458のように、自端末の位置を定期的にサンプリングし、グリッドGC上にマッピングしてもよい。
【0082】
【発明の効果】
以上説明したように、この発明によれば、時間経過に従って、2次元空間座標上を同心状に拡大/縮小したり、回転したり、或いは、順次方向を変化する時間線で、発音ポイントを走査するようにしているので、楽音生成の時間軸を1方向に固定した従来の方法にはない面白みのある音楽を作成することができる。また、時間の関数として変動する時間線で発音ポイントを走査することで音楽を生成するのに伴って、音楽生成の原因となる発音ポイント及び時間曲線を画面に表示することで、見た目にも美しいと感じることができる。
【図面の簡単な説明】
【図1】図1は、この発明の一実施例による楽音形成システムの構成の概要を表わす図である。
【図2】図2は、この発明の一実施例による楽音形成の第1の実施態様〔1〕を説明するための図である。
【図3】図3は、この発明の一実施例による楽音形成の第2の実施態様〔2〕を説明するための図である。
【図4】図4は、この発明の一実施例による楽音形成の第3の実施態様〔3〕を説明するための図である。
【図5】図5は、同心円状時間線の発生及び表示態様の例を表わす図である。
【図6】図6は、この発明の一実施例によるスタンドアローン版楽音形成のメイン処理を表わすフローチャートである。
【図7】図7は、この発明の一実施例によるスタンドアローン版楽音形成におけるユーザ操作処理を表わすフローチャートである。
【図8】図8は、この発明の一実施例によるスタンドアローン版楽音形成における画面更新処理を表わすフローチャートである。
【図9】図9は、この発明の一実施例によるスタンドアローン版楽音形成における発音処理を表わすフローチャートである。
【図10】図10は、この発明の一実施例によるネットワーク版楽音形成の全体処理の概念を表わすフローチャートである。
【図11】図11は、この発明の一実施例によるネットワーク版楽音形成におけるサーバ処理を表わすフローチャートである。
【図12】図12は、時間線のバリエーション〔1〕を説明するための図である。
【図13】図13は、時間線の他のバリエーション〔2〕を説明するための図である。
【図14】図14は、ポイント表示のバリエーションを説明するための図である。
【符号の説明】
SV サーバ
CL:CL1〜CLn クライアント端末(楽音形成装置)、
GC グリッド座標系又は表示画面、
O 基準点、中心点又は原点(0,0)、
Pm;P1,P2,P3;Pa,Pb,Pc 発音ポイント、
C;C1,C2,C3;Ca,Cb,Cc 時間線、
d,θ 任意の発音ポイントPm(x,y)の原点Oからの距離及び角度、
Rmax 最大距離又は最大半径、
PN 音名データ、
PT1,PT2,PT3 音高データ、
TN,Bk,Tn 音色番号、音色バンク番号及び音色枝番号、
EF エフェクト指定データ、
P1,P2,P3 第1〜3音制御データ、
VL1,VL2,VL3 ベロシティデータ。
r 同心円状時間線C(t)の半径、
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a novel tone generation system for forming tone information using point information plotted on a two-dimensional plane and a time line that fluctuates on the same plane.
[0002]
[Prior art]
Creating music by drawing figures has been known for some time. For example, Non Patent Literature 1 discloses a piano roll display, and Patent Literatures 1 and 2 disclose a technique for converting a figure drawn on a two-dimensional plane into a musical tone. The horizontal axis is the time axis and the vertical axis is the pitch.
[0003]
[Non-patent document 1]
"XGworks V4.0 Instruction Manual", Yamaha Corporation, 1999 (pages 5-3, etc.).
This document describes a performance display method of sequencer software. When performance information is input by a piano roll display, one axis of a rectangular coordinate system is regarded as a time axis, and the other axis is regarded as a musical scale. Display and edit performance information. In addition, a rectangular figure is drawn instead of the note in the staff notation, and the scale, sounding timing, and sounding time are expressed by the position and size of the rectangle. A "bar" indicating a performance position is displayed so as to move on the display screen as the performance progresses.
[0004]
[Patent Document 1]
JP-A-5-333858 (FIG. 3)
This document discloses a system that creates a melody by associating features extracted from a sequentially expanding fractal figure with pitch and duration, and as a fractal figure, the horizontal axis is a time axis and the vertical axis is a vertical axis. An example in which the pitch is set is described.
[0005]
[Patent Document 1]
JP-A-6-318074
This document describes an input device for converting XY two-dimensional graphic data drawn by the drawing device 10 into musical sound data having an X-axis as a time axis and a Y-axis as a frequency (pitch) axis. I have.
[0006]
However, these conventional forms usually require more or less musical knowledge, and in addition to the data input operation of "striking", the creation of music data takes considerable time and effort. Met. In addition, the element of "collaborating with others" was hard to enter into this driving work, and there was no pleasure in communication. In addition, the music once completed was fixed and unchanging.
[0007]
Further, in such a conventional method, since music advances along a fixed direction such as a horizontal axis (X axis) or a vertical axis (Y axis), music to be created becomes uniform. In order to display music progress in the form of wiping from left to right or from top to bottom, the display method when playing music is also uniform, lacking in beauty and not interesting Was something.
[0008]
[Problems to be solved by the invention]
It is a primary object of the present invention to provide a music system that is interesting by scanning sound points plotted on a display screen representing two-dimensional spatial coordinates as a function of time as a function of time. It is an object of the present invention to provide a musical tone forming system that can create a musical tone and display a sounding point and a time curve together with the generation of music, so that the musical tone can be made to look beautiful.
[0009]
[Means for Solving the Problems]
According to one feature of the present invention, point plotting means (CA2; CA24, CB3) for plotting sounding points (Pm; P1 to P3) on a display screen (GC), and time lapse on a display screen (GC). A first line drawing means (CA3; CA37, CB3) for drawing a first time line (C, Ca) that expands or contracts around a reference point (O) at a predetermined position in accordance with the first time line (C, Ca). ) In contact with the sounding point (Pm) (CA35 → CA36), and a first musical sound forming means (CA4; CA42, CB4) for forming musical sound information corresponding to the sounding point (Pm). Tone generating device (CL: CL1 to CLn) [Claim 1], a point plotting means (CA2, CB2) for plotting sounding points (Pm) on a display screen (GC), and a time plotting means on a display screen (GC). A first line drawing means (CA3, CB3) for drawing a first time line (Cb) that rotates around a reference point (O) at a predetermined position according to progress, and the first time line (Cb) is a sound generation point (Pm). A tone generation device (CL) including first tone generation means (CA4, CB4) for forming tone information corresponding to the sounding point (Pm) in response to the contact with the tone generation point (Pm) [Claim 2]; A point plotting means (CA2, CB2) for plotting sounding points (Pm) on the display screen (GC); and a point plotting means for sequentially changing the direction on the display screen (GC) based on a predetermined moving algorithm with time. First line drawing means (CA3, CB3) for drawing one time line (Cc), and corresponding to the sounding point (Pm) in response to the first time line (Cc) touching the sounding point (Pm) Easy to do The first tone forming means (CA4, CB4) and tone formation apparatus having a (CL) [Claim 3] is provided to form the information. Note that parentheses indicate reference symbols or parts in the corresponding embodiment, and the same applies to the following.
[0010]
The tone generating apparatus (CL) according to the present invention further includes a second time line (C1 to C3) in response to the first time line (C, Ca to Cc) contacting the sound generation point (Pm; P1 to P3). ) And the second time line (FIG. 5: C1 to C3) corresponding to the sounding point (Pm) in response to the touching of the sounding point (Pm) with the second line drawing means (CA3, CB3). And second musical tone forming means (CA4, CB4) for forming musical tone information to be generated. Further, the second musical sound forming means (CA4, CB4) responds to the first time line (C, Ca to Cc) contacting the sound generation point (Pm). Thus, tone information having characteristics different from those of the tone information formed by the above-described method can be formed.
[0011]
In the musical sound forming apparatus (CL) according to the present invention, the coordinate positions of the sounding point (Pm) to the reference point (O) are represented by polar coordinates (d, θ) or rectangular coordinates (x, y). It can be configured as follows.
[0012]
The musical tone forming device (CL) according to the present invention further comprises a first musical tone forming device (Pm) corresponding to a sound generation point (Pm) according to a coordinate position based on an origin set at a predetermined position on the display screen (GC). It is possible to provide a tone characteristic determining means [FIG. 2 (2)] for determining the characteristic of the tone information formed by the means (CA4, CB4). The tone characteristic determining means determines at least one of a pitch, a timbre, a volume, and a tone effect characteristic according to an azimuth (θ) based on the origin (O) of the sound generation point (Gm). [Claim 8] It can be configured as follows.
[0013]
[Function of the Invention]
In the tone generating apparatus (CL) according to the present invention, the first time line (C, Ca to Cc) representing the performance timing has an arbitrary shape with respect to the two-dimensional grid coordinate system (GC) formed on the display screen. It is drawn with a figure. The first time line (C, Ca to Cc) is updated at predetermined intervals and fluctuates as time (t) elapses (CA37). Further, on the display screen (GC), sound generation points (Pm; P1 to P3) can be plotted at arbitrary points (CA24). When the first time line (C, Ca to Cc) touches the plotted sound point (Pm) (CA35 → CA36), a musical tone corresponding to the sound point (Pm) is generated (CA42). Further, in order to displace the time line (C, Ca to Cc) depending on the passage of time, the first time line (C, Ca) is set with a predetermined position on the display screen (GC) as a reference point (O). Enlarging or reducing [FIG. 2, FIG. 12 (A)] rotating the first time line (Cb) [FIG. 13 (B)], or moving the first time line (Cc) based on a predetermined moving algorithm. There is a method of sequentially changing the direction and moving (FIG. 13C).
[0014]
According to the present invention, unlike the conventional method in which the time progress axis of the musical sound generation is fixed in one direction, the two-dimensional space coordinates (GC) are concentrically enlarged / reduced as time (t) elapses. Since the sounding point (Pm) is scanned by the first time line (C, Ca to Cc) that changes, rotates, or sequentially changes the direction, it is possible to play music that has never been more interesting. Can be created. In addition, along with the performance of the music generated by scanning the sounding point (Pm) on the same coordinates with the time curve (C, Ca to Cc) that varies as a function of time, the sounding point Pm and the time curve (C , Ca to Cc), the user can feel beautiful in appearance.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
[Overview of the system]
FIG. 1 is a diagram showing an outline of the configuration of a musical sound forming system including a distribution server and a client terminal according to an embodiment of the present invention. As shown in the overall view of FIG. 1 (1), this musical tone forming system has one or a plurality of distribution servers (one in the illustrated example, but may have a plurality) having a position information providing function. , CLn, and a plurality of client terminals CL1, CL2,..., CLn. These devices SV, CL1 to CLn are communicably connected to each other via a communication network CN.
[0016]
A computer is used for each of the distribution server SV and each of the client terminals CL1 to CLn. For example, the distribution server SV uses a personal computer, a workstation, or the like, and basically collects and distributes position information of the client terminals CL1 to CLn. Each of the client terminals CL1 to CLn may be a fixedly installed information processing device such as a personal computer, a dedicated game machine, or a set pop box, but should be a mobile terminal device such as a mobile phone, a PDA, or a car navigation terminal. Is desirable. The communication network CN connecting the distribution server SV and the client terminals CL1 to CLn (or the base stations with which the terminals CL1 to CLn actually communicate) includes a LAN and a wide area communication network such as the Internet or a telephone line network. included.
[0017]
The client terminal CL (CL typically represents each of CL1 to CLn) includes a central processing unit (CPU) 1, a storage unit 2, and an input unit as illustrated in the internal configuration block diagram of FIG. 3, an output unit 4, a communication unit 5, etc. are provided. These units 1 to 5 are connected to each other via a bus 6. The CPU 1 executes processes related to tone generation, transmission / acquisition of position information, and the like according to a predetermined control program. The storage unit 2 includes a read-only memory (ROM) unit that stores a control program and control data, a random access memory (RAM) unit that temporarily stores processing data, and the like, an external storage unit that stores various data and programs, and the like. These storage units are a semiconductor memory such as a flash memory, a magnetic recording medium such as a flexible disk (FD), a tape device, and a hard disk (HD), and an optical storage medium such as a CD, DVD, and MO. Can be configured.
[0018]
The input unit 3 includes key devices such as a keyboard and various switches, and operating devices such as a pointing device such as a mouse and a tablet. Depending on the type of terminal, a sound waveform or image data input device such as a microphone or a camera may be further provided. Including. The output unit 4 includes a visible display unit including a display such as a CRT and an LCD, and an audio output (sound notification) unit including a sound source and a speaker. Depending on the type of the terminal, a printing unit such as a printer is further provided. Is also provided.
[0019]
The communication unit 5 is a unit for communicating with the server SV or another client terminal via the communication network CN, and includes a modem, an Ethernet (Ethernet) (registered trademark) interface, and preferably via the Internet. And communicates with a distribution server (hereinafter simply referred to as a server) SV. Each client terminal CL also has a GPS (Global Positioning System) reception and positioning function or a positioning function in place of it, thereby acquiring its own physical location information and acquiring it. The position information can be transmitted to the server SV by HTTP communication or the like.
[0020]
Note that the control programs prepared in the storage means 2 of each client terminal CL include a stand-alone version tone generation program and a network version tone generation program. By using the stand-alone version, each terminal CL can independently form musical sound information in a stand-alone system based on data injection. When a network version is used, tone information can be automatically formed by a network method using information provision from the server SV.
[0021]
The server SV has an internal configuration similar to that of FIG. 1 (2), and can provide a control program and data to each client terminal CL. In particular, the external storage unit of the storage unit 2 includes a terminal position information database (DB) that stores absolute position information (light latitude information) of each client terminal CL. The individual position information of each client terminal CL itself obtained by GPS or the like is transmitted to the server SV periodically (or as needed), stored in the terminal position information DB, and sequentially updated. The server SV operates according to the server-side application of the network version tone generation program when each client terminal CL forms a tone using a network method, and uses the location information stored in the terminal location information DB to obtain necessary information. Can be generated and sent to the client terminal CL.
[0022]
When forming a musical tone by the network method, the client terminal CL transmits its own positional information and requests the server to provide information. The server SV extracts the absolute position information of other terminals existing around the request terminal CL from the terminal position information DB and converts the absolute position information into relative position coordinates (grid coordinate information) required by the request terminal CL. The converted set of position information is distributed to the request terminal CL via the communication unit 5. In the request terminal CL, the acquired position information is mapped and displayed on two dimensions, and the two-dimensional information is converted into musical sound information.
[0023]
[Various embodiments related to musical tone formation]
In the musical sound forming system according to one embodiment of the present invention, the user of each client terminal determines on the two-dimensional grid coordinates independently at the terminal itself or using terminal position information distributed from the server SV. The tone data can be generated by scanning a plurality of sounding points (hereinafter sometimes referred to as “points” or “points”) on a time line. In the following, various embodiments will be described with respect to musical tone formation in the case of using a concentric time line C (t) whose diameter increases with time.
[0024]
[1] First embodiment = stand-alone system
FIG. 2 is a diagram for explaining a first embodiment [1] of such tone generation. On the display of the output means 4 of each client terminal CL, a two-dimensional grid coordinate GC having xy axes is displayed. In an initial state, a center point (also referred to as a “reference point”) O (0, Only 0) exists on the coordinate GC. On the other hand, the user uses the pointing device or the like of the input means 3 to input a sounding point Pm (x, y) [m = 1, 2, 3,...] As shown in FIG. Then, the grid coordinate position of each point Pm is written in the point list secured in the RAM section of the storage means 2.
[0025]
At the time of performance (musical tone generation), a concentric circle spreading like a ripple from the center point O (0, 0) as time t elapses is displayed on the display screen on which the sounding points Pm (x, y) of the point list are displayed. C (t) is sequentially drawn. Then, when the concentric circle C (t) touches the sounding point Pm (x, y), a sound corresponding to the point Pm is generated at that time. That is, the sounding timing of the sounding point Pm depends on the distance d from the center point O (0, 0). As shown in FIG. 2A, when P1 (2, 3), P2 (-2, -1), and P3 (4, -4) are input as sounding points Pm, P2 → P1 → P3 is pronounced in order, and in the illustrated display state, point P2 is pronounced. When the “ripple” [concentric circle C (t)] is periodically emitted from the center point O, a sound such as a sonar sound may be generated from the sound output unit of the output unit 4.
[0026]
The parameters of the tone generated at this time depend on the angle θ of the sound generation point Pm (x, y). For example, it is possible to determine the musical note name PN corresponding to the direction θ from the center point O (0, 0) according to the assignment example as shown in FIG. In this assignment example, the pitch PN = “C” is assigned to the first angle range −π / 12 to + π / 12 centered on the + x axis by dividing the entire angle 2π into twelve equal parts. PN = “C♯” to “B” are sequentially assigned to the angle range of. When this example of allocation is applied to the sound generation points in FIG. 2A, the points P1 are "D", P2 is "G", and P3 is "B".
[0027]
An example of a procedure for determining a note name PN for each sounding point Pm (x, y) will be described below. First, at the start of a performance or at the time of plotting (pointing in) the point Pm, for each point,
X = x 2 , Y = y 2 , D = d 2 = X + Y, S = sin 2 θ = Y / D
And calculate
n = 0
if sin 2 (Π / 12) ≦ S <sin 2 (Π / 4) then n = 1
if sin 2 (Π / 4) ≦ S <sin 2 (5π / 12) then n = 2
if sin 2 (5π / 12) ≦ S <sin 2 (Π / 2) then n = 3
if x ≦ 0 and y> 0 thenn = n + 3
ifx <0 and y ≦ 0 thenn = n + 6
if x ≧ 0 and y <0 thenn = n + 9
if n = 12 then n = 0
The pitch name number n is calculated in such a procedure as described above, and the pitch name PN is determined (n = 0: PN = “C”, n = 1: PN = “C♯”,..., N = 11: PN = “B” ).
When the pronunciation point Pm is added, the note name is determined for the added point Pm in the above-described procedure.
[0028]
In this case, the octave, volume, tone, etc. may be determined according to the magnitude of the distance d from the center point O (0,0) of the sound generation point Pm (x, y). For example, as the position of the sounding point Pm is farther from the center point O, the tone range is determined to be higher / lower, the volume is lower / higher, or the like. Follow the cross-fade to the saxophone sound. Of course, the conversion characteristic of the “coordinate position → tone” characteristic of the sound generation point Pm may be arbitrarily changed / set by the user.
[0029]
When the tone parameters are determined in this way, the parameters are added to a record for each sounding point in the point list. That is, for one record, the x- and y-axis coordinate values “x” and “y” of the pronunciation point Pm (x, y), the distance “d” from the center point O (0, 0), and the sound It has four fields of tone parameters such as name number n (or note name PN), and the sound point Pm listed in the point list includes the center point O.
[0030]
[2] Second embodiment = Network system (1)
In the first embodiment [1] described above, the tone generation is performed by the stand-alone method in which each client terminal CL independently plots the sound generation point Pm (x, y). A tone can be formed by a network method in which the point Pm is determined through the communication network CN. FIG. 3 is a diagram for explaining a second embodiment [2] based on the network system.
[0031]
The second embodiment [2] is basically the same as the first embodiment [1] of FIG. 2 with regard to the determination of the sounding timing and the sounding parameter, but as shown in FIG. , The position of a client terminal (referred to as “own terminal” or “tone generating terminal”) that forms a musical tone is defined as a center point O (0, 0) on grid coordinates GC, and a sound generation point Pm (x, As for y), the physical position of another client terminal (other terminal) is mapped on the grid coordinates GC. In this case, the position of the own terminal and the actual position of the other terminal are measured by a delay time measurement between a GPS and a radio station (the physical position is known in advance), and the terminal of the server SV is sequentially used as position information. It is registered in a position information database (DB), and takes in the position information of another terminal into its own terminal via the communication network CN when plotting the sounding point Pm.
[0032]
Musical tone formation by such position mapping is performed in the following procedures 1 to 5:
1. The identification information (telephone number or the like) of each terminal that provides location information is registered in the server in advance. Each terminal registered here may be randomly extracted on the server SV side, or may be all terminals that can provide location information.
2. Each registered terminal periodically transmits its own position information to the server SV by activating its own application.
3. The server SV, which has received the position information together with the request from a certain terminal (own terminal), converts the position information of each registered terminal into a grid orthogonal coordinate system GC using the own terminal as a reference point O (0, 0). Map the location of another terminal.
4. The server SV returns the position information of the other terminal mapped to the grid coordinate system GC of the own terminal to the own terminal.
5. Hereinafter, in the same manner as in the first embodiment [1], the own terminal determines sound generation parameters and generates musical tones according to the sound timing of the time line.
[0033]
For 3, the server SV may provide the position in the real space only, and the mapping of the other terminal position on the grid may be performed on the own terminal side. In the mapping of the other terminal position, for example, the following processing is performed:
The actual distance (horizontal axis) to another terminal (point) according to a conversion curve (Rmax = maximum distance on grid GC) as shown in FIG. ) Is converted to a coordinate distance d (vertical axis) on the grid GC, and a sound generation point Pm (d, θ) is determined.
-The upward direction (y) of the grid screen is made to correspond to the azimuth "north" in the real position space.
[0034]
[3] Third embodiment = Network system (2)
FIG. 4 is a diagram for explaining a third embodiment [3] based on the network system. In the third embodiment [3], the mechanism for mapping and displaying the position of the other terminal on the grid GC of the own terminal is the same as that of the second embodiment [2], but is generated at each point Pm. The tone to be played is determined based on the identification information of the other terminal.
[0035]
For example, the lower eight digits (X = 0 to 9) of “telephone number (XXX-XXX-XXXX)” added to points P1 to P3 corresponding to the other terminal positions in FIG. As shown in a, a musical tone is formed by assigning it to musical tone parameters. In this example, the upper two digits of the lower eight digits are assigned to the tone number TN, and the next two digits are assigned to the pitches PT1, PT2, and PT3 of the first, second, and third tones.
[0036]
In this case, each parameter can theoretically take a value of “0” to “99” for two digits, but it is necessary to appropriately perform division or the like according to the pronunciation capability of the terminal or its software, and What is necessary is just to convert it into a possible value. For example, the timbre number is obtained by the following equation.
Tone number (0 to 31) = XX mod 32
[0037]
Regarding the identification information of the other terminal to be used, it is possible to convert not only the telephone number shown in FIG. 4 (2) a but also the same tone information for IP addresses (IPv4: 32 bits, IPv6: 128 bits). is there. When an IP address is used (especially in the case of IPv6), since a larger amount of information can be converted than a telephone number, not only the pitch PT but also various tone characteristics such as a tone length or a velocity VL can be acquired. is there. For example, in the case of an IPv6 address, it can be converted (X = 4 bits) as shown in FIG.
[0038]
That is, a tone color number TN is assigned to the first two bytes (XXXX), the preceding one byte (XX) is set as the tone bank Bk, and the subsequent one byte is set as the tone branch number Tn. The following 6 bytes are “reserved” digits that can be set by the user, and the subsequent 2 bytes are assigned to the effect designation EF. Then, every two bytes are assigned to the third sound, the second sound and the first sound S3, S2, S1, the preceding byte is set to the velocity VL3, VL2, VL1 of each sound, and the subsequent byte is set to the pitch PT3 of each sound. , PT2, and PT1.
[0039]
In any of the examples a and b in FIG. 4B, since the first to n-th sounds may be dissonant, the pitch may be corrected so as to be a consonant. . Note that the reference point O (0, 0), which is the point of the terminal, is set as the sound generation point, and each sound corresponding to this point O can be determined in the same manner as in each of the examples a and b described above. Of course, the user may appropriately set or change the plotted sounding points Pm and the generated tone characteristics.
[0040]
[Concentric circle generation and display mode]
In the tone generation system according to one embodiment of the present invention, as described in each embodiment, the concentric time line C (t) that scans each sounding point Pm (x, y) as the time t elapses is arbitrary. Shape and number. For example, the shape of the time line C (t) is a circle in the examples shown in FIGS. 2 to 4, but any closed curve such as an ellipse, a rectangle, a rhombus, and a polygon can be used. In the case of a terminal device having a low computing capacity, the closed curve is preferably of a point-symmetric type.
[0041]
As a typical operation, the concentric circle C (t) representing the time line expands at a constant speed from the center point O (0,0) on the grid screen GC as shown in FIG. Here, in the case of “one circle per screen”, the next circle C is generated from the center point O when the concentric circle C comes out of the range of the screen (out of the grid). On the other hand, “a plurality of circles per screen” may be used. In this case, a circle C is generated from the center point O every predetermined period T. In this case, gradation may be applied to the display color or density of the circle C in the order of generation time. Regarding the inside of the circle, in either case of “one circle” or “multiple circles”, the inside of the circle may be filled or gradation may be applied.
[0042]
As a further generation and display mode of concentric circles in the case of "a plurality of circles on one screen", an "echo" may be generated by concentric circles C (t) at sounding points Pm (x, y) on grid GC. Good. For example, as shown in FIG. 5, each time a concentric circle (reference concentric circle) C expands from a center point O (0, 0) on the grid GC and reaches sounding points P1 to P3, the respective points are changed from the respective points. Then, an "echo" is sequentially generated, and concentric circles (echo concentric circles) C1 to C3 expand.
[0043]
The meanings of the concentric symbols in FIG. 5 are as follows:
C (t): latest reference concentric circle generated from the center point O,
C1 (t−T): a reference concentric circle C (t−T) generated one cycle T before echoes at the sound generation point P1, and an echo concentric circle generated from the point P1;
C2 (t): the latest reference concentric circle C (t) echoes at the sounding point P2, and an echo concentric circle generated from the point P2;
C3 (t−T): A reference concentric circle C (t−T) before one cycle T echoes at the sound generation point P3, and is an echo concentric circle generated from the point P3.
[0044]
In the example of FIG. 5, as described above, the reference concentric circle C generates a musical tone in response to contact with the sound generation points P1 to P3. On the other hand, the echo concentric circles C1 to C3 also generate musical tones in contact with the center point O and the other sound generation points P1 to P3 (excluding the respective echo generation points). Echo generation may be such that the echo concentric circle is generated only once (stage) by the reference concentric circle C, or further echo concentric circles may be generated a plurality of times (stage) by the echo concentric circle. The tone generated by the contact of the echo concentric circles with the points O and P1 to P3 corresponds to the reference concentric circle C and the sounding point such as decreasing the volume according to the distance between the points P1 to P3 at which the echo concentric circles are generated and the center point O. The control may be performed so as to have a characteristic different from the characteristic of a tone generated by contact with P1 to P3.
[0045]
[Stand-alone processing operation]
In the tone generation system according to one embodiment of the present invention, a client terminal (own terminal or tone generation terminal) having a tone generation function according to the above-described various embodiments in accordance with the tone generation program according to the stand-alone version or the network version tone generation program. It can be performed. FIG. 6 is a flowchart showing the main processing by the stand-alone version of the tone generation program.
[0046]
In this main processing flow, first, the application of the stand-alone version tone generation program is started, various parameters are initialized, an application window is displayed, and a point list and a sound buffer are prepared in the RAM unit of the storage means 2. (Step CA1: Hereinafter, each processing or operation step in FIGS. 6 to 11 is represented by only the step symbols “CA...”, “CB...”, And “S...”). And). Next, a process loop for sequentially repeating the user operation process (CA2), the screen update process (CA3), and the sound generation process (CA4) is entered. The processing in this loop is actually started by a timer interrupt.
[0047]
In the loop (CA2 → CA3 → CA4 → CA2), in the user operation process (CA2), it is confirmed whether or not the user has operated the input unit 3 and the corresponding process is executed. In the screen updating process (CA3), the drawing point Pm (x, y) is updated and the concentric time circle C (t) is updated. In the sound generation process (CA4), the time circle C (t) is updated. An instruction to generate a musical tone corresponding to the touched point Pm (x, y) is issued.
[0048]
(1) User operation processing (CA2: FIG. 7)
FIG. 7 is a flowchart illustrating an operation example of a user operation process executed in the stand-alone version main process (FIG. 6: CA2). When the user operation processing flow starts, first, it is determined whether or not a user instruction based on an operation of the input unit 3 is a plotting operation (CA21).
[0049]
Here, if there is a pointing operation on the grid GC displayed on the display screen, it is regarded as a “plot operation” for the sounding point Pm (x, y) (CA21 → “plot”), and a determination is made as to whether or not there is a point (CA22). Proceed to. Here, if the sound generation point Pm is already set at the coordinate point specified by the pointing (CA22 → YES), the specified point Pm is deleted from the point list (CA23).
[0050]
On the other hand, if there is no existing point at the coordinate point designated for pointing (CA22 → NO) in the determination of the presence / absence of the point (CA22 → NO), the sound generation point Pm is written at the pointed coordinate point and added as a new drawing point to the point list. (CA24). In the sounding point writing step (CA24), various calculation processes such as the determination of the musical tone parameters (note names and the like) described with reference to FIG. 2 in the first embodiment [1] are executed. Written to the list.
[0051]
If it is determined that the plotting operation is not performed in the determination of the user's instruction (CA21) (CA21 → “other than plotting”), it is determined whether or not the user has instructed to end the processing by this application (CA25). Here, if the end of the process is not instructed (CA25 → NO), the operation by the user is accepted and the corresponding “other process” is executed (CA26). "Other processing" includes a change in drawing color and a change in tone color.
[0052]
After the point is deleted (CA23) or added (CA24) or "other processing" (CA26), the user operation processing is terminated, and the process returns to the main processing screen updating processing (FIG. 6: CA3). When an operation for instructing termination of the application of this program is performed, such as pressing an end button (not shown) (CA25 → YES), the memory (RAM unit) is released and the application is terminated.
[0053]
(2) Screen update processing (CA3: FIG. 8)
FIG. 8 is a flowchart showing an operation example of the screen updating process executed in the stand-alone version main process (FIG. 6: CA3). When an interrupt occurs at a predetermined screen update rate (for example, every 10 ms) and this screen update processing routine is called and started, first, the calling time (timing) t of this screen update processing routine is set to the time circle C (t). It is determined whether it corresponds to the update timing (CA31). Here, if the calling time t is the update timing of the time circle C (t) (CA31 → YES), the current radius value r of the time circle C (t) is changed according to the expansion speed of the time circle C (t). The predetermined increment value “Δr” is added to obtain “r ← r + Δr” (CA32).
[0054]
Subsequently, it is determined whether or not the increased radius r is greater than a predetermined limit value Rmax (CA33). If the radius r is greater than the limit value Rmax (CA33 → YES), the time circle C (t) is determined. The radius r is set to a value "0" (CA34), and the process proceeds to a non-sounding point search step (CA35). Also, when the increased radius r is equal to or less than the limit value Rmax (CA33 → NO) or when the calling time t is not the update timing of the time circle C (t) (CA31 → NO), the unvoiced point search step (CA35). Proceed to).
[0055]
In the non-sounding point search step (CA35), unsounded sounding points Pm (x, y) are located on the grid coordinates GC at a distance less than the radius r of the time circle C (t) from the center point O (0,0). It is determined whether or not there is, that is, whether or not the time circle C has passed each point Pm. Here, if there is any unproduced point Pm that the time circle C has passed or touched at this screen update call timing (CA35 → YES), corresponding points Pm are handled based on the tone parameters in the point list. It instructs the tone generation and tone generation and issues a note-on to the tone generation buffer (CA36). However, a point Pm newly added in the determination of the presence or absence of a point (FIG. 7: CA22) and plotted at a distance within the radius r of the time circle C (t) is excluded from the sounding target. I do.
[0056]
Then, after issuing the sounding instruction (CA36) or when there are no unsounding points (CA35 → NO), the concentric circle having the radius r and the sounding points Pm existing in the point list are redrawn (CA37). The process returns to the sound generation process (FIG. 6: CA4).
[0057]
(3) Sound generation processing (CA4: FIG. 9)
FIG. 8 is a flowchart showing an operation example of the sound generation process executed in the stand-alone version main process (FIG. 6: CA4). In this sounding / sounding processing flow, first, the sounding buffer is examined to determine whether or not there are unsound notes (CA41). Here, if there is an unvoiced note (NO in CA41), the sound processing is performed for all the corresponding unvoiced notes, and the sounded note is deleted from the sound buffer (CA42). It should be noted that the processing block for sound generation includes a truncation process. After the tone generation process (CA42) or when there is no unsound note (CA41 → NO), the process returns to the user operation process of the main process (FIG. 6: CA2).
[0058]
[Processing operation of network method]
FIG. 10 is a flowchart showing the concept of the overall processing when a musical sound forming system is constituted by a plurality of client terminals and a server and performs musical sound formation in accordance with a network version musical sound forming program, and FIG. It is a flowchart showing the example of a process operation performed.
[0059]
In the overall processing flow of FIG. 10, first, at a client terminal (own terminal or tone generation terminal) CL having a tone generation function, a client side application of a network version tone generation program is started, and then the initial version of the stand-alone version of FIG. Similarly to the initialization step (CA1), initialization is performed such as initializing various parameters, displaying an application window, and preparing a point list and a sound generation buffer in the RAM unit of the storage unit 2.
[0060]
Subsequently, the musical tone forming terminal CL acquires a terminal coordinate position representing the geographical position of the own terminal by latitude / light information based on the positioning by the GPS (CB11). Note that the positioning method for acquiring the terminal coordinate position is not limited to GPS. For example, in the case of a mobile wireless terminal (a mobile phone or the like), it may be determined based on a difference in update delay time from a predetermined base station, or when the coordinates of a wireless LAN base station are known in advance. May use the coordinates of the base station. Next, the musical tone forming terminal CL transmits the terminal coordinate position thus obtained to the server SV, and requests information provision from the server SV (CB12).
[0061]
The server SV operating according to the server application of the network version tone generation program is provided from a client terminal CL (which is collectively referred to as a data transmission terminal, here, all of which is a tone generation terminal) for providing location information in the system. The terminal coordinate position is received at predetermined time intervals (for example, every five minutes) and stored in the terminal position information DB constructed in the external storage unit of the storage unit 2.
[0062]
Here, when the terminal coordinate position and the request transmitted from the terminal CL are received as described above (S1), these are stored in the terminal position information DB and required server processing is performed (S2). In this server process, the other terminal position indicated by each terminal position information stored in the terminal position information DB is set to a position on the grid coordinate system GC with the coordinate position of the terminal CL as the center point O (0, 0). A process for generating the converted relative position information is included. Then, the relative position information on the grid coordinates GC generated by the server processing is returned to the terminal CL (S3).
[0063]
When the terminal CL receives the relative position information from the server SV (CB13), the terminal CL performs the user operation in the same manner as the stand-alone version of the user operation processing (CA2), the screen update processing (CA3), and the sound generation processing (CA4) in FIG. The processing sound (CB2), the screen updating processing (CB3), and the sound generation processing (CB4) are repeated, and the sound point Pm corresponding to the received relative position information is plotted on the grid coordinate system GC of the terminal itself. Perform formation.
[0064]
That is, the user operation processing (CB2) basically performs the same processing operation as the stand-alone version user operation processing (CA2) in FIG. 7, but the processing (CA22 to CA24) corresponding to the "plot operation" What is necessary is just to read the operation according to the position information acquired from the server. The screen updating and sound generation processing (CB3, CB4) is the same as the corresponding processing (CA3, CA4) of the stand-alone version in FIG.
[0065]
Each processing step (SB11 to SB4) on the terminal side in FIG. 10 has been described as a series of processing for convenience of description, but each step is an independent processing and is executed at an appropriate timing. Things. For example, the acquisition and transmission of the own terminal position and the other terminal position receiving steps SB11, SB12, SB13 are executed at regular intervals (for example, every 5 minutes).
[0066]
Next, the server process (S2) executed in the entire network version process of FIG. 10 will be described in more detail according to the flow example shown in FIG. This server processing operation flow starts by receiving a terminal coordinate position from a data transmission terminal (all of which are assumed to be tone generation terminals) CL (S1). The terminal location information of the terminal is updated (S21). In this case, for a terminal that has not received a response for a predetermined time (eg, 5 minutes) and has not updated the location information, the location information may be deleted from the terminal location information DB of the server SV.
[0067]
Next, the relative position of the other terminal from the data transmitting terminal CL is calculated (S22), and the position coordinates of the other terminal are converted into relative positions on the grid coordinates GC (S23). In this case, if necessary, "other arithmetic processing" including calculation of musical tone parameters can be further executed (S24). For example, processing such as calculation of musical tone parameters such as tone names (tone characteristics such as tone color and pitch sequence) corresponding to the sounding point Pm (x, y) at each position coordinate is a computation that requires a relatively large load. In the server SV, in addition to the calculation of the coordinate position on the screen (S22, S23), information for controlling these tone parameters is also determined and transmitted to the terminal CL to reduce the load on the terminal CL. good. Then, position information and the like necessary for the terminal CL are packetized as transmission data (S25), and the process returns to the transmission step (S3).
[0068]
[Variation of time line]
Various variations can be employed for the time line C (t) as shown in FIGS. 12A and 13B and 13C. Regarding the shape of the time line C (t), as described above, not only a “concentric circle” in a strict sense but also a closed curve (including a polygonal line) having any other shape can be used. For example, a diamond-shaped time line Ca (t) as shown in FIG. 12 (A) may be used, and although not shown, an ellipse, a rectangle, or another polygonal shape (a triangle or more, a star, etc.) may be used. Good. Further, the shape may be not only a geometric figure but also an arbitrary closed curve shape such as an outline of a character.
[0069]
If the time line C (t) can scan a required portion (for example, the entire surface) on the grid coordinate GC, the closed curve is not used, and the open curve (the concept of “curve” is a straight line. May be used. For example, as shown in FIG. 13B, similarly to the radar scanning line, a line segment reaching the edge of the grid coordinate GC is centered on the end point in the grid coordinate GC O (0, 0) and the time t. Time line Cb (t) that rotates as time elapses. The shape of the time line Cb (t) may be an arbitrary curve other than the linear shape shown in the figure, and the end point of the grid coordinates GC may not be the origin O (0,0).
[0070]
Further, as for the movement of the time line C (t), an arbitrary closed curve figure such as a rhombus or a star as shown in FIG. 12A can be rotated on the grid coordinate GC to scan a necessary portion. There may be. Further, as shown in FIG. 13C, the time line graphic itself may be a time line Cc (t) that moves on the grid coordinates GC as the time t elapses. In this case, as the movement algorithm, various methods such as random walk and reflection (illustration) like a pinball can be adopted. Further, the shape of the time line figure may be an arbitrary shape other than a circle, and the “firing position” may be appropriately changed instead of the origin O (0, 0).
[0071]
In any case using the time line C (t) described above, the shape of the time line graphic may change over time (animation morphing), or may be combined. good.
[0072]
[Variation of point display]
As for the sound generation point Pm on the grid coordinates GC displayed on the display, an arbitrary display mode can be adopted as illustrated in FIG. For example, the display size of the point Pm may be variable like a sounding point Pa indicated by a great circle. In this case, the size may be determined appropriately (randomly) irrespective of the user's intention, or may be intentionally changed by the user. Further, the size may not be constant, and may be changed periodically. In particular, in the case of the second and third embodiments (FIGS. 3 and 4), for example, as a result of mapping the positions of a plurality of other terminals on the grid screen GC, sounding points may be plotted at the same coordinates. It is possible to change the size of the displayed points according to the density of the sound generation points Pm on the grid GC.
[0073]
The sounding point Pm to be plotted can have an arbitrary shape, such as a point Pb displayed by a rabbit mark icon. For example, it may be a geometric shape such as a circle, an ellipse, or a polygon, or an arbitrary icon as shown. In this case, in the second and third embodiments (FIGS. 3 and 4), the shape of the sounding point Pm may be associated with the identification information (such as a telephone number) of another terminal. Further, in the case of the second and third embodiments, identification information such as the owner of another terminal and a telephone number may be displayed together, such as “Hanako” of the point Pb described above. All of these pieces of information may be provided by the server, or the user terminal may determine the user name or the like based on the telephone number or the address information.
[0074]
Regarding the movement of the sounding point Pm, in the case of the second and third embodiments (FIGS. 3 and 4), the relative positional relationship between the own terminal and the other terminal changes with time. Although it moves, in the case of the first embodiment (FIG. 2), the plotted sounding points Pm may be moved on the grid as shown by the sounding points Pc. In this case, a movement algorithm similar to the method described with reference to FIG. 13C can be employed.
[0075]
(Various embodiments)
As described above, the present invention has been described with respect to an embodiment with reference to the drawings. However, this is merely an example, and various modifications can be made without departing from the spirit of the present invention. Can be implemented. For example, in the embodiment, the time line C (t) is a concentric circle expanding from the center point O (0,0) corresponding to the own terminal position. However, the shape of the time line C (t) may be any shape as described above. Further, the time line C (t) may be drawn starting from the sound generation point Pm (x, y) on the screen other than the center point O. The time line C (t) may be contracted toward a predetermined point such as the center point O or the sounding point Pm. The time line C (t) may rotate around these predetermined points like a scan line of a radar.
[0076]
In the second and third embodiments (FIGS. 3 and 4), various improvement measures can be adopted for associating the coordinate position on the grid screen with the musical sound information. For example, different timbres are assigned according to the direction from the center point O (0, 0). In this case, for example, timbres may be assigned only in four directions, up, down, left, and right, and two timbres may be mixed in the middle direction at a ratio corresponding to the direction. In addition, a plurality of phrases (performance sequence data) are allocated according to the direction (direction) θ from the center point O, and the performance tempo of the phrase and the degree of effect (for example, reverb) are controlled according to the distance d. It may be. Further, these may be applied in combination. For example, direction θ → tone, distance d → phrase, direction θ → scale, distance d → effect, and so on. Further, instead of the azimuth angle from the center point O, for example, the tone characteristics (parameters) may be determined based on the xy coordinate position, such as horizontal x = pan, vertical y = scale.
[0077]
In the second and third embodiments, the actual relative positions of the other terminals (north, south, east and west) are associated with the relative positions on the screen (upper right and lower left), but other forms may be used. For example, the relative position up and down on the screen may be associated with the traveling direction of the own terminal. In this case, the traveling direction of the own terminal can be easily determined by taking a difference from the immediately preceding position information, and the direction in which the own terminal is facing is detected using a gyro or the like. You can also.
[0078]
In the second and third embodiments, the server SV may be able to set a range (geographical range) for providing location information of one or a plurality of other terminals. For example, assuming that the detection accuracy of the positioning method is the minimum range, the position information of another terminal within a radius of 10 km, a distance of 10 km in front, or the like, or a specific area such as XX city is determined based on the own terminal. provide. Further, for example, the position of the own terminal may be associated with a position outside the range that can be displayed on the grid screen GC, such as acquiring the position of another terminal within a radius of 10 km starting from a point 20 km north of the own terminal. Good.
[0079]
The displayed grid screen GC and the shape GC of the grid area that can be plotted are not limited to rectangles as in the embodiment, but may be arbitrary, such as a circle (ellipse) or a diamond. Further, a function of storing the plot state of the sounding point Pm (x, y) or a tone characteristic (tone parameter) corresponding to the point Pm in a built-in or external storage medium of the terminal CL or transmitting it to another terminal. May be provided.
[0080]
In the second and third embodiments, exchange of position information with another terminal does not necessarily have to be performed via the server SV. The information such as the latitude / longitude information acquired by the GPS and the relative positional relationship measured by the communication between the terminals may be directly transmitted and received between the terminals.
[0081]
The pronunciation points to be plotted may use the history information of the own terminal position. Further, as in Japanese Patent Application No. 2002-381458, the position of the terminal itself may be periodically sampled and mapped on the grid GC.
[0082]
【The invention's effect】
As described above, according to the present invention, a sound point is scanned by a time line that concentrically expands / contracts, rotates, or sequentially changes direction in two-dimensional space coordinates with time. As a result, it is possible to create interesting music which is not possible with the conventional method in which the time axis of musical sound generation is fixed in one direction. Also, by generating the music by scanning the sounding points on a time line that fluctuates as a function of time, the sounding points and time curves that cause the music generation are displayed on the screen, so that the appearance is beautiful. I can feel.
[Brief description of the drawings]
FIG. 1 is a diagram showing an outline of a configuration of a musical sound forming system according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a first embodiment [1] of tone generation according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining a second embodiment [2] of musical tone formation according to one embodiment of the present invention.
FIG. 4 is a view for explaining a third embodiment [3] of tone generation according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example of generation and display of concentric time lines.
FIG. 6 is a flowchart showing a main process of a stand-alone version of tone generation according to an embodiment of the present invention.
FIG. 7 is a flowchart showing a user operation process in forming a stand-alone version of a musical tone according to an embodiment of the present invention.
FIG. 8 is a flowchart showing a screen updating process in forming a stand-alone version of a musical tone according to an embodiment of the present invention.
FIG. 9 is a flowchart showing a tone generation process in a stand-alone version of tone generation according to an embodiment of the present invention.
FIG. 10 is a flowchart showing the concept of the entire process of network tone generation according to an embodiment of the present invention.
FIG. 11 is a flowchart showing a server process in forming a network-version tone according to an embodiment of the present invention.
FIG. 12 is a diagram for explaining variation [1] of a time line.
FIG. 13 is a diagram for explaining another variation [2] of the time line.
FIG. 14 is a diagram for explaining a variation of point display;
[Explanation of symbols]
SV server
CL: CL1 to CLn Client terminal (musical sound forming device),
GC grid coordinate system or display screen,
O reference point, center point or origin (0,0),
Pm; P1, P2, P3; Pa, Pb, Pc sounding points,
C: C1, C2, C3; Ca, Cb, Cc time line,
d, θ Distance and angle of an arbitrary sound generation point Pm (x, y) from the origin O,
Rmax maximum distance or maximum radius,
PN note name data,
PT1, PT2, PT3 pitch data,
TN, Bk, Tn tone number, tone bank number and tone branch number,
EF effect designation data,
P1, P2, P3 First to third sound control data,
VL1, VL2, VL3 Velocity data.
r radius of the concentric time line C (t),

Claims (8)

表示画面上に発音ポイントをプロットする点プロット手段と、
上記表示画面上に、時間経過に従って所定位置の基準点を中心に拡大又は縮小する第1時間線を描画する第1線描画手段と、
第1時間線が上記発音ポイントに接触したことに応じて、当該発音ポイントに対応する楽音情報を形成する第1楽音形成手段と
を具備することを特徴とする楽音形成装置。
Point plotting means for plotting pronunciation points on a display screen;
First line drawing means for drawing, on the display screen, a first time line that expands or contracts around a reference point at a predetermined position as time passes;
A tone generating device for generating tone information corresponding to the sounding point in response to the first time line touching the sounding point;
表示画面上に発音ポイントをプロットする点プロット手段と、
上記表示画面上に、時間経過に従って所定位置の基準点を中心に回転する第1時間線を描画する第1線描画手段と、
第1時間線が上記発音ポイントに接触したことに応じて、当該発音ポイントに対応する楽音情報を形成する第1楽音形成手段と
を具備することを特徴とする楽音形成装置。
Point plotting means for plotting pronunciation points on a display screen;
First line drawing means for drawing, on the display screen, a first time line which rotates around a reference point at a predetermined position as time passes;
A tone generating device for generating tone information corresponding to the sounding point in response to the first time line touching the sounding point;
表示画面上に発音ポイントをプロットする点プロット手段と、
上記表示画面上に、時間経過に従って所定の移動アルゴリズムに基づき順次方向を変えて移動する第1時間線を描画する第1線描画手段と、
第1時間線が上記発音ポイントに接触したことに応じて、当該発音ポイントに対応する楽音情報を形成する第1楽音形成手段と
を具備することを特徴とする楽音形成装置。
Point plotting means for plotting pronunciation points on a display screen;
First line drawing means for drawing, on the display screen, a first time line that moves while changing its direction sequentially based on a predetermined movement algorithm over time;
A tone generating device for generating tone information corresponding to the sounding point in response to the first time line touching the sounding point;
さらに、
第1時間線が前記発音ポイントに接触したことに応じて、第2時間線を描画する第2線描画手段と、
第2時間線が前記発音ポイントに接触したことに応じて、当該発音ポイントに対応する楽音情報を形成する第2楽音形成手段と
を具備することを特徴とする請求項1〜3の何れか1項に記載の楽音形成装置。
further,
Second line drawing means for drawing a second time line in response to the first time line touching the sounding point;
4. A tone generator according to claim 1, further comprising a second tone generator for forming tone information corresponding to the sounding point when a second time line contacts the sounding point. A musical tone forming device according to the item.
第2楽音形成手段は、前記発音ポイントに対して第1時間線が接触したことに応じて第1楽音形成手段により形成される楽音情報の特性とは異なる特性の楽音情報を形成することを特徴とする請求項4に記載の楽音形成装置。The second tone forming means forms tone information having characteristics different from those of the tone information formed by the first tone generating means in response to the first time line contacting the sounding point. The musical tone forming device according to claim 4, wherein 前記発音ポイント乃至基準点の座標位置は、極座標或いは直交座標で表現されることを特徴とする請求項1〜5の何れか1項に記載の楽音形成装置。The tone generating apparatus according to any one of claims 1 to 5, wherein the coordinate positions of the sounding points or the reference points are expressed by polar coordinates or rectangular coordinates. さらに、前記表示画面上の所定位置に設定された原点を基準とした座標位置に応じて、前記発音ポイントに対応して第1楽音形成手段で形成される楽音情報の特性を決定する楽音特性決定手段を具備することを特徴とする請求項1〜6の何れか1項に記載の楽音形成装置。Further, according to a coordinate position based on an origin set at a predetermined position on the display screen, a tone characteristic determination for determining a characteristic of tone information formed by the first tone generating means corresponding to the sounding point. 7. A musical tone forming apparatus according to claim 1, further comprising means. 前記楽音特性決定手段は、当該発音ポイントの前記原点を基準とした方位角に応じて、音高、音色、音量及び楽音効果特性のうち少なくとも1つを決定することを特徴とする請求項7に記載の楽音形成装置。8. The musical tone characteristic determining unit according to claim 7, wherein at least one of a pitch, a timbre, a volume, and a musical tone effect characteristic is determined according to an azimuth of the sounding point with respect to the origin. A musical sound forming apparatus as described in the above.
JP2003077026A 2003-03-20 2003-03-20 Music generator Expired - Fee Related JP3804630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003077026A JP3804630B2 (en) 2003-03-20 2003-03-20 Music generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003077026A JP3804630B2 (en) 2003-03-20 2003-03-20 Music generator

Publications (2)

Publication Number Publication Date
JP2004286917A true JP2004286917A (en) 2004-10-14
JP3804630B2 JP3804630B2 (en) 2006-08-02

Family

ID=33291888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003077026A Expired - Fee Related JP3804630B2 (en) 2003-03-20 2003-03-20 Music generator

Country Status (1)

Country Link
JP (1) JP3804630B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006008298A1 (en) * 2006-02-22 2007-08-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device for generating note signal by manual input, has control unit designed to receive input signal and to generate note signal associated with tone, based on association function and input signal
JP2008203818A (en) * 2007-01-23 2008-09-04 National Institute Of Advanced Industrial & Technology Sound data generating device and program
JP2009103928A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating vice and program
JP2009103934A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating device and program
JP2009103930A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating device and program
JP2009103932A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating device and program
JP2009103929A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generation device and program
JP2009527779A (en) * 2006-02-22 2009-07-30 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for analyzing speech data
CN102651212A (en) * 2011-02-28 2012-08-29 卡西欧计算机株式会社 Playing device and electronic musical instrument
CN109920397A (en) * 2019-01-31 2019-06-21 李奕君 A kind of physics sound intermediate frequency function manufacturing system and production method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009527779A (en) * 2006-02-22 2009-07-30 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for analyzing speech data
US7982122B2 (en) 2006-02-22 2011-07-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for analyzing an audio datum
DE102006008298A1 (en) * 2006-02-22 2007-08-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device for generating note signal by manual input, has control unit designed to receive input signal and to generate note signal associated with tone, based on association function and input signal
US7829778B2 (en) 2006-02-22 2010-11-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for generating a note signal and device and method for outputting an output signal indicating a pitch class
DE102006008298B4 (en) * 2006-02-22 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a note signal
JP2009527782A (en) * 2006-02-22 2009-07-30 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for generating note signal and apparatus and method for outputting output signal indicating pitch class
JP2008203818A (en) * 2007-01-23 2008-09-04 National Institute Of Advanced Industrial & Technology Sound data generating device and program
JP2009103934A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating device and program
JP2009103929A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generation device and program
JP2009103932A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating device and program
JP2009103930A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating device and program
JP2009103928A (en) * 2007-10-23 2009-05-14 National Institute Of Advanced Industrial & Technology Sound data generating vice and program
CN102651212A (en) * 2011-02-28 2012-08-29 卡西欧计算机株式会社 Playing device and electronic musical instrument
CN109920397A (en) * 2019-01-31 2019-06-21 李奕君 A kind of physics sound intermediate frequency function manufacturing system and production method
CN109920397B (en) * 2019-01-31 2021-06-01 李奕君 System and method for making audio function in physics

Also Published As

Publication number Publication date
JP3804630B2 (en) 2006-08-02

Similar Documents

Publication Publication Date Title
EP3479372B1 (en) Apparatus and methods for cellular musical compositions
US10134179B2 (en) Visual music synthesizer
KR100909516B1 (en) System and method for ordering haptic effects
JP3804630B2 (en) Music generator
CN103366721B (en) Music performance apparatus and method
US9898249B2 (en) System and methods for simulating real-time multisensory output
US20090285407A1 (en) Method and Apparatus for Providing Audio Motion Feedback in a Simulated Three-Dimensional Environment
JP2004538496A (en) Network-based music performance / song accompaniment service system and method
JP2000221976A (en) Music data preparation device and recording medium for recording music data preparation program
US8710347B2 (en) Performance apparatus and electronic musical instrument
Morales-Manzanares et al. SICIB: An interactive music composition system using body movements
JP3765305B2 (en) Musical tone forming terminal device, server device, and program
CN111831249A (en) Audio playing method and device, storage medium and electronic equipment
JP5277816B2 (en) Electronic music apparatus and program
JP2016206496A (en) Controller, synthetic singing sound creation device and program
JPH0536796B2 (en)
Loughran et al. Grammatical music composition with dissimilarity driven hill climbing
Scipio Iterated nonlinear functions as a sound-generating engine
Pan et al. Musical instruments simulation on mobile platform
JPH1196185A (en) Information display device, and storage medium recording information display program
JPS6322600B2 (en)
JP2000338965A (en) Display method and display device for midi data, and music displayed with midi data
Moore From the abstract to maps and landscapes: a metageovisualisation perspective
JP3197133B2 (en) Karaoke equipment
Stockmann et al. A musical instrument based on 3d data and volume sonification techniques

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060501

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees