JPH1020856A - Automatic player, automatic playing method and storage medium - Google Patents
Automatic player, automatic playing method and storage mediumInfo
- Publication number
- JPH1020856A JPH1020856A JP8170813A JP17081396A JPH1020856A JP H1020856 A JPH1020856 A JP H1020856A JP 8170813 A JP8170813 A JP 8170813A JP 17081396 A JP17081396 A JP 17081396A JP H1020856 A JPH1020856 A JP H1020856A
- Authority
- JP
- Japan
- Prior art keywords
- data
- performance
- music
- automatic
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ノートオン、コン
トロールチェンジ等の各種イベントの内容を示すイベン
トデータに、タイミングデータ(時間情報)が付加され
て構成される演奏データを用いて自動演奏を行うための
技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention performs an automatic performance by using performance data constituted by adding timing data (time information) to event data indicating the contents of various events such as note-on and control change. For technology.
【0002】[0002]
【従来の技術および発明が解決しようとする課題】電子
キーボード等の電子楽器において、楽音を順次発音して
いくことで楽曲を自動再生する自動演奏機能(自動演奏
装置)は広く搭載されている。この自動演奏機能によ
り、ユーザは、楽曲を聴いたり、自動演奏との合奏等を
楽しむことができる。2. Description of the Related Art In an electronic musical instrument such as an electronic keyboard, an automatic performance function (automatic performance device) for automatically reproducing music by sequentially generating musical tones is widely mounted. With this automatic performance function, the user can listen to music and enjoy ensemble with automatic performance.
【0003】自動演奏機能による自動演奏は、演奏デー
タを基に発音命令を順次生成し、生成した発音命令で楽
音を発音させることで行われる。その演奏データは、ノ
ートオン、ノートオフ、コントロールチェンジ等の各種
イベントの内容を示すデータ(イベントデータ)に、タ
イミングデータ(時間情報)が付加されて構成される。
発音命令(ここでは、自動演奏に係わる他の種類の命令
も含む)は、イベントデータから生成され、そのイベン
トデータを処理するタイミングは、それに付加されてい
るタイミングデータによって管理される。そのタイミン
グデータにより、楽曲を構成する楽音は予め設定したタ
イミングで発音される。[0003] Automatic performance by the automatic performance function is performed by sequentially generating a tone generation command based on performance data, and generating a tone with the generated tone generation command. The performance data is configured by adding timing data (time information) to data (event data) indicating the contents of various events such as note-on, note-off, and control change.
A sounding instruction (here, also including other types of instructions relating to automatic performance) is generated from event data, and the timing of processing the event data is managed by timing data added thereto. Based on the timing data, the musical tones constituting the music are generated at a preset timing.
【0004】自動演奏させる楽曲は、楽譜等に記譜され
た音符記号(以降、それによって与えられる情報を記譜
情報という)に従って忠実に再現するものと、一般的に
揺らぎなどと呼ばれる要素を反映させて再現するものと
の2種類の演奏形態に大別することができる。普通、後
者は演奏者が実際に演奏した場合の形態である。一般的
にユーザは、練習等に重点を置く場合には前者を、鑑賞
に重点を置く場合には後者を選択する。以降、上記2形
態の楽曲を区別するために、前者を練習用楽曲、後者を
観賞用楽曲と呼び、その演奏データに対しても同様に、
前者のそれを練習用演奏データ、後者のそれを観賞用演
奏データと呼ぶことにする。[0004] The music to be automatically played is one that faithfully reproduces in accordance with a musical notation written on a musical score or the like (hereinafter, the information given thereby is referred to as music notation information) and one that reflects elements generally called fluctuations. It can be broadly divided into two types of performance forms, that is, a reproduction form. Usually, the latter is a form in which the player actually plays. In general, the user selects the former when emphasis is placed on practice or the like, and selects the latter when emphasizing appreciation. Hereinafter, in order to distinguish the above two forms of music, the former is referred to as a practice music and the latter as an ornamental music.
The former is referred to as practice performance data, and the latter is referred to as ornamental performance data.
【0005】上記揺らぎ的要素は、記譜情報と比較して
得られる楽音の強弱の違いや、その発音タイミングのズ
レ等の音楽的な抑揚である。イベントデータや時間デー
タは、そのような揺らぎ的要素の有無により変化させる
必要がある。このことから、演奏データは、楽曲の演奏
形態別に作成されていた。しかし、従来の電子楽器(自
動演奏装置)は、商品のコンセプト、想定するユーザ層
等を考慮して練習用演奏データ、及び観賞用演奏データ
の何れか一方のみを選択して用意していた。このため、
ユーザは、練習用楽曲、及び観賞用楽曲の一方しか練
習、鑑賞等を行えないという問題点があった。The fluctuation element is a musical inflection such as a difference in strength of a musical tone obtained as compared with the music notation information and a deviation of a sounding timing. The event data and time data need to be changed depending on the presence or absence of such a fluctuating element. For this reason, the performance data has been created for each performance type of music. However, a conventional electronic musical instrument (automatic performance device) is prepared by selecting only one of practice performance data and ornamental performance data in consideration of a product concept, an assumed user layer, and the like. For this reason,
There is a problem that the user can practice, watch, etc., only one of the practice music and the ornamental music.
【0006】観賞用楽曲が用意されている電子楽器(自
動演奏装置)で練習用楽曲の練習を行いたい場合、観賞
用楽曲を手本として試聴することで、ユーザは全体的な
演奏の流れを把握することは可能である。しかし、それ
に含まれる揺らぎ的要素は、演奏の細部を表現するため
の手法を修得するのに妨げになることが多い。当然のこ
とながら、その逆の場合においても、同様の不具合が発
生する。[0006] When it is desired to practice a practice song with an electronic musical instrument (automatic performance device) in which the ornamental song is prepared, the user listens to the sample of the ornamental song as a sample, and the user can see the overall flow of the performance. It is possible to figure out. However, the fluctuating elements involved often hinder the learning of techniques for expressing the details of the performance. Of course, the same problem occurs in the opposite case.
【0007】ところで、音楽では、同じ楽曲に対する音
楽表現が演奏者毎に大きく異なることが多々ある。この
ことから判るように、練習用楽曲と観賞用楽曲の間に
は、普通、多くの細かい相違が存在する。その相違によ
り、たとえ練習用と観賞用の両方の演奏データを用意
し、ユーザが任意に選択(再生)できるようにした場合
においても、練習用楽曲、或いは観賞用楽曲で練習した
後に他方を練習することも非常に大変であることが予想
される。By the way, in music, the music expression for the same music often differs greatly from one player to another. As can be seen, there are usually many small differences between the practice song and the ornamental song. Due to the difference, even if both performance data for practice and ornamental data are prepared so that the user can arbitrarily select (play) the data, the user can practice with the practice music or the ornamental music and then practice the other. It is expected to be very difficult to do.
【0008】なお、シーケンサ等の自動演奏装置には、
普通、ユーザが演奏データを作成したり、他の装置で作
成された演奏データを含め、演奏データを変更するとい
った機能(以降、この機能を編集機能と呼ぶ)が搭載さ
れている。この編集機能を利用して、同じ楽曲の内容
(形態)が異なる複数の演奏データを得ることはでき
る。しかし、それらを得るためには煩雑で時間がかかる
作業を行わなければならない。このように、編集機能を
利用した演奏形態の異なる演奏データの取得(作成)に
は、それが非常に面倒であるという他の問題点が発生す
るため、実用的ではない。[0008] Automatic performance devices such as sequencers include:
Usually, a function is provided for a user to create performance data or to change performance data including performance data created by another device (hereinafter, this function is referred to as an editing function). By using this editing function, it is possible to obtain a plurality of performance data having different contents (forms) of the same music. However, in order to obtain them, a complicated and time-consuming operation must be performed. As described above, acquiring (creating) performance data having different performance forms using the editing function involves another problem that it is very troublesome, and is not practical.
【0009】本発明の課題は、演奏形態が異なる楽曲を
容易に自動再生させることができ、また、演奏形態が異
なる楽曲を効率的に練習できるようにすることにある。SUMMARY OF THE INVENTION It is an object of the present invention to make it possible to easily and automatically reproduce music having different playing styles and to efficiently practice music having different playing styles.
【0010】[0010]
【課題を解決するための手段】本発明の自動演奏装置
は、イベントデータに時間データが付加されて構成され
る演奏データを基に、発音命令を順次生成していくこと
で自動演奏を行うことを前提とし、複数の演奏形態で同
一の楽曲を再生するための演奏データを記憶した演奏デ
ータ記憶手段と、演奏データ記憶手段に記憶されている
演奏データを用いて、複数の演奏形態の何れか、或いは
複数の演奏形態の間の演奏形態で楽曲を自動演奏する自
動演奏手段と、を具備する。An automatic performance device according to the present invention performs an automatic performance by sequentially generating a tone generation instruction based on performance data constituted by adding time data to event data. And a performance data storage means for storing performance data for reproducing the same music in a plurality of performance forms, and using the performance data stored in the performance data storage means, any one of the plurality of performance forms. Or automatic performance means for automatically performing music in a performance form among a plurality of performance forms.
【0011】なお、上記の構成において、演奏データ記
憶手段に記憶されている演奏データは、基準演奏形態で
楽曲を再生するための基準演奏データに、基準演奏形態
とは異なる他の演奏形態で楽曲を再生するための他形態
演奏データとの差分データを付加して構成され、自動演
奏手段は、差分データを基準演奏データに反映させる重
みづけを変更することにより、複数の演奏形態の何れ
か、或いは複数の演奏形態の間の演奏形態で楽曲を自動
演奏する、ことが望ましい。また、自動演奏手段は、所
定の指定手段による指定に応じて、差分データの重みづ
けを変更する、ことが望ましい。In the above configuration, the performance data stored in the performance data storage means is replaced with reference performance data for reproducing the music in the reference performance mode, and music data in another performance mode different from the reference performance mode. The automatic performance means is configured to add a difference data with the other form performance data for playing back, and the automatic performance means changes one of the plurality of performance forms by changing a weight for reflecting the difference data to the reference performance data. Alternatively, it is desirable to automatically play music in a performance form among a plurality of performance forms. Further, it is desirable that the automatic performance means changes the weighting of the difference data according to the designation by the predetermined designation means.
【0012】本発明の自動演奏方法は、基準演奏形態の
楽曲を再生するための基準演奏データとともに、基準演
奏形態とは異なる他の演奏形態で同一の楽曲を再生する
ための他形態演奏データ、及び該他形態演奏データと基
準演奏データの差分データの少なくとも一方を用意し、
基準演奏データ、及び他形態演奏データと差分データの
一方に基づき、発音命令を順次生成していくことで、基
準演奏形態、及び他の演奏形態の何れか、或いはそれら
の間の演奏形態で楽曲を自動演奏する。According to the automatic performance method of the present invention, in addition to reference performance data for reproducing music in a reference performance form, other form performance data for reproducing the same music in another performance form different from the reference performance form; And preparing at least one of the difference data between the other form performance data and the reference performance data,
By sequentially generating sounding instructions based on the reference performance data and one of the other performance data and the difference data, the musical composition is performed in one of the reference performance mode and the other performance mode, or a performance mode therebetween. Is played automatically.
【0013】本発明の記憶媒体は、イベントデータに時
間データが付加されて構成され、基準演奏形態で楽曲を
再生するための基準演奏データに、基準演奏形態とは異
なる他の演奏形態で同一の楽曲を再生するための他形態
演奏データとの差分データを、付加して構成される演奏
データを記憶している。[0013] The storage medium of the present invention is constituted by adding time data to event data, and stores the same reference performance data for reproducing music in the reference performance mode in another performance mode different from the reference performance mode. It stores performance data formed by adding difference data with other form performance data for reproducing music.
【0014】本発明は、少なくとも2演奏形態の同一の
楽曲を自動再生するための演奏データを用意し、その演
奏データを基に、2演奏形態の楽曲、更にはそれらの間
の演奏形態の楽曲の発音命令を生成する。これにより、
少ない演奏データ量で様々な演奏形態での楽曲の自動再
生が可能となる。According to the present invention, performance data for automatically reproducing at least two identical musical compositions are prepared, and based on the performance data, two musical compositions and further musical compositions between them are prepared. To generate a pronunciation instruction. This allows
It is possible to automatically reproduce music in various performance modes with a small performance data amount.
【0015】なお、本発明は、予め用意されていない演
奏形態で楽曲を自動再生するための発音命令を生成する
ことから、2演奏形態の楽曲を自動再生するための演奏
データを基に、2演奏形態間以外の演奏形態で楽曲を自
動再生する発音命令も生成できる。しかし、用意する演
奏形態は、それを忠実に再生できることから、ユーザに
とって意味のある(重要度が高い)演奏形態とすること
が望ましい。このような演奏形態の演奏データを用意す
ると、それらの演奏形態の練習等をユーザが行う場合、
普通、再生可能とすべき演奏形態はそれらを含む間とな
る。According to the present invention, a tone generation command for automatically reproducing music in a performance form not prepared in advance is generated. It is also possible to generate a pronunciation command for automatically reproducing a music in a performance mode other than between the performance modes. However, since the prepared performance mode can be faithfully reproduced, it is desirable that the performance mode be meaningful (high importance) for the user. When the performance data of such a performance form is prepared, when the user practices the performance form or the like,
Usually, the performance form to be made reproducible is a period including those.
【0016】上記演奏データは、2演奏形態のうちの一
方の演奏データ(基準演奏データ)に、他方の演奏デー
タとの差分データを付加して作成する。これにより、そ
れらの間の相違は比較的小さいことから、少ないデータ
量で2演奏形態の楽曲、更にはそれらの間の演奏形態の
楽曲の自動再生が可能となる。The performance data is created by adding difference data from one performance data (reference performance data) of the two performance forms to the other performance data. As a result, since the difference between them is relatively small, it is possible to automatically reproduce the music in the two performance forms and the music in the performance form between them with a small amount of data.
【0017】なお、上記基準演奏データには、1形態の
差分データだけでなく、複数の演奏形態の差分データを
付加しても良い。差分データは、演奏形態間のイベント
の相違である。そのイベントを表すのに必要なパラメー
タ(ノートナンバー、発音タイミング、ピッチベンドシ
フト量等)数は、イベントの種類によって変化するが、
複数ある。差分データには、それらのなかから少なくと
も一つを採用する。The reference performance data may include not only one form of difference data but also a plurality of performance form difference data. The difference data is a difference in an event between performance modes. The number of parameters (note number, sounding timing, pitch bend shift amount, etc.) required to represent the event varies depending on the type of event,
There are multiple. At least one of them is adopted as the difference data.
【0018】[0018]
【発明の実施の形態】以下、図面を参照しながら、本発
明の実施の形態につき詳細に説明する。図1は、本実施
の形態が適用された自動演奏装置の構成図である。Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a configuration diagram of an automatic performance device to which the present embodiment is applied.
【0019】自動演奏装置は、図1に示すように、テン
ポスイッチ、モードスイッチ等の各種スイッチからなる
入力スイッチ群101と、自動演奏(伴奏)に用いる演
奏データを格納した音楽ROM102と、例えばPCM
(パルス符号変調)方式で楽音の波形データを格納した
波形ROM103と、その波形ROM103から波形デ
ータを読み出し、それをアナログの波形信号に変換して
出力する音源装置104と、アンプ、スピーカ等からな
るサウンドシステム105と、装置全体を制御するCP
U106と、装置の設定状態等を表示する表示装置10
7と、プログラムや各種制御データを格納したプログラ
ムROM108と、CPU106が作業用に用いるワー
クRAM109と、を備えて構成される。As shown in FIG. 1, the automatic performance device includes an input switch group 101 composed of various switches such as a tempo switch and a mode switch, a music ROM 102 storing performance data used for automatic performance (accompaniment), and a PCM, for example.
A waveform ROM 103 storing waveform data of musical tones in a (pulse code modulation) system, a tone generator 104 for reading waveform data from the waveform ROM 103, converting the waveform data into an analog waveform signal, and outputting the analog waveform signal, an amplifier, a speaker, and the like. Sound system 105 and CP for controlling the entire apparatus
U106 and a display device 10 for displaying the setting status of the device
7, a program ROM 108 storing programs and various control data, and a work RAM 109 used by the CPU 106 for work.
【0020】以上の構成において、その動作を説明す
る。CPU106は、装置の電源がオンされると、プロ
グラムROM108からプログラムを読み出し、それを
実行することで装置全体の制御を開始する。その制御
は、ワークRAM109をワーク領域として利用して行
われる。そのワークRAM109には、現在設定されて
いるモード、テンポ、自動演奏に選択された演奏データ
(楽曲)等の各種設定内容を示すデータ等が格納され
る。The operation of the above configuration will be described. When the power of the apparatus is turned on, the CPU 106 reads a program from the program ROM 108 and executes the program to start control of the entire apparatus. The control is performed using the work RAM 109 as a work area. The work RAM 109 stores data indicating various settings such as the currently set mode, tempo, and performance data (song) selected for automatic performance.
【0021】例えば、入力スイッチ群101を構成する
各種スイッチには電圧が印加されており、各スイッチの
操作状態は、電圧値の変化としてCPU101に通知さ
れる。CPU101は、各スイッチ毎に、その電圧値か
ら操作状態を判断し、その判断結果に基づいて、モード
や自動演奏(伴奏)する楽曲等の設定、テンポや音色等
の変更を行う。また、表示装置107を制御し、それら
の設定状態を表示させて、ユーザに自身が行った操作内
容や、現在の設定内容等を通知する。For example, a voltage is applied to various switches constituting the input switch group 101, and the operation state of each switch is notified to the CPU 101 as a change in voltage value. The CPU 101 determines the operation state from the voltage value for each switch, and based on the determination result, sets the mode, the music to be automatically played (accompanied), and changes the tempo, tone, and the like. In addition, the display device 107 is controlled to display the setting states thereof, thereby notifying the user of the contents of the operation performed by the user, the current setting contents, and the like.
【0022】音楽ROM102には、自動演奏(伴奏)
用の演奏データが楽曲別に分けて格納されている。図2
は、音楽ROM102に格納されている演奏データの構
成を説明するための図である。ここで、その演奏データ
の構成について、図2を参照して説明する。The music ROM 102 has an automatic performance (accompaniment).
Music data for each song is stored. FIG.
FIG. 3 is a diagram for explaining the configuration of performance data stored in the music ROM 102. Here, the configuration of the performance data will be described with reference to FIG.
【0023】1楽曲の演奏データが1ファイルを構成
し、演奏データは、ファイル単位で管理されて音楽RO
M102に格納されている。1演奏データファイルは、
図2(a)に示すように、そのファイルの演奏データに
関する基本的な情報が格納されるヘッダー部と、実際に
楽曲を再生するためのデータが格納される音楽データ部
とから構成される。The performance data of one music constitutes one file, and the performance data is managed on a file basis and the music RO
It is stored in M102. One performance data file is
As shown in FIG. 2A, the file includes a header section in which basic information on performance data of the file is stored, and a music data section in which data for actually reproducing music is stored.
【0024】なお、混乱を避けるために、以降、ファイ
ルを構成する音楽データ部に格納される演奏データにつ
いては音楽データと呼ぶことにする。演奏データは、特
に断らない限り、ファイルとして格納される全データを
意味することにする。In order to avoid confusion, hereinafter, the performance data stored in the music data section constituting the file will be referred to as music data. The performance data means all data stored as a file unless otherwise specified.
【0025】上記ヘッダー部に格納される情報として
は、曲名、テンポ、スタートアドレス(start address
)、エンドアドレス(end address )等がある。その
なかのテンポは、そのファイルの音楽データを再生する
際の基準となるテンポの値である。スタートアドレス、
エンドアドレスは、音楽データが格納されている範囲を
示すデータである。The information stored in the header section includes a song title, a tempo, and a start address.
), End address and the like. The tempo among them is a value of a tempo that is a reference when reproducing the music data of the file. Start address,
The end address is data indicating a range in which music data is stored.
【0026】音楽データ部には、音楽データがイベント
単位で格納されている。その音楽データは、大別して、
イベントデータと、そのイベントデータのタイミングデ
ータ(時間情報)と、タイミングデータの変更分(差
分)のデータ(以降、差分データと呼ぶ)とから構成さ
れる。音楽ROM102は、例えば1アドレスの記憶領
域に1音楽データが格納できるようになっている。The music data section stores music data in event units. The music data is roughly divided
It is composed of event data, timing data (time information) of the event data, and data of a change (difference) of the timing data (hereinafter referred to as difference data). The music ROM 102 can store, for example, one music data in a storage area of one address.
【0027】図2(b)は、各種音楽データの構成を示
したものである。図2(b)において、各枠は1バイト
のデータを表し、各枠内に示す文字、或いは記号(シン
ボル)は、そのバイトのデータの内容を一般的に表して
いる。その図2(b)に示す各種音楽データにおいて、
図に向かって左端の3バイトがイベントデータを構成
し、そのイベントデータに続く3バイトがタイミングデ
ータ、そのタイミングデータに続く残りの2バイトが差
分データをそれぞれ構成している。FIG. 2B shows the structure of various music data. In FIG. 2B, each frame represents one byte of data, and characters or symbols (symbols) shown in each frame generally represent the contents of the data of the byte. In the various music data shown in FIG.
In the figure, the leftmost three bytes constitute event data, the three bytes following the event data constitute timing data, and the remaining two bytes following the timing data constitute difference data.
【0028】イベントデータは、MIDI(Musical In
strument Digital Interface)規格に準拠させており、
1バイト目のデータは、そのイベントデータの種類を表
すチャンネルメッセージである。図2(b−1)の発音
データは、そのチャンネルメッセージ(1バイト目のデ
ータ)が“9Nh”(hは16進数を示す)であること
から、チャンネルがNのノートオンのイベントデータを
示している。図2(b−2)のベンダーデータのチャン
ネルメッセージは“ENh”、図2(b−3)のコント
ロールデータのそれは“CNh”であることから、それ
ぞれ、チャンネルがNのピッチホイールチェンジ、プロ
グラムチェンジのイベントデータを示している。そのチ
ャンネルメッセージの後ろには、チャンネルメッセージ
の種類に応じた数のデータバイトが続いている。例えば
図2(b−1)の発音データにおいては、チャンネルメ
ッセージの後に、ノートナンバー(その枠内の“nn”
は任意のノートナンバーを表す)、ベロシティ(その枠
内の“Vv”は任意のベロシティ値を表す)を示すデー
タバイトが続いている。図2(b−3)のコントロール
データ(イベントはプログラムチェンジである)におい
ては、チャンネルメッセージに続くデータバイトは1バ
イトである。The event data is MIDI (Musical In
instrument Digital Interface) standard.
The data of the first byte is a channel message indicating the type of the event data. The sound data in FIG. 2 (b-1) indicates note-on event data of channel N since the channel message (data of the first byte) is “9Nh” (h indicates a hexadecimal number). ing. Since the channel message of the vendor data in FIG. 2 (b-2) is "ENh" and that of the control data in FIG. 2 (b-3) is "CNh", respectively, the pitch wheel change and the program change of the channel N are performed. Shows the event data. The channel message is followed by a number of data bytes according to the type of the channel message. For example, in the sounding data of FIG. 2 (b-1), a note number (“nn” in the frame) is added after the channel message.
Indicates an arbitrary note number), and data bytes indicating velocity (“Vv” in the frame indicates an arbitrary velocity value). In the control data (event is a program change) in FIG. 2B-3, the data byte following the channel message is one byte.
【0029】上記イベントデータに続く3バイトのタイ
ミングデータ、即ち図2(b)中の枠内に示す“L
x”、“Mx”、“Hx”は、各バイトのデータ値を一
般的に表す記号である。それら“Lx”、“Mx”、
“Hx”は、それぞれ、拍内におけるタイミング、先頭
からの拍数の下位部分、その拍数の上位部分の値を示し
ている。即ち、“Lx”、“Mx”、“Hx”は、絶対
時間でそのイベントデータの内容を再生するタイミング
を示している。それら3バイトのデータは、下位7ビッ
トを有効としており、“Lx”、“Mx”、“Hx”は
7ビットで表現できる範囲の値である。従って、拍数の
最大値は16129(=127×127)である。ま
た、“Lx”は、拍内のタイミングを、周期が分解能に
よって決まるクロック数で表現した値である。The 3-byte timing data following the event data, that is, "L" shown in the frame in FIG.
“x”, “Mx”, and “Hx” are symbols that generally represent the data value of each byte, “Lx”, “Mx”,
“Hx” indicates the timing in the beat, the lower part of the number of beats from the beginning, and the value of the upper part of the number of beats. That is, “Lx”, “Mx”, and “Hx” indicate the timing of reproducing the contents of the event data in absolute time. The lower 7 bits of these 3-byte data are valid, and “Lx”, “Mx”, and “Hx” are values in a range that can be expressed by 7 bits. Therefore, the maximum value of the number of beats is 16129 (= 127 × 127). “Lx” is a value representing the timing in the beat by the number of clocks whose period is determined by the resolution.
【0030】上記タイミングデータに続く2バイトの差
分データは、前側の1バイト目が符号(“00”は正で
“01”は負)で、残りの1バイトがタイミングデータ
からのズレを示している。そのズレは、上記“Lx”と
同様に、クロック数で示している。ズレの方向は、符号
が正の場合には、タイミングデータよりも遅れる方向で
あり、符号が負の場合には、それよりも早くなる方向で
ある。以降、差分データの上記1バイト目のデータを符
号データ、上記2バイト目のデータを変更量データと呼
ぶ。In the two-byte difference data following the timing data, the first byte on the front side has a sign (“00” is positive and “01” is negative), and the remaining one byte indicates a deviation from the timing data. I have. The deviation is indicated by the number of clocks as in the case of “Lx”. When the sign is positive, the shift direction is a direction that is later than the timing data, and when the sign is negative, it is a direction that is earlier than the timing data. Hereinafter, the first byte data of the differential data is referred to as code data, and the second byte data is referred to as change amount data.
【0031】本実施の形態では、タイミングデータを記
譜情報に従って作成し、差分データを、そのタイミング
データ(練習用楽曲)と、揺らぎ的要素を有する演奏形
態(観賞用楽曲)のそれとの差分としている。このた
め、タイミングデータに差分データを反映させるか否か
により、練習用楽曲、観賞用楽曲の両方を再生すること
ができる。また、差分データを反映させる度合い(重み
づけ)を変更することで、再生させる楽曲をその間で任
意に変化させることもできる。その間以外の演奏形態で
楽曲を再生することもできる。In the present embodiment, timing data is created in accordance with notation information, and difference data is defined as a difference between the timing data (practice music) and that of a performance form having ornamental elements (appreciation music). I have. Therefore, both the practice music and the ornamental music can be reproduced depending on whether or not the difference data is reflected in the timing data. Also, by changing the degree (weighting) in which the difference data is reflected, the music to be reproduced can be arbitrarily changed between them. The music can be played in a performance form other than during that time.
【0032】なお、差分データとする値としては、一方
の演奏形態の音楽データから他方の演奏形態のそれを減
算した値とする他に、それらの間の相違を比率で表現し
た値としても良い。また、DPCM等の符号化方式を用
いて符号化のデータとしても良い。The difference data may be a value obtained by subtracting the music data of one performance mode from that of the other performance mode, or may be a value expressing the difference between them in a ratio. . Alternatively, the data may be encoded using an encoding method such as DPCM.
【0033】当然のことながら、2つの演奏形態の楽曲
の演奏データを用意しても、それらの間の演奏形態の楽
曲を任意に再生することはできる。しかし、1ファイル
のデータ量は、1演奏形態の楽曲分のデータ量から、イ
ベントデータ単位で付加した差分データ分が増加したも
のであり、その増加した差分データ分は、1演奏形態の
楽曲分のデータ量と比較すると非常に小さい。このこと
から明らかなように、差分データを1演奏形態の楽曲の
演奏データに付加することで、演奏データ量を押さえつ
つ、揺らぎ的要素を様々に変化させた楽曲を再生させる
ことができるようになる。Naturally, even if the performance data of the music pieces of the two performance forms are prepared, the music piece of the performance form between them can be arbitrarily reproduced. However, the data amount of one file is obtained by increasing the difference data added in event data units from the data amount of the music piece in one performance mode. Is very small compared to the data volume of As is evident from this, by adding the difference data to the performance data of the music in one performance mode, it is possible to reproduce the music in which the fluctuation element is variously changed while suppressing the performance data amount. Become.
【0034】なお、本実施の形態では、1つの観賞用楽
曲と練習用楽曲の差分データだけを練習用楽曲の演奏デ
ータに付加しているが、幾つかの異なる練習用楽曲も再
生させたい場合には、各観賞用楽曲毎に、それらと練習
用楽曲との差分データを求め、それらを練習用楽曲の演
奏データに付加させても良い。また、演奏データを格納
する記憶媒体としては、本実施の形態のように、装置に
予め備えられた音楽ROM102ではなく、装置に任意
に脱着できるROMパックを採用しても良い。パーソナ
ルコンピュータを用いてシステム(自動演奏装置)を構
築する場合には、フロッピーディスク、CD−ROM、
MO等の記憶媒体を採用しても良い。更には、外部の装
置から演奏データを配信するようにしても良い。In this embodiment, only the difference data between one ornamental music and the practice music is added to the performance data of the practice music. For each music piece for viewing, difference data between the music piece for practice and the music piece for practice may be obtained, and the difference data may be added to the performance data of the music piece for practice. Further, as the storage medium for storing the performance data, a ROM pack which can be arbitrarily attached to and detached from the apparatus may be employed instead of the music ROM 102 provided in advance in the apparatus as in the present embodiment. When a system (automatic playing device) is constructed using a personal computer, a floppy disk, a CD-ROM,
A storage medium such as an MO may be employed. Furthermore, performance data may be distributed from an external device.
【0035】図1の説明に戻る。上述した構成の演奏デ
ータは、ユーザが入力スイッチ群101のモード設定用
のモードスイッチを操作し、自動演奏モードを設定する
ことで音楽ROM102から読み出される。用意されて
いる演奏データ、即ち楽曲には、例えば予め異なる番号
が割り当てられており、例えば入力スイッチ群101の
テンキーを操作することで、ユーザは所望の演奏データ
(楽曲)を選択することができるようになっている。何
らかの演奏データ(楽曲)を選択した後、ユーザがその
自動演奏の開始を指定すると、CPU106は、ユーザ
が選択した演奏データを音楽ROM102から音楽デー
タ単位で順次読み出し、その再生を開始する。楽曲の再
生、即ち自動演奏は、イベントデータ、及び差分データ
に基づいて制御コマンドを生成し、その生成した制御コ
マンドを、タイミングデータ、及び差分データに基づく
タイミングで音源装置104に出力することで実現され
る。Returning to the description of FIG. The performance data having the above-described configuration is read from the music ROM 102 when the user operates the mode switch for setting the mode of the input switch group 101 to set the automatic performance mode. For example, different numbers are assigned to the prepared performance data, that is, the songs, and the user can select desired performance data (songs) by operating, for example, ten keys of the input switch group 101. It has become. When the user designates the start of the automatic performance after selecting some performance data (song), the CPU 106 sequentially reads out the performance data selected by the user from the music ROM 102 in music data units and starts reproduction thereof. Music reproduction, that is, automatic performance, is realized by generating a control command based on event data and difference data, and outputting the generated control command to the tone generator 104 at timing based on the timing data and difference data. Is done.
【0036】音源装置104は、CPU106が出力し
た制御コマンドに従って各種設定を行う。その制御コマ
ンドが発音命令であった場合には、その発音命令が指定
した速さで波形ROM103から波形データを読み出
し、音響効果を付加するといった既に設定されている内
容に応じた処理を施した後、アナログの波形信号にD/
A変換してサウンドシステム105に出力する。The tone generator 104 makes various settings in accordance with the control commands output from the CPU 106. If the control command is a sounding command, after reading the waveform data from the waveform ROM 103 at the speed specified by the sounding command and performing a process according to the preset contents, such as adding a sound effect, , D /
A conversion is performed and output to the sound system 105.
【0037】以上が動作の概略である。次に、図2に示
す演奏データを用いた楽曲の自動再生について、図3を
参照して具体的に説明する。図3は、テンポに応じた発
音タイミングの変更を説明する図である。この図3は、
図3(a)に示す発音データで発音すべき楽音の発音
(開始)タイミングを、テンポに応じて変更させている
様子を示している。この図3を参照して、本実施の形態
による発音タイミングの変更方法を具体的に説明する。The above is the outline of the operation. Next, the automatic reproduction of music using the performance data shown in FIG. 2 will be specifically described with reference to FIG. FIG. 3 is a diagram for explaining the change of the sounding timing according to the tempo. This FIG.
FIG. 3A shows a state in which the sounding (starting) timing of a tone to be sounded by the sounding data shown in FIG. 3A is changed according to the tempo. With reference to FIG. 3, a method of changing the tone generation timing according to the present embodiment will be specifically described.
【0038】普通、ユーザは、自動演奏と合奏する場
合、演奏する形態(楽曲)が不慣れであればテンポを基
準のテンポよりも遅く設定し、その演奏になれるにつれ
て、言い換えれば、演奏技術が上達するにつれてテンポ
を徐々に早く設定する。練習用楽曲と観賞用楽曲とで
は、始めに記譜情報に忠実な練習用楽曲を練習し、その
後、目標とすべき観賞用楽曲を練習することが多い。本
実施の形態は、これらに着目し、テンポに応じて揺らぎ
的要素を加減、即ち発音タイミング等を変更している。Normally, when performing with an automatic performance, the user sets the tempo slower than the reference tempo if the form (music) to be played is unfamiliar, and as the performance becomes possible, in other words, the performance technique improves. Set the tempo gradually faster as you play. In practice music and ornamental music, the practice music that is faithful to the music information is first practiced, and then the target ornamental music is practiced. The present embodiment focuses on these factors, and adjusts fluctuation factors in accordance with the tempo, that is, changes the sounding timing and the like.
【0039】図3(a)に示す発音データは、その1バ
イト目のチャンネルメッセージが“90h”であること
から、チャンネルが1のノートオンのイベントデータで
ある。それに値が“60h”の2つのデータバイトが続
くことから、ノートナンバー、ベロシティ値は共に“9
6d”(dは10進数であることを示す)である。The sound data shown in FIG. 3A is note-on event data of channel 1 since the channel message of the first byte is "90h". Since two data bytes having the value “60h” follow, the note number and velocity value are both “9”.
6d "(d indicates a decimal number).
【0040】そのタイミングデータは、2バイト目の値
が“40h”で他のバイトは全て“00h”である。従
って、記譜情報に従った発音タイミングは、64拍目の
先頭である。一方、差分データは、1バイト目は“00
h”、2バイト目は“40h”であることから、手本
(目標)とすべき観賞用楽曲でのその発音タイミング
は、記譜情報に従った発音タイミングから64クロック
分の時間だけ遅れていることが判る。In the timing data, the value of the second byte is "40h" and all other bytes are "00h". Therefore, the sound generation timing according to the music notation information is the beginning of the 64th beat. On the other hand, in the difference data, the first byte is “00”.
h ”and the second byte are“ 40h ”, so the sounding timing of the ornamental music to be set as a model (target) is delayed by 64 clocks from the sounding timing according to the music notation information. It turns out that there is.
【0041】図3(b)、及び同図(c)は、上記イベ
ントデータで指定された楽音が発音されるタイミングを
テンポ別に表している。この図3(b)、及び(c)に
おいて、分解能(1拍当たりのクロック数)は127ク
ロック、基準となるテンポ(普通に再生させた場合のテ
ンポ)は120である。以降、基準となるテンポについ
ては、ユーザが目標とすべきテンポであることから理想
テンポ、ユーザが実際に設定しているテンポについては
実テンポと呼ぶことにする。FIGS. 3B and 3C show the timing at which the musical tone specified by the event data is generated for each tempo. 3 (b) and 3 (c), the resolution (the number of clocks per beat) is 127 clocks, and the reference tempo (tempo when normally reproduced) is 120. Hereinafter, the reference tempo will be referred to as an ideal tempo because it is the tempo to be targeted by the user, and the tempo actually set by the user will be referred to as the actual tempo.
【0042】本実施の形態では、実テンポ値と理想テン
ポ値の差に応じて、差分データを直線的に重みづけして
いる。実テンポ値が理想テンポ値に一致した場合、差分
データをそのままタイミングデータに反映させている。
このため、図3(b)に示すように、実テンポ値が12
0、即ち実テンポ値が理想テンポ値と一致している場
合、発音タイミングを64拍目節の先頭から64(=4
0h)クロックとしている。実テンポ値が60のときに
は、図3(c)に示すように、発音タイミングは64拍
目節の32クロックとしている。In this embodiment, the difference data is linearly weighted according to the difference between the actual tempo value and the ideal tempo value. When the actual tempo value matches the ideal tempo value, the difference data is directly reflected on the timing data.
For this reason, as shown in FIG.
0, that is, when the actual tempo value matches the ideal tempo value, the tone generation timing is set to 64 (= 4
0h) Clock. When the actual tempo value is 60, as shown in FIG. 3C, the tone generation timing is 32 clocks of the 64th beat.
【0043】このように、実テンポ値に応じて差分デー
タの重みづけを変更、即ち楽曲に付加させる音楽的な揺
らぎ要素を加減すると、ユーザの演奏技術が向上してい
くにつれて、自動演奏される楽曲は目標とすべき状態に
近づくことになる。このため、ユーザは、自身の技量レ
ベルに応じて適度な状態で再生される楽曲との合奏を行
うことができる。これは、ユーザはテンポを設定する簡
便な操作を行うだけで、自分に合った状態の楽曲との合
奏を行えることを意味する。また、それは、再生させる
楽曲の状態を指定するためのスイッチ類の増加を回避す
るということから、装置のコストを抑えられるという効
果も得られることを意味する。As described above, when the weight of the difference data is changed in accordance with the actual tempo value, that is, the musical fluctuation element to be added to the music is adjusted, the performance is automatically performed as the performance technique of the user improves. The song will be closer to the target state. For this reason, the user can perform an ensemble with the music reproduced in an appropriate state according to his or her skill level. This means that the user can perform an ensemble with a music piece that suits him only by performing a simple operation of setting the tempo. This also means that an increase in the number of switches for designating the state of the music to be reproduced is avoided, which means that the effect of reducing the cost of the apparatus can be obtained.
【0044】このように、実テンポ値に応じて楽音の発
音タイミングは変更される。他の種類の音楽データ、例
えば図2(b)に示すベンダーデータ、コントロールデ
ータも同様に、それを自動演奏に反映させるタイミング
が実テンポ値に応じて変更される。As described above, the tone generation timing of the musical tone is changed according to the actual tempo value. Similarly, for other types of music data, for example, the vendor data and control data shown in FIG. 2B, the timing at which the data is reflected in the automatic performance is changed according to the actual tempo value.
【0045】次に、上記自動演奏を実現するためのCP
U106の動作について、図4〜図8に示す各種動作フ
ローチャートを参照して詳細に説明する。それらの動作
フローチャートは、CPU106がプログラムROM1
08からプログラムを読み出し、それを実行することで
実現される処理である。Next, the CP for realizing the automatic performance described above.
The operation of U106 will be described in detail with reference to various operation flowcharts shown in FIGS. The flowchart of these operations is as follows.
This is a process realized by reading a program from the program 08 and executing the program.
【0046】図4は、自動演奏処理の動作フローチャー
トである。この自動演奏処理は、ユーザが自動演奏モー
ドを設定し、再生させる演奏データ(楽曲)を指定した
後、自動演奏を開始させる入力スイッチ群101のスタ
ートスイッチを操作することで実行されるサブルーチン
処理である。図4を参照して、始めにその自動演奏処理
について詳細に説明する。FIG. 4 is an operation flowchart of the automatic performance process. This automatic performance process is a subroutine process executed by a user setting an automatic performance mode, specifying performance data (song) to be reproduced, and then operating a start switch of an input switch group 101 for starting automatic performance. is there. First, the automatic performance process will be described in detail with reference to FIG.
【0047】自動演奏を行っているか否かは、ワークR
AM109、或いはCPU106内のレジスタに保持さ
れる変数Iの値によって判断される。その変数Iには、
自動演奏中のときには1、そうでないときには0が代入
される。自動演奏処理に移行して最初に実行するステッ
プ401では、上記変数Iに0を代入する。その後、ス
テップ402の処理に移行する。Whether the automatic performance is performed or not is determined by the work R
The determination is made based on the value of the variable I held in the register in the AM 109 or the CPU 106. The variable I contains
During automatic performance, 1 is substituted, otherwise 0 is substituted. In step 401, which is executed first after shifting to the automatic performance processing, 0 is substituted for the variable I. After that, the processing shifts to the processing of step 402.
【0048】ステップ402では、ユーザが自動演奏の
開始を指示したか否か判定する。ユーザが、上記スター
トスイッチを操作した場合、その判定はYESとなって
ステップ403の処理に移行する。そうでない場合に
は、その判定はNOとなってステップ404の処理に移
行する。In step 402, it is determined whether or not the user has instructed the start of the automatic performance. If the user operates the start switch, the determination is YES and the process proceeds to step 403. Otherwise, the determination is no and the process moves to step 404.
【0049】ステップ403では、変数Iに1を加算す
る。即ち変数Iに、自動演奏中であることを示す1を代
入する。その後、ステップ405の処理に移行する。他
方のステップ404では、変数Iの値が1か否か判定す
る。即ち、現在自動演奏中か否か判定する。変数Iに既
に1が代入されていた場合、その判定はYESとなって
ステップ405の処理に移行する。そうでない場合に
は、その判定はNOとなって一連の処理を終了する。In step 403, 1 is added to the variable I. That is, 1 indicating that the automatic performance is being performed is substituted for the variable I. After that, the processing shifts to the processing of step 405. In the other step 404, it is determined whether or not the value of the variable I is 1. That is, it is determined whether or not an automatic performance is currently being performed. If 1 has already been assigned to the variable I, the determination is YES and the process moves to step 405. Otherwise, the determination is NO and the series of processing ends.
【0050】ステップ405では、自動演奏が停止した
か否か判定する。自動演奏は、楽曲の再生の完了、或い
は自動演奏の停止を指定する入力スイッチ群101のス
トップスイッチの操作により停止する。楽曲の再生が完
了、或いはユーザがストップスイッチを操作した場合、
その判定はYESとなってステップ406の処理に移行
する。それらでない場合には、その判定はNOとなって
ステップ407の処理に移行する。上記ステップ406
では、変数Iに0を代入し、その後、一連の処理を終了
する。At step 405, it is determined whether or not the automatic performance has stopped. The automatic performance is stopped by the operation of the stop switch of the input switch group 101 for specifying the completion of the reproduction of the music or the stop of the automatic performance. When the playback of the song is completed or the user operates the stop switch,
The determination is YES and the process moves to step 406. Otherwise, the determination is no and the process moves to step 407. Step 406 above
Then, 0 is substituted for the variable I, and thereafter, a series of processing ends.
【0051】ステップ407〜413では、実テンポ
値、音楽ROM102から読み出した音楽データに基づ
いて制御コマンドを生成し、その制御コマンドを音源装
置104に出力するための一連の処理が行われる。それ
らの処理が行われることで、音源装置104は発音させ
るべき楽音の波形信号を生成してサウンドシステム10
5に出力し、自動演奏による楽曲がサウンドシステム1
05から放音されることになる。In steps 407 to 413, a series of processes for generating a control command based on the actual tempo value and the music data read from the music ROM 102 and outputting the control command to the tone generator 104 are performed. By performing these processes, the sound source device 104 generates a waveform signal of a musical tone to be generated and generates a sound signal of the sound system 10.
5 and the music by automatic performance is output to the sound system 1
05 will be emitted.
【0052】先ず、ステップ407では、現在設定され
ているテンポの値をワークRAM109から読み取る処
理を行う。そのテンポ値は、自動演奏中であってもユー
ザが任意に変更できるパラメータである。First, in step 407, a process of reading the currently set tempo value from the work RAM 109 is performed. The tempo value is a parameter that can be arbitrarily changed by the user even during automatic performance.
【0053】ステップ407に続くステップ408で
は、次に処理すべき音楽データを1つ音楽ROM102
から読み出す。CPU106は、ワークRAM109
に、次に処理すべき音楽データが格納されているアドレ
スを示す変数を格納している。上記ステップ408で
は、その変数の値の更新を、音楽データの読み出しに合
わせて行う。これにより、音楽ROM102から読み出
すべき音楽データが管理される。In step 408 following step 407, one music data to be processed next is stored in the music ROM 102.
Read from The CPU 106 has a work RAM 109
A variable indicating an address at which music data to be processed next is stored. In step 408, the value of the variable is updated in synchronization with the reading of the music data. Thereby, the music data to be read from the music ROM 102 is managed.
【0054】ステップ408に続くステップ409で
は、ステップ408で読み出した音楽データの楽音を発
音させるタイミングを決定するタイミング処理を実行す
る。その後、ステップ410の処理に移行する。In a step 409 following the step 408, a timing process for determining a timing for generating a tone of the music data read in the step 408 is executed. After that, the processing shifts to the processing of step 410.
【0055】ステップ410では、発音させる楽音の音
量を決定する強弱データ処理を実行する。この強弱デー
タ処理は、発音データの3バイト目のデータであるベロ
シティ値Vv、差分データ、及び実テンポ値に基づき、
新たに別のベロシティ値(楽音の音量)を決定する処理
である。この強弱データ処理が終了すると、ステップ4
11の処理に移行する。In step 410, a dynamic data processing for determining the volume of the musical sound to be generated is executed. This dynamic data processing is based on the velocity value Vv, the difference data, and the actual tempo value, which are the third byte of the sound data.
This is a process for newly determining another velocity value (volume of a musical tone). When the dynamic data processing is completed, step 4
Then, the process proceeds to step S11.
【0056】ステップ411では、楽音の音色を決定す
る音色データ処理を実行する。この音色データ処理は、
差分データ、及び実テンポ値に基づき、楽音の音色を変
更する処理である。その処理の終了後、ステップ412
の処理に移行する。In step 411, timbre data processing for determining the timbre of the musical tone is executed. This tone data processing
This is a process of changing the tone color of a musical tone based on the difference data and the actual tempo value. After the end of the process, step 412
Move to the processing of.
【0057】ステップ412では、発音データ以外の音
楽データ、例えばベンダーデータやコントロールデータ
(図2参照)から生成した制御コマンドを、音源装置1
04に出力するタイミングを決定する制御データタイミ
ング処理を実行する。この制御データタイミング処理を
終了することで、音源装置104に出力すべき制御コマ
ンドを生成するための情報、その制御コマンドを音源装
置104に出力するタイミングを決定する情報の取得が
完了する。In step 412, the sound source device 1 transmits control data generated from music data other than sound data, for example, vendor data and control data (see FIG. 2).
Then, a control data timing process for determining the timing of output to the control unit 04 is executed. By ending this control data timing processing, acquisition of information for generating a control command to be output to the sound source device 104 and information for determining the timing of outputting the control command to the sound source device 104 are completed.
【0058】ステップ413では、ステップ407〜4
12の一連の処理を実行した結果を基に、音源装置10
4に出力する制御コマンドを生成し、その制御コマンド
を出力すべきタイミングに合わせて音源装置104に出
力する処理を実行する。その後、ステップ402の処理
に戻る。At step 413, steps 407-4
Based on the result of executing the series of processes of the sound source device 10
4 to generate a control command to be output to the tone generator 104 and output the control command to the tone generator 104 at the timing when the control command should be output. After that, the process returns to step 402.
【0059】上記ステップ402〜413は処理ループ
を形成している。その処理ループは、1音楽データを処
理する度に1周し、それを繰り返すことで、自動演奏に
よる楽曲の再生が進行する。以下、上記自動演奏処理内
で実行される各種サブルーチン処理について詳細に説明
する。The above steps 402 to 413 form a processing loop. The processing loop makes one round each time one piece of music data is processed, and by repeating the loop, the reproduction of music by automatic performance progresses. Hereinafter, various subroutine processes executed in the automatic performance process will be described in detail.
【0060】図5は、上記ステップ409として実行さ
れる発音タイミング処理の動作フローチャートである。
次に、この図5を参照して、発音タイミング処理につい
て詳細に説明する。FIG. 5 is an operation flowchart of the tone generation timing process executed as step 409.
Next, the tone generation timing processing will be described in detail with reference to FIG.
【0061】先ず、ステップ501では、自動演奏処理
のステップ408で得た音楽データが発音データである
か否か判定する。図2に示すように、音楽データのチャ
ンネルメッセージはその種類によって異なる。このた
め、音楽データが発音データか否かは、そのチャンネル
メッセージが“9Nh”(Nは任意のチャンネルを示
す)か否かから判定する。チャンネルメッセージが“9
Nh”であった場合、その判定はYESとなってステッ
プ502の処理に移行する。そうでない場合には、その
判定はNOとなって一連の処理を終了する。First, in step 501, it is determined whether or not the music data obtained in step 408 of the automatic performance process is sound data. As shown in FIG. 2, the channel message of the music data differs depending on the type. Therefore, whether or not the music data is sound data is determined from whether or not the channel message is “9Nh” (N indicates an arbitrary channel). If the channel message is "9
If Nh ", the determination is YES and the process moves to step 502. Otherwise, the determination is NO and the series of processes ends.
【0062】ステップ502では、理想テンポ値(演奏
データのヘッダー部に格納されているテンポ値(図2参
照))と実テンポ値(現在設定されているテンポ値)の
テンポ差分値Tを算出する。続くステップ503では、
その差分値Tを用いて、タイミングデータからの発音タ
イミングのズレ、即ち記譜情報に従った発音タイミング
からのズレであるタイミング差NΔを算出する。具体的
には、差分データ中のクロック数で示す変更量データ
(2バイト目のデータ)の値をΔとすると、タイミング
差NΔは、変更量データ値Δと上記テンポ差分値Tを乗
算した値を、理想テンポ値で除算して算出する。即ちN
Δ=Δ×T/理想テンポ値、である。In step 502, a tempo difference value T between the ideal tempo value (the tempo value stored in the header portion of the performance data (see FIG. 2)) and the actual tempo value (the currently set tempo value) is calculated. . In the following step 503,
Using the difference value T, a timing difference NΔ, which is a deviation of the tone generation timing from the timing data, that is, a deviation from the tone generation timing according to the music notation information is calculated. Specifically, assuming that the value of the change amount data (data of the second byte) indicated by the number of clocks in the difference data is Δ, the timing difference NΔ is a value obtained by multiplying the change amount data value Δ by the tempo difference value T. Is divided by the ideal tempo value. That is, N
Δ = Δ × T / ideal tempo value.
【0063】上記ステップ503の処理を実行すること
で、実テンポ値に応じた楽音の発音タイミングが確定す
る。そのステップ503の処理を終了した後、一連の処
理を終了する。By executing the processing of step 503, the tone generation timing of the musical tone corresponding to the actual tempo value is determined. After ending the processing of step 503, a series of processing ends.
【0064】なお、確定した楽音の発音タイミングは、
タイミングデータが示す時間位置から、差分データ中の
符号データ(1バイト目のデータ)が示す側に、上記タ
イミング差NΔだけずらしたタイミングである。The tone generation timing of the determined musical tone is as follows.
This is a timing shifted from the time position indicated by the timing data to the side indicated by the code data (data of the first byte) in the difference data by the timing difference NΔ.
【0065】図6は、自動演奏処理内でステップ410
として実行される強弱データ処理の動作フローチャート
である。次に、この図6を参照して、強弱データ処理に
ついて詳細に説明する。FIG. 6 shows a step 410 in the automatic performance processing.
7 is an operation flowchart of strong / weak data processing executed as (1). Next, the dynamic data processing will be described in detail with reference to FIG.
【0066】本実施の形態では、発音させる楽音の音量
を、イベントデータ中のベロシティ値が示す音量からテ
ンポに応じて変更する(強弱を加減する)ようにしてい
る。その楽音の音量を変更し、楽音を発音させる音量を
決定するのが強弱データ処理である。楽音の音量の決定
は、音楽データ中の差分データを用いて行う。In the present embodiment, the volume of the musical tone to be generated is changed from the volume indicated by the velocity value in the event data in accordance with the tempo (strength is adjusted). The dynamic data processing is to change the volume of the musical tone and determine the volume at which the musical tone is generated. The determination of the volume of the musical sound is performed using the difference data in the music data.
【0067】先ず、ステップ601では、自動演奏処理
のステップ408で得た音楽データが発音データである
か否か判定する。その音楽データのチャンネルメッセー
ジが“9Nh”であった場合、その判定はYESとなっ
てステップ602の処理に移行する。そうでない場合に
は、即ち音楽データが発音データでない場合には、その
判定はNOとなって一連の処理を終了する。First, in step 601, it is determined whether or not the music data obtained in step 408 of the automatic performance process is sound data. If the channel message of the music data is “9Nh”, the determination is YES and the process moves to step 602. If not, that is, if the music data is not the sound data, the determination is NO and the series of processing ends.
【0068】ステップ602では、発音データ中のベロ
シティ値Vvが“00h”か否か、即ちその発音データ
がノートオフイベントか否か判定する。そのベロシティ
値Vvが“00h”であった場合、その判定はYESと
なってステップ603の処理に移行する。そうでない場
合には、その判定はNOとなってステップ604の処理
に移行する。At step 602, it is determined whether or not the velocity value Vv in the sound data is "00h", that is, whether or not the sound data is a note-off event. If the velocity value Vv is “00h”, the determination is YES and the process moves to step 603. Otherwise, the determination is no and the process moves to step 604.
【0069】ステップ603では、ベロシティ値Vvが
“00h”であり、発音データがノートオフイベントで
あることから、発音データ中のノートナンバーnnが示
す楽音を消音させる消音処理を実行する。その後、一連
の処理を終了する。なお、実際の楽音の消音は、CPU
106が音源装置104に、楽音のノートナンバーn
n、及びそのナンバーの楽音の消音を指示する制御コマ
ンドを出力することで実現される。In step 603, since the velocity value Vv is "00h" and the sounding data is a note-off event, a mute process is performed to mute the tone indicated by the note number nn in the sounding data. Thereafter, a series of processing ends. Note that the actual tone is muted by the CPU.
Reference numeral 106 designates the tone generator 104 as a musical note number n.
This is realized by outputting a control command for instructing to mute the musical tone of n and its number.
【0070】他方のステップ604では、理想テンポ値
と実テンポ値(現在設定されているテンポ値)のテンポ
差分値Tを算出する。続くステップ605では、その差
分値Tを用いて、楽音を実際に発音させる音量を指定す
るベロシティ値NVを算出する。そのベロシティ値NV
の算出が終了した後、一連の処理を終了する。In step 604, a tempo difference value T between the ideal tempo value and the actual tempo value (the currently set tempo value) is calculated. In the following step 605, a velocity value NV that specifies the volume at which the musical tone is actually generated is calculated using the difference value T. Its velocity value NV
After the calculation of is completed, a series of processing ends.
【0071】本実施の形態では、実テンポ値が理想テン
ポ値から離れる程、7ビット(127段階)で表現され
るベロシティ値Vvの中間値64に近づくようにしてい
る。このことから、上記ベロシティ値NVは、発音デー
タから得たベロシティ値Vvから64を減算し、その減
算結果にテンポ差分値Tを乗算し、その乗算結果を理想
テンポ値で乗算して得た値を、中間値64に加算するこ
とで算出する。即ち、NV=64+(Vv−64)×T
/理想テンポ値、である。In this embodiment, as the actual tempo value departs from the ideal tempo value, it approaches the intermediate value 64 of the velocity value Vv expressed by 7 bits (127 steps). Therefore, the velocity value NV is a value obtained by subtracting 64 from the velocity value Vv obtained from the sound data, multiplying the subtraction result by the tempo difference value T, and multiplying the multiplication result by the ideal tempo value. Is calculated by adding to the intermediate value 64. That is, NV = 64 + (Vv−64) × T
/ Ideal tempo value.
【0072】なお、ベロシティ値NVの算出式におい
て、(Vv−64)の値は、楽音の音量を中間値64の
何れの側にするかを示している。このため、楽音の音量
の決定には差分データ中の符号データは使用されず、ベ
ロシティ値NVを算出した時点で楽音の音量は確定す
る。In the equation for calculating the velocity value NV, the value of (Vv-64) indicates which side of the intermediate value 64 the tone volume of the musical tone should be. For this reason, the code data in the difference data is not used for determining the volume of the musical tone, and the volume of the musical tone is determined at the time when the velocity value NV is calculated.
【0073】図7は、自動演奏処理内でステップ411
として実行される音色データ処理の動作フローチャート
である。次に、この図7を参照して、音色データ処理に
ついて詳細に説明する。FIG. 7 shows step 411 in the automatic performance processing.
9 is an operation flowchart of timbre data processing executed as (1). Next, the timbre data processing will be described in detail with reference to FIG.
【0074】本実施の形態では、発音させる楽音の音色
を、テンポに応じて変更するようにしている。その音色
の実際の変更は、音源装置104内のデジタルフィルタ
ーの設定を変更することで行っている。In this embodiment, the timbre of the musical tone to be generated is changed according to the tempo. The actual change of the timbre is performed by changing the setting of the digital filter in the sound source device 104.
【0075】先ず、ステップ701では、自動演奏処理
のステップ408で得た音楽データが発音データである
か否か判定する。その音楽データのチャンネルメッセー
ジが“9Nh”であった場合、その判定はYESとなっ
てステップ702の処理に移行する。そうでない場合に
は、即ち音楽データが発音データでない場合には、その
判定はNOとなって一連の処理を終了する。First, in step 701, it is determined whether or not the music data obtained in step 408 of the automatic performance processing is sound data. If the channel message of the music data is “9Nh”, the determination is YES and the process moves to step 702. If not, that is, if the music data is not the sound data, the determination is NO and the series of processing ends.
【0076】ステップ702では、発音データ中のベロ
シティ値Vvが“00h”か否か、即ちその発音データ
がノートオフイベントか否か判定する。そのベロシティ
値Vvが“00h”であった場合、その判定はYESと
なってステップ703の処理に移行する。そうでない場
合には、その判定はNOとなってステップ704の処理
に移行する。At step 702, it is determined whether or not the velocity value Vv in the sound data is "00h", that is, whether or not the sound data is a note-off event. If the velocity value Vv is “00h”, the determination is YES and the process moves to step 703. Otherwise, the determination is no and the process moves to step 704.
【0077】ステップ703では、その発音データがノ
ートオフイベントであることから、発音データ中のノー
トナンバーnnが示す楽音を消音させる消音処理を実行
する。その後、一連の処理を終了する。他方のステップ
704では、理想テンポ値と実テンポ値(現在設定され
ているテンポ値)のテンポ差分値Tを算出する。続くス
テップ705では、その差分値Tを用いて、上記強弱デ
ータ処理と同様にして、楽音を実際に発音させる音量を
指定するベロシティ値NVを算出する。In step 703, since the sounding data is a note-off event, a silencing process is performed to mute the tone indicated by the note number nn in the sounding data. Thereafter, a series of processing ends. In step 704, a tempo difference value T between the ideal tempo value and the actual tempo value (currently set tempo value) is calculated. In the following step 705, using the difference value T, a velocity value NV for designating a volume at which a musical tone is actually produced is calculated in the same manner as in the above-mentioned dynamic data processing.
【0078】ステップ705に続くステップ706で
は、算出したベロシティ値NVから、発音させる楽音に
対するフィルターの設定内容を決定する。フィルターの
設定内容は、数値(フィルター値)で音源装置104に
出力することから、ステップ706の処理を実行するこ
とで、そのフィルター値が確定する。そのフィルター値
を確定させた後、一連の処理を終了する。At step 706 following step 705, the setting contents of the filter for the musical sound to be generated are determined from the calculated velocity value NV. Since the filter setting content is output to the sound source device 104 as a numerical value (filter value), the process of step 706 is executed to determine the filter value. After the filter value is determined, a series of processing ends.
【0079】ベロシティ値NVとフィルターの設定内容
の関係を定義する規則は、プログラムROM108に格
納されている。ベロシティ値NVは、上述したように、
実テンポ値が理想テンポ値から離れる程、中間値64に
近づくようになっている。このため、フィルターの設定
内容は、実テンポ値が理想テンポ値から離れる程、ベロ
シティの中間値64に対応する設定内容に近づくことに
なる。The rules for defining the relationship between the velocity value NV and the filter settings are stored in the program ROM 108. The velocity value NV is, as described above,
As the actual tempo value departs from the ideal tempo value, it approaches the intermediate value 64. For this reason, the setting content of the filter approaches the setting content corresponding to the intermediate velocity value 64 as the actual tempo value departs from the ideal tempo value.
【0080】図8は、自動演奏処理内でステップ412
として実行される制御データタイミング処理の動作フロ
ーチャートである。次に、この図8を参照して、制御デ
ータタイミング処理について詳細に説明する。FIG. 8 shows step 412 in the automatic performance processing.
9 is an operation flowchart of a control data timing process executed as (1). Next, the control data timing processing will be described in detail with reference to FIG.
【0081】この制御データタイミング処理は、上記し
たように、発音データ以外の音楽データ、例えば図2に
示すベンダーデータやコントロールデータを処理対象と
する処理である。ベンダーデータは、発音中の楽音の音
高をシフトさせるデータであり、コントロールデータ
は、プログラム(音色)を切り換えるデータである。こ
のことから判るように、それらの音楽データは演奏全体
の設定を変更するような制御データである。制御データ
タイミング処理は、そのような制御データによる設定変
更のタイミングを実テンポ値に応じて変更し、実際のタ
イミングを確定する処理である。As described above, this control data timing process is a process for processing music data other than sounding data, for example, vendor data and control data shown in FIG. The bender data is data for shifting the pitch of a musical tone being sounded, and the control data is data for switching a program (tone). As can be seen from this, the music data is control data for changing the settings of the entire performance. The control data timing process is a process of changing the timing of setting change by such control data according to the actual tempo value and determining the actual timing.
【0082】先ず、ステップ801では、自動演奏処理
のステップ408で得た音楽データが発音データである
か否か判定する。その音楽データのチャンネルメッセー
ジが“9Nh”であった場合、その判定はYESとなっ
て一連の処理を終了する。そうでない場合には、即ち音
楽データが発音データでない場合には、その判定はNO
となってステップ802の処理に移行する。First, in step 801, it is determined whether or not the music data obtained in step 408 of the automatic performance processing is sound data. If the channel message of the music data is “9Nh”, the determination is YES and the series of processing ends. Otherwise, that is, if the music data is not sound data, the determination is NO.
Then, the process proceeds to step 802.
【0083】ステップ802では、理想テンポ値と実テ
ンポ値(現在設定されているテンポ値)のテンポ差分値
Tを算出する。続くステップ803では、その差分値T
を用いて、タイミングデータからの処理タイミングのズ
レ、即ち記譜情報に従った処理タイミングからのズレで
あるタイミング差NΔを算出する。具体的には、差分デ
ータ中のクロック数で示す変更量データの値をΔとする
と、タイミング差NΔは、変更量データ値Δと上記テン
ポ差分値Tを乗算した値を、理想テンポ値で除算して算
出する。即ちNΔ=Δ×T/理想テンポ値、である。そ
のタイミング差NΔを算出した後、一連の処理を終了す
る。At step 802, a tempo difference value T between the ideal tempo value and the actual tempo value (the currently set tempo value) is calculated. In the following step 803, the difference value T
Is used to calculate a timing difference NΔ, which is a deviation of the processing timing from the timing data, that is, a deviation from the processing timing according to the music notation information. Specifically, assuming that the value of the change amount data indicated by the number of clocks in the difference data is Δ, the timing difference NΔ is obtained by dividing the value obtained by multiplying the change amount data value Δ by the tempo difference value T by an ideal tempo value. And calculate. That is, NΔ = Δ × T / ideal tempo value. After calculating the timing difference NΔ, a series of processing ends.
【0084】上述したようにして算出したタイミング差
NΔは、タイミングデータが示す時間位置から、差分デ
ータ中の符号データが示す側にずらすタイミング差であ
る。従って、上記タイミング差NΔを算出することで、
音楽データ(演奏の制御データ)の処理タイミング(厳
密には、音源装置104にその音楽データによる設定を
反映させるタイミング)が確定する。The timing difference NΔ calculated as described above is a timing difference shifted from the time position indicated by the timing data to the side indicated by the code data in the difference data. Therefore, by calculating the timing difference NΔ,
The processing timing of the music data (performance control data) (strictly, the timing at which the setting based on the music data is reflected on the tone generator 104) is determined.
【0085】なお、本実施の形態では、音楽ROM10
2に予め格納された演奏データを用いて、練習用楽曲、
観賞用楽曲、或いはそれらの間の演奏形態の楽曲を自動
演奏させている。しかし、目標とする観賞用楽曲は個人
によって異なることが多い。このため、観賞用楽曲の演
奏データにユーザの個人的な趣向を反映できるようにし
ても良い。このようにした場合、その観賞用楽曲と練習
用楽曲の間の演奏形態の楽曲は、例えばユーザが作成し
た演奏データを観賞用楽曲の演奏データとしてワークR
AM109に格納し、その演奏データと、音楽ROM1
02に格納されている演奏データ中の基準演奏データと
から、実テンポ値に応じた音楽データ(1イベントのデ
ータ)を生成していくことで実現できる。ワークRAM
109に格納する演奏データは、当然のことながら、R
OMパックといった記憶媒体の演奏データ、外部の装置
が出力した演奏データであっても良い。In this embodiment, the music ROM 10
2 using the performance data stored in advance,
The ornamental music or the music in the form of performance between them is automatically played. However, the target ornamental music often differs from person to person. For this reason, the personal data of the user may be reflected in the performance data of the ornamental music. In such a case, the music in the form of performance between the ornamental music and the practice music is, for example, the work data created by the user as work data of the ornamental music.
AM 109, the performance data and the music ROM 1
This can be realized by generating music data (data of one event) corresponding to the actual tempo value from the reference performance data in the performance data stored in No. 02. Work RAM
The performance data stored in 109 is, of course, R
Performance data on a storage medium such as an OM pack or performance data output from an external device may be used.
【0086】また、それは、ユーザが作成した差分デー
タ、或いはユーザが作成した演奏データから取得した差
分データをワークRAM109に格納し、音楽ROM1
02に格納されている音楽データ内の差分データの換わ
りに、ワークRAM109に格納した差分データを用い
るようにすることでも実現できる。後者を採用する場合
には、音楽ROM102に格納されている音楽データ内
の差分データを、ユーザが任意に変更できるようにして
も良い。それにより、ユーザが差分データを作成する作
業を容易にすることができる。Further, it stores the difference data created by the user or the difference data obtained from the performance data created by the user in the work RAM 109,
02 can be realized by using the difference data stored in the work RAM 109 instead of the difference data in the music data stored in the music data 02. When the latter is adopted, the user may be allowed to arbitrarily change the difference data in the music data stored in the music ROM 102. This makes it easy for the user to create the difference data.
【0087】音楽データに付加する差分データは、本実
施の形態は基本的にはタイミングデータを変更するため
のデータ(パラメータ)だけとしているが、例えば音楽
データ(イベントデータ)の種類(パラメータ)別に差
分データを音楽データに付加しても良い。具体的には、
タイミングデータを変更するための差分データに加え
て、発音データにおいてはベロシティ値を変更するため
の差分データを更に付加しても良く、ベンダーデータに
おいては、チャンネルメッセージに続く2バイトのベン
ドチェンジのデータ(図2中には“vv”、“VV”で
表している)を変更するための差分データを更に付加し
ても良い。更には、複数種類(パラメータ)の差分デー
タを付加しておき、そのなかから実際に自動再生に反映
させる種類(パラメータ)をユーザが選択できるように
しても良い。In the present embodiment, the difference data to be added to the music data is basically only data (parameters) for changing the timing data. For example, for each type (parameter) of music data (event data), Difference data may be added to music data. In particular,
In addition to the difference data for changing the timing data, difference data for changing the velocity value may be further added in the sounding data. In the vendor data, the 2-byte bend change data following the channel message is used. (Represented by “vv” and “VV” in FIG. 2) may be further added to the difference data. Furthermore, a plurality of types (parameters) of difference data may be added, and the type (parameter) to be actually reflected in the automatic reproduction may be selected from the user.
【0088】また、本実施の形態では、音楽データが発
音データであった場合、その差分データを基に、楽音の
音色も変更している。言い換えれば、1パラメータの差
分データから複数のパラメータを変更するようにしてい
る。1種類の差分データを反映させるパラメータを、こ
のように複数にしても良いが、それを一つとしても良
い。差分データを複数のパラメータに反映させる場合に
は、差分データを反映させるパラメータをユーザが選択
できるようにしても良い。例えば、差分データを反映さ
せることにより、タイミングの抑揚、音量の抑揚、音色
の抑揚を付加する機能を装置に用意した場合には、それ
らのなかからユーザが所望のものを選択できるようにし
ても良い。In the present embodiment, when the music data is pronunciation data, the timbre of the musical tone is also changed based on the difference data. In other words, a plurality of parameters are changed from the difference data of one parameter. As described above, a plurality of parameters for reflecting one type of difference data may be provided, but only one parameter may be provided. When the difference data is reflected on a plurality of parameters, the user may be allowed to select a parameter on which the difference data is reflected. For example, if the device is provided with a function of adding timing inflection, volume inflection, and timbre inflection by reflecting the difference data, the user can select a desired one from these functions. good.
【0089】差分データのビット数については、本実施
の形態では16ビット(2バイト)としているが、差分
データは基準となる音楽データのパラメータに対する差
分であり、通常、その値は比較的小さいことから、1差
分データに割り当てるビット数をもっと少なくしても良
い。例えば1差分データ毎に1バイトを割り当てた場合
には、下位7ビットをデータ用、最上位ビットをそのデ
ータの使用方法を示す識別用に使用しても良い。本実施
の形態の差分データを例にとれば、差分データの2バイ
ト目を下位7ビットに割り当て、その1バイト目を最上
位ビットに割り当てても良い。Although the number of bits of the difference data is 16 bits (2 bytes) in the present embodiment, the difference data is a difference from the reference music data parameter, and the value is usually relatively small. Therefore, the number of bits assigned to one difference data may be further reduced. For example, when one byte is allocated to each difference data, the lower 7 bits may be used for data, and the most significant bit may be used for identification indicating a method of using the data. Taking the difference data of the present embodiment as an example, the second byte of the difference data may be assigned to the lower 7 bits, and the first byte may be assigned to the most significant bit.
【0090】また、本実施の形態では、実テンポ値と理
想テンポ値の差分値Tに応じて、差分データの重みづけ
を直線的に変化させているが、その重みづけの方法、即
ち差分データの反映方法をユーザが任意に設定できるよ
うにしても良い。そのための方法としては、差分値Tに
応じて差分データの重みづけを変化させる規則を幾つか
用意し、そのなかからユーザが所望のものを選択できる
ようにしても良く、その規則をユーザが任意に定義でき
るようにしても良い。更には、例えば差分データの重み
を指定するためのスイッチを用意し、そのスイッチへの
ユーザの操作に基づいて差分データの重みづけを変化さ
せるようにしても良い。何れを採用しても、ユーザは楽
曲を所望の演奏形態で自動再生させることができる。Further, in the present embodiment, the weighting of the difference data is linearly changed in accordance with the difference value T between the actual tempo value and the ideal tempo value. May be arbitrarily set by the user. As a method therefor, several rules for changing the weighting of the difference data according to the difference value T may be prepared, and the user may be able to select a desired one from the rules. May be defined. Further, for example, a switch for designating the weight of the difference data may be prepared, and the weight of the difference data may be changed based on a user operation on the switch. In any case, the user can automatically reproduce the music in a desired performance form.
【0091】[0091]
【発明の効果】以上説明したように本発明は、少なくと
も2演奏形態の同一の楽曲を自動再生するための演奏デ
ータを用意し、その演奏データを基に、2演奏形態の楽
曲、更にはそれらの間の演奏形態の楽曲の発音命令を生
成する。このため、少ない演奏データ量で、様々な演奏
形態で楽曲を自動演奏することができる。また、それに
より、ユーザは手本として様々な演奏形態の楽曲の試聴
や、それらとの合奏を行えるため、様々な演奏形態の楽
曲を効率的に練習することができる。As described above, according to the present invention, performance data for automatically reproducing at least the same music in two performance forms is prepared, and based on the performance data, the music in two performance forms, A pronunciation instruction for a musical piece in a performance form during the period is generated. For this reason, the music can be automatically performed in various performance modes with a small performance data amount. In addition, since the user can listen to music of various performance forms and play an ensemble with them as a model, the user can efficiently practice music of various performance forms.
【0092】また、本発明は、演奏データを、2演奏形
態のうちの一方の演奏データ(基準演奏データ)に、他
方の演奏データとの差分データを付加して作成してい
る。このため、より少ないデータ量で2演奏形態の楽
曲、更にはそれらの間の演奏形態の楽曲を自動演奏する
ことができる。Further, according to the present invention, performance data is created by adding difference data from one performance data (reference performance data) of the two performance forms to the other performance data. For this reason, it is possible to automatically play music in two performance forms and music in a performance form between them with a smaller data amount.
【図1】本実施の形態が適用された自動演奏装置の構成
図である。FIG. 1 is a configuration diagram of an automatic performance device to which the present embodiment is applied.
【図2】演奏データの構成を説明するための図である。FIG. 2 is a diagram illustrating a configuration of performance data.
【図3】テンポに応じた発音タイミングの変更を説明す
る図である。FIG. 3 is a diagram illustrating a change in sounding timing according to a tempo.
【図4】自動演奏処理の動作フローチャートである。FIG. 4 is an operation flowchart of an automatic performance process.
【図5】発音タイミング処理のフローチャートである。FIG. 5 is a flowchart of a tone generation timing process.
【図6】強弱データ処理の動作フローチャートである。FIG. 6 is an operation flowchart of strong and weak data processing.
【図7】音色データ処理の動作フローチャートである。FIG. 7 is an operation flowchart of tone data processing.
【図8】制御データタイミング処理の動作フローチャー
トである。FIG. 8 is an operation flowchart of a control data timing process.
101 入力スイッチ群 102 音楽ROM 104 音源装置 106 CPU 108 プログラムROM 109 ワークRAM 101 input switch group 102 music ROM 104 sound source device 106 CPU 108 program ROM 109 work RAM
Claims (5)
て構成される演奏データを基に、発音命令を順次生成し
ていくことで自動演奏を行う自動演奏装置であって、 複数の演奏形態で同一の楽曲を再生するための演奏デー
タを記憶した演奏データ記憶手段と、 前記演奏データ記憶手段に記憶されている演奏データを
用いて、前記複数の演奏形態の何れか、或いは前記複数
の演奏形態の間の演奏形態で楽曲を自動演奏する自動演
奏手段と、 を具備したことを特徴とする自動演奏装置。1. An automatic performance device for performing an automatic performance by sequentially generating sounding instructions based on performance data configured by adding time data to event data. Performance data storage means for storing performance data for reproducing the music of the above, using the performance data stored in the performance data storage means, any one of the plurality of performance forms, or of the plurality of performance forms An automatic performance device, comprising: automatic performance means for automatically performing a music in a performance form between the automatic performance device and the automatic performance device.
る演奏データは、基準演奏形態で楽曲を再生するための
基準演奏データに、前記基準演奏形態とは異なる他の演
奏形態で楽曲を再生するための他形態演奏データとの差
分データを付加して構成され、 前記自動演奏手段は、前記差分データを前記基準演奏デ
ータに反映させる重みづけを変更することにより、前記
複数の演奏形態の何れか、或いは前記複数の演奏形態の
間の演奏形態で楽曲を自動演奏する、 ことを特徴とする請求項1記載の自動演奏装置。2. Performance data stored in the performance data storage means is used as reference performance data for reproducing music in a reference performance mode, and music is reproduced in another performance mode different from the reference performance mode. The automatic performance means is configured to change the weight for reflecting the difference data on the reference performance data, thereby changing any of the plurality of performance forms. 2. The automatic performance apparatus according to claim 1, wherein the music is automatically performed in a performance mode between the plurality of performance modes.
よる指定に応じて、前記差分データの重みづけを変更す
る、 ことを特徴とする請求項2記載の自動演奏装置。3. The automatic performance device according to claim 2, wherein said automatic performance means changes the weight of said difference data in accordance with designation by a predetermined designation means.
準演奏データとともに、前記基準演奏形態とは異なる他
の演奏形態で同一の楽曲を再生するための他形態演奏デ
ータ、及び該他形態演奏データと前記基準演奏データの
差分データの少なくとも一方を用意し、 前記基準演奏データ、及び前記他形態演奏データと前記
差分データの一方に基づき、発音命令を順次生成してい
くことで、前記基準演奏形態、及び前記他の演奏形態の
何れか、或いはそれらの間の演奏形態で楽曲を自動演奏
する、 ことを特徴とする自動演奏方法。4. Other form performance data for reproducing the same music in another performance form different from the reference performance form, together with reference performance data for reproducing the music piece in the reference form. By preparing at least one of data and difference data of the reference performance data, and sequentially generating a sounding instruction based on the reference performance data and one of the other form performance data and the difference data, the reference performance A music composition is automatically performed in any one of the above-mentioned forms and the other performance forms, or a performance form therebetween.
て構成され、基準演奏形態で楽曲を再生するための基準
演奏データに、 前記基準演奏形態とは異なる他の演奏形態で同一の楽曲
を再生するための他形態演奏データとの差分データを、 付加して構成される演奏データを記憶したことを特徴と
する記憶媒体。5. The same musical piece is reproduced in another performance form different from the reference performance form as reference performance data for reproducing music in a reference performance form, which is constituted by adding time data to event data. A storage medium characterized by storing performance data constituted by adding difference data from other forms of performance data for use.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8170813A JPH1020856A (en) | 1996-07-01 | 1996-07-01 | Automatic player, automatic playing method and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8170813A JPH1020856A (en) | 1996-07-01 | 1996-07-01 | Automatic player, automatic playing method and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1020856A true JPH1020856A (en) | 1998-01-23 |
Family
ID=15911820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8170813A Abandoned JPH1020856A (en) | 1996-07-01 | 1996-07-01 | Automatic player, automatic playing method and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH1020856A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005748A (en) * | 2001-06-26 | 2003-01-08 | Roland Corp | Automatic player |
-
1996
- 1996-07-01 JP JP8170813A patent/JPH1020856A/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005748A (en) * | 2001-06-26 | 2003-01-08 | Roland Corp | Automatic player |
JP4620293B2 (en) * | 2001-06-26 | 2011-01-26 | ローランド株式会社 | Automatic performance device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6255576B1 (en) | Device and method for forming waveform based on a combination of unit waveforms including loop waveform segments | |
US7094962B2 (en) | Score data display/editing apparatus and program | |
JP3807275B2 (en) | Code presenting device and code presenting computer program | |
JP4702160B2 (en) | Musical sound synthesizer and program | |
JP2006084774A (en) | Playing style automatic deciding device and program | |
JP2007011217A (en) | Musical sound synthesizer and program | |
JP4407473B2 (en) | Performance method determining device and program | |
JP3671788B2 (en) | Tone setting device, tone setting method, and computer-readable recording medium having recorded tone setting program | |
JP3812510B2 (en) | Performance data processing method and tone signal synthesis method | |
JP3632536B2 (en) | Part selection device | |
JPH1020856A (en) | Automatic player, automatic playing method and storage medium | |
JP4802947B2 (en) | Performance method determining device and program | |
JPH0728462A (en) | Automatic playing device | |
JP3379098B2 (en) | Performance device and recording medium on which program or data related to the device is recorded | |
JP3812509B2 (en) | Performance data processing method and tone signal synthesis method | |
JP2003271142A (en) | Device and method for displaying and editing way of playing | |
JP4835434B2 (en) | Performance pattern playback device and computer program therefor | |
JPH10319961A (en) | Sound generating timing controller | |
JP2947150B2 (en) | Automatic performance device | |
JP3407563B2 (en) | Automatic performance device and automatic performance method | |
JP4186855B2 (en) | Musical sound control device and program | |
JP3324318B2 (en) | Automatic performance device | |
JPH04257895A (en) | Apparatus and method for code-step recording and automatic accompaniment system | |
JP3832147B2 (en) | Song data processing method | |
JP3837981B2 (en) | Performance data creation method, automatic performance device and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040323 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20040513 |