[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3216529B2 - Performance data analyzer and performance data analysis method - Google Patents

Performance data analyzer and performance data analysis method

Info

Publication number
JP3216529B2
JP3216529B2 JP17957396A JP17957396A JP3216529B2 JP 3216529 B2 JP3216529 B2 JP 3216529B2 JP 17957396 A JP17957396 A JP 17957396A JP 17957396 A JP17957396 A JP 17957396A JP 3216529 B2 JP3216529 B2 JP 3216529B2
Authority
JP
Japan
Prior art keywords
performance data
section
sound
note
chord
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17957396A
Other languages
Japanese (ja)
Other versions
JPH0981145A (en
Inventor
温 東儀
由子 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP17957396A priority Critical patent/JP3216529B2/en
Publication of JPH0981145A publication Critical patent/JPH0981145A/en
Application granted granted Critical
Publication of JP3216529B2 publication Critical patent/JP3216529B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、電子楽器やコンピ
ュータミュージック等における演奏データを分析する装
置に関わり、該演奏データの音符に対応するデータで構
成されたメロディ情報から調を検出する演奏データ分析
装置および演奏データ分析方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for analyzing performance data in electronic musical instruments, computer music, and the like, and to performance data analysis for detecting a key from melody information composed of data corresponding to notes of the performance data. The present invention relates to a device and a performance data analysis method.

【0002】[0002]

【従来の技術】従来、電子楽器やコンピュータミュージ
ック等においてメロディにコード(和音)を付けたり編
曲等を行うために、演奏データの調を検出する必要があ
る。このような演奏データの調を検出する方法として、
演奏データが示すメロディの最終の音を主音とみなして
調を検出する方法があるが、メロディの途中で転調する
場合に適用できないばかりか、コード進行を決定できる
ほどには詳細な調の変化を検出できないという問題があ
る。そこで、メロディを楽節毎など所定長のブロックに
分割してそれぞれのブロックにおける調を検出する方法
などがあるが、未だに不十分で正確な調検出を行えな
い。
2. Description of the Related Art Conventionally, in order to add a chord (chord) to a melody or arrange music in an electronic musical instrument, computer music, or the like, it is necessary to detect the key of performance data. As a method of detecting the key of such performance data,
There is a method of detecting the key by considering the final sound of the melody indicated by the performance data as the main tone.However, this method cannot be applied when transposing in the middle of the melody, and it requires a detailed key change that can determine the chord progression. There is a problem that it cannot be detected. Therefore, there is a method of dividing the melody into blocks of a predetermined length, such as for each passage, and detecting a key in each block. However, it is still insufficient and accurate key detection cannot be performed.

【0003】[0003]

【発明が解決しようとする課題】本発明は、演奏データ
のメロディ情報から正確な調検出を行うことを課題とす
る。
SUMMARY OF THE INVENTION It is an object of the present invention to perform accurate key detection from melody information of performance data.

【0004】[0004]

【課題を解決するための手段】上記の課題を解決するた
めになした本発明の請求項1記載の演奏データ分析装置
は、音符のシーケンスを示す演奏データを入力する演奏
データ入力手段と、前記演奏データ入力手段によって入
力された演奏データを、1つのコードが占める区間に対
応した可変長の所定の区間に分割する区間分割手段と、
前記区間分割手段によって分割された各区間の演奏デー
タの調を検出する調検出手段と、を備えることを特徴と
する。
According to a first aspect of the present invention, there is provided a performance data analyzing apparatus for solving the above-mentioned problems, wherein performance data input means for inputting performance data indicating a sequence of musical notes; Input by performance data input means
The applied performance data is added to the section occupied by one chord.
Section dividing means for dividing into corresponding variable-length predetermined sections;
Performance data of each section divided by the section dividing means
Key detecting means for detecting the key of the key.

【0005】また、本発明の請求項2記載の演奏データ
分析装置は、音符のシーケンスを示す演奏データを入力
する演奏データ入力手段と、前記演奏データ入力手段に
よって入力された演奏データを、1つのコードが占める
区間に対応した可変長の所定の区間に分割する区間分割
手段と、複数の各調において、各調を特徴づける主要音
名からなる音名列を記憶した音名列記憶手段と、前記区
間分割手段によって分割された区間の演奏データに含ま
れる複数の音名に、少なくとも一部が含まれる音名列
を、前記音名列記憶手段から抽出する音名列抽出手段
と、前記演奏データ入力手段によって入力された演奏デ
ータに含まれる和声音を抽出する和声音抽出手段と、前
記音名列抽出手段によって抽出された音名列と、前記和
声音抽出手段によって抽出された和声音に基づいて調を
検出する調検出手段と、を備えることを特徴とする。
According to a second aspect of the present invention, there is provided a performance data analyzer, wherein performance data input means for inputting performance data indicating a sequence of musical notes;
Therefore, one chord occupies the input performance data.
Section division to divide into predetermined sections of variable length corresponding to the section
Means, a note name string storing means for storing a note name string comprising a main note name characterizing each of the plurality of keys,
A note name string extracting means for extracting, from the note name string storage means, a note name string at least partially included in the plurality of note names included in the performance data of the section divided by the interval dividing means; a harmony sound extraction means for extracting a harmonic sound included in the performance data inputted by the input means, and sound name string extracted by the pitch name string extraction means, the sum
Key detecting means for detecting a key based on the harmony extracted by the voice extracting means .

【0006】また、本発明の請求項3記載の演奏データ
分析装置は、音符のシーケンスを示す演奏データを入力
する演奏データ入力手段と、前記演奏データ入力手段に
よって入力された演奏データを、1つのコードが占める
区間に対応した可変長の所定の区間に分割する区間分割
手段と、複数の各調において、各調を特徴づける主要音
名からなる音名列を記憶した音名列記憶手段と、前記区
間分割手段によって分割された区間の演奏データに含ま
れる複数の音名に、少なくとも一部が含まれる音名列
を、前記音名列記憶手段から抽出する音名列抽出手段
と、前記音名列抽出手段によって抽出された音名列に基
づいて、前記区間毎の調を検出する調検出手段と、を備
えることを特徴とする。
According to a third aspect of the present invention, there is provided a performance data analyzer, wherein performance data input means for inputting performance data indicating a sequence of musical notes, and performance data input by the performance data input means are combined into one. Code occupies
A section dividing means for dividing into a predetermined section of variable length corresponding to the section, a note name string storing means for storing a note name string comprising a main note name characterizing each key in a plurality of tones; A note name string extracting means for extracting, from the note name string storing means, a note name string at least partially included in the plurality of note names included in the performance data of the section divided by the means; Key detecting means for detecting a key for each section based on a note name string extracted by the means.

【0007】また、本発明の請求項4記載の演奏データ
分析装置は、音符のシーケンスを示す演奏データを入力
する演奏データ入力手段と、前記演奏データ入力手段に
よって入力された演奏データを、1つのコードが占める
区間に対応した可変長の所定の区間に分割する区間分割
手段と、前記区間分割手段によって分割された区間の
奏データの中から刺繍音パターンを検出する刺繍音検出
手段と、前記検出された刺繍音パターンのうちの一部の
音を和声音に決定するとともに、刺繍音パターンのうち
の残りの部分を刺繍音として非和声音に決定し、前記決
定された和声音と所定の音程関係にある演奏データを和
声音に決定する和声音決定手段と、を備えることを特徴
とする。
According to a fourth aspect of the present invention, there is provided a performance data analyzer, wherein performance data input means for inputting performance data indicating a sequence of musical notes;
Therefore, one chord occupies the input performance data.
Section division to divide into predetermined sections of variable length corresponding to the section
Means, an embroidery sound detection means for detecting an embroidery sound pattern from the performance data of the section divided by the section division means, and a part of the detected embroidery sound pattern. The harmony sound is determined as a harmony sound, the remaining portion of the embroidery sound pattern is determined as a non-harmony sound as an embroidery sound, and the performance data having a predetermined pitch relationship with the determined harmony sound is determined as a harmony sound. Determining means.

【0008】また、本発明の請求項5記載の演奏データ
分析方法は、音符のシーケンスを示す演奏データを入力
し、前記入力された演奏データを、1つのコードが占め
る区間に対応した可変長の所定の区間に分割し、前記分
割された各区間の演奏データの調を検出すること、を特
徴とする。
Further, performance data analysis method according to claim 5 of the present invention, receives performance data showing the sequence of sound marks, the performance data is the input, one code occupies
Divided into predetermined sections of variable length corresponding to the section
Detecting the key of the performance data of each divided section .

【0009】また、本発明の請求項6記載の演奏データ
分析方法は、複数の各調において、各調を特徴づける主
要音名からなる音名列を音名列記憶手段に記憶してお
き、音符のシーケンスを示す演奏データを入力し、前記
入力された演奏データを、1つのコードが占める区間に
対応した可変長の所定の区間に分割し、前記区間分割手
段によって分割された区間の演奏データに含まれる複数
の音名に、少なくとも一部が含まれる音名列を、前記音
名列記憶手段から抽出し、前記入力された演奏データに
含まれる和声音を抽出し、前記抽出された音名列と和声
音とに基づいて調を検出すること、を特徴とする。
In a performance data analysis method according to a sixth aspect of the present invention, for each of a plurality of tones, a note name string comprising a main note name characterizing each key is stored in a note name string storage means, Performance data indicating a sequence of notes is input, and the input performance data is stored in a section occupied by one chord.
Divide into corresponding variable-length predetermined sections, and
A plurality of note names included in the performance data of the section divided by the stage are extracted from the note name string storage means, and a harmony tone included in the input performance data is extracted. Is extracted, and a key is detected based on the extracted tone name sequence and harmony.

【0010】また、本発明の請求項7記載の演奏データ
分析方法は、複数の各調において、各調を特徴づける主
要音名からなる音名列を音名列記憶手段に記憶してお
き、音符のシーケンスを示す演奏データを入力し、前記
入力された演奏データを、1つのコードが占める区間に
対応した可変長の所定の区間に分割し、前記分割した区
間の演奏データに含まれる複数の音名に、少なくとも一
部が含まれる音名列を、前記音名列記憶手段から抽出
し、前記抽出された音名列に基づいて、前記区間毎の調
を検出すること、を特徴とする。
In the performance data analysis method according to a seventh aspect of the present invention, for each of a plurality of tones, a note name string comprising a main note name characterizing each key is stored in a note name string storage means. Performance data indicating a sequence of notes is input, and the input performance data is stored in a section occupied by one chord.
Dividing into corresponding sections of variable length and extracting a note name string at least partially included in the plurality of note names included in the performance data of the divided section from the note name string storage means, A key is detected for each section based on the extracted note name sequence.

【0011】また、本発明の請求項8記載の演奏データ
分析方法は、音符のシーケンスを示す演奏データを入力
し、前記入力された演奏データを、1つのコードが占め
る区間に対応した可変長の所定の区間に分割し、前記分
割された区間の演奏データの中から刺繍音パターンを検
出し、前記検出された刺繍音パターンのうちの一部の音
を和声音に決定するとともに、刺繍音パターンのうちの
残りの部分を刺繍音として非和声音に決定し、前記決定
された和声音と所定の音程関係にある演奏データを和声
音に決定すること、を特徴とする。また、本発明の請求
項9の演奏データ分析装置は、音符のシーケンスを示す
演奏データを入力する演奏データ入力手段と、前記演奏
データ入力手段によって入力された演奏データを所定の
区間に分割する区間分割手段と、前記区間分割手段によ
って分割された各区間の演奏データについて小節線、音
符数、音名数、発音タイミングパターンによって和声音
を抽出する和声音抽出手段と、を備えることを特徴とす
る。また、本発明の請求項10の演奏データ分析装置
は、音符のシーケンスを示す演奏データを入力する演奏
データ入力手段と、前記演奏データ入力手段によって入
力された演奏データを音符数、音符長、発音タイミング
パターンによって区間に分割する区間分割手段と、前記
区間分割手段によって分割された各区間の演奏データの
調および/またはコードを検出する検出手段と、を備え
ることを特徴とする。また、本発明の請求項11の演奏
データ分析装置は、音符のシーケンスを示す演奏データ
を入力する演奏データ入力手段と、前記演奏データ入力
手段によって入力された演奏データを、1つのコードが
占める区間に対応した可変長の所定の区間に分割する区
間分割手段と、前記区間分割手段によって分割された各
区間の演奏データの和声音を抽出する和声音抽出手段
と、を備えることを特徴とする。 また、本発明の請求項
12の演奏データ分析装置は、音符のシーケンスを示す
演奏データを入力する演奏データ入力手段と、前記演奏
データ入力手段によって入力された演奏データを、1つ
のコードが占める区間に対応した可変長の所定の区間に
分割する区間分割手段と、前記区間分割手段によって分
割された各区間の 演奏データのコードを検出するコード
検出手段と、を備えることを特徴とする。 また、本発明
の請求項13の演奏データ分析方法は、音符のシーケン
スを示す演奏データを入力し、前記入力された演奏デー
タを所定の区間に分割し、前記分割された各区間の演奏
データについて小節線、音符数、音名数、発音タイミン
グパターンによって和声音を抽出すること、を特徴とす
る。 また、本発明の請求項14の演奏データ分析方法
は、音符のシーケンスを示す演奏データを入力し、前記
入力された演奏データを音符数、音符長、発音タイミン
グパターンによって区間に分割し、前記分割された各区
間の演奏データの調および/またはコードを検出するこ
と、を特徴とする。
In the performance data analysis method according to the present invention, performance data indicating a sequence of musical notes is input, and one code occupies the input performance data.
Divided into predetermined sections of variable length corresponding to the section
An embroidery sound pattern is detected from the performance data of the divided section, a part of the detected embroidery sound pattern is determined to be a harmonious sound, and the remaining part of the embroidery sound pattern is embroidered. The sound is determined to be a non-harmonic sound, and the performance data having a predetermined pitch relationship with the determined harmonic sound is determined to be a harmonic sound. According to a ninth aspect of the present invention, there is provided a performance data analyzer, wherein performance data input means for inputting performance data indicating a sequence of notes, and a section for dividing the performance data input by the performance data input means into predetermined sections. dividing means, that and a harmony sound extracting means for extracting information on the performance data of each section divided small nodal lines, the number of notes, the note name number, the sound generation timing pattern thus the harmonic tones by the section dividing means It is characterized by. Further, performance data analyzer according to claim 10 of the present invention, the performance data input means for inputting performance data indicating a sequence of notes, sound marks number performance data input by the performance data input means, note length, characterized in that it comprises a section dividing means for dividing the sound generation timing <br/> pattern to result section, and a detecting means for detecting a tone and / or code of the performance data of each section divided by the section dividing means And The performance according to claim 11 of the present invention.
The data analyzer is a performance data showing a sequence of notes.
Data input means for inputting the performance data;
The performance data input by the means
Section divided into predetermined sections of variable length corresponding to the occupied section
An interval dividing unit, and each of the segments divided by the section dividing unit.
Harmonic sound extraction means for extracting the harmonic sound of the performance data of the section
And the following. Claims of the present invention
Twelve performance data analyzers show a sequence of notes
Performance data input means for inputting performance data;
One piece of performance data input by the data input means
Variable length corresponding to the section occupied by
Segment dividing means for dividing, and dividing by the section dividing means.
Code to detect the code of the performance data of each divided section
And a detecting means. In addition, the present invention
The performance data analysis method according to claim 13, wherein the musical note sequence
Input the performance data indicating the performance data.
Is divided into predetermined sections, and the performance of each of the divided sections is performed.
Bar lines, number of notes, note names, pronunciation timing
Extracting harmony sounds by using
You. A performance data analysis method according to claim 14 of the present invention.
Inputs performance data indicating a sequence of notes,
The input performance data is converted into the number of notes, note length,
Divided into sections according to the
To detect key and / or chord of performance data
And

【0012】演奏データ中の和声音と音名列とに基づい
て前記演奏データにおける調を検出する。和声音と音名
列はメロディの調の特徴を現しているので、音名列抽出
手段によって抽出された音名列から調を検出したり、和
声音音名列抽出手段によって抽出された和声音と音名列
から調を検出すると、正確な調を検出することができ
る。また、請求項9において、演奏データの任意の区間
における音符数は音符密度に相当し、この音符密度が低
い場合はその区間に非和声音が含まれる程度が低いので
その区間の音符が和声音である可能性が高く、音符密度
が高い場合はその区間に非和声音が含まれる程度が高い
のでその区間の音符が和声音である可能性が低い。ま
た、音名数が少ない場合はその区間に非和声音が含まれ
る程度が低いのでその区間の音符が和声音である可能性
が高く、音名数が多い場合はその区間に非和声音が含ま
れる程度が高いのでその区間の音符が和声音である可能
性が低くなる。さらに、音符長が長い場合は和声音であ
る可能性が高く、音符長が短い場合は非和声音である可
能性が高い。したがって、小節線、音符数、音名数、発
音タイミングパターンによって和声音を抽出すると、和
声音を抽出し易くなる。なお、請求項9の演奏データ分
析装置の好ましいものは、前記演奏データを分析して該
演奏データを前記検出区間に分割し、該分割された検出
区間について前記和声音を抽出するようにしたことを特
徴とするものである。さらに、請求項9の演奏データ分
析装置の好ましいものは、前記分割されたそれぞれの検
出区間についてメロディの先頭から順に和声音を抽出
し、和声音が抽出できなかった検出区間についてメロデ
ィの終端から和声音を抽出するようにしたことを特徴と
するものである。また、請求項10の演奏データ分析装
置は、入力された演奏データを音符数、音符長、発音
タイミングパターンのによって区間に分割して、この分
割された区間について調および/またはコードを検出す
る。音符数、音符長、発音タイミングパターンはメロデ
ィの調やコードが変化するタイミングの特徴を現してい
るので正確な調やコードを検出することができる。な
お、請求項10の演奏データ分析装置の好ましいもの
は、前記分割されたそれぞれの区間について候補調を抽
出し、該抽出した候補調に基づいて前記演奏データにお
ける調を検出するようにしたことを特徴とするものであ
る。さらに、請求項10の演奏データ分析装置の好まし
いものは、前記分割されたそれぞれの区間について候補
コードを抽出し、該抽出した候補コードに基づいて前記
演奏データにおけるコードを検出するようにしたことを
特徴とするものである。
A key in the performance data is detected based on a harmony tone and a note name string in the performance data. Since the harmony and the tone sequence show the characteristics of the key of the melody, the tones can be detected from the tone sequence extracted by the tone sequence extracting means, or the harmony tones extracted by the harmony tone sequence extracting means can be detected. When the key is detected from the tone sequence, an accurate key can be detected. According to the ninth aspect, the number of notes in an arbitrary section of the performance data corresponds to the note density, and when the note density is low, the note in that section includes a non-harmonic tone, so that the note in the section is a harmony note. If the note density is high, the degree of non-harmonic sound included in the section is high, and the note in the section is unlikely to be a harmonic sound. Also, when the number of pitch names is small, the degree of non-harmonic sounds included in the section is low, so there is a high possibility that the notes in that section are harmonic sounds. Since the degree of inclusion is high, the likelihood of the note in that section being a harmony is reduced. Furthermore, if the note length is long, it is likely to be a harmonious sound, and if the note length is short, it is likely to be a non-harmonic sound. Thus, the bar, the number of notes, note name number, extracting the sound generation timing pattern thus the harmonic tone becomes easy to extract the harmonic sound. It is preferable that the performance data analyzing apparatus according to the ninth aspect analyzes the performance data, divides the performance data into the detection sections, and extracts the harmony sound from the divided detection sections. It is characterized by the following. Furthermore, a preferred embodiment of the performance data analyzer according to claim 9 is to extract a harmony sound from the beginning of the melody in each of the divided detection sections in order, and to add a harmony from the end of the melody to the detection section where the harmony sound could not be extracted. It is characterized in that voice sounds are extracted. Further, performance data analyzer according to claim 10, the input performance data, the number of notes, note length is divided into sections according to the tone generation timing patterns, detect tone and / or code for the divided sections I do. Since the number of notes, the note length, and the sounding timing pattern show the characteristics of the timing at which the key and chord of the melody change, accurate keys and chords can be detected. It is preferable that the performance data analysis device of the tenth aspect extracts a candidate key for each of the divided sections and detects a key in the performance data based on the extracted candidate key. It is a feature. Further, a preferred embodiment of the performance data analyzer according to the present invention is such that a candidate code is extracted for each of the divided sections, and a code in the performance data is detected based on the extracted candidate code. It is a feature.

【0013】[0013]

【発明の実施の形態】図2は本発明実施例の演奏データ
分析装置を適用した電子楽器のブロック図であり、CP
U1はプログラムメモリ2に格納されている制御プログ
ラムに基づいてワーキングメモリ3のワーキングエリア
を使用して電子楽器全体の制御を行い、パネルスイッチ
等の操作子4の操作と表示装置5への表示処理により、
通常モードまたはメロディ分析モードで動作する。
FIG. 2 is a block diagram of an electronic musical instrument to which a performance data analyzer according to an embodiment of the present invention is applied.
U1 controls the entire electronic musical instrument using the working area of the working memory 3 based on the control program stored in the program memory 2, operates the controls 4 such as panel switches, and performs display processing on the display device 5. By
Operate in normal mode or melody analysis mode.

【0014】通常モードでは、CPU1は鍵盤6のキー
イベントに応じたキーコード、タッ−データ、キーオン
信号(またはキーオフ信号)等を取り込み、キーコード
とノートオンまたはノートオフを音源7に出力して鍵盤
演奏に対応する発音処理と消音処理を行う。なお、音源
7は上記CPU1から入力されるデータに応じた楽音信
号を発生し、サウンドシステム8は楽音信号のD/A変
換および増幅等を行って楽音を発生する。
In the normal mode, the CPU 1 fetches a key code, touch data, a key-on signal (or a key-off signal) or the like corresponding to a key event of the keyboard 6 and outputs the key code and a note-on or note-off to the sound source 7. Performs sound generation processing and mute processing corresponding to keyboard performance. The sound source 7 generates a tone signal corresponding to the data input from the CPU 1, and the sound system 8 generates a tone by performing D / A conversion and amplification of the tone signal.

【0015】メロディ分析モードでは、先ず、CPU1
は鍵盤6のキーイベントに応じたキーコード、タッチデ
ータ、キーオン信号(またはキーオフ信号)等を取り込
み、これらのデータに基づいて演奏データを生成する。
なお、この演奏データを生成する処理は、鍵盤6による
通常の演奏操作に応じて演奏データを生成するリアルタ
イムレコードのモードまたは鍵盤6と操作子4の操作に
よって1音づつ入力して演奏データを生成するステップ
レコードのモードで行う。
In the melody analysis mode, first, the CPU 1
Captures key codes, touch data, key-on signals (or key-off signals), etc., corresponding to key events on the keyboard 6, and generates performance data based on these data.
The processing for generating the performance data is performed by inputting one note at a time by the mode of a real-time record for generating the performance data in accordance with the normal performance operation on the keyboard 6 or operating the keyboard 6 and the operating element 4 to generate the performance data. In the step record mode.

【0016】また、この演奏データから入力演奏時の音
長のバラツキ等を修正(クオンタイズ)して音符の符長
を示す音長データを生成し、音高データ、音長データ、
休符データ、休符長データからなるメロディデータを構
成してデータメモリ9(RAM)に記憶する。そして、
メロディデータを記憶すると、後述詳細に説明するよう
に、CPU1はこの記憶したメロディデータの分析を行
い、メロディデータを分割した区間分析データ、検出調
のデータおよび検出コード(和音)のデータを分析デー
タとしてデータメモリ9に記憶する。
Further, from the performance data, a variation or the like of the pitch during the input performance is corrected (quantized) to generate pitch data indicating the note length of the note, and the pitch data, the pitch data,
Melody data composed of rest data and rest length data is formed and stored in the data memory 9 (RAM). And
When the melody data is stored, the CPU 1 analyzes the stored melody data, as described later in detail, and analyzes the section analysis data obtained by dividing the melody data, the data of the detection tone, and the data of the detection chord (chord) into the analysis data. And stored in the data memory 9.

【0017】図3はメロディデータと分析データ中の区
間分析データの各フォーマットを示す図である。同図
(A) に示したメロディデータは、ピッチに対応する音高
データと音符の符長に対応する音長データで一つの音符
を表し、休符データと休符の符長に対応する休符長デー
タで一つの休符を表している。音高データはキーコード
であり、休符データは予め決められた特定の識別コード
である。また、音長データおよび休符長データは、所定
のクロック(例えば4分音符を24個に分割したクロッ
ク)を単位としてクロック数で時間長を表したデータで
ある。
FIG. 3 is a diagram showing each format of the melody data and the section analysis data in the analysis data. Same figure
The melody data shown in (A) represents one note with pitch data corresponding to pitch and pitch data corresponding to note length, and rest data and rest length corresponding to rest note length. Data represents one rest. The pitch data is a key code, and the rest data is a predetermined specific identification code. The note length data and rest length data are data representing the time length by the number of clocks in units of a predetermined clock (for example, a clock obtained by dividing a quarter note into 24).

【0018】なお、実際の演奏では、同じ音符でもスラ
ーで弾く場合とスタッカートで弾く場合のように実際の
発音時間が異なることがあるが、前述のように、上記音
長データと休符長データは実際の発音時間に関係なく符
長分のクロック数となるように加工されている。したが
って、メロディデータの先頭から音長データと休符長デ
ータを加算することにより小節線の位置が判明し、これ
によりメロディデータを小節単位やフレーズ単位でも検
索することができる。
In an actual performance, the actual sounding time may be different between the case where the same note is played with a slur and the case where the same note is played with a staccato, as described above. Is processed so that the number of clocks is equal to the note length regardless of the actual sounding time. Therefore, the position of the bar line is determined by adding the note length data and the rest length data from the beginning of the melody data, and thereby the melody data can be searched in a measure unit or a phrase unit.

【0019】図3(B) に示した区間分析データは、後述
説明するようにメロディデータをメロディの分析結果に
応じてコードリズム区間に分割したものであり、図3
(A) のメロディデータに各コードリズム区間の境界を示
す分割データを挿入したフォーマットで記録される。な
お、メロディデータと区間分析データの最後にはエンド
データが記録される。
The section analysis data shown in FIG. 3B is obtained by dividing the melody data into chord rhythm sections according to the result of the melody analysis, as will be described later.
It is recorded in the format in which the divided data indicating the boundary of each chord rhythm section is inserted into the melody data of (A). Note that end data is recorded at the end of the melody data and the section analysis data.

【0020】図1は実施例におけるメロディ分析の流れ
を説明する概念図である。まず、データメモリ9のメロ
ディデータをフレーズ(#1〜#N)に分割し、この各フレ
ーズをさらに細かくコードリズム(#11 〜#1M ,〜,#N
1 〜#NL )に分割する。ここで、フレーズとは、メロデ
ィデータを区切りのよい所定長を分割したときの単位区
間であり、この分割の仕方は後述する。コードリズムは
1小節あるいは2拍のようにフレーズより小さな区間で
あり、コード進行において1つのコードが占める単位区
間を意味する。この分割の仕方は後述説明するようにメ
ロディの特徴に応じて決定する。
FIG. 1 is a conceptual diagram for explaining the flow of melody analysis in the embodiment. First, the melody data in the data memory 9 is divided into phrases (# 1 to #N), and each of these phrases is further finely divided into chord rhythms (# 11 to # 1M,.
1 to #NL). Here, the phrase is a unit section when the melody data is divided into a predetermined length with a good separation, and the manner of division will be described later. A chord rhythm is a section smaller than a phrase, such as one bar or two beats, and means a unit section occupied by one chord in the chord progression. The manner of division is determined according to the characteristics of the melody as described later.

【0021】次に、この各コードリズム区間から和声音
を抽出し、この和声音に基づいて、調検出用の検出区間
とするためにコードリズムを必要に応じて結合し、区間
を変更したコードリズム(#11 〜#1M',〜,#N1 〜#N
L')とする。この再構成したコードリズムの各検出区間
毎に和声音と音名列を抽出してこの和声音と音名列に基
づいて候補となる調を抽出する。
Next, a chord sound is extracted from each chord rhythm section, and based on the chord sound, chord rhythms are combined as necessary to form a detection section for key detection, and the chord having a changed section is obtained. Rhythm (# 11 to # 1M ', ~, # N1 to #N
L '). A harmony tone and a tone name string are extracted for each detection section of the reconstructed chord rhythm, and a candidate key is extracted based on the harmony tone and the tone name string.

【0022】この実施例では、例えば次表1に示したよ
うに、各調の音階に対応してその調を特徴つける主要な
音名からなる音名列をI ,II,III ,IVのような度数で
音階音列テーブルとしてプログラムメモリ2に記憶して
おり、和声音と音名列とから候補調を抽出するとき、こ
の音階音列テーブルの中から検出区間の音名列に含まれ
る音階音列を検索し、この音階音列と検出区間の和声音
とを含む音階の調を候補調とする。そして、この候補調
から検出区間の調を確定する。
In this embodiment, for example, as shown in Table 1 below, note name strings composed of main note names characterizing the key corresponding to the scale of each key are represented by I, II, III, and IV. When the candidate tones are extracted from the harmony tone and the note name string in the program memory 2, the scales included in the note name string of the detection section are extracted from the harmony note and the note name string. A note string is searched, and a key of a note including this note string and a harmony in a detection section is set as a candidate key. Then, the key of the detection section is determined from the candidate keys.

【0023】[0023]

【表1】 [Table 1]

【0024】なお、この実施例では、調検出用に分割し
た検出区間とその和声音から検出区間のコード(和音)
を決定するようにしており、コードシーケンスDB(デ
ータベース)10(図2)に記憶されたコード進行デー
タに基づいてコードを検出する。このとき、決定するコ
ードがフレーズの先頭や最後のコードとして適している
か検査しつつ、コード進行データとのマッチングにより
コードを決定する。
In this embodiment, the chord (chord) of the detection section divided from the detection section divided for key detection and the harmony of the detection section is used.
And a code is detected based on the chord progression data stored in the code sequence DB (database) 10 (FIG. 2). At this time, the chord to be determined is determined by matching with the chord progression data while checking whether the determined chord is suitable as the first or last chord of the phrase.

【0025】図5はコード進行データの一例を示す図で
ある。コード進行データは代表的なコード進行を示すも
のであり、4つのコードで構成される4コード進行、3
つのコードで構成される3コード進行、2つのコードで
構成される2コード進行がある。また、これらの4コー
ド進行、3コード進行、2コード進行は、それぞれ長調
と短調に対応するコード進行データに分類されている。
さらに、4コード進行については1小節に1つのコード
が対応するような同期型とコードと小節が対応しない非
同期型とに分類されている。これらのコード進行の各コ
ードはImaj のように根音(I) とタイプ(maj) の組み合
わせで示されている。ここで、根音は調の主音を基準と
した度数で表わされているので、コード進行データは1
2音名(C,C♯,D,〜,B)の主音の調に対してそ
れぞれ共通に対応可能となっている。
FIG. 5 is a diagram showing an example of the chord progress data. The chord progression data indicates a typical chord progression.
There are three chord progressions composed of one chord and two chord progressions composed of two chords. The 4-chord progression, 3-chord progression, and 2-chord progression are classified into chord progression data corresponding to major and minor, respectively.
Further, the four chord progression is classified into a synchronous type in which one chord corresponds to one bar and an asynchronous type in which a chord does not correspond to a bar. Each chord of these chord progressions is indicated by a combination of root (I) and type (maj), such as Imaj. Here, the root note is represented by a frequency based on the key of the key, so that the chord progression data is 1
The tones of two tones (C, C♯, D,..., B) can be commonly handled.

【0026】また、同類のコード進行データ同志には優
先準位が付けられている。例えば、図5に示した4コー
ド進行(同期)DBの長調用では、「Imaj→VImin →II
m7→V7」(ハ長調の場合、Cmaj →Amin →Dm7→G7
)が最も優先準位が高く、「IIIm7 →IVmin →IIm7→V
7」(ハ長調の場合、Em7→Fmin →Dm7→G7 )、「I
maj→IIm7→V7→Imaj」(ハ長調の場合、Cmaj →Dm7
→G7 →Cmaj )、の順に優先準位が低くなっている。
Also, similar code progress data are assigned a priority level. For example, in the case of the four-code progression (synchronous) DB shown in FIG.
m7 → V7 ”(in C major, Cmaj → Amin → Dm7 → G7
) Has the highest priority level, and “IIIm7 → IVmin → IIm7 → V
7 (in C major, Em7 → Fmin → Dm7 → G7), “I
maj → IIm7 → V7 → Imaj ”(in C major, Cmaj → Dm7
→ G7 → Cmaj), the priority level is lower.

【0027】図6は実施例におけるメロディ分析モード
での制御プログラムのメロディ分析処理のフローチャー
ト、図7〜図17はサブルーチンのフローチャートであ
り、各フローチャートに基づいて実施例の動作を説明す
る。
FIG. 6 is a flowchart of the melody analysis process of the control program in the melody analysis mode in the embodiment, and FIGS. 7 to 17 are flowcharts of subroutines. The operation of the embodiment will be described based on each flowchart.

【0028】操作子4の操作によりメロディ分析モード
が指定されると、図6のメロディ分析処理が開始され、
ステップS1で図7のデータ入力処理を行ってメロディ
データを記憶し、コードリズム入力があればそれも記憶
し、なければコードリズム自動設定モードにする。ステ
ップS1−1ではコードリズム自動設定モードか否かを
判定し、コードリズム自動設定モードならステップS2
に、そうでなければステップS4に進む。ステップS2
では図8の区間仮分割処理を行ってメロディデータをフ
レーズに分割する。次に、ステップS3で図9のコード
リズム区間抽出処理を行って各フレーズをコードリズム
区間に分割し、ステップS4で図10の和声音抽出処理
を行うとともにステップS5で図13の和声音再抽出処
理を行って和声音を抽出し、ステップS6で図14のコ
ードリズム結合処理を行って調検出用の検出区間として
コードリズムの区間を決定する。そして、ステップS7
で図15の調検出処理を行って調を確定する。また、ス
テップS8で図17のコード検出処理を行ってコードを
決定する。
When the melody analysis mode is designated by operating the operation element 4, the melody analysis process shown in FIG. 6 is started.
In step S1, the melody data is stored by performing the data input process of FIG. 7, and if there is a chord rhythm input, the melody data is also stored. In step S1-1, it is determined whether or not the mode is the chord rhythm automatic setting mode.
Otherwise, the process proceeds to step S4. Step S2
Then, the melody data is divided into phrases by performing the section provisional division processing shown in FIG. Next, in step S3, the chord rhythm section extraction processing of FIG. 9 is performed to divide each phrase into chord rhythm sections. In step S4, the harmony sound extraction processing of FIG. 10 is performed, and in step S5, the harmony sound re-extraction of FIG. Processing is performed to extract a harmony, and in step S6, the chord rhythm combining process of FIG. 14 is performed to determine a chord rhythm section as a detection section for key detection. Then, step S7
The key is determined by performing the key detection processing of FIG. In step S8, a code is determined by performing the code detection process shown in FIG.

【0029】図7のデータ入力処理では、ステップS1
1で、鍵盤6からの演奏操作に基づいてメロディ入力を
行い、メロディデータをデータメモリ9に記憶する。次
に、ステップS12で、操作子4により4分の4拍子や
4分の3拍子など拍子のデータのマニュアル入力処理を
行い、ステップS13で、操作子4によるコードリズム
区間のマニュアル指定入力が無い場合には自動設定モー
ドにしてコードリズムを自動的に設定する。マニュアル
指定入力が有れば指定されたコードリズム区間の区切り
を記憶する。
In the data input process shown in FIG.
In step 1, a melody is input based on a performance operation from the keyboard 6, and the melody data is stored in the data memory 9. Next, in step S12, manual input processing of time signature data such as quarter time signature and three quarter time signature is performed by the operator 4, and in step S13, there is no manual designation input of the chord rhythm section by the operator 4. In such a case, the chord rhythm is automatically set in the automatic setting mode. If there is a manual designation input, the break of the designated chord rhythm section is stored.

【0030】図8の区間仮分割処理では、ステップS2
1で、2分音符以上の音符(2分音符の符長以上に符長
が長い音符)が小節線の直前にあったときその小節線の
位置をフレーズの分割位置とする。フレーズが4小節以
上になったときは、前から4小節毎の小節線の位置をフ
レーズの分割位置として、メロディデータをフレーズに
再分割していく。なお、このとき図3(B) の場合と同様
にメロディデータにコードリズムとは異なるフレーズの
分割データを挿入することにより分割位置を記憶する。
In the section temporary division processing of FIG.
In step 1, when a note equal to or longer than a half note (a note having a note length longer than the note length of a half note) is located immediately before a measure line, the position of the measure line is determined as a phrase division position. When the phrase has four or more measures, the melody data is re-divided into phrases with the position of the bar line every four measures from the beginning as the phrase division position. At this time, as in the case of FIG. 3B, the division position is stored by inserting the division data of the phrase different from the chord rhythm into the melody data.

【0031】ここで、後述説明する図9のコードリズム
抽出処理において上記の記憶した各フレーズをメロディ
パターンに応じて1小節または2拍毎のコードリズム区
間にさらに仮分割するが、このときメロディパターンの
検査条件をフレーズ中の音符密度に応じて切り換えるよ
うにする。このために各フレーズに対応するフラグDV
(FN)(FNはフレーズ番号)を用い、次の処理のよ
うに、フレーズの音符密度が低いときフラグDV(F
N)を“1”とし、音符密度が高いときフラグDV(F
N)を“2”として記憶しておく。
Here, in the chord rhythm extraction process of FIG. 9 described later, each of the stored phrases is further provisionally divided into chord rhythm sections of one bar or two beats according to the melody pattern. Are switched according to the note density in the phrase. For this purpose, a flag DV corresponding to each phrase is used.
(FN) (FN is a phrase number) and the flag DV (FN) is used when the note density of the phrase is low as in the following processing.
N) is set to “1” and the flag DV (F
N) is stored as “2”.

【0032】先ず、ステップS22で現在設定されてい
る拍子が4分の3拍子であるか否かを判定し、4分の3
拍子であればステップS23で全てのフレーズに対応す
る全てのフラグDV(all)を“1”にセットして元
のルーチンに復帰し、4分の3拍子でなければ、ステッ
プS24で読出しポインタ(データメモリ9における読
出しポインタ。以下同じ。)をセットして最初のフレー
ズに注目してステップS25に進む。
First, at step S22, it is determined whether or not the currently set time signature is 3/4 time.
If it is time signature, in step S23 all flags DV (all) corresponding to all phrases are set to "1" and the routine returns to the original routine. If it is not 3/4 time signature, the read pointer (step S24) A read pointer in the data memory 9 (the same applies hereinafter) is set, and attention is paid to the first phrase, and the flow advances to step S25.

【0033】ステップS25では、フレーズ中の音符の
うち8分音符以上の符長の合計とフレーズの長さの比が
0.6以上であるか否かを判定して、0.6以上であれ
ばフラグDV(FN)を“1”にセットし、それ以外の
ときはフラグDV(FN)を“2”にセットする。そし
て、ステップS26で現在最後のフレーズであるか否か
を判定し、最後のフレーズでなければステップS27で
読出しポインタを次のフレーズに更新してステップS2
5に進み、最後のフレーズであればそのまま元のルーチ
ンに復帰する。
In step S25, it is determined whether or not the ratio of the total of note lengths of eighth notes or more of the notes in the phrase to the length of the phrase is 0.6 or more. For example, the flag DV (FN) is set to "1", otherwise the flag DV (FN) is set to "2". Then, in step S26, it is determined whether or not the current phrase is the last phrase. If not, the read pointer is updated to the next phrase in step S27, and step S2 is executed.
The process proceeds to step 5, and if it is the last phrase, the process returns to the original routine.

【0034】以上の処理により、4分の3拍子の場合と
4分の3拍子以外で8分音符以上の符長の合計とフレー
ズの長さの比が0.6以上の場合は、フレーズ中に符長
の長い音符が多い(音符密度が低い)とみなし、4分の
3拍子以外で8分音符以上の符長の合計とフレーズの長
さの比が0.6に満たない場合は、符長の短い音符が多
い(音符密度が高い)と見なし、図9のコードリズム抽
出処理でこの音符密度に応じて検査条件を切り換えてメ
ロディパターンを検査する。
According to the above processing, when the ratio of the total length of the eighth note or more to the length of the phrase is 0.6 or more in the case of 3/4 time and other than 3/4 time, the phrase If the ratio of the total note length of 8th note or more to the phrase length is less than 0.6 except for 3/4 time, it is considered that there are many notes with long note lengths (note density is low). It is considered that there are many notes with short note lengths (note density is high), and the melody pattern is inspected by switching the inspection conditions according to the note density in the chord rhythm extraction processing of FIG.

【0035】図9において、先ず、ステップS31で読
出しポインタをセットして最初の小節に注目し、ステッ
プS32でDV(FN)=1であるか否かを判定する。
DV(FN)=1であれば(音符密度が低い)、ステッ
プS33でその現在の小節に含まれる音符が2音以下で
あるか否かを判定し、2音以下であればステップS37
で分割データを挿入して1小節のコードリズム区間に分
割する。ステップS33で2音以下でなければ、ステッ
プS34でトリルパターンを検索してトリルパターンが
1小節全体にわたっているかを検査する。なお、トリル
パターンとは、音高aと音高b(aとbの音程差は1音
以内)の音符がabab…と2回以上繰り返すパターン
である。
In FIG. 9, first, in step S31, a read pointer is set, and attention is paid to the first bar. In step S32, it is determined whether DV (FN) = 1.
If DV (FN) = 1 (note density is low), it is determined in step S33 whether or not the number of notes included in the current bar is two or less. If it is two or less, step S37 is performed.
To divide the data into one bar chord rhythm section. If it is not two or less in step S33, a trill pattern is searched in step S34 to check whether the trill pattern extends over one bar. Note that the trill pattern is a pattern in which a musical note of a pitch a and a pitch b (the pitch difference between a and b is within one tone) is repeated twice or more as abab.

【0036】ステップS35の判定で、1小節のトリル
パターンであればステップS37で1小節のコードリズ
ム区間に分割し、1小節のトリルパターンでなければス
テップS36に進む。ステップS36では、1小節の全
ての音符が4分音符であるか否かを判定し、全ての音符
が4分音符であればステップS37で1小節のコードリ
ズム区間に分割し、そうでなければステップS305で
小節内に分割データを挿入して2拍ずつのコードリズム
区間に分割し、ステップS306に進む。
If it is determined in step S35 that the pattern is a one-measure trill pattern, it is divided into one-measure chord rhythm sections in step S37. If not, the procedure proceeds to step S36. In step S36, it is determined whether or not all the notes in one measure are quarter notes. If all the notes are quarter notes, it is divided in step S37 into one measure chord rhythm section. In step S305, the divided data is inserted into the bar to divide the chord rhythm into two chord rhythm sections, and the process proceeds to step S306.

【0037】一方、ステップS32でDV(FN)=1
でなければ(音符密度が高い)、ステップS38で図4
に示した特殊パターンを現在の小節内で検索し、ステッ
プS39でこの特殊パターンがあったか否かを判定す
る。この特殊パターンは1拍目から2拍目または3拍目
から4拍目にかけて現れた2拍長の発音タイミングのパ
ターンであり、2拍3拍間にまたがるようなパターンは
無視する。この特殊パターンは使用頻度が高い2拍で1
まとまりになっている。また、最初に入力したままのメ
ロディデータの原メロディパターンおよび連続する同音
高の音を1つの音としてまとめた結果生じる発音タイミ
ングパターンの場合のいずれもチェックする。図4(A)
の場合は順次進行で同方向進行のみのという条件付きで
ある。なお、順次進行とは隣り合う音符の音高差が2度
(全音または半音)で上または下に進行することであ
り、同方向とは音高が上がるか下がるかの1方向の場合
である。また、図4(B) ,(c) の場合は無条件である。
On the other hand, in step S32, DV (FN) = 1
If not (note density is high), at step S38 FIG.
Is searched in the current bar, and it is determined in step S39 whether or not this special pattern is present. This special pattern is a two-beat sounding timing pattern that appears from the first beat to the second beat or from the third beat to the fourth beat, and a pattern that extends over two beats and three beats is ignored. This special pattern is 1
They are united. In addition, it checks both the original melody pattern of the melody data that has been input first and the tone generation timing pattern resulting from combining continuous sounds of the same pitch as one sound. Fig. 4 (A)
In the case of (1), there is a condition that the vehicle travels sequentially and travels in the same direction. Note that the progressive progress means that the pitch difference between adjacent notes progresses upward or downward by two degrees (whole tone or semitone), and the same direction is a case where the pitch rises or falls. . 4 (B) and 4 (c) are unconditional.

【0038】この特殊パターンがあれば2拍長でひとま
とまりのパターンであるのでステップS305で2拍ず
つのコードリズム区間に分割し、特殊パターンが無けれ
ばまだ2拍ずつに決めないでステップS301で4拍長
のトリルパターンを検索する。そして、ステップS30
2の判定で4拍長のトリルパターンがあればステップS
37で1小節のコードリズム区間に分割し、4拍長のト
リルパターンが無ければステップS303で全て同音名
であるか否かを判定する。全て同音名であればステップ
S37で1小節のコードリズム区間に分割し、少なくと
も1つが異音名であれば、ステップS304で8分音符
以下の符長の音符が有るか否かを判定する。そして、8
分音符以下の音符が無ければステップS37で1小節の
コードリズム区間に分割し、8分音符以下の音符があれ
ばステップS305で2拍づつのコードリズム区間に分
割する。
If this special pattern is present, it is a unitary pattern having a length of two beats, so that it is divided into chord rhythm sections of two beats at step S305, and if there is no special pattern, it is not decided at every two beats yet but at step S301. Search for a 4-beat long trill pattern. Then, step S30
If there is a 4-beat long trill pattern in the determination of step 2, step S
At 37, it is divided into one bar chord rhythm section, and if there is no 4-beat long trill pattern, it is determined at step S303 whether or not all of them have the same tone name. If all the notes have the same note name, it is divided into one bar chord rhythm section in step S37, and if at least one is an odd note name, it is determined in step S304 whether or not there is a note having a note length equal to or shorter than an eighth note. And 8
If there is no note below the 1/8 note, it is divided into 1 bar chord rhythm sections in step S37, and if there is a note below 8th note, it is divided into 2 beat chord rhythm sections in step S305.

【0039】以上一つの小節についての処理が終了する
と、ステップS306で現在注目している小節が最後の
小節であるか否かを判定し、最後の小節でなければステ
ップS307で読出しポインタを次の小節に更新してス
テップS32に進み、最後の小節であればそのまま元の
ルーチンに復帰する。
When the processing for one bar is completed, it is determined in step S306 whether or not the current bar of interest is the last bar. If the bar is not the last bar, the read pointer is set to the next bar in step S307. After updating to a bar, the process proceeds to step S32, and if it is the last bar, the process returns to the original routine.

【0040】以上の処理により、トリルパターンが1小
節にわたる場合、1小節の全ての音符が4分音符の場
合、1小節に4拍長のトリルパターンがある場合、1小
節で全て同音名であった場合など、1小節内で調の変化
(あるいはコードの変化)が無さそうな場合に1小節の
コードリズム区間に分割される。また、2拍長でひとま
とまりの特殊パターンがある場合や長いトリルパターン
がなかったり音名が分散している場合など、1小節内で
調の変化がありそうな場合に2拍長のコードリズム区間
に分割される。このように、メロディパターンや符長に
応じて各フレーズが1小節または2拍づつのコードリズ
ム区間に仮分割される。なお、上記のコードリズム区間
への分割の際、原メロディパターンの音符が2つのコー
ドリズム区間にまたがるときは、その音符(前のコード
リズム区間の最後の音符)の符長を分割位置で切断し、
後ろのコードリズム区間の最初の音符の前に切断した残
りの符長を示すタイ情報(図3(B) 参照)を付加する。
According to the above processing, if the trill pattern extends over one bar, if all the notes in one bar are quarter notes, if there is a trill pattern with a length of 4 beats in one bar, then all bars have the same note name. If there is no change in key (or chord change) within one bar, for example, the barcode is divided into one bar chord rhythm section. Also, when there is a possibility that the key changes within one bar, such as when there is a set of special patterns with two beat lengths, when there is no long trill pattern, or when note names are dispersed, a two beat length chord rhythm is used. It is divided into sections. In this way, each phrase is provisionally divided into chord rhythm sections of one measure or two beats according to the melody pattern and note length. In the above-mentioned division into chord rhythm sections, if a note of the original melody pattern extends over two chord rhythm sections, the note length of the note (the last note of the previous chord rhythm section) is cut at the division position. And
Tie information (see FIG. 3B) indicating the remaining note length cut before the first note in the chord rhythm section is added.

【0041】次に、図10の和声音抽出処理(および図
11の和声音抽出ルール処理と図12の先取音処理)に
よりメロディの先頭からコードリズム区間の和声音を抽
出し、和声音が抽出できなかったコードリズム区間につ
いては図13の和声音再抽出処理によりメロディの後ろ
から順に和声音を再抽出する。そこで、各コードリズム
区間に対応して和声音が検出されたか否かを示す検出フ
ラグを用い、和声音の未検出状態を検出フラグ“0”で
記憶し、和声音の検出済状態を検出フラグ“1”で記憶
する。
Next, the harmony sound of the chord rhythm section is extracted from the beginning of the melody by the harmony sound extraction processing of FIG. 10 (and the harmony sound extraction rule processing of FIG. 11 and the prefetch sound processing of FIG. 12). For the chord rhythm section where the chord rhythm cannot be obtained, the harmony is re-extracted sequentially from the back of the melody by the harmony re-extraction processing of FIG. Therefore, a detection flag indicating whether or not a chord sound has been detected corresponding to each chord rhythm section is used, a non-detection state of the chord sound is stored as a detection flag “0”, and a detection state of the chord sound is detected. Store as "1".

【0042】図10の和声音抽出処理では、ステップS
41で読出しポインタをセットして最初のコードリズム
区間に注目し、ステップS42で注目コードリズム区間
の検出フラグを予め“0”(未検出)にセットしてステ
ップS43に進む。ステップS43では、注目コードリ
ズム区間の先頭が休符であり、かつ直前のコードリズム
区間に音符があり、かつその音符が和声音でないとき、
この休符を直前の音符に吸収させる。すなわち、休符デ
ータを削除し、この休符の符長を直前の音符の符長に加
えて音長データとする。
In the harmony sound extraction processing of FIG.
At 41, a read pointer is set to pay attention to the first chord rhythm section. At step S42, a detection flag of the target chord rhythm section is set to "0" (not detected) in advance, and the routine proceeds to step S43. In step S43, if the beginning of the chord rhythm section of interest is a rest, there is a note in the immediately preceding chord rhythm section, and the note is not a harmony,
This rest is absorbed by the immediately preceding note. That is, the rest data is deleted, and the note length of the rest is added to the note length of the immediately preceding note to make the note length data.

【0043】次に、ステップS44で、注目コードリズ
ム区間内で音高aと音高bの音符がabaの並びになっ
ているメロディすなわち刺繍音を含むパターンの検出を
行い(ab間,ba間に休符があってもこの休符は無視
する。)、ステップS45で刺繍音パターンが検出され
たか否かを判定する。刺繍音パターンが検出されていた
ら、ステップS46で音高aの音符を和声音、音高bの
音符を刺繍音とし、ステップS47で、注目コードリズ
ム区間の音符で音高aを1度としたときの3度音が有る
か、無ければ6度音が有るか、無ければ増4度音が有る
かを優先準位で検索し、この優先準位で検出された音を
和声音とする。そして、ステップS48でその他の音符
をその他非和声音とし、ステップS49で注目コードリ
ズム区間の検出フラグを“1”とし、ステップS402
に進む。
Next, in step S44, a melody in which the notes of pitch a and pitch b are arranged in aba in the focused chord rhythm section, that is, a pattern including an embroidery sound is detected (between ab and between ba). Even if there is a rest, this rest is ignored.) In step S45, it is determined whether or not the embroidery sound pattern is detected. If an embroidery sound pattern has been detected, the note at pitch a is set as a harmony tone at step S46, and the note at pitch b is set as embroidery tone at step S47. If there is a third sound, if there is no third sound, there is a sixth sound, and if there is no fourth sound, a search is made with a priority level, and the sound detected at this priority level is set as a harmony sound. Then, in step S48, other notes are set as other non-harmonic sounds, and in step S49, the detection flag of the focused chord rhythm section is set to "1", and step S402 is performed.
Proceed to.

【0044】このように刺繍音パターンに着目して和声
音を検出する一方、ステップS45で刺繍音パターンが
検出されていなければ、ステップS401で図11の和
声音抽出ルール処理を行って刺繍音パターン以外のルー
ルで和声音を抽出し、ステップS402に進む。そし
て、一つのコードリズム区間についての処理が終了する
と、ステップS402で現在の注目コードリズム区間が
最後のコードリズム区間であるか否かを判定し、最後の
コードリズム区間でなければステップS403で読出し
ポインタを次のコードリズム区間に更新してステップS
42に進み、最後のコードリズム区間であればそのまま
元のルーチンに復帰する。
As described above, while the harmony sound is detected by focusing on the embroidery sound pattern, if the embroidery sound pattern is not detected in step S45, the harmony sound extraction rule process shown in FIG. A harmony is extracted according to a rule other than the above, and the process proceeds to step S402. When the process for one chord rhythm section is completed, it is determined in step S402 whether or not the current focused chord rhythm section is the last chord rhythm section. If not, the readout is performed in step S403. The pointer is updated to the next chord rhythm section and step S
Proceeding to step 42, if it is the last chord rhythm section, the program returns to the original routine.

【0045】図11の和声音抽出ルール処理では、ステ
ップS410で注目コードリズム区間が休符のみである
か否かを判定し、休符のみであればそのまま元のルーチ
ンに復帰し、休符のみでなければステップS411で音
名が1種類であるか否かを判定する。音名が1種類であ
れば、ステップS412で全ての音符を和声音としてス
テップS418に進む。
In the harmony sound extraction rule process of FIG. 11, it is determined in step S410 whether or not the chord rhythm section of interest is only a rest, and if there is only a rest, the process returns to the original routine. If not, it is determined in step S411 whether or not the pitch name is one type. If there is only one kind of note name, all notes are set as harmony in step S412, and the process proceeds to step S418.

【0046】一方、ステップS411で音名が1種類で
なければ、ステップS413で図12の先取音処理を行
う。ここで、図12の先取音処理は、例えばコードが変
化するときに後のコードの構成音を前のコードの最終拍
に先行させたアンティシペーションと称する音符に対す
る処理である。先ず、ステップS420で「次のコード
リズム区間の先頭は音符でかつ4分音符以上の符長であ
る」という条件を満足するか否かを判定し、条件を満足
しなければそのまま元のルーチンに復帰し、条件を満足
すればステップS421で現在の注目コードリズム区間
の最後が音符ならばその音符を次のコードリズム区間の
最初の音符として元のルーチンに復帰する。これにより
アンティシペーションの音符が同じコードリズム区間内
に配置される。
On the other hand, if the sound name is not one in step S411, the prefetch sound processing of FIG. 12 is performed in step S413. Here, the prefetching sound processing in FIG. 12 is processing for a note called anticipation in which, for example, when the chord changes, the constituent sounds of the subsequent chord precede the last beat of the previous chord. First, in step S420, it is determined whether or not a condition that "the beginning of the next chord rhythm section is a note and has a note length of a quarter note or more" is satisfied. If the condition is not satisfied, the process returns to the original routine. When the condition is satisfied, if the last note of the current focused chord rhythm section is a note, the note is returned to the original routine as the first note of the next chord rhythm section in step S421. Thereby, the notes of the anticipation are arranged in the same chord rhythm section.

【0047】この先取音処理が終了すると図11におい
て、ステップS414で注目コードリズム区間の音符数
が3音であるか否かを判定し、3音あれば、ステップS
415で3音の内で最大の音高差をもつ2音を和声音と
してステップS418に進む。3音でなければ、ステッ
プS416でコードリズム区間の長さの1/2以上の符
長の音符(以下、音符iという。)があるか否かを判定
する。音符iが無ければそのまま元のルーチンに復帰
し、音符iがあれば、ステップS417で音符iを和声
音とするとともに、音符iをコード構成音とするコード
の他のコード構成音があればそれらを和声音としてステ
ップS418に進む。そして、ステップS418でその
他の音符をその他非和声音とし、ステップS419で注
目コードリズム区間の検出フラグを“1”として元のル
ーチンに復帰する。
When this prefetching sound processing is completed, in FIG. 11, it is determined in step S414 whether or not the number of notes in the chord rhythm section of interest is three.
At 415, the two sounds having the largest pitch difference among the three sounds are set as the harmony sounds, and the process proceeds to step S418. If it is not three notes, it is determined in step S416 whether or not there is a note having a note length equal to or more than half the length of the chord rhythm section (hereinafter, note i). If there is no note i, the routine returns to the original routine. If there is a note i, in step S417, the note i is set as a harmony, and if there is another chord constituent sound having the note i as a chord constituent sound, these are set. And proceeds to step S418. Then, in step S418, other notes are set as other non-harmonic sounds, and in step S419, the detection flag of the noticed chord rhythm section is set to "1", and the process returns to the original routine.

【0048】以上のように図10の和声音抽出処理、図
11の和声音抽出ルール処理および図12の先取音処理
により、メロディの先頭からコードリズム区間の和声音
が抽出され、和声音が抽出されたコードリズム区間は検
出フラグが“1”となり、和声音が抽出されなかったコ
ードリズム区間は検出フラグが“0”となる。そこで、
図13の和声音再抽出処理によりメロディの最後から検
査して検出フラグが“0”のコードリズム区間について
和声音を再抽出する。
As described above, by the harmony extraction processing of FIG. 10, the harmony extraction rule processing of FIG. 11, and the prefetching processing of FIG. 12, the harmony of the chord rhythm section is extracted from the beginning of the melody, and the harmony is extracted. The detected flag becomes "1" in the chord rhythm section where the chord rhythm sound has not been extracted, and the detection flag becomes "0" in the chord rhythm section where the chord tone has not been extracted. Therefore,
The melody is extracted from the end of the melody by the harmony re-extraction process of FIG. 13 and the harmony is re-extracted for the chord rhythm section where the detection flag is “0”.

【0049】先ず、ステップS51で読出しポインタを
セットして最後のコードリズム区間に注目し、ステップ
S52で注目コードリズム区間の検出フラグ=0である
か否かを判定する。検出フラグ=0でなければすでに和
声音が検出されているので、ステップS501に進み、
検出フラグ=0であれば和声音が検出されていないので
ステップS54以降で和声音を検出する。
First, in step S51, a read pointer is set and attention is paid to the last chord rhythm section. In step S52, it is determined whether or not the detection flag of the noticed chord rhythm section = 0. If the detection flag is not 0, a harmony has already been detected, so the process proceeds to step S501.
If the detection flag is 0, no harmony is detected, and the harmony is detected in step S54 and thereafter.

【0050】ステップS54では、注目コードリズム区
間が「2音で、かつ、後ろのコードリズム区間の先頭音
が和声音で、かつ、これら3音が同方向順次進行であ
る」という条件を満足するか否かを判定し、条件を満足
すればステップS55でその3音の先頭音を和声音と
し、ステップS59に進む。
In step S54, the condition that the chord rhythm section of interest satisfies the condition that "two tones, the first sound of the succeeding chord rhythm section is a harmony, and these three sounds proceed in the same direction sequentially". It is determined whether or not the condition is satisfied. If the condition is satisfied, the leading sound of the three sounds is set as a harmony in step S55, and the process proceeds to step S59.

【0051】一方、ステップS54で条件を満足しなけ
れば、ステップS56で、注目コードリズム区間が「2
音で、かつ、後ろのコードリズム区間の音が1音であ
る」という条件を満足するか否かを判定し、条件を満足
すればステップS57で2番目の音符を和声音としてス
テップS59に進み、条件を満足しなければ、ステップ
S58で、注目コードリズム区間の任意の2音の音高差
で3度が有るか、無ければ6度が有るか、無ければ増4
度が有るかを優先準位で調べ、その優先準位で検出され
た音高差をもつ2音を和声音とする。なお、これらの音
高差をもつ組のうち最優先準位の同じ度数の組が2つ以
上あるときは低音側を優先する。そして、ステップS5
9でその他の音符をその他非和声音とする。
On the other hand, if the condition is not satisfied in step S54, in step S56, the target chord rhythm section is set to "2".
And the following chord rhythm section is one sound ", and if the condition is satisfied, the flow advances to step S59 assuming that the second note is a harmony in step S57. If the condition is not satisfied, in step S58, the pitch difference between any two tones in the chord rhythm section of interest is 3 degrees, if it is not, it is 6 degrees, and if it is not, it is increased.
The priority level is used to determine whether or not there is a degree, and two tones having a pitch difference detected at the priority level are defined as harmony sounds. When there are two or more sets having the same frequency of the highest priority level among the sets having these pitch differences, the bass side is prioritized. Then, step S5
At 9, other notes are made other non-harmonic sounds.

【0052】以上のように一つのコードリズム区間につ
いての和声音の検出が終了すると、ステップS501で
現在注目しているコードリズム区間が最初のコードリズ
ム区間であるか否かを判定し、最初のコードリズム区間
でなければステップS53で読出しポインタを直前のコ
ードリズム区間に更新してステップS52に進み、最初
のコードリズム区間であればそのまま元のルーチンに復
帰する。
As described above, when the detection of the harmony for one chord rhythm section is completed, it is determined in step S501 whether or not the currently focused chord rhythm section is the first chord rhythm section. If it is not a chord rhythm section, the read pointer is updated to the immediately preceding chord rhythm section in step S53, and the process proceeds to step S52. If it is the first chord rhythm section, the process returns to the original routine.

【0053】以上の処理により、フレーズを1小節また
は2拍づつに仮分割したコードリズム区間の和声音が抽
出される。次に、このコードリズム区間への仮分割が調
検出にとって必要以上に分割されている可能性があるの
で、図14のコードリズム結合処理により、必要以上に
仮分割されたコードリズム区間をそれに含まれる和声音
に基づいて結合する処理を行う。
By the above processing, a chord sound in a chord rhythm section obtained by temporarily dividing a phrase into one bar or two beats is extracted. Next, since the temporary division into the chord rhythm section may be unnecessarily divided for key detection, the chord rhythm section shown in FIG. The combining process is performed based on the harmony to be performed.

【0054】図14のコードリズム結合処理では、ステ
ップS61で読出しポインタをセットして最初の小節に
注目し、ステップS62で注目小節が2拍毎のコードリ
ズム区間に分割されているか否かを判定する。2拍毎の
コードリズム区間に分割されていなければ、ステップS
64で注目小節に対してその1小節を検出区間として設
定し、ステップS66に進む。
In the chord rhythm combining process shown in FIG. 14, a read pointer is set in step S61 to focus on the first measure, and in step S62, it is determined whether or not the measure of interest is divided into chord rhythm sections every two beats. I do. If it is not divided into chord rhythm sections for every two beats, step S
At step 64, one measure is set as the detection section for the measure of interest, and the flow advances to step S66.

【0055】一方、注目小節が2拍毎のコードリズム区
間に分割されていれば、ステップS63で「注目小節の
全ての和声音とマッチする構成音のコードが存在し、か
つ、設定されているテンポが4分音符>46(4分音符
を1拍としたとき1分間に46拍を超えるテンポ)であ
る」という条件を満足するか否かを判定する。条件を満
足すれば、ステップS64で注目小節に対してその1小
節を検出区間として設定し、条件を満足しなければ、ス
テップS65で注目小節に対して2拍毎を検出区間とし
て設定する。そして、以上一つの小節についての処理が
終了すると、ステップS66で注目小節が最後の小節で
あるか否かを判定し、最後の小節でなければステップS
67で読出しポインタを次の小節に更新してステップS
62に進み、最後の小節であればそのまま元のルーチン
に復帰する。
On the other hand, if the bar of interest is divided into chord rhythm sections for every two beats, then at step S63, "the chord of the constituent sound that matches all the harmony sounds of the bar of interest exists and has been set. It is determined whether or not the condition that the tempo is a quarter note> 46 (tempo exceeding 46 beats per minute when one quarter note is one beat) is satisfied. If the condition is satisfied, one bar is set as a detection section for the bar of interest in step S64. If the condition is not satisfied, every two beats is set as a detection section for the bar of interest in step S65. When the processing for one measure is completed, it is determined in step S66 whether or not the measure of interest is the last measure.
In step 67, the read pointer is updated to the next measure, and step S
Proceeding to step 62, if it is the last bar, the process returns to the original routine.

【0056】なお、以上のコードリズム結合処理におい
ては、小節が2拍毎のコードリズム区間に仮分割されて
いる場合に、その小節の全ての和声音とマッチする構成
音のコードが存在する場合で、さらに、テンポが比較的
速い場合は、その小節内で調が変化しない可能性が高い
とみなしており、この2拍毎のコードリズム区間を1小
節にまとめて検出区間とするようにしている。
In the above-mentioned chord rhythm combining process, when a bar is provisionally divided into chord rhythm sections every two beats, and there is a chord of a constituent sound that matches all the harmony tones in that bar. Further, when the tempo is relatively fast, it is considered that there is a high possibility that the key does not change in the bar, and the chord rhythm section for every two beats is combined into one bar to be a detection section. I have.

【0057】以上のようにメロディデータを1小節また
は2拍に分割して検出区間を決定すると図15の調検出
処理で調検出を行う。先ず、ステップS71で読出しポ
インタをセットして最初の検出区間に注目し、ステップ
S72で直前の検出区間の調が確定しているか否かを判
定する。直前の検出区間の調が確定していなければ(注
目検出区間が最初の検出区間であって直前の検出区間が
存在しない場合も含む)、ステップS76で図16の候
補調抽出処理を行って検出区間の候補調を抽出し、ステ
ップS77に進む。
As described above, when the melody data is divided into one bar or two beats and the detection section is determined, the key detection is performed by the key detection processing of FIG. First, in step S71, a read pointer is set and attention is paid to the first detection section, and in step S72, it is determined whether or not the key of the immediately preceding detection section is determined. If the key of the immediately preceding detection section is not determined (including the case where the attention detection section is the first detection section and the immediately preceding detection section does not exist), the candidate key extraction processing of FIG. A candidate tone for the section is extracted, and the process proceeds to step S77.

【0058】一方、ステップS72で直前の検出区間の
調が確定していれば、ステップS73で注目検出区間に
その確定している調に対する調外音(調の音階に無い
音)が有るか否かを判定し、調外音が有ればステップS
76に進み、調外音が無ければステップS74で注目検
出区間の調を直前の検出区間の調に確定し、ステップS
705に進む。
On the other hand, if the key of the immediately preceding detection section is determined in step S72, it is determined in step S73 whether there is an out-of-key sound (a sound not in the key scale) for the determined key in the target detection section. And if there is an out-of-control sound, step S
In step S74, if there is no out-of-range sound, the key of the target detection section is determined to be the key of the immediately preceding detection section.
Proceed to 705.

【0059】ここで、図16の候補調抽出処理を先に説
明する。先ず、ステップS81で注目検出区間の音符の
音名をピックアップしてソートし、ステップS82で、
前掲の表1の音階音列テーブルのうちソートした音名列
に3音名以上含まれる音階音列を検索し、ステップS8
3で、マッチした音階音列があればマッチした各音階音
列と注目検出区間の和声音とが含まれる音階の調を検索
し、検出された調(複数あれば複数の調)を注目検出区
間の候補調として記憶する。そして、ステップS84
で、記憶した候補調から、注目検出区間にその調の5度
音および短7度音がある短調を候補調を除き、元のルー
チンに復帰する。以上のように候補調を抽出すると、図
15のステップS77以降で所定の条件に合えば調を確
定する。
Here, the candidate tone extraction processing of FIG. 16 will be described first. First, in step S81, note names of notes in the target detection section are picked up and sorted, and in step S82,
In the scale note sequence table of Table 1 described above, a search is made for a scale note string that includes three or more note names in the sorted note name string, and step S8 is performed.
In step 3, if there is a matched scale note sequence, a search is made for a key of a scale including each matched scale note string and the harmony of the attention detection section, and the detected tones (a plurality of tones if there are a plurality of notes) are noticed. It is stored as a candidate tone of the section. Then, step S84
Then, the process returns to the original routine except for the candidate key that has the fifth and seventh minor tones in the target detection section from the stored candidate keys. When the candidate tones are extracted as described above, the keys are determined if the predetermined conditions are satisfied in step S77 and subsequent steps in FIG.

【0060】先ず、ステップS77で、条件(A) 「調が
確定されていない検出区間から注目検出区間までに調の
音階の1度音と7度音とがある長調(maj)の候補調」を
ピックアップし、ステップS78で、条件(B) 「調が確
定されていない検出区間から注目検出区間までに調の音
階の1度音と5度音と7度音とがある短調(minor) の候
補調をピックアップし、ステップS79で、条件(C)
「調が確定されていない検出区間から注目検出区間まで
に調の音階の1度音と6度音と7度音とがある短調(min
or) の候補調をピックアップする。
First, in step S77, condition (A) “candidate key of major key (maj) having first and seventh tones of the key scale from the detection section where the key is not determined to the detection section of interest”. In step S78, the condition (B) “the minor, fifth, and seventh tones of the key scales from the detection section where the key is not determined to the target detection section” A candidate tone is picked up, and in step S79, condition (C)
"From the detection section where the key is not determined to the detection section of interest, there is a minor (minor, 6th and 7th) of the key scale.
or) candidate tones.

【0061】次に、ステップS701で条件(A) 〜(C)
でピックアップされた候補調が有るか否かを判定し、候
補調が無ければステップS702で注目検出区間が最後
の検出区間であるか否かを判定する。最後の検出区間で
あれば、ステップS703で、調が確定されていない検
出区間から注目検出区間までを直前に決定された調に確
定して元のルーチンに復帰し、最後の検出区間でなけれ
ば調を確定しないでステップS75に進む。
Next, conditions (A) to (C) are set in step S701.
It is determined whether or not there is a candidate key picked up in step S702. If there is no candidate key, it is determined in step S702 whether or not the target detection section is the last detection section. If it is the last detection section, in step S703, the range from the detection section in which the key is not determined to the target detection section is determined to be the key determined immediately before, and the process returns to the original routine. The process proceeds to step S75 without determining the key.

【0062】一方、条件(A) 〜(C) でピックアップされ
た候補調が有れば、ステップS704で、調が確定され
ていない検出区間から注目検出区間までに候補調として
最も多く挙げられた調を、この確定されていない検出区
間から注目検出区間までの調として確定して記憶し、ス
テップS705に進む。なお、最も多く挙げられた調が
複数有るときは前の検出区間(最後に確定された検出区
間)の調と同じ調、近親調優先という条件により決定す
る。また、前の調が確定されてないときは(A)(B) (C)
の優先準位でピックアップされた調に確定する。
On the other hand, if there is a candidate key picked up under the conditions (A) to (C), in step S704, the candidate key is most frequently selected from the detection section where the key is not determined to the target detection section. The key is determined and stored as a key from the undetermined detection section to the target detection section, and the process proceeds to step S705. When there are a plurality of keys that are listed most frequently, they are determined based on the condition that the same key as that of the previous detection section (the detection section that was finally determined) and the close relative key have priority. If the previous key has not been determined, (A) (B) (C)
To the key picked up at the priority level of.

【0063】以上の一つの検出区間についての処理が終
了すると、ステップS705で注目検出区間が最後の検
出区間であるか否かを判定し、最後の検出区間でなけれ
ばステップS75で読出しポインタを次の検出区間に更
新してステップS72に進み、最後の検出区間であれば
元のルーチンに復帰する。
When the processing for one detection section is completed, it is determined in step S705 whether or not the target detection section is the last detection section. If not, the read pointer is set to the next in step S75. And the process proceeds to step S72. If it is the last detection period, the process returns to the original routine.

【0064】以上のように、メロディが和声音とメロデ
ィパターンに応じて2拍または1小節の検出区間に分割
され、和声音と音名列とにより検出区間毎に候補調が抽
出され、この候補調に基づき検出区間毎に調が確定され
る。なお、図15のステップS77〜S79、ステップ
S703およびステップS704において、「調が確定
されていない検出区間から注目検出区間まで」とは、直
前の検出区間まで調が確定している場合は注目検出区間
だけを指しており、少なくとも調の確定が可能な場合
は、検出区間毎に調を確定していることになる。
As described above, the melody is divided into two beats or one bar detection section according to the harmony and the melody pattern, and the candidate tone is extracted for each detection section by the harmony and the note name string. The key is determined for each detection section based on the key. In steps S77 to S79, S703, and S704 in FIG. 15, “from a detection section in which the key is not determined to the target detection section” means that when the key is determined until the immediately preceding detection section, the target detection is performed. If it indicates only the section and at least the key can be determined, the key is determined for each detection section.

【0065】図17のコード検出処理では、ステップS
91で検出区間が1小節単位で4つ以上連続している部
分がある場合(全て1小節単位の場合も含む)の処理を
行う。すなわち、コード進行データ中の4コード進行
(同期)の4つのコードと4つの検出区間を対応させ、
それぞれの検出区間の和声音が対応するコードの構成音
に含まれ、かつ、検出区間の1つがフレーズの最初また
は最後の場合はフレーズの最初または最後に適したコー
ドであるとき、この4つの検出区間のコードをその4コ
ード進行(同期)の4つのコードにそれぞれ決定する。
このとき、長調用のDBと短調用のDBのどちらを用い
るかは、前述のようにして求めた調(メジャまたはマイ
ナ)によって決定され、調の主音を考慮することによ
り、度数で表された和音を実和音に変換することができ
る。なお、このような4コード進行(同期)が複数ある
場合は優先準位に従って決定する。また、フレーズの最
初または最後に適したコード群は予めプログラムメモリ
2に記憶されており、それらと比較することにより適す
るか否か判別する。ここで、ある4つの検出区間におい
て、4コード進行(同期)の4つのコードと4つの検出
区間の対応がとれたとすると、次はそれに続く新たな4
つの検出区間について同様の処理を行う。一方、4つの
コードと4つの検出区間との対応がとれなかった場合、
4つの検出区間を後方へ1つすらし、前回の後ろ3区間
+新たな1区間の計4区間で同様の処理を行う。このよ
うな処理を繰り返し実行することによって、全検出区間
について4コード進行(同期)のコードが当てはまる場
合を確定していく。
In the code detection process shown in FIG.
In step 91, processing is performed in the case where there is a portion where four or more detection sections are continuous in units of one bar (including the case where all are in units of one bar). That is, four codes of four code progression (synchronization) in the code progression data correspond to four detection sections,
When the harmony of each detection section is included in the constituent sound of the corresponding chord, and when one of the detection sections is the beginning or end of a phrase, it is a chord suitable for the beginning or end of the phrase. The code of the section is determined to each of the four codes of the four code progress (synchronous).
At this time, whether to use the DB for the major key or the DB for the minor key is determined by the key (major or minor) obtained as described above, and is expressed in degrees by considering the tonic of the key. Chords can be converted to real chords. If there are a plurality of such 4-chord progressions (synchronization), they are determined according to the priority level. Also, a chord group suitable for the beginning or end of the phrase is stored in the program memory 2 in advance, and it is determined whether or not the phrase is suitable by comparing them. Here, assuming that four codes progressing (synchronous) in four certain detection sections correspond to the four detection sections, the next four new detection sections correspond to the new four sections.
Similar processing is performed for one detection section. On the other hand, when the correspondence between the four codes and the four detection sections cannot be obtained,
The same processing is performed in the four detection sections even after the four detection sections are shifted backward by one, and the last three sections + the new one section. By repeatedly executing such a process, the case where the four-code progress (synchronous) code is applied to all the detection sections is determined.

【0066】次に、ステップS92で前述S91でコー
ドを決定することができなかった検出区間の処理を行
う。すなわち、コードが決定されていない検出区間(ス
テップS91で処理の対象とならなかった検出区間)に
対して、コード進行データ中の4コード進行(非同期)
の4つのコードと4つの検出区間を対応させ、それぞれ
の検出区間の和声音が対応するコードの構成音に含ま
れ、かつ、検出区間の1つがフレーズの最初または最後
の場合はフレーズの最初または最後に適したコードであ
るとき、この4つの検出区間のコードをその4コード進
行(非同期)の4つのコードにそれぞれ決定する。な
お、このような4コード進行(非同期)が複数ある場合
は優先準位に従って決定する。ここで、非同期とは4つ
のコード進行が必ずしも4つの検出区間と対応するとは
限らないことを意味する。すなわち、1つのコードが複
数の検出区間に渡ってもよいということである。例え
ば、C→Am →Dm7→G7 という非同期コード進行があ
ったとする。このコード進行を、8つの検出区間に対応
させ、C→C→C→C→Am →Am →Dm7→G7 のよう
に割り振ってもよい。したがって、前述のステップS9
1において決定できなかった連続する4以上の検出区間
に対して非同期コード進行を対応させる場合、まず最初
の4区間について該区間に対応するコード進行があるか
否かを判断し、あればそのコード進行に決定し、無けれ
ば区間を1つ増やして5区間とする。そしてこの5区間
を任意に4区間にグループ化し、グループ化された4区
間についてコード進行との一致を判断する。以降、一致
するコード進行がないと判断される毎に区間を1つずつ
増やして同様の処理を行う。そして、連続する区間の最
後まで達しても一致するコード進行が見つからなかった
場合は、区間を後方へ1つずらし、同様の処理を行う。
これを連続する区間の最後4区間に達するまで繰り返し
行う。それでも一致するコード進行が見つからなかった
ときは次のステップS93へと進む。
Next, in step S92, processing is performed for a detection section in which the code could not be determined in step S91. That is, for a detection section in which a code has not been determined (a detection section which has not been processed in step S91), four chord progressions (asynchronous) in the chord progression data are performed.
Are associated with the four detection intervals, and the harmony of each detection interval is included in the constituent sound of the corresponding code, and if one of the detection intervals is the beginning or end of a phrase, the beginning or end of the phrase When the code is the last suitable code, the codes in the four detection sections are respectively determined as the four codes in the four code progression (asynchronous). When there are a plurality of such 4-chord progressions (asynchronous), they are determined according to the priority level. Here, asynchronous means that four code progressions do not always correspond to four detection intervals. That is, one code may extend over a plurality of detection sections. For example, assume that there is an asynchronous code progression of C → Am → Dm7 → G7. This chord progression may correspond to eight detection sections and may be assigned as C → C → C → C → Am → Am → Dm7 → G7. Therefore, the aforementioned step S9
When associating asynchronous code progression with four or more consecutive detection sections that could not be determined in step 1, it is first determined whether or not there is a code progression corresponding to the first four sections. It is decided to proceed, and if not, the section is increased by one to five sections. Then, these five sections are arbitrarily grouped into four sections, and it is determined whether or not the four sections thus grouped match the chord progression. Thereafter, every time it is determined that there is no matching chord progression, the same processing is performed by increasing the section by one. If no matching chord progression is found even after reaching the end of the continuous section, the section is shifted backward by one and the same processing is performed.
This is repeated until the last four sections of the continuous section are reached. If no matching chord progression is found, the process proceeds to the next step S93.

【0067】次に、ステップS93で、コードが決定さ
れなかった部分で検出区間が少なくとも3つ連続してい
る部分の処理を行う。すなわち、コードが決定されてい
ない検出区間に対して、コード進行データ中の3コード
進行の3つのコードと3つの検出区間を対応させ、それ
ぞれの検出区間の和声音が対応するコードの構成音に含
まれるとき、この3つの検出区間のコードをその3コー
ド進行の3つのコードにそれぞれ決定する。なお、この
ような3コード進行が複数ある場合は優先準位に従って
決定する。3コード進行の場合は、4コード進行(同
期)と同様に、検出区間との対応がとれなかった場合に
は、検出区間を後方へ1つずらしながら、処理を繰り返
す。
Next, in step S93, processing is performed on a part where at least three detection sections are continuous in a part where the code has not been determined. That is, three chords in three chord progressions in the chord progression data and three detection sections are made to correspond to the detection section in which the chord is not determined, and the harmony of each detection section corresponds to the constituent sound of the corresponding chord. When included, the codes of these three detection sections are determined to be three codes of three code progresses, respectively. When there are a plurality of such three chord progressions, they are determined according to the priority level. In the case of three chord progression, similarly to the case of four chord progression (synchronization), if the correspondence with the detection section cannot be obtained, the processing is repeated while shifting the detection section by one backward.

【0068】次に、ステップS94で、コードが決定さ
れなかった部分で検出区間が少なくとも2つ連続してい
る部分の処理を行う。すなわち、コードが決定されてい
ない検出区間に対して、コード進行データ中の2コード
進行の2つのコードと2つの検出区間を対応させ、それ
ぞれの検出区間の和声音が対応するコードの構成音に含
まれるとき、この2つの検出区間のコードをその2コー
ド進行の2つのコードにそれぞれ決定する。なお、この
ような2コード進行が複数ある場合は優先準位に従って
決定する。この2コード進行の場合も4コード進行(同
期)の場合と同様の処理手順である。
Next, in step S94, processing is performed on a portion where at least two detection sections are continuous in the portion where the code has not been determined. That is, two chords of two chord progressions in the chord progression data and two detection sections are made to correspond to the detection section in which the chord is not determined, and the harmony of each detection section corresponds to the constituent sound of the corresponding chord. When included, the codes of these two detection sections are determined as the two codes of the two-code progress. When there are a plurality of such two chord progressions, they are determined according to the priority level. The processing procedure for the two chord progression is the same as that for the four chord progression (synchronization).

【0069】次に、ステップS95で4コード進行、3
コード進行および2コード進行でコードが決定されなか
った部分の処理を行う。すなわち、コードが決定されて
いない各検出区間に対して、それぞれの検出区間の和声
音が対応するコードの構成音に含まれるコードのうち、
優先準位が最も高いコードに決定する。この処理によ
り、コード未決定区間はなくなり、全ての区間のコード
決定が完了する。
Next, at step S95, 4 chord progression, 3 chord progression
The processing of the chord not determined in the chord progression and the chord progression is performed. That is, for each detection section for which a chord has not been determined, the harmony of each detection section includes,
The code with the highest priority level is determined. By this processing, there is no code undecided section, and the code decision for all sections is completed.

【0070】なお、上記のコード決定の際には、例えば
次表2に示したようなメロディと競合するコードは除く
ようにする。同表は根音が“C”の場合を示しているが
他の根音の場合でもメロディと競合するコードとは同表
と同じ音程関係にある。
In the above-described code determination, for example, codes competing with the melody as shown in the following Table 2 are excluded. The table shows the case where the root is "C", but the other roots have the same pitch relationship with the chord competing with the melody as in the table.

【0071】[0071]

【表2】 [Table 2]

【0072】この実施例では、フレーズの最初または最
後に適したコードであるかを検査しているが、曲の最初
または最後に適したコードであるかを検査するようにし
てもよい。また、コード進行データはリズム種類、曲
風、テンポ、拍子などにより異なるデータベースとして
もっていてもよい。
In this embodiment, the chord suitable for the beginning or end of the phrase is checked. However, the chord suitable for the beginning or end of the song may be checked. Further, the chord progression data may be a different database depending on the rhythm type, song style, tempo, time signature, and the like.

【0073】以上のように、メロディデータの和声音と
音名列とを抽出し、この和声音と音名列とを含む音階か
ら調を検出するので、メロディに忠実な調検出を行うこ
とができる。また、メロディデータを和声音とメロディ
パターンに応じてフレーズより短い2拍または1小節の
検出区間に分割し、少なくとも検出可能な検出区間につ
いては検出区間毎に調を検出するので、正確な調検出を
行うことができる。
As described above, the harmony tone and the tone sequence of the melody data are extracted, and the tone is detected from the scale containing the harmony tone and the tone sequence, so that the tone detection faithful to the melody can be performed. it can. In addition, the melody data is divided into two beats or one bar detection section shorter than the phrase according to the harmony and melody pattern, and at least the detectable detection section detects the key for each detection section, so that accurate key detection is performed. It can be performed.

【0074】なお、実施例では、コードリズム区間を2
拍または1小節に分割するようにしているが、この分割
の長さをテンポに応じて切り換えるようにしてもよい。
In the embodiment, the chord rhythm section is set to 2
Although it is divided into beats or one bar, the length of this division may be switched according to the tempo.

【0075】また、実施例では、メロディデータを区間
仮分割処理でフレーズに分割し、コードリズム区間抽出
処理で1小節または2拍の検出区間に分割するようにし
ているが、予め決められた区間(1小節単位、1拍単位
等)に分割するようにしてもよい。
Further, in the embodiment, the melody data is divided into phrases by the provisional section division processing and is divided into detection sections of one bar or two beats by the chord rhythm section extraction processing. (Each bar, one beat, etc.) may be used.

【0076】さらに、実施例では、鍵盤から演奏データ
を入力するようにしているが、演奏データあるいはメロ
ディデータを例えばMIDIデータにより外部から供給
するようにしてもよい。このとき、MIDIや各種ネッ
トワークなどの通信インタフェース、FDやCD−RO
Mなどの記憶媒体からメロディデータを供給することが
できる。また、本願実施例では制御プログラムはプログ
ラムメモリに格納されているものとしているが、外部記
憶媒体にプログラムを格納しておき、必要に応じてCP
Uを有する装置にロードさせて用いるようにしてもよ
い。
Further, in the embodiment, the performance data is inputted from the keyboard, but the performance data or the melody data may be supplied from the outside by, for example, MIDI data. At this time, communication interfaces such as MIDI and various networks, FD and CD-RO
The melody data can be supplied from a storage medium such as M. In the embodiment of the present invention, the control program is stored in the program memory. However, the program is stored in an external storage medium, and the
U may be loaded on a device having U and used.

【0077】[0077]

【発明の効果】以上説明したように、本発明の請求項1
の演奏データ分析装置または請求項5の演奏データ分析
方法によれば、入力された演奏データを、1つのコード
が占める区間に対応した可変長の所定の区間に分割し、
分割された各区間の演奏データの調を検出するようにし
たので、調検出時において、分析単位を1つのコードが
占める、可変長の区間とすることで、1つのコードが占
める長さが変わるような曲(ほとんどの曲は1つのコー
ドが占める長さが変わる)であっても、正確な調を検出
することができる。 また、本発明の請求項2の演奏デー
タ分析装置または請求項6の演奏データ分析方法によれ
ば、複数の各調において、各調を特徴づける主要音名か
らなる音名列を音名列記憶手段に記憶しておき、入力さ
れた演奏データを、1つのコードが占める区間に対応し
た可変長の所定の区間に分割し、分割された区間の演奏
データに含まれる複数の音名に、少なくとも一部が含ま
れる音名列を、音名列記憶手段から抽出し、演奏データ
に含まれる和声音を抽出し、抽出された音名列と抽出さ
れた和声音とに基づいて調を検出するようにしたので、
調検出時において、分析単位を1つのコードが占める、
可変長の区間とすることで、1つのコードが占める長さ
が変わるような曲であっても、さらに正確な調を検出す
ることができる。 また、本発明の請求項3の演奏データ
分析装置または請求項7の演奏データ分析方法によれ
ば、複数の各調において、各調を特徴づける主要音名か
らなる音名列を音名列記憶手段に記憶しておき、入力さ
れた演奏データを、1つのコードが占める区間に対応し
た可変長の所定の区間に分割し、分割した区間の演奏デ
ータに含まれる複数の音名に、少なくとも一部が含まれ
る音名列を、前記音名列記憶手段から抽出し、抽出され
た音名列に基づいて、前記区間毎の調を検出するように
したので、調検出時において、分析単位を1つのコード
が占める、可変長の区間とすることで、1つのコードが
占める長さが変わるような曲であっても、さらに正確な
調を検出することができる。 また、本発明の請求項4の
演奏データ分析装置または請求項8の演奏データ分 析方
法によれば、入力された演奏データを、1つのコードが
占める区間に対応した可変長の所定の区間に分割し、分
割された区間の演奏データの中から刺繍音パターンを検
出し、検出された刺繍音パターンのうちの一部の音を和
声音に決定するとともに、刺繍音パターンのうちの残り
の部分を刺繍音として非和声音に決定し、前記決定され
た和声音と所定の音程関係にある演奏データを和声音に
決定するようにしたので、刺繍音パターンの検出時にお
いて、分析単位を1つのコードが占める、可変長の区間
とすることで、1つのコードが占める長さが変わるよう
な曲であっても、正確に刺繍音パターンを検出すること
ができ、さらに、非和声音と和声音を正確に決定するこ
とができる。また、本発明の請求項9の演奏データ分析
装置または請求項13の演奏データ分析方法によれば、
入力された演奏データを所定の区間に分割し、この分割
された各区間の演奏データについて小節線、音符数、音
名数、発音タイミングパターンによって和声音を抽出す
るようにしたので、和声音を抽出し易く簡単なルールで
ありながらメロディに忠実に和声音を抽出することがで
きる。また、本発明の請求項10の演奏データ分析装置
または請求項14の演奏データ分析方法によれば、入力
された演奏データを、音符数、音符長、発音タイミング
パターンによって区間に分割し、該分割された区間につ
いて前記演奏データの調および/またはコードを検出す
るようにしたので、演奏データのメロディ情報から正確
な調検出やコード検出を行うことができる。また、本発
明の請求項11の演奏データ分析装置によれば、演奏デ
ータを、1つのコードが占める区間に対応した可変長の
所定の区間に分割して、分割された各区間の演奏データ
の和声音を抽出するようにしたので、和声音の抽出時に
おいて、分析単位を1つのコードが占める、可変長の区
間とすることで、1つのコードが占める長さが変わるよ
うな曲であっても、正確に和声音を抽出することができ
る。 また、本発明の請求項12の演奏データ分析装置に
よれば、演奏データを、1つのコードが占める区間に対
応した可変長の所定の区間に分割して、分割された各区
間の演奏データのコードを検出するようにしたので、コ
ード検出時において、分析単位を1つのコードが占め
る、可変長の区間とすることで、1つのコード が占める
長さが変わるような曲であっても、さらに正確なコード
を検出することができる。
As described above, according to the first aspect of the present invention,
6. A performance data analyzer according to claim 5 or a performance data analyzer according to claim 5.
According to the method, the input performance data is converted into one chord.
Is divided into predetermined sections of variable length corresponding to the section occupied by
Detect the key of the performance data of each divided section
Therefore, at the time of key detection, one code
By occupying a variable length section, one code occupies
Songs that vary in length (most songs have one
Even if the length occupied by the key changes)
can do. The performance data according to claim 2 of the present invention.
And a performance data analysis method according to claim 6.
For example, in a plurality of tones, the key name that characterizes each key
Is stored in the note name string storage means.
Performance data corresponding to the section occupied by one chord
Divided into predetermined sections of variable length, and the performance of the divided sections
Multiple note names included in data at least partially included
The note name string to be extracted from the note name string storage
Extract the harmony contained in the
Since the key is detected based on the extracted harmony,
When a key is detected, one code occupies an analysis unit.
The length occupied by one code by using a variable length section
Even if the song changes, the more accurate key is detected.
Can be The performance data according to claim 3 of the present invention.
An analysis device or a performance data analysis method according to claim 7.
For example, in a plurality of tones, the key name that characterizes each key
Is stored in the note name string storage means.
Performance data corresponding to the section occupied by one chord
Divided into predetermined sections of variable length, and
Data contains at least some of the pitch names
Extracted from the note name string storage means,
To detect the key of each section based on the note name string
Therefore, at the time of key detection, the analysis unit is one code
Occupies a variable length section, so that one code
Even for songs that occupy varying lengths, more accurate
The key can be detected. Further, according to claim 4 of the present invention.
Playing performance data analyzer or claim 8 Data content 析方
According to the method, the input performance data is converted into one chord.
It is divided into predetermined sections of variable length corresponding to the
The embroidery sound pattern is detected from the performance data of the divided section.
Out, and sum up some of the detected embroidery sound patterns.
Determined to be the voice sound and the rest of the embroidery sound pattern
Is determined as a non-harmonic sound as an embroidery sound,
Performance data that has a predetermined pitch relationship with the
The embroidery sound pattern is determined when the embroidery sound pattern is detected.
Variable length section where one code occupies an analysis unit
So that the length occupied by one code changes
Detecting embroidery sound patterns accurately
To accurately determine non-harmonic and harmony sounds.
Can be. Further, according to the performance data analysis device of the ninth aspect of the present invention or the performance data analysis method of the thirteenth aspect ,
Dividing the inputted performance data to a predetermined interval, the divided small nodal lines with the performance data of each section, the number of notes, note name number, since to extract the sounding timing pattern thus harmony sound The harmony can be extracted faithfully to the melody while using simple rules to easily extract the harmony. A performance data analyzer according to claim 10 of the present invention.
Or according to the performance data analysis method according to claim 14, the input performance data, sounds marks number, note length, divided into sounding timing <br/> patterns depending on the section, the performance for the divided sections Since the key and / or chord of the data is detected, accurate key detection and chord detection can be performed from the melody information of the performance data. In addition,
According to the performance data analyzer of claim 11, the performance data
Data of variable length corresponding to the section occupied by one code.
Performance data of each section divided into predetermined sections
Is extracted, so when extracting the harmony
Variable length section where one code occupies an analysis unit.
By changing the length, the length occupied by one code changes
Harmonic sounds can be accurately extracted even for songs
You. Further, the performance data analyzer of claim 12 of the present invention
According to this, performance data is assigned to a section occupied by one chord.
Divided into predetermined sections of corresponding variable length, and
Since the chord of the performance data between
One code occupies the analysis unit when detecting code
That, by the variable length section occupied by one code
More accurate chords for songs that vary in length
Can be detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例のメロディ分析の流れを説明す
る概念図である。
FIG. 1 is a conceptual diagram illustrating a flow of a melody analysis according to an embodiment of the present invention.

【図2】実施例の演奏データ分析装置を適用した電子楽
器のブロック図である。
FIG. 2 is a block diagram of an electronic musical instrument to which the performance data analyzer of the embodiment is applied.

【図3】実施例におけるメロディデータと区間分析デー
タの各フォーマットを示す図である。
FIG. 3 is a diagram showing each format of melody data and section analysis data in the embodiment.

【図4】実施例における2拍長の特殊パターンを示す図
である。
FIG. 4 is a diagram showing a special pattern having two beats in the embodiment.

【図5】実施例におけるコード進行データの一例を示す
図である。
FIG. 5 is a diagram showing an example of chord progression data in the embodiment.

【図6】実施例におけるメロディ分析処理のフローチャ
ートである。
FIG. 6 is a flowchart of a melody analysis process in the embodiment.

【図7】実施例におけるデータ入力処理のフローチャー
トである。
FIG. 7 is a flowchart of a data input process in the embodiment.

【図8】実施例における区間仮分割処理のフローチャー
トである。
FIG. 8 is a flowchart of a section temporary division process in the embodiment.

【図9】実施例におけるコードリズム区間抽出処理のフ
ローチャートである。
FIG. 9 is a flowchart of chord rhythm section extraction processing in the embodiment.

【図10】実施例における和声音抽出処理のフローチャ
ートである。
FIG. 10 is a flowchart of a harmony sound extraction process in the embodiment.

【図11】実施例における和声音抽出ルール処理のフロ
ーチャートである。
FIG. 11 is a flowchart of a harmony extraction rule process in the embodiment.

【図12】実施例における先取音処理のフローチャート
である。
FIG. 12 is a flowchart of a prefetch sound process in the embodiment.

【図13】実施例における和声音再抽出処理のフローチ
ャートである。
FIG. 13 is a flowchart of a harmony sound re-extraction process in the embodiment.

【図14】実施例におけるコードリズム結合処理のフロ
ーチャートである。
FIG. 14 is a flowchart of a chord rhythm combining process in the embodiment.

【図15】実施例における調検出処理のフローチャート
である。
FIG. 15 is a flowchart of a key detection process in the embodiment.

【図16】実施例におけるコード検出処理のフローチャ
ートである。
FIG. 16 is a flowchart of a code detection process in the embodiment.

【図17】実施例におけるベースパターンについての音
高変換処理のフローチャートである。
FIG. 17 is a flowchart of pitch conversion processing for a base pattern in the embodiment.

【符号の説明】[Explanation of symbols]

1…CPU、2…プログラムメモリ、3…ワーキングメ
モリ、4…操作子、6…鍵盤、9…データメモリ、10
…コードシーケンスDB。
DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... program memory, 3 ... working memory, 4 ... operator, 6 ... keyboard, 9 ... data memory, 10
... Code sequence DB.

フロントページの続き (56)参考文献 特開 平5−273976(JP,A) 特開 平6−124088(JP,A) 特開 昭58−87593(JP,A) 特開 平6−124087(JP,A) 特開 平6−124089(JP,A) 特開 昭58−114097(JP,A) 特開 昭63−316096(JP,A) 特開 平1−255880(JP,A) 特開 平1−255881(JP,A) 特開 平1−296287(JP,A) 実開 平1−89934(JP,U) (58)調査した分野(Int.Cl.7,DB名) G10H 1/36 G10H 1/00 102 Continuation of the front page (56) References JP-A-5-273976 (JP, A) JP-A-6-124088 (JP, A) JP-A-58-87593 (JP, A) JP-A-6-124087 (JP) JP-A-6-124089 (JP, A) JP-A-58-114097 (JP, A) JP-A-63-316096 (JP, A) JP-A-1-255880 (JP, A) 1-2555881 (JP, A) JP-A-1-296287 (JP, A) JP-A-1-89934 (JP, U) (58) Fields investigated (Int. Cl. 7 , DB name) G10H 1/36 G10H 1/00 102

Claims (14)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 音符のシーケンスを示す演奏データを入
力する演奏データ入力手段と、前記演奏データ入力手段によって入力された演奏データ
を、1つのコードが占める区間に対応した可変長の所定
の区間に分割する区間分割手段と、 前記区間分割手段によって分割された各区間の演奏デー
タの 調を検出する調検出手段と、 を備えることを特徴とする演奏データ分析装置。
1. A and performance data input means for inputting performance data indicating a note sequence, the performance data inputted by said performance data input means
With a variable length corresponding to the section occupied by one code
A section dividing means for dividing the interval, the performance data of each section divided by the section dividing means
Performance data analysis apparatus characterized by comprising: a synchronization failure detector for detecting a tone data.
【請求項2】 音符のシーケンスを示す演奏データを入
力する演奏データ入力手段と、前記演奏データ入力手段によって入力された演奏データ
を、1つのコードが占める区間に対応した可変長の所定
の区間に分割する区間分割手段と、 複数の各調において、各調を特徴づける主要音名からな
る音名列を記憶した音名列記憶手段と、前記区間分割手段によって分割された区間の 演奏データ
に含まれる複数の音名に、少なくとも一部が含まれる音
名列を、前記音名列記憶手段から抽出する音名列抽出手
段と、 前記演奏データ入力手段によって入力された演奏データ
に含まれる和声音を抽出する和声音抽出手段と、 前記音名列抽出手段によって抽出された音名列と、前記
和声音抽出手段によって抽出された和声音に基づいて調
を検出する調検出手段と、 を備えることを特徴とする演奏データ分析装置。
2. Performance data input means for inputting performance data indicating a sequence of musical notes, and performance data input by said performance data input means.
With a variable length corresponding to the section occupied by one code
Section dividing means, a plurality of tones, a note name string storing means storing a note name string comprising a main note name characterizing each key, and a performance of the section divided by the section dividing means. A plurality of note names included in the data, a note name string at least partially included in the note name string extracting means for extracting the note name string from the note name string storing means, and a plurality of note names included in the performance data input by the performance data input means. Harmony sound extraction means for extracting a harmony sound to be extracted, a sound name string extracted by the sound name string extraction means ,
A performance data analysis device, comprising: a key detection means for detecting a key based on a harmony extracted by a harmony extraction means .
【請求項3】 音符のシーケンスを示す演奏データを入
力する演奏データ入力手段と、 前記演奏データ入力手段によって入力された演奏データ
、1つのコードが占める区間に対応した可変長の所定
の区間に分割する区間分割手段と、 複数の各調において、各調を特徴づける主要音名からな
る音名列を記憶した音名列記憶手段と、 前記区間分割手段によって分割された区間の演奏データ
に含まれる複数の音名に、少なくとも一部が含まれる音
名列を、前記音名列記憶手段から抽出する音名列抽出手
段と、 前記音名列抽出手段によって抽出された音名列に基づい
て、前記区間毎の調を検出する調検出手段と、 を備えることを特徴とする演奏データ分析装置。
3. Performance data input means for inputting performance data indicating a sequence of musical notes; and performance data input by said performance data input means being converted into a predetermined section of variable length corresponding to a section occupied by one chord. Section dividing means for dividing, in each of a plurality of tones, a note name string storing means for storing a note name string comprising a main note name characterizing each key; and a performance data of the section divided by the section dividing means. A plurality of note names, a note name string at least partially included, a note name string extracting means for extracting from the note name string storing means, and a note name string extracted by the note name string extracting means. And a key detecting means for detecting a key for each section.
【請求項4】 音符のシーケンスを示す演奏データを入
力する演奏データ入力手段と、前記演奏データ入力手段によって入力された演奏データ
を、1つのコードが占める区間に対応した可変長の所定
の区間に分割する区間分割手段と、 前記区間分割手段によって分割された区間の 演奏データ
の中から刺繍音パターンを検出する刺繍音検出手段と、 前記検出された刺繍音パターンのうちの一部の音を和声
音に決定するとともに、刺繍音パターンのうちの残りの
部分を刺繍音として非和声音に決定し、前記決定された
和声音と所定の音程関係にある演奏データを和声音に決
定する和声音決定手段と、 を備えることを特徴とする演奏データ分析装置。
4. Performance data input means for inputting performance data indicating a sequence of musical notes, and performance data input by said performance data input means.
With a variable length corresponding to the section occupied by one code
Section dividing means, an embroidery sound detecting means for detecting an embroidery sound pattern from the performance data of the section divided by the section dividing means, and a part of the detected embroidery sound pattern. The sound is determined to be a harmony, the remaining part of the embroidery sound pattern is determined to be a non-harmonic as an embroidery sound, and the performance data having a predetermined pitch relationship with the determined harmony is determined to be a harmony. A performance data analyzer, comprising: a harmony sound determining means.
【請求項5】 符のシーケンスを示す演奏データを入
力し、前記入力された演奏データを、1つのコードが占める区
間に対応した可変長の所定の区間に分割し、 前記分割された各区間の演奏データの 調を検出するこ
と、 を特徴とする演奏データ分析方法。
5. receives performance data showing the sequence of sound marks, the performance data is the input, occupied by one code districts
Dividing the musical data into predetermined sections of variable length corresponding to the interval, and detecting the key of the performance data in each of the divided sections .
【請求項6】 複数の各調において、各調を特徴づける
主要音名からなる音名列を音名列記憶手段に記憶してお
き、 音符のシーケンスを示す演奏データを入力し、前記入力された演奏データを、1つのコードが占める区
間に対応した可変長の所定の区間に分割し、 前記区間分割手段によって分割された区間の 演奏データ
に含まれる複数の音名に、少なくとも一部が含まれる音
名列を、前記音名列記憶手段から抽出し、 前記入力された演奏データに含まれる和声音を抽出し、 前記抽出された音名列と和声音とに基づいて調を検出す
ること、 を特徴とする演奏データ分析方法
6. A plurality of the tone, a sound name string consisting of the main pitch name characterizing each tone may be stored in the tone name string storage means, receives performance data indicating a sequence of notes, is the input Of the performance data occupied by one chord
A plurality of note names included in the performance data of the section divided by the section dividing means are divided into predetermined sections of variable length corresponding to the interval, and a note name string at least partially included in the note name string extracted from the storage means, performance data analysis method of extracting a harmonic sound included in the performance data is the input, detecting the tone on the basis of said extracted pitch name column and harmony sound, characterized by.
【請求項7】 複数の各調において、各調を特徴づける
主要音名からなる音名列を音名列記憶手段に記憶してお
き、 音符のシーケンスを示す演奏データを入力し、 前記入力された演奏データを、1つのコードが占める区
間に対応した可変長の所定の区間に分割し、 前記分割した区間の演奏データに含まれる複数の音名
に、少なくとも一部が含まれる音名列を、前記音名列記
憶手段から抽出し、 前記抽出された音名列に基づいて、前記区間毎の調を検
出すること、 を特徴とする演奏データ分析方法。
7. In a plurality of tones, a note name string comprising a main note name characterizing each key is stored in a note name string storage means, and performance data indicating a sequence of notes is input. Of the performance data occupied by one chord
Variable length is divided into predetermined intervals corresponding to between, a plurality of pitch names included in the performance data of the divided sections, a sound name column that contains at least a portion, extracted from the pitch name string storage means Detecting a key of each section based on the extracted note name sequence.
【請求項8】 音符のシーケンスを示す演奏データを入
力し、前記入力された演奏データを、1つのコードが占める区
間に対応した可変長の所定の区間に分割し、 前記分割された区間の 演奏データの中から刺繍音パター
ンを検出し、 前記検出された刺繍音パターンのうちの一部の音を和声
音に決定するとともに、刺繍音パターンのうちの残りの
部分を刺繍音として非和声音に決定し、 前記決定された和声音と所定の音程関係にある演奏デー
タを和声音に決定すること、 を特徴とする演奏データ分析方法。
8. Performance data indicating a sequence of musical notes is input, and the input performance data is divided into sections occupied by one chord.
The embroidery sound pattern is detected from the performance data of the divided section, and a part of the detected embroidery sound pattern is converted into a harmony sound. And determining the remaining part of the embroidery sound pattern as a non-harmonic sound as the embroidery sound, and determining the performance data having a predetermined pitch relationship with the determined harmony sound as a harmony sound. Performance data analysis method.
【請求項9】 音符のシーケンスを示す演奏データを入
力する演奏データ入力手段と、 前記演奏データ入力手段によって入力された演奏データ
を所定の区間に分割する区間分割手段と、 前記区間分割手段によって分割された各区間の演奏デー
タについて小節線、音符数、音名数、発音タイミングパ
ターンによって和声音を抽出する和声音抽出手段と、 を備えることを特徴とする演奏データ分析装置。
9. Performance data input means for inputting performance data indicating a sequence of musical notes, interval division means for dividing performance data input by the performance data input means into predetermined sections, division by the interval division means been small nodal lines with the performance data of each section, the number of notes, note name number, play, characterized in that it comprises a harmonic sound extracting means for extracting the sound generation timing path <br/> coater emission Therefore harmonic sounds, the Data analyzer.
【請求項10】 音符のシーケンスを示す演奏データを
入力する演奏データ入力手段と、 前記演奏データ入力手段によって入力された演奏データ
を音符数、音符長、発音タイミングパターンによって区
間に分割する区間分割手段と、 前記区間分割手段によって分割された各区間の演奏デー
タの調および/またはコードを検出する検出手段と、 を備えることを特徴とする演奏データ分析装置。
10. Performance data input means for inputting performance data indicating a sequence of musical notes, and performance data input by said performance data input means.
Sound marks number, note length, and section dividing means for dividing the result into the interval sounding timing pattern, a detector for detecting a tone and / or code of the performance data of each section divided by the section dividing means, A performance data analyzer, comprising:
【請求項11】 音符のシーケンスを示す演奏データを
入力する演奏データ入力手段と、 前記演奏データ入力手段によって入力された演奏データ
を、1つのコードが占める区間に対応した可変長の所定
の区間に分割する区間分割手段と、 前記区間分割手段によって分割された各区間の演奏デー
タの和声音を抽出する和声音抽出手段と、 を備えることを特徴とする演奏データ分析装置。
11. Performance data indicating a note sequence
Performance data input means for inputting, and performance data input by the performance data input means
With a variable length corresponding to the section occupied by one code
A section dividing means for dividing the interval, the performance data of each section divided by the section dividing means
And a harmony sound extracting means for extracting a harmony sound of the performance data.
【請求項12】 音符のシーケンスを示す演奏データを
入力する演奏データ入力手段と、 前記演奏データ入力手段によって入力された演奏データ
を、1つのコードが占める区間に対応した可変長の所定
の区間に分割する区間分割手段と、 前記区間分割手段によって分割された各区間の演奏デー
タのコードを検出するコード検出手段と、 を備えることを特徴とする演奏データ分析装置。
12. Performance data indicating a sequence of musical notes.
Performance data input means for inputting, and performance data input by the performance data input means
With a variable length corresponding to the section occupied by one code
A section dividing means for dividing the interval, the performance data of each section divided by the section dividing means
And a chord detecting means for detecting chords of the performance data.
【請求項13】 音符のシーケンスを示す演奏データを
入力し、 前記入力された演奏データを所定の区間に分割し、 前記分割された各区間の演奏データについて小節線、音
符数、音名数、発音タイミングパターンによって和声音
を抽出すること、 を特徴とする演奏データ分析方法。
13. Performance data indicating a sequence of musical notes.
Input, the performance data is the input is divided into a predetermined interval, the divided bar lines for performance data of each section, the sound
Harmony depending on the number of notes, number of note names, and sounding timing pattern
Performance data analysis method that is characterized in that to extract.
【請求項14】 音符のシーケンスを示す演奏データを
入力し、 前記入力された演奏データを音符数、音符長、発音タイ
ミングパターンによって区間に分割し、 前記分割された各区間の演奏データの調および/または
コードを検出すること を特徴とする演奏データ分析方法。
14. Performance data indicating a sequence of musical notes.
And input the performance data as the number of notes, note length,
The performance data of each of the divided sections is divided into sections according to the
A performance data analysis method , comprising detecting a chord .
JP17957396A 1995-07-11 1996-07-09 Performance data analyzer and performance data analysis method Expired - Fee Related JP3216529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17957396A JP3216529B2 (en) 1995-07-11 1996-07-09 Performance data analyzer and performance data analysis method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP17524895 1995-07-11
JP7-175248 1995-07-11
JP17957396A JP3216529B2 (en) 1995-07-11 1996-07-09 Performance data analyzer and performance data analysis method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000313698A Division JP3591444B2 (en) 1995-07-11 2000-10-13 Performance data analyzer

Publications (2)

Publication Number Publication Date
JPH0981145A JPH0981145A (en) 1997-03-28
JP3216529B2 true JP3216529B2 (en) 2001-10-09

Family

ID=26496576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17957396A Expired - Fee Related JP3216529B2 (en) 1995-07-11 1996-07-09 Performance data analyzer and performance data analysis method

Country Status (1)

Country Link
JP (1) JP3216529B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220301528A1 (en) * 2019-06-21 2022-09-22 Obeebo Labs Ltd. Systems, Devices, and Methods for Harmonic Structure in Digital Representations of Music
JP7525153B2 (en) 2020-10-14 2024-07-30 国立大学法人 香川大学 Tactile Sensor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5293710B2 (en) * 2010-09-27 2013-09-18 カシオ計算機株式会社 Key judgment device and key judgment program
JP7259987B2 (en) * 2019-11-20 2023-04-18 ヤマハ株式会社 Information processing system, keyboard instrument, information processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220301528A1 (en) * 2019-06-21 2022-09-22 Obeebo Labs Ltd. Systems, Devices, and Methods for Harmonic Structure in Digital Representations of Music
US12014708B2 (en) * 2019-06-21 2024-06-18 Obeebo Labs Ltd. Systems, devices, and methods for harmonic structure in digital representations of music
JP7525153B2 (en) 2020-10-14 2024-07-30 国立大学法人 香川大学 Tactile Sensor

Also Published As

Publication number Publication date
JPH0981145A (en) 1997-03-28

Similar Documents

Publication Publication Date Title
JP3704980B2 (en) Automatic composer and recording medium
KR100658869B1 (en) Music generating device and operating method thereof
US9018505B2 (en) Automatic accompaniment apparatus, a method of automatically playing accompaniment, and a computer readable recording medium with an automatic accompaniment program recorded thereon
JP2000514571A (en) Automatic improvisation system and method
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
US6417437B2 (en) Automatic musical composition method and apparatus
US5852252A (en) Chord progression input/modification device
US6100462A (en) Apparatus and method for generating melody
JP5293710B2 (en) Key judgment device and key judgment program
JP3698057B2 (en) Automatic arrangement apparatus and method
US6486390B2 (en) Apparatus and method for creating melody data having forward-syncopated rhythm pattern
JP3216529B2 (en) Performance data analyzer and performance data analysis method
JPH0990952A (en) Chord analyzing device
JP3591444B2 (en) Performance data analyzer
US6031171A (en) Performance data analyzer
JPH0926790A (en) Playing data analyzing device
JPH0926789A (en) Playing data analyzing device
JP3271331B2 (en) Melody analyzer
JP3163654B2 (en) Automatic accompaniment device
US20150228270A1 (en) Automatic key adjusting apparatus and method, and a recording medium
JP2003099033A (en) Information editing device and musical score editing device
Sutcliffe et al. The C@ merata task at MediaEval 2016: Natural Language Queries Derived from Exam Papers, Articles and Other Sources against Classical Music Scores in MusicXML.
JP3807333B2 (en) Melody search device and melody search program
JP3163653B2 (en) Tonality judgment device
JP3316547B2 (en) Chording device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010703

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070803

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080803

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090803

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees