[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015114361A - Acoustic signal analysis device and acoustic signal analysis program - Google Patents

Acoustic signal analysis device and acoustic signal analysis program Download PDF

Info

Publication number
JP2015114361A
JP2015114361A JP2013253993A JP2013253993A JP2015114361A JP 2015114361 A JP2015114361 A JP 2015114361A JP 2013253993 A JP2013253993 A JP 2013253993A JP 2013253993 A JP2013253993 A JP 2013253993A JP 2015114361 A JP2015114361 A JP 2015114361A
Authority
JP
Japan
Prior art keywords
beat
chord
beat point
feature amount
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013253993A
Other languages
Japanese (ja)
Other versions
JP6252147B2 (en
Inventor
陽 前澤
Akira Maezawa
陽 前澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013253993A priority Critical patent/JP6252147B2/en
Publication of JP2015114361A publication Critical patent/JP2015114361A/en
Application granted granted Critical
Publication of JP6252147B2 publication Critical patent/JP6252147B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an acoustic signal analysis device and an acoustic signal analysis program in which the accuracy of estimating a beat point, code progress, and the position of a measure line.SOLUTION: An acoustic signal of a music is taken in, and a first beat point candidate series OR1 and a second beat point candidate series OR2 out of beat by half with the first beat point candidate series OR1 are detected. Next, a first beat synchronous type code feature amount series CR1 and a second beat synchronous type code feature amount series CR2 representing the feature of code between two adjacent beat point candidates of the first beat point candidate series and second beat point candidate series are calculated. From among probability models representing the code progress of the music, probability models in which the first beat synchronous type code feature amount series CR1 and the second beat synchronous type code feature amount series CR2 satisfy a prescribed standard are selected one for each, and the beat point, code progress, and the position of a measure line of the music are estimated on the basis of one of the two selected probability models that has greater likelihood.

Description

本発明は、楽曲を表わす音響信号を分析して、楽曲における拍点(拍のタイミング)及び楽曲の各区間で発音されるコード(和音)を検出する音響信号分析装置及び音響信号分析プログラムに関する。   The present invention relates to an acoustic signal analysis apparatus and an acoustic signal analysis program for analyzing a sound signal representing a music and detecting a beat point (beat timing) in the music and a chord (chord) generated in each section of the music.

従来から、例えば、下記非特許文献1に示されているように、楽曲における拍点、及び楽曲の各区間で発音されるコード(和音)を検出する音響信号分析装置は知られている。この音響信号分析装置においては、まず、音響信号を分析して、楽曲の拍点を決定している。そして、前記検出した拍点においてコード変化が生起し、かつ小節の先頭でコード変化が生起するという仮定の下で、楽曲の各区間のコード及び小節線の位置を検出している。   2. Description of the Related Art Conventionally, for example, as shown in Non-Patent Document 1, an acoustic signal analyzer that detects beat points in music and chords (chords) generated in each section of the music is known. In this acoustic signal analyzer, first, an acoustic signal is analyzed to determine a beat point of a music piece. Then, under the assumption that a chord change occurs at the detected beat point and a chord change occurs at the beginning of the bar, the chord and bar line positions of each section of the music are detected.

M.Goto et al. 、“SONGLE: A WEB SERVICE FOR ACTIVE MUSIC LISTENING IMPROVED BY USER CONTRIBUTIONS”、ISMIR、2011、p.311−316M.M. Goto et al. “SONGLE: A WEB SERVICE FOR ACTIVE MUSIC LISTENING IMPROVED BY USER CONTRIBUTIONS”, ISMIR, 2011, p. 311-316

上記非特許文献1には、誤って裏拍を拍点(表拍)として選択してしまう可能性や、楽曲のテンポが真のテンポの倍のテンポとなるような拍点を選択してしまう可能性を考慮して、尤もらしい拍点を選択すると記載されているが、その選択手段については具体的には開示されていない。また、裏拍を拍点(表拍)として選択した場合や、楽曲のテンポが真のテンポの倍のテンポとなるような拍点を選択した場合には、コードの検出精度及び小節線の位置の検出精度が低下する。   In Non-Patent Document 1, there is a possibility that the back beat is selected as a beat point (front beat) by mistake, or a beat point at which the tempo of the music is a tempo that is double the true tempo is selected. Although it is described that a possible beat point is selected in consideration of the possibility, the selection means is not specifically disclosed. In addition, when the back beat is selected as the beat (front beat), or when the beat is selected so that the tempo of the music is double the true tempo, the chord detection accuracy and bar line position The accuracy of detection decreases.

本発明は上記問題に対処するためになされたもので、その目的は、拍点、コード進行、及び小節線の位置の推定精度を向上させた音響信号分析装置及び音響信号分析プログラムを提供することにある。なお、下記本発明の各構成要件の記載においては、本発明の理解を容易にするために、実施形態の対応箇所の符号を括弧内に記載しているが、本発明の各構成要件は、実施形態の符号によって示された対応箇所の構成に限定解釈されるべきものではない。   The present invention has been made to address the above problems, and an object thereof is to provide an acoustic signal analysis apparatus and an acoustic signal analysis program that improve the estimation accuracy of beat points, chord progressions, and bar line positions. It is in. In addition, in the description of each constituent element of the present invention below, in order to facilitate understanding of the present invention, reference numerals of corresponding portions of the embodiment are described in parentheses, but each constituent element of the present invention is The present invention should not be construed as being limited to the configurations of the corresponding portions indicated by the reference numerals of the embodiments.

上記目的を達成するために、本発明の特徴は、分析対象としての楽曲の演奏音を表わす音響信号を取り込む音響信号取得手段(S11)と、前記取り込んだ音響信号に基づいて、前記楽曲の複数の拍点候補からなる第1拍点候補系列(OR1)、及び前記第1拍点候補系列を構成する複数の拍点候補に対してそれぞれ半拍分ずれた複数の拍点候補からなる第2拍点候補系列(OR2)を検出する拍点候補系列検出手段(S15)と、前記取り込んだ音響信号に基づいて、前記第1拍点系列を構成する複数の拍点候補のうちの隣り合う2つの拍点候補の間のコードの特徴をそれぞれ表わすビート同期型コード特徴量から構成された第1ビート同期型コード特徴量系列(CR1)を計算するとともに、前記第2拍点系列を構成する複数の拍点候補のうちの隣り合う2つの拍点候補の間のコードの特徴をそれぞれ表わすビート同期型コード特徴量から構成された第2ビート同期型コード特徴量系列(CR2)を計算するビート同期型コード特徴量系列計算手段(S16)と、前記楽曲のコード進行を表わす確率モデルであって、1小節内の拍数、前記楽曲の調及び最初の拍点の拍子位置の組み合わせに応じて拍点間におけるコードの遷移確率が設定された確率モデルのうち、前記第1ビート同期型コード特徴量系列が所定の基準を満たす確率モデル及び前記第2ビート同期型コード特徴量系列が所定の基準を満たす確率モデルをそれぞれ1つずつ選択し、前記選択した2つの確率モデルのうち尤度が大きい確率モデルに基づいて、前記楽曲の拍点、コード進行、及び小節線の位置を推定する推定手段(S17〜S21)と、を備えた音響信号分析装置としたことにある。   In order to achieve the above object, the present invention is characterized in that an acoustic signal acquisition means (S11) that captures an acoustic signal representing a performance sound of a musical piece to be analyzed, and a plurality of musical pieces based on the captured acoustic signal. A first beat point candidate series (OR1) consisting of a plurality of beat point candidates, and a second beat consisting of a plurality of beat point candidates each shifted by half a beat with respect to the plurality of beat point candidates constituting the first beat point candidate series. A beat point candidate series detecting means (S15) for detecting a beat point candidate series (OR2) and two adjacent beat points among a plurality of beat point candidates constituting the first beat point series on the basis of the acquired acoustic signal. A first beat-synchronized chord feature amount sequence (CR1) composed of beat-synchronized chord feature amounts each representing a chord feature between two beat point candidates is calculated, and a plurality of the second beat point sequences are constructed. Beat point candidates Beat-synchronized chord feature amount sequence for calculating a second beat-synchronized chord feature amount sequence (CR2) composed of beat-synchronized chord feature amounts each representing a chord feature between two adjacent beat point candidates. A calculation means (S16) and a probability model representing chord progression of the music piece, and the chords between beat points according to the combination of the number of beats within one measure, the key of the music piece, and the beat position of the first beat point. Among the probability models in which transition probabilities are set, a probability model in which the first beat-synchronized chord feature amount sequence satisfies a predetermined criterion and a probability model in which the second beat-synchronized chord feature amount sequence satisfies a predetermined criterion, respectively Select one by one and estimate the beat point, chord progression, and bar line position of the song based on the probability model with the highest likelihood of the two selected probability models And estimating means (S17~S21), in that the sound signal analysis device provided with a.

この場合、前記ビート同期型コード特徴量計算手段は、前記隣り合う2つの拍点候補の間に位置する複数の区間(t)ごとにコードの特徴量を表すコード特徴量(XC)を計算するコード特徴量計算手段と、前記隣り合う2つの拍点候補の間に位置する複数の区間のコード特徴量を平滑化することにより、前記ビート同期型コード特徴量を計算するコード特徴量平滑化手段と、を備えるとよい。 In this case, the beat-synchronized chord feature amount calculating means calculates a chord feature amount (XC) representing a chord feature amount for each of a plurality of sections (t i ) located between the two adjacent beat point candidates. Code feature amount calculating means for calculating the beat-synchronized chord feature amount by smoothing chord feature amounts of a plurality of sections located between the two adjacent beat point candidates Means.

また、この場合、拍点候補系列検出手段は、前記楽曲の各区間における拍の存在に関する特徴を表わす第1特徴量及びテンポに関する特徴を表わす第2特徴量を計算する拍・テンポ特徴量計算手段と、前記楽曲の各区間における拍の存在に関する物理量及びテンポに関する物理量の組み合わせにより分類された状態の系列として記述された複数の確率モデルのうち、前記第1特徴量及び前記第2特徴量が前記楽曲の各区間において同時に観測される確率を表わす観測尤度の系列が所定の基準を満たす確率モデルを選択することにより、前記楽曲における拍点及びテンポの推移を同時に推定する拍点・テンポ推定手段と、を備えるとよい。   In this case, the beat point candidate series detecting means calculates beat / tempo feature quantity calculating means for calculating a first feature quantity representing a feature relating to the presence of a beat in each section of the music and a second feature quantity representing a feature relating to the tempo. And among the plurality of probability models described as a series of states classified by combinations of physical quantities related to the presence of beats and physical quantities related to tempo in each section of the music, the first feature quantity and the second feature quantity are Beat point and tempo estimation means for simultaneously estimating beat points and tempo transitions in the music piece by selecting a probability model in which a series of observation likelihoods representing the probability observed simultaneously in each section of the music piece satisfies a predetermined criterion It is good to provide.

一般に、コードの変化は、表拍で生起する可能性が高い。そのため、誤って裏拍を表拍として選択してしまった場合には、拍点と拍点の間においてコードが変化する可能性が高い。そのため、この場合、ビート同期型コード特徴量は、コードの特徴を的確に表現できていない。つまり、裏拍を表拍として選択してしまった場合には、真の拍点(つまり表拍)を選択した場合に比べて、ビート同期型コード特徴量系列の尤度が低くなる。そこで、本発明に係る音響信号分析装置は、第1拍点候補系列と、第1拍点候補系列を構成する各拍点候補に対して半拍分ずれた拍点候補からなる第2拍点候補系列を検出し、第1拍点候補系列及び第2拍点候補系列に関するビート同期型コード特徴量系列の尤度をそれぞれ計算する。そして、両尤度を比較して、尤度の高い拍点候補系列を選択する。これにより、裏拍を誤って表拍として選択してしまうことを抑制できる。また、ビート同期型コード特徴量系列の尤度が最も高くなるような拍子位置及び調の組み合わせが選択されて、楽曲における拍点、コード進行及び小節線の位置が同時に(一体的)に推定される。したがって、本発明に係る音響信号分析装置によれば、拍点、コード進行、及び小節線の位置の推定精度を従来よりも向上させることができる。   In general, chord changes are more likely to occur at the beat. For this reason, if the back beat is selected as the front beat by mistake, there is a high possibility that the chord changes between beat points. Therefore, in this case, the beat synchronization type chord feature amount cannot accurately represent the chord feature. In other words, when the back beat is selected as the front beat, the likelihood of the beat-synchronized code feature quantity sequence is lower than when the true beat point (ie, the front beat) is selected. Therefore, the acoustic signal analysis apparatus according to the present invention includes a first beat point candidate series and a second beat point composed of beat point candidates shifted by half a beat with respect to each beat point candidate constituting the first beat point candidate series. Candidate sequences are detected, and the likelihoods of the beat-synchronized code feature amount sequences relating to the first beat point candidate sequence and the second beat point candidate sequence are calculated. Then, both likelihoods are compared, and a beat point candidate series having a high likelihood is selected. Thereby, it can suppress selecting a back beat accidentally as a front beat. Also, the beat position and key combination that maximizes the likelihood of the beat-synchronized chord feature quantity sequence is selected, and the beat point, chord progression, and bar line position in the music are estimated simultaneously (integrally). The Therefore, according to the acoustic signal analysis device of the present invention, it is possible to improve the estimation accuracy of beat points, chord progressions, and bar line positions as compared to the conventional art.

また、本発明は、音響信号分析装置が備えるコンピュータに適用されるコンピュータプログラムとしても実施可能である。   The present invention can also be implemented as a computer program applied to a computer provided in the acoustic signal analyzer.

本発明の一実施形態に係る音響信号分析装置の構成を表わすブロック図である。It is a block diagram showing the structure of the acoustic signal analyzer which concerns on one Embodiment of this invention. 拍点・コード推定処理を表わすフローチャートである。It is a flowchart showing a beat point and chord estimation process. 分析対象の音響信号の波形を表わすグラフである。It is a graph showing the waveform of the acoustic signal to be analyzed. 拍点候補を計算するための確率モデルの概念図である。It is a conceptual diagram of the probability model for calculating a beat point candidate. コムフィルタのブロック図である。It is a block diagram of a comb filter. BPM特徴量の計算結果を示すグラフである。It is a graph which shows the calculation result of a BPM feature-value. テンプレートの構成を示す表である。It is a table | surface which shows the structure of a template. コード特徴量の概念図である。It is a conceptual diagram of a code feature amount. ビート同期型コード特徴量の概念図である。It is a conceptual diagram of a beat synchronous chord feature amount.

本発明の一実施形態に係る音響信号分析装置10について説明する。音響信号分析装置10は、以下説明するように、楽曲を表わす音響信号を取り込んで、その楽曲における拍点及びテンポの推移を検出する。音響信号分析装置10は、図1に示すように、入力操作子11、コンピュータ部12、表示器13、記憶装置14、外部インターフェース回路15及びサウンドシステム16を備えており、これらがバスBSを介して接続されている。   An acoustic signal analyzer 10 according to an embodiment of the present invention will be described. As will be described below, the acoustic signal analysis apparatus 10 takes in an acoustic signal representing music and detects transitions in beat points and tempos in the music. As shown in FIG. 1, the acoustic signal analyzer 10 includes an input operator 11, a computer unit 12, a display 13, a storage device 14, an external interface circuit 15, and a sound system 16, which are connected via a bus BS. Connected.

入力操作子11は、オン・オフ操作に対応したスイッチ(例えば数値を入力するためのテンキー)、回転操作に対応したボリューム又はロータリーエンコーダ、スライド操作に対応したボリューム又はリニアエンコーダ、マウス、タッチパネルなどから構成される。これらの操作子は、演奏者の手によって操作されて、分析対象の楽曲の選択、音響信号の分析開始又は停止、楽曲の再生又は停止(後述するサウンドシステム16からの出力又は停止)、音響信号の分析に関する各種パラメータの設定などに用いられる。入力操作子11を操作すると、その操作内容を表す操作情報が、バスBSを介して、後述するコンピュータ部12に供給される。   The input operator 11 includes a switch corresponding to an on / off operation (for example, a numeric keypad for inputting a numerical value), a volume or rotary encoder corresponding to a rotation operation, a volume or linear encoder corresponding to a slide operation, a mouse, a touch panel, etc. Composed. These operators are operated by the performer's hand to select the music to be analyzed, start or stop the analysis of the sound signal, play or stop the music (output or stop from the sound system 16 described later), sound signal It is used to set various parameters related to the analysis. When the input operator 11 is operated, operation information indicating the operation content is supplied to the computer unit 12 described later via the bus BS.

コンピュータ部12は、バスBSにそれぞれ接続されたCPU12a、ROM12b及びRAM12cからなる。CPU12aは、詳しくは後述する音響信号分析プログラム及びそのサブルーチンをROM12bから読み出して実行する。ROM12bには、音響信号分析プログラム及びそのサブルーチンに加えて、初期設定パラメータ、表示器13に表示される画像を表わす表示データを生成するための図形データ及び文字データなどの各種データが記憶されている。RAM12cには、音響信号分析プログラムの実行時に必要なデータが一時的に記憶される。   The computer unit 12 includes a CPU 12a, a ROM 12b, and a RAM 12c connected to the bus BS. The CPU 12a reads an acoustic signal analysis program and its subroutine, which will be described later in detail, from the ROM 12b and executes them. In addition to the acoustic signal analysis program and its subroutine, the ROM 12b stores various data such as initial setting parameters, graphic data for generating display data representing an image displayed on the display 13, and character data. . The RAM 12c temporarily stores data necessary for executing the acoustic signal analysis program.

表示器13は、液晶ディスプレイ(LCD)によって構成される。コンピュータ部12は、図形データ、文字データなどを用いて表示すべき内容を表わす表示データを生成して表示器13に供給する。表示器13は、コンピュータ部12から供給された表示データに基づいて画像を表示する。例えば分析対象の楽曲の選択時には、楽曲のタイトルリストが表示される。また、例えば分析終了時には、拍点及び小節線を表わすグラフやコード進行を表わすコード名の系列が表示される。   The display 13 is configured by a liquid crystal display (LCD). The computer unit 12 generates display data representing contents to be displayed using graphic data, character data, and the like, and supplies the display data to the display unit 13. The display device 13 displays an image based on the display data supplied from the computer unit 12. For example, when selecting a song to be analyzed, a title list of songs is displayed. For example, at the end of the analysis, a graph representing beat points and bar lines and a chord name series representing chord progression are displayed.

また、記憶装置14は、HDD、FDD、CD−ROM、MO、DVDなどの大容量の不揮発性記録媒体と、同各記録媒体に対応するドライブユニットから構成されている。記憶装置14には、複数の楽曲をそれぞれ表わす複数の楽曲データが記憶されている。楽曲データは、楽曲を所定のサンプリング周期(例えば1/44100秒)でサンプリングして得られた複数のサンプル値からなり、各サンプル値が記憶装置14における連続するアドレスに順に記録されている。楽曲のタイトルを表わすタイトル情報、楽曲データの容量を表わすデータサイズ情報なども楽曲データに含まれている。楽曲データは予め記憶装置14に記憶されていてもよいし、後述する外部インターフェース回路15を介して外部機器から取り込んでもよい。記憶装置14に記憶されている楽曲データは、CPU12aによって読み込まれ、楽曲における拍点及びテンポの推移が分析される。   The storage device 14 includes a large-capacity nonvolatile recording medium such as an HDD, FDD, CD-ROM, MO, and DVD, and a drive unit corresponding to each recording medium. The storage device 14 stores a plurality of pieces of music data representing a plurality of pieces of music. The music data is composed of a plurality of sample values obtained by sampling the music at a predetermined sampling period (for example, 1/444100 seconds), and each sample value is sequentially recorded at successive addresses in the storage device 14. Title information representing the title of the song, data size information representing the capacity of the song data, and the like are also included in the song data. The music data may be stored in advance in the storage device 14, or may be taken in from an external device via the external interface circuit 15 described later. The music data stored in the storage device 14 is read by the CPU 12a, and the transition of beat points and tempo in the music is analyzed.

外部インターフェース回路15は、音響信号分析装置10を電子音楽装置、パーソナルコンピュータなどの外部機器に接続可能とする接続端子を備えている。音響信号分析装置10は、外部インターフェース回路15を介して、LAN(Local Area Network)、インターネットなどの通信ネットワークにも接続可能である。   The external interface circuit 15 includes a connection terminal that enables the acoustic signal analyzer 10 to be connected to an external device such as an electronic music device or a personal computer. The acoustic signal analyzer 10 can be connected to a communication network such as a LAN (Local Area Network) or the Internet via the external interface circuit 15.

サウンドシステム16は、楽曲データをアナログ音信号に変換するD/A変換器、変換したアナログ音信号を増幅するアンプ、及び増幅されたアナログ音信号を音響信号に変換して出力する左右一対のスピーカを備えている。ユーザが入力操作子11を用いて分析対象の楽曲の再生を指示すると、CPU12aは、分析対象の楽曲データをサウンドシステム16に供給する。これにより、ユーザは分析対象の楽曲を試聴できる。   The sound system 16 includes a D / A converter that converts music data into an analog sound signal, an amplifier that amplifies the converted analog sound signal, and a pair of left and right speakers that convert the amplified analog sound signal into an acoustic signal and output it. It has. When the user uses the input operator 11 to instruct the reproduction of the music to be analyzed, the CPU 12a supplies the music data to be analyzed to the sound system 16. Thereby, the user can audition the music to be analyzed.

つぎに、音響信号分析装置10の動作について具体的に説明する。ユーザが音響信号分析装置10の図示しない電源スイッチをオンにすると、CPU12aは、図2に示す拍点・コード推定プログラムをROM12bから読み出して実行する。なお、図2においては、「判断」のステップを六角形で示す。   Next, the operation of the acoustic signal analyzer 10 will be specifically described. When the user turns on a power switch (not shown) of the acoustic signal analyzer 10, the CPU 12a reads the beat point / code estimation program shown in FIG. 2 from the ROM 12b and executes it. In FIG. 2, the “judgment” step is indicated by a hexagon.

CPU12aは、ステップS10にて拍点・コード推定処理を開始し、ステップS11にて、記憶装置14に記憶されている複数の楽曲データにそれぞれ含まれるタイトル情報を読み込んで、楽曲のタイトルをリスト形式で表示器13に表示する。ユーザは、入力操作子11を用いて、表示器13に表示された楽曲の中から分析対象の楽曲データを選択する。なお、ステップS11にて分析対象の楽曲データを選択する際、選択しようとする楽曲データが表す楽曲の一部又は全部を再生して楽曲データの内容を確認できるように構成してもよい。   The CPU 12a starts beat point / code estimation processing at step S10, reads title information included in each of a plurality of music data stored in the storage device 14 at step S11, and lists the titles of the music in a list format. Is displayed on the display 13. The user uses the input operator 11 to select music data to be analyzed from the music displayed on the display 13. In addition, when selecting the music data of analysis object in step S11, you may comprise so that the content of music data can be confirmed by reproducing | regenerating part or all of the music which the music data to select selects.

つぎに、CPU12aは、ステップS12にて、音響信号分析のための初期設定を実行する。具体的には、前記選択された楽曲データのデータサイズ情報に応じた記憶領域をRAM12c内に確保し、前記確保した記憶領域に前記選択された楽曲データを読み込む。また、後述するオンセット特徴量XO、BPM特徴量XBなどを一時的に記憶する領域をRAM12c内に確保する。また、ユーザは、前記選択した楽曲の拍子(又は1小節内に含まれる拍数)を、入力操作子11を用いて入力する。つまり、本実施形態においては、前記選択した楽曲の拍子(又は1小節内に含まれる拍数)が既知であると仮定する。   Next, CPU12a performs the initial setting for an acoustic signal analysis in step S12. Specifically, a storage area corresponding to the data size information of the selected music data is secured in the RAM 12c, and the selected music data is read into the secured storage area. In addition, an area for temporarily storing later-described onset feature amounts XO, BPM feature amounts XB, and the like is secured in the RAM 12c. In addition, the user inputs the time signature (or the number of beats included in one measure) of the selected music using the input operator 11. That is, in this embodiment, it is assumed that the time signature (or the number of beats included in one measure) of the selected music is known.

CPU12aは、ステップS13にて、図3に示すように、前記選択された楽曲を所定の時間間隔をおいて区切り、複数のフレームt{i=0,1,・・・,I}に分割する。各フレームの長さは共通である。説明を簡単にするために、本実施形態では各フレームの長さを125msとする。上記のように、各楽曲のサンプリング周期は1/44100秒であるので、各フレームは、約5000個のサンプル値から構成されている。 In step S13, the CPU 12a divides the selected music piece at predetermined time intervals and divides it into a plurality of frames t i {i = 0, 1,..., I} as shown in FIG. To do. The length of each frame is common. In order to simplify the explanation, in this embodiment, the length of each frame is set to 125 ms. As described above, since the sampling period of each piece of music is 1/444100 seconds, each frame is composed of about 5000 sample values.

次に、CPU12aは、複数の拍点候補から構成される拍点候補系列OR1及び拍点候補系列OR2を計算する。ここで、拍点候補系列OR1及び拍点候補系列OR2の計算手順の概略を説明する。まず、拍点候補系列OR1が次のようにして計算される。拍の存在に関する特徴を表すオンセット特徴量XO及びテンポに関する特徴を表すBPM(beats per minute(1分間あたりの拍数))特徴量XBをフレームtごとに計算する。そして、各フレームtにおける拍周期bの値(テンポの逆数に比例する値)及び次の拍までのフレーム数nの値の組み合わせに応じて分類された状態qb,nの系列として記述された確率モデル(隠れマルコフモデル)のうち、観測値としてのオンセット特徴量XO及びBPM特徴量XBが同時に観測される確率を表わす観測尤度の系列が最も尤もらしい確率モデルを選択する(図4参照)。これにより、分析対象の楽曲における拍点候補系列OR1が検出される。そして、前記検出された拍点候補系列OR1を用いて、拍点候補系列OR1を構成する複数の拍点に対して半拍ずれた複数の拍点候補から構成された拍点候補系列OR2が計算される(図9参照)。なお、拍周期bは、フレームの数によって表わされる。したがって、拍周期bの値は「1≦b≦bmax」を満たす整数であり、拍周期bの値が「β」である状態では、フレーム数nの値は「0≦n<β」を満たす整数である。 Next, the CPU 12a calculates a beat point candidate series OR1 and a beat point candidate series OR2 composed of a plurality of beat point candidates. Here, the outline of the calculation procedure of the beat point candidate series OR1 and the beat point candidate series OR2 will be described. First, the beat point candidate series OR1 is calculated as follows. An onset feature value XO representing a feature related to the presence of a beat and a BPM (beats per minute) feature value XB representing a feature related to a tempo are calculated for each frame t i . It is described as a series of states q b, n classified according to the combination of the value of the beat period b in each frame t i (value proportional to the reciprocal of the tempo) and the value of the number of frames n up to the next beat. Among the obtained probability models (hidden Markov models), a probability model in which the series of observation likelihoods representing the probability that the onset feature quantity XO and the BPM feature quantity XB as observation values are observed simultaneously is most likely (FIG. 4). reference). Thereby, the beat point candidate series OR1 in the music to be analyzed is detected. Then, using the detected beat point candidate series OR1, a beat point candidate series OR2 composed of a plurality of beat point candidates shifted by half a beat from the plurality of beat points constituting the beat point candidate series OR1 is calculated. (See FIG. 9). The beat period b is represented by the number of frames. Therefore, the value of the beat period b is an integer satisfying “1 ≦ b ≦ b max ”, and in the state where the value of the beat period b is “β”, the value of the number of frames n is “0 ≦ n <β”. It is an integer that satisfies.

次に、拍点候補系列OR1及び拍点候補系列OR2の計算手順について具体的に説明する。まず、CPU12aは、ステップS14にて、フレームごとに、オンセット特徴量XO及びBPM特徴量XBを計算する。   Next, the calculation procedure of the beat point candidate series OR1 and the beat point candidate series OR2 will be specifically described. First, in step S14, the CPU 12a calculates an onset feature value XO and a BPM feature value XB for each frame.

フレームtのオンセット特徴量XO(t)は、次のようにして計算される。CPU12aは、まず、フレームごとに短時間フーリエ変換を実行し、各周波数ビンの信号強度を計算する。次に、CPU12aは、メルフィルタバンクを用いて、各周波数帯域fb(例えば、x=1,2,・・・,20)の信号強度M(fb,t)を計算する。次に、CPU12aは、フレーム間における各周波数帯域の信号強度の増加量R(fb,t)を計算する。下記の式(1)に示すように、フレーム間における前記各周波数帯域の信号強度の増加量の総和がオンセット特徴量XO(t)である。

Figure 2015114361
The onset feature value XO (t i ) of the frame t i is calculated as follows. First, the CPU 12a performs a short-time Fourier transform for each frame to calculate the signal intensity of each frequency bin. Next, the CPU 12a calculates the signal intensity M (fb x , t i ) of each frequency band fb x (for example, x = 1, 2,..., 20) using the mel filter bank. Next, the CPU 12a calculates an increase amount R (fb x , t i ) of the signal strength in each frequency band between frames. As shown in the following equation (1), the sum of the increase amounts of the signal strength of each frequency band between frames is the onset feature amount XO (t i ).
Figure 2015114361

フレームtのBPM特徴量XB(t)は、次のようにして計算される。CPU12aは、まず、オンセット特徴量XO(t),XO(t)・・・をこの順にフィルタバンクFBB(図5参照)に入力する。フィルタバンクFBBは、拍周期bの値に応じてそれぞれ設けられた複数のコムフィルタCFからなる。コムフィルタCFは、1つのデータが入力される度に1つのデータを出力する。コムフィルタCFは、過去の出力データを拍周期bの値に応じた個数だけ記憶するFIFO(=First In First Out)メモリを有しており、入力されたデータと前記記憶手段に記憶されているデータのうちの最古のデータを所定の比率(例えば、1:1(すなわち、α=0.5))で加算して出力する。オンセット特徴量XOの系列XO(t){=XO(t),XO(t)・・・}をフィルタバンクFBBに入力することにより得られたデータXDの系列XD(t){=XD(t),XD(t)・・・を時系列的に逆にして、フィルタバンクFBBに再度入力することにより、拍周期bに関するBPM特徴量の系列XB(t){=XB(t),XB(t)・・・}が得られる。フレームtのBPM特徴量XB(t)は、拍周期bごとに計算されたBPM特徴量XBb=1,2・・・(t)の集合として表わされる(図6参照)。 The BPM feature value XB (t i ) of the frame t i is calculated as follows. First, the CPU 12a inputs onset feature values XO (t 0 ), XO (t 1 ),... In this order to the filter bank FBB (see FIG. 5). Filter bank FBB is composed of a plurality of comb filters CF b respectively provided in accordance with the value of the beat period b. The comb filter CF b outputs one data every time one data is input. The comb filter CF b has a FIFO (= First In First Out) memory for storing past output data by the number corresponding to the value of the beat period b, and is stored in the storage means with the input data. The oldest data among the existing data is added at a predetermined ratio (for example, 1: 1 (that is, α = 0.5)) and output. The sequence XD b (t) of the data XD b obtained by inputting the sequence XO (t) {= XO (t 0 ), XO (t 1 )...} Of the onset feature quantity XO to the filter bank FBB. By reversing {= XD b (t 0 ), XD b (t 1 )... In time series and inputting them again into the filter bank FBB, the BPM feature quantity series XB b (t ) {= XB b (t 0 ), XB b (t 1 ). The BPM feature value XB (t i ) of the frame t i is represented as a set of BPM feature values XB b = 1, 2... (T i ) calculated for each beat period b (see FIG. 6).

次に、CPU12aは、ステップS15にて、ビタビアルゴリズムを用いて、最尤の状態系列を推定する。これにより、拍点候補系列OR1が推定される。なお、拍点候補系列OR1が推定される際、拍周期bの値の系列(つまり、テンポの推移)も同時(一体的)に推定される。   Next, in step S15, the CPU 12a estimates the maximum likelihood state sequence using the Viterbi algorithm. Thereby, the beat point candidate series OR1 is estimated. When the beat point candidate series OR1 is estimated, the series of values of the beat period b (that is, tempo transition) is also estimated simultaneously (integrally).

具体的には、CPU12aは、まず、オンセット特徴量XO(t)及びBPM特徴量XB(t)の観測尤度LO(t)及び観測尤度LB(t)をそれぞれ計算する。ここで、オンセット特徴量XO(t)は、次の拍点までのフレーム数nの値に応じて設定された正規分布に従うものとする。つまり、オンセット特徴量XOの観測尤度LO(t)は、次の拍点までのフレーム数nの値に応じて設定された正規分布の確率変数としてオンセット特徴量XOを代入することにより計算される。例えば、フレーム数nの値が「0」であるときは、平均値が「3」であって、且つ分散が「1」である正規分布が用いられる。また、拍周期bの値が「β」であって、フレーム数nの値が「β/2」であるときは、平均値が「1」であって、且つ分散が「1」である正規分布が用いられる。また、フレーム数nの値が「0」及び「β/2」のいずれの値とも異なるとき、平均値が「0」であって、且つ分散が「1」である正規分布が用いられる。 Specifically, CPU 12a first calculates onset feature quantity XO (t i) and BPM feature value XB observation likelihood LO (t i) of (t i) and the observation likelihood LB a (t i), respectively . Here, the onset feature amount XO (t i ) follows a normal distribution set according to the value of the number of frames n up to the next beat point. In other words, the observation likelihood LO (t i ) of the onset feature quantity XO substitutes the onset feature quantity XO as a normal distribution random variable set according to the value of the number of frames n up to the next beat point. Is calculated by For example, when the value of the number of frames n is “0”, a normal distribution having an average value of “3” and a variance of “1” is used. Further, when the value of the beat period b is “β” and the value of the number of frames n is “β / 2”, the normal value is “1” and the variance is “1”. A distribution is used. Further, when the value of the number of frames n is different from both “0” and “β / 2”, a normal distribution having an average value of “0” and a variance of “1” is used.

また、BPM特徴量XB(t)の観測尤度LBは、拍周期bごとに設けられたテンプレートTMPに対するBPM特徴量XBの適合度に相当する。つまり、下記の式(2)に示すように、テンプレートTMPとBPM特徴量XB(t)の内積が、観測尤度LB(t)である。なお、この演算式における「ν」は、オンセット特徴量XO(t)に対するBPM特徴量XB(t)の重みを決定する係数である。つまり、「ν」を大きく設定するほど、結果的に、BPM特徴量XB(t)が重視される。また、この演算式におけるZ(ν)は、「ν」に依存する正規化係数である。つまり、前記テンプレートTMPは、BPM特徴量XB(t)を構成するBPM特徴量XB(t)にそれぞれ乗算される係数δb,γ{=1,2・・・}の系列からなる(図7参照)。テンプレートTMPを構成する係数δb,γのうち、インデックスγが拍周期bに等しい係数及び拍周期bの整数倍に等しい係数が極大となるように、テンプレートTMPが設定されている。

Figure 2015114361
Further, the observation likelihood LB of the BPM feature quantity XB (t i ) corresponds to the adaptability of the BPM feature quantity XB to the template TMP b provided for each beat period b. That is, as shown in the following equation (2), the inner product of the template TMP b and the BPM feature quantity XB (t i ) is the observation likelihood LB (t i ). Note that “ν b ” in this arithmetic expression is a coefficient that determines the weight of the BPM feature quantity XB (t i ) with respect to the onset feature quantity XO (t i ). That is, the larger the value of “ν b ” is, the greater the importance is placed on the BPM feature value XB (t i ). Further, Z (ν b ) in this arithmetic expression is a normalization coefficient that depends on “ν b ”. In other words, the template TMP b, the coefficient [delta] b, which are respectively multiplied to the BPM feature value XB (t i) constituting the BPM feature value XB b (t i), from the series of γ {= 1,2 ···} (See FIG. 7). Coefficient [delta] b constituting the template TMP b, of gamma, as a factor equal to an integer multiple of the index gamma is the beat period b equal to the coefficient and the beat period b is maximum, template TMP b is set.
Figure 2015114361

次に、CPU12aは、観測尤度LO(t)と観測尤度LB(t)との積の対数である対数観測尤度LOB(t)(下記の式(3)参照)を用いて、尤度が最大となる状態系列を計算する。この最尤の状態系列の計算においては、ビタビアルゴリズムを用いる。

Figure 2015114361
Next, the CPU 12a uses a logarithmic observation likelihood LOB (t i ) (see Equation (3) below) that is a logarithm of the product of the observation likelihood LO (t i ) and the observation likelihood LB (t i ). Then, the state series having the maximum likelihood is calculated. In calculating the maximum likelihood state sequence, a Viterbi algorithm is used.
Figure 2015114361

なお、本実施形態においては、(拍周期bの値が「βs」であり、且つフレーム数nの値が「ηs」である状態から、拍周期bの値が「βe」であり、且つフレーム数nの値が「ηe」である状態への対数遷移確率Tの値は、次のように設定されている(図4参照)。「ηe=0」、「βe=βs」、かつ「ηe=βe−1」のとき、対数遷移確率Tの値は、「−0.2」である。また、「ηs=0」、「βe=βs+1」、かつ「ηe=βe−1」のとき、対数遷移確率Tの値は、「−0.6」である。また、「ηs=0」、「βe=βs−1」、かつ「ηe=βe−1」のとき、対数遷移確率Tの値は、「−0.6」である。また、「ηs>0」、「βe=βs」、かつ「ηe=ηs−1」のとき、対数遷移確率Tの値は、「0」である。上記以外の対数遷移確率Tの値は、「−∞」である。すなわち、フレーム数nの値が「0」である状態(ηs=0)から次の状態へ遷移するとき、拍周期bの値は「1」だけ増減され得る。このとき、フレーム数nの値は、遷移後の拍周期bの値より「1」だけ小さい値に設定される。また、フレーム数nの値が「0」でない状態(ηs≠0)から次の状態へ遷移するとき、拍周期bの値は変更されず、フレーム数nの値が「1」だけ減少する。   In the present embodiment (from the state where the value of the beat period b is “βs” and the value of the number of frames n is “ηs”, the value of the beat period b is “βe” and the frame The value of the logarithmic transition probability T to the state where the value of the number n is “ηe” is set as follows (see FIG. 4): “ηe = 0”, “βe = βs”, and “ηe” = Βe−1 ”, the value of the logarithmic transition probability T is“ −0.2. ”When“ ηs = 0 ”,“ βe = βs + 1 ”, and“ ηe = βe−1 ”, The value of the logarithmic transition probability T is “−0.6”, and when “ηs = 0”, “βe = βs−1”, and “ηe = βe−1”, the value of the logarithmic transition probability T. Is “−0.6.” When “ηs> 0”, “βe = βs”, and “ηe = ηs−1”, the logarithmic transition probability T is “0”. Logarithm other than the above The value of the transition probability T is “−∞.” That is, when the transition from the state where the value of the number of frames n is “0” (ηs = 0) to the next state, the value of the beat period b is “1”. In this case, the value of the frame number n is set to a value smaller by “1” than the value of the beat period b after the transition. Also, the value of the frame number n is not “0” ( When transitioning from (ηs ≠ 0) to the next state, the value of the beat period b is not changed, and the value of the number of frames n is decreased by “1”.

上記のようにして計算された最尤の状態系列を構成する各状態のうち、フレーム数nが「0」である状態の系列が拍点候補系列OR1である。また、前記最尤の状態系列を構成する各状態のうち、拍周期bとフレーム数nの値が下記の式(4)を満たす状態の系列が拍点候補系列OR2である。

Figure 2015114361
Of the states constituting the maximum likelihood state sequence calculated as described above, a sequence in which the number of frames n is “0” is the beat candidate sequence OR1. Of the states constituting the maximum likelihood state sequence, a sequence in which the values of the beat period b and the number of frames n satisfy the following formula (4) is the beat candidate sequence OR2.
Figure 2015114361

これにより、拍点候補系列OR1を構成する複数の拍点候補から見てそれぞれ半拍分(例えば、4分の4拍子の楽曲においては8分音符の長さ)ずれた複数の拍点候補からなる拍点候補系列OR2が得られる。   Thereby, from a plurality of beat point candidates shifted from each other by a half beat (for example, the length of an eighth note in the case of a four-beat music) as seen from a plurality of beat point candidates constituting the beat point candidate series OR1. The beat point candidate series OR2 is obtained.

つぎに、CPU12aは、ステップS16にて、拍点候補系列OR1を構成する各拍点候補における和音の特徴を表わすビート同期型コード特徴量XBC1の系列であるビート同期型コード特徴量系列CR1と、拍点候補系列OR2を構成する各拍点候補における和音の特徴を表わすビート同期型コード特徴量XBC2の系列であるビート同期型コード特徴量系列CR2を計算する。   Next, in step S16, the CPU 12a, in step S16, beat-synchronized chord feature amount sequence CR1 that is a sequence of beat-synchronized chord feature amount XBC1 representing chord features in each beat point candidate constituting beat point candidate sequence OR1; A beat-synchronized chord feature amount series CR2 that is a series of beat-synchronized chord feature amounts XBC2 representing the chord features in each beat point candidate constituting the beat point candidate sequence OR2 is calculated.

ビート同期型コード特徴量系列CR1及びビート同期型コード特徴量系列CR2は次のようにして計算される。まず、各フレームtの各周波数ビンのパワーを、その周波数に最も近い音高の周波数(例えば平均律における各音高の基本周波数)にマッピングする。上記のようにして各音高にマッピングされたパワーのうち、低音域(例えば「B1」以下)に属するパワーをピッチクラス(C,C#,D,・・・,B#)ごとに加算(又は積算)する。このようにして計算された各ピッチクラスのパワーからなる12次元の特徴量をベース特徴量HPCP(B)と呼ぶ(図8参照)。また、各音高にマッピングされたパワーのうち、高音域(例えば「C2」以上)に属するパワーをピッチクラス(C,C#,D,・・・,B#)ごとに加算(又は積算)する。このようにして計算された各ピッチクラスのパワーからなる12次元の特徴量をトレブル特徴量HPCP(T)と呼ぶ。 The beat-synchronized chord feature amount series CR1 and the beat-synchronized chord feature amount series CR2 are calculated as follows. First, the power of each frequency bin of each frame t i, is mapped to the nearest pitch frequency to the frequency (e.g., the fundamental frequency of each pitch in equal temperament). Of the power mapped to each pitch as described above, the power belonging to the low frequency range (for example, “B1” or lower) is added for each pitch class (C, C #, D,..., B #) ( (Or accumulating). The 12-dimensional feature amount composed of the power of each pitch class calculated in this way is called a base feature amount HPCP (B) (see FIG. 8). Further, among the power mapped to each pitch, power belonging to a high pitch range (for example, “C2” or higher) is added (or integrated) for each pitch class (C, C #, D,..., B #). To do. The 12-dimensional feature quantity composed of the power of each pitch class calculated in this way is called a treble feature quantity HPCP (T) .

また、低音域のパワーのL2ノルムをベースパワーρ(B)と呼び、高音域のパワーのL2ノルムをトレブルパワーρ(T)と呼ぶ。 Further, the L2 norm of the low frequency range power is referred to as base power ρ (B), and the L2 norm of the high frequency range power is referred to as treble power ρ (T) .

各フレームtに関するベース特徴量HPCP(B)、トレブル特徴量HPCP(T)、ベースパワーρ(B)及びトレブルパワーρ(T)からなる26次元の特徴量をコード特徴量XC(t)と呼ぶ。 A 26-dimensional feature amount consisting of a base feature amount HPCP (B) , a treble feature amount HPCP (T) , a base power ρ (B), and a treble power ρ (T) for each frame t i is converted into a code feature amount XC (t i ). Call it.

ビート同期型コード特徴量XBC1(m)は、拍点候補系列OR1における「m」番目の拍点候補と「m+1」番目の拍点候補の間のフレームのコード特徴量XC(t)を平滑化することにより得られる26次元の特徴量である。また、ビート同期型コード特徴量XBC2(m)は、拍点候補系列OR2における「m」番目の拍点候補と「m+1」番目の拍点候補の間のフレームのコード特徴量XC(t)を平滑化することにより得られる26次元の特徴量である。なお、上記の平滑化とは、例えば、前記拍点候補間のフレームのベース特徴量HPCP(B)の平均を計算するとともに、前記拍点候補間のフレームのトレブル特徴量HPCP(T)、ベースパワーρ(B)及びトレブルパワーρ(T)のメジアンをそれぞれ計算することを意味する。拍点候補系列OR1を構成する全ての拍点候補に関して、ビート同期型コード特徴量XBC1を計算することにより、ビート同期型コード特徴量系列CR1が計算される。また、拍点候補系列OR2を構成する全ての拍点候補に関して、ビート同期型コード特徴量XBC2を計算することにより、ビート同期型コード特徴量系列CR2が計算される。 The beat-synchronized code feature value XBC1 (m) smoothes the code feature value XC (t i ) of the frame between the “m” -th beat point candidate and the “m + 1” -th beat point candidate in the beat point candidate series OR1. This is a 26-dimensional feature amount obtained by converting to The beat-synchronized chord feature amount XBC2 (m) is the chord feature amount XC (t i ) of the frame between the “m” -th beat point candidate and the “m + 1” -th beat point candidate in the beat point candidate series OR2. Is a 26-dimensional feature amount obtained by smoothing. Note that the smoothing means, for example, calculating the average of the base feature amount HPCP (B) of the frames between the beat point candidates, and calculating the treble feature amount HPCP (T) of the frame between the beat point candidates. It means calculating the median of power ρ (B) and treble power ρ (T) , respectively. The beat-synchronized chord feature amount series CR1 is calculated by calculating the beat-synchronized chord feature amount XBC1 for all the beat point candidates constituting the beat point candidate sequence OR1. Further, the beat-synchronized chord feature amount series CR2 is calculated by calculating the beat-synchronized chord feature amount XBC2 for all the beat point candidates constituting the beat point candidate sequence OR2.

次に、CPU12aは、ステップS17にて、最尤のビート同期型コード特徴量系列CR1の尤度LK1及び最尤のビート同期型コード特徴量系列CR2の尤度LK2を計算する。最尤のビート同期型コード特徴量系列CR1の尤度LK1及び最尤のビート同期型コード特徴量系列CR2の尤度LK2の計算手順は共通である。そこで、以下の説明においては、ビート同期型コード特徴量系列CR1及びビート同期型コード特徴量系列CR2を単にビート同期型コード特徴量系列CRと表記する。また、ビート同期型コード特徴量XBC1及びビート同期型コード特徴量XBC2を単にビート同期型コード特徴量XBCと表記する。   Next, in step S17, the CPU 12a calculates the likelihood LK1 of the maximum likelihood beat-synchronized code feature amount sequence CR1 and the likelihood LK2 of the maximum likelihood beat-synchronized code feature amount sequence CR2. The procedure for calculating the likelihood LK1 of the maximum likelihood beat-synchronized code feature amount sequence CR1 and the likelihood LK2 of the maximum likelihood beat-synchronized code feature amount sequence CR2 is common. Therefore, in the following description, the beat synchronization type code feature value sequence CR1 and the beat synchronization type code feature value sequence CR2 are simply referred to as a beat synchronization type code feature value sequence CR. Further, the beat synchronization type chord feature amount XBC1 and the beat synchronization type chord feature amount XBC2 are simply referred to as a beat synchronization type chord feature amount XBC.

ここで、ベース特徴量HPCP(B)及びトレブル特徴量HPCP(T)は、vMF(=von Mises Fisher)分布に従うと仮定する。また、ベースパワーρ(B)及びトレブルパワーρ(T)は、ガンマ分布に従うと仮定する。一般の楽曲は、和音が発生されている区間においてパワーが強い。一方、和音が発生されていない区間においてはパワーが弱い。また、和音が発生されていない区間におけるベース特徴量HPCP(B)及びトレブル特徴量HPCP(T)を構成する各ピッチクラスのパワーの分布と、和音が発生されている区間における前記各ピッチクラスのパワーの分布とが異なる。そこで、和音が発生されている状態と和音が発生されていない状態とに関し、ベース特徴量HPCP(B)及びトレブル特徴量HPCP(T)並びにベースパワーρ(B)及びトレブルパワーρ(T)を同時に学習する。また、1つの和音に対して、単一のvMF分布及びガンマ分布を用いるのではなく、複数のモデル(混合モデル)を設定しておき、それらの重み付き線形和としてビート同期型コード特徴量の観測尤度を定義する。ビート同期型コード特徴量XBCの観測尤度は、ビート同期型コード特徴量XBCの構成要素としてのベース特徴量HPCP(B)、トレブル特徴量HPCP(T)、ベースパワーρ(B)及びトレブルパワーρ(T)、並びにvMF分布の平均μ、vMF分布の分散κ、ガンマ分布の尺度母数u、ガンマ分布の形状母数v、及び前記線形和の重みwを用いて、下記の式(5)のように表わされる。なお、「k」は、混合モデルを構成する分布を識別するためのインデックスである。また、低音域に関する変数の右上の括弧内には、「B」が表記されている。また、中高音域に関する変数の右上の括弧内には、「T」が表記されている。また、「Θ」は、和音jに関するパラメータを表わす。例えば、「Θ」は、ベース特徴量HPCP(B)及びトレブル特徴量HPCP(T)の形状(各ピッチクラスのパワーの分布)を表わす。

Figure 2015114361
Here, it is assumed that the base feature amount HPCP (B) and the treble feature amount HPCP (T) follow a vMF (= von Miss Fisher) distribution. Further, it is assumed that the base power ρ (B) and the treble power ρ (T) follow a gamma distribution. General music has strong power in a section where chords are generated. On the other hand, the power is weak in the section where no chord is generated. Further, the distribution of the power of each pitch class constituting the base feature amount HPCP (B) and the treble feature amount HPCP (T) in a section where no chord is generated, and each pitch class in the section where a chord is generated. The power distribution is different. Therefore, the base feature amount HPCP (B), the treble feature amount HPCP (T) , the base power ρ (B), and the treble power ρ (T) are related to the state where the chord is generated and the state where the chord is not generated. Learn at the same time. Also, instead of using a single vMF distribution and gamma distribution for one chord, a plurality of models (mixed models) are set, and the beat-synchronized chord feature amount is calculated as a weighted linear sum. Define the observation likelihood. The observation likelihood of the beat-synchronized code feature value XBC includes the base feature value HPCP (B) , the treble feature value HPCP (T) , the base power ρ (B), and the treble power as components of the beat-synchronized code feature value XBC. Using ρ (T) and the mean μ k of the vMF distribution, the variance κ k of the vMF distribution, the scale parameter u of the gamma distribution, the shape parameter v of the gamma distribution, and the weight w k of the linear sum, It is expressed as equation (5). Note that “k” is an index for identifying the distribution constituting the mixed model. In addition, “B” is described in parentheses at the upper right of the variable related to the low frequency range. In addition, “T” is written in parentheses at the upper right of the variable relating to the middle and high pitch range. “Θ j ” represents a parameter related to the chord j. For example, “Θ j ” represents the shape (power distribution of each pitch class ) of the base feature amount HPCP (B) and the treble feature amount HPCP (T) .
Figure 2015114361

また、一般に、和音から和音への遷移確率は、楽曲の調keyに依存する。例えば、和音「C」から和音「F」への遷移はハ長調の楽曲において生起する可能性が高い。また、和音から和音への遷移確率は、拍点の拍子位置s(直前の小節線から数えた拍数)に依存する。例えば、4分の4拍子の楽曲において、4拍目(つまりs=4)の和音が「G7」であるとき、次の小節の1拍目の和音は「C」である可能性が高い(ドミナントモーション)。そこで、音響信号分析装置10は、和音の遷移確率を記憶した複数のデータベースを備える。各データベースは、拍子にそれぞれ対応している。つまり、音響信号分析装置10は、例えば、4分の3拍子の楽曲を分析するときに用いるデータベース、4分の4拍子の楽曲を分析するときに用いるデータベース、8分の6拍子の楽曲を分析するときに用いるデータベースなどを備える。そして、各データベースには、和音から和音への遷移確率が、調key及び拍子位置sに関連づけて記憶されている。和音から和音への遷移確率は、種々の楽曲における和音の遷移を学習することにより決定される。これらのデータベースはROM12bに記憶されている。ここで、「m−1」番目の拍点候補における和音が「j´」であって、かつ「m」番目の拍点候補における和音が「j」である確率を下記の式(6)のように表記する。なお、1小節内の拍数にそれぞれ対応したデータベースが設けられていても良い。

Figure 2015114361
In general, the transition probability from chord to chord depends on the key of the music. For example, the transition from the chord “C” to the chord “F” is likely to occur in C major music. The transition probability from chord to chord depends on the beat position s of the beat point (the number of beats counted from the immediately preceding bar line). For example, when the chord of the fourth beat (that is, s = 4) is “G7” in the music of four quarters, there is a high possibility that the first chord of the next measure is “C” ( Dominant motion). Therefore, the acoustic signal analysis apparatus 10 includes a plurality of databases that store chord transition probabilities. Each database corresponds to a time signature. That is, the acoustic signal analysis apparatus 10 analyzes, for example, a database used when analyzing music of 3/4 time, a database used when analyzing music of 4/4 time, and music of 6/8 time. A database to be used when In each database, a transition probability from a chord to a chord is stored in association with the key and the beat position s. The transition probability from chord to chord is determined by learning the transition of chords in various musical pieces. These databases are stored in the ROM 12b. Here, the probability that the chord in the “m−1” th beat point candidate is “j ′” and the chord in the “m” th beat point candidate is “j” is expressed by the following equation (6). It describes as follows. A database corresponding to each beat number in one measure may be provided.
Figure 2015114361

すると、最初の拍の拍子位置s及び調keyが既知であるという条件下においては、ビート同期型コード特徴量系列CRの尤度LK(s,key)は、下記の式(7)のように表される。

Figure 2015114361
Then, under the condition that the time position s and the key of the first beat are known, the likelihood LK (s, key) of the beat-synchronized code feature amount sequence CR is expressed by the following equation (7). expressed.
Figure 2015114361

なお、式(7)における「Z(m)」は、次に説明するような2値変数である。つまり、「Z(m)」は、「m」番目の拍点候補の和音が「j」である場合に「1」であり、その他の場合に「0」である。また、「Zj´(m−1)Z(m)」は、「m−1」番目の拍点候補における和音が「j´」であって、かつ「m」番目の拍点候補における和音が「j」である場合にのみ「1」であり、その他の場合に「0」である。 Note that “Z j (m)” in Equation (7) is a binary variable as described below. That is, “Z j (m)” is “1” when the chord of the “m” -th beat point candidate is “j”, and “0” in other cases. In addition, “Z j ′ (m−1) Z j (m)” indicates that the chord in the “m−1” -th beat point candidate is “j ′” and the “m” -th beat point candidate. It is “1” only when the chord is “j”, and “0” otherwise.

ここで、拍点候補系列OR1についての尤度LK(s,key)を尤度LK(1)(s,key)と表記する。最尤のビート同期型コード特徴量系列CR1の尤度LK1は、式(8)に基づいて計算される。

Figure 2015114361
Here, the likelihood LK (s, key) for the beat point candidate series OR1 is expressed as the likelihood LK (1) (s, key). The likelihood LK1 of the maximum likelihood beat-synchronized code feature quantity sequence CR1 is calculated based on Expression (8).
Figure 2015114361

また、拍点候補系列OR2についての尤度LK(s,key)を尤度LK(2)(s,key)と表記する。最尤のビート同期型コード特徴量系列CR2の尤度LK2は、式(9)に基づいて計算される。

Figure 2015114361
Further, the likelihood LK (s, key) for the beat point candidate series OR2 is expressed as likelihood LK (2) (s, key). The likelihood LK2 of the maximum likelihood beat-synchronized code feature quantity sequence CR2 is calculated based on Expression (9).
Figure 2015114361

なお、CPU12aは、ビタビアルゴリズムを用いて尤度LK1及び尤度LK2を計算する。また、CPU12aは、尤度LK1及び尤度LK2を計算する際、ステップS12においてユーザによって入力された拍子(又は1小節内の拍数)に応じたデータベースを参照して和音の遷移確率を決定する。   The CPU 12a calculates the likelihood LK1 and the likelihood LK2 using the Viterbi algorithm. Further, when calculating the likelihood LK1 and the likelihood LK2, the CPU 12a determines a chord transition probability by referring to a database corresponding to the time signature (or the number of beats in one measure) input by the user in step S12. .

次に、CPU12aは、ステップS18にて、尤度LK1と尤度LK2と比較する。尤度LK1が尤度LK2よりも大きいとき、CPU12aは、「Yes」と判定して、ステップS19にて、前記推定された拍点候補系列OR1、最尤のビート同期型コード特徴量系列CR1及び拍子位置sを出力する。具体的には、拍点候補系列OR1及び拍子位置sに基づいて、拍点及び小節線を表わすグラフを表示器13に表示する。また、最尤のビート同期型コード特徴量系列CR1に基づいて、コード進行Z1(コード名の系列)を計算して、表示器13に表示する。コード進行Z1は、最尤のビート同期型コード特徴量系列CR1を構成する各ビート同期型コード特徴量XBC1(m)に対応するコード名の系列である。そして、CPU12aは、ステップS20にて、拍点・コード推定処理を終了する。   Next, the CPU 12a compares the likelihood LK1 and the likelihood LK2 in step S18. When the likelihood LK1 is larger than the likelihood LK2, the CPU 12a determines “Yes”, and in step S19, the estimated beat point candidate series OR1, the maximum likelihood beat-synchronized code feature quantity series CR1, and The beat position s is output. Specifically, a graph representing beat points and bar lines is displayed on the display 13 based on the beat point candidate series OR1 and the beat position s. Further, the chord progression Z1 (chord name sequence) is calculated based on the maximum likelihood beat-synchronized chord feature amount sequence CR1 and displayed on the display 13. The chord progression Z1 is a chord name sequence corresponding to each beat-synchronized chord feature amount XBC1 (m) constituting the most likely beat-synchronous chord feature amount sequence CR1. And CPU12a complete | finishes a beat point and chord estimation process in step S20.

一方、ステップS18において、尤度LK1が尤度LK2以下であるとき、CPU12aは、「No」と判定して、ステップS21にて、前記推定された拍点候補系列OR2、最尤のビート同期型コード特徴量系列CR2及び拍子位置sを出力する。具体的には、拍点候補系列OR2及び拍子位置sに基づいて、拍点及び小節線を表わすグラフを表示器13に表示する。また、最尤のビート同期型コード特徴量系列CR2に基づいて、コード進行Z2(コード名の系列)を計算して、表示器13に表示する。コード進行Z2は、最尤のビート同期型コード特徴量系列CR2を構成する各ビート同期型コード特徴量XBC2(m)に対応するコード名の系列である。そして、CPU12aは、ステップS20にて、拍点・コード推定処理を終了する。   On the other hand, when the likelihood LK1 is less than or equal to the likelihood LK2 in step S18, the CPU 12a determines “No”, and in step S21, the estimated beat point candidate series OR2, the maximum likelihood beat synchronization type. The chord feature amount series CR2 and the time signature position s are output. Specifically, a graph representing a beat point and a bar line is displayed on the display 13 based on the beat point candidate series OR2 and the beat position s. Further, the chord progression Z2 (chord name sequence) is calculated based on the maximum likelihood beat-synchronized chord feature amount sequence CR2 and displayed on the display 13. The chord progression Z2 is a chord name sequence corresponding to each beat-synchronized chord feature amount XBC2 (m) constituting the most likely beat-synchronous chord feature amount CR2. And CPU12a complete | finishes a beat point and chord estimation process in step S20.

一般に、コードの変化は、表拍で生起する可能性が高い。そのため、フレームtごとに計算されたコード特徴量XC(t)は、表拍において大きく変化する可能性が高い。よって、誤って裏拍を表拍として選択してしまった場合には、拍点と拍点の間においてコード特徴量XC(t)が大きく変化する可能性が高い。そのため、この場合、ビート同期型コード特徴量は、コードの特徴を的確に表現できていない。つまり、裏拍を表拍として選択してしまった場合には、真の拍点(つまり表拍)を選択した場合に比べて、ビート同期型コード特徴量系列の尤度が低くなる。そこで、音響信号分析装置10は、拍点候補系列OR1と、拍点候補系列OR1を構成する各拍点候補に対して半拍分ずれた拍点候補からなる拍点候補系列OR2を検出し、拍点候補系列OR1及び拍点候補系列OR2に関するビート同期型コード特徴量系列の尤度LK1及び尤度LK2を計算する。そして、尤度LK1及び尤度LK2を比較して、尤度の高い拍点候補系列を選択する。これにより、誤って裏拍を表拍として選択してしまうことを抑制できる。また、ビート同期型コード特徴量系列の尤度が最も高くなるような拍子位置s及び調keyの組み合わせが選択されて、楽曲における拍点、コード進行及び小節線の位置が同時に(一体的)に推定される。したがって、音響信号分析装置10によれば、拍点、コード進行、及び小節線の位置の推定精度を従来よりも向上させることができる。 In general, chord changes are more likely to occur at the beat. Therefore, the chord feature value XC (t i ) calculated for each frame t i is highly likely to change greatly in the table beat. Therefore, if the back beat is selected as the front beat by mistake, there is a high possibility that the chord feature amount XC (t i ) changes greatly between beat points. Therefore, in this case, the beat synchronization type chord feature amount cannot accurately represent the chord feature. In other words, when the back beat is selected as the front beat, the likelihood of the beat-synchronized code feature quantity sequence is lower than when the true beat point (ie, the front beat) is selected. Therefore, the acoustic signal analysis device 10 detects the beat point candidate series OR1 and the beat point candidate series OR2 including the beat point candidates shifted by half a beat with respect to each beat point candidate constituting the beat point candidate series OR1. The likelihood LK1 and the likelihood LK2 of the beat-synchronized code feature amount series relating to the beat point candidate series OR1 and the beat point candidate series OR2 are calculated. Then, the likelihood LK1 and the likelihood LK2 are compared, and a beat point candidate series having a high likelihood is selected. Thereby, it can suppress selecting a back beat as a front beat accidentally. In addition, the combination of the beat position s and the key key that maximizes the likelihood of the beat-synchronized chord feature quantity sequence is selected, and the beat point, chord progression, and bar line position in the music are simultaneously (integrated). Presumed. Therefore, according to the acoustic signal analyzer 10, the estimation accuracy of the beat point, chord progression, and bar line position can be improved as compared with the conventional technique.

さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。   Furthermore, in carrying out the present invention, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the object of the present invention.

例えば、上記実施形態では、楽曲全体の演奏音が楽曲データとして記憶されており、その楽曲データを分析して、拍点、コード進行、及び小節線の位置を推定している。しかし、これに代えて、楽曲の演奏音をリアルタイムで取り込みつつ、取り込んだ演奏音を表わすデータを上記実施形態と同様に分析して、拍点、コード進行、及び小節線の位置を推定しても良い。   For example, in the above embodiment, the performance sound of the entire music is stored as music data, and the music data is analyzed to estimate the beat point, chord progression, and bar line position. However, instead of this, while capturing the performance sound of the music in real time, the data representing the captured performance sound is analyzed in the same manner as in the above embodiment, and the beat point, chord progression, and bar line position are estimated. Also good.

10・・・音響信号分析装置、CR1・・・ビート同期型コード特徴量系列、CR2・・・ビート同期型コード特徴量系列、HPCP(T)・・・トレブル特徴量、HPCP(B)・・・ベース特徴量、j・・・和音、key・・・調、OR1・・・拍点候補系列、OR2・・・拍点候補系列、s・・・拍子位置、XB・・・BPM特徴量、XBC1・・・ビート同期型コード特徴量、XBC2・・・ビート同期型コード特徴量、XC・・・コード特徴量、XO・・・オンセット特徴量、ρ(T)・・・トレブルパワー、ρ(B)・・・ベースパワー DESCRIPTION OF SYMBOLS 10 ... Acoustic signal analyzer, CR1 ... Beat synchronous type chord feature amount series, CR2 ... Beat synchronous type chord feature amount sequence, HPCP (T) ... Treble feature amount, HPCP (B) ... Base feature value, j ... chord, key ... key, OR1 ... beat point candidate series, OR2 ... beat point candidate series, s ... beat position, XB ... BPM feature quantity, XBC1 ... beat-synchronized chord feature, XBC2 ... beat-synchronized chord feature, XC ... chord feature, XO ... onset feature, ρ (T) ... treble power, ρ (B) Base power

Claims (4)

分析対象としての楽曲の演奏音を表わす音響信号を取り込む音響信号取得手段と、
前記取り込んだ音響信号に基づいて、前記楽曲の複数の拍点候補からなる第1拍点候補系列、及び前記第1拍点候補系列を構成する複数の拍点候補に対してそれぞれ半拍分ずれた複数の拍点候補からなる第2拍点候補系列を検出する拍点候補系列検出手段と、
前記取り込んだ音響信号に基づいて、前記第1拍点系列を構成する複数の拍点候補のうちの隣り合う2つの拍点候補の間のコードの特徴をそれぞれ表わすビート同期型コード特徴量から構成された第1ビート同期型コード特徴量系列を計算するとともに、前記第2拍点系列を構成する複数の拍点候補のうちの隣り合う2つの拍点候補の間のコードの特徴をそれぞれ表わすビート同期型コード特徴量から構成された第2ビート同期型コード特徴量系列を計算するビート同期型コード特徴量系列計算手段と、
前記楽曲のコード進行を表わす確率モデルであって、1小節内の拍数、前記楽曲の調及び最初の拍点の拍子位置の組み合わせに応じて拍点間におけるコードの遷移確率が設定された確率モデルのうち、前記第1ビート同期型コード特徴量系列が所定の基準を満たす確率モデル及び前記第2ビート同期型コード特徴量系列が所定の基準を満たす確率モデルをそれぞれ1つずつ選択し、前記選択した2つの確率モデルのうち尤度が大きい確率モデルに基づいて、前記楽曲の拍点、コード進行、及び小節線の位置を推定する推定手段と、を備えた音響信号分析装置。
An acoustic signal acquisition means for capturing an acoustic signal representing a performance sound of a music piece as an analysis target;
Based on the acquired sound signal, the first beat point candidate series composed of a plurality of beat point candidates of the music and the half beat difference with respect to the plurality of beat point candidates constituting the first beat point candidate series, respectively. Beat point candidate series detecting means for detecting a second beat point candidate series comprising a plurality of beat point candidates;
Consists of beat-synchronized chord feature quantities each representing a chord feature between two adjacent beat point candidates out of a plurality of beat point candidates constituting the first beat point series based on the acquired sound signal Beats representing the chord features between two adjacent beat point candidates out of a plurality of beat point candidates constituting the second beat point series Beat-synchronized code feature value sequence calculating means for calculating a second beat-synchronized code feature value sequence composed of synchronized code feature values;
Probability model representing the chord progression of the music piece, the probability that the chord transition probability between beat points is set according to the combination of the number of beats within one measure, the key of the music piece, and the beat position of the first beat point Among the models, a probability model in which the first beat synchronization type chord feature amount sequence satisfies a predetermined criterion and a probability model in which the second beat synchronization type chord feature amount sequence satisfies a predetermined criterion are selected one by one, An acoustic signal analyzer comprising: estimation means for estimating a beat point, chord progression, and bar line position of the music piece based on a probability model having a high likelihood among the two selected probability models.
請求項1に記載の音響信号分析装置において、
前記ビート同期型コード特徴量計算手段は、
前記隣り合う2つの拍点候補の間に位置する複数の区間ごとにコードの特徴量を表す個度特徴量を計算するコード特徴量計算手段と、
前記隣り合う2つの拍点候補の間に位置する複数の区間のコード特徴量を平滑化することにより、前記ビート同期型コード特徴量を計算するコード特徴量平滑化手段と、を備えた音響信号分析装置。
The acoustic signal analyzer according to claim 1,
The beat synchronization type chord feature quantity calculation means
Code feature amount calculating means for calculating individual feature amounts representing the feature amount of the code for each of a plurality of sections located between the two adjacent beat point candidates;
An acoustic signal comprising: a chord feature amount smoothing unit that calculates the beat synchronous chord feature amount by smoothing chord feature amounts of a plurality of sections located between the two adjacent beat point candidates. Analysis equipment.
請求項1又は2に記載の音響信号分析装置において、
前記拍点候補系列検出手段は、
前記楽曲の各区間における拍の存在に関する特徴を表わす第1特徴量及びテンポに関する特徴を表わす第2特徴量を計算する拍・テンポ特徴量計算手段と、
前記楽曲の各区間における拍の存在に関する物理量及びテンポに関する物理量の組み合わせにより分類された状態の系列として記述された複数の確率モデルのうち、前記第1特徴量及び前記第2特徴量が前記楽曲の各区間において同時に観測される確率を表わす観測尤度の系列が所定の基準を満たす確率モデルを選択することにより、前記楽曲における拍点及びテンポの推移を同時に推定する拍点・テンポ推定手段と、を備えた音響信号分析装置。
In the acoustic signal analyzer according to claim 1 or 2,
The beat point candidate series detecting means includes
Beat / tempo feature amount calculating means for calculating a first feature amount representing a feature relating to the presence of a beat in each section of the music and a second feature amount representing a feature relating to the tempo;
Among the plurality of probability models described as a series of states classified by combinations of physical quantities related to the presence of beats and physical quantities related to tempo in each section of the music piece, the first feature quantity and the second feature quantity are those of the music piece. Beat point and tempo estimation means for simultaneously estimating beat points and tempo transitions in the music piece by selecting a probability model in which a series of observation likelihoods representing the probability observed simultaneously in each section satisfies a predetermined criterion; An acoustic signal analyzing apparatus.
音響信号分析装置が備えるコンピュータに、
分析対象としての楽曲の演奏音を表わす音響信号を取り込む音響信号取得ステップと、
前記取り込んだ音響信号に基づいて、前記楽曲の複数の拍点候補からなる第1拍点候補系列、及び前記第1拍点候補系列を構成する複数の拍点候補に対してそれぞれ半拍分ずれた複数の拍点候補からなる第2拍点候補系列を検出する拍点候補系列検出ステップと、
前記取り込んだ音響信号に基づいて、前記第1拍点系列を構成する複数の拍点候補のうちの隣り合う2つの拍点候補の間のコードの特徴をそれぞれ表わすビート同期型コード特徴量から構成された第1ビート同期型コード特徴量系列を計算するとともに、前記第2拍点系列を構成する複数の拍点候補のうちの隣り合う2つの拍点候補の間のコードの特徴をそれぞれ表わすビート同期型コード特徴量から構成された第2ビート同期型コード特徴量系列を計算するビート同期型コード特徴量系列計算ステップと、
前記楽曲のコード進行を表わす確率モデルであって、1小節内の拍数、前記楽曲の調及び最初の拍点の拍子位置の組み合わせに応じて拍点間におけるコードの遷移確率が設定された確率モデルのうち、前記第1ビート同期型コード特徴量系列が所定の基準を満たす確率モデル及び前記第2ビート同期型コード特徴量系列が所定の基準を満たす確率モデルをそれぞれ1つずつ選択し、前記選択した2つの確率モデルのうち尤度が大きい確率モデルに基づいて、前記楽曲の拍点、コード進行、及び小節線の位置を推定する推定ステップと、を実行させる、コンピュータプログラム。
In the computer provided in the acoustic signal analyzer,
An acoustic signal acquisition step for capturing an acoustic signal representing a performance sound of a music piece as an analysis target;
Based on the acquired sound signal, the first beat point candidate series composed of a plurality of beat point candidates of the music and the half beat difference with respect to the plurality of beat point candidates constituting the first beat point candidate series, respectively. A beat point candidate sequence detecting step for detecting a second beat point candidate sequence comprising a plurality of beat point candidates;
Consists of beat-synchronized chord feature quantities each representing a chord feature between two adjacent beat point candidates out of a plurality of beat point candidates constituting the first beat point series based on the acquired sound signal Beats representing the chord features between two adjacent beat point candidates out of a plurality of beat point candidates constituting the second beat point series A beat-synchronized chord feature amount sequence calculating step for calculating a second beat-synchronized chord feature amount sequence composed of the synchronized chord feature amounts;
Probability model representing the chord progression of the music piece, the probability that the chord transition probability between beat points is set according to the combination of the number of beats within one measure, the key of the music piece, and the beat position of the first beat point Among the models, a probability model in which the first beat synchronization type chord feature amount sequence satisfies a predetermined criterion and a probability model in which the second beat synchronization type chord feature amount sequence satisfies a predetermined criterion are selected one by one, A computer program for executing an estimation step of estimating a beat point, chord progression, and bar line position of the music piece based on a probability model having a high likelihood among the two selected probability models.
JP2013253993A 2013-12-09 2013-12-09 Acoustic signal analysis apparatus and acoustic signal analysis program Active JP6252147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013253993A JP6252147B2 (en) 2013-12-09 2013-12-09 Acoustic signal analysis apparatus and acoustic signal analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013253993A JP6252147B2 (en) 2013-12-09 2013-12-09 Acoustic signal analysis apparatus and acoustic signal analysis program

Publications (2)

Publication Number Publication Date
JP2015114361A true JP2015114361A (en) 2015-06-22
JP6252147B2 JP6252147B2 (en) 2017-12-27

Family

ID=53528240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013253993A Active JP6252147B2 (en) 2013-12-09 2013-12-09 Acoustic signal analysis apparatus and acoustic signal analysis program

Country Status (1)

Country Link
JP (1) JP6252147B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018054855A (en) * 2016-09-28 2018-04-05 カシオ計算機株式会社 Code analysis device, method, and program
CN108780634A (en) * 2016-03-11 2018-11-09 雅马哈株式会社 Audio signal processing method and audio-signal processing apparatus
WO2019017242A1 (en) * 2017-07-19 2019-01-24 ヤマハ株式会社 Musical composition analysis method, musical composition analysis device and program
US10297241B2 (en) 2016-03-07 2019-05-21 Yamaha Corporation Sound signal processing method and sound signal processing apparatus
CN113557565A (en) * 2019-03-22 2021-10-26 雅马哈株式会社 Music analysis method and music analysis device
WO2022181474A1 (en) * 2021-02-25 2022-09-01 ヤマハ株式会社 Acoustic analysis method, acoustic analysis system, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173492A (en) * 2003-12-15 2005-06-30 Yamaha Corp Code progress data generating system and program
JP2008040283A (en) * 2006-08-09 2008-02-21 Kawai Musical Instr Mfg Co Ltd Chord name detecting device and program for chord name detection
JP2010026513A (en) * 2008-07-16 2010-02-04 Honda Motor Co Ltd Robot
JP2010054535A (en) * 2008-08-26 2010-03-11 Kawai Musical Instr Mfg Co Ltd Chord name detector and computer program for chord name detection
JP2010122630A (en) * 2008-11-21 2010-06-03 Sony Corp Information processing device, sound analysis method and program
JP2011095409A (en) * 2009-10-28 2011-05-12 Kawai Musical Instr Mfg Co Ltd Grid detecting device and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173492A (en) * 2003-12-15 2005-06-30 Yamaha Corp Code progress data generating system and program
JP2008040283A (en) * 2006-08-09 2008-02-21 Kawai Musical Instr Mfg Co Ltd Chord name detecting device and program for chord name detection
JP2010026513A (en) * 2008-07-16 2010-02-04 Honda Motor Co Ltd Robot
JP2010054535A (en) * 2008-08-26 2010-03-11 Kawai Musical Instr Mfg Co Ltd Chord name detector and computer program for chord name detection
JP2010122630A (en) * 2008-11-21 2010-06-03 Sony Corp Information processing device, sound analysis method and program
JP2011095409A (en) * 2009-10-28 2011-05-12 Kawai Musical Instr Mfg Co Ltd Grid detecting device and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10297241B2 (en) 2016-03-07 2019-05-21 Yamaha Corporation Sound signal processing method and sound signal processing apparatus
CN108780634A (en) * 2016-03-11 2018-11-09 雅马哈株式会社 Audio signal processing method and audio-signal processing apparatus
DE112017001277T5 (en) 2016-03-11 2018-11-29 Yamaha Corporation A sound signal processing method and a sound signal processing apparatus
US10629177B2 (en) 2016-03-11 2020-04-21 Yamaha Corporation Sound signal processing method and sound signal processing device
JP2018054855A (en) * 2016-09-28 2018-04-05 カシオ計算機株式会社 Code analysis device, method, and program
WO2019017242A1 (en) * 2017-07-19 2019-01-24 ヤマハ株式会社 Musical composition analysis method, musical composition analysis device and program
US11328699B2 (en) 2017-07-19 2022-05-10 Yamaha Corporation Musical analysis method, music analysis device, and program
CN113557565A (en) * 2019-03-22 2021-10-26 雅马哈株式会社 Music analysis method and music analysis device
WO2022181474A1 (en) * 2021-02-25 2022-09-01 ヤマハ株式会社 Acoustic analysis method, acoustic analysis system, and program

Also Published As

Publication number Publication date
JP6252147B2 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
JP6123995B2 (en) Acoustic signal analysis apparatus and acoustic signal analysis program
JP6252147B2 (en) Acoustic signal analysis apparatus and acoustic signal analysis program
JP4322283B2 (en) Performance determination device and program
JP6179140B2 (en) Acoustic signal analysis apparatus and acoustic signal analysis program
JP6187132B2 (en) Score alignment apparatus and score alignment program
US8618401B2 (en) Information processing apparatus, melody line extraction method, bass line extraction method, and program
JP4465626B2 (en) Information processing apparatus and method, and program
JP5088030B2 (en) Method, apparatus and program for evaluating similarity of performance sound
US20100170382A1 (en) Information processing apparatus, sound material capturing method, and program
EP2457232A1 (en) A method and an apparatus for deriving information from an audio track and determining similarity between audio tracks
JP6295794B2 (en) Acoustic signal analysis apparatus and acoustic signal analysis program
JP6123574B2 (en) Code extraction apparatus, method, and program
JP6281211B2 (en) Acoustic signal alignment apparatus, alignment method, and computer program
JP6296221B2 (en) Acoustic signal alignment apparatus, alignment method, and computer program
JP2011022489A (en) Pitch recognition method, pitch recognition program, recording medium and pitch recognition system
JP2018025644A (en) Music key estimation device, and music code progression estimation device
Yu et al. Research on piano performance strength evaluation system based on gesture recognition
JP2015079196A (en) Chord power calculation device, method, program, and chord determination device
JP6372072B2 (en) Acoustic signal analysis apparatus, acoustic signal analysis method, and acoustic signal analysis program
JP7176114B2 (en) MUSIC ANALYSIS DEVICE, PROGRAM AND MUSIC ANALYSIS METHOD
JP2021076699A (en) Fundamental tone extraction device, fundamental tone extraction method, and program
JP2010152381A (en) Device, method, and program for acoustic signal analysis
JP2017116964A (en) Chord extracting device, and method
Bapat et al. Pitch tracking of voice in tabla background by the two-way mismatch method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171113

R151 Written notification of patent or utility model registration

Ref document number: 6252147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350