[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4949687B2 - ビート抽出装置及びビート抽出方法 - Google Patents

ビート抽出装置及びビート抽出方法 Download PDF

Info

Publication number
JP4949687B2
JP4949687B2 JP2006016801A JP2006016801A JP4949687B2 JP 4949687 B2 JP4949687 B2 JP 4949687B2 JP 2006016801 A JP2006016801 A JP 2006016801A JP 2006016801 A JP2006016801 A JP 2006016801A JP 4949687 B2 JP4949687 B2 JP 4949687B2
Authority
JP
Japan
Prior art keywords
beat
music
position information
extraction
power spectrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006016801A
Other languages
English (en)
Other versions
JP2007199306A5 (ja
JP2007199306A (ja
Inventor
功誠 山下
靖 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2006016801A priority Critical patent/JP4949687B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to US12/161,882 priority patent/US8076566B2/en
Priority to KR1020087016468A priority patent/KR101363534B1/ko
Priority to CN2007800035136A priority patent/CN101375327B/zh
Priority to PCT/JP2007/051073 priority patent/WO2007086417A1/ja
Priority to EP07707320A priority patent/EP1978508A1/en
Publication of JP2007199306A publication Critical patent/JP2007199306A/ja
Publication of JP2007199306A5 publication Critical patent/JP2007199306A5/ja
Application granted granted Critical
Publication of JP4949687B2 publication Critical patent/JP4949687B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/071Wave, i.e. Waveform Audio File Format, coding, e.g. uncompressed PCM audio according to the RIFF bitstream format method
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、音楽のリズムのビートを抽出するビート抽出装置及びビート抽出方法に関する。
楽曲は、小節や拍といった時間尺度が基本となって構成されている。このため、演奏家は、小節や拍を基本的な時間尺度として楽曲を演奏する。演奏家は、楽曲を演奏するタイミングを採るに当たり、何小節の何拍目から特定の音を鳴らすという方法で演奏しているのであって、決して、演奏開始から何分何秒後に特定の音を鳴らすといったタイムスタンプを用いた方法で演奏しているのではない。音楽が小節や拍で規定されていることにより、演奏家は、テンポやリズムに揺れがあっても柔軟に対応でき、また、同じ楽譜の演奏でも演奏家毎にテンポやリズムにおいて個性を出すことが可能となる。
演奏家が行う演奏は、最終的に音楽コンテンツとしてユーザの元に届けられる。具体的には、各演奏家の演奏が、例えばステレオの2チャンネルという形でミックスダウンされ、一つの完成パッケージとなる。この完成パッケージは、例えばPCM(Pulse Code Modulation)方式を利用した音楽CD(Compact Disc)としてユーザに届く。この音楽CDにおける音源は、いわゆるサンプリング音源と呼ばれるものである。
このようなCD等のパッケージの段階では、演奏家が意識している小節や拍等のタイミングについての情報が欠落している。
しかし、人間は、このPCM方式における音声波形をD/A(Digital to Analog)変換して得られたアナログ音を聴くだけで、自然に小節や拍といったタイミングについての情報を再認識することができる。すなわち、人間は、音楽のリズムという感覚を自然に取り戻すことができるのである。一方、機械は、このような能力を有しておらず、音楽そのものとは直接関係の無いタイムスタンプという時刻についての情報のみを有する。
このような演奏家による演奏や歌手の歌声により提供される楽曲の比較対象として、従来のカラオケのようなシステムがある。このシステムでは、音楽のリズムに合わせて歌詞をカラオケ用の表示画面に表示する。
しかし、このようなカラオケシステムは、音楽のリズムを認識しているのではなく、MIDI(Music Instrument Digital Interface)と呼ばれる専用データを単に再生しているに過ぎない。
MIDIフォーマットには、シンクロ制御に必要な演奏情報や歌詞情報、発音タイミング(イベント時刻)を記述したタイムコード情報(タイムスタンプ)がMIDIデータとして記述されている。MIDIデータは、コンテンツ制作者により予め作られたものであり、カラオケ再生装置は、MIDIデータの指示に従って、しかるべきタイミングで発音を行っているに過ぎない。言わば、装置が楽曲をその場で生成(演奏)しているのである。これは、MIDIデータとその専用装置という限定的な環境でのみ楽しみを享受できるものである。
なお、MIDIの他にもSMIL(Synchronized Multimedia Integration Language)等、多種多様なフォーマットが存在するが、基本的な考え方は同じである。
ところで、世の中に流通している音楽コンテンツは、MIDIやSMILより、例えばCDに代表されるPCMデータやその圧縮音声であるMP3(MPEG(Moving Picture Experts Group)Audio Layer 3)等、前述したサンプリング音源と呼ばれる生の音声波形を主体としたフォーマットが主流である。
音楽再生装置は、これらのサンプリングされたPCM等の音声波形をD/A変換して出力することにより、ユーザに音楽コンテンツを提供する。また、FMラジオ放送等に見られるように、音楽波形そのもののアナログ信号を放送するという例もある。さらには、コンサート、ライブ演奏等、その場で人が演奏してユーザに提供するという例もある。
もし、機械が音楽の生の音楽波形から、音楽の小節や拍といったタイミングを自動的に認識できたとすれば、MIDIやSMILのイベント時刻情報等のような予め用意された情報がなくとも、カラオケやダンスのように音楽と他のメディアがリズム同期するようなシンクロ機能を実現でき、さらには、膨大な既存のCD等のコンテンツに対しても新たなエンターテインメントの可能性が広がる。
従来から、テンポやビートを自動的に抽出する試みは行われてきている。
例えば、特許文献1には、時系列信号としての音楽波形信号の自己相関を算出し、この算出結果に基いて音楽のビート構造を解析し、さらにこの解析結果に基づいて音楽のテンポを抽出する方法が開示されている。
また、特許文献2には、楽曲データから複数の周波数帯別の音圧データを作成し、その複数の周波数帯の中からリズムを最も顕著に刻む周波数帯を特定し、特定した周波数タイミングの音圧データにおける変化周期に基づいてリズム成分を推定する方法が記載されている。
特開2002−116754公報 特許第3066528号公報
リズム、ビート、テンポ等を算出する技術を大きく分類すると、上記特許文献1のように音楽信号を時間領域で分析するものと、上記特許文献2のように周波数領域で分析するものとに分けられる。
しかし、前者の時間領域で分析するものは、ビートと時間波形とが必ずしも一致するわけではないので、本質的に高い抽出精度が得られない。また、後者の周波数分析を用いるものは、前者よりも比較的抽出精度を向上させる事ができるが、周波数分析により得られたデータの中には、特定の音符におけるビート以外に多くのビートが多く含まれ、全てのビートから特定の音符におけるビートを分離する事が極めて困難である。また、音楽のテンポ(時間周期)自体にも大きな揺らぎがあるため、それらの揺れに追従して、特定の音符におけるビートのみを抽出するのは極めて困難である。
このように、従来の技術では1曲全体に渡って、時間的に揺れている特定の音符におけるビートを抽出する事は不可能であった。
本発明は、このような従来の実情に鑑みて提案されたものであり、テンポが揺れている楽曲に対しても、1曲全体に渡って高精度に特定の音符におけるビートのみを抽出することができるビート抽出装置及びビート抽出方法を提供することを目的とする。
上述した目的を達成するために、本発明に係るビート抽出装置は、楽曲の楽曲信号における時間波形より該楽曲信号のパワースペクトルを算出するパワースペクトル算出手段と、該パワースペクトル算出手段で算出されたパワースペクトルの時間的な変化量を算出し、該変化量を出力する変化量算出手段とを有し、該パワースペクトルの時間的な変化量から該楽曲におけるリズムのビート位置情報を抽出するビート抽出処理手段と、上記ビート抽出処理手段により抽出された上記ビート位置情報を用いてビート周期情報を生成し、該ビート位置情報のビートの内、該ビート周期情報のビート周期と時間的に一致するビートを中心とした時間的なウィンドウ幅を定義し、該ウィンドウ幅内に存在するビートのみを抽出するビート整列処理手段とを備える。
また、上述した目的を達成するために、本発明に係るビート抽出方法は、楽曲の楽曲信号における時間波形より該楽曲信号のパワースペクトルを算出するパワースペクトル算出工程と、該パワースペクトル算出工程で算出されたパワースペクトルの時間的な変化量を算出し、該変化量を出力する変化量算出工程とを有し、該パワースペクトルの時間的な変化量から該楽曲におけるリズムのビート位置情報を抽出するビート抽出処理工程と、上記ビート抽出処理工程にて抽出された上記ビート位置情報を用いてビート周期情報を生成し、該ビート位置情報のビートの内、該ビート周期情報のビート周期と時間的に一致するビートを中心とした時間的なウィンドウ幅を定義し、該ウィンドウ幅内に存在するビートのみを抽出するビート整列処理工程とを有する。
本発明によれば、楽曲におけるリズムのビート位置情報を抽出し、この抽出されて得られたビート位置情報を用いてビート周期情報を生成し、このビート周期情報に基づいて抽出されたビート位置情報のビートを整列することにより、楽曲全体から特定の音符におけるビート位置情報を高精度に抽出することが可能となる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
図1は、本発明に係るビート抽出装置の一実施形態を含む音楽再生装置10の内部構成を示すブロック図である。音楽再生装置10は、例えば、パーソナルコンピュータで構成される。
音楽再生装置10において、システムバス100には、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103とが接続されている。ROM102には各種プログラムが記録されており、CPU101は、ワークエリアとしたRAM103上でこれらのプログラムに基づく処理を実行する。
また、システムバス100には、音データデコード部104と、メディアドライブ105と、通信ネットワークインターフェース(インターフェースは図ではI/Fと記載する。以下同じ。)107と、操作入力部インターフェース109と、ディスプレイインターフェース111と、I/Oポート113及びI/Oポート114と、入力部インターフェース115と、HDD(Hard Disc Drive)121とが接続されている。各機能ブロックで処理される一連のデータは、このシステムバス100を介して他の機能ブロックに供給される。
メディアドライブ105は、CD(Compact Disc)、DVD(Digital Versatile Disc)等のメディア106に記憶されている音楽コンテンツの音楽データを、システムバス100に取り込む。
操作入力部インターフェース109には、キーボード、マウス等の操作入力部110が接続されている。
ディスプレイ112は、例えば、抽出したビートに同期した表示をしたり、抽出したビートに同期して踊る人形やロボットを表示したりすることを想定している。
I/Oポート113には、オーディオ再生部117と、ビート抽出部11とが接続されている。また、I/Oポート114には、ビート抽出部11が接続されている。
入力部インターフェース115には、A/D(Analog to Digital)変換器116Aと、マイクロホン端子116Bと、マイクロホン116Cとを備える入力部116が接続されている。マイクロホン116Cで収音された音声信号や音楽信号は、A/D変換器116Aでデジタルオーディオ信号に変換されて入力部インターフェース115に供給される。入力部インターフェース115は、このデジタルオーディオ信号をシステムバス100に取り込む。システムバス100に取り込まれたデジタルオーディオ信号(時間波形信号に相当)は、HDD121上に.wavファイル等の形式で記録される。この入力部インターフェース115を介して取り込まれたデジタルオーディオ信号は、オーディオ再生部117に直接は供給されない。
音楽データデコード部104は、システムバス100を介してHDD121またはメディアドライブ105から音楽データが供給されると、この音楽データをデコードし、デジタルオーディオ信号を復元する。音楽データデコード部104は、この復元されたデジタルオーディオ信号を、システムバス100を介してI/Oポート113に転送する。I/Oポート113は、システムバス100を介して転送されてくるデジタルオーディオ信号をビート抽出部11及びオーディオ再生部117に供給する。
既存のCD等のメディア106はメディアドライブ105を通して、システムバス100に取り込まれる。リスナーがダウンロード等をすることにより取得されてHDD121に取り込まれている非圧縮音声コンテンツは、直接システムバス100に取り込まれる。一方、圧縮音声コンテンツは、一旦、音データデコード部104を通してシステムバス100に戻される。入力部116から入力部インターフェース115を介してシステムバス100に取り込まれたデジタルオーディオ信号(デジタルオーディオ信号は、音楽の信号に限らず、例えば、人声信号やその他のオーディオ帯域信号を含むものとする)も一旦、HDD121に取り込まれた後、再びシステムバス100に戻される。
本発明を適用した一実施形態における音楽再生装置10では、システムバス100に取り込まれたデジタルオーディオ信号(時間波形信号に相当)は、I/Oポート113に転送され、ビート抽出部11に供給される。
本発明に係るビート処理装置の一実施形態であるビート抽出部11は、楽曲におけるリズムのビート位置情報を抽出するビート抽出処理部12と、ビート抽出処理部12により抽出されて得られたビート位置情報を用いてビート周期情報を生成し、このビート周期情報に基づいて、ビート抽出処理部12により抽出されたビート位置情報のビートを整列するビート整列処理部13とを備える。
図2に示すように、ビート抽出処理部12は、.wavファイルに記録されているデジタルオーディオ信号が供給されると、このデジタルオーディオ信号から粗いビート位置情報を抽出し、結果を.mtyファイルに記録されたメタデータとして出力する。また、ビート整列処理部13は、.mtyファイルに記録されたメタデータの全部、又はテンポが同じと想定される楽曲部分に対応するメタデータを用いて、ビート抽出処理部12により抽出されたビート位置情報を整列し、結果を.mayファイルに記録されたメタデータとして出力する。これにより、段階的に精度の高い抽出ビート位置情報を得ることが可能となる。なお、ビート抽出部11についての詳細は、後述する。
オーディオ再生部117は、D/A変換器117Aと、出力アンプ117Bと、スピーカ117Cとを備える。I/Oポート113は、システムバス100を介して転送されてくるデジタルオーディオ信号を、オーディオ再生部117が備えるD/A変換器117Aに供給する。D/A変換器117Aは、I/Oポート113から供給されたデジタルオーディオ信号をアナログオーディオ信号に変換し、出力アンプ117Bを通じてスピーカ117Cに供給する。スピーカ117Cは、この出力アンプ117Bを通じてD/A変換器117Aから供給されたアナログオーディオ信号を音響再生する。
ディスプレイインターフェース111には、例えば、LCD(Liquid Crystal Display)等からなるディスプレイ112が接続されている。ディスプレイ112には、例えば、音楽コンテンツの音楽データから抽出されたビート成分やテンポ値が表示される。また、ディスプレイ112には、音楽に同期して、例えば、アニメーション画像や歌詞が表示される。
通信ネットワークインターフェース107は、インターネット108に接続されている。音楽再生装置10では、音楽コンテンツの属性情報を記憶するサーバに、インターネット108を介してアクセスし、音楽コンテンツの識別情報を検索ワードとしてその属性情報の取得要求を送り、この取得要求に応じてサーバから送られてくる属性情報を、例えば、HDD121が備えるハードディスクに記憶させる。
音楽再生装置10に適用される音楽コンテンツの属性情報は、楽曲を構成する情報を含む。楽曲を構成する情報は、楽曲の区切りについての情報、楽曲におけるコード、コード単位のテンポ、キー、音量、及び拍子についての情報、楽譜についての情報、コード進行についての情報、歌詞についての情報等、いわゆる曲調が決まる基準となる情報からなる。
ここで、コード単位とは、楽曲の拍、小節等、楽曲に付すコードの単位である。また、楽曲の区切りついての情報は、例えば、楽曲の先頭位置からの相対位置情報やタイムスタンプからなるものである。
本発明を適用した一実施形態における音楽再生装置10が備えるビート抽出部11は、以下に説明するデジタルオーディオ信号の特徴に基づいて、音楽のリズムのビート位置情報を抽出する。
図3(A)は、デジタルオーディオ信号の時間波形の一例を示すものである。この図3(A)に示される時間波形には、所々で瞬間的に大きなピーク値を呈する部分があることがわかる。この大きなピーク値を呈する部分は、例えば、ドラムのビートの一部に相当する部分である。
ところで、図3(A)に示される時間波形を有するデジタルオーディオ信号の時間波形では、隠れていてわからないが、この図3(A)に示される時間波形を有するデジタルオーディオ信号の音楽を実際に聴いてみると、さらに多くのビート成分がほぼ等間隔で含まれていることがわかる。すなわち、図3(A)に示される時間波形の大きなピーク値だけからでは、実際の音楽のリズムのビート成分を抽出することができない。
図3(B)は、図3(A)に示される時間波形を有するデジタルオーディオ信号のスペクトログラムを示すものである。この図3(B)に示されるデジタルオーディオ信号のスペクトログラムでは、図3(A)に示される時間波形において隠れていたビート成分が、パワースペクトルが瞬間的に大きく変化する部分として見えることがわかる。そして、実際に音を聴くと、このスペクトログラムにおけるパワースペクトルが瞬間的に大きく変化する部分が、ビート成分に相当するということがわかる。ビート抽出部11では、このスペクトログラムにおけるパワースペクトルが瞬間的に大きく変化する部分をリズムのビート成分と見なす。
このビート成分を抽出してビート周期を計測することにより、音楽のリズム周期やBPM(Beat Per Minutes)を知ることもできる。
ビート抽出処理部12は、図4に示すように、パワースペクトル算出部12Aと、変化率算出部12Bと、エンベロープフォロア部12Cと、コンパレータ部12Dと、2値化部12Eとを備える。
パワースペクトル算出部12Aには、楽曲の図5(A)に示すような時間波形からなるデジタルオーディオ信号が入力される。
すなわち、音楽データデコード部104から供給されたデジタルオーディオ信号は、ビート抽出処理部12が備えるパワースペクトル算出部12Aに供給される。
パワースペクトル算出部12Aは、時間波形から高精度にビート成分を抽出することができないため、この時間波形に対し、例えば、FFT(Fast Fourier Transform)を用いて図5(B)に示すようなスペクトログラムを算出する。
このFFT演算における分解能は、ビート抽出処理部12へ入力されるデジタルオーディオ信号のサンプリング周波数が48kHzである場合、サンプル数を512サンプル、又は1024サンプルとし、実時間で5〜30msecに設定するのが好ましいが、このFFT演算において設定された各種数値については、これらに限定されない。また、例えば、ハニングやハミング等の窓関数(ウィンドウ関数)をかけながら、且つ、窓(ウィンドウ)をオーバーラップさせながらFFT演算を行うのが一般的に好ましい。
パワースペクトル算出部12Aは、算出したパワースペクトルを変化率算出部12Bに供給する。
変化率算出部12Bは、パワースペクトル算出部12Aから供給されたパワースペクトルの変化率を算出する。すなわち、変化率算出部12Bは、パワースペクトル算出部12Aから供給されたパワースペクトルに対して微分演算を施すことによりパワースペクトルの変化率を算出する。変化率算出部12Bは、時々刻々と変化するパワースペクトルに対して、微分演算を繰り返し施すことにより、図5(C)に示すようなビート抽出波形を示す検出信号を出力する。ここで、図5(C)に示すビート抽出波形の内、正方向に立ち上がるピークをビート成分と見なす。
エンベロープフォロア部12Cは、変化率算出部12Bから検出信号が供給されると、この検出信号に適度な時定数によるヒステリシス特性を加えることにより、この検出信号のチャタリングを除去し、このチャタリングが除去された検出信号をコンパレータ部12Dに供給する。
コンパレータ部12Dは、適度なスレショルドを設け、エンベロープフォロア部12Cから供給された検出信号の低レベルのノイズをカットし、この低レベルのノイズがカットされた検出信号を2値化部12Eに供給する。
2値化部12Eは、コンパレータ部12Dから供給された検出信号の内、閾値以上のレベルを有する検出信号のみを残す2値化処理を行い、P1,P2,及びP3からなるビート成分の時間位置を示すビート位置情報を.mtyファイルに記録されたメタデータとして出力する。
このように、ビート抽出処理部12は、デジタルオーディオ信号の時間波形からビート位置情報を抽出し、.mtyファイルに記録されたメタデータとして出力する。なお、このビート抽出処理部12が備える各構成部には、内部パラメータが存在し、各内部パラメータを変更することで各構成部の動作の効果が変更される。この内部パラメータは、後述するように、自動で最適化されるが、例えば、操作入力部110においてユーザの手動によるマニュアル操作により設定する事も可能である。
ビート抽出処理部12より抽出されて.mtyファイルにメタデータとして記録されている楽曲のビート位置情報のビート間隔は、例えば、図6(A)に示すように、非等間隔であることが多い。
ビート整列処理部13は、ビート抽出処理部12により抽出されたビート位置情報の内、楽曲、又はテンポが同じと想定される楽曲部分におけるビート位置情報の整列処理を行う。
ビート整列処理部13は、ビート抽出処理部12により抽出されて.mtyファイルに記録されているビート位置情報のメタデータから例えば図6(A)のAからA11に示されるような時間間隔が等間隔なビートである等間隔ビートを抽出し、BからBで示されるような非等間隔ビートを抽出しないようにする。本実施の形態における等間隔ビートとは4分音符の間隔で等間隔であるものとする。
ビート整列処理部13は、ビート抽出処理部12により抽出されて.mtyファイルに記録されているビート位置情報のメタデータから高精度な平均周期Tを算出し、平均周期Tと時間間隔が等しいビートを等間隔ビートとして抽出する。
ここで、抽出された等間隔ビートのみでは、図6(A)に示すような空白期間が存在してしまう。このため、ビート整列処理部13は、図6(B)に示すように、本来等間隔ビートが存在する位置に、CからCで示されるような補間ビートを新たに付加する。これにより、全てのビート間隔が等間隔であるビート位置情報を得ることが可能となる。
ビート整列処理部13は、等間隔ビートと位相がほぼ等しいビートをインビートと定義して抽出する。ここで、インビートは、実際の音楽ビートと同期するビートであり、等間隔ビートも含まれる。一方、ビート整列処理部13は、等間隔ビートと位相が全く異なるビートをアウトビートと定義して、これを除外する。アウトビートは、実際の音楽ビート(4分音符ビート)とは同期しないビートである。このため、ビート整列処理部13は、インビートとアウトビートを判別する必要がある。
具体的に、あるビートがインビートであるかアウトビートであるかを判断する方法として、ビート整列処理部13は、図7に示すように、等間隔ビートを中心とした一定のウィンドウ幅Wを定義する。ビート整列処理部13は、ウィンドウ幅Wに含まれるビートをインビートとし、また、ウィンドウ幅Wに含まれないビートをアウトビートと判断する。
また、ビート整列処理部13は、ウィンドウ幅Wに等間隔ビートが含まれていないとき、等間隔ビートを補間するためのビートである補間ビートを付加する。
すなわち、ビート整列処理部13は、例えば、図8に示すように、A11からA20で示されるような等間隔ビートと、等間隔ビートA11と位相がほぼ等しいビートであるインビートD11とをインビートとして抽出するとともに、C11からC13で示されるような補間ビートを抽出する。また、ビート整列処理部13は、B11からB13で示されるようなアウトビートを4分音符ビートとしては抽出しないようにする。
実際、音楽ビートは、時間的に揺らいでいるため、この判断において、揺れが大きい音楽に対しては抽出されるインビート数が少なくなる。この結果、ビートスリップと呼ばれる抽出エラーを引き起こすといった問題が発生する。
そこで、揺れが大きい音楽に対しては、ウィンドウ幅Wの値を大きく設定し直すことで抽出されるインビート数が多くなり、抽出エラーを少なくすることができる。このウィンドウ幅Wは、通常、一定値でよいが、極端に揺れの大きい楽曲に対しては、値を大きくする等、パラメータとして調整を行うことができる。
ビート整列処理部13は、ウィンドウ幅Wに含まれるインビート、一方、ウィンドウ幅Wに含まれないアウトビートというビート属性をメタデータとして与える。また、ビート整列処理部13は、ウィンドウ幅W内に抽出ビートが存在しない場合、自動的に補間ビートを付加し、この補間ビートというビート属性をもメタデータとして与える。これにより、ビート情報を構成するメタデータは、上述したビート位置情報や上記のビート属性といったビート情報が含まれ、メタデータファイル(.may)に記録される。なお、このビート整列処理部13が備える各構成部には、基本ウィンドウ幅W等の内部パラメータが存在し、各内部パラメータを変更することで動作の効果が変更される。
このように、ビート抽出部11は、ビート抽出処理部12及びビート整列処理部13における2段階によるデータ処理により、デジタルオーディオ信号から非常に高精度なビート情報を自動的に抽出することが可能となる。インビート/アウトビート判定のみならず、適切なビート補間処理を加えることにより、1曲全体に渡って、4分音符の等間隔なビート情報を得ることができる。
次に、音楽再生装置10が、本発明に係るビート抽出部11で抽出されたビート位置情報に付随して得られる各種音楽特徴量の計算方法について説明する。
音楽再生装置10は、図9に示すように、ビート抽出部11で抽出された先頭ビートXと最終ビートXのビート位置情報に基づいて、以下に示す数式(1)により総ビート数を算出することができる。
総ビート数=総インビート数+総補間ビート数 (1)
また、音楽再生装置10では、ビート抽出部11で抽出されたビート位置情報に基づいて、以下に示す数式(2)及び数式(3)により、音楽テンポ(平均BPM)を算出することができる。
平均ビート周期[サンプル]=(最終ビート位置−先頭ビート位置)/(総ビート数−1) (2)
平均BPM[bpm]=サンプリング周波数/平均ビート周期×60 (3)
このように、音楽再生装置10では、簡単な四則演算により総ビート数及び平均BPMを得る事ができる。これにより、音楽再生装置10は、この算出された結果を用いて高速且つ低負荷で楽曲のテンポを算出することができる。なお、楽曲のテンポを求める方法は、これに限られない。
この計算方法では、計算精度が音声サンプリング周波数に依存するので、一般的に、有効数字8桁と、非常に高精度な値を得ることができる。また、この計算方法では、万が一、ビート整列処理部13のビート抽出処理中に抽出エラーが生じても、そのエラーレートが数百分の一から数千分の一であるため、得られるBPMは、高精度な値となる。
また、音楽再生装置10は、ビート抽出部11で抽出されたビート位置情報に基づいて、これまで実現不可能であった楽曲の瞬間的なテンポの揺らぎを示す瞬時BPMを算出することができる。音楽再生装置10は、図10に示すように、等間隔ビートの時間間隔を瞬時ビート周期Tとして、以下の数式(4)により、瞬時BPMを算出する。
瞬時BPM[bpm]=サンプリング周波数/瞬時ビート周期T×60 (4)
音楽再生装置10は、1ビート毎にこの瞬時BPMをグラフ化し、ディスプレイインターフェース111を介してディスプレイ112に表示する。ユーザは、この瞬時BPMの分布を実際に聴いている音楽におけるテンポの揺らぎ分布として把握し、例えば、リズムトレーニング、楽曲のレコーディングの際に生じる演奏ミスの把握等に利用する事ができる。
図11は、ライブ録音された楽曲における拍数に対する瞬時BPMを示すグラフである。また、図12は、コンピュータのいわゆる打ち込みにより録音された楽曲における拍数に対する瞬時BPMを示すグラフである。両者を比較してもわかるように、コンピュータ録音された楽曲は、ライブ録音された楽曲よりも揺らぎの時間幅が小さい。これは、コンピュータ録音された楽曲におけるテンポ変動がかなり少ないという性質を有するためである。この性質を利用する事により、これまで不可能であった、ある楽曲がライブ録音されたのか、コンピュータ録音されたのかを自動的に判断することができる。
次に、ビート位置情報の抽出処理をより高精度にする方法について説明する。
ビート抽出部11により抽出されたビート位置情報を示すメタデータは、一般的に、コンピュータの自動認識技術によって抽出されたものであるため、このビート位置情報は、多少の抽出エラーを含む。特に、楽曲によっては、ビートが不均一に大きく揺れるものや、ビート感の極端に乏しいものがある。
そこで、ビート整列処理部13は、ビート抽出処理部12より供給されたメタデータに、このメタデータの信頼度を示す信頼度指標値を付与し、メタデータの信頼度を自動的に判断する。この信頼度指標値は、例えば、以下の数式(5)に示すように、瞬時BPMの分散値に反比例する関数として定義される。
信頼度指標∝1/瞬時BPMの分散値 (5)
これは、一般的に、ビート抽出処理において抽出ミスが生じた場合、瞬時BPMの分散値が大きくなるといった性質があるためである。すなわち、瞬時BPMの分散値が小さい程、信頼度指標値が大きくなるように定義されている。
この信頼度指標値に基づいて、より高精度にビート位置情報を抽出する方法について図13及び図14のフローチャートを用いて説明する。
ビート位置情報の抽出エラーを含む千差万別の楽曲に対して、100%正確に特定のビート位置情報を自動的に取得することは不可能といってもよい。そこで、ビート位置情報の抽出エラーをユーザの手動によるマニュアル操作により修正することができる。抽出エラーを容易に発見して、エラー部分を修正することができれば、修正作業がより効率的になる。
図13は、信頼度指標値に基いてビート位置情報を手動修正する一例の処理手順を示すフローチャートである。
ステップS1において、I/Oポート113よりビート抽出部11が備えるビート抽出処理部12にデジタルオーディオ信号が供給される。
ステップS2において、ビート抽出処理部12は、I/Oポート113より供給されたデジタルオーディオ信号から、ビート位置情報を抽出し、.mtyファイルに記録されたメタデータとしてビート整列処理部13に供給する。
ステップS3において、ビート整列処理部13は、ビート抽出処理部12から供給されたビート位置情報を構成するビートの整列処理を行う。
ステップS4において、ビート整列処理部13は、整列処理が行われたメタデータに付与された信頼度指標値が一定の閾値N(%)以上であるか否かを判断する。このステップS4において、信頼度指標値がN(%)以上である場合は、ステップS6に進み、信頼度指標値がN(%)未満である場合は、ステップS5に進む。
ステップS5において、音楽再生装置10が備えるオーサリングツール(図示せず)にて、ユーザによるビート整列処理における手動修正が行われる。
ステップS6において、ビート整列処理部13は、ビート整列処理が行われたビート位置情報を.mayファイルに記録されたメタデータとしてI/Oポート114に供給する。
また、上記信頼度指標値に基いてビート位置情報の抽出条件を変更することにより、ビート位置情報をより高精度に抽出することができる。
図14は、ビート抽出条件を特定する一例の処理手順を示すフローチャートである。
ビート抽出部11におけるビート抽出処理では、抽出条件を特定する複数の内部パラメータが存在し、そのパラメータ値により抽出精度が変わる。そこで、ビート抽出部11においてビート抽出処理部12及びビート整列処理部13は、複数の内部パラメータがセットになったものを予め用意し、パラメータセット毎にビート抽出処理を行い、上記信頼度指標値を算出する。
ステップS11において、I/Oポート113よりビート抽出部11が備えるビート抽出処理部12にデジタルオーディオ信号が供給される。
ステップS12において、ビート抽出処理部12は、I/Oポート113より供給されたデジタルオーディオ信号から、ビート位置情報を抽出し、.mtyファイルに記録されたメタデータとしてビート整列処理部13に供給する。
ステップS13において、ビート整列処理部13は、ビート抽出処理部12から供給されたメタデータのビート整列処理を行う。
ステップS14において、ビート整列処理部13は、整列処理が完了したメタデータに付与された信頼度指標値が一定の閾値N(%)以上であるか否かを判断する。このステップS14において、信頼度指標値がN(%)以上である場合は、ステップS16に進み、信頼度指標値がN(%)未満である場合は、ステップS15に進む。
ステップS15において、ビート抽出処理部12及びビート整列処理部13は、それぞれ上述したパラメータセットのパラメータを変更し、ステップS12に戻る。ステップS12及びステップS13の工程後、ステップS14において、再び信頼度指標値の判断が行われる。
ステップS14において信頼度指標値がN(%)以上になるまでステップS12からステップS15までの工程は、繰り返される。
このような工程を経ることによって最適なパラメータセットを特定することができ、自動ビート抽出処理の抽出精度を大幅に向上させることができる。
上述したように、本発明に係るビート抽出装置を備えた音楽再生装置10によれば、ビート位置情報といったタイムスタンプ情報を持たないPCM等の音声波形(サンプリング音源)であっても、他のメディアと音楽的に同調させることができる。また、ビート位置情報といったタイムスタンプ情報のデータサイズは、数Kbyteから数十Kbyteであり音声波形のデータサイズの数千分の1と非常に小さいことから、メモリ量や処理工程を削減することができるため、ユーザは、非常に容易に取り扱うことができる。
以上、本発明に係るビート抽出装置を備えた音楽再生装置10によれば、テンポが変更する音楽やリズムに揺れがある音楽に対して、1曲全体に渡って正確にビートを抽出する事ができ、さらには、音楽と他のメディアの同調させることにより、新たなエンターテイメントを創造することが可能となる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、本発明に係るビート抽出装置は、上述したパーソナルコンピュータや携帯型の音楽再生機にのみ適用されるものではなく、如何なる態様の装置や電子機器にも適用することが可能である。
本発明に係るビート抽出装置の一実施形態を含む音楽再生装置の内部構成を示す機能ブロック図である。 ビート抽出部の内部構成を示す機能ブロック図である。 (A)は、デジタルオーディオ信号の時間波形の一例を示す図であり、(B)は、このデジタルオーディオ信号のスペクトログラムを示す図である。 ビート抽出処理部の内部構成を示す機能ブロック図である。 (A)は、デジタルオーディオ信号の時間波形の一例を示す図であり、(B)は、このデジタルオーディオ信号のスペクトログラムを示す図であり、(C)は、このデジタルオーディオ信号のビート抽出波形を示す図である。 (A)は、ビート抽出処理部により抽出されたビート位置情報のビート間隔を示す図であり、(B)は、ビート整列処理部により整列処理されたビート位置情報のビート間隔を示す図である。 特定ビートがインビートか否かを判断するためのウィンドウ幅を示す図である。 ビート位置情報のビート間隔を示す図である。 ビート抽出部で抽出されたビート位置情報に基づいて算出される総ビートを示す図である。 総ビート及び瞬時ビート周期を示す図である。 ライブ録音された楽曲における拍数に対する瞬時BPMを示すグラフである。 コンピュータのいわゆる打ち込みにより録音された楽曲における拍数に対する瞬時BPMを示すグラフである。 信頼度指標値に応じてビート位置情報を修正する一例における処理手順を示すフローチャートである。 ビート抽出条件を自動的に最適化する一例の処理手順を示すフローチャートである。
符号の説明
10 音楽再生装置、11 ビート抽出部、12 ビート抽出処理部、13 ビート整列処理部、100 システムバス、101 CPU、102 ROM、103 RAM

Claims (7)

  1. 楽曲の楽曲信号における時間波形より該楽曲信号のパワースペクトルを算出するパワースペクトル算出手段と、該パワースペクトル算出手段で算出されたパワースペクトルの時間的な変化量を算出し、該変化量を出力する変化量算出手段とを有し、該パワースペクトルの時間的な変化量から該楽曲におけるリズムのビート位置情報を抽出するビート抽出処理手段と、
    上記ビート抽出処理手段により抽出された上記ビート位置情報を用いてビート周期情報を生成し、該ビート位置情報のビートの内、該ビート周期情報のビート周期と時間的に一致するビートを中心とした時間的なウィンドウ幅を定義し、該ウィンドウ幅内に存在するビートのみを抽出するビート整列処理手段と
    を備えるビート抽出装置。
  2. 上記ビート整列処理手段は、上記ウィンドウ幅内にビートが存在しない場合、該ウィンドウ幅内に新たなビートを付加し、該付加されたビートを抽出する請求項1記載のビート抽出装置。
  3. 上記ビート整列処理手段は、上記ビートが整列されたビート位置情報の信頼度を示す指標値を算出して該指標値が一定の閾値以上であるか否かを判断する請求項1記載のビート抽出装置。
  4. 上記ビート抽出処理手段及び上記ビート整列処理手段は、それぞれビート抽出処理条件及びビート整列処理条件を特定する内部パラメータを有し、上記指標値が一定の閾値以上になるまでそれぞれ上記内部パラメータを繰り返し変更する請求項3記載のビート抽出装置。
  5. 上記指標値が一定の閾値以上になるまで上記ビート整列処理手段で整列されたビート位置情報を手動にて修正する修正手段をさらに備える請求項3記載のビート抽出装置。
  6. 上記指標値は、上記ビート位置情報のビート間における瞬時BPMの分散値に反比例する関数である請求項3記載のビート抽出装置。
  7. 楽曲の楽曲信号における時間波形より該楽曲信号のパワースペクトルを算出するパワースペクトル算出工程と、該パワースペクトル算出工程で算出されたパワースペクトルの時間的な変化量を算出し、該変化量を出力する変化量算出工程とを有し、該パワースペクトルの時間的な変化量から該楽曲におけるリズムのビート位置情報を抽出するビート抽出処理工程と、
    上記ビート抽出処理工程にて抽出された上記ビート位置情報を用いてビート周期情報を生成し、該ビート位置情報のビートの内、該ビート周期情報のビート周期と時間的に一致するビートを中心とした時間的なウィンドウ幅を定義し、該ウィンドウ幅内に存在するビートのみを抽出するビート整列処理工程と
    を有するビート抽出方法。
JP2006016801A 2006-01-25 2006-01-25 ビート抽出装置及びビート抽出方法 Expired - Fee Related JP4949687B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2006016801A JP4949687B2 (ja) 2006-01-25 2006-01-25 ビート抽出装置及びビート抽出方法
KR1020087016468A KR101363534B1 (ko) 2006-01-25 2007-01-24 비트 추출 장치 및 비트 추출 방법
CN2007800035136A CN101375327B (zh) 2006-01-25 2007-01-24 节拍提取设备和节拍提取方法
PCT/JP2007/051073 WO2007086417A1 (ja) 2006-01-25 2007-01-24 ビート抽出装置及びビート抽出方法
US12/161,882 US8076566B2 (en) 2006-01-25 2007-01-24 Beat extraction device and beat extraction method
EP07707320A EP1978508A1 (en) 2006-01-25 2007-01-24 Beat extraction device and beat extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006016801A JP4949687B2 (ja) 2006-01-25 2006-01-25 ビート抽出装置及びビート抽出方法

Publications (3)

Publication Number Publication Date
JP2007199306A JP2007199306A (ja) 2007-08-09
JP2007199306A5 JP2007199306A5 (ja) 2008-01-17
JP4949687B2 true JP4949687B2 (ja) 2012-06-13

Family

ID=38309206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006016801A Expired - Fee Related JP4949687B2 (ja) 2006-01-25 2006-01-25 ビート抽出装置及びビート抽出方法

Country Status (6)

Country Link
US (1) US8076566B2 (ja)
EP (1) EP1978508A1 (ja)
JP (1) JP4949687B2 (ja)
KR (1) KR101363534B1 (ja)
CN (1) CN101375327B (ja)
WO (1) WO2007086417A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4465626B2 (ja) * 2005-11-08 2010-05-19 ソニー株式会社 情報処理装置および方法、並びにプログラム
US7956274B2 (en) * 2007-03-28 2011-06-07 Yamaha Corporation Performance apparatus and storage medium therefor
JP4311466B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
JP4467601B2 (ja) * 2007-05-08 2010-05-26 ソニー株式会社 ビート強調装置、音声出力装置、電子機器、およびビート出力方法
JP5266754B2 (ja) * 2007-12-28 2013-08-21 ヤマハ株式会社 磁気データ処理装置、磁気データ処理方法および磁気データ処理プログラム
JP5336522B2 (ja) * 2008-03-10 2013-11-06 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 瞬間的事象を有する音声信号の操作装置および操作方法
US8344234B2 (en) * 2008-04-11 2013-01-01 Pioneer Corporation Tempo detecting device and tempo detecting program
JP5337608B2 (ja) * 2008-07-16 2013-11-06 本田技研工業株式会社 ビートトラッキング装置、ビートトラッキング方法、記録媒体、ビートトラッキング用プログラム、及びロボット
JP2010054530A (ja) * 2008-08-26 2010-03-11 Sony Corp 情報処理装置、発光制御方法およびコンピュータプログラム
US7915512B2 (en) * 2008-10-15 2011-03-29 Agere Systems, Inc. Method and apparatus for adjusting the cadence of music on a personal audio device
JP2010114737A (ja) * 2008-11-07 2010-05-20 Kddi Corp 携帯端末、拍位置修正方法および拍位置修正プログラム
JP5282548B2 (ja) * 2008-12-05 2013-09-04 ソニー株式会社 情報処理装置、音素材の切り出し方法、及びプログラム
JP5582915B2 (ja) * 2009-08-14 2014-09-03 本田技研工業株式会社 楽譜位置推定装置、楽譜位置推定方法および楽譜位置推定ロボット
JP4537490B2 (ja) * 2009-09-07 2010-09-01 株式会社ソニー・コンピュータエンタテインメント オーディオ再生装置およびオーディオ早送り再生方法
TWI484473B (zh) * 2009-10-30 2015-05-11 Dolby Int Ab 用於從編碼位元串流擷取音訊訊號之節奏資訊、及估算音訊訊號之知覺顯著節奏的方法及系統
EP2328142A1 (en) 2009-11-27 2011-06-01 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Method for detecting audio ticks in a noisy environment
US9159338B2 (en) * 2010-05-04 2015-10-13 Shazam Entertainment Ltd. Systems and methods of rendering a textual animation
JP5569228B2 (ja) * 2010-08-02 2014-08-13 ソニー株式会社 テンポ検出装置、テンポ検出方法およびプログラム
JP5594052B2 (ja) * 2010-10-22 2014-09-24 ソニー株式会社 情報処理装置、楽曲再構成方法及びプログラム
US9324377B2 (en) 2012-03-30 2016-04-26 Google Inc. Systems and methods for facilitating rendering visualizations related to audio data
CN103971685B (zh) * 2013-01-30 2015-06-10 腾讯科技(深圳)有限公司 语音命令识别方法和系统
US9411882B2 (en) 2013-07-22 2016-08-09 Dolby Laboratories Licensing Corporation Interactive audio content generation, delivery, playback and sharing
US9756281B2 (en) 2016-02-05 2017-09-05 Gopro, Inc. Apparatus and method for audio based video synchronization
US9697849B1 (en) 2016-07-25 2017-07-04 Gopro, Inc. Systems and methods for audio based synchronization using energy vectors
US9640159B1 (en) 2016-08-25 2017-05-02 Gopro, Inc. Systems and methods for audio based synchronization using sound harmonics
US9653095B1 (en) 2016-08-30 2017-05-16 Gopro, Inc. Systems and methods for determining a repeatogram in a music composition using audio features
JP6500869B2 (ja) * 2016-09-28 2019-04-17 カシオ計算機株式会社 コード解析装置、方法、及びプログラム
US9916822B1 (en) 2016-10-07 2018-03-13 Gopro, Inc. Systems and methods for audio remixing using repeated segments
JP6705422B2 (ja) * 2017-04-21 2020-06-03 ヤマハ株式会社 演奏支援装置、及びプログラム
CN108108457B (zh) * 2017-12-28 2020-11-03 广州市百果园信息技术有限公司 从音乐节拍点中提取大节拍信息的方法、存储介质和终端
JP7343268B2 (ja) * 2018-04-24 2023-09-12 培雄 唐沢 任意信号挿入方法及び任意信号挿入システム
JP7105880B2 (ja) * 2018-05-24 2022-07-25 ローランド株式会社 ビート音発生タイミング生成装置
CN109256146B (zh) * 2018-10-30 2021-07-06 腾讯音乐娱乐科技(深圳)有限公司 音频检测方法、装置及存储介质
CN111669497A (zh) * 2020-06-12 2020-09-15 杭州趣维科技有限公司 一种移动端自拍时音量驱动贴纸效果的方法
CN113411663B (zh) * 2021-04-30 2023-02-21 成都东方盛行电子有限责任公司 一种用于非编工程中的音乐节拍提取方法
CN113590872B (zh) * 2021-07-28 2023-11-28 广州艾美网络科技有限公司 跳舞谱面生成的方法、装置以及设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6199710A (ja) 1984-10-19 1986-05-17 富士バルブ株式会社 2つの部材の固定方法
JPH0366528A (ja) 1989-08-02 1991-03-22 Fujitsu Ltd ロボットハンド
JP3433818B2 (ja) * 1993-03-31 2003-08-04 日本ビクター株式会社 楽曲検索装置
JP3066528B1 (ja) 1999-02-26 2000-07-17 コナミ株式会社 楽曲再生システム、リズム解析方法及び記録媒体
JP4186298B2 (ja) 1999-03-17 2008-11-26 ソニー株式会社 リズムの同期方法及び音響装置
KR100365989B1 (ko) * 2000-02-02 2002-12-26 최광진 가상 음악 영상 시스템 및 그 시스템의 영상 표시 방법
US7035873B2 (en) * 2001-08-20 2006-04-25 Microsoft Corporation System and methods for providing adaptive media property classification
JP3789326B2 (ja) 2000-07-31 2006-06-21 松下電器産業株式会社 テンポ抽出装置、テンポ抽出方法、テンポ抽出プログラム及び記録媒体
EP1244093B1 (en) * 2001-03-22 2010-10-06 Panasonic Corporation Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus and methods and programs for implementing the same
JP4027051B2 (ja) * 2001-03-22 2007-12-26 松下電器産業株式会社 楽曲登録装置、楽曲登録方法、及びそのプログラムと記録媒体
US6518492B2 (en) * 2001-04-13 2003-02-11 Magix Entertainment Products, Gmbh System and method of BPM determination
DE10123366C1 (de) 2001-05-14 2002-08-08 Fraunhofer Ges Forschung Vorrichtung zum Analysieren eines Audiosignals hinsichtlich von Rhythmusinformationen
CN1206603C (zh) * 2001-08-30 2005-06-15 无敌科技股份有限公司 音乐音频产生方法与播放系统
JP4646099B2 (ja) * 2001-09-28 2011-03-09 パイオニア株式会社 オーディオ情報再生装置及びオーディオ情報再生システム
JP3674950B2 (ja) * 2002-03-07 2005-07-27 ヤマハ株式会社 音楽データのテンポ推定方法および装置
JP4243682B2 (ja) 2002-10-24 2009-03-25 独立行政法人産業技術総合研究所 音楽音響データ中のサビ区間を検出する方法及び装置並びに該方法を実行するためのプログラム

Also Published As

Publication number Publication date
EP1978508A1 (en) 2008-10-08
KR101363534B1 (ko) 2014-02-14
KR20080087112A (ko) 2008-09-30
CN101375327A (zh) 2009-02-25
WO2007086417A1 (ja) 2007-08-02
US8076566B2 (en) 2011-12-13
US20090056526A1 (en) 2009-03-05
JP2007199306A (ja) 2007-08-09
CN101375327B (zh) 2012-12-05

Similar Documents

Publication Publication Date Title
JP4949687B2 (ja) ビート抽出装置及びビート抽出方法
US7534951B2 (en) Beat extraction apparatus and method, music-synchronized image display apparatus and method, tempo value detection apparatus, rhythm tracking apparatus and method, and music-synchronized display apparatus and method
KR101292698B1 (ko) 메타데이터 부여 방법 및 장치
US7582824B2 (en) Tempo detection apparatus, chord-name detection apparatus, and programs therefor
US7613612B2 (en) Voice synthesizer of multi sounds
JP2012103603A (ja) 情報処理装置、楽曲区間抽出方法、及びプログラム
WO2017035471A1 (en) Looping audio-visual file generation based on audio and video analysis
JP6047985B2 (ja) 伴奏進行生成装置及びプログラム
US20170047094A1 (en) Audio information processing
Monti et al. Monophonic transcription with autocorrelation
US8612031B2 (en) Audio player and audio fast-forward playback method capable of high-speed fast-forward playback and allowing recognition of music pieces
JPH07295560A (ja) Midiデータ編集装置
JP2005107329A (ja) カラオケ装置
JP3750533B2 (ja) 波形データ録音装置および録音波形データ再生装置
JP5012263B2 (ja) 演奏クロック生成装置、データ再生装置、演奏クロック生成方法、データ再生方法およびプログラム
JP5782972B2 (ja) 情報処理システム,プログラム
JP4048249B2 (ja) カラオケ装置
Driedger Time-scale modification algorithms for music audio signals
JP4537490B2 (ja) オーディオ再生装置およびオーディオ早送り再生方法
JP5879813B2 (ja) 複数音源の識別装置および複数音源に連動する情報処理装置
JP5338312B2 (ja) 自動演奏同期装置、自動演奏鍵盤楽器およびプログラム
JP2005107332A (ja) カラオケ装置
Bhatta et al. Laya Estimation for Hindustani Classical Vocals, Devoid of Rhythmic Indicators
CN114677995A (zh) 音频处理方法、装置、电子设备及存储介质
KR20080051896A (ko) 가라오케 시스템에서의 노래 점수 계산장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4949687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees