[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009020387A - 楽曲を制作するための装置およびプログラム - Google Patents

楽曲を制作するための装置およびプログラム Download PDF

Info

Publication number
JP2009020387A
JP2009020387A JP2007184052A JP2007184052A JP2009020387A JP 2009020387 A JP2009020387 A JP 2009020387A JP 2007184052 A JP2007184052 A JP 2007184052A JP 2007184052 A JP2007184052 A JP 2007184052A JP 2009020387 A JP2009020387 A JP 2009020387A
Authority
JP
Japan
Prior art keywords
data
music
sudden change
phoneme
change point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007184052A
Other languages
English (en)
Other versions
JP5130809B2 (ja
Inventor
Takuya Fujishima
琢哉 藤島
Naoaki Kojima
尚明 小島
Kiyohisa Sugii
清久 杉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007184052A priority Critical patent/JP5130809B2/ja
Priority to EP08160001A priority patent/EP2015288A3/en
Priority to US12/218,163 priority patent/US7728212B2/en
Publication of JP2009020387A publication Critical patent/JP2009020387A/ja
Application granted granted Critical
Publication of JP5130809B2 publication Critical patent/JP5130809B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】 所望の音素片データを繋ぎ合わせて楽曲制作を行う際の音素片データの選択作業を容易にする。
【解決手段】 解析部110は、RAM7に記憶された楽曲データを解析して、楽曲データにおける音の態様の急変点を示す急変点データを含む楽曲構成データを生成する。表示制御部121は、楽曲データを急変点により区切ることにより得られる各音素片データを各々の複雑さの順に表示部3にメニュー表示させる。操作部4は、表示部3にメニュー表示された音素片データを選択する操作と音素片データの時間軸上の位置を指示する操作を受け付ける。合成部122は、操作部4の操作により選択された音素片データが操作部4の操作により指示された時間軸上の位置に配置された楽曲データを合成する。
【選択図】図1

Description

この発明は、音素片の連結により楽曲を制作する装置およびプログラムに関する。
楽曲制作に関する技術として、オーディオモザイキングと呼ばれる技術がある。このオーディオモザイキング技術では、各種の楽曲を時間長の短い音素片に分割し、各音素片の波形を示す音素片データを集めて音素片データベースを構成する。そして、この音素片データベースの中から所望の音素片データを選択し、選択した音素片データを時間軸上において繋ぎ合わせ、新規な楽曲を編集する。なお、この種の技術に関する文献として、例えば非特許文献1がある。
Ari Lazier, Perry Cook、"MOSIEVIUS: FEATURE DRIVEN INTERACTIVE AUDIO MOSAICING"、[on line]、Proc of the 6th Int. Conference onDigital Audio Effects (DAFx-03), London, UK, September 8-11, 2003、[平成19年3月6日検索]、インターネット<URL:http://soundlab.cs.princeton.edu/publications/mosievius_dafx_2003.pdf> Bee Suan Ong, Emilia Gomez, SebastianStreich、"Automatic Extraction of Musical StructureUsing Pitch Class Distribution Features"、[online]、Learning the Semantics of Audio Signals (LSAS) 2006、[平成19年3月2日検索]、インターネット<URL:http://irgroup.cs.uni-magdeburg.de/lsas2006/proceedings/LSAS06_053_065.pdf>
ところで、表現力豊かな楽曲データを得るためには、様々な特徴を持った多くの種類の音素片データを予め用意しておき、それらの中の適切なものを選択して繋ぎ合わせる必要がある。しかし、膨大な音素片データの中から所望の音素片データを探し出す作業は大変であるという問題がある。
この発明は、以上説明した事情に鑑みてなされたものであり、所望の音素片データを繋ぎ合わせて楽曲制作を行う際の音素片データの選択作業を容易にした楽曲制作装置およびプログラムを提供することを目的としている。
この発明は、音の波形を示す楽曲データを記憶する記憶手段と、前記記憶手段に記憶された楽曲データを解析して、楽曲データにおける音の態様の急変点を求める解析手段と、表示手段と、前記記憶手段に記憶された楽曲データを前記急変点により分割することにより得られる各音素片データを各々の複雑さの順に前記表示手段にメニュー表示させる表示制御手段と、前記表示手段にメニュー表示された音素片データを選択する操作と音素片データの時間軸上の位置を指示する操作を受け付ける操作手段と、前記操作手段の操作により選択された音素片データが前記操作手段の操作により指示された時間軸上の位置に配置された楽曲データを合成する合成手段とを具備することを特徴とする楽曲制作装置およびコンピュータを上記各手段として機能させるコンピュータプログラムを提供する。
かかる発明によれば、楽曲データが急変点において音素片データに分割され、楽曲制作の素材としての各音素片データを示すメニューが表示手段に表示される。その際、各音素片データを示すメニューは、音素片データの複雑さ順に表示手段に表示される。従って、ユーザは、所望の音素片データを容易に見つけ出すことができる。
以下、図面を参照し、この発明の実施の形態を説明する。
図1はこの発明の一実施形態である楽曲制作装置の構成を示すブロック図である。この楽曲制作装置は、例えばパーソナルコンピュータなどのコンピュータにこの発明の一実施形態である楽曲制作プログラムをインストールしたものである。
図1において、CPU1は、この楽曲制作装置の各部を制御する制御中枢である。ROM2は、ローダなど、この楽曲制作装置の基本的な動作を制御するための制御プログラムを記憶した読み出し専用メモリである。
表示部3は、装置の動作状態や入力データおよび操作者に対するメッセージなどを表示するための装置であり、例えば液晶デスプレイパネルとその駆動回路により構成されている。操作部4は、ユーザからコマンドや各種の情報を受け取るための手段であり、各種の操作子により構成されている。好ましい態様において、操作部4は、キーボードと、マウスなどのポインティングデバイスを含む。
インタフェース群5は、ネットワークを介して他の装置との間でデータ通信を行うためのネットワークインタフェースや、磁気ディスクやCD−ROMなどの外部記憶媒体との間でデータの授受を行うためのドライバなどにより構成されている。
HDD(ハードディスク装置)6は、各種のプログラムやデータベースなどの情報を記憶するための不揮発性記憶装置である。RAM7は、CPU1によってワークエリアとして使用される揮発性メモリである。CPU1は、操作部4を介して与えられる指令に従い、HDD6内のプログラムをRAM7にロードして実行する。
サウンドシステム8は、この楽曲制作装置において編集された楽曲または編集途中の楽曲を音として出力する手段であり、音のサンプルデータであるデジタル音声信号をアナログ音声信号に変換するD/A変換器と、このアナログ音声信号を増幅するアンプと、このアンプの出力信号を音として出力するスピーカ等により構成されている。本実施形態において、このサウンドシステム8と、上述した表示部3および操作部4は、楽曲の制作に関連した情報をユーザに提供するとともに、楽曲の制作に関する指示をユーザから受け取るユーザインタフェースとしての役割を果たす。
HDD6に記憶される情報として、楽曲制作プログラム61と、1または複数の楽曲データファイル62とがある。
楽曲データファイル62は、楽曲における演奏音やボーカル音のオーディオ波形の時系列サンプルデータである楽曲データを含むファイルである。好ましい態様において、楽曲制作プログラム61や楽曲データファイル62は、例えばインターネット内のサイトからインタフェース群5の中の適当なものを介してダウンロードされ、HDD6にインストールされる。また、他の態様において、楽曲制作プログラム61や楽曲データファイル62は、CD−ROM、MDなどのコンピュータ読み取り可能な記憶媒体に記憶された状態で取引される。この態様では、インタフェース群5の中の適当なものを介して記憶媒体から楽曲制作プログラム61や楽曲データファイル62が読み出され、HDD6にインストールされる。
楽曲制作プログラム61は、大別して、解析部110と、制作部120とにより構成されている。解析部110は、操作部4の操作により指定された楽曲データファイル62内の楽曲データをRAM7にロードして解析し、楽曲構成データをRAM7内に生成するルーチンである。この楽曲構成データは、楽曲データにおいて音の態様が急変する時刻である急変点を示す急変点データと、楽曲データにおいて急変点により分割された各区間の音素片データの音楽的特徴を示す音楽的特徴データとを含む。本実施形態において、急変点の重要度には、レベル1〜3の3段階があり、レベル1が最も重要度が低く、レベル3が最も重要度が高い。急変点データは、楽曲の先頭を基準とした急変点の位置を示す情報の他に、急変点の重要度がレベル1〜3のいずれであるかを示す情報を含む。各急変点の重要度をどのように定めるかについては幾つかの態様があるが、詳細については後述する。また、解析部110は、急変点により区切られた区間の音素片の構成の複雑さを示す情報を求める。急変点データは、その急変点データが示す急変点から始まる音素片の構成の複雑さに関する情報を含む。
制作部120は、RAM7内の楽曲データをこの楽曲データに対応した楽曲構成データ内の急変点データが示す急変点において分割して、複数の音素片データとし、操作部4を介して得られる指示に従い、音素片データを選択して繋ぎ合わせ、新たな楽曲データを合成するルーチンである。
制作部120は、表示制御部121と、合成部122とを含む。ここで、表示制御部121は、RAM7の楽曲データを楽曲構成データ内の急変点データに基づいて複数の音素片データに分割し、各音素片データを示すメニューを、音素片の構造が簡単なものから複雑なものへと移行するように、音素片の複雑さの順に並べて表示部3に表示させるルーチンである。ここで、各音素片データを示すメニューは、その音素片データに対応付けられた音楽的特徴データを示すマークを伴う。また、本実施形態では、ユーザは、操作部4の操作により楽曲データの分割に用いる急変点データの条件として、急変点の重要度のレベルを指定することができる。この場合、表示制御部121は、楽曲構成データ内の急変点データのうち、指定されたレベルに対応したものを用いて、楽曲データから音素片データへの分割を行う。
合成部122は、いわゆるグリッドシーケンサである。本実施形態における合成部122は、RAM7内に時系列の波形データである楽曲データを格納するための楽曲トラックを確保するとともに、この楽曲トラックの時間軸の目盛りを示すグリッドを表示部3に表示させる。そして、合成部122は、操作部4(具体的にはポインティングデバイス)の操作により表示部3に表示された1つの音素片データのメニューが選択されると、RAM7内の楽曲構成データを参照することにより、RAM7内の楽曲データのうち操作部4の操作により選択された音素片データが所在する区間を求める。そして、その区間の音素片データをRAM7内の楽曲データの中から切り出して読み出す。また、操作部4の操作により表示部3上の1つのグリッドが指示されると、RAM7内の楽曲トラックにおいて、この指示されたグリッドに対応したアドレスから始まる連続したエリアに、音素片データを格納する。合成部122は、このような処理を操作部4の操作に従って繰り返し、各種の音素片データを繋ぎ合わせた新規な楽曲データをRAM7内の楽曲トラック内に生成する。
本実施形態において、新たな楽曲データは、1個の楽曲データを急変点において分割した音素片データを用いて合成する他、複数の楽曲データの各々を急変点において分割した音素片データを用いて合成することも可能である。後者の場合、ユーザは、操作部4の操作により、複数の楽曲データファイル62を指定する。この場合、解析部110は、指定された複数の楽曲データファイル62内の各楽曲データをRAM7内に取り込み、各楽曲データについて楽曲構成データを生成し、元の楽曲データに対応付けてRAM7内に格納する。そして、表示制御部121は、各楽曲データを、各々に対応した楽曲構成データ内の急変点データに基づいて複数の音素片データに分割し、各音素片データを示すメニューを音素片の複雑さ順に並べて表示部3に表示させる。この場合の表示の態様には各種考えられるが、例えば横方向に各楽曲の音素片データのメニューが並び、縦方向に各メニューが音素片データの複雑さ順に並ぶようにしてもよい。合成部122の動作は、元の楽曲データが1種類である場合と同様である。
次に本実施形態の動作について説明する。ユーザは、楽曲データの制作を行う場合、操作部4の操作により、楽曲制作プログラム61の起動を指令する。これによりCPU1は、楽曲制作プログラム61をRAM7内にロードして実行する。そして、ユーザが操作部4の操作により、HDD6内のある楽曲データファイル62を指定すると、楽曲制作プログラム61の解析部110は、その楽曲データファイル62をRAM7内にロードして解析し、楽曲構成データを生成する。
解析部110は、楽曲データから楽曲構成データを生成するため、楽曲データが示すオーディオ波形の音の態様の急変点を検出する。この急変点の検出方法には、各種の態様があり得る。ある態様において、解析部110は、楽曲データが示すオーディオ波形を一定時間長のフレーム毎に複数の周波数帯域に分割し、各帯域の瞬時パワーを成分とするベクトルを求める。そして、図2に示すように、各フレームにおいて、そのフレームにおける各帯域の瞬時パワーを成分とするベクトルと、過去数フレームにおける各ベクトルの加重平均ベクトルとの類否計算を行う。ここで、加重平均ベクトルは、例えば図示のように、指数関数を用い、過去になるほど減少する指数関数値を過去数フレームの各ベクトルに乗算して加算することにより得ることができる。そして、解析部110は、各フレームにおいて、そのフレームのベクトルと過去数フレームの加重平均ベクトルとの類似度に顕著な負のピークが発生した場合にそのフレームを急変点とする。
類否計算では、対比する両ベクトルのユークリッド距離のほか、cosine角など、一般に距離尺度として知られる任意のものを類否の尺度として用いることが可能である。あるいは、正規化した両ベクトルを確率分布とみなし、両確率分布間のKL情報量を両ベクトルの類否指標として良い。あるいは「一帯域でも顕著な変化が見られた場合は急変点とする」という基準を適用しても良い。
また、急変点を求めるに当たり、楽曲データの帯域分割を行わず、楽曲データが示す音量が急変する点を急変点としてもよい。
また、解析部110は、楽曲データから急変点を検出する際に、各急変点について、その重要度のレベルを決定する。ある好ましい態様において、解析部110は、類否計算において得られた急変点における類似度を3種類の閾値と比較することにより、重要度のレベルを決定する。すなわち、類似度が第1の閾値を下回り、かつ、第1の閾値より低い第2の閾値以上であるときにはレベル1、第2の閾値を下回り、かつ、第2の閾値より低い第3の閾値以上であるときにはレベル2、第3の閾値を下回るときにはレベル3という具合に重要度を決定するのである。
他の態様において、解析部110は、各々異なる方法により、レベル1〜3の急変点を求める。図3は、その例を示すものである。この図3に示す例では、上述した帯域分割と帯域成分のベクトル間の類否計算を用いた方法により楽曲データにおけるレベル1の急変点を決定し、このレベル1の急変点のうち楽曲データが示すオーディオ波形に明確な立ち上がりが現れる点をレベル2の急変点とし、このレベル2の急変点のうち楽曲の構成上、拍点や小節境界という点でも楽曲全体のレベルで明確な区切りとなっているものをレベル3の急変点としている。
さらに詳述すると、図3の最上段には、楽曲データが示すオーディオ波形のスペクトログラムが示されるとともに、レベル1の急変点がスペクトログラムを上下に横切る直線により示されている。この急変点は、上述した帯域分割とベクトル間の類否計算を用いた方法により求めたものである。この例では、楽曲データが示すオーディオ波形の成分を低域L、中域M、高域Hの3つの帯域に分割している。また、低域Lは、バスドラム音やベースギター音を捉えることができる0〜500Hzの帯域、中域Mは、スネアドラム音を捉えることができる500〜450Hzの帯域、高域Hは、ハイハットシンバル音を捉えることができる450Hz以上の帯域としている。
図3の中段には、楽曲データが示すオーディオ波形が示されるとともに、レベル2の急変点がオーディオ波形を上下に横切る直線により示されている。これらのレベル2の急変点は、レベル1の急変点のうち楽曲データが示すオーディオ波形に明確な立ち上がりが現れる点となっている。
そして、図3の下段には、レベル3の急変点が水平方向に延びたストライプを区切る直線により示されている。本実施形態では、この重要度の最も高いレベル3の急変点により楽曲データを分割した各音素片データをクラスと呼ぶ。
本実施形態において、新たな楽曲データの合成は、特にユーザからの指定がない限り、クラス単位で音素片データを繋ぎ合わせることにより行う。このため、レベル3の急変点は、楽曲の構成を反映したものである必要がある。レベル3の急変点が楽曲の構成を反映したものとなるようにするため、好ましい態様では、周知のアルゴリズムにより拍点や小節線を検出し、レベル2の急変点のうち拍点や小節線の最近傍のものをレベル3の急変点とする。その他、楽曲データから楽曲のコードシーケンスを求め、レベル2の急変点のうちコードシーケンスにおけるコードの切り換わり点の最近傍のものを用いてもよい。コードシーケンスを求めるための方法としては、例えば次のような方法が考えられる。
まず、例えばレベル1の急変点での分割により得られた各音素片データから、例えばHPCP(Harmonic
Pitch Class Profile)情報等の音のハーモニー感を示すハーモニー情報を抽出し、ハーモニー情報列H(k)(k=0〜n−1)とする。ここで、kは楽曲の先頭からの時間に相当するインデックスであり、0は曲の先頭位置、n−1は曲の終了位置に相当する。そして、このn個のハーモニー情報H(k)(k=0〜n−1)の中から任意の2個のハーモニー情報H(i)およびH(j)を取り出して、両者間の類似度L(i,j)を算出する。この操作をi=0〜n−1およびj=0〜n−1の範囲内の全てのi,jの組み合わせについて実施し、図4(a)に示すようにn行n列の類似度マトリックスL(i,j)(i=0〜n−1、j=0〜n−1)を作成する。
次にこの類似度マトリックスL(i,j)(i=0〜n−1、j=0〜n−1)の一部である三角マトリックスL(i,j)(i=0〜n−1、j≧i)において、類似度L(i,j)が閾値以上である連続した領域を求める。図4(b)において、黒い太線で示した領域はこの操作により得られた類似度の高い連続領域(以下、便宜上、高類似度連続領域という)を例示するものである。本実施形態では、このような高類似度連続領域が複数得られた場合に、i軸上における高類似度連続領域の占有範囲の重複関係に基づいて、ハーモニー情報列H(k)(k=0〜n−1)において繰り返し現れるハーモニー情報のパターンを見つける。
例えば図4(b)に示す例において、類似度マトリックスL(i,j)(i=0〜n−1、j=0〜n−1)は、同じハーモニー情報間の類似度の集まりである高類似度連続領域L0の他に、高類似度連続領域L1およびL2を含む。ここで、高類似度連続領域L1は、曲の途中の区間のハーモニー情報列H(j)(j=k2〜k4−1)が曲の先頭から始まる区間のハーモニー情報列H(i)(i=0〜k2−1)と類似していることを示している。また、高類似度連続領域L2は、曲において高類似度連続領域L1に対応した区間の直後の区間のハーモニー情報列H(j)(j=k4〜k5−1)が曲の先頭から始まる区間のハーモニー情報列H(i)(i=0〜k1)と類似していることを示している。
これらの高類似度連続領域L1、L2のi軸上での占有範囲の重複関係に着目すると、次のことが分かる。まず、高類似度連続領域L1に対応した区間のハーモニー情報列H(j)(j=k2〜k4−1)は、曲の先頭から始まる区間のハーモニー情報列H(i)(i=0〜k2−1)と類似しているが、その一部の区間のハーモニー情報列H(i)(i=0〜k1−1)は高類似度連続領域L2に対応した区間のハーモニー情報列H(j)(j=k4〜k5−1)とも類似している。すなわち、曲の先頭から始まるハーモニー情報列H(i)(i=0〜k2−1)の出所である区間は、前半区間Aおよび後半区間Bに分かれており、高類似度連続領域L1に対応した区間では、区間AおよびBと同じコードが繰り返され、高類似度連続領域L2では区間Aと同じコードが繰り返されていると推定される。
次に高類似度連続領域L2に対応した区間の後のハーモニー情報列H(j)(j=k5〜n−1)は、先行するハーモニー情報列H(i)(i=0〜k5−1)のうちいずれの区間のものとも類似していない。そこで、ハーモニー情報列H(j)(j=k5〜n−1)を新たな区間Cと判定する。
解析部110は、以上のような処理により、ハーモニー情報列H(k)(k=0〜n−1)を各種のコードに対応した区間(図4(b)に示す例では、区間A、B、A、B、A、C)に区切り、各区間に属するハーモニー情報に基づき、各区間において演奏されているコードを求める。このようにして時間軸上におけるコードの切り換わり点を求めることができる。このコードの切り換わり点の最近傍のレベル2の急変点をレベル3の急変点とするのである。なお、このようなハーモニー情報に基づくコードシーケンスの生成方法は例えば非特許文献2に開示されている。
以上のような拍点検出、小節線検出、コードシーケンス検出などを用いる代わりに、レベル2の急変点により区切られた各区間について、音の高低感を表すSpectral Centroid、音量感を表すLoudness、音の聴感上の明るさを表すBrightness、聴感上のザラザラ感を示すNoisiness等の特徴量を求め、各区間の特徴量の分布の比較によりレベル3の急変点を求める方法も考えられる。
例えば、まず、楽曲の先頭から見て最初のレベル2の急変点を選択する。そして、楽曲データにおいて、楽曲の先頭と最初のレベル2の急変点とにより挟まれた内側の区間の特徴量の平均および分散と、最初のレベル2の急変点以降の区間の特徴量の平均および分散を求め、内側の区間における特徴量の分布と外側の区間における特徴量の分布との隔たりを求める。そして、内側の区間の終点であるレベル2の急変点を2番目の急変点、3番目の急変点、…という具合に変更し、同様なことを繰り返す。このようにして内側の区間の終点を各種変えて、内側の区間における特徴量の分布と外側の区間における特徴量の分布との隔たりを求め、最大の隔たりが得られるレベル2の急変点を最初のレベル3の急変点とする。次にこの最初のレベル3の急変点を内側の区間の始点とする。そして、内側の区間の終点を内側の区間の始点以降のレベル2の急変点の中から順次選択し、内側の区間における特徴量の分布と外側の区間における特徴量の分布との隔たりを求め、最大の隔たりが得られるレベル2の急変点を2番目のレベル3の急変点とする。以下、同様の手順により、3番目以降のレベル3の急変点を求めるのである。
以上の他、解析部110は、図3に例示するように、スペクトログラムおよびレベル1の急変点と、オーディオ波形およびレベル2の急変点を表示部3に表示させた状態において、例えばポインティングデバイスの操作等によりレベル2の急変点の中からレベル3の急変点とするものをユーザに選択させてもよい。
解析部110は、以上のようにしてレベル1〜3の急変点を求めることに加え、楽曲データをレベル1の急変点により分割して得られる各音素片データについて、各々が有する音楽的特徴を示す音楽的特徴量データを生成する。
本実施形態における解析部110は、音素片データが以下列挙する音楽的特徴を有するか否かを判定し、肯定的な判定結果が得られた場合にその音楽的特徴を示す音楽的特徴データを生成する。
blank:これは完全に無音であるか、または顕著な高域成分を持っていないという特徴である。LPFを通過させた後のオーディオ信号は、このblankという音楽的特徴を持つ。
edge:これはパルシブまたはアタック感を与える音楽的特徴である。edgeなる音楽的特徴が現れる例として次の2つの例がある。まず、バスドラム音は、高域成分がなくても、edgeなる音楽的特徴を持つ。また、ある音素片データのスペクトログラムにおいて、15kHzまで、暗部(パワースペクトルの弱い部分)と明部(パワースペクトルの強い部分)とを隔てる明瞭な区切りがある場合、その音素片はedgeなる音楽的特徴を持つ。
rad:音素片データが中域(特に2.5kHz付近)に鋭いスペクトルのピークを持つとき、その音素片データは、radなる音楽的特徴を持つ。このradなる音楽的特徴を持つ部分は音の始点と終点との間の中央に位置する。この部分は、広い帯域の成分を含んでおり、フィルタ処理により多彩な音色変化を与えることができるので、音楽制作において有用な部分である。
flat:これはコードが明瞭であるという音楽的特徴である。例えば上述したHPCPによりflatか否かを判定することができる。
bend:これは、音素片データのピッチが明瞭にある方向に変化しているという音楽的特徴である。
voice:これは人間の声らしいという音楽的特徴である。
dust:これは雑音のようであるという音楽的特徴である。dustな音素片データは、ピッチを持つ場合もあるが、雑音の方が顕著である。例えばハイハットシンバル音のサスティン部はdustなる音楽的特徴を持つ。なお、ハイハットシンバル音の立ち上がり部分はedgeなる音楽的特徴を持つ。
さらに解析部110は、RAM7内の楽曲データを急変点において区切った各音素片データを解析し、各音素片データの複雑さを示す指標を求める。この音素片データの複雑さを示す指標としては、各種のものが考えられるが、例えば急変点により区切られた音素片データのスペクトログラムのテキスチャとしての変化の激しさを複雑さの指標として用いてもよい。本実施形態における解析部110は、レベル1の急変点間に挟まれた各区間の音素片データ、レベル2の急変点間に挟まれた各区間の音素片データ、レベル3の急変点間に挟まれた各区間の音素片データの各々について、各音素片データの複雑さを示す指標を求める。これは、表示制御部121が楽曲データを複数の音素片データに分割するのにレベル1〜3のいずれの急変点を用いたとしても、各音素片データのメニューを音素片データの複雑さ順に並べて表示部3に表示させることができるようにするためである。
解析部110は、以上のようにして求めた急変点データおよび音楽的特徴量データを用いて、楽曲構成データを構成し、RAM7内に格納する。図5は、この楽曲構成データの構成例を示す図である。なお、図5には、楽曲構成データの内容の理解を容易にするため、レベル1〜3の各急変点により区切られた楽曲データが上下に並んだ3本のストライプにより示され、楽曲構成データ中の各データが楽曲データにおけるどの部分に関するものであるかが示されている。
図5の上半分に示すように、レベル2の急変点はレベル1の急変点でもある。また、レベル3の急変点は、レベル2の急変点およびレベル1の急変点でもある。このように異種レベル間で急変点に重複が生じるが、本実施形態では、レベル毎に急変点データを作成する。すなわち、同一時刻に例えばレベル3〜レベル1の急変点がある場合、図5の下半分に示すように、楽曲構成データにおいて、最初にレベル3の急変点データを配置し、次にレベル2の急変点データを配置し、最後にレベル1の急変点データを配置する。そして、レベル1の急変点データの後に、その急変点データが示す急変点から始まる音素片データについての音楽的特徴データを配置する。この音素片データの終了点は、次のレベル1の急変点データが示す急変点または楽曲の終了点である。
各急変点データは、当該データが急変点データであることを示す識別子、楽曲の先頭から見た急変点の相対的な位置を示すデータ、急変点のレベルを示すデータ、急変点から始まる音素片データの複雑さを示すデータを含む。
ここで、レベル3の急変点データの場合、複雑さを示すデータは、そのレベル3の急変点データが示す急変点から次のレベル3の急変点データが示す急変点(あるいは楽曲の終了点)までの区間L3の音素片データを複雑さを示す。また、レベル2の急変点データの場合、複雑さを示すデータは、そのレベル2の急変点データが示す急変点から次のレベル2の急変点データが示す急変点(あるいは楽曲の終了点)までの区間L2の音素片データを複雑さを示す。また、レベル1の急変点データの場合、複雑さを示すデータは、そのレベル1の急変点データが示す急変点から次のレベル1の急変点データが示す急変点(あるいは楽曲の終了点)までの区間L1の音素片データを複雑さを示す。
以上が解析部110の動作の詳細である。
次に制作部120の動作を説明する。制作部120の表示制御部121は、RAM7の楽曲データを楽曲構成データ内の急変点データに基づいて複数の音素片データに分割する。特にユーザからの指定がない限り、表示制御部121は、楽曲構成データ内の急変点データのうち、レベル3の急変点データによりRAM7内の楽曲データを音素片データに分割する。そして、各音素片データを示すメニューを音素片データの複雑さの順に並べて表示部3に表示させる。
表示制御部121は、表示部3に各音素片データをメニュー表示させる際、各音素片データに対応付けられた音楽的特徴データを示すマークも一緒に表示させる。さらに詳述すると、レベル3の急変点により区切られた音素片データは、レベル1の急変点により区切られた1または複数の音素片データを含む。従って、レベル3の急変点により区切られた音素片データのメニューは、このようなレベル1の急変点により区切られた音素片データの音楽的特徴を示すマークを伴うこととなる。本実施形態では、edge、rad、flat、bend、voice、dust、blankの各音楽的特徴データを示すマークとして図6に示すものを用いる。そして、図7は、レベル3の急変点データにより分割された各音素片データを示すメニュー(図7では“クラス1”、“クラス6”等)と各音素片データの音楽的特徴を示すマークの表示部3における表示例を示している。図示のように、本実施形態では、音素片データのメニューを音素片データの構成が簡単なものから順に上下方向に並べて表示する。1つのクラスは、複数の音楽的特徴を持つ場合がある。この場合、クラス毎にそのクラスが持つ各音楽的特徴が横方向に並べて表示される。複数の音楽的特徴を横方向に並べる際の順序は、楽曲において各音楽的特徴が現れる順序に合わせてもよいし、各音楽的特徴の発生頻度に合わせてもよい。図7に示す例では、各音素片データの音楽的特徴を示すマークの表示エリアの各々の縦方向の長さは、各音素片データの時間長を反映した長さにしているが、各表示エリアの縦方向の長さは一定にして、その代わりに、音素片データの時間長を反映した長さの水平方向のバー等を表示エリア内に表示してもよい。
好ましい態様では、表示部3の表示画面は、図8に示すように、下側の音素片表示エリア31と、上側の楽曲表示エリア32とに二分される。表示制御部121は、下側の音素片表示エリア31に音素片データのメニューおよび音楽的特徴を示すマークを表示する。この音素片表示エリア31内の表示内容は、操作部4の操作により上下方向にスクロール可能である。上側の楽曲表示エリア32は、制作中の楽曲データが示すオーディオ波形を表示するエリアであり、水平方向が時間軸となっている。この楽曲表示エリア32内の表示内容は、操作部4の操作により左右方向にスクロール可能である。
表示制御部121が音素片データのメニューおよびその音楽的特徴を示すマークを音素片表示エリア31に表示させる制御を行う間、合成部122は、操作部4の操作に応じて、RAM7内の楽曲トラックに音素片データを格納し、新たな楽曲データを合成する。さらに詳述すると、合成部122は、この楽曲トラックの時間軸の目盛りを示すグリッドを楽曲表示エリア32内に表示させる(図示略)。そして、合成部122は、操作部4(具体的にはポインティングデバイス)の操作により音素片表示エリア31内に表示された1つの音素片データのメニューが選択されると、そのメニューに対応した音素片データをRAM7内の楽曲データの中から切り出して読み出す。また、操作部4の操作により楽曲表示エリア32内の1つのグリッドが指示されると、RAM7内の楽曲トラックにおいて、この指示されたグリッドから始まる連続したエリアに、音素片データを格納する。合成部122は、このような処理を操作部4の操作に従って繰り返し、各種の音素片データを繋ぎ合わせた新規な楽曲データをRAM7内の楽曲トラック内に生成する。
好ましい態様では、ユーザが操作部4の操作により、1つの音素片データを選択したとき、合成部122は、その音素片データをRAM7から読み出してサウンドシステム8に送り、音として出力させる。これによりユーザは、所望の音素片データを選択したか否かの確認を行うことができる。
楽曲データが楽曲トラック内に得られた状態において、ユーザが操作部4の操作により再生指示を与えると、合成部122は、楽曲トラックから楽曲データを読み出してサウンドシステム8に送る。これによりユーザは、所望の楽曲を制作することができたか否かを確認することができる。そして、ユーザが操作部4の操作により格納指示を与えると、合成部122は、楽曲トラック内の楽曲データを楽曲データファイル62としてHDD6内に格納する。
以上、表示制御部121が楽曲データの分割に用いる急変点データとしてレベル3の急変点データを用いる場合を例として、本実施形態の動作を説明した。しかし、上述した通り、本実施形態において、ユーザは、操作部4の操作により、楽曲データの分割に用いる急変点データのレベルを指定することができる。この場合、表示制御部121は、楽曲構成データ内の急変点データのうち、指定されたレベルのものを用いて、楽曲データから音素片データへの分割を行う。また、以上説明した動作例では、新たな楽曲データを、1個の楽曲データを急変点において分割した音素片データを用いて合成した。しかし、本実施形態では、複数の楽曲データの各々を急変点において分割した音素片データを用いて合成することも可能である。この場合、ユーザは、操作部4の操作により、複数の楽曲データファイル62を指定し、解析部110に、複数の楽曲データファイル内の各楽曲データについて楽曲構成データを生成させればよい。この場合の動作も、基本的に上述の動作例と同様である。
以上説明したように、本実施形態によれば、楽曲データが急変点において音素片データに分割され、楽曲制作の素材としての各音素片データを示すメニューが表示部3に表示される。その際、各音素片データを示すメニューは、音素片データの構成の簡単なものから複雑なものへと移行するように、音素片の複雑さ順に表示部3に表示される。従って、ユーザは、所望の音素片データを容易に見つけ出すことができる。また、本実施形態によれば、各音素片データの音楽的特徴を示すマークが各音素片データを示すメニューとともに表示部3に表示される。従って、ユーザは、メニューとして表示された各音素片データの内容を容易に想像することができ、所望の音素片データを迅速に見つけ出すことができる。
以上、この発明の一実施形態について説明したが、この発明には、他にも実施形態が考えられる。例えば次の通りである。
(1)楽曲制作プログラム61は、その一部または全部のプログラムを電子回路に置き換えてもよい。
(2)操作部4の操作により、所定の指令が与えられた場合、音素片の構成の複雑さではなく、楽曲内での出現順に音素片データを示すマークを並べて、表示部3に表示させてもよい。
(3)クラスを示すメニューの一部として、そのクラスの音素片の波形またはスペクトログラムを表示部3に表示させてもよい。さらに音素片の波形またはスペクトログラムの表示において、レベル2の急変点およびレベル1の急変点の位置を明示してもよい。
(4)ユーザがクラスを示すメニューを選択したとき、全部コピーまたは部分コピーのいずれかを選択させるためのメニュー表示を行ってもよい。この場合において、ユーザが操作部4の操作により全部コピーを選択したときには、上記実施形態において説明したように、ユーザが選択したクラスの音素片データの全部を楽曲データの合成に用いる。これに対し、ユーザが操作部4の操作により部分コピーを選択したときには、選択されているクラスを下位レベルの急変点(例えばレベル2の急変点)において分割した音素片データを示すメニューを表示部3に表示させ、ユーザが操作部4の操作により選択した音素片データを用いて楽曲データを合成する。この態様によれば、クラス単位での音素片データの繋ぎ合わせ(全部コピー)と、それよりも下位のレベルでの音素片データの繋ぎ合わせ(部分コピー)を併用して、楽曲データを合成することができ、柔軟な楽曲制作が可能になる。なお、この態様において、下位レベルの急変点において分割した音素片データを示すメニューを表示部3に表示させる際の順序は、クラス内における各音素片の出現順でもよく、音素片の複雑さ順でもよい。
(5)音素片データを、例えばリズム演奏に適したものとメロディ演奏に適したものという具合にグループ分けしておき、ユーザが操作部4の操作により選択したグループに属する音素片データのメニューを表示し、ユ−ザに選択させるようにしてもよい。
(6)ユーザが楽曲トラックに格納する音素片データを選択した後、ユーザがフィルタ処理、ピッチ変換処理、音量調整処理等を指定した場合に、ユーザが選択した音素片データに対し、ユーザが選択した処理を施して、楽曲トラックに格納するようにしてもよい。
(7)解析部110が作成した楽曲構成データをファイルとしてHDD6に格納する機能と、HDD6に格納された楽曲構成データを読み出して、制作部120に引き渡す機能を楽曲制作プログラム61に追加してもよい。この態様によれば、一度、楽曲構成データが作成された楽曲データについて、再度の楽曲構成データの作成を行う必要がなくなり、楽曲データの制作を効率的に行うことができる。
この発明の一実施形態である楽曲制作装置の構成を示すブロック図である。 同実施形態における急変点検出処理の一例を示す図である。 同実施形態において求められた各レベルの急変点の例を示す図である。 同実施形態においてレベル3の急変点を決定するために利用するコードシーケンスの解析方法を示す図である。 同実施形態において解析部110により生成される楽曲構成データの構成例を示す図である。 同実施形態において音素片データの音楽的特徴を示すのに用いるマークを示す図である。 同実施形態における音素片データを示すマークとその音楽的特徴を示すマークの表示例を示す図である。 同実施形態において表示部3に表示される音素片表示エリア31と楽曲表示エリア32を示す図である。
符号の説明
1……CPU、2……ROM、3……表示部、4……操作部、5……インタフェース群、6……HDD、7……RAM、8……サウンドシステム、61……楽曲制作プログラム、62……楽曲データ、110……解析部、120……制作部、121……表示制御部、122……合成部。

Claims (5)

  1. 音の波形を示す楽曲データを記憶する記憶手段と、
    前記記憶手段に記憶された楽曲データを解析して、楽曲データにおける音の態様の急変点を求める解析手段と、
    表示手段と、
    前記記憶手段に記憶された楽曲データを前記急変点により分割することにより得られる各音素片データを各々の複雑さの順に前記表示手段にメニュー表示させる表示制御手段と、
    前記表示手段にメニュー表示された音素片データを選択する操作と音素片データの時間軸上の位置を指示する操作を受け付ける操作手段と、
    前記操作手段の操作により選択された音素片データが前記操作手段の操作により指示された時間軸上の位置に配置された楽曲データを合成する合成手段と
    を具備することを特徴とする楽曲制作装置。
  2. 前記解析手段は、前記楽曲データを前記急変点において分割することにより得られる各音素片データの音楽的特徴を求め、
    前記表示制御手段は、各音素片データのメニューとともに、各音素片データの音楽的特徴を示すマークを前記表示手段に表示させることを特徴とする請求項1に記載の楽曲制作装置。
  3. 前記解析手段は、前記急変点として、重要度の異なった複数種類の急変点を求め、
    前記表示制御手段は、前記操作手段の操作により指定された重要度の急変点において、前記楽曲データの分割を行うことを特徴とする請求項1または2に記載の楽曲制作装置。
  4. 前記解析手段は、前記急変点として、重要度の異なった複数種類の急変点を求め、
    前記表示制御手段は、ある重要度の急変点により前記楽曲データを複数の音素片データに分割し、各音素片データのメニューを前記表示手段に表示させた状態において、前記操作手段の操作により1つの音素片データが選択された場合に、選択された音素片データを、重要度が異なった急変点によりさらに複数の音素片データに分割し、各音素片データのメニューを前記表示手段に表示させることを特徴とする請求項1または2に記載の楽曲制作装置。
  5. コンピュータを、
    音の波形を示す楽曲データを記憶する記憶手段と、
    前記記憶手段に記憶された楽曲データを解析して、楽曲データにおける音の態様の急変点を求める解析手段と、
    表示手段と、
    前記記憶手段に記憶された楽曲データを前記急変点により分割することにより得られる各音素片データを各々の複雑さの順に前記表示手段にメニュー表示させる表示制御手段と、
    前記表示手段にメニュー表示された音素片データを選択する操作と音素片データの時間軸上の位置を指示する操作を受け付ける操作手段と、
    前記操作手段の操作により選択された音素片データが前記操作手段の操作により指示された時間軸上の位置に配置された楽曲データを合成する合成手段と
    して機能させることを特徴とするコンピュータプログラム。
JP2007184052A 2007-07-13 2007-07-13 楽曲を制作するための装置およびプログラム Expired - Fee Related JP5130809B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007184052A JP5130809B2 (ja) 2007-07-13 2007-07-13 楽曲を制作するための装置およびプログラム
EP08160001A EP2015288A3 (en) 2007-07-13 2008-07-09 Music piece creation apparatus and method
US12/218,163 US7728212B2 (en) 2007-07-13 2008-07-11 Music piece creation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007184052A JP5130809B2 (ja) 2007-07-13 2007-07-13 楽曲を制作するための装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2009020387A true JP2009020387A (ja) 2009-01-29
JP5130809B2 JP5130809B2 (ja) 2013-01-30

Family

ID=39874885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007184052A Expired - Fee Related JP5130809B2 (ja) 2007-07-13 2007-07-13 楽曲を制作するための装置およびプログラム

Country Status (3)

Country Link
US (1) US7728212B2 (ja)
EP (1) EP2015288A3 (ja)
JP (1) JP5130809B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191337A (ja) * 2009-02-20 2010-09-02 Yamaha Corp 楽曲処理装置、およびプログラム
JP2013068975A (ja) * 2013-01-21 2013-04-18 Yamaha Corp 楽曲処理装置、およびプログラム
JP2023513586A (ja) * 2020-02-11 2023-03-31 エーアイエムアイ インコーポレイテッド 音楽コンテンツの生成
US12236160B2 (en) 2023-04-24 2025-02-25 Aimi Inc. Audio techniques for music content generation

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5130809B2 (ja) * 2007-07-13 2013-01-30 ヤマハ株式会社 楽曲を制作するための装置およびプログラム
US7825322B1 (en) * 2007-08-17 2010-11-02 Adobe Systems Incorporated Method and apparatus for audio mixing
JP2009153067A (ja) * 2007-12-21 2009-07-09 Canon Inc 画像処理方法及び画像処理装置
JP2009151712A (ja) * 2007-12-21 2009-07-09 Canon Inc 楽譜作成方法及び画像処理システム
JP2009151713A (ja) * 2007-12-21 2009-07-09 Canon Inc 楽譜作成方法及び画像処理装置
JP2009153068A (ja) * 2007-12-21 2009-07-09 Canon Inc 楽譜の加工方法及び画像処理装置
ES2354330B1 (es) * 2009-04-23 2012-01-30 Universitat Pompeu Fabra Método para calcular medidas de similitud entre señales temporales.
US8389843B2 (en) * 2010-01-12 2013-03-05 Noteflight, Llc Interactive music notation layout and editing system
JP2011215358A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法及びプログラム
US8746719B2 (en) 2010-08-03 2014-06-10 Polaris Industries Inc. Side-by-side vehicle
US8613335B2 (en) 2010-08-03 2013-12-24 Polaris Industries Inc. Side-by-side vehicle
US8927846B2 (en) * 2013-03-15 2015-01-06 Exomens System and method for analysis and creation of music
CN118849684A (zh) 2015-05-15 2024-10-29 北极星工业有限公司 多用途车辆
JP6586514B2 (ja) * 2015-05-25 2019-10-02 ▲広▼州酷狗▲計▼算机科技有限公司 オーディオ処理の方法、装置及び端末
USD787985S1 (en) 2015-06-24 2017-05-30 Polaris Industries Inc. All-terrain vehicle
US9649928B2 (en) 2015-06-25 2017-05-16 Polaris Industries Inc. All-terrain vehicle
US9884647B2 (en) 2015-12-10 2018-02-06 Polaris Industries Inc. Utility vehicle
US9640158B1 (en) 2016-01-19 2017-05-02 Apple Inc. Dynamic music authoring
JP2018092012A (ja) * 2016-12-05 2018-06-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11024276B1 (en) 2017-09-27 2021-06-01 Diana Dabby Method of creating musical compositions and other symbolic sequences by artificial intelligence
US10946736B2 (en) 2018-06-05 2021-03-16 Polaris Industries Inc. All-terrain vehicle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876783A (ja) * 1994-06-28 1996-03-22 Omron Corp 音声処理装置および携帯機器
JPH08314464A (ja) * 1995-05-23 1996-11-29 Kawai Musical Instr Mfg Co Ltd 電子楽器の繰返し波形の形成法及び繰返し波形形成装置
JPH1031490A (ja) * 1996-07-18 1998-02-03 Roland Corp 電子楽器の音素材処理装置
JP2000056772A (ja) * 1998-08-06 2000-02-25 Roland Corp 波形再生装置
JP2001092464A (ja) * 1999-09-27 2001-04-06 Yamaha Corp 楽音生成方法、楽音生成用データ記録方法および楽音生成用データを記録した記録媒体
JP2001265332A (ja) * 2000-03-15 2001-09-28 Yamaha Corp リミックス装置、スライス装置および記憶媒体
JP2001306087A (ja) * 2000-04-26 2001-11-02 Ricoh Co Ltd 音声データベース作成装置および音声データベース作成方法および記録媒体
JP2002366185A (ja) * 2001-06-08 2002-12-20 Matsushita Electric Ind Co Ltd 音素ジャンル分けシステム

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3786654T2 (de) * 1987-01-07 1994-02-17 Yamaha Corp Tonsignal-Erzeugungsvorrichtung mit einer digitalen Ton-Speicher-Funktion.
JPH05341793A (ja) * 1991-04-19 1993-12-24 Pioneer Electron Corp カラオケ演奏装置
JP3381074B2 (ja) * 1992-09-21 2003-02-24 ソニー株式会社 音響構成装置
US5536902A (en) * 1993-04-14 1996-07-16 Yamaha Corporation Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter
US5680512A (en) * 1994-12-21 1997-10-21 Hughes Aircraft Company Personalized low bit rate audio encoder and decoder using special libraries
JP2838977B2 (ja) * 1995-01-17 1998-12-16 ヤマハ株式会社 カラオケ装置
JP2921428B2 (ja) * 1995-02-27 1999-07-19 ヤマハ株式会社 カラオケ装置
US5792971A (en) * 1995-09-29 1998-08-11 Opcode Systems, Inc. Method and system for editing digital audio information with music-like parameters
US5805685A (en) * 1995-11-15 1998-09-08 Gateway Technologies, Inc. Three way call detection by counting signal characteristics
AU1566497A (en) * 1995-12-22 1997-07-17 Rutgers University Method and system for audio access to information in a wide area computer network
US6449661B1 (en) * 1996-08-09 2002-09-10 Yamaha Corporation Apparatus for processing hyper media data formed of events and script
US6759954B1 (en) * 1997-10-15 2004-07-06 Hubbell Incorporated Multi-dimensional vector-based occupancy sensor and method of operating same
US6959220B1 (en) * 1997-11-07 2005-10-25 Microsoft Corporation Digital audio signal filtering mechanism and method
US5918302A (en) * 1998-09-04 1999-06-29 Atmel Corporation Digital sound-producing integrated circuit with virtual cache
FR2785438A1 (fr) * 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
US6725108B1 (en) * 1999-01-28 2004-04-20 International Business Machines Corporation System and method for interpretation and visualization of acoustic spectra, particularly to discover the pitch and timbre of musical sounds
US6853686B1 (en) * 2000-01-14 2005-02-08 Agere Systems Inc. Frame formatting technique
KR100913843B1 (ko) * 2001-09-06 2009-08-26 톰슨 라이센싱 가변 비트율 디지털 인코딩 오디오 데이터 파일의 경과재생 타임키핑용 방법 및 장치
CN100492524C (zh) * 2001-09-10 2009-05-27 汤姆森特许公司 用于在数字音频数据播放器中建立带索引的播放列表的方法和装置
US20030078978A1 (en) * 2001-10-23 2003-04-24 Clifford Lardin Firmware portable messaging units utilizing proximate communications
JP2003167762A (ja) * 2001-11-30 2003-06-13 Sony Corp データ表示装置及び表示制御方法
US20030172079A1 (en) * 2002-03-08 2003-09-11 Millikan Thomas N. Use of a metadata presort file to sort compressed audio files
US20060106900A1 (en) * 2002-09-27 2006-05-18 Millikan Thomas N Use of a metadata presort file to sort compressed audio files
KR20040053409A (ko) * 2002-12-14 2004-06-24 엘지전자 주식회사 오디오 모드 자동 변환 방법
US7189913B2 (en) * 2003-04-04 2007-03-13 Apple Computer, Inc. Method and apparatus for time compression and expansion of audio data with dynamic tempo change during playback
US7333934B1 (en) * 2003-04-06 2008-02-19 Apple Inc. Pre-processing individual audio items in a media project in order to improve real-time processing of the media project
US20040264917A1 (en) * 2003-06-25 2004-12-30 M/X Entertainment, Inc. Audio waveform cueing for enhanced visualizations during audio playback
EP1571647A1 (en) * 2004-02-26 2005-09-07 Lg Electronics Inc. Apparatus and method for processing bell sound
WO2005099414A2 (en) * 2004-04-12 2005-10-27 Burlingtonspeech Limited Comprehensive spoken language learning system
EP1646035B1 (en) 2004-10-05 2013-06-19 Sony Europe Limited Mapped meta-data sound-playback device and audio-sampling/sample processing system useable therewith
JP3985825B2 (ja) * 2005-04-06 2007-10-03 ヤマハ株式会社 演奏装置及び演奏プログラム
JP4787634B2 (ja) * 2005-04-18 2011-10-05 株式会社リコー 音楽フォント出力装置、フォントデータベース及び言語入力フロントエンドプロセッサ
KR100658869B1 (ko) * 2005-12-21 2006-12-15 엘지전자 주식회사 음악생성장치 및 그 운용방법
JP5096932B2 (ja) * 2006-01-24 2012-12-12 パナソニック株式会社 変換装置
WO2007134293A2 (en) * 2006-05-12 2007-11-22 Nexidia, Inc. Wordspotting system
TWI312982B (en) * 2006-05-22 2009-08-01 Nat Cheng Kung Universit Audio signal segmentation algorithm
US8311656B2 (en) * 2006-07-13 2012-11-13 Inmusic Brands, Inc. Music and audio playback system
EP2052299A4 (en) * 2006-07-24 2011-01-26 Quantum Tracks Llc INTERACTIVE MUSIC INTERFACE FOR COMPOSING MUSIC
US7642444B2 (en) * 2006-11-17 2010-01-05 Yamaha Corporation Music-piece processing apparatus and method
WO2008101130A2 (en) * 2007-02-14 2008-08-21 Museami, Inc. Music-based search engine
JP5119700B2 (ja) * 2007-03-20 2013-01-16 富士通株式会社 韻律修正装置、韻律修正方法、および、韻律修正プログラム
JP5130809B2 (ja) * 2007-07-13 2013-01-30 ヤマハ株式会社 楽曲を制作するための装置およびプログラム
US8521540B2 (en) * 2007-08-17 2013-08-27 Qualcomm Incorporated Encoding and/or decoding digital signals using a permutation value

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876783A (ja) * 1994-06-28 1996-03-22 Omron Corp 音声処理装置および携帯機器
JPH08314464A (ja) * 1995-05-23 1996-11-29 Kawai Musical Instr Mfg Co Ltd 電子楽器の繰返し波形の形成法及び繰返し波形形成装置
JPH1031490A (ja) * 1996-07-18 1998-02-03 Roland Corp 電子楽器の音素材処理装置
JP2000056772A (ja) * 1998-08-06 2000-02-25 Roland Corp 波形再生装置
JP2001092464A (ja) * 1999-09-27 2001-04-06 Yamaha Corp 楽音生成方法、楽音生成用データ記録方法および楽音生成用データを記録した記録媒体
JP2001265332A (ja) * 2000-03-15 2001-09-28 Yamaha Corp リミックス装置、スライス装置および記憶媒体
JP2001306087A (ja) * 2000-04-26 2001-11-02 Ricoh Co Ltd 音声データベース作成装置および音声データベース作成方法および記録媒体
JP2002366185A (ja) * 2001-06-08 2002-12-20 Matsushita Electric Ind Co Ltd 音素ジャンル分けシステム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191337A (ja) * 2009-02-20 2010-09-02 Yamaha Corp 楽曲処理装置、およびプログラム
JP2013068975A (ja) * 2013-01-21 2013-04-18 Yamaha Corp 楽曲処理装置、およびプログラム
JP2023513586A (ja) * 2020-02-11 2023-03-31 エーアイエムアイ インコーポレイテッド 音楽コンテンツの生成
JP7440651B2 (ja) 2020-02-11 2024-02-28 エーアイエムアイ インコーポレイテッド 音楽コンテンツの生成
US12236160B2 (en) 2023-04-24 2025-02-25 Aimi Inc. Audio techniques for music content generation

Also Published As

Publication number Publication date
JP5130809B2 (ja) 2013-01-30
EP2015288A2 (en) 2009-01-14
US7728212B2 (en) 2010-06-01
EP2015288A3 (en) 2010-06-02
US20090013855A1 (en) 2009-01-15

Similar Documents

Publication Publication Date Title
JP5130809B2 (ja) 楽曲を制作するための装置およびプログラム
JP5228432B2 (ja) 素片検索装置およびプログラム
JP5113307B2 (ja) 複合波形の倍音内容を変える方法
EP1923863B1 (en) Music-piece processing apparatus and method
EP1688912B1 (en) Voice synthesizer of multi sounds
JP2002529773A5 (ja)
JP2010521021A (ja) 楽曲ベースの検索エンジン
JP5217275B2 (ja) 楽曲を制作するための装置およびプログラム
JP5494083B2 (ja) カラオケ装置
JP3447221B2 (ja) 音声変換装置、音声変換方法、および音声変換プログラムを記録した記録媒体
JP4623028B2 (ja) 曲編集装置およびプログラム
JP6881488B2 (ja) 音信号制御方法および表示制御方法
JP5251381B2 (ja) 音処理装置およびプログラム
JP2013195982A (ja) 歌唱合成装置および歌唱合成プログラム
JP5585320B2 (ja) 歌唱音声評価装置
JP3972899B2 (ja) 楽譜表示装置
JP4480650B2 (ja) ピッチ制御装置及びピッチ制御プログラム
JP4565846B2 (ja) ピッチ変換装置
JP2006113487A (ja) 楽音データ生成方法及び装置
JP4613924B2 (ja) 曲編集装置およびプログラム
JP3538908B2 (ja) 電子楽器
JP5782751B2 (ja) 音声合成装置
JP4665664B2 (ja) シーケンスデータ生成装置およびシーケンスデータ生成プログラム
JP4379356B2 (ja) カラオケ装置
JP6175034B2 (ja) 歌唱評価装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121022

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees