JP2006251376A - Musical sound controller - Google Patents
Musical sound controller Download PDFInfo
- Publication number
- JP2006251376A JP2006251376A JP2005067909A JP2005067909A JP2006251376A JP 2006251376 A JP2006251376 A JP 2006251376A JP 2005067909 A JP2005067909 A JP 2005067909A JP 2005067909 A JP2005067909 A JP 2005067909A JP 2006251376 A JP2006251376 A JP 2006251376A
- Authority
- JP
- Japan
- Prior art keywords
- music
- music data
- user
- musical
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、運動体の状態に応じて生成・再生される楽曲を保存しておき、これを再び再生するための技術に関する。 The present invention relates to a technique for storing music that is generated and played back according to the state of a moving body and playing it back again.
特許文献1には、ユーザの身体の動きを検出し、その動きに応じたテンポや音量で楽曲を再生する技術が提案されている。具体的には、万歩計(登録商標)のカウント値や指揮棒の振り幅や振り速度などを検出し、この検出値に応じたテンポでメモリから楽音データを1つずつ読み出し、これを楽曲として再生するというものである。このような技術により、ユーザ自らがまるで演奏に参加しているかのような独特の面白みを感じることができる。
特許文献1に記載された技術においては、ユーザの身体の動きに応じて、その都度異なる内容の楽曲が再生されることになる。つまり、再生される楽曲が一過性であるが故に、それを聴くユーザを飽きさせることがないという利点がある。しかし、その一方で、再生された楽曲をユーザが非常に気に入ったとしても、ユーザは自らが行った動きを全く同じように再現することはできないから、気に入った楽曲と同一の楽曲を再度聴くことができないという問題がある。
In the technique described in
本発明は上述した背景に鑑みてなされたものであり、その目的は、運動体の状態に応じて再生される複数の楽曲のうち、指定された楽曲をユーザが所望する時期に繰り返し再生するための仕組みを提供することにある。 The present invention has been made in view of the above-described background, and an object of the present invention is to repeatedly play a designated song at a time desired by a user among a plurality of songs to be played according to the state of a moving body. Is to provide a mechanism.
上記課題を解決するために、本発明は、センサから出力される信号を解析し、当該センサが取り付けられた運動体の状態を判定する判定手段と、前記運動体の状態別に定められたアルゴリズムに従って楽曲データを生成する作曲手段と、生成された楽曲データに基づいて楽曲を再生する第1の再生手段と、再生された楽曲を表す楽曲データを一時的に保存する一時保存手段と、ユーザによる操作を受け付ける操作手段と、前記操作手段がユーザから保存を指示する操作を受け付けた場合には、前記一時保存手段によって保存されている楽曲データを読み出し、不揮発性記憶手段に書き込む書込手段と、前記操作手段がユーザから再生を指示する操作を受け付けた場合には、前記不揮発性記憶手段によって保存されている楽曲データを読み出し、読み出した楽曲データに基づいて楽曲を再生する第2の再生手段とを備える楽音制御装置を提供する。 In order to solve the above-described problems, the present invention analyzes a signal output from a sensor, determines a state of a moving body to which the sensor is attached, and an algorithm defined for each state of the moving body. Music composition means for generating music data, first reproduction means for reproducing music based on the generated music data, temporary storage means for temporarily saving music data representing the reproduced music, and user operation And a writing means for reading out music data stored by the temporary storage means and writing it in a nonvolatile storage means when the operation means accepts an operation for instructing saving from a user, When the operation means receives an operation for instructing playback from the user, the music data stored in the nonvolatile storage means is read out. Providing a musical tone control apparatus and a second reproducing means for reproducing music based on the read music data.
この楽音制御装置によれば、運動体の状態に応じた内容の楽曲が再生されているときに、前記操作手段がユーザから保存を指示する操作を受け付けた場合には、書込手段が、前記一時保存手段によって保存されている楽曲データを読み出し、不揮発性記憶手段に書き込む。そして、前記操作手段がユーザから再生を指示する操作を受け付けた場合には、第2の再生手段が、前記不揮発性記憶手段によって保存されている楽曲データを読み出し、第2の再生手段読み出した楽曲データに基づいて楽曲を再生する。よって、ユーザが気に入った楽曲データを再び再生することが可能となる。 According to this musical sound control device, when the operation means accepts an operation for instructing saving from the user when the music having the content according to the state of the moving body is being reproduced, the writing means The music data stored by the temporary storage unit is read and written to the nonvolatile storage unit. Then, when the operation means receives an operation for instructing reproduction from the user, the second reproduction means reads the music data stored in the nonvolatile storage means, and the music read by the second reproduction means Play music based on the data. Therefore, the music data that the user likes can be reproduced again.
また、本発明の別の好ましい態様においては、前記一時保存手段は、前記判定手段によって判定された運動体の状態を少なくとも含む付属情報を前記楽曲データと対応付けて保存し、前記書込手段は、前記一時保存手段によって保存されている付属情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている付属情報を出力する出力手段を備えている。 In another preferable aspect of the present invention, the temporary storage unit stores auxiliary information including at least the state of the moving body determined by the determination unit in association with the music data, and the writing unit includes The auxiliary information stored by the temporary storage means is written to the nonvolatile storage means in association with the music data, and further, the second reproduction means is based on the music data read from the nonvolatile storage means. When the music is reproduced, there is provided an output means for outputting the attached information associated with the music data and written in the nonvolatile storage means.
また、本発明の別の好ましい態様においては、他の楽音制御装置と通信を行う通信手段と、前記作曲手段が前記アルゴリズムに従って生成した楽曲データを特徴づける特徴情報を前記通信手段によって他の楽音制御装置に送信する一方、他の楽音制御装置から送信されてくる前記特徴情報を前記通信手段によって受信する通信制御手段とを備え、前記作曲手段は、前記アルゴリズムに従って生成した楽曲データを、前記通信制御手段が前記通信手段によって他の楽音制御装置から受信した特徴情報の内容に基づいて加工し、前記第1の再生手段は、前記作曲手段によって加工された楽曲データに基づいて楽曲を再生する請求項1記載の楽音制御装置。このようにすれば、他の楽音制御装置との関係に応じて楽曲の内容を変化させることができる。 In another preferred aspect of the present invention, communication means for communicating with another musical tone control device, and characteristic information characterizing the music data generated by the music composition means according to the algorithm are controlled by the communication means with the other musical tone control. A communication control means for receiving the feature information transmitted from another musical tone control apparatus by the communication means, while the music composition means generates music data generated in accordance with the algorithm. The means processes the content based on the contents of the characteristic information received from the other sound control device by the communication means, and the first reproduction means reproduces the music based on the music data processed by the music composition means. The musical tone control apparatus according to 1. If it does in this way, the contents of music can be changed according to the relation with other musical tone control devices.
この態様において、前記一時保存手段は、前記通信制御手段が前記通信手段によって受信した特徴情報を前記楽曲データと対応付けて保存し、前記書込手段は、前記一時保存手段によって保存されている特徴情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている特徴情報を出力する出力手段を備えている。 In this aspect, the temporary storage unit stores the feature information received by the communication unit by the communication unit in association with the music data, and the writing unit is stored by the temporary storage unit. When information is written in the nonvolatile storage means in association with the music data, and the second reproduction means reproduces the music based on the music data read from the nonvolatile storage means, the music data is stored in the music data. Output means for outputting feature information associated with and written to the nonvolatile storage means is provided.
また、本発明の別の好ましい態様においては、自装置と他の楽音制御装置との距離を測定する測定手段を備え、前記作曲手段は、前記アルゴリズムに従って生成した楽曲データを、前記測定手段によって測定された距離に基づいて加工し、前記第1の再生手段は、前記作曲手段によって加工された楽曲データに基づいて楽曲を再生する。 Further, in another preferred aspect of the present invention, there is provided measuring means for measuring a distance between the own apparatus and another musical sound control apparatus, and the music composition means measures music data generated according to the algorithm by the measuring means. The first reproduction means reproduces the music based on the music data processed by the music composition means.
この態様において、前記一時保存手段は、前記測定手段が測定した距離を表す距離情報を前記楽曲データと対応付けて保存し、前記書込手段は、前記一時保存手段によって保存されている距離情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている距離情報を出力する出力手段を備えている。 In this aspect, the temporary storage unit stores distance information representing the distance measured by the measurement unit in association with the music data, and the writing unit stores the distance information stored by the temporary storage unit. In association with the music data, the data is written in the non-volatile storage means, and when the second reproduction means reproduces the music based on the music data read from the non-volatile storage means, the music data is associated with the music data. Output means for outputting the distance information written in the nonvolatile storage means.
また、本発明は、コンピュータに、センサから出力される信号を解析し、当該センサが取り付けられた運動体の状態を判定する判定機能と、前記運動体の状態別に定められたアルゴリズムに従って楽曲データを生成する作曲機能と、生成された楽曲データに基づいて楽曲を再生する第1の再生機能段と、再生された楽曲を表す楽曲データを一時的に保存する一時保存機能と、操作手段がユーザから保存を指示する操作を受け付けた場合には、前記一時保存機能によって保存されている楽曲データを読み出し、不揮発性記憶手段に書き込む書込機能と、前記操作手段がユーザから再生を指示する操作を受け付けた場合には、前記不揮発性記憶手段によって保存されている楽曲データを読み出し、読み出した楽曲データに基づいて楽曲を再生する第2の再生機能とを実現させるプログラムを提供する。このプログラムは、インターネットに代表されるネットワークを介して所定のサーバ装置からコンピュータに提供されるほか、これを記録したコンピュータ読取可能な記録媒体としても提供され得る。この種の記録媒体としては、可搬型の磁気ディスクや光ディスクなどが挙げられる。 In addition, the present invention analyzes a signal output from a sensor in a computer and determines the state of a moving body to which the sensor is attached and music data according to an algorithm defined for each state of the moving body. A composition function to be generated, a first playback function stage for playing back music based on the generated music data, a temporary storage function for temporarily storing music data representing the played music, and an operation means from the user When an operation for instructing saving is accepted, a writing function for reading the music data saved by the temporary saving function and writing it to the nonvolatile storage means, and an operation for the playback instruction from the user by the operating means are accepted. If the music data stored in the non-volatile storage means is read, the music is reproduced based on the read music data. Providing a program for implementing the second reproduction function. This program can be provided to a computer from a predetermined server device via a network typified by the Internet, and can also be provided as a computer-readable recording medium on which the program is recorded. Examples of this type of recording medium include portable magnetic disks and optical disks.
以下、図面を参照して、本発明の実施形態について説明する。
(1)第1実施形態
(1−1)構成
図1は、本発明の第1実施形態に係る楽音制御装置1の外観図である。
楽音制御装置1の本体10には、液晶ディスプレイなどの表示部11と、複数のスイッチを備えた操作部12と、複数のLED(Light Emitting Diode)13とが設けられている。また、本体10には通信ケーブルを介して脈拍センサ14や加速度センサ15a,15bなどの各種センサ群が接続されている。脈拍センサ14は、利用者の脈拍を検知するために用いられるものであり、利用者の耳たぶをクリップで挟むようにして取り付けられる。加速度センサ15a,15bは、取り付けられた部位の身体状態を検知するために利用されるものであり、例えば利用者の左右の肘の部分の衣服などをクリップで挟むようにして取り付けられる。さらに、本体10には、通信ケーブルを介してインナー型イヤーヘッドホン16(以下、イヤホンという)が接続されるほか、ループ状のストラップ17が設けられている。利用者は、このストラップ17を自身の首に掛け、イヤホン16を左右の耳穴に挿入し、脈拍センサ14や加速度センサ15a,15bを所定の部位に取り付けた状態で楽音制御装置1を利用する。
Embodiments of the present invention will be described below with reference to the drawings.
(1) First Embodiment (1-1) Configuration FIG. 1 is an external view of a musical
The
次に、図2は、楽音制御装置1のハードウェア構成を示すブロック図である。
楽音制御装置1は、前述した脈拍センサ14や加速度センサ15a,15bのほかに、ジャイロセンサ18を内蔵している。このジャイロセンサ18は、利用者の体の向きがどのように変化したかを検知するために利用される。制御部100は、自身が記憶したコンピュータプログラムを実行することによって、上述したセンサ群(脈拍センサ14、加速度センサ15a,15b及びジャイロセンサ18)からの出力信号を解析して利用者(運動体)の身体の状態を判定し、その身体の状態別に予め定められたアルゴリズムに従ってMIDI(Musical Instrument Digital Interface)形式の楽曲データを生成する。
Next, FIG. 2 is a block diagram showing a hardware configuration of the musical
The musical
また、制御部100は、上記センサ群によって検出された利用者の身体状態を利用者自身が視覚的に理解できるように、LED13の点灯期間や点灯タイミングを制御する。例えば、利用者が激しい運動をしたり、心拍数が上昇した場合には、比較的短い周期でLED13を点滅させ、利用者があまり運動をしなかったり、心拍数が下降した場合には、より長い周期でLED13を点滅させるといった具合である。楽音発生部19は、音源や、効果付与回路及びA/D変換回路(いずれも図示略)を備えており、制御部100から供給されるMIDI形式の楽曲データに基づいて楽音信号を発生させ、これをイヤホン16に供給する。イヤホン16からはその楽音信号に応じた楽音が放音される。このようにして利用者は楽音制御装置1によって再生される楽曲を聴くことができる。
Moreover, the
前述したように、制御部100は、センサ群からの出力信号を解析することにより、それらセンサ群が取り付けられた利用者(運動体)の状態を判定し、判定した状態に応じてリアルタイムで作曲を行うことができる。以下では、その作曲のアルゴリズムについて説明する。
As described above, the
図3は、制御部100の構成を示すブロック図である。制御部100は、CPU(Central Processing Unit)101と、RAM(Random Access Memory)102と、不揮発性記憶部103とを備えたマイクロコンピュータである。RAM102には、作曲テーブルが一時的に保存される作曲テーブル一時保存領域102aが設けられる。この作曲テーブルは、利用者の身体状態に応じて楽曲データを生成するために用いられるものであり、楽曲を構成する楽曲要素データの組み合わせが記述されている。
FIG. 3 is a block diagram illustrating a configuration of the
不揮発性記憶部103は、例えばEEPROM(Electrically Erasable and Programmable Read Only Memory)や、バックアップ電源が確保されたSRAM(Static Random Access Memory)である。この不揮発性記憶部103には、CPU101によって実行される制御プログラム200のほか、そのプログラム実行時に使用される各種の情報が記憶されている。また、不揮発性記憶部103には、作曲テーブルが格納される作曲テーブル格納領域103aが設けられている。不揮発性記憶部103に記憶されている情報には、身体状態判定テーブル201と、作曲テーブル202と、ジャンル別テンプレート203と、楽曲要素ライブラリ204とが含まれている。以下、これらの情報の内容について具体的に説明する。
The
身体状態判定テーブル201は、CPU101がセンサ群からの出力信号に基づいて、利用者の身体状態を判定するためのテーブルである。ここでいう「利用者の身体状態」とは、例えば「歩いている」などの身体の運動そのもののほかに、「息切れ」等の身体の内部状態をも含むものとする。この身体状態判定テーブル201には、図4に示すように、各々のセンサからの出力信号を解析して得られる検出値と、身体状態とが対応付けられて記述されている。例えば、加速度が0.1m/sまでで、心拍数が50〜75回/分の場合には、利用者の身体状態は「止まっている」と判定され、加速度が0.1〜1m/sで、心拍数が75〜90回/分の場合には、利用者の身体状態は「歩いている」と判定される、といった具合である。また、心拍数が220以上と極めて多い場合には、加速度の大小に関わらず、「息切れ」と判定される。このようなセンサ群による検出値と身体状態との対応関係は予め決められていてもよいが、例えば心拍数には個人差があるため、利用者が操作部12などを用いて自由に設定可能な構成としてもよい。
The body state determination table 201 is a table for the
次に、楽曲要素ライブラリ204には、楽曲を構成する楽曲要素データが多数含まれている。楽曲要素データには、図3に示すように、フレーズループとパターンループという2種類のループ(繰り返し再生される一定期間の楽曲要素)が含まれている。フレーズループは、音階を表現可能な楽器(例えばピアノやベース)によって演奏される一定期間のメロディラインを表している。パターンループは、音階を表現しない楽器(例えばドラムなどの打楽器)による一定期間の発音タイミング(リズム)を表している。また、この楽曲要素ライブラリ204には、各種楽器の音色を規定する音の波形を表すディジタルデータも楽曲要素データとして記憶されている。CPU101は、利用者の身体状態に応じてこれらのループや音色を適宜組み合わせ、さらに、この身体状態に応じて音程、効果及び音量を決定することによって、一定期間の楽曲データを生成し、これを繰り返し再生する。
Next, the
次に、ジャンル別テンプレート203は、例えばロック、ダンス、ポップス・・・というように、楽曲のジャンル毎に用意されたテンプレートである。例えばあるジャンルのテンプレートには、図5に示すように、そのジャンルに合ったループの組み合わせを示すループパターンが1又は複数(図5では複数)が記述されている。さらにこのテンプレートには、音程、音色、効果(エフェクト)、音量を指定するパターンも1又は複数(図5では複数)記述されている。CPU101は、このようなジャンル別テンプレート203に記述された各種パターンの中から、作曲テーブル202によって指定されるパターンを選択する。図5では、斜線を施した各パターン、すなわち「ループパターンA」と、「音程のパターンC」と、「音色のパターンB」と、「効果のパターンA」と、「音量のパターンA」とが選択されている場合が示されている。
Next, the genre-
次に、作曲テーブル202には、利用者の各身体状態において選択すべきループパターン、音程パターン、音色パターン、効果パターン及び音量パターンの組み合わせが記述されている。図6は、作曲テーブル202の一例を示す図である。図6の例では、例えば利用者の身体状態が「止まっている」場合には、ループパターンAと、音程パターンCと、音色パターンBと、効果パターンAと、音量パターンAとを組み合わせて楽曲データを生成すべきであることが定められている。同様に、身体状態が「歩いている」、「早歩き」、「ジョギング」、「全力疾走」、「息切れ」・・・の各々について、選択すべきループパターン、音程パターン、音色パターン、効果パターン、音量パターンの組み合わせが作曲テーブルによって定められている。 Next, the composition table 202 describes a combination of a loop pattern, a pitch pattern, a tone color pattern, an effect pattern, and a sound volume pattern to be selected in each physical state of the user. FIG. 6 is a diagram illustrating an example of the music composition table 202. In the example of FIG. 6, for example, when the user's physical state is “stopped”, the music is formed by combining the loop pattern A, the pitch pattern C, the timbre pattern B, the effect pattern A, and the volume pattern A. It is stipulated that data should be generated. Similarly, the loop pattern, pitch pattern, timbre pattern, and effect pattern to be selected for each of the physical states "walking", "fast walking", "jogging", "sprinting", "shortness of breath", etc. The combination of volume patterns is defined by the composition table.
さらに本実施形態では、現在の身体状態が「歩いている」場合であっても、それよりも過去の身体の状態がどうであったかによって、作曲テーブル202の内容も異なるようになっている。例えば、身体状態が「ジョギング」から「歩いている」に遷移した場合には(つまり利用者の身体状態が動的なものから静的なものに変化した場合には)、間奏を思わせるような楽曲を生成する内容の作曲テーブルが用意されている。また、「止まっている」から「歩いている」に遷移した場合には(つまり運動体の状態が静的なものから動的なものに変化した場合には)、より躍動感のある雰囲気の楽曲を生成する内容の作曲テーブルが用意されている。よって、図6においても、身体状態「歩いている」に対応する作曲テーブルとして、複数の作曲テーブル202a,202b,202c・・・が用意されているのである。 Further, in the present embodiment, even when the current physical condition is “walking”, the contents of the composition table 202 are different depending on the past physical condition. For example, when the physical state transitions from “jogging” to “walking” (ie, when the user's physical state changes from dynamic to static), it seems to be an interlude. There is a composition table with the contents to create a simple song. Also, when transitioning from “stopped” to “walking” (ie, when the state of the moving body has changed from static to dynamic), the atmosphere is more dynamic. There is a composition table with content to generate music. Therefore, also in FIG. 6, a plurality of music composition tables 202a, 202b, 202c,... Are prepared as music composition tables corresponding to the physical state “walking”.
さらに、現在の身体状態と1つ前の過去の身体状態との関係に加えて、さらに2つ前の身体状態をも考慮した作曲テーブルが用意されている。例えば、「止まっている」→「ジョギング」→「歩いている」という身体状態の遷移とか、「歩いている」→「ジョギング」→「歩いている」とか、「止まっている」→「走っている」→「歩いている」といったように、相当数の組み合わせが存在する。他の身体状態に対応する作曲テーブルについてもこれと同様に、複数の作曲テーブルが用意されている。 Furthermore, in addition to the relationship between the current physical state and the previous previous physical state, a composition table is also prepared in consideration of the second previous physical state. For example, transition of the physical state of “stopped” → “jogging” → “walking”, “walking” → “jogging” → “walking”, “stopped” → “running” There are quite a few combinations, such as “Yes” → “Walking”. Similarly, a plurality of composition tables are prepared for composition tables corresponding to other physical conditions.
このように、作曲テーブル202には、利用者(運動体)の過去から現在に至る時系列の身体状態に応じて、それぞれ異なるパターンの組み合わせが記述されており、CPU101は、利用者(運動体)の時系列の状態に対応するパターンを組み合わせて楽曲データを生成する。このような仕組みで作曲することにより、利用者の身体状態をより正確に反映した楽曲を作ることができ、利用者に対してよりいっそうの面白みを感じさせることが可能となる。
Thus, the composition table 202 describes different combinations of patterns according to time-series physical states from the past to the present of the user (exercise body), and the
(1−2)動作
次に、第1実施形態の動作について説明する。
図7は、制御プログラム200に記述されたCPU101の処理手順を示すフローチャートである。利用者が操作部12を用いて所定の操作を行い、楽曲の演奏を開始すべき旨の指示を与えると、CPU101は、不揮発性記憶部103に記憶された制御プログラム200を実行することによって図7に示す一連の処理を開始する。
(1-2) Operation Next, the operation of the first embodiment will be described.
FIG. 7 is a flowchart showing the processing procedure of the
まず、CPU101は、利用者に楽曲のジャンルを選択させるためのメニュー画面を表示部11に表示させる(ステップS1)。楽曲のジャンルは階層的に構成されており、例えば図8に示すように、上位の階層ではロック、ダンス、ポップ、レゲエ、ラテン・・・といった大まかなジャンルに区分されている。そして、例えばロックというジャンルであれば、ハードロック、ブリティッシュロック、アメリカンロック・・というようにさらに下位の階層でジャンルが細分化されている。もちろん、ジャンルはこのような2階層に限らず、もっと多くの階層で構成されていてもよい。
First, the
利用者が操作部12を操作して、所望する楽曲のジャンルを選択する。ここでは例えば、図8に示すように「アメリカンロック」が選択されたとすると、CPU101はこの選択操作を受け付け(ステップS2;Yes)、選択されたジャンル(アメリカンロック)に対応するジャンル別テンプレート203を不揮発性記憶部103から読み出す(ステップS3)。これによって、図8に示すように、多数のジャンル別テンプレートの中から、アメリカンロックに対応するジャンル別テンプレート203が抽出されることになる。
The user operates the
次に、CPU101は、センサ群(脈拍センサ14、加速度センサ15a,15b及びジャイロセンサ18)からの出力信号を取り込む(ステップS4)。そして、CPU101は、取り込んだ出力信号を解析して検出値を得て、その検出値と身体状態判定テーブル201とを参照して利用者の身体状態を判定する(ステップS5)。ここでは、例えば加速度センサ15a,15bによる検出値(加速度)がいずれも加速度0.05(m/s)であり、脈拍センサ14による検出値(心拍数)が60(回/分)であると仮定する。この場合、CPU101は、図4に示した身体状態判定テーブル201の内容に従って、身体状態を「止まっている」と判定する。
Next, the
次に、CPU101は、身体状態に変化があったか否かを判定する(ステップS6)。ここでいう「身体状態の変化」とは、例えば「歩いている」から「止まっている」に変化したというように、利用者の身体状態に時系列的な変化があった場合である。なお、図7に示す処理が開始されてから初めての判定では、必ず、CPU101は身体状態に変化があったと判定して(ステップS6;Yes)、次の処理に移行する。
Next, the
次に、CPU101は、ステップS5において判定した身体状態に対応する作曲テーブル202を不揮発性記憶部103から読み出し、RAM102の作曲テーブル一時保存領域102aにジャンル名(ここでは「アメリカンロック」)とともに保存する(ステップS7)。この際、CPU101は、ステップS5にて判定された身体状態(ここでは「止まっている」)という情報やそのときの日時を示す情報も、付属情報として上記作曲テーブル202に対応づけて保存する。これらの作曲テーブル202やジャンル名は、ステップS8でいう楽曲データとは全く同じではないが、これら作曲テーブル202やジャンル名を生成するためのパラメータとして機能するので、CPU101はこれらを楽曲データとして作曲テーブル一時保存領域102aに保存する。
Next, the
そして、CPU101は、保存した作曲テーブル202と、ステップS3で読み出したジャンル別テンプレート203に基づいてMIDI形式の楽曲データを生成する(ステップS8)。この例では、身体状態「止まっている」に対応する作曲テーブル202と、アメリカンロックに対応するジャンル別テンプレート203とが用いられることになる。
Then, the
図9は、楽曲データを生成する様子の一例を具体的に説明するための図である。
CPU101は、アメリカンロックのジャンル別テンプレート203に含まれる各種パターンのうち、身体状態「止まっている」に対応する作曲テーブル(図6参照)によって指定されるループパターンAと、音程パターンCと、音色パターンBと、効果パターンAと、音量パターンAとを選択する。
FIG. 9 is a diagram for specifically explaining an example of a state in which music data is generated.
The
ループパターンAは、楽曲要素ライブラリ204に含まれる各種ループのうち、パート1として「パターンループc」を指定している。また、音程パターンCは、音程を指定していない。音色パターンBは、パート1(ここではパターンループc)の音色を「ドラム」に指定している。効果パターンAは、パート1(ここではパターンループc)にエコー(残響)を付与するように指定している。そして、音量パターンCは、パート1(パターンループc)の音量を大きくするよう指定している。CPU101は、これらのパターンによって指定された内容で一区切りの楽曲データを生成すると、その再生処理を開始する(図7のステップS9)。
The loop pattern A designates “pattern loop c” as
そして、CPU101は、楽曲の再生を開始した後、ステップS4の処理に戻って再びセンサ群から出力信号を取り込み、利用者の身体状態を判定する。CPU101は、身体状態が変化していないと判定している期間は(ステップS6;No)、そのまま楽曲を再生しつつ、ステップS4→ステップS5→ステップS6;No→ステップS4→ステップS5→・・・の処理を繰り返す。つまり、CPU101は、利用者の身体状態に変化がない限り、同一の楽曲データを繰り返し再生する。これによって、利用者に対して、連続して再生される楽曲を聴かせることができる。
Then, after starting the reproduction of the music, the
これに対し、利用者の身体状態が変化すると(ステップS6;Yes)、CPU101は、その身体状態に応じた作曲テーブル202を用いて新たな楽曲データを生成する(ステップS7)。そして、CPU101は、生成した楽曲データを今まで再生していた楽曲データに代えて再生する。このように再生される楽曲の内容が変わることにより、利用者は、自身の身体状態が変化したことを知ることができる。
On the other hand, when the user's physical state changes (step S6; Yes), the
ところで、利用者は再生されている楽曲を聴きながら、その楽曲が気に入った場合には、操作部12を用いて「保存」を指示する操作を行う。CPU101は、この操作に応じて図10に示す処理を実行する。即ち、CPU101は、操作部12において「保存」を指示する操作が行われたことを検知すると(ステップS11)、作曲テーブル一時保存領域102aに保存されている作曲テーブル202、ジャンル名及びその付属情報を読み出し、不揮発性記憶部103の作曲テーブル格納領域103aに書き込む(ステップS12)。このときも、図7のステップS7の説明で述べたのと同様に、CPU101は、これら作曲テーブル202やジャンル名を楽曲データとして作曲テーブル格納領域103aに格納することになる。
By the way, when the user likes the music while listening to the music being reproduced, the user performs an operation of instructing “save” using the
そして、利用者が所望する時期に、保存しておいた楽曲を再生したい場合には、操作部12を用いて「再生」を指示する操作を行う。CPU101は、この操作に応じて図11に示す処理を実行する。即ち、CPU101は、操作部12において「再生」を指示する操作が行われたことを検知すると(ステップS21)、不揮発性記憶部103の作曲テーブル格納領域103aに格納されている作曲テーブル202、ジャンル名及びその付属情報を読み出す。そして、CPU101は、読み出した作曲テーブル202と、読み出したジャンル名に対応するジャンル別テンプレート203とを用いて、前述した図7のステップS8と同様の手順で楽曲データを生成してこれを楽曲として再生する(ステップS22)。なお、CPU101は、この再生と同時に、既に読み出している付属情報に含まれる、作曲当時の身体状態や日時を表示部11に表示(出力)する。このようにして、利用者はお気に入りの楽曲を保存し、かつ、それを好きなときに自由に再生することができる。
When the user wants to play the stored music at a desired time, the
次に、図12は、身体状態の時系列の変化と、この変化に応じて、作曲テーブル202の内容が遷移していく様子を説明する図である。図12に示すように、まず最初の「止まっている」状態では、ループパターンAと、音程パターンCと、音色パターンBと、効果パターンAと、音量パターンAとを指定した作曲テーブルが作曲に利用される。この場合は、利用者が身体を動かし始める前の段階であるから、静寂で落ち着いた雰囲気の楽曲、上述したように比較的遅いテンポのドラムの楽音が残響効果を伴って響き渡るような楽曲が作られることになる。なお、残響を付与する場合には、楽音発生部19の効果付与回路が、各パートの楽音データに対し、CPU101から指示された係数でインパルス応答波形のサンプルデータを畳み込む。これによって、効果付与回路から出力される楽音データが表す楽音には、作曲テーブル202によって指定される大きさの残響効果が付与されることとなる。
Next, FIG. 12 is a diagram illustrating a time-series change in the physical state and a state in which the contents of the music composition table 202 transition according to the change. As shown in FIG. 12, in the first "stopped" state, a composition table specifying loop pattern A, pitch pattern C, timbre pattern B, effect pattern A, and volume pattern A is composed. Used. In this case, it is a stage before the user begins to move the body, so there is a song with a quiet and calm atmosphere, and a music with a reverberation effect reverberating as described above. Will be made. When reverberation is applied, the effect applying circuit of the
その後、身体状態が「止まっている」から「歩いている」に遷移した場合を想定する。「歩いている」という身体状態の場合、1つ前の過去の身体状態との組み合わせを考慮すると、(止まっている→)歩いている、(早歩き→)歩いている、(ジョギング→)歩いている、(全力疾走→)歩いている、(息切れ→)歩いている・・・というように、複数とおりの身体状態がある。よって、これら複数通りの身体状態の遷移について用意された作曲テーブルのうち、(止まっている→)歩いている、という身体状態の遷移に対して用意されている作曲テーブルがCPU101によって選択される。図12に示す例では、ループパターンCと、音程パターンCと、音色パターンAと、効果パターンCと、音量パターンBとを指定した作曲テーブルが利用されることになる。この場合は、利用者が身体を動かし始めた段階であるから、これから何かが起こりそうなことを予感させるような躍動感のある楽曲、例えばピアノの前奏メロディとドラムの伴奏パートとがやや早いテンポで進行していくような楽曲が作られる。
Thereafter, a case is assumed in which the body state changes from “stopped” to “walking”. In the case of the physical condition of “walking”, considering the combination with the previous physical condition of the previous one, (stop →) walking, (fast walking →) walking, (jogging →) walking There are a number of physical states, such as walking (full sprinting →) walking, (shortness of breath →) walking, and so on. Therefore, the composition table prepared for the transition of the physical state of (stopped →) among the composition tables prepared for the plurality of transitions of the body state is selected by the
具体的には、ループパターンCが、楽曲要素ライブラリ204に含まれる各種ループのうち、パート1として「フレーズループa」を指定し、パート2として「フレーズループb」を指定し、パート3として「パターンループd」を指定する。また、音程パターンCは、パート1(ここではフレーズループa)を「半音高く」するように指定している。音色パターンAは、パート1(ここではフレーズループa)の音色を「ピアノ」に指定し、パート2(ここではフレーズループb)の音色を「ベース」に指定し、パート3(ここではパターンループd)の音色をドラムに指定している。効果パターンCは、パート3(ここではフレーズループa)にエコー(残響)を付与するように指定している。そして、音量パターンBは、パート2(フレーズループb)の音量を大きくするよう指定している。CPU101は、これらのパターンによって指定された内容で一定期間の楽曲データを生成すると、その再生処理を開始する。
Specifically, the loop pattern C designates “phrase loop a” as
その後、身体状態が再び「止まっている」に遷移すると、(止まっている→歩いている→)止まっている、という2つ前と1つ前の過去からの身体状態の遷移に対して用意されている作曲テーブルがCPU101によって選択される。図12に示す例では、ループパターンBと、音程パターンEと、音色パターンDと、効果パターンCと、音量パターンBとを指定した作曲テーブルが利用されることになる。この場合、一時休止を感じさせる間奏のような楽曲、例えばベースのソロのみが進行するような楽曲データが作られる。
After that, when the body state transitions to “stopped” again, it is prepared for the transition of the body state from the previous and the previous one of (stopped → walking →) stopped. The music composition table is selected by the
ここで、図13は、身体状態の様々な変化に応じて、再生される楽曲の内容が変化していく様子を視覚的に理解できるように示した図である。
図13において、利用者が止まっている状態では、比較的遅いテンポのパターンループがドラムによって演奏される。次に、利用者が歩き始めると、ドラムのパターンループが変化するとと共に、そのドラムのパターンループに、ピアノのフレーズループとベースのフレーズループが重ね合わされる。利用者がさらにジョギングを開始すると、テンポが速いパターンループがドラムによって演奏されるとともに、電子音によるテンポが速いビートが刻まれる。そして、利用者が右に曲がると、ドラムのパターンループが変わると共に、ギターのフレーズループが加わる。利用者が右に曲がり終えると、再びジョギングの楽曲に戻る。また、利用者が右手を上げると、そのときだけ、ホーンが鳴り響く。そして、例えば信号待ちなどで利用者がジョギングを中断し、止まっている状態になると、今度はベースのソロのみが進行する。そして、利用者が再びジョギングを開始すると、それ以前のピアノのパターンループとは異なるパターンループが演奏される。ただし、ドラムのパターンループは、それ以前のパターンループと同じである。
Here, FIG. 13 is a diagram showing the state in which the content of the music to be played changes in accordance with various changes in the body state so that the user can visually understand.
In FIG. 13, when the user is stopped, a relatively slow tempo pattern loop is played by the drum. Next, when the user starts walking, the drum pattern loop changes, and the drum pattern loop and the bass phrase loop are superimposed on the drum pattern loop. When the user starts jogging further, a fast-tempo pattern loop is played by the drum, and a fast tempo beat by electronic sound is engraved. When the user turns to the right, the drum pattern loop changes and a guitar phrase loop is added. When the user finishes turning to the right, he returns to the jogging song. Also, if the user raises his right hand, the horn will sound only at that time. Then, if the user stops jogging, for example due to waiting for a signal, and stops, only the bass solo will proceed. When the user starts jogging again, a pattern loop different from the previous piano pattern loop is played. However, the drum pattern loop is the same as the previous pattern loop.
このように、第1実施形態によれば、利用者は、「お気に入り」として指定した楽曲データ(作曲テーブル202及びジャンル名)を楽音制御装置1に保存し、かつ、それを好きなときに楽音制御装置1によって自由に再生することができる。また、この楽音制御装置1においては、センサ群によって利用者(運動体)の状態が検出され、その状態に応じて異なる楽曲データが生成されて再生されるようになっているため、利用者は、自らの身体の状態に調和した雰囲気の楽曲を聴くことができ、独特の面白さを体感することができる。そして、同じような身体の状態であっても、それ以前の過去の身体状態がどうであったかということに応じて楽曲の内容が変わり得るので、利用者を飽きさせることがない。
As described above, according to the first embodiment, the user saves the music data (composition table 202 and genre name) designated as “favorite” in the musical
(2)第2実施形態
上述した第1実施形態では、楽音制御装置1は、作曲テーブル202及びジャンル名を楽曲データとして作曲テーブル一時保存領域102aや作曲テーブル格納領域103aに格納していたが、第2実施形態では、作曲テーブル202及びジャンル別テンプレート203に基づいて生成されたMIDI形式の楽曲データを作曲テーブル一時保存領域102aや作曲テーブル格納領域103aに格納する。図14は、第2実施形態に係る楽音制御装置の制御部100aの構成を示すブロック図である。図14に示す制御部100aの構成が図3に示した制御部100と異なる点は、FIFO(First in First out)形式でデータの読み書きを行うバッファメモリ104を備えている点と、不揮発性記憶部103の作曲テーブル格納領域103aに代えて、MIDI形式の楽曲データを格納するための楽曲データ格納領域105が設けられている点である。バッファメモリ104は、第1実施形態のRAM102上の作曲テーブル一時保存領域102aと同様の機能を担う。また、楽曲データ格納領域105は、第1実施形態の不揮発性記憶部103の作曲テーブル格納領域103aと同様の機能を担う。
(2) Second Embodiment In the first embodiment described above, the musical
作曲時の動作は次のようになる。CPU101は、図7のステップ6において身体状態を判定した後、その身体状態に応じた作曲テーブル202を参照してMIDI形式の楽曲データをRAM102上で生成し、これを付属情報とともにバッファメモリ104に順次転送して保存する。そして、CPU101は、バッファメモリ104から順次楽曲データを読み出して再生を開始する。
The operation during composition is as follows. After determining the physical state in step 6 of FIG. 7, the
また、保存時の動作は次のようになる。利用者が操作部12を用いて「保存」を指示する操作を行う。CPU101は、この操作に応じて、バッファメモリ104に保存されている楽曲データ及びその付属情報を読み出し、不揮発性記憶部103の楽曲データ格納領域105に書き込む。一方、再生時の動作は次のようになる。利用者が操作部12を用いて「再生」を指示する操作を行うと、CPU101は、この操作に応じて、不揮発性記憶部103の楽曲データ格納領域105に格納されている楽曲データを読み出し、これを楽曲として再生する。
The operation at the time of storage is as follows. The user performs an operation of instructing “save” using the
この第2実施形態においても、第1実施形態と同様に、利用者が指定した楽曲データを楽音制御装置1に保存し、かつ、それを好きなときに楽音制御装置1によって自由に再生することができる。
Also in the second embodiment, music data designated by the user is stored in the musical
(3)第3実施形態
上述した第1,2実施形態では、楽音制御装置1が利用者の身体状態に応じて楽曲データを生成するものであったが、第3実施形態では、複数の楽音制御装置どうしが互いに情報をやり取りし、その情報に応じて楽曲要素データ、音程、音色、効果及び音量を変更することで楽曲データを加工する。例えば、ジョギング中の利用者と、止まっている利用者がすれ違うような場合であれば、前者(ジョギング中)が利用している楽音制御装置が再生している楽曲を特徴付ける情報を、後者(止まっている)が利用している楽音制御装置に送信すると、それまでの「止まっている」状態に応じた楽曲が、「ジョギング」状態に応じた楽曲のようにややテンポアップした楽曲となるように加工される。
以下、この第3実施形態の詳細について説明する。
(3) Third Embodiment In the first and second embodiments described above, the musical
Details of the third embodiment will be described below.
図15は、第3実施形態に係る楽音制御装置1aの構成を示すブロック図である。
図15に示す楽音制御装置1aの構成が第2実施形態の楽音制御装置1aと異なる点は、無線通信部120を備えているところと、制御部100の動作である。無線通信部120は、例えばIrDA(Infrared Data Association)やブルートゥース(登録商標)、或いはDSRC(Dedicated Short Range Communication)方式などの通信方式で、他の楽音制御装置の無線通信部とデータ通信を行う。
FIG. 15 is a block diagram showing the configuration of the musical tone control apparatus 1a according to the third embodiment.
The configuration of the musical tone control device 1a shown in FIG. 15 is different from the musical tone control device 1a of the second embodiment in that the
図16は、制御部100が記憶している制御プログラムに記述された手順を示すフローチャートである。
無線通信部120は、上記通信方式によって決められた手順で間欠的にポーリング信号を周囲に送信している。これと並行して、無線通信部120は、他の楽音制御装置の無線通信部から送信されてくるポーリング信号を間欠的に受信するようになっており、そのポーリング信号の受信電界強度が電界強度測定回路121(図15参照)によって測定されている。
FIG. 16 is a flowchart illustrating a procedure described in a control program stored in the
The
CPU101は、電界強度測定回路121によって測定される受信電界強度を監視しており、他の楽音制御装置とデータ通信が可能な程度の受信電界強度に到達したと判断すると(ステップS41;Yes)、自らが生成し再生している楽曲データを特徴付ける特徴情報を、他の楽音制御装置の無線通信部に送信する一方、その他の楽音制御装置の無線通信部から送信されてくる特徴情報を受信する(ステップS42)。ここで、「楽曲データを特徴付ける特徴情報」とは、例えば作曲に利用された作曲テーブル202の内容そのものであってもよいし、ループ、音程、音色、効果及び音量のうち少なくともいずれか1つの内容を表す情報であってもよい。
When the
CPU101は、受信した特徴情報の内容に基づいて、自らが生成し再生している楽曲データを構成するループ、音色、音程、効果、音量を変化させることで、楽曲を加工する(ステップS43)。具体的な加工方法については様々なものが考えられるが、例えば再生している楽曲の音量を特徴情報が表す音量に近づけたり、また、再生音量そのものを特徴情報が表す音量そのものにそっくり入れ替えてもよい。また、再生している楽曲の音色を特徴情報が表す音色の一部と変えたり、再生している全ての音色を特徴情報が表す内容にそっくり入れ替えてもよい。また、再生している楽曲に対して特徴情報が表す効果を付与するようにしてもよいし、これとは逆に、特徴情報の中に効果に関連する情報が含まれていない場合には、再生している楽曲の効果を除去するようにしてもよい。CPU101は、このようにして生成した楽曲データを上記特徴情報とともにバッファメモリ104に保存する。そして、CPU101は、このバッファメモリ104から楽曲データを順次読み出して楽曲の再生を行う(ステップS44)。さらに、CPU101は、この再生と同時に、上記特徴情報を表示部11に表示(出力)するようにしてもよい。例えば、音色の特徴情報として「ドラムの影響あり」とか、音程の特徴情報として「半音高い」といったメッセージを表示部11に表示させるといった具合である
Based on the content of the received feature information, the
このように第3実施形態では、複数の楽音制御装置どうしが互いに情報をやり取りし、その情報に応じて楽曲データを加工して再生するので、第1実施形態で述べた効果に加えて、利用者に対してさらに変化に富んだ楽曲を提供することができる。 As described above, in the third embodiment, a plurality of musical tone control devices exchange information with each other, and process and reproduce music data according to the information. In addition to the effects described in the first embodiment, use It is possible to provide music with more variety to the user.
(4)変形例
上述した第1〜第3実施形態は次のように変形してもよい。
第1〜第3実施形態において、不揮発性記憶部103は、例えばメモリカードや光ディスクあるいは磁気ディスクなど、楽音制御装置に着脱可能な記憶装置としてもよい。このようにすれば、お気に入りとして保存した楽曲を他の楽音制御装置によって再生することも可能となる。
(4) Modification Examples The first to third embodiments described above may be modified as follows.
In the first to third embodiments, the
第1〜第3実施形態では、現在の身体状態に加えて、その2つ前と1つ前の過去の身体状態をも考慮して作曲テーブル202の内容を定めていた。しかし、これに限定されるわけではなく、現在の身体状態だけについて作曲テーブル202の内容を定めてもよいし、さらに3つ以上前の過去の身体状態をも考慮して定めるようにしてもよい。 In the first to third embodiments, in addition to the current physical condition, the contents of the music composition table 202 are determined in consideration of the two previous and previous previous physical conditions. However, the present invention is not limited to this, and the content of the music composition table 202 may be determined only for the current physical condition, or may be determined in consideration of three or more previous physical conditions. .
第1〜第3実施形態においては、MIDI規格に準拠した楽曲データを用いたが、楽曲データの形式はこれに限られない。例えば、楽音の信号波形をサンプリングして得られた楽曲要素データを用いて楽曲データを生成してもよい。なお、楽曲要素ライブラリ204は、楽音制御装置1の不揮発性記憶部103に予め格納されたものである必要はなく、例えば、インターネットなどのネットワークを介して所定のサーバ装置から楽音制御装置1が受信したデータであってもよいし、光ディスクに代表される各種の記録媒体から楽音制御装置1に読み込まれたデータであってもよい。なお、楽曲の音色はピアノやドラムなどの楽器に限らず、例えば川の流れる音や動物の鳴き声といった自然音を用いてもよい。
In the first to third embodiments, the music data conforming to the MIDI standard is used, but the format of the music data is not limited to this. For example, music data may be generated using music element data obtained by sampling a signal waveform of a musical sound. Note that the
第1〜第3実施形態では、利用者という「人間」の運動体の身体状態に応じて楽曲データを生成していたが、運動体は人間以外のものであってもよい。例えば、運動体は人間以外の動物であってもよいし、風見鶏や自転車或いは掃除機などのように何らかの外力の作用で動くものでもよいし、洗濯機や自動車などのように自らの動力源を用いて動くものであってもよい。 In the first to third embodiments, the music data is generated according to the physical state of the user's “human” moving body, but the moving body may be other than a human. For example, the moving body may be an animal other than a human being, may be moved by some external force, such as a weathercock, a bicycle, or a vacuum cleaner, or may have its own power source such as a washing machine or a car. It may be used to move.
第1〜第3実施形態においては、利用者の身体状態に応じて楽曲データが生成される構成を例示したが、これに加えて、利用者が操作部12を用いて入力した指示を楽曲データの内容に反映するようにしてもよい。例えば、利用者が指定した音色のパートを楽曲に追加したり或いは楽曲から削除したり、利用者の意図するような再生テンポに調整したり、といった具合である。
In the first to third embodiments, the configuration in which music data is generated according to the user's physical condition is exemplified, but in addition to this, the instruction input by the user using the
第3実施形態においては、他の楽音制御装置との距離を測定し、この距離に基づいて、再生している楽曲を加工するようにしてもよい。具体的には次のとおりである。CPU101は、無線部120の電界強度測定回路121によって測定される強度レベルを参照することで、他の楽音制御装置との距離をおおよそ特定することができる。そこで、CPU101は、例えば他の楽音制御装置との距離が小さくなればなるほど、再生している楽曲の音量を大きくする一方、他の楽音制御装置との距離が大きくなればなるほど、再生している楽曲の音量を小さくする。このようにすれば、利用者は、他の楽音制御装置1の利用者が近づいたり或いは遠ざかったりすることを、楽曲の音量によって体感することができる。また、これを応用して、楽曲に対していわゆるドップラー効果のような音響効果を与えることも可能である。さらに、この場合、測定した距離を表す距離情報を楽曲データと対応付けてRAMやバッファメモリに一時保存したり不揮発性記憶部に格納しておき、不揮発性記憶部から読み出した楽曲データに基づいて楽曲を再生する際に、この楽曲データに対応づけられて格納されている距離情報を表示(出力)するようにしてもよい。例えば、「10mの近さ」とか、「接触するほど近い」といったメッセージを表示部11に表示させるといった具合である。
In the third embodiment, the distance to another musical sound control device may be measured, and the music being played back may be processed based on this distance. Specifically, it is as follows. The
制御プログラムは、インターネットなどのネットワークを介して所定のサーバ装置から楽音制御装置1に提供されるものであってもよいし、何らかの記録媒体に格納された状態で提供されて楽音制御装置1にインストールされるものであってもよい。この種の記録媒体としては、CD−ROM(Compact Disk-Read Only Memory)に代表される各種の光ディスクのほか、可搬型の磁気ディスクなどが考えられる。
The control program may be provided from the predetermined server device to the music
1,1a……楽音制御装置、10……本体、11……表示部、12……操作部、14……脈拍センサ、15a,15b……加速度センサ、16……イヤホン、18……ジャイロセンサ、19……楽音発生部、100,100a……制御部、101……CPU、102……RAM、102a……作曲テーブル一時保存領域、103……不揮発性記憶部、103a……作曲テーブル格納領域、104……バッファメモリ、105……楽曲データ格納領域、120……無線通信部、200……制御プログラム、201……身体状態判定テーブル、202……作曲テーブル、203……ジャンル別テンプレート、204……楽曲要素ライブラリ。
DESCRIPTION OF
Claims (6)
前記運動体の状態別に定められたアルゴリズムに従って楽曲データを生成する作曲手段と、
生成された楽曲データに基づいて楽曲を再生する第1の再生手段と、
再生された楽曲を表す楽曲データを一時的に保存する一時保存手段と、
ユーザによる操作を受け付ける操作手段と、
前記操作手段がユーザから保存を指示する操作を受け付けた場合には、前記一時保存手段によって保存されている楽曲データを読み出し、不揮発性記憶手段に書き込む書込手段と、
前記操作手段がユーザから再生を指示する操作を受け付けた場合には、前記不揮発性記憶手段によって保存されている楽曲データを読み出し、読み出した楽曲データに基づいて楽曲を再生する第2の再生手段と
を備える楽音制御装置。 A determination means for analyzing a signal output from the sensor and determining a state of the moving body to which the sensor is attached;
Composition means for generating music data according to an algorithm defined for each state of the moving body,
First playback means for playing back music based on the generated music data;
Temporary storage means for temporarily storing music data representing the reproduced music;
An operation means for accepting an operation by a user;
When the operation means accepts an operation for instructing saving from the user, the writing means reads out the music data stored by the temporary storage means and writes it into the nonvolatile storage means;
A second reproduction unit that reads out music data stored in the nonvolatile storage unit and reproduces the music based on the read music data when the operation unit receives an operation to instruct reproduction from the user; A sound control device comprising:
前記書込手段は、前記一時保存手段によって保存されている付属情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、
さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている付属情報を出力する出力手段を備えた請求項1記載の楽音制御装置。 The temporary storage means stores associated information including at least the state of the moving body determined by the determination means in association with the music data,
The writing means writes the auxiliary information stored by the temporary storage means in association with the music data in the nonvolatile storage means,
Further, when the second reproduction unit reproduces a piece of music based on the piece of music data read from the nonvolatile storage unit, the auxiliary information written in the nonvolatile storage unit in association with the piece of music data is displayed. 2. A musical tone control apparatus according to claim 1, further comprising output means for outputting.
前記作曲手段が前記アルゴリズムに従って生成した楽曲データを特徴づける特徴情報を前記通信手段によって他の楽音制御装置に送信する一方、他の楽音制御装置から送信されてくる前記特徴情報を前記通信手段によって受信する通信制御手段とを備え、
前記作曲手段は、前記アルゴリズムに従って生成した楽曲データを、前記通信制御手段が前記通信手段によって他の楽音制御装置から受信した特徴情報の内容に基づいて加工し、
前記第1の再生手段は、前記作曲手段によって加工された楽曲データに基づいて楽曲を再生する請求項1記載の楽音制御装置。 Communication means for communicating with other musical sound control devices;
The communication means transmits the characteristic information characterizing the music data generated according to the algorithm to the other musical sound control device, while the communication means receives the characteristic information transmitted from the other musical sound control device. Communication control means for
The music composition means processes the music data generated according to the algorithm based on the content of the characteristic information received by the communication control means from another musical tone control device by the communication means,
2. The musical tone control apparatus according to claim 1, wherein the first reproduction means reproduces music based on music data processed by the music composition means.
前記書込手段は、前記一時保存手段によって保存されている特徴情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、
さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている特徴情報を出力する出力手段を備えた請求項3記載の楽音制御装置。 The temporary storage unit stores the feature information received by the communication unit by the communication unit in association with the music data,
The writing means writes the feature information stored by the temporary storage means to the nonvolatile storage means in association with the music data;
Further, when the music is reproduced based on the music data read from the non-volatile storage means by the second reproduction means, the characteristic information written in the non-volatile storage means in association with the music data is stored. 4. The musical tone control apparatus according to claim 3, further comprising output means for outputting.
前記作曲手段は、前記アルゴリズムに従って生成した楽曲データを、前記測定手段によって測定された距離に基づいて加工し、
前記第1の再生手段は、前記作曲手段によって加工された楽曲データに基づいて楽曲を再生する請求項1記載の楽音制御装置。 It has a measuring means for measuring the distance between its own device and another musical sound control device,
The music composition means processes music data generated according to the algorithm based on the distance measured by the measurement means,
2. The musical tone control apparatus according to claim 1, wherein the first reproduction means reproduces music based on music data processed by the music composition means.
前記書込手段は、前記一時保存手段によって保存されている距離情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、
さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている距離情報を出力する出力手段を備えた請求項5記載の楽音制御装置。 The temporary storage means stores distance information representing the distance measured by the measurement means in association with the music data,
The writing means writes the distance information stored by the temporary storage means in association with the music data in the nonvolatile storage means;
Further, when the second reproduction unit reproduces the music based on the music data read from the nonvolatile storage unit, the distance information written in the nonvolatile storage unit in association with the music data is obtained. 6. The musical tone control apparatus according to claim 5, further comprising output means for outputting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005067909A JP2006251376A (en) | 2005-03-10 | 2005-03-10 | Musical sound controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005067909A JP2006251376A (en) | 2005-03-10 | 2005-03-10 | Musical sound controller |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006251376A true JP2006251376A (en) | 2006-09-21 |
Family
ID=37091952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005067909A Withdrawn JP2006251376A (en) | 2005-03-10 | 2005-03-10 | Musical sound controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006251376A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105611038A (en) * | 2015-07-31 | 2016-05-25 | 宇龙计算机通信科技(深圳)有限公司 | Audio resource playing method, audio resource playing system and terminal |
CN107005764A (en) * | 2014-11-21 | 2017-08-01 | 三星电子株式会社 | Earphone with activity control output |
EP3522566A4 (en) * | 2016-09-27 | 2019-10-16 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
CN111739530A (en) * | 2020-06-05 | 2020-10-02 | 北京搜狗科技发展有限公司 | Interaction method and device, earphone and earphone storage device |
CN111739529A (en) * | 2020-06-05 | 2020-10-02 | 北京搜狗科技发展有限公司 | Interaction method and device, earphone and server |
-
2005
- 2005-03-10 JP JP2005067909A patent/JP2006251376A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10735848B2 (en) | 2014-11-21 | 2020-08-04 | Samsung Electronics Co., Ltd. | Earphones with activity controlled output |
US11019422B2 (en) | 2014-11-21 | 2021-05-25 | Samsung Electronics Co., Ltd. | Earphones with activity controlled output |
KR20170088343A (en) * | 2014-11-21 | 2017-08-01 | 삼성전자주식회사 | Earphones with active controlled output |
EP3222054A4 (en) * | 2014-11-21 | 2018-06-13 | Samsung Electronics Co., Ltd. | Earphones with activity controlled output |
US10334348B2 (en) | 2014-11-21 | 2019-06-25 | Samsung Electronics Co., Ltd. | Earphones with activity controlled output |
US11418867B2 (en) | 2014-11-21 | 2022-08-16 | Samsung Electronics Co., Ltd. | Earphones with activity controlled output |
CN107005764A (en) * | 2014-11-21 | 2017-08-01 | 三星电子株式会社 | Earphone with activity control output |
KR102363388B1 (en) * | 2014-11-21 | 2022-02-14 | 삼성전자주식회사 | Earphones with active controlled output |
CN107005764B (en) * | 2014-11-21 | 2021-10-22 | 三星电子株式会社 | Earphone with activity control output |
US11032632B2 (en) | 2014-11-21 | 2021-06-08 | Samsung Electronics Co., Ltd. | Earphones with activity controlled output |
CN105611038A (en) * | 2015-07-31 | 2016-05-25 | 宇龙计算机通信科技(深圳)有限公司 | Audio resource playing method, audio resource playing system and terminal |
US10809972B2 (en) | 2016-09-27 | 2020-10-20 | Sony Corporation | Information processing device, information processing method, and program |
EP3522566A4 (en) * | 2016-09-27 | 2019-10-16 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
CN111739530A (en) * | 2020-06-05 | 2020-10-02 | 北京搜狗科技发展有限公司 | Interaction method and device, earphone and earphone storage device |
CN111739529A (en) * | 2020-06-05 | 2020-10-02 | 北京搜狗科技发展有限公司 | Interaction method and device, earphone and server |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2008004690A1 (en) | Portable chord output device, computer program and recording medium | |
JP3867630B2 (en) | Music playback system, music editing system, music editing device, music editing terminal, music playback terminal, and music editing device control method | |
JP2002515987A (en) | Real-time music creation system | |
JPH0944171A (en) | Karaoke device | |
JP2008242037A (en) | Automatic music piece data creation device and music reproduction control device | |
JP2008139426A (en) | Data structure of data for evaluation, karaoke machine, and recording medium | |
JP2007093821A (en) | Concert system | |
JP4496993B2 (en) | Music control device | |
JP2006284817A (en) | Electronic musical instrument | |
JP2006251376A (en) | Musical sound controller | |
JP4650182B2 (en) | Automatic accompaniment apparatus and program | |
JP3599686B2 (en) | Karaoke device that detects the critical pitch of the vocal range when singing karaoke | |
JP2008242285A (en) | Performance device and program for attaining its control method | |
JP3972619B2 (en) | Sound generator | |
JP2013200455A (en) | Musical performance training support system | |
JP4506147B2 (en) | Performance playback device and performance playback control program | |
JP4853054B2 (en) | Performance data editing apparatus and program | |
JP2007233078A (en) | Evaluation device, control method, and program | |
JP2008233558A (en) | Electronic musical instrument and program | |
JP2007225916A (en) | Authoring apparatus, authoring method and program | |
JPH065455B2 (en) | Singing instruction device | |
JP2006251054A (en) | Musical sound controller | |
JP4534926B2 (en) | Image display apparatus and program | |
JP7425558B2 (en) | Code detection device and code detection program | |
JP3173310B2 (en) | Harmony generator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080122 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090128 |