JP2018112724A - Performance guide device, performance guide program and performance guide method - Google Patents
Performance guide device, performance guide program and performance guide method Download PDFInfo
- Publication number
- JP2018112724A JP2018112724A JP2017052479A JP2017052479A JP2018112724A JP 2018112724 A JP2018112724 A JP 2018112724A JP 2017052479 A JP2017052479 A JP 2017052479A JP 2017052479 A JP2017052479 A JP 2017052479A JP 2018112724 A JP2018112724 A JP 2018112724A
- Authority
- JP
- Japan
- Prior art keywords
- audio data
- guide
- data portions
- performance
- guide data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、ユーザの演奏を支援する演奏ガイド装置、演奏ガイドプログラムおよび演奏ガイド方法に関する。 The present invention relates to a performance guide device, a performance guide program, and a performance guide method for supporting a user's performance.
ユーザの演奏を支援するための演奏ガイド機能を備えた電子楽器が知られている。特許文献1には、コンテンツ再生装置から発せられる楽音に同期した演奏データの提示が可能な電子楽器が記載されている。コンテンツ再生装置は、複数の音楽コンテンツのオーディオデータ、テンポマップデータおよび演奏データを記憶している。演奏データは、演奏ガイドを行うための制御データを含む。電子楽器で曲が選択されることに応じて、選択曲に関連付けられたテンポマップデータおよび演奏データが、コンテンツ再生装置から電子楽器に送信され、電子楽器の記憶部に記憶される。電子楽器からの要求に応じて、コンテンツ再生装置において選択曲の再生が開始される。電子楽器は、コンテンツ再生装置から音楽コンテンツの現在の再生位置を取得し、取得した再生位置に基づいて、演奏データによる演奏ガイドを行う。
An electronic musical instrument having a performance guide function for supporting a user's performance is known.
上記特許文献1においては、コンテンツ再生装置から電子楽器に音楽コンテンツの全ての演奏データおよび全てのテンポマップデータが送信された後に、コンテンツ再生装置でのオーディオデータの再生および電子楽器での演奏ガイドが開始される。そのため、オーディオデータの再生および演奏ガイドが開始されるまでに時間を要する。また、全ての演奏データおよびテンポマップデータを電子楽器に記憶させる必要があり、電子楽器において十分な記憶領域を確保する必要がある。
In the above-mentioned
本発明の目的は、オーディオデータの再生および演奏支援を開始するまでの時間を短縮することができ、かつ確保すべき記憶領域を削減することが可能な演奏ガイド装置、演奏ガイドプログラムおよび演奏ガイド方法を提供することである。 An object of the present invention is to provide a performance guide device, a performance guide program, and a performance guide method capable of reducing the time required to start playback of audio data and performance support and reduce the storage area to be secured. Is to provide.
本発明に係る演奏ガイド装置は、再生すべき音楽コンテンツのオーディオデータを構成しかつ時系列に並ぶ複数のオーディオデータ部分と、音楽コンテンツに対応する演奏を支援するためのガイドデータを構成しかつ複数のオーディオデータ部分の間に挿入される複数のガイドデータ部分とを順次受信する受信手段と、受信された複数のオーディオデータ部分および複数のガイドデータ部分を順次記憶する記憶手段と、記憶手段から複数のオーディオデータ部分および複数のガイドデータ部分を順次読み出す読出手段と、読み出された複数のオーディオデータ部分を連続的に再生する再生手段と、読み出された複数のガイドデータ部分に基づいて複数のオーディオデータ部分の再生に同期した演奏支援処理を行う演奏支援処理手段とを備える。 The performance guide device according to the present invention comprises a plurality of audio data portions constituting audio data of music content to be reproduced and arranged in time series, and guide data for supporting performance corresponding to the music content. Receiving means for sequentially receiving a plurality of guide data portions inserted between the audio data portions, storage means for sequentially storing the plurality of received audio data portions and the plurality of guide data portions, A reading means for sequentially reading out the audio data portion and the plurality of guide data portions, a reproducing means for continuously playing back the plurality of read audio data portions, and a plurality of based on the plurality of read guide data portions. Performance support processing means for performing performance support processing synchronized with reproduction of the audio data portion.
この演奏ガイド装置においては、オーディオデータを構成する複数のオーディオデータ部分と、ガイドデータを構成しかつ複数のオーディオデータ部分の間に挿入される複数のガイドデータ部分とが順次受信される。この場合、複数のオーディオデータ部分の間に複数のガイドデータ部分が挿入されているので、複数のオーディオデータ部分を順次受信しつつ複数のガイドデータ部分を順次受信することができる。そのため、複数のオーディオデータ部分を連続的に再生しつつ、複数のガイドデータ部分に基づく演奏支援処理を順次行うことができる。それにより、全てのオーディオデータ部分および全てのガイドデータ部分が受信される前に、オーディオデータ部分の再生およびガイドデータ部分に基づく演奏支援を開始することができる。したがって、オーディオデータの再生およびガイドデータによる演奏支援を開始するまでに要する時間を短縮することができる。 In this performance guide device, a plurality of audio data portions constituting audio data and a plurality of guide data portions constituting guide data and inserted between the plurality of audio data portions are sequentially received. In this case, since the plurality of guide data portions are inserted between the plurality of audio data portions, the plurality of guide data portions can be sequentially received while the plurality of audio data portions are sequentially received. Therefore, it is possible to sequentially perform the performance support processing based on the plurality of guide data portions while continuously reproducing the plurality of audio data portions. Thereby, before all the audio data portions and all the guide data portions are received, reproduction of the audio data portions and performance support based on the guide data portions can be started. Therefore, it is possible to shorten the time required to start playing audio data and supporting performance using guide data.
また、受信されたオーディオデータ部分から順次再生することができ、かつ受信されたガイドデータ部分から順次処理することができる。そのため、全てのオーディオデータ部分および全てのガイドデータ部分を記憶する必要がない。したがって、確保すべき記憶領域を削減することが可能となる。 Further, it is possible to sequentially reproduce from the received audio data part and to process sequentially from the received guide data part. Therefore, it is not necessary to store all audio data portions and all guide data portions. Therefore, it is possible to reduce the storage area to be secured.
各オーディオデータ部分は、第1の識別情報を含み、各ガイドデータ部分は、第2の識別情報を含み、演奏ガイド装置は、第1および第2の識別情報に基づいて、オーディオデータ部分とガイドデータ部分とを識別する識別手段をさらに備えてもよい。この場合、受信されたオーディオデータ部分とガイドデータ部分とを容易にかつ適切に識別することができる。 Each audio data portion includes first identification information, each guide data portion includes second identification information, and the performance guide device performs the audio data portion and the guide based on the first and second identification information. An identification means for identifying the data portion may be further provided. In this case, the received audio data portion and guide data portion can be easily and appropriately identified.
第2の識別情報は、複数のオーディオデータ部分と複数のガイドデータ部分との時間的関係を含んでもよい。この場合、各ガイドデータ部分の第2の識別情報に基づいて、演奏支援処理の時点を特定することができる。 The second identification information may include a temporal relationship between the plurality of audio data portions and the plurality of guide data portions. In this case, the time point of the performance support process can be specified based on the second identification information of each guide data portion.
本発明に係る演奏ガイドプログラムは、再生すべき音楽コンテンツのオーディオデータを構成しかつ時系列に並ぶ複数のオーディオデータ部分と、音楽コンテンツに対応する演奏を支援するためのガイドデータを構成しかつ複数のオーディオデータ部分の間に挿入される複数のガイドデータ部分とを順次受信するステップと、受信された複数のオーディオデータ部分および複数のガイドデータ部分を順次記憶するステップと、記憶された複数のオーディオデータ部分および複数のガイドデータ部分を順次読み出すステップと、読み出された複数のオーディオデータ部分を連続的に再生するステップと、読み出された複数のガイドデータ部分に基づいて複数のオーディオデータ部分の再生に同期した演奏支援処理を行うステップとを、コンピュータに実行させる。 The performance guide program according to the present invention comprises a plurality of audio data portions constituting audio data of music content to be reproduced and arranged in time series, and guide data for supporting a performance corresponding to the music content. Sequentially receiving a plurality of guide data portions inserted between the audio data portions, sequentially storing the received plurality of audio data portions and the plurality of guide data portions, and a plurality of stored audio Sequentially reading the data portion and the plurality of guide data portions; continuously reproducing the read plurality of audio data portions; and a plurality of audio data portions based on the plurality of read guide data portions. A step of performing performance support processing in synchronization with playback. To be executed by the data.
本発明に係る演奏ガイド方法は、再生すべき音楽コンテンツのオーディオデータを構成しかつ時系列に並ぶ複数のオーディオデータ部分と、音楽コンテンツに対応する演奏を支援するためのガイドデータを構成しかつ複数のオーディオデータ部分の間に挿入される複数のガイドデータ部分とを順次受信するステップと、受信された複数のオーディオデータ部分および複数のガイドデータ部分を順次記憶するステップと、記憶された複数のオーディオデータ部分および複数のガイドデータ部分を順次読み出すステップと、読み出された複数のオーディオデータ部分を連続的に再生するステップと、読み出された複数のガイドデータ部分に基づいて複数のオーディオデータ部分の再生に同期した演奏支援処理を行うステップとを含む。 The performance guide method according to the present invention includes a plurality of audio data portions constituting audio data of music content to be reproduced and arranged in time series, and guide data for supporting performance corresponding to the music content. Sequentially receiving a plurality of guide data portions inserted between the audio data portions, sequentially storing the received plurality of audio data portions and the plurality of guide data portions, and a plurality of stored audio Sequentially reading the data portion and the plurality of guide data portions; continuously reproducing the read plurality of audio data portions; and a plurality of audio data portions based on the plurality of read guide data portions. Performing performance support processing synchronized with reproduction.
これらの演奏ガイドプログラムおよび演奏ガイド方法によれば、オーディオデータの再生およびガイドデータによる演奏支援を開始するまでに要する時間を短縮することができ、かつ確保すべき記憶領域を削減することが可能となる。 According to these performance guide programs and performance guide methods, it is possible to reduce the time required to start playback of audio data and performance support using guide data, and to reduce the storage area to be secured. Become.
本発明によれば、オーディオデータの再生およびガイドデータによる演奏支援を開始するまでに要する時間を短縮することができ、かつ確保すべき記憶領域を削減することが可能となる。 According to the present invention, it is possible to reduce the time required to start playback of audio data and performance support using guide data, and to reduce the storage area to be secured.
以下、本発明の実施の形態に係る演奏ガイド装置、演奏ガイドプログラムおよび演奏ガイド方法について図面を用いて詳細に説明する。 Hereinafter, a performance guide device, a performance guide program, and a performance guide method according to embodiments of the present invention will be described in detail with reference to the drawings.
(1)音楽システムの構成
図1は本発明の実施の形態に係る演奏ガイド装置を含む音楽システムの構成を示すブロック図である。図1の音楽システム1は、音楽コンテンツ送信装置100および電子楽器200を備える。音楽コンテンツ送信装置100は、例えば、スマートフォンもしくはタブレット端末等の携帯情報装置、またはパーソナルコンピュータであり、複数の音楽コンテンツのオーディオデータを記憶するとともに、選択された音楽コンテンツのオーディオデータおよび選択された音楽コンテンツに対応する演奏を支援するガイドデータを演奏ガイド装置200Aに送信する。電子楽器200は、例えば、電子ピアノ等の電子鍵盤楽器であり、ユーザの演奏を支援するための演奏ガイド装置100Aを含む。演奏ガイド装置100Aは、演奏ガイド装置200から送信されるオーディオデータを再生するとともに、当該オーディオデータの再生に同期する演奏支援処理を行う。
(1) Configuration of Music System FIG. 1 is a block diagram showing a configuration of a music system including a performance guide device according to an embodiment of the present invention. The
図2は、図1の音楽コンテンツ送信装置100のハードウェア構成の一例を示すブロック図である。図2に示すように、音楽コンテンツ送信装置100は、タッチパネルディスプレイ101、検出回路102および表示回路103を備える。タッチパネルディスプレイ101は、検出回路102および表示回路103を介してバス120に接続される。
FIG. 2 is a block diagram showing an example of a hardware configuration of the music
音楽コンテンツ送信装置100は、RAM(ランダムアクセスメモリ)111、ROM(リードオンリメモリ)112、CPU(中央演算処理装置)113、タイマ113a、記憶装置114および通信I/F(インタフェース)115をさらに備える。RAM111、ROM112、CPU113、記憶装置114および通信I/F115はそれぞれバス120に接続され、タイマ113aはCPU113に接続される。RAM111は、例えば揮発性メモリからなり、CPU113の作業領域として用いられるとともに、種々のデータを一時的に記憶する。ROM112は、例えば不揮発性メモリからなり、システムプログラムおよび音楽コンテンツ送信プログラム等のコンピュータプログラムを記憶する。CPU113は、ROM112に記憶された音楽コンテンツ送信プログラムを実行することにより後述の音楽コンテンツ送信処理を行う。
The music
記憶装置114は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含み、複数の音楽コンテンツのオーディオデータを記憶する。音楽コンテンツは、楽曲の全体、楽曲の一部を構成する音楽フレーズ、楽曲の一部のパート音等を含む。上記の音楽コンテンツ送信プログラムが記憶装置114に記憶されてもよい。通信I/F115は、電子楽器200に有線通信可能または無線通信可能に接続される。通信I/F115を介して、オーディオデータおよびガイドデータが電子楽器200に送信される。
The
音楽コンテンツ送信プログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で提供され、ROM112または記憶装置114にインストールされてもよい。また、通信I/F115が通信網に接続され、通信網に接続されたサーバから配信された音楽コンテンツ送信プログラムがROM112または記憶装置114にインストールされてもよい。
The music content transmission program may be provided in a form stored in a computer-readable recording medium and installed in the
図3は、図1の電子楽器200のハードウェア構成の一例を示すブロック図である。図3に示すように、電子楽器200は、演奏操作子201、設定操作子202、表示部203、入力I/F(インタフェース)204、検出回路205、表示回路206およびガイド部250を備える。演奏操作子201は、鍵盤等の音高特定子を含み、入力I/F204を介してバス220に接続される。ユーザが演奏操作子201を操作することにより、演奏データが入力される。演奏データは、例えばMIDI(Musical Instrument Digital
Interface)データからなる。
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the electronic
Interface) data.
設定操作子202は、オンオフ操作されるスイッチ、回転操作されるロータリエンコーダ、またはスライド操作されるリニアエンコーダ等を含み、検出回路205を介してバス220に接続される。設定操作子202は、音量の調整、電源のオンオフおよび各種設定を行うために用いられる。表示部203は、例えば液晶ディスプレイを含み、表示回路206を介してバス220に接続される。表示部203により、演奏または設定等に関する各種情報が表示される。設定操作子202および表示部203の少なくとも一部がタッチパネルディスプレイにより構成されてもよい。
The
ガイド部250は、ユーザの演奏を支援するための支援情報をユーザに提示する。例えば、演奏操作子201が鍵盤である場合、ガイド部250は、複数の鍵にそれぞれ対応する複数の発光素子(例えば発光ダイオード)を含む。各発光素子は、対応する鍵と一体的に、または対応する鍵と隣り合う位置に設けられる。各発光素子が発光することにより、対応する鍵を押下すべきタイミングが支援情報としてユーザに提示される。
The
表示部203がガイド部250を含み、支援情報として、楽譜または押鍵位置等を表示してもよい。あるいは、サウンドシステム215がガイド部250を含み、支援情報として、演奏すべき音高のガイド音を出力してもよい。
The
電子楽器200は、RAM207、ROM208、CPU209、タイマ209a、記憶装置210および通信I/F211をさらに備える。RAM207、ROM208、CPU209、記憶装置210および通信I/F211はバス220に接続され、タイマ209aはCPU209に接続される。RAM207、ROM208、CPU209およびタイマ209aがコンピュータを構成する。
The electronic
RAM207は、例えば揮発性メモリからなり、CPU209の作業領域として用いられるとともに、各種データを一時的に記憶する。ROM208は、例えば不揮発性メモリからなり、システムプログラム、演奏ガイドプログラム等のコンピュータプログラムを記憶する。CPU209は、ROM208に記憶されたコード検出プログラムをRAM207上で実行することにより後述の演奏ガイド処理を行う。タイマ209aは、現在時刻等の時間情報をCPU113に与える。
The
記憶装置210は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含み、音楽コンテンツ送信装置100から送信されるオーディオデータおよびガイドデータを記憶する。上記の演奏ガイドプログラムが記憶装置210に記憶されてもよい。通信I/F211は、音楽コンテンツ送信装置100に有線通信可能または無線通信可能に接続される。通信I/F211を介して、音楽コンテンツ送信装置100からオーディオデータおよびガイドデータが送信される。
The
演奏ガイドプログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で提供され、ROM208または記憶装置210にインストールされてもよい。また、通信I/F211が通信網に接続され、通信網に接続されたサーバから配信された演奏ガイドプログラムがROM208または記憶装置210にインストールされてもよい。
The performance guide program may be provided in a form stored in a computer-readable recording medium and installed in the
電子楽器200は、音源213、効果回路214およびサウンドシステム215をさらに備える。音源213および効果回路214はバス220に接続され、サウンドシステム215は効果回路214に接続される。音源213は、演奏操作子201により入力された演奏データに基づいて楽音信号を生成する。効果回路214は、記憶装置210から与えられるオーディオデータおよび音源213により生成される楽音信号に音響効果を付与する。
The electronic
サウンドシステム215は、デジタルアナログ(D/A)変換回路、増幅器およびスピーカを含む。サウンドシステム215は、記憶装置210から効果回路214を通して与えられるオーディオデータおよび音源213から効果回路214を通して与えられる楽音信号をアナログ音信号に変換し、アナログ音信号に基づく音を発生する。それにより、楽音信号が再生される。電子楽器2において、主としてガイド部250、RAM9、ROM10、CPU113および記憶装置13が演奏ガイド装置200Aを構成する。
The
(2)機能的構成
図4は、音楽コンテンツ送信装置100および演奏ガイド装置200Aの機能的な構成を示すブロック図である。図4に示すように、音楽コンテンツ送信装置100は、受付部11、ガイドデータ取得部12、オーディオデータ分割部13、ガイドデータ分割部14、オーディオデータ送信部15、特定部16およびガイドデータ送信部17を含む。図2のCPU113がROM112または記憶装置114に記憶された音楽コンテンツ送信プログラムを実行することにより図4における音楽コンテンツ送信装置100の各部の機能が実現される。
(2) Functional Configuration FIG. 4 is a block diagram showing a functional configuration of the music
受付部11は、記憶装置114に記憶された複数の音楽コンテンツのうち再生すべき音楽コンテンツの指定を受け付ける。例えば、受付部11は、記憶されている複数の音楽コンテンツのタイトルリストを含む音楽コンテンツ指定画面を図2のタッチパネルディスプレイ101上に表示する。ユーザは、タッチパネルディスプレイ101を操作することにより、音楽コンテンツ指定画面上で所望の音楽コンテンツを指定することができる。以下、受付部11が指定を受け付けた音楽コンテンツを指定コンテンツと呼ぶ。
The accepting
ガイドデータ取得部12は、指定コンテンツに対応する演奏(以下、対応演奏と呼ぶ。)を支援するためのガイドデータを取得する。対応演奏は、指定コンテンツ自体の演奏であってもよく、指定コンテンツの伴奏であってもよく、あるいは指定コンテンツの一部のパートの演奏であってもよい。ガイドデータは、例えば、イベントデータの集合からなる。各イベントデータは、オーディオデータとの時間的関係を表す時間情報を含む。例えば、各イベントデータは、MIDI(Musical Instrument Digital Interface)規格におけるノートオンおよびノートオフのイベントデータであり、音高情報を含むとともに、時間情報として、指定コンテンツにおける時間位置を示すタイムスタンプを含む。
The guide
本例では、ガイドデータ取得部12が、指定コンテンツのオーディオデータに基づいてガイドデータを自動生成する。例えば、ガイドデータ取得部12は、オーディオデータから指定コンテンツのメロディーまたはコードを抽出し、抽出したメロディーまたはコードに基づいて対応演奏の音符情報を生成し、その音符情報に基づいてガイドデータを生成する。なお、オーディオデータからのメロディーまたはコードの抽出方法が複数用意され、その複数の抽出方法のうちユーザが選択した抽出方法によってメロディーまたはコードが抽出されてもよい。その場合、1つの音楽コンテンツに対して、フレーズ毎に異なる抽出方法が指定可能であってもよい。
In this example, the guide
オーディオデータ分割部13は、指定コンテンツのオーディオデータを複数のオーディオデータ部分に分割する。各オーディオデータ部分は、指定コンテンツの一部を表すオーディオデータであり、例えば予め定められた一定の時間長を有する。ガイドデータ分割部14は、ガイドデータ取得部12により取得されたガイドデータを複数のガイドデータ部分に分割する。各ガイドデータ部分は、1または複数のイベントデータからなる。
The audio
オーディオデータ送信部15は、演奏ガイド装置200Aからの再生開始要求に応答して、図2の通信I/F115を制御して、時系列に並ぶ複数のオーディオデータ部分を順次送信する。特定部16は、複数のオーディオデータ部分の間において、分割された複数のガイドデータ部分が割り込み可能な複数の割り込み可能位置を特定する。ガイドデータ送信部17は、図2の通信I/F115を制御して、各ガイドデータ部分を割り込み可能位置に割り込ませて送信する。この場合、複数のオーディオデータ部分および複数のガイドデータ部分が混在する混在データが音楽コンテンツ送信装置100から演奏ガイド装置200Aに送信される。混在データの詳細については後述する。
In response to the reproduction start request from the
演奏ガイド装置200Aは、開始受付部21、受信部22、識別部23、読出部24、再生部25および演奏支援処理部26を含む。図3のCPU209がROM208または記憶装置210に記憶された演奏ガイドプログラムを実行することにより図4における演奏ガイド装置200Aの各部の機能が実現される。開始受付部21は、指定コンテンツの再生開始の指示を受け付ける。例えば、ユーザは、図3の設定操作子202を操作することにより、指定コンテンツの再生開始を指示する。開始受付部21は、再生開始の指示を受け付けると、図3の通信I/F211を制御して、再生開始要求を音楽コンテンツ送信装置100に送信する。
The
受信部22は、図3の通信I/F211を制御して、音楽コンテンツ送信装置100から送信される複数のオーディオデータ部分および複数のガイドデータ部分を順次受信する。識別部23は、受信されたオーディオデータ部分とガイドデータ部分とを識別する。受信された複数のオーディオデータ部分および複数のガイドデータ部分は、記憶装置210に順次記憶される。
The receiving
読出部24は、記憶装置210から複数のオーディオデータ部分および複数のガイドデータ部分を順次読み出す。この場合、読出部24は、複数のオーディオデータ部分を記憶装置210に記憶された順で読み出し、複数のガイドデータ部分を記憶装置210に記憶された順で読み出す。再生部25は、読出部24により読み出された複数のオーディオデータ部分を連続的に再生する。
The
演奏支援処理部26は、読出部24により読み出された複数のガイドデータ部分に基づいて、複数のオーディオデータ部分の再生に同期した演奏支援処理を行う。これにより、図3のガイド部250からユーザに支援情報が提示される。例えば、ガイド部250が演奏操作子201としての鍵盤の複数の鍵にそれぞれ対応する複数の発光素子である場合、演奏支援処理部26は、読み出された各ガイドデータ部分に基づいて、演奏支援処理として各発光素子を適切なタイミングで発光させる。
The performance
(3)オーディオデータ部分およびガイドデータ部分
図5は、オーディオデータ部分の一例を示す図である。図5において、横軸は時間を表す。図5の例では、指定コンテンツのオーディオデータADが、複数のオーディオデータ部分PA1,PA2,・・・,PAn(nは、正の整数)に分割される。オーディオデータ部分PA1は、指定コンテンツの開始時点t0から時点t1までの部分を表し、オーディオデータ部分PA2は、指定コンテンツの時点t1からt2までの部分を表す。オーディオデータ部分PA3,・・・,An−1も同様に、指定コンテンツの一部をそれぞれ表す。本例では、オーディオデータ部分PA1,PA2,・・・,PAnの時間長は互いに等しい。
(3) Audio Data Part and Guide Data Part FIG. 5 is a diagram showing an example of the audio data part. In FIG. 5, the horizontal axis represents time. In the example of FIG. 5, the audio data AD of the designated content is divided into a plurality of audio data portions PA1, PA2,..., PAn (n is a positive integer). The audio data portion PA1 represents a portion from the start time t0 to the time t1 of the designated content, and the audio data portion PA2 represents a portion from the time t1 to the time t2 of the designated content. Similarly, the audio data portions PA3,..., An-1 each represent a part of the designated content. In this example, the audio data portions PA1, PA2,..., PAn have the same time length.
図6は、ガイドデータ部分の一例を示す図である。図6には、図5の指定コンテンツに対応するガイドデータが示される。図6の例では、ガイドデータGDは、複数のガイドデータ部分PG1,PG2,PG3,・・・,PGm(mは、正の整数)を含む。ガイドデータ部分PG1は、指定コンテンツの時点T1で発生されるべきイベント(例えば、ノートオン)を示し、ガイドデータ部分PG2は、指定コンテンツの時点T2で発生されるべきイベント(例えば、ノートオフ)を示す。ガイドデータ部分PG3,・・・,PGmも同様に、指定コンテンツの所定の時間位置で発生されるべきイベントを示す。なお、図6において、各ガイドデータ部分は模式的に矩形で表されるが、ガイドデータ部分が瞬時値を示すイベントデータからなる場合、図6における各ガイドデータ部分の横幅は意味をなさない。 FIG. 6 is a diagram illustrating an example of the guide data portion. FIG. 6 shows guide data corresponding to the designated content shown in FIG. In the example of FIG. 6, the guide data GD includes a plurality of guide data portions PG1, PG2, PG3,..., PGm (m is a positive integer). The guide data portion PG1 indicates an event (for example, note-on) that should be generated at the designated content time T1, and the guide data portion PG2 indicates an event (for example, note-off) that should be generated at the specified content time T2. Show. Similarly, guide data portions PG3,... PGm indicate events to be generated at predetermined time positions of the designated content. In FIG. 6, each guide data portion is schematically represented by a rectangle. However, when the guide data portion is composed of event data indicating an instantaneous value, the horizontal width of each guide data portion in FIG. 6 does not make sense.
本例では、オーディオデータADに基づいてガイドデータGDが自動生成される。そのため、予めガイドデータGDを用意する必要がなく、オーディオデータADがあれば、指定コンテンツの再生とともに、それに同期した演奏支援が実現される。この場合、ユーザは、演奏支援に合わせて演奏することにより、指定コンテンツの再生に演奏で参加することができる。 In this example, guide data GD is automatically generated based on the audio data AD. Therefore, it is not necessary to prepare the guide data GD in advance, and if there is audio data AD, performance support synchronized with the reproduction of the designated content is realized. In this case, the user can participate in the reproduction of the designated content by performing by performing according to the performance support.
(4)オーディオデータ部分およびガイドデータ部分の送信
図7および図8は、オーディオデータ部分PA1,PA2,・・・,PAnおよびガイドデータ部分PG1,PG2,PG3,・・・,PGmの送信について説明するための図である。図7および図8においては、縦軸が時間を表す。図7の例では、オーディオデータ部分PA1,PA2,・・・,PAnは、指定コンテンツにおける順番に従って、時系列に並べられる。オーディオデータ部分PA1,PA2,・・・,PAnの各々には、“Audio”を表す識別子D1が付される。ガイドデータ部分PG1,PG2,・・・、PG
mの各々には、“Instruction”を表す識別子D2が付される。識別子D1は第1の識別情報の例であり、識別子D2は第2の識別情報の例である。これらの識別子D1,D2により、オーディオデータ部分とガイドデータ部分とを容易にかつ適切に識別することができる。また、ガイドデータ部分PG1,PG2,・・・、PGmは、時間情報として、図6の時点T1,T2,・・・,Tmを表すタイムスタンプTSをそれぞれ含む。
(4) Transmission of audio data portion and guide data portion FIGS. 7 and 8 illustrate transmission of audio data portions PA1, PA2,..., PAn and guide data portions PG1, PG2, PG3,. It is a figure for doing. 7 and 8, the vertical axis represents time. In the example of FIG. 7, the audio data portions PA1, PA2,..., PAn are arranged in time series according to the order in the designated content. Each of the audio data portions PA1, PA2,..., PAn is assigned an identifier D1 representing “Audio”. Guide data part PG1, PG2, ..., PG
Each m is assigned an identifier D2 representing “Instruction”. The identifier D1 is an example of first identification information, and the identifier D2 is an example of second identification information. With these identifiers D1 and D2, the audio data portion and the guide data portion can be easily and appropriately identified. Further, the guide data portions PG1, PG2,... PGm include time stamps TS representing the time points T1, T2,.
オーディオデータ部分PA1,PA2,・・・,PAnの間に、ガイドデータ部分PG1,PG2,・・・、PGmが割り込み可能な割り込み可能位置が特定される。例えば、各オーディオデータ部分のデータ密度に基づいて、時間軸上で隣り合う各2つのオーディオデータ部分の間に各ガイドデータ部分が割り込み可能か否かが判定され、割り込み可能であると判定された2つのオーディオデータ部分の間の位置が、割り込み可能位置に特定される。オーディオデータ部分のデータ密度は、発せられるべき音の密度または音質等に依存する。 Between the audio data portions PA1, PA2,..., PAn, interruptable positions where the guide data portions PG1, PG2,. For example, based on the data density of each audio data portion, it is determined whether or not each guide data portion can be interrupted between each two adjacent audio data portions on the time axis, and it is determined that interrupt is possible. A position between the two audio data portions is specified as an interruptible position. The data density of the audio data portion depends on the density or quality of the sound to be emitted.
具体的には、時間軸上で隣り合う2つのオーディオデータ部分のデータ密度が比較的小さい場合に、その2つのオーディオデータ部分の間にガイドデータ部分を割り込ませることが可能である。また、時間軸上で隣り合う2つのオーディオデータ部分のうち、前のオーディオデータ部分の末尾部および後のオーディオデータ部分の先頭部の少なくとも一方が指定コンテンツの無音部分に対応する場合、この2つのオーディオデータ部分の間に、ガイドデータ部分を割り込ませることが可能である。 Specifically, when the data density of two audio data portions adjacent on the time axis is relatively small, a guide data portion can be inserted between the two audio data portions. In addition, when at least one of the last part of the preceding audio data part and the beginning part of the subsequent audio data part of two audio data parts adjacent on the time axis corresponds to the silent part of the designated content, It is possible to interrupt the guide data portion between the audio data portions.
このように、各オーディオデータ部分のデータ密度に基づいて特定された割り込み可能位置に各ガイドデータ部分が割り込まされることにより、オーディオデータ部分PA1,PA2,・・・,PAnおよびガイドデータ部分PG1,PG2,・・・、PGmを滞りなく送信することができる。そのため、演奏ガイド装置200Aにおいて、オーディオデータ部分PA1,PA2,・・・,PAnの再生およびガイドデータ部分PG1,PG2,・・・、PGmに基づく演奏支援処理に遅延が生じることが防止される。
In this way, each guide data portion is interrupted at an interruptible position specified based on the data density of each audio data portion, so that the audio data portions PA1, PA2,..., PAn and the guide data portions PG1, PG2,... PGm can be transmitted without delay. Therefore, in the
図7の例では、オーディオデータ部分PA2,PA3の間の位置が、ガイドデータ部分PG1,PG2の割り込み可能位置に特定され、オーディオデータ部分PA4,PA5の間の位置が、ガイドデータ部分PG3の割り込み可能位置に特定される。 In the example of FIG. 7, the position between the audio data portions PA2 and PA3 is specified as the interruptable position of the guide data portions PG1 and PG2, and the position between the audio data portions PA4 and PA5 is determined as the interrupt of the guide data portion PG3. It is specified as a possible position.
各ガイドデータ部分の割り込み可能位置は、当該ガイドデータ部分に対応するイベントの発生時点よりも前の時間位置に対応していることが好ましい。本例では、図6に示すように、ガイドデータ部分PG1,PG2に対応するイベントの発生時点T1,T2は、オーディオデータ部分PA3の開始時点t2よりも前であり、ガイドデータ部分PG3に対応するイベントの発生時点T3は、オーディオデータ部分PA4の開始時点t3よりも前である。 It is preferable that the interruptable position of each guide data part corresponds to a time position before the time of occurrence of an event corresponding to the guide data part. In this example, as shown in FIG. 6, the event occurrence times T1 and T2 corresponding to the guide data portions PG1 and PG2 are before the start time t2 of the audio data portion PA3, and correspond to the guide data portion PG3. The event occurrence time T3 is before the start time t3 of the audio data portion PA4.
オーディオデータ部分PA1,PA2,・・・,PAnは、指定コンテンツにおける順番に従って順次電子楽器200に送信される。また、ガイドデータ部分PG1,PG2,・・・,PGmは、イベントの発生順に従って、かつ特定された割り込み可能位置に割り込まされて、電子楽器200に順次送信される。なお、割り込み可能位置の特定は、オーディオデータ部分を送信しながら行ってもよく、オーディオデータ部分の送信前に行ってもよい。
The audio data portions PA1, PA2,..., PAn are sequentially transmitted to the electronic
図8の例では、オーディオデータ部分PA1,PA2が順に送信された後、ガイドデータ部分PG1,PG2が順に送信され、続けてオーディオデータ部分PA3が送信された後、ガイドデータ部分PG3が送信される。このようにして、オーディオデータ部分PA1,PA2,・・・,PAnの間にガイドデータ部分PG1,PG2,・・・,PGmが挿入された混在データMDが電子楽器200に送信される。以下、混在データに含まれるオーディオデータ部分およびガイドデータ部分をデータ部分と総称する。 In the example of FIG. 8, after the audio data portions PA1 and PA2 are sequentially transmitted, the guide data portions PG1 and PG2 are sequentially transmitted, and after the audio data portion PA3 is subsequently transmitted, the guide data portion PG3 is transmitted. . In this way, the mixed data MD in which the guide data portions PG1, PG2,..., PGm are inserted between the audio data portions PA1, PA2,. Hereinafter, the audio data portion and the guide data portion included in the mixed data are collectively referred to as a data portion.
(5)混在データの受信
図9は、電子楽器200において受信された各データ部分の処理について説明するための図である。図9に示すように、電子楽器200においては、混在データMD中の複数のデータ部分が順次受信される。受信された各データ部分は、識別子D1,D2に基づいて、オーディオデータ部分とガイドデータ部分とに識別され、記憶装置210に記憶される。なお、ガイドデータ部分を識別するための第2の識別情報として、識別子D2の代わりにタイムスタンプTSが用いられてもよい。その場合には、識別子D2がガイドデータ部分に付されなくてもよい。
(5) Reception of Mixed Data FIG. 9 is a diagram for explaining processing of each data portion received by the electronic
本例では、オーディオデータ部分を格納するためのオーディオ格納領域AR、およびガイドデータ部分を格納するためのガイド格納領域GRがそれぞれ記憶装置210に確保される。受信されたデータ部分は、オーディオデータ部分と識別されると、オーディオ格納領域ARに記憶され、ガイドデータ部分と識別されると、ガイドデータ領域GRに記憶される。図9の例では、複数のオーディオデータ部分PA1,PA2,・・・,PAnが、受信された順でオーディオ格納領域ARに順次記憶され、複数のガイドデータ部分PG1,PG2,・・・,PAmが、受信された順でガイド格納領域GRに順次記憶される。
In this example, an audio storage area AR for storing the audio data part and a guide storage area GR for storing the guide data part are respectively secured in the
オーディオ格納領域ARに記憶されたオーディオデータ部分PA1,PA2,・・・,PAnは、記憶された順で連続的に再生される。これにより、図3のサウンドシステム215が、指定コンテンツの楽音を連続的に発生する。オーディオデータ部分PA1,PA2,・・・,PAnの再生に同期するように、ガイドデータ領域GRに順次記憶されたガイドデータ部分PG1,PG2,・・・,PAmに基づいて、演奏支援処理が行われる。この場合、各ガイドデータ部分に対応する演奏支援処理の時点は、各ガイドデータ部分の時間情報(タイムスタンプTS)に基づいて決定される。
The audio data portions PA1, PA2,..., PAn stored in the audio storage area AR are continuously reproduced in the stored order. As a result, the
本例では、各オーディオデータ部分は、再生が終了すると、オーディオ格納領域ARから消去される。また、各ガイドデータ部分は、対応する演奏支援処理が終了すると、ガイドデータ格納領域GRから消去される。 In this example, each audio data portion is erased from the audio storage area AR when the reproduction ends. Each guide data portion is deleted from the guide data storage area GR when the corresponding performance support process is completed.
図10は、記憶装置210におけるオーディオデータ部分およびガイドデータ部分の入れ替わりについて説明するための図である。図10(a)の例では、オーディオデータ部分PA1が再生中である(図5の時点t0〜t1)。この時点では、再生済みのオーディオデータ部分および処理済のガイドデータ部分がない。そのため、オーディオ格納領域ARには、この時点で受信されているオーディオデータ部分PA1〜PA5が記憶されており、ガイドデータ格納領域GRには、この時点で受信されているガイドデータ部分PG1〜PG5が記憶されている。
FIG. 10 is a diagram for explaining the replacement of the audio data portion and the guide data portion in the
図10(b)の例では、オーディオデータ部分PA3が再生中である(図5の時点t2〜t3)。この時点では、オーディオデータ部分PA1,PA2の再生が終了しており、ガイドデータ部分PG1,PG2に対応する演奏支援処理が終了している。そのため、オーディオ格納領域ARから再生済みのオーディオデータ部分PA1,PA2が消去されており、ガイドデータ領域GRから処理済みのガイドデータ部分PG1,PG2が消去されている。一方、新たに受信されたオーディオデータ部分PA6,PA7がオーディオ格納領域ARに記憶されており、新たに受信されたガイドデータ部分PG6〜PG8がガイドデータ領域GRに記憶されている。 In the example of FIG. 10B, the audio data portion PA3 is being reproduced (time points t2 to t3 in FIG. 5). At this time point, the reproduction of the audio data portions PA1 and PA2 is finished, and the performance support process corresponding to the guide data portions PG1 and PG2 is finished. Therefore, the reproduced audio data parts PA1 and PA2 are deleted from the audio storage area AR, and the processed guide data parts PG1 and PG2 are deleted from the guide data area GR. On the other hand, the newly received audio data parts PA6 and PA7 are stored in the audio storage area AR, and the newly received guide data parts PG6 to PG8 are stored in the guide data area GR.
図10(c)の例では、オーディオデータ部分PA5が再生中である(図5の時点t4〜t5)。この時点では、図10(b)の時点に比べて、オーディオデータ部分PA3,PA4の再生が終了しており、ガイドデータ部分PG3,PG4の処理が終了している。そのため、オーディオ格納領域ARから再生済みのオーディオデータ部分PA3,PA4がさらに消去されており、ガイドデータ領域GRから処理済みのガイドデータ部分PG3,PG4がさらに消去されている。一方、新たに受信されたオーディオデータ部分PA8がオーディオ格納領域ARに記憶されており、新たに受信されたガイドデータ部分PG9がガイドデータ領域GRに記憶されている。 In the example of FIG. 10C, the audio data portion PA5 is being reproduced (time t4 to t5 in FIG. 5). At this time point, the reproduction of the audio data portions PA3 and PA4 is finished and the processing of the guide data portions PG3 and PG4 is finished as compared with the time point of FIG. Therefore, the reproduced audio data parts PA3 and PA4 are further erased from the audio storage area AR, and the processed guide data parts PG3 and PG4 are further erased from the guide data area GR. On the other hand, the newly received audio data part PA8 is stored in the audio storage area AR, and the newly received guide data part PG9 is stored in the guide data area GR.
このように、本例では、オーディオ格納領域ARにおいて、再生済みのオーディオデータ部分が順次消去されるとともに、新たに受信されたオーディオデータ部分が順次記憶される。また、ガイド格納領域GRにおいて、処理済みのガイドデータ部分が順次消去されるとともに、新たに受信されたガイドデータ部分が順次記憶される。これにより、オーディオ格納領域ARおよびガイド格納領域GR内のデータ容量を抑制することができる。オーディオ格納領域ARにおいて、再生済みのオーディオデータ部分は、新たに受信されたオーディデータ部分で上書きされてもよい。また、ガイド格納領域GRにおいて、処理済みのガイドデータ部分は、新たに受信されたガイドデータ部分で上書きされてもよい。 As described above, in this example, the reproduced audio data portions are sequentially deleted in the audio storage area AR, and the newly received audio data portions are sequentially stored. In the guide storage area GR, the processed guide data portions are sequentially erased and the newly received guide data portions are sequentially stored. Thereby, the data capacity in the audio storage area AR and the guide storage area GR can be suppressed. In the audio storage area AR, the reproduced audio data portion may be overwritten with the newly received audio data portion. In the guide storage area GR, the processed guide data part may be overwritten with the newly received guide data part.
(6)音楽コンテンツ送信処理
図11は、音楽コンテンツ送信装置100における音楽コンテンツ送信処理の一例を示すフローチャートである。図11の音楽コンテンツ送信処理は、図2のCPU113がROM112または記憶装置114に記憶された音楽コンテンツ送信プログラムを実行することにより行われる。
(6) Music Content Transmission Processing FIG. 11 is a flowchart illustrating an example of music content transmission processing in the music
まず、受付部11が、記憶装置114に記憶された複数の音楽コンテンツのうち再生すべき音楽コンテンツが指定されたか否かを判定する(ステップS1)。例えば、ユーザが図2のタッチパネルディスプレイ101を操作することにより、再生すべき音楽コンテンツが指定される。再生すべき音楽コンテンツが指定されるまで、受付部11は、ステップS1を繰り返す。再生すべき音楽コンテンツが指定されると、ガイドデータ取得部12は、記憶装置114に記憶される再生すべき音楽コンテンツ(指定コンテンツ)のオーディオデータに基づいて、ガイドデータを生成する(ステップS2)。
First, the
次に、オーディオデータ分割部13が、記憶装置114に記憶される指定コンテンツのオーディオデータを複数のオーディオデータ部分に分割する(ステップS3)。また、ガイドデータ分割部14がステップS2で生成したガイドデータを複数のガイドデータ部分に分割する(ステップS4)。
Next, the audio
次に、特定部16が、複数のオーディオデータ部分の間において、複数のガイドデータ部分が割り込み可能な割り込み可能位置を特定する(ステップS5)。次に、オーディオデータ送信部15は、演奏ガイド装置200Aからの再生開始要求が受信されたか否かを判定する(ステップS6)。再生開始要求が受信されるまで、オーディオデータ送信部15は、ステップS6を繰り返す。再生開始要求が受信されると、オーディオデータ送信部15が、図2の通信I/F115を制御して、指定コンテンツにおける順番に従って複数のオーディオデータ部分を順次送信するとともに(ステップS7)。ガイドデータ送信部17が、図2の通信I/F115を制御して、イベントの発生順に従って複数のガイドデータ部分をステップS5で特定された割り込み可能位置に割り込ませて順次送信する(ステップS8)。全てのオーディオデータ部分および全てのガイドデータ部分が送信されると、音楽コンテンツ送信処理が終了する。また、ユーザから送信停止が指示されることにより、音楽コンテンツ送信処理が終了されてもよい。
Next, the specifying
(7)演奏ガイド処理
図12および図13は、演奏ガイド装置200Aにおける演奏ガイド処理の一例を示すフローチャートである。図12および図13の演奏ガイド処理は、図3のCPU209がROM208または記憶装置210に記憶された演奏ガイドプログラムを実行することにより行われる。
(7) Performance Guide Processing FIGS. 12 and 13 are flowcharts showing an example of performance guide processing in the
まず、開始受付部21が、指定コンテンツの再生開始が指示されたか否かを判定する(ステップS21)。例えば、ユーザが図3の設定操作子202を操作することにより、指定コンテンツの再生開始が指示される。指定コンテンツの再生開始が指示されるまで、開始受付部21がステップS21を繰り返す。指定コンテンツの再生開始が指示されると、開始受付部21が、再生開始要求を送信する(ステップS22)。これにより、図11のステップS7,S8において、オーディオデータ部分およびガイドデータ部分の送信が開始される。
First, the
次に、受信部22が、図3の通信I/F211において、音楽コンテンツ送信装置100からデータ部分(オーディオデータ部分またはガイドデータ部分)が受信されたか否かを判定する(ステップS23)。データ部分が受信されるまで、受信部22がステップS23を繰り返す。データ部分が受信されると、識別部23が、受信されたデータ部分がオーディオデータ部分であるか否かを判定する(ステップS24)。例えば、受信されたデータ部分に識別子D1が付されていると、そのデータ部分はオーディオデータ部分であると判定され、受信されたデータ部分に識別子D2またはタイムスタンプTSが付されていると、そのデータ部分はガイドデータ部分であると判定される。受信されたデータ部分がガイドデータ部分である場合、識別部23が、そのガイドデータ部分を記憶装置210のガイド格納領域GRに記憶させ(ステップS25)、ステップS30に進む。
Next, the receiving
ステップS24において、受信されたデータ部分がオーディオデータ部分である場合、識別部23が、そのオーディオデータ部分を記憶装置210のオーディオ格納領域ARに記憶させる(ステップS26)。次に、再生部25が、その時点でオーディオデータ部分の再生が開始されているか否かを判定する(ステップS27)。オーディオデータ部分の再生が開始されている場合、再生部25は、オーディオデータ部分の再生を継続し(ステップS28)、ステップS30に進む。オーディオデータ部分の再生が開始されていない場合、読出部24が、再生部25がステップS26で記憶されたオーディオデータ部分を読み出すとともに、再生部25が読み出されたオーディオデータ部分の再生を開始し(ステップS29)、ステップS30に進む。
In step S24, when the received data portion is an audio data portion, the
ステップS30においては、再生部25が、オーディオ格納領域ARに再生済みのオーディオデータ部分が記憶されているか否かを判定する。再生済みのオーディオデータ部分が記憶されている場合、再生部25は、その再生済みのオーディオデータ部分をオーディオ格納領域ARから消去する(ステップS31)。再生済みのオーディオデータ部分が記憶されていない場合、再生部25は、ステップS31をスキップする。
In step S30, the reproducing
次に、演奏支援処理部26は、次の演奏支援処理の時点を算出済みであるか否かを判定する(ステップS32)。次の演奏支援処理の時点を算出済みである場合、演奏支援処理部26は、ステップS36に進む。次の演奏支援処理の時点が算出されていない場合、演奏支援処理部26は、次の演奏支援処理に対応するガイドデータ部分がガイド記憶領域GRに記憶されているか否かを判定する(ステップS33)。次のガイドデータ部分が受信されていない場合には、ガイド記憶領域GRに次のガイドデータ部分は記憶されていない。その場合、演奏支援処理部26は、ステップS39に進む。
Next, the performance
次のガイドデータ部分が記憶されている場合、読出部24が、ガイド記憶領域GRから次のガイドデータ部分を読み出す(ステップS34)。次に、演奏支援処理部26が、読み出されたガイドデータ部分のタイムスタンプTSに基づいて、次の演奏支援処理の時点を算出する(ステップS35)。例えば、現在時点での指定コンテンツにおける再生位置、再生テンポおよびタイムスタンプTSが示す時間位置に基づいて、次の演奏支援処理の時点が到来するまでの時間を算出することができる。この場合、現在時点から算出された時間が経過した後の時点が、次の演奏支援処理の時点として算出される。
When the next guide data portion is stored, the
次に、演奏支援処理部26は、図3のタイマ209aから与えられる時間情報に基づいて、次の演奏支援処理の時点が到来したか否かを判定する(ステップS36)。次の演奏支援処理の時点が到来すると、演奏支援処理部26が、次のガイドデータ部分に対応する演奏支援処理を行う(ステップS37)。演奏支援処理後、演奏支援処理部26は、処理済のガイドデータ部分をガイド格納領域GRから消去する(ステップS38)。
Next, the performance
次に、受信部22は、新たなデータ部分が受信されたか否かを判定する(ステップS39)。新たなデータ部分が受信されると、受信部22は、ステップS24に戻る。新たなデータ部分が受信されていない場合、再生部25が、最後のオーディオデータ部分の再生が終了したか否かを判定する。例えば、最後のオーディオデータ部分には、指定コンテンツの終了を示す終了情報が付される。この場合、再生部25は、終了情報が付されたオーディオデータ部分の再生が終了すると、最後のオーディオデータ部分の再生が終了したと判定し、処理を終了する。一方、最後のオーディオデータ部分の再生が終了していない場合、再生部25は、ステップS28に戻る。なお、ユーザから再生停止が指示されることにより、演奏ガイド処理が終了されてもよい。
Next, the receiving
(8)実施の形態の効果
本実施の形態に係る演奏ガイド装置200Aにおいては、再生すべき音楽コンテンツのオーディオデータを構成する複数のオーディオデータ部分および当該音楽コンテンツのガイドデータを構成する複数のガイドデータ部分が順次受信される。この場合、複数のオーディオデータ部分の間に複数のガイドデータ部分が挿入されているので、複数のオーディオデータ部分を順次受信しつつ複数のガイドデータ部分を順次受信することができる。そのため、複数のオーディオデータ部分を連続的に再生しつつ、複数のガイドデータ部分に基づく演奏支援処理を順次行うことができる。それにより、全てのオーディオデータ部分および全てのガイドデータ部分が受信される前に、オーディオデータ部分の再生およびガイドデータ部分に基づく演奏支援を開始することができる。したがって、オーディオデータの再生およびガイドデータによる演奏支援を開始するまでに要する時間を短縮することができる。
(8) Effects of the Embodiment In the
また、受信されたオーディオデータ部分から順次再生することができ、かつ受信されたガイドデータ部分から順次処理することができる。そのため、全てのオーディオデータ部分および全てのガイドデータ部分を記憶する必要がない。したがって、記憶装置210に確保すべき記憶領域を削減することが可能となる。
Further, it is possible to sequentially reproduce from the received audio data part and to process sequentially from the received guide data part. Therefore, it is not necessary to store all audio data portions and all guide data portions. Therefore, it is possible to reduce the storage area to be secured in the
(9)他の実施の形態
上記実施の形態では、演奏ガイド装置200Aにおいて、記憶装置210にオーディオ格納領域ARとガイド格納領域GRとが別個に確保されるが、オーディオデータ部分およびガイドデータ部分が記憶装置210の共通の領域に記憶されてもよい。
(9) Other Embodiments In the above embodiment, in the
上記実施の形態では、音楽コンテンツ送信装置100において再生すべき音楽コンテンツが指定されるが、電子楽器200において再生すべき音楽コンテンツが指定されてもよい。この場合、指定された音楽コンテンツを示すコンテンツ指定情報が電子楽器200から音楽コンテンツ送信装置100に送信され、音楽コンテンツ送信装置100の受付部11は、コンテンツ指定情報に基づいて音楽コンテンツの指定を受け付ける。
In the above embodiment, the music content to be played back is specified in the music
上記実施の形態では、音楽コンテンツ送信装置100において、指定コンテンツのオーディオデータに基づいてガイドデータGDが自動生成されるが、予めガイドデータが用意されていてもよい。また、一度生成されたガイドデータGDが記憶装置114に保存され、同じ音楽コンテンツが再び指定された場合に、保存されたガイドデータGDが記憶装置114から読み出されてもよい。
In the above embodiment, the music
(10)請求項の各構成要素と実施の形態の各部との対応
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
(10) Correspondence between each constituent element of claims and each part of the embodiment Hereinafter, an example of correspondence between each constituent element of the claim and each part of the embodiment will be described, but the present invention is limited to the following example. Not. As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.
上記実施の形態では、受信部22が受信手段の例であり、記憶装置210が記憶手段の例であり、読出部24が読出手段の例であり、再生部25が再生手段の例であり、演奏支援処理部26が演奏支援処理手段の例であり、識別部23が識別手段の例である。
In the above embodiment, the receiving
本発明は、演奏を支援するための種々の装置に有効に利用可能である。 The present invention can be effectively used in various devices for supporting performance.
11…受付部,12…ガイドデータ取得部,13…オーディオデータ分割部,14…ガイドデータ分割部,15…オーディオデータ送信部,16…特定部,17…ガイドデータ送信部,21…開始受付部,22…受信部,23…識別部,24…読出部,25…再生部,26…演奏支援処理部,100…音楽コンテンツ送信装置,101…タッチパネルディスプレイ,102…検出回路,103…表示回路,111,207…RAM,112,208…ROM,113,209…CPU,113a…タイマ,114,210…記憶装置,115,211…通信I/F,120…バス,200…電子楽器,201…演奏操作子,202…設定操作子,203…表示部,204…入力I/F,205…検出回路,206…表示回路,209a…タイマ,213…音源,214…効果回路,215…サウンドシステム,250…ガイド部
DESCRIPTION OF
Claims (5)
受信された複数のオーディオデータ部分および複数のガイドデータ部分を順次記憶する記憶手段と、
前記記憶手段から複数のオーディオデータ部分および複数のガイドデータ部分を順次読み出す読出手段と、
読み出された複数のオーディオデータ部分を連続的に再生する再生手段と、
読み出された複数のガイドデータ部分に基づいて前記複数のオーディオデータ部分の再生に同期した演奏支援処理を行う演奏支援処理手段とを備えた、演奏ガイド装置。 Between a plurality of audio data portions constituting audio data of music content to be reproduced and arranged in time series, and guide data for supporting performance corresponding to the music content and between the plurality of audio data portions Receiving means for sequentially receiving a plurality of inserted guide data portions;
Storage means for sequentially storing a plurality of received audio data portions and a plurality of guide data portions;
Reading means for sequentially reading a plurality of audio data portions and a plurality of guide data portions from the storage means;
Playback means for continuously playing back a plurality of read audio data portions;
A performance guide apparatus comprising performance support processing means for performing performance support processing synchronized with reproduction of the plurality of audio data portions based on the plurality of read guide data portions.
各ガイドデータ部分は、第2の識別情報を含み、
前記第1および第2の識別情報に基づいて、オーディオデータ部分とガイドデータ部分とを識別する識別手段をさらに備える、請求項1記載の演奏ガイド装置。 Each audio data portion includes first identification information;
Each guide data portion includes second identification information,
The performance guide apparatus according to claim 1, further comprising an identification unit that identifies an audio data portion and a guide data portion based on the first and second identification information.
受信された複数のオーディオデータ部分および複数のガイドデータ部分を順次記憶するステップと、
記憶された複数のオーディオデータ部分および複数のガイドデータ部分を順次読み出すステップと、
読み出された複数のオーディオデータ部分を連続的に再生するステップと、
読み出された複数のガイドデータ部分に基づいて前記複数のオーディオデータ部分の再生に同期した演奏支援処理を行うステップとを、
コンピュータに実行させる、演奏ガイドプログラム。 Between a plurality of audio data portions constituting audio data of music content to be reproduced and arranged in time series, and guide data for supporting performance corresponding to the music content and between the plurality of audio data portions Sequentially receiving a plurality of inserted guide data portions;
Sequentially storing a plurality of received audio data portions and a plurality of guide data portions;
Sequentially reading a plurality of stored audio data portions and a plurality of guide data portions;
Continuously playing a plurality of read audio data portions;
Performing performance support processing synchronized with reproduction of the plurality of audio data portions based on the plurality of read guide data portions;
A performance guide program to be executed by a computer.
受信された複数のオーディオデータ部分および複数のガイドデータ部分を順次記憶するステップと、
記憶された複数のオーディオデータ部分および複数のガイドデータ部分を順次読み出すステップと、
読み出された複数のオーディオデータ部分を連続的に再生するステップと、
読み出された複数のガイドデータ部分に基づいて前記複数のオーディオデータ部分の再生に同期した演奏支援処理を行うステップとを含む、演奏ガイド方法。 Between a plurality of audio data portions constituting audio data of music content to be reproduced and arranged in time series, and guide data for supporting performance corresponding to the music content and between the plurality of audio data portions Sequentially receiving a plurality of inserted guide data portions;
Sequentially storing a plurality of received audio data portions and a plurality of guide data portions;
Sequentially reading a plurality of stored audio data portions and a plurality of guide data portions;
Continuously playing a plurality of read audio data portions;
Performing a performance support process in synchronization with reproduction of the plurality of audio data portions based on the plurality of read guide data portions.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003406 | 2017-01-12 | ||
JP2017003406 | 2017-01-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018112724A true JP2018112724A (en) | 2018-07-19 |
Family
ID=62911252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017052479A Pending JP2018112724A (en) | 2017-01-12 | 2017-03-17 | Performance guide device, performance guide program and performance guide method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018112724A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11887569B2 (en) | 2019-01-22 | 2024-01-30 | Yamaha Corporation | Performance system, performance mode setting method, and performance mode setting device |
-
2017
- 2017-03-17 JP JP2017052479A patent/JP2018112724A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11887569B2 (en) | 2019-01-22 | 2024-01-30 | Yamaha Corporation | Performance system, performance mode setting method, and performance mode setting device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3351296B2 (en) | Karaoke equipment | |
US7622664B2 (en) | Performance control system, performance control apparatus, performance control method, program for implementing the method, and storage medium storing the program | |
JP6201460B2 (en) | Mixing management device | |
JP2004157260A (en) | Mixing recording device and program for realizing its control method | |
JP2006284817A (en) | Electronic musical instrument | |
KR101453177B1 (en) | Mixing data delivery server | |
JP2018112724A (en) | Performance guide device, performance guide program and performance guide method | |
JP2018112725A (en) | Music content transmitting device, music content transmitting program and music content transmitting method | |
JP2011191357A (en) | Karaoke system | |
JP5109426B2 (en) | Electronic musical instruments and programs | |
JPH11305772A (en) | Electronic instrument | |
JP4740583B2 (en) | Music data processing apparatus and program | |
JP2008033344A (en) | Karaoke apparatus | |
JP2008233557A (en) | Electronic musical instrument and program | |
JP3666392B2 (en) | Automatic performance device | |
JP7197688B2 (en) | Playback control device, program and playback control method | |
JP4169034B2 (en) | Karaoke device and terminal device | |
JP2004302232A (en) | Karaoke playing method and karaoke system for processing choral song and vocal ensemble song | |
JP2008209586A (en) | Automatic playing device, reproduction system, distribution system and program | |
JP3081096B2 (en) | Karaoke equipment | |
JP2006178496A (en) | Tone material conversion device and program for tone material conversion | |
JP5387032B2 (en) | Electronic music apparatus and program | |
JP5387031B2 (en) | Electronic music apparatus and program | |
JP4186853B2 (en) | Accompaniment information setting device and program for realizing the control method | |
JP2000122672A (en) | Karaoke (sing-along music) device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20170325 |