JP2022114309A - Online session server device - Google Patents
Online session server device Download PDFInfo
- Publication number
- JP2022114309A JP2022114309A JP2021010559A JP2021010559A JP2022114309A JP 2022114309 A JP2022114309 A JP 2022114309A JP 2021010559 A JP2021010559 A JP 2021010559A JP 2021010559 A JP2021010559 A JP 2021010559A JP 2022114309 A JP2022114309 A JP 2022114309A
- Authority
- JP
- Japan
- Prior art keywords
- audio data
- terminal device
- data
- performance
- minus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005540 biological transmission Effects 0.000 claims abstract description 42
- 238000004891 communication Methods 0.000 description 12
- 230000001755 vocal effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000009877 rendering Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明はオンラインセッションサーバ装置に関する。 The present invention relates to an online session server device.
クラウド型サーバ装置によるオンライン会議システムが普及している。また、このようなオンライン会議システムを利用したオンラインイベントも行われている。 An online conference system using a cloud-type server device is in widespread use. Online events using such online conference systems are also being held.
特許文献1には、複数の端末、会議サーバ、及び端末に楽曲を配信できる楽曲サーバを備えるテレビ会議システムが開示されている。 Japanese Unexamined Patent Application Publication No. 2002-200001 discloses a video conference system that includes a plurality of terminals, a conference server, and a music server capable of distributing music to the terminals.
オンライン会議システムを利用したオンラインイベントとして、ある楽曲について、複数の利用者で合奏(所謂、セッション演奏)を行うことが可能である。 As an online event using an online conference system, it is possible for a plurality of users to perform an ensemble (so-called session performance) for a certain piece of music.
ここで、特許文献1の技術を応用することにより、テレビ会議の参加者は、自己が使用する端末装置に配信される楽曲の演奏に合わせて、オンラインのカラオケ歌唱を行うことが可能である。しかしながら、特許文献1の技術を用いて行われる楽曲の演奏は、全ての楽器のパート(たとえば、ギターパート、ベースパート、ドラムパート)の演奏音が含まれている。従って、たとえば、セッション演奏においてギターパートを担当する利用者にとっては、楽曲の演奏に含まれるギターパートの演奏音が邪魔となり演奏し難い。
Here, by applying the technique disclosed in
本発明の目的は、カラオケ演奏で使用されるカラオケ演奏データを利用してオンラインでのセッション演奏を行うことを可能とするオンラインセッションサーバ装置を提供することにある。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an online session server device that enables online session performances using karaoke performance data used in karaoke performances.
上記目的を達成するための一の発明は、複数の利用者それぞれが使用する端末装置と通信可能に接続されたオンラインセッションサーバ装置であって、前記端末装置毎に、担当する演奏のパートを設定する設定部と、カラオケ演奏で使用されるある楽曲のカラオケ演奏データを処理することにより、設定された前記パートそれぞれに対応するパート別オーディオデータを生成する生成部と、一のパートが設定された前記端末装置に対して、当該一のパートとは異なる他のパートに対応する前記パート別オーディオデータであるマイナスワンオーディオデータを送信する送信部と、前記一のパートが設定された端末装置から、前記マイナスワンオーディオデータに基づく演奏に合わせて当該一のパートを実際に演奏して得られた演奏音に基づく生演奏データを取得する取得部と、複数の前記端末装置それぞれから取得した前記ある楽曲の生演奏データを記憶させる記憶処理部と、を有するオンラインセッションサーバ装置である。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
One invention for achieving the above object is an online session server device communicably connected to a terminal device used by each of a plurality of users, wherein each terminal device is assigned a performance part. a generating unit for generating part-specific audio data corresponding to each of the set parts by processing karaoke performance data of a piece of music used in karaoke performance; and one part is set. From a transmission unit that transmits minus one audio data, which is the part-specific audio data corresponding to another part different from the one part, to the terminal device, and the terminal device to which the one part is set, an acquisition unit for acquiring live performance data based on the performance sound obtained by actually performing the one part in accordance with the performance based on the minus one audio data; and the certain musical piece acquired from each of the plurality of terminal devices. and a storage processing unit for storing live performance data.
Other features of the present invention will be clarified by the description of the specification and drawings described later.
本発明によれば、カラオケ演奏で使用されるカラオケ演奏データを利用してオンラインでのセッション演奏を行うことができる。 According to the present invention, online session performance can be performed using karaoke performance data used in karaoke performance.
<第1実施形態>
図1~図3を参照して、本実施形態に係るオンラインセッションサーバ装置について説明する。
<First Embodiment>
An online session server device according to the present embodiment will be described with reference to FIGS. 1 to 3. FIG.
==オンラインセッションシステム==
図1に示すように、本実施形態に係るオンラインセッションシステム1は、オンライン会議システムS1及び通信カラオケシステムS2を含む。オンライン会議システムS1及び通信カラオケシステムS2は、たとえば、特許文献1に記載されたように通信可能に接続されている。
==Online session system==
As shown in FIG. 1, an
[オンライン会議システム]
オンライン会議システムS1は、一般的なWeb会議やテレビ会議のようなオンライン会議を実施するためのシステムである。オンライン会議システムS1は、オンライン会議サーバ装置CS、及び複数の端末装置を含む。オンライン会議サーバ装置CSと複数の端末装置それぞれは、ネットワークを介して通信可能に接続されている。
[Online meeting system]
The online conference system S1 is a system for conducting online conferences such as general web conferences and video conferences. The online conference system S1 includes an online conference server CS and a plurality of terminal devices. The online conference server CS and each of the plurality of terminal devices are communicably connected via a network.
オンライン会議サーバ装置CSは、各種情報の管理、及び各種処理を実行するコンピュータである。本実施形態において、オンライン会議サーバ装置CSは、一般的なオンライン会議の仕組みを利用し、オンラインでのセッション演奏を実施可能とする(詳細は後述)。すなわち、本実施形態におけるオンライン会議サーバ装置CSは「オンラインセッションサーバ装置」として機能する。 The online conference server CS is a computer that manages various information and executes various processes. In this embodiment, the online conference server CS uses a general online conference mechanism to enable online session performances (details will be described later). That is, the online conference server device CS in this embodiment functions as an "online session server device".
端末装置は、たとえば、家庭用のPCやタブレット端末、携帯端末等、利用者が使用するコンピュータである。図1では、端末装置T1~端末装置T3を示している。端末装置T1~端末装置T3は、それぞれ利用者U1~利用者U3が使用する。端末装置は、少なくとも2つあればよく図1の例に限られない。 A terminal device is, for example, a computer used by a user, such as a home PC, tablet terminal, or mobile terminal. FIG. 1 shows terminal devices T1 to T3. Terminal devices T1 to T3 are used by users U1 to U3, respectively. The number of terminal devices is not limited to the example shown in FIG. 1, as long as there are at least two.
各端末装置は、利用者の演奏による演奏音を集音するためのマイク、マイナスワンオーディオデータ(詳細は後述)に基づく演奏等を放音させるためのスピーカ、利用者を撮影するためのカメラ、映像や各種情報を表示するためのディスプレイ、各種操作入力を行うための操作手段等を有する。なお、本実施形態における演奏は、楽器の演奏及び歌唱を含む。 Each terminal device includes a microphone for collecting the performance sound of the user's performance, a speaker for emitting the performance based on minus one audio data (details will be described later), a camera for photographing the user, It has a display for displaying images and various kinds of information, an operation means for performing various operation inputs, and the like. It should be noted that the performance in this embodiment includes performance of musical instruments and singing.
更に、本実施形態において、各端末装置には、オンラインセッション用のプロググラムが予めインストールされている。端末装置で当該プログラムを実行することにより、利用者は、オンライン会議の仕組みを利用して、オンラインによるセッション演奏を行うことができる。 Furthermore, in this embodiment, each terminal device is pre-installed with an online session program. By executing the program on the terminal device, the user can perform an online session performance using the mechanism of the online conference.
[通信カラオケシステム]
通信カラオケシステムS2は、カラオケ歌唱を行うための楽曲を配信し、カラオケ演奏を行うシステムである。通信カラオケシステムS2は、カラオケサーバ装置KS、及び複数のカラオケ装置(図示なし)を含む。カラオケサーバ装置KSと複数のカラオケ装置それぞれは、ネットワークを介して通信可能に接続されている。
[Communication karaoke system]
The communication karaoke system S2 is a system that distributes music for performing karaoke singing and performs karaoke performance. The communication karaoke system S2 includes a karaoke server device KS and a plurality of karaoke devices (not shown). The karaoke server device KS and each of the plurality of karaoke devices are communicably connected via a network.
カラオケサーバ装置KSは、カラオケ演奏データや各種情報等の管理、及び楽曲の配信処理等を実行するコンピュータである。 The karaoke server device KS is a computer that manages karaoke performance data, various types of information, and performs processing for distributing songs.
カラオケ演奏データは、カラオケ演奏で使用されるデータである。カラオケ演奏データは、個々の楽曲を特定するための楽曲識別情報が付与されている。楽曲識別情報は、楽曲を識別するための楽曲ID等、各楽曲に固有の情報である。本実施形態において、カラオケ演奏データは、伴奏データ及びガイドボーカルデータを含む。 The karaoke performance data is data used in karaoke performance. The karaoke performance data is provided with song identification information for specifying individual songs. The song identification information is information unique to each song, such as a song ID for identifying the song. In this embodiment, the karaoke performance data includes accompaniment data and guide vocal data.
伴奏データは、楽曲のカラオケ演奏を行うためのデータである。具体的に、伴奏データは、楽曲のカラオケ演奏で使用される楽器のパート(たとえば、ギターパート、ベースパート、ドラムパート)毎のデータを含む。伴奏データは、MIDI形式のデータである。 The accompaniment data is data for karaoke performance of the music. Specifically, the accompaniment data includes data for each musical instrument part (eg, guitar part, bass part, drum part) used in the karaoke performance of the song. The accompaniment data is data in MIDI format.
ガイドボーカルデータは、ガイドボーカル機能を実施するための歌唱音声に対応するデータである。ガイドボーカル機能は、カラオケ歌唱を補助する機能であり、予め登録されたガイドボーカル(プロの歌手等による歌唱)を楽曲のカラオケ演奏と併せて再生するものである。ガイドボーカルデータは、オーディオ形式のデータである。 The guide vocal data is data corresponding to singing voice for implementing the guide vocal function. The guide vocal function is a function that assists karaoke singing, and reproduces pre-registered guide vocals (sung by professional singers, etc.) together with karaoke performances of songs. The guide vocal data is data in audio format.
==オンライン会議サーバ装置==
図2は、オンライン会議サーバ装置CSの構成を示す図である。オンライン会議サーバ装置CSは、記憶手段10、通信手段20、及び制御手段30を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。
== Online Conference Server Device ==
FIG. 2 is a diagram showing the configuration of the online conference server CS. The online conference server device CS comprises storage means 10 , communication means 20 and control means 30 . Each configuration is connected to bus B via an interface (not shown).
[記憶手段・通信手段]
記憶手段10は、各種のデータを記憶する大容量の記憶装置である。通信手段20は、各端末装置及び通信カラオケシステムS2との通信を行うためのインターフェースを提供する。
[Storage means/Communication means]
The storage means 10 is a large-capacity storage device that stores various data. The communication means 20 provides an interface for communicating with each terminal device and the communication karaoke system S2.
[制御手段]
制御手段30は、オンライン会議サーバ装置CSにおける各種の制御を行う。制御手段30は、CPU及びメモリ(いずれも図示無し)を備える。CPUは、メモリに記憶されたプログラムを実行することにより各種の機能を実現する。
[Control means]
The control means 30 performs various controls in the online conference server CS. The control means 30 includes a CPU and memory (both not shown). The CPU implements various functions by executing programs stored in the memory.
本実施形態においてはCPUがメモリに記憶されるプログラムを実行することにより、制御手段30は、設定部100、生成部200、送信部300、取得部400,及び記憶処理部500として機能する。
In this embodiment, the control means 30 functions as a setting unit 100, a generation unit 200, a transmission unit 300, an acquisition unit 400, and a
(設定部)
設定部100は、端末装置毎に、担当する演奏のパートを設定する。
(setting part)
The setting unit 100 sets a performance part to be in charge of for each terminal device.
オンラインのセッション演奏を希望する利用者は、自己の端末装置の操作手段を介し、演奏を担当するパートの入力を行う。端末装置は、入力されたパートの情報を自己の端末識別情報と紐付けて、オンライン会議サーバ装置CSに送信する。端末識別情報は、端末装置を識別するための端末ID等、各端末装置に固有の情報である。 A user who desires an on-line session performance inputs the part to be played through the operating means of his/her own terminal device. The terminal device associates the input part information with its own terminal identification information and transmits the information to the online conference server CS. The terminal identification information is information unique to each terminal device, such as a terminal ID for identifying the terminal device.
設定部100は、受信した情報に基づいて、当該端末装置に対して一の演奏のパートを設定する。なお、本実施形態において、演奏のパートは、楽器のパート及び歌唱のパートを含む。 The setting unit 100 sets one performance part for the terminal device based on the received information. In this embodiment, the performance part includes an instrumental part and a singing part.
(生成部)
生成部200は、カラオケ演奏で使用されるある楽曲のカラオケ演奏データを処理することにより、パート別オーディオデータを生成する。パート別オーディオデータは、設定されたパートそれぞれに対応するオーディオ形式のデータである。
(generator)
The generation unit 200 generates part-by-part audio data by processing karaoke performance data of a song used in karaoke performance. The part-by-part audio data is audio format data corresponding to each of the set parts.
パート別オーディオデータの生成は、DAW等の公知のレンダリング技術(たとえば特開2017-097289号公報)を用いることができる。 The part-by-part audio data can be generated using a known rendering technology such as a DAW (for example, Japanese Patent Application Laid-Open No. 2017-097289).
オンラインのセッション演奏を希望する利用者のうち、一の利用者は、自己の端末装置の操作手段を介し、セッション演奏を希望する楽曲を選択する。端末装置は、選択された楽曲の楽曲識別情報をオンライン会議サーバ装置CSに送信する。 One of the users who desire online session performance selects a piece of music desired for session performance through the operating means of his/her own terminal device. The terminal device transmits music identification information of the selected music to the online conference server CS.
生成部200は、受信した楽曲識別情報をカラオケサーバ装置KSに送信する。カラオケサーバ装置KSは、受信した楽曲識別情報に基づくカラオケ演奏データを記憶手段(図示なし)から読み出し、オンライン会議サーバ装置CSに送信する。 The generation unit 200 transmits the received music identification information to the karaoke server device KS. The karaoke server device KS reads karaoke performance data based on the received music identification information from a storage means (not shown) and transmits the data to the online conference server device CS.
生成部200は、受信したカラオケ演奏データから、設定部100で設定されたパート毎のデータをレンダリングすることにより、パート別オーディオデータを生成する。 The generation unit 200 generates part-by-part audio data by rendering data for each part set by the setting unit 100 from the received karaoke performance data.
たとえば、選択された楽曲Xが、歌唱パート、ギターパート、ベースパート、及びドラムパートからなるとする。そして、設定部100は、端末装置毎に、歌唱パート、ギターパート、ベースパート、及びドラムパートを設定したとする。 For example, the selected song X consists of a singing part, a guitar part, a bass part and a drum part. Then, assume that the setting unit 100 sets a singing part, a guitar part, a bass part, and a drum part for each terminal device.
この場合、生成部200は、楽曲Xのカラオケ演奏データに含まれる伴奏データから、ギターパート、ベースパート、及びドラムパートをそれぞれレンダリングすることにより、ギターパート、ベースパート、及びドラムパートのパート別オーディオデータを生成する。具体的に、生成部200は、設定されたパートの情報をMIDI形式のデータにおける音色情報に変換し、当該音色情報に対応する一または複数パートの伴奏データをレンダリングする。たとえば、ギターパートのレンダリングでは、6パートの伴奏データにより6弦それぞれの楽音信号を生成させることができる。 In this case, the generation unit 200 renders the guitar part, the bass part, and the drum part from the accompaniment data included in the karaoke performance data of the song X, so that the per-part audio of the guitar part, the bass part, and the drum part is rendered. Generate data. Specifically, the generation unit 200 converts the set part information into tone color information in MIDI format data, and renders accompaniment data of one or more parts corresponding to the tone color information. For example, in the rendering of a guitar part, it is possible to generate tone signals for each of the six strings from accompaniment data for the six parts.
一方、上述の通り、本実施形態におけるガイドボーカルデータは、オーディオ形式のデータである。よって、生成部200は、楽曲Xのカラオケ演奏データに含まれるガイドボーカルデータをそのまま歌唱パートのパート別オーディオデータとする。 On the other hand, as described above, the guide vocal data in this embodiment is data in audio format. Therefore, the generation unit 200 uses the guide vocal data included in the karaoke performance data of the song X as part-specific audio data of the singing part.
また、公知の音声合成エンジンやガイドメロディ音源を利用することにより、伴奏データからガイドボーカルデータに相当するデータを構成することができる。この場合、生成部200は、構成した当該データをレンダリングすることにより、歌唱パートのパート別オーディオデータを生成することができる。このように、伴奏データからガイドボーカルデータに相当するデータを構成する場合、カラオケ演奏データは、ガイドボーカルデータを含まなくてもよい。 Further, data corresponding to guide vocal data can be formed from accompaniment data by using a known voice synthesis engine or guide melody sound source. In this case, the generation unit 200 can generate the part-by-part audio data of the singing part by rendering the configured data. In this way, when the data corresponding to the guide vocal data is formed from the accompaniment data, the karaoke performance data may not include the guide vocal data.
なお、セッション演奏に参加する利用者の数や利用者が担当するパートの種類によっては、ある楽曲を構成する全てのパートが設定されるとは限らない。 Depending on the number of users participating in the session performance and the types of parts that the users are in charge of, not all the parts that make up a certain piece of music are set.
ある楽曲を構成する複数のパートのうち、設定部100による設定がされていないパートがある場合、生成部200は、パート別オーディオデータ、及び伴奏オーディオデータを生成することができる。伴奏オーディオデータは、設定されたパート以外の全てのパートに対応するオーディオ形式のデータである。 If there is a part that is not set by the setting unit 100 among a plurality of parts that constitute a piece of music, the generation unit 200 can generate part-specific audio data and accompaniment audio data. Accompaniment audio data is audio format data corresponding to all parts other than the set part.
伴奏オーディオデータの生成は、パート別オーディオデータと同様、公知のレンダリング技術を用いることができる。生成部200は、受信したカラオケ演奏データから、設定部100で設定されたパート以外のデータをレンダリングすることにより、伴奏オーディオデータを生成する(詳細は後述)。 Accompaniment audio data can be generated using a well-known rendering technique, similarly to part-specific audio data. The generation unit 200 generates accompaniment audio data by rendering data other than the part set by the setting unit 100 from the received karaoke performance data (details will be described later).
(送信部)
送信部300は、一のパートが設定された端末装置に対して、マイナスワンオーディオデータを送信する。マイナスワンオーディオデータは、一のパートとは異なる他のパートに対応するパート別オーディオデータである。
(Transmitter)
The transmission unit 300 transmits minus one audio data to the terminal device to which one part is set. Minus one audio data is part-by-part audio data corresponding to another part different from one part.
たとえば、上述の楽曲Xのセッション演奏において、設定部100が、一の端末装置に対して歌唱パートを設定したとする。 For example, assume that the setting unit 100 sets a singing part for one terminal device in the session performance of the song X described above.
この場合、送信部300は、歌唱パートが設定された一の端末装置に対し、マイナスワンオーディオデータとして、歌唱パートとは異なる他のパート(ギターパート、ベースパート、及びドラムパート)に対応するパート別オーディオデータを送信する。なお、送信部300は、パートの情報に紐付けられている端末識別情報を参照して、マイナスワンオーディオデータを送信する端末装置を特定することができる。また、この例のようにマイナスワンオーディオデータが複数のパート別オーディオデータを含む場合、送信部300は、各データをミキシングして一の端末装置に送信する。 In this case, the transmission unit 300 transmits parts corresponding to other parts (a guitar part, a bass part, and a drum part) different from the singing part as minus one audio data to one terminal device to which the singing part is set. Send another audio data. Note that the transmission unit 300 can refer to the terminal identification information linked to the information of the part to specify the terminal device that transmits the minus one audio data. Also, when the minus one audio data includes a plurality of part-specific audio data as in this example, the transmission unit 300 mixes each data and transmits the mixed data to one terminal device.
同様に、送信部300は、ギターパートが設定された一の端末装置に対し、マイナスワンオーディオデータとして、ギターパートとは異なる他のパート(歌唱パート、ベースパート、及びドラムパート)に対応するパート別オーディオデータを送信する。また、送信部300は、ベースパートが設定された一の端末装置に対し、マイナスワンオーディオデータとして、ベースパートとは異なる他のパート(歌唱パート、ギターパート、及びドラムパート)に対応するパート別オーディオデータを送信する。また、送信部300は、ドラムパートが設定された一の端末装置に対し、マイナスワンオーディオデータとして、ドラムパートとは異なる他のパート(歌唱パート、ギターパート、及びベースパート)に対応するパート別オーディオデータを送信する。 Similarly, the transmission unit 300 transmits parts corresponding to other parts (a singing part, a bass part, and a drum part) different from the guitar part as minus one audio data to one terminal device to which the guitar part is set. Send another audio data. In addition, the transmission unit 300 transmits, as minus one audio data, to one terminal device to which the bass part is set, part-by-part corresponding to other parts (a singing part, a guitar part, and a drum part) different from the bass part. Send audio data. In addition, the transmission unit 300 transmits, as minus one audio data, to one terminal device to which the drum part is set, part-by-part corresponding to other parts (a singing part, a guitar part, and a bass part) different from the drum part. Send audio data.
送信部300は、各端末装置に対するマイナスワンオーディオデータの送信を同時に行う。 The transmission unit 300 simultaneously transmits minus one audio data to each terminal device.
なお、上述の通り、生成部200が、パート別オーディオデータ、及び伴奏オーディオデータを生成することがある。この場合、送信部300は、一のパートが設定された端末装置に対して、伴奏オーディオデータを含むマイナスワンオーディオデータを送信する(詳細は後述)。 As described above, the generation unit 200 may generate part-specific audio data and accompaniment audio data. In this case, the transmitting unit 300 transmits minus one audio data including accompaniment audio data to the terminal device to which one part is set (details will be described later).
また、送信部300は、一のパートが設定された端末装置に対して、マイナスワンオーディオデータと併せて、カウントインサウンドのデータを送信してもよい。カウントインサウンドは、マイナスワンオーディオデータに基づく演奏に合わせて実際の演奏を開始するタイミングを示す音声である。カウントインサウンドのデータは、たとえば生成部200が、カラオケ演奏データに含まれるテンポ情報に基づいて生成することができる。利用者は、端末装置のスピーカから放音されるカウントインサウンドを参照することにより、たとえば、前奏がないパートを演奏する場合であっても演奏を開始するタイミングを把握しやすくなる。 In addition, the transmission unit 300 may transmit the count-in sound data together with the minus one audio data to the terminal device to which one part is set. The count-in sound is a sound indicating the timing of starting the actual performance in time with the performance based on the minus one audio data. The count-in sound data can be generated, for example, by the generation unit 200 based on the tempo information included in the karaoke performance data. By referring to the count-in sound emitted from the speaker of the terminal device, the user can easily grasp the timing of starting the performance even when performing a part without a prelude.
(取得部)
取得部400は、一のパートが設定された端末装置から、生演奏データを取得する。生演奏データは、マイナスワンオーディオデータに基づく演奏に合わせて、一のパートを実際に演奏して得られた演奏音に基づくデータである。
(acquisition part)
Acquisition unit 400 acquires live performance data from a terminal device in which one part is set. The live performance data is data based on the performance sound obtained by actually performing one part along with the performance based on the minus one audio data.
たとえば、上述の楽曲Xのセッション演奏において、送信部300が、歌唱パートが設定された一の端末装置に対し、他のパート(ギターパート、ベースパート、及びドラムパート)に対応するパート別オーディオデータを含むマイナスワンオーディオデータを送信したとする。 For example, in the session performance of the song X described above, the transmitting unit 300 sends part-specific audio data corresponding to other parts (guitar part, bass part, and drum part) to one terminal device in which singing parts are set. Suppose that minus one audio data including
この場合、一の端末装置は、受信したパート別オーディオデータの再生を開始する。一の端末装置の利用者は、パート別オーディオデータに基づく演奏音を聴きながら、楽曲Xの歌唱を行う。一の端末装置は、利用者の歌唱音声に基づく生演奏データを、自己の端末識別情報と紐付けて、オンライン会議サーバ装置CSに送信する。取得部400は、歌唱の生演奏データを取得する。なお、本実施形態において、歌唱音声は「演奏音」の一例である。 In this case, one terminal device starts reproducing the received part-specific audio data. A user of one terminal device sings the song X while listening to performance sounds based on the part-by-part audio data. One terminal device links live performance data based on the user's singing voice with its own terminal identification information and transmits the data to the online conference server CS. The acquisition unit 400 acquires live performance data of singing. In addition, in this embodiment, the singing voice is an example of the "performance sound".
同様に、送信部300は、ギターパートが設定された一の端末装置に対し、他のパート(ベースパート、ドラムパート、及び歌唱パート)に対応するパート別オーディオデータを含むマイナスワンオーディオデータを送信する。この場合、一の端末装置は、受信したパート別オーディオデータの再生を開始する。一の端末装置の利用者は、パート別オーディオデータに基づく演奏音を聴きながら、楽曲Xのギター演奏を行う。一の端末装置は、ギター演奏音に基づく生演奏データを、自己の端末識別情報と紐付けて、オンライン会議サーバ装置CSに送信する。取得部400は、ギター演奏の生演奏データを取得する。また、送信部300は、ベースパートが設定された一の端末装置に対し、他のパート(ギターパート、ドラムパート、及び歌唱パート)に対応するパート別オーディオデータを含むマイナスワンオーディオデータを送信する。この場合、一の端末装置は、受信したパート別オーディオデータの再生を開始する。一の端末装置の利用者は、パート別オーディオデータに基づく演奏音を聴きながら、楽曲Xのベース演奏を行う。一の端末装置は、ベース演奏音に基づく生演奏データを、自己の端末識別情報と紐付けて、オンライン会議サーバ装置CSに送信する。取得部400は、ベース演奏の生演奏データを取得する。また、送信部300は、ドラムパートが設定された一の端末装置に対し、他のパート(ギターパート、ベースパート、及び歌唱パート)に対応するパート別オーディオデータを含むマイナスワンオーディオデータを送信する。この場合、一の端末装置は、受信したパート別オーディオデータの再生を開始する。一の端末装置の利用者は、パート別オーディオデータに基づく演奏音を聴きながら、楽曲Xのドラム演奏を行う。一の端末装置は、ドラム演奏音に基づく生演奏データを、自己の端末識別情報と紐付けて、オンライン会議サーバ装置CSに送信する。取得部400は、ドラム演奏の生演奏データを取得する。 Similarly, the transmitting unit 300 transmits minus one audio data including part-specific audio data corresponding to other parts (bass part, drum part, and singing part) to one terminal device set with a guitar part. do. In this case, one terminal device starts reproducing the received part-specific audio data. A user of one terminal device plays a musical piece X on the guitar while listening to performance sounds based on the part-specific audio data. One terminal device links the live performance data based on the sound of the guitar performance with its own terminal identification information, and transmits the live performance data to the online conference server CS. Acquisition unit 400 acquires live performance data of a guitar performance. In addition, the transmitting unit 300 transmits minus one audio data including part-specific audio data corresponding to other parts (guitar part, drum part, and singing part) to one terminal device to which the bass part is set. . In this case, one terminal device starts reproducing the received part-specific audio data. A user of one terminal device performs a bass performance of the piece of music X while listening to the performance sound based on the part-by-part audio data. One terminal device links live performance data based on the bass performance sound with its own terminal identification information, and transmits the live performance data to the online conference server CS. The acquisition unit 400 acquires live performance data of a bass performance. In addition, the transmission unit 300 transmits minus one audio data including part-specific audio data corresponding to other parts (guitar part, bass part, and singing part) to one terminal device to which the drum part is set. . In this case, one terminal device starts reproducing the received part-specific audio data. A user of one terminal device plays the drums of the song X while listening to performance sounds based on the part-specific audio data. One terminal device links live performance data based on drum performance sounds with its own terminal identification information and transmits the live performance data to the online conference server CS. Acquisition unit 400 acquires live performance data of a drum performance.
なお、上述の通り、送信部300が各端末装置に対してパート別オーディオデータの送信を同時に行った場合であっても、通信状態により、各端末装置がパート別オーディオデータを受信するタイミングには遅延が生じることがある。同様に、取得部400が、各端末装置から送信される生演奏データを取得するタイミングにも遅延が生じることがある。 As described above, even if the transmission unit 300 simultaneously transmits part-specific audio data to each terminal device, depending on the communication state, each terminal device receives the part-specific audio data at the timing Delays may occur. Similarly, there may be a delay in the timing at which the acquisition unit 400 acquires live performance data transmitted from each terminal device.
(記憶処理部)
記憶処理部500は、複数の端末装置それぞれから取得したある楽曲の生演奏データを記憶手段10に記憶させる。
(memory processor)
The
たとえば楽曲Xについて、取得部400が、歌唱の生演奏データ、ギター演奏の生演奏データ、ベース演奏の生演奏データ、及びドラム演奏の生演奏データを取得したとする。 For example, for song X, assume that the acquisition unit 400 acquires live performance data of singing, live performance data of guitar performance, live performance data of bass performance, and live performance data of drum performance.
この場合、記憶処理部500は、各生演奏データを取得する都度、記憶手段10に記憶させる。
In this case, the
各利用者の演奏が終了した後、一の利用者は、自己の端末装置を介してセッション演奏の配信を指示することができる。オンライン会議サーバ装置CSは、当該指示に基づいて、記憶手段10に記憶されている全ての生演奏データを同期したセッション演奏を再生し、各端末装置に配信する。なお、オンライン会議サーバ装置CSは、パートに紐付けられている端末識別情報を参照して、セッション演奏を配信する端末装置を特定することができる。また、オンライン会議サーバ装置CSは、送信部300がマイナスワンオーディオデータを送信した全ての端末装置から生演奏データを受信した場合に、自動的にセッション演奏の配信を行ってもよい。 After each user's performance is finished, one user can instruct distribution of the session performance via his/her own terminal device. Based on the instruction, the online conference server CS reproduces the session performance in which all the live performance data stored in the storage means 10 are synchronized, and distributes it to each terminal device. Note that the online conference server CS can refer to the terminal identification information associated with the part to identify the terminal device that delivers the session performance. Further, the online conference server CS may automatically distribute the session performance when the transmission unit 300 receives the live performance data from all the terminal devices to which the minus one audio data has been transmitted.
また、上述の通り、生成部200が、パート別オーディオデータ、及び伴奏オーディオデータを生成することがある。この場合、記憶処理部500は、ある楽曲の生演奏データ、及び伴奏オーディオデータを記憶手段10に記憶させる(詳細は後述)。
Also, as described above, the generation unit 200 may generate part-specific audio data and accompaniment audio data. In this case, the
==オンライン会議サーバ装置の動作について==
次に、図3を参照して本実施形態におけるオンライン会議サーバ装置CSの動作の具体例について述べる。図3は、オンライン会議サーバ装置CSの動作例を示すフローチャートである。この例において、図1に示した利用者U1~利用者U3でオンラインのセッション演奏を行うとする。また、セッション演奏を行う楽曲として、歌唱パート、ギターパート、ベースパート、ドラムパート、及びキーボードパートからなる楽曲Yが選択されたとする。
== Operation of the online conference server device ==
Next, a specific example of the operation of the online conference server CS in this embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing an operation example of the online conference server CS. In this example, it is assumed that users U1 to U3 shown in FIG. 1 play an online session. Also, assume that a song Y consisting of a singing part, a guitar part, a bass part, a drum part, and a keyboard part is selected as a song for session performance.
各利用者は、自己の端末装置の操作手段を介し、演奏を担当するパートの入力を行う。端末装置は、入力されたパートの情報を自己の端末識別情報と紐付けて、オンライン会議サーバ装置CSに送信する。 Each user inputs the part he/she is in charge of performing through the operating means of his/her own terminal device. The terminal device associates the input part information with its own terminal identification information and transmits the information to the online conference server CS.
オンライン会議サーバ装置CSの設定部100は、端末装置T1~端末装置T3に対して一のパートを設定する(各端末装置に対して一のパートを設定。ステップ10)。 The setting unit 100 of the online conference server CS sets one part for the terminal devices T1 to T3 (one part is set for each terminal device, step 10).
たとえば、利用者U1は、端末装置T1の操作手段を介し、演奏を担当するパートとしてベースパートの入力を行う。端末装置T1は、入力されたベースパートの情報を端末装置T1の端末識別情報ID***T1と紐付けて、オンライン会議サーバ装置CSに送信する。設定部100は、受信した情報に基づいて、端末装置T1に対してベースパートを設定する。 For example, the user U1 inputs the bass part as the part to be played through the operating means of the terminal device T1. The terminal device T1 associates the input information of the bass part with the terminal identification information ID***T1 of the terminal device T1 and transmits it to the online conference server CS. The setting unit 100 sets the base part for the terminal device T1 based on the received information.
同様に、利用者U2は、端末装置T2の操作手段を介し、演奏を担当するパートとしてギターパートの入力を行う。端末装置T2は、入力されたギターパートの情報を端末装置T2の端末識別情報ID***T2と紐付けて、オンライン会議サーバ装置CSに送信する。設定部100は、受信した情報に基づいて、端末装置T2に対してギターパートを設定する。利用者U3は、端末装置T3の操作手段を介し、演奏を担当するパートとして歌唱パートの入力を行う。端末装置T3は、入力された歌唱パートの情報を端末装置T3の端末識別情報ID***T3と紐付けて、オンライン会議サーバ装置CSに送信する。設定部100は、受信した情報に基づいて、端末装置T3に対して歌唱パートを設定する。 Similarly, the user U2 inputs a guitar part as a part to be played through the operating means of the terminal device T2. The terminal device T2 associates the input guitar part information with the terminal identification information ID***T2 of the terminal device T2, and transmits it to the online conference server CS. The setting unit 100 sets a guitar part for the terminal device T2 based on the received information. The user U3 inputs a singing part as a part to be played through the operating means of the terminal device T3. The terminal device T3 associates the input singing part information with the terminal identification information ID***T3 of the terminal device T3 and transmits it to the online conference server CS. The setting unit 100 sets a singing part for the terminal device T3 based on the received information.
生成部200は、選択された楽曲Yのカラオケ演奏データをレンダリングし、ステップ10で設定された、ギターパートに対応するパート別オーディオデータPA1、ベースパートに対応するパート別オーディオデータPA2、及び歌唱パートに対応するパート別オーディオデータPA3を生成する(設定されたパートに対応するパート別オーディオデータを生成。ステップ11)。 The generation unit 200 renders the karaoke performance data of the selected song Y, and generates the part-specific audio data PA1 corresponding to the guitar part, the part-specific audio data PA2 corresponding to the bass part, and the singing part set in step 10. (Generate part-specific audio data corresponding to the set part, step 11).
また、楽曲Yを構成するパートのうち、設定部100による設定がされていないドラムパート及びキーボードパートについて、生成部200は、楽曲Yのカラオケ演奏データをレンダリングし、ドラムパート及びキーボードパートに対応する伴奏オーディオデータACを生成する(伴奏オーディオデータを生成。ステップ12)。 In addition, the generation unit 200 renders the karaoke performance data of the song Y for the drum part and the keyboard part that are not set by the setting unit 100 among the parts that make up the song Y, and corresponds to the drum part and the keyboard part. Generate accompaniment audio data AC (generate accompaniment audio data, step 12).
送信部300は、端末装置T1~端末装置T3それぞれに対して、設定されたパートとは異なる他のパートに対応するパート別オーディオデータ、及び設定されたパート以外の全てのパートに対応する伴奏オーディオデータを含むマイナスワンオーディオデータを送信する(各端末装置に対してマイナスワンデータを送信。ステップ13)。 The transmission unit 300 transmits, to each of the terminal devices T1 to T3, part-specific audio data corresponding to parts different from the set parts, and accompaniment audio data corresponding to all parts other than the set parts. Send minus one audio data including data (send minus one data to each terminal device, step 13).
たとえば、送信部300は、端末識別情報ID***T1を参照し、ベースパートが設定された端末装置T1に対して、パート別オーディオデータPA1及びPA3と、伴奏オーディオデータACと含むマイナスワンオーディオデータMA1を送信する。 For example, the transmitting unit 300 refers to the terminal identification information ID***T1, and transmits minus one audio data including the part-specific audio data PA1 and PA3 and the accompaniment audio data AC to the terminal device T1 in which the bass part is set. Send data MA1.
同様に、送信部300は、端末識別情報ID***T2を参照し、ギターパートが設定された端末装置T2に対して、パート別オーディオデータPA2及びPA3と、伴奏オーディオデータACと含むマイナスワンオーディオデータMA2を送信する。また、送信部300は、端末識別情報ID***T3を参照し、歌唱パートが設定された端末装置T3に対して、パート別オーディオデータPA1及びPA2と、伴奏オーディオデータACと含むマイナスワンオーディオデータMA3を送信する。なお、この例において、送信部300は、マイナスワンオーディオデータMA1~MA3をいずれも同じタイミングt(t=0)で送信を開始する。 Similarly, the transmitting unit 300 refers to the terminal identification information ID***T2, and transmits minus one including the part-specific audio data PA2 and PA3 and the accompaniment audio data AC to the terminal device T2 in which the guitar part is set. Send audio data MA2. In addition, the transmitting unit 300 refers to the terminal identification information ID***T3, and transmits minus one audio data including the part-specific audio data PA1 and PA2 and the accompaniment audio data AC to the terminal device T3 in which the singing part is set. Send data MA3. In this example, transmitting section 300 starts transmitting minus one audio data MA1 to MA3 at the same timing t (t=0).
取得部400は、端末装置T1~端末装置T3から生演奏データを取得する(各端末装置から生演奏データを取得。ステップ14)。 The acquisition unit 400 acquires live performance data from the terminal devices T1 to T3 (acquires live performance data from each terminal device; step 14).
たとえば、端末装置T1は、オンライン会議サーバ装置CSからタイミングDt1で受信したマイナスワンオーディオデータMA1の再生を開始する。利用者U1は、マイナスワンオーディオデータMA1に基づく演奏音を聴きながら、楽曲Yのベース演奏を行う。端末装置T1は、ベース演奏音に基づく生演奏データLM1を、端末識別情報ID***T1と紐付けてオンライン会議サーバ装置CSに送信する。取得部400はタイミングDt2で生演奏データLM1の取得を開始する。 For example, the terminal device T1 starts playing the minus one audio data MA1 received at the timing Dt1 from the online conference server CS. The user U1 plays the bass of the song Y while listening to the performance sound based on the minus one audio data MA1. The terminal device T1 transmits live performance data LM1 based on the bass performance sound to the online conference server CS in association with the terminal identification information ID***T1. The acquiring unit 400 starts acquiring live performance data LM1 at timing Dt2.
同様に、端末装置T2は、オンライン会議サーバ装置CSからタイミングDt3で受信したマイナスワンオーディオデータMA2の再生を開始する。利用者U2は、マイナスワンオーディオデータMA2に基づく演奏音を聴きながら、楽曲Yのギター演奏を行う。端末装置T2は、ギター演奏音に基づく生演奏データLM2を、端末識別情報ID***T2と紐付けてオンライン会議サーバ装置CSに送信する。取得部400はタイミングDt4で生演奏データLM2の取得を開始する。また、端末装置T3は、オンライン会議サーバ装置CSからタイミングDt5で受信したマイナスワンオーディオデータMA3の再生を開始する。利用者U3は、マイナスワンオーディオデータMA3に基づく演奏音を聴きながら、楽曲Yの歌唱を行う。端末装置T3は、歌唱音声に基づく生演奏データLM3を、端末識別情報ID***T3と紐付けてオンライン会議サーバ装置CSに送信する。取得部400はタイミングDt6で生演奏データLM3の取得を開始する。 Similarly, the terminal device T2 starts playing the minus one audio data MA2 received from the online conference server CS at the timing Dt3. The user U2 plays the song Y on the guitar while listening to the performance sound based on the minus one audio data MA2. The terminal device T2 links the live performance data LM2 based on the sound of the guitar playing with the terminal identification information ID***T2 and transmits the live performance data LM2 to the online conference server CS. The acquiring unit 400 starts acquiring the live performance data LM2 at timing Dt4. Also, the terminal device T3 starts reproducing the minus one audio data MA3 received from the online conference server CS at the timing Dt5. The user U3 sings the song Y while listening to the performance sound based on the minus one audio data MA3. The terminal device T3 associates the live performance data LM3 based on the singing voice with the terminal identification information ID***T3 and transmits the live performance data LM3 to the online conference server CS. The acquiring unit 400 starts acquiring the live performance data LM3 at timing Dt6.
なお、タイミングDt1~Dt6は、タイミングtよりも遅い時点を示している。タイミングDt1~Dt6は、オンライン会議サーバ装置CSと各端末装置との通信環境により変化する。 Timings Dt1 to Dt6 indicate time points later than timing t. The timings Dt1 to Dt6 change depending on the communication environment between the online conference server CS and each terminal device.
記憶処理部500は、ステップ14で取得した楽曲Yの生演奏データ、及びステップ12で生成した伴奏オーディオデータを記憶手段10に記憶させる(生演奏データ及び伴奏オーディオデータを記憶。ステップ15)。
The
たとえば、取得部400が楽曲Yのベース演奏の生演奏データLM1、楽曲Yのギター演奏の生演奏データLM2、及び楽曲Yの歌唱の生演奏データLM3を取得したとする。 For example, assume that the acquisition unit 400 acquires live performance data LM1 of the bass performance of the song Y, live performance data LM2 of the guitar performance of the song Y, and live performance data LM3 of the singing of the song Y.
この場合、記憶処理部500は、生演奏データLM1~LM3、及び伴奏オーディオデータACを記憶手段10に記憶させる。
In this case, the
各利用者の演奏が終了した後、オンライン会議サーバ装置CSは、パートに紐付けられた端末識別情報を参照し、生演奏データ及び伴奏オーディオデータに基づくセッション演奏を端末装置T1~端末装置T3に配信する(各端末装置にセッション演奏を配信。ステップ16)。 After each user's performance is finished, the online conference server CS refers to the terminal identification information linked to the part, and sends the session performance based on the live performance data and the accompaniment audio data to the terminal devices T1 to T3. Distribute (Distribute the session performance to each terminal device. Step 16).
たとえば、オンライン会議サーバ装置CSは、生演奏データLM1~LM3、及び伴奏オーディオデータACを同期したセッション演奏を再生し、端末識別情報ID***T1~端末識別情報ID***T3に基づいて端末装置T1~端末装置T3に配信する。 For example, the online conference server CS reproduces a session performance in which the live performance data LM1 to LM3 and the accompaniment audio data AC are synchronized, based on the terminal identification information ID***T1 to terminal identification information ID***T3. It is distributed to terminal devices T1 to T3.
以上から明らかなように、本実施形態に係るオンライン会議サーバ装置CSは、複数の利用者それぞれが使用する端末装置と通信可能に接続されている。オンライン会議サーバ装置CSは、端末装置毎に、担当する演奏のパートを設定する設定部100と、カラオケ演奏で使用されるある楽曲のカラオケ演奏データを処理することにより、設定されたパートそれぞれに対応するパート別オーディオデータを生成する生成部200と、一のパートが設定された端末装置に対して、当該一のパートとは異なる他のパートに対応するパート別オーディオデータであるマイナスワンオーディオデータを送信する送信部300と、一のパートが設定された端末装置から、マイナスワンオーディオデータに基づく演奏に合わせて当該一のパートを実際に演奏して得られた演奏音に基づく生演奏データを取得する取得部400と、複数の端末装置それぞれから取得したある楽曲の生演奏データを記憶させる記憶処理部500と、を有する。
As is clear from the above, the online conference server CS according to this embodiment is communicably connected to terminal devices used by a plurality of users. The online conference server device CS corresponds to each of the set parts by processing the karaoke performance data of a certain piece of music used in the karaoke performance, and the setting unit 100 that sets the performance part to be in charge for each terminal device. and minus-one audio data, which is part-specific audio data corresponding to another part different from the one part, to the terminal device to which one part is set. Acquire live performance data based on the performance sound obtained by actually performing the one part in accordance with the performance based on the minus one audio data from the transmitting unit 300 for transmission and the terminal device in which the one part is set. and a
このようなオンライン会議サーバ装置CSによれば、カラオケ演奏データを用いてパート別オーディオデータを生成し、パートが設定された端末装置に対してマイナスワンオーディオデータを送信することができる。ある端末装置に送信されたマイナスワンオーディオデータは、ある端末装置に設定されたパート以外のパートに対応するパート別オーディオデータを含む。つまり、ある端末装置に送信されたマイナスワンオーディオデータに基づく演奏音は、当該ある端末装置に設定されたパートの演奏音が含まれていない。よって、利用者は、当該演奏音に合わせて自己のパートの演奏を行いやすくなる。すなわち、本実施形態に係るオンライン会議サーバ装置CSによれば、カラオケ演奏で使用されるカラオケ演奏データを利用してオンラインでのセッション演奏を行うことができる。 According to such an online conference server CS, it is possible to generate part-specific audio data using karaoke performance data and transmit minus one audio data to the terminal device in which the part is set. The minus one audio data transmitted to a certain terminal device includes part-by-part audio data corresponding to parts other than the part set to the certain terminal device. In other words, the performance sound based on the minus one audio data transmitted to a certain terminal device does not include the performance sound of the part set in the certain terminal device. Therefore, the user can easily perform his/her own part in accordance with the performance sound. That is, according to the online conference server device CS according to the present embodiment, an online session performance can be performed using the karaoke performance data used in the karaoke performance.
また、本実施形態に係るオンライン会議サーバ装置CSにおいて、ある楽曲を構成する複数のパートのうち、設定部100による設定がされていないパートがある場合、生成部200は、パート別オーディオデータ、及び設定されたパート以外の全てのパートに対応する伴奏オーディオデータを生成する。送信部300は、一のパートが設定された端末装置に対して、伴奏オーディオデータを含むマイナスワンオーディオデータを送信する。記憶処理部500は、ある楽曲の生演奏データ、及び伴奏オーディオデータを記憶させる。このようなオンライン会議サーバ装置CSによれば、ある楽曲を構成する複数のパートのうち、設定されていない演奏のパートがある場合であっても、利用者の演奏するパートに適したマイナスワンオーディオデータを提供することができる。
Further, in the online conference server device CS according to the present embodiment, if there is a part that is not set by the setting unit 100 among a plurality of parts that constitute a piece of music, the generation unit 200 generates the audio data for each part, Accompaniment audio data corresponding to all parts other than the set part is generated. The transmitting unit 300 transmits minus one audio data including accompaniment audio data to the terminal device to which one part is set. The
<第2実施形態>
次に、図4を参照して、第2実施形態に係るオンラインセッションサーバ装置について説明を行う。本実施形態では、マイナスワンオーディオデータに含まれるパート別オーディオデータのうち、一部のデータを生演奏データに置き換える例について述べる。第1実施形態と同様の構成については詳細な説明を省略する。
<Second embodiment>
Next, an online session server device according to the second embodiment will be described with reference to FIG. In this embodiment, an example will be described in which part of the part-specific audio data included in the minus one audio data is replaced with live performance data. A detailed description of the configuration similar to that of the first embodiment will be omitted.
(送信部)
本実施形態に係る送信部300は、一のパートが設定された端末装置に対してマイナスワンオーディオデータを送信する際に、他の端末装置から生演奏データを取得している場合、他のパートに対応するパート別オーディオデータを、当該他のパートが設定された端末装置から取得している生演奏データに置き換えたマイナスワンオーディオデータを送信する。
(Transmitter)
When the transmission unit 300 according to the present embodiment transmits minus one audio data to a terminal device to which one part is set, if live performance data is acquired from another terminal device, the other part minus one audio data obtained by replacing the part-specific audio data corresponding to , with the live performance data obtained from the terminal device in which the other part is set.
たとえば、送信部300は、第1実施形態の楽曲Xの歌唱パートが設定されたある端末装置に対し、マイナスワンオーディオデータとして、歌唱パートとは異なる他のパート(ギターパート、ベースパート、及びドラムパート)に対応するパート別オーディオデータの送信を開始する。ある端末装置は、受信したパート別オーディオデータの再生を開始する。ある端末装置の利用者は、パート別オーディオデータに基づく演奏音を聴きながら、楽曲Xの歌唱を行う。ある端末装置は、歌唱音声に基づく生演奏データを、自己の端末識別情報と紐付けてオンライン会議サーバ装置CSに送信する。取得部400は、歌唱の生演奏データの取得を開始する。 For example, the transmission unit 300 transmits other parts (a guitar part, a bass part, and a drum part) different from the singing part as minus one audio data to a certain terminal device in which the singing part of the song X of the first embodiment is set. start transmitting part-specific audio data corresponding to part). A certain terminal device starts reproducing the received part-by-part audio data. A user of a certain terminal device sings a piece of music X while listening to performance sounds based on part-by-part audio data. A certain terminal device links live performance data based on singing voice with its own terminal identification information and transmits it to the online conference server CS. The acquisition unit 400 starts acquiring live performance data of singing.
取得部400が歌唱の生演奏データの取得を開始すると、送信部300は、ギターパートが設定された別の端末装置に対し、マイナスワンオーディオデータとして、ギターパートとは異なる他のパート(歌唱パート、ベースパート、及びドラムパート)に対応するパート別オーディオデータを送信する。 When the acquisition unit 400 starts acquiring live performance data of a song, the transmission unit 300 transmits another part (singing part) different from the guitar part as minus one audio data to another terminal device in which the guitar part is set. , bass part, and drum part).
ここで、オンライン会議サーバ装置CSは、既に、ある端末装置から歌唱の生演奏データを取得している。この場合、送信部300は、別の端末装置に対し、歌唱パートに対応するパート別オーディオデータを、取得している歌唱の生演奏データに置き換えたマイナスワンオーディオデータを送信する。この例において、別の端末装置は「一のパートが設定された端末装置」に相当し、ある端末装置は「他の端末装置」に相当し、歌唱パートは、「他のパート」に相当する。 Here, the online conference server CS has already acquired live performance data of singing from a certain terminal device. In this case, the transmission unit 300 transmits minus one audio data obtained by replacing the part-specific audio data corresponding to the singing part with the acquired live performance data of the singing to another terminal device. In this example, another terminal device corresponds to "a terminal device in which one part is set", a certain terminal device corresponds to "another terminal device", and a singing part corresponds to "another part". .
==オンライン会議サーバ装置の動作について==
次に、図4を参照して本実施形態におけるオンライン会議サーバ装置CSの動作の具体例について述べる。図4は、オンライン会議サーバ装置CSの動作例を示すフローチャートである。この例において、図1に示した利用者U1~利用者U3でオンラインのセッション演奏を行うとする。また、セッション演奏を行う楽曲として、歌唱パート、ギターパート、ベースパート、ドラムパート、及びキーボードパートからなる楽曲Yが選択されたとする。
== Operation of the online conference server device ==
Next, a specific example of the operation of the online conference server CS in this embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing an operation example of the online conference server CS. In this example, it is assumed that users U1 to U3 shown in FIG. 1 play an online session. Also, assume that a song Y consisting of a singing part, a guitar part, a bass part, a drum part, and a keyboard part is selected as a song for session performance.
オンライン会議サーバ装置CSの設定部100は、端末装置T1~端末装置T3に対して順番に一のパートを設定する(各端末装置に対して順番に一のパートを設定。ステップ20)。たとえば、利用者U1、利用者U2、利用者U3の順で演奏を担当するパートの入力を行ったとする。この場合、設定部100は、利用者U1(ベースパート)、利用者U2(ギターパート)、利用者U3(歌唱パート)の順番でパートを設定する。各端末装置に対するパートの設定の方法は、第1実施形態のステップ10と同様である。 The setting unit 100 of the online conference server CS sequentially sets one part for the terminal devices T1 to T3 (sets one part for each terminal device in order, step 20). For example, assume that user U1, user U2, and user U3 input the parts in charge of performance in this order. In this case, the setting unit 100 sets the parts in the order of user U1 (bass part), user U2 (guitar part), and user U3 (singing part). The method of setting parts for each terminal device is the same as in step 10 of the first embodiment.
ステップ21及びステップ22は、第1実施形態のステップ11及びステップ12と同様である。 Steps 21 and 22 are the same as steps 11 and 12 of the first embodiment.
送信部300は、最初にパートを設定した利用者U1が使用する端末装置T1に対して、設定されたパートとは異なる他のパートに対応するパート別オーディオデータ、及び設定されたパート以外の全てのパートに対応する伴奏オーディオデータを含むマイナスワンオーディオデータの送信を開始する(端末装置T1に対してマイナスワンデータの送信を開始。ステップ23)。 The transmission unit 300 transmits the part-specific audio data corresponding to other parts different from the set part and all parts other than the set part to the terminal device T1 used by the user U1 who set the part first. (The transmission of minus one data to the terminal device T1 is started. Step 23).
具体的に、送信部300は、端末識別情報ID***T1を参照し、ベースパートが設定された端末装置T1に対して、パート別オーディオデータPA1及びPA3と、伴奏オーディオデータACと含むマイナスワンオーディオデータMA1について、タイミングt(t=0)で送信を開始する。 Specifically, the transmitting unit 300 refers to the terminal identification information ID ***T1, and sends the minus part including the part-specific audio data PA1 and PA3 and the accompaniment audio data AC to the terminal device T1 in which the bass part is set. Transmission of one audio data MA1 is started at timing t (t=0).
取得部400は、端末装置T1から生演奏データの取得を開始する(端末装置T1から生演奏データの取得を開始。ステップ24)。 The acquisition unit 400 starts acquiring live performance data from the terminal device T1 (starts acquiring live performance data from the terminal device T1, step 24).
端末装置T1は、オンライン会議サーバ装置CSからタイミングDt7で受信したマイナスワンオーディオデータMA1の再生を開始する。利用者U1は、マイナスワンオーディオデータMA1に基づく演奏音を聴きながら、楽曲Yのベース演奏を行う。端末装置T1は、ベース演奏音に基づく生演奏データLM1を、端末識別情報ID***T1と紐付けてオンライン会議サーバ装置CSに送信する。取得部400はタイミングDt8で生演奏データLM1の取得を開始する。 The terminal device T1 starts playing the minus one audio data MA1 received from the online conference server CS at the timing Dt7. The user U1 plays the bass of the song Y while listening to the performance sound based on the minus one audio data MA1. The terminal device T1 transmits live performance data LM1 based on the bass performance sound to the online conference server CS in association with the terminal identification information ID***T1. The acquiring unit 400 starts acquiring the live performance data LM1 at timing Dt8.
送信部300は、利用者U1の次にパートを設定した利用者U2が使用する端末装置T2に対してマイナスワンオーディオデータの送信を開始する。 The transmitting unit 300 starts transmitting the minus one audio data to the terminal device T2 used by the user U2 who set the part next to the user U1.
この時点において、オンライン会議サーバ装置CSは、端末装置T1からベースパートを実際に演奏して得られた生演奏データを取得している。よって、送信部300は、ベースパートに対応するパート別オーディオデータを、取得しているベースパートの生演奏データに置き換えたマイナスワンオーディオデータの送信を開始する(端末装置T2に対し、一部のパート別オーディオデータを生演奏データに置き換えたマイナスワンデータの送信を開始。ステップ25)。 At this point, the online conference server CS has acquired live performance data obtained by actually playing the bass part from the terminal device T1. Therefore, the transmitting unit 300 starts transmitting the minus one audio data obtained by replacing the part-specific audio data corresponding to the bass part with the acquired live performance data of the bass part (to the terminal device T2, the part of the audio data). Transmission of minus one data in which the audio data for each part is replaced with live performance data is started (step 25).
具体的に、送信部300は、端末識別情報ID***T2を参照し、ギターパートが設定された端末装置T2に対して、パート別オーディオデータPA3、パート別オーディオデータPA1と置き換えた生演奏データLM1、及び伴奏オーディオデータACと含むマイナスワンオーディオデータMA2について、タイミングDt8で送信を開始する。 Specifically, the transmission unit 300 refers to the terminal identification information ID***T2, and sends the live performance data PA3 and the live performance data PA1 replaced with the part-specific audio data PA3 and the part-specific audio data PA1 to the terminal device T2 in which the guitar part is set. Transmission of minus one audio data MA2 including data LM1 and accompaniment audio data AC is started at timing Dt8.
取得部400は、端末装置T2から生演奏データの取得を開始する(端末装置T2から生演奏データの取得を開始。ステップ26)。 The acquisition unit 400 starts acquiring live performance data from the terminal device T2 (starts acquiring live performance data from the terminal device T2, step 26).
端末装置T2は、オンライン会議サーバ装置CSからタイミングDt9で受信したマイナスワンオーディオデータMA2の再生を開始する。利用者U2は、マイナスワンオーディオデータMA2に基づく演奏音を聴きながら、楽曲Yのギター演奏を行う。端末装置T2は、ギター演奏音に基づく生演奏データLM2を、端末識別情報ID***T2と紐付けてオンライン会議サーバ装置CSに送信する。取得部400はタイミングDt10で生演奏データLM2の取得を開始する。 The terminal device T2 starts playing the minus one audio data MA2 received at the timing Dt9 from the online conference server device CS. The user U2 plays the song Y on the guitar while listening to the performance sound based on the minus one audio data MA2. The terminal device T2 links the live performance data LM2 based on the sound of the guitar playing with the terminal identification information ID***T2 and transmits the live performance data LM2 to the online conference server CS. The acquiring unit 400 starts acquiring the live performance data LM2 at timing Dt10.
送信部300は、利用者U2の次にパートを設定した利用者U3が使用する端末装置T3に対してマイナスワンオーディオデータの送信を開始する。 The transmitting unit 300 starts transmitting the minus one audio data to the terminal device T3 used by the user U3 who set the part next to the user U2.
この時点において、オンライン会議サーバ装置CSは、端末装置T1からベースパートを実際に演奏して得られた生演奏データを取得し、且つ端末装置T2からギターパートを実際に演奏して得られた生演奏データを取得している。よって、送信部300は、ベースパートに対応するパート別オーディオデータ及びギターパートに対応するパート別オーディオデータを、取得しているベースパートの生演奏データ及びギターパートの生演奏データに置き換えたマイナスワンオーディオデータの送信を開始する(端末装置T3に対し、一部のパート別オーディオデータを生演奏データに置き換えたマイナスワンデータの送信を開始。ステップ27)。 At this point, the online conference server CS obtains live performance data obtained by actually playing the bass part from the terminal device T1, and obtains live performance data obtained by actually playing the guitar part from the terminal device T2. Acquiring performance data. Therefore, the transmission unit 300 replaces the part-specific audio data corresponding to the bass part and the part-specific audio data corresponding to the guitar part with the acquired live performance data of the bass part and the acquired live performance data of the guitar part. Audio data transmission is started (transmission of minus one data in which part of the part-by-part audio data is replaced with live performance data is started to the terminal device T3. Step 27).
具体的に、送信部300は、端末識別情報ID***T3を参照し、歌唱パートが設定された端末装置T3に対して、パート別オーディオデータPA1と置き換えた生演奏データLM1、パート別オーディオデータPA2と置き換えた生演奏データLM2、及び伴奏オーディオデータACと含むマイナスワンオーディオデータMA3について、タイミングDt10で送信を開始する。 Specifically, the transmitting unit 300 refers to the terminal identification information ID***T3, and sends the live performance data LM1 replaced with the part-specific audio data PA1 to the terminal device T3 in which the singing part is set, and the part-specific audio data LM1. Transmission of live performance data LM2 replaced with data PA2 and minus one audio data MA3 including accompaniment audio data AC is started at timing Dt10.
取得部400は、端末装置T3から生演奏データの取得を開始する(端末装置T3から生演奏データの取得を開始。ステップ28)。 The acquisition unit 400 starts acquiring live performance data from the terminal device T3 (Starts acquiring live performance data from the terminal device T3. Step 28).
端末装置T3は、オンライン会議サーバ装置CSからタイミングDt11で受信したマイナスワンオーディオデータMA3の再生を開始する。利用者U3は、マイナスワンオーディオデータMA3に基づく演奏音を聴きながら、楽曲Yの歌唱を行う。端末装置T3は、歌唱音声に基づく生演奏データLM3を、端末識別情報ID***T3と紐付けてオンライン会議サーバ装置CSに送信する。取得部400はタイミングDt12で生演奏データLM3の取得を開始する。 The terminal device T3 starts reproducing the minus one audio data MA3 received at the timing Dt11 from the online conference server device CS. The user U3 sings the song Y while listening to the performance sound based on the minus one audio data MA3. The terminal device T3 associates the live performance data LM3 based on the singing voice with the terminal identification information ID***T3 and transmits the live performance data LM3 to the online conference server CS. The acquiring unit 400 starts acquiring the live performance data LM3 at timing Dt12.
なお、タイミングDt7~Dt12は、タイミングtよりも遅い時点を示している。また、タイミングDt12は、タイミングDt11よりも遅い時点を示しており、タイミングDt11は、タイミングDt10よりも遅い時点を示しており、タイミングDt10は、タイミングDt9よりも遅い時点を示しており、タイミングDt9は、タイミングDt8よりも遅い時点を示しており、タイミングDt8は、タイミングDt7よりも遅い時点を示している。また、タイミングDt7~Dt12は、オンライン会議サーバ装置CSと各端末装置との通信環境により変化する。 Timings Dt7 to Dt12 indicate points later than timing t. Timing Dt12 is later than timing Dt11, timing Dt11 is later than timing Dt10, timing Dt10 is later than timing Dt9, and timing Dt9 is later than timing Dt9. , and timing Dt8, which is later than timing Dt7. Also, the timings Dt7 to Dt12 change depending on the communication environment between the online conference server CS and each terminal device.
記憶処理部500は、ステップ24、26、及び28で取得を開始した楽曲Yの生演奏データ、及びステップ22で生成した伴奏オーディオデータを記憶手段10に記憶させる(生演奏データ及び伴奏オーディオデータを記憶。ステップ29)。
The
各利用者の演奏が終了した後、オンライン会議サーバ装置CSは、パートに紐付けられた端末識別情報を参照し、生演奏データ及び伴奏オーディオデータに基づくセッション演奏を端末装置T1~端末装置T3に配信する(各端末装置にセッション演奏を配信。ステップ30)。 After each user's performance is finished, the online conference server CS refers to the terminal identification information linked to the part, and sends the session performance based on the live performance data and the accompaniment audio data to the terminal devices T1 to T3. Distribute (Distribute the session performance to each terminal device. Step 30).
以上から明らかなように、本実施形態に係るオンライン会議サーバ装置CSにおける送信部300は、一のパートが設定された端末装置に対してマイナスワンオーディオデータを送信する際に、他の端末装置から生演奏データを取得している場合、他のパートに対応するパート別オーディオデータを、当該他のパートが設定された端末装置から取得している生演奏データに置き換えたマイナスワンオーディオデータを送信する。 As is clear from the above, when the transmission unit 300 in the online conference server CS according to the present embodiment transmits the minus one audio data to the terminal device to which one part is set, the other terminal device When live performance data is acquired, transmit minus one audio data obtained by replacing part-specific audio data corresponding to other parts with live performance data acquired from the terminal device in which the other parts are set. .
このようなオンライン会議サーバ装置CSによれば、一部の端末装置に対しては、生演奏データを含むマイナスワンオーディオデータを送信することができる。よって、当該マイナスワンオーディオデータに基づく演奏音に合わせて自己のパートを演奏する際、利用者は、実際のセッション演奏を行っているような感覚を得ることができる。 According to such an online conference server CS, minus one audio data including live performance data can be transmitted to some terminal devices. Therefore, the user can feel as if he/she is performing an actual session performance when performing his or her own part in accordance with the performance sound based on the minus one audio data.
<第2実施形態の変形例>
送信部300は、ある楽曲を選択した利用者の端末装置に対し、他のパートに対応するパート別オーディオデータの全てを、当該他のパートが設定された端末装置から取得している生演奏データに置き換えたマイナスワンオーディオデータを送信することができる。
<Modification of Second Embodiment>
The transmitting unit 300 sends all of the part-specific audio data corresponding to the other parts to the terminal device of the user who has selected a certain piece of music, and transmits the live performance data obtained from the terminal device in which the other parts are set. minus one audio data replaced by .
たとえば、第2実施形態の例において、利用者U1が楽曲Yを選択したとする。 For example, assume that user U1 selects song Y in the example of the second embodiment.
この場合、送信部300は、利用者U1とは異なる利用者U2及び利用者U3が使用する端末装置T2及びT3に対して先にマイナスワンオーディオデータの送信を行う。 In this case, the transmitting unit 300 first transmits the minus one audio data to the terminal devices T2 and T3 used by the users U2 and U3 who are different from the user U1.
たとえば、送信部300は、端末識別情報ID***T2を参照し、ギターパートが設定された端末装置T2に対して、パート別オーディオデータPA1及びPA3と、伴奏オーディオデータACと含むマイナスワンオーディオデータMA2の送信を開始する。 For example, the transmission unit 300 refers to the terminal identification information ID***T2, and sends minus-one audio data including the part-specific audio data PA1 and PA3 and the accompaniment audio data AC to the terminal device T2 in which the guitar part is set. Start sending data MA2.
端末装置T2は、オンライン会議サーバ装置CSから受信したマイナスワンオーディオデータMA2の再生を開始する。利用者U2は、マイナスワンオーディオデータMA2に基づく演奏音を聴きながら、楽曲Yのギター演奏を行う。端末装置T2は、ギター演奏音に基づく生演奏データLM2を、端末識別情報ID***T2と紐付けてオンライン会議サーバ装置CSに送信する。取得部400は生演奏データLM2の取得を開始する。 The terminal device T2 starts playing the minus one audio data MA2 received from the online conference server CS. The user U2 plays the song Y on the guitar while listening to the performance sound based on the minus one audio data MA2. The terminal device T2 links the live performance data LM2 based on the sound of the guitar playing with the terminal identification information ID***T2 and transmits the live performance data LM2 to the online conference server CS. The acquiring unit 400 starts acquiring the live performance data LM2.
送信部300は、端末識別情報ID***T3を参照し、歌唱パートが設定された端末装置T3に対して、パート別オーディオデータPA1、パート別オーディオデータPA2と置き換えた生演奏データLM2、及び伴奏オーディオデータACと含むマイナスワンオーディオデータMA3の送信を開始する。 The transmission unit 300 refers to the terminal identification information ID***T3, and sends the part-specific audio data PA1, the live performance data LM2 replaced with the part-specific audio data PA2, and Transmission of minus one audio data MA3 including accompaniment audio data AC is started.
端末装置T3は、オンライン会議サーバ装置CSから受信したマイナスワンオーディオデータMA3の再生を開始する。利用者U3は、マイナスワンオーディオデータMA3に基づく演奏音を聴きながら、楽曲Yの歌唱を行う。端末装置T3は、歌唱音声に基づく生演奏データLM3を、端末識別情報ID***T3と紐付けてオンライン会議サーバ装置CSに送信する。取得部400は生演奏データLM3の取得を開始する。なお、この例では、端末装置T2、端末装置T3の順でマイナスワンオーディオデータを送信する例について述べたが、これに限られない。マイナスワンオーディオデータを送信する順番として、楽曲を選択した利用者の端末装置が最後になるような順番であれば、特に限定されない。 The terminal device T3 starts playing the minus one audio data MA3 received from the online conference server CS. The user U3 sings the song Y while listening to the performance sound based on the minus one audio data MA3. The terminal device T3 associates the live performance data LM3 based on the singing voice with the terminal identification information ID***T3 and transmits the live performance data LM3 to the online conference server CS. The acquiring unit 400 starts acquiring the live performance data LM3. In this example, the example in which the minus one audio data is transmitted in the order of the terminal device T2 and the terminal device T3 has been described, but the present invention is not limited to this. The order in which the minus one audio data is transmitted is not particularly limited as long as the terminal device of the user who has selected the music piece comes last.
送信部300は、ベースパートが設定された端末装置T1(楽曲Yを選択した利用者が使用する端末装置T1)に対して、パート別オーディオデータPA2と置き換えた生演奏データLM2、パート別オーディオデータPA3と置き換えた生演奏データLM3、及び伴奏オーディオデータACと含むマイナスワンオーディオデータMA1の送信を開始する。 The transmitting unit 300 sends the live performance data LM2 replaced with the part-specific audio data PA2 and the part-specific audio data to the terminal device T1 set with the bass part (the terminal device T1 used by the user who selected the song Y). Transmission of live performance data LM3 replaced with PA3 and minus one audio data MA1 including accompaniment audio data AC is started.
端末装置T1は、オンライン会議サーバ装置CSから受信したマイナスワンオーディオデータMA1の再生を開始する。利用者U1は、マイナスワンオーディオデータMA1に基づく演奏音を聴きながら、楽曲Yのベース演奏を行う。端末装置T1は、ベース演奏音に基づく生演奏データLM1を、端末識別情報ID***T1と紐付けてオンライン会議サーバ装置CSに送信する。取得部400は生演奏データLM1の取得を開始する。 The terminal device T1 starts playing the minus one audio data MA1 received from the online conference server CS. The user U1 plays the bass of the song Y while listening to the performance sound based on the minus one audio data MA1. The terminal device T1 transmits live performance data LM1 based on the bass performance sound to the online conference server CS in association with the terminal identification information ID***T1. The acquiring unit 400 starts acquiring the live performance data LM1.
楽曲を選択した利用者は、当該楽曲のセッション演奏を積極的に行いたいと考えている可能性が高い。一方、このようなオンライン会議サーバ装置CSによれば、セッション演奏を行う楽曲を選択した利用者が使用する端末装置に対して、他の利用者の実際の演奏に基づいて得られた生演奏データ全てを含むマイナスワンオーディオデータを送信することができる。よって、楽曲を選択した利用者は、実際のセッション演奏を行っているような感覚をより強く得ることができる。 A user who has selected a piece of music is highly likely to want to actively perform a session performance of the piece of music. On the other hand, according to such an online conference server device CS, live performance data obtained based on actual performances of other users is transmitted to the terminal device used by the user who has selected the music to be performed in the session. All inclusive minus one audio data can be sent. Therefore, a user who has selected a piece of music can feel more strongly as if he or she is actually performing an actual session performance.
<その他>
取得部400は、端末装置から、ある楽曲の生演奏データ及び当該端末装置を使用する利用者を撮影した映像データを取得することができる。
<Others>
The acquisition unit 400 can acquire live performance data of a certain piece of music and video data of a user using the terminal device from the terminal device.
映像データは、たとえば、端末装置が有するカメラにより、演奏中の利用者を撮影して得られる。端末装置は、オンライン会議サーバ装置CSに対し、生演奏データと併せて映像データを送信する。取得部400は、生演奏データ及び映像データを取得する。記憶処理部500は、生演奏データ及び映像データを記憶手段10に記憶させる。オンライン会議サーバ装置CSは、記憶させた映像データに基づく映像を、生演奏データを同期したセッション演奏と共に再生し、各端末装置に配信する。
The video data is obtained, for example, by photographing the user during the performance with a camera of the terminal device. The terminal device transmits video data together with the live performance data to the online conference server CS. The acquisition unit 400 acquires live performance data and video data. The
また、上記実施形態ではオンライン会議システムS1を利用する全ての利用者U1~利用者U3が何らかの演奏を行う例について説明した。一方、演奏を行わない利用者がいる場合もありうる。そこで、オンライン会議サーバ装置CSは、このような利用者が使用する端末装置に対し、生成部200が生成した全てのパート別オーディオデータ(または全てのパート別オーディオデータ及び伴奏オーディオデータ)を配信することができる。このようなデータを配信することにより、他の利用者がセッション演奏を行っている最中であっても、演奏を行わない利用者は退屈することがない。 Further, in the above embodiment, all the users U1 to U3 who use the online conference system S1 perform some performance. On the other hand, there may be users who do not perform. Therefore, the online conference server CS distributes all part-specific audio data (or all part-specific audio data and accompaniment audio data) generated by the generating unit 200 to the terminal devices used by such users. be able to. By distributing such data, even when other users are performing session performances, users who do not play will not be bored.
また、上記実施形態で説明した一部の構成をカラオケサーバ装置KSが有してもよい。たとえば、第1実施形態の例において、オンライン会議サーバ装置CSが設定部100、送信部300、取得部400、及び記憶処理部500を有し、カラオケサーバ装置KSが生成部200を有していてもよい。これらの場合、オンライン会議サーバ装置CS及びカラオケサーバ装置KSが「オンラインセッションサーバ装置」として機能する。
Also, the karaoke server device KS may have a part of the configuration described in the above embodiment. For example, in the example of the first embodiment, the online conference server CS has the setting unit 100, the transmission unit 300, the acquisition unit 400, and the
更に、上記実施形態で説明したオンライン会議サーバ装置CS及びカラオケサーバ装置KSの機能を有する一のサーバ装置を設けてもよい。端末装置は、当該サーバ装置と直接通信が可能となるよう構成される。この場合、当該サーバ装置が「オンラインセッションサーバ装置」として機能する。 Furthermore, one server device having the functions of the online conference server device CS and the karaoke server device KS described in the above embodiments may be provided. The terminal device is configured to be able to directly communicate with the server device. In this case, the server device functions as an "online session server device".
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 The above embodiments are presented as examples and are not intended to limit the scope of the invention. The above configurations can be implemented in combination as appropriate, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The above-described embodiments and modifications thereof are included in the invention described in the claims and their equivalents, as well as being included in the scope and gist of the invention.
1 オンラインセッションシステム
100 設定部
200 生成部
300 送信部
400 取得部
500 記憶処理部
CS オンライン会議サーバ装置
KS カラオケサーバ装置
S1 オンライン会議システム
S2 通信カラオケシステム
T1~T3 端末装置
1 online session system 100 setting unit 200 generation unit 300 transmission unit 400
Claims (4)
前記端末装置毎に、担当する演奏のパートを設定する設定部と、
カラオケ演奏で使用されるある楽曲のカラオケ演奏データを処理することにより、設定された前記パートそれぞれに対応するパート別オーディオデータを生成する生成部と、
一のパートが設定された前記端末装置に対して、当該一のパートとは異なる他のパートに対応する前記パート別オーディオデータであるマイナスワンオーディオデータを送信する送信部と、
前記一のパートが設定された端末装置から、前記マイナスワンオーディオデータに基づく演奏に合わせて当該一のパートを実際に演奏して得られた演奏音に基づく生演奏データを取得する取得部と、
複数の前記端末装置それぞれから取得した前記ある楽曲の生演奏データを記憶させる記憶処理部と、
を有するオンラインセッションサーバ装置。 An online session server device communicably connected to a terminal device used by each of a plurality of users,
a setting unit for setting a performance part to be in charge of for each of the terminal devices;
a generation unit that generates part-specific audio data corresponding to each of the set parts by processing karaoke performance data of a song used in karaoke performance;
a transmission unit configured to transmit minus one audio data, which is the part-specific audio data corresponding to another part different from the one part, to the terminal device to which one part is set;
an acquisition unit for acquiring live performance data based on a performance sound obtained by actually performing the one part in accordance with the performance based on the minus one audio data from the terminal device in which the one part is set;
a storage processing unit that stores live performance data of the music piece that is acquired from each of the plurality of terminal devices;
An online session server device having
前記送信部は、一のパートが設定された前記端末装置に対して、前記伴奏オーディオデータを含む前記マイナスワンオーディオデータを送信し、
前記記憶処理部は、前記ある楽曲の生演奏データ、及び前記伴奏オーディオデータを記憶させることを特徴とする請求項1記載のオンラインセッションサーバ装置。 If there is a part that is not set by the setting unit among the plurality of parts that make up the music piece, the generation unit corresponds to the part-specific audio data and all parts other than the set part. generate accompaniment audio data that
The transmission unit transmits the minus one audio data including the accompaniment audio data to the terminal device to which one part is set,
2. The online session server apparatus according to claim 1, wherein the storage processing unit stores the live performance data of the certain piece of music and the accompaniment audio data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021010559A JP2022114309A (en) | 2021-01-26 | 2021-01-26 | Online session server device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021010559A JP2022114309A (en) | 2021-01-26 | 2021-01-26 | Online session server device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022114309A true JP2022114309A (en) | 2022-08-05 |
Family
ID=82658657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021010559A Pending JP2022114309A (en) | 2021-01-26 | 2021-01-26 | Online session server device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022114309A (en) |
-
2021
- 2021-01-26 JP JP2021010559A patent/JP2022114309A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1248135C (en) | Network based music playing/song accompanying service system and method | |
KR0152677B1 (en) | Karaoke apparatus having automatic effector control | |
US9602388B2 (en) | Session terminal apparatus and network session system | |
US20040176025A1 (en) | Playing music with mobile phones | |
JP2010164922A (en) | Karaoke service system and terminal device | |
US5484291A (en) | Apparatus and method of playing karaoke accompaniment | |
JP6457326B2 (en) | Karaoke system that supports transmission delay of singing voice | |
KR100819775B1 (en) | Network based music playing/song accompanying service apparatus, system method and computer recordable medium | |
JP5544961B2 (en) | server | |
JP2014071226A (en) | Music reproduction system and music reproduction method | |
JP2022114309A (en) | Online session server device | |
JP2008304821A (en) | Musical piece concert release system | |
WO2011111825A1 (en) | Karaoke system and karaoke performance terminal | |
Turchet et al. | A web-based distributed system for integrating mobile music in choral performance | |
JP6220576B2 (en) | A communication karaoke system characterized by a communication duet by multiple people | |
JP3637196B2 (en) | Music player | |
JPH0950284A (en) | Communication 'karaoke' device | |
JP7583659B2 (en) | Karaoke System | |
JP6966738B1 (en) | Sound data generation system, sound data generation program, and sound data generation method | |
KR20140125440A (en) | Acoustic processing device and communication acoustic processing system | |
JP7434083B2 (en) | karaoke equipment | |
JP4453580B2 (en) | Karaoke system and karaoke device | |
WO2022190717A1 (en) | Content data processing method and content data processing device | |
JP3975698B2 (en) | Mobile communication terminal | |
JP2023051140A (en) | karaoke system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231024 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240913 |